[go: up one dir, main page]

TWI678181B - 手術導引系統 - Google Patents

手術導引系統 Download PDF

Info

Publication number
TWI678181B
TWI678181B TW107114633A TW107114633A TWI678181B TW I678181 B TWI678181 B TW I678181B TW 107114633 A TW107114633 A TW 107114633A TW 107114633 A TW107114633 A TW 107114633A TW I678181 B TWI678181 B TW I678181B
Authority
TW
Taiwan
Prior art keywords
reference element
image
user
head
guidance system
Prior art date
Application number
TW107114633A
Other languages
English (en)
Other versions
TW201944954A (zh
Inventor
劉浩澧
Hao-Li Liu
邱錫彥
Shin-Yan Chiou
廖振淵
Chen-Yuan Liao
林文彥
Wen-Yen Lin
陳品元
Pin-Yuan Chen
魏國珍
Kuo-Chen Wei
Original Assignee
長庚大學
Chang Gung University
長庚醫療財團法人林口長庚紀念醫院
Chang Gung Memorial Hospital, Linkou
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 長庚大學, Chang Gung University, 長庚醫療財團法人林口長庚紀念醫院, Chang Gung Memorial Hospital, Linkou filed Critical 長庚大學
Priority to TW107114633A priority Critical patent/TWI678181B/zh
Priority to US16/179,020 priority patent/US10820945B2/en
Priority to CN201811329715.6A priority patent/CN110403699B/zh
Application granted granted Critical
Publication of TW201944954A publication Critical patent/TW201944954A/zh
Publication of TWI678181B publication Critical patent/TWI678181B/zh

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B17/22Implements for squeezing-off ulcers or the like on inner organs of the body; Implements for scraping-out cavities of body organs, e.g. bones; for invasive removal or destruction of calculus using mechanical vibrations; for removing obstructions in blood vessels, not otherwise provided for
    • A61B17/225Implements for squeezing-off ulcers or the like on inner organs of the body; Implements for scraping-out cavities of body organs, e.g. bones; for invasive removal or destruction of calculus using mechanical vibrations; for removing obstructions in blood vessels, not otherwise provided for for extracorporeal shock wave lithotripsy [ESWL], e.g. by using ultrasonic waves
    • A61B17/2256Implements for squeezing-off ulcers or the like on inner organs of the body; Implements for scraping-out cavities of body organs, e.g. bones; for invasive removal or destruction of calculus using mechanical vibrations; for removing obstructions in blood vessels, not otherwise provided for for extracorporeal shock wave lithotripsy [ESWL], e.g. by using ultrasonic waves with means for locating or checking the concrement, e.g. X-ray apparatus, imaging means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B17/32Surgical cutting instruments
    • A61B17/320068Surgical cutting instruments using mechanical vibrations, e.g. ultrasonic
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/14Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • A61N7/02Localised ultrasound hyperthermia
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • A61N2007/0086Beam steering
    • A61N2007/0095Beam steering by modifying an excitation signal
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Robotics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Mechanical Engineering (AREA)
  • Dentistry (AREA)
  • Urology & Nephrology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Neurosurgery (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Vascular Medicine (AREA)
  • Image Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

一種手術導引系統包含一個光學攝影機、一個設置於一個使用者旁的第一參考元件、一個設置於一個手術器械的第二參考元件、N個頭戴裝置、N個分別設置在該等頭戴裝置的第三參考元件、及一個處理單元。該處理單元電連接該光學攝影機以接收二個影像,進而分析該第一參考元件、該第二參考元件、及該N個第三參考元件在空間中的多個空間位置,並與該N個頭戴裝置連線,以根據該等空間位置將N個輔助資訊分別傳送至該N個頭戴裝置。該手術導引系統還包含一種定位架及一種校正工具,以執行分別相關擴增實境影像與超音波探頭的校準與校正。

Description

手術導引系統
本發明是有關於一種導引系統,特別是指一種手術導引系統,及其所包含的定位架與校正工具。
隨著科技的發展,手術導航系統已經成為手術中不可或缺的重要工具。目前現有的手術導引系統的使用情形為:當利用手術導引系統進行手術輔助導引時,操作的外科醫師通常需要透過注視手術導引機的電腦螢幕,來進行手術的操作,使得其視線無法離開手術導引機的電腦螢幕。然而,這樣的操作程序,對手術進行的操作不但造成許多不方便,也不是最直觀的手術進行方法。因此,習知的手術導引系統便存有許多改善的空間。
因此,本發明的目的,即在提供一種更便利的手術導引系統,及其所包含的定位架與校正工具。
於是,根據本發明之一觀點,提供一種手術導引系統,適用於一個使用者,並包含一個光學攝影機、一個第一參考元件、 一個第二參考元件、N個頭戴裝置、N個第三參考元件、及一個處理單元。
該光學攝影機包括二個攝影模組,以同時擷取二個影像。該第一參考元件固定且鄰近地設置於該使用者旁。該第二參考元件適用於設置在一個手術器械上。該N個頭戴裝置適用於N個醫療人員配戴,N為正整數。該N個第三參考元件分別設置於該N個頭戴裝置上。
該處理單元電連接該光學攝影機以接收該等影像,進而分析該第一參考元件、該第二參考元件、及該N個第三參考元件在空間中的多個空間位置,並與該N個頭戴裝置連線,以根據該等空間位置將N個輔助資訊分別傳送至該N個頭戴裝置。
在一些實施態樣中,其中,每一個輔助資訊包括相關於該使用者的擴增實境(Augmented Reality;AR)影像。每一個頭戴裝置包括一個穿透可視式(See Through)顯示器,以顯示對應的該輔助資訊的該擴增實境影像。
在一些實施態樣中,其中,該處理單元分析該第一參考元件、該第二參考元件、及該N個第三參考元件在空間中的該等空間位置,獲得一個座標向量(O,V1,V2,...,VN,Vt,Vf),位置O是該手術導引系統以該光學攝影機的位置作為一個原點參考點,Vi是第i個頭戴裝置的該第三參考元件相對於該原點參考點的位置向量,i 等於1、2...N,Vt是該第二參考元件相對於該原點參考點的位置向量,Vf是該第一參考元件相對於該原點參考點的位置向量。
在一些實施態樣中,其中,該處理單元藉由X2=T1*(Vt-V1,Vt-V2,...,Vt-VN,Vf-Vt,V1-Vf,V2-Vf,...,VN-Vf)的關係式,獲得以該N個頭戴裝置的該等第三參考元件為另一個原點參考點的座標資訊X2,並使得該N個頭戴裝置獲得該手術器械的該第二參考元件的即時座標資訊,T1是一個作空間座標轉換的矩陣。
在一些實施態樣中,其中,該處理單元藉由X3=T2*T1*(Vt-V1,Vt-V2,...,Vt-VN,Vf-Vt,V1-Vf,V2-Vf,...,VN-Vf)的關係式,獲得以該N個頭戴裝置的該等第三參考元件為另一個原點參考點的座標資訊X3,並使得該N個頭戴裝置獲得該手術器械的一個器械尖端的即時座標資訊,T2是一個作空間座標轉換的矩陣。
在一些實施態樣中,其中,該手術導引系統還包含一個校正工具,該校正工具適用於一個超音波探頭,並包括一個上半部及一個可分離的下半部。
該第二參考元件不設置在該手術器械上,而改為設置在該校正工具的該上半部,該下半部包括一個端點,該第二參考元件與該端點的距離等於該第二參考元件設置於該手術器械上時該第二參考元件與該器械尖端的距離。
當該下半部與該上半部分離時,該上半部可與該超音波 探頭相組合,使得該超音波探頭所產生的超音波能量聚焦於該下半部與該上半部結合時該下半部的該端點的所在位置。
在另一些實施態樣中,其中,該手術導引系統還包含一個定位架,該定位架包括一個框架本體,以適用於該使用者配戴於頭部,其中,該擴增實境影像包括該使用者的多個臉部特徵及頭部的三維影像醫學資訊,該定位架藉由一個校準程序將該擴增實境影像中的該使用者的該等臉部特徵與該使用者的臉部疊合,使得該擴增實境影像中的該三維影像醫學資訊在該使用者的頭部相關位置顯示。
在另一些實施態樣中,其中,該手術導引系統還包含一個定位架,該定位架包括一個框架本體,及設置於該框架本體上的一個第一校準柱、一個第二校準柱、與一個第三校準柱,該框架本體適用於該使用者配戴於頭部,該第一校準柱及該第二校準柱還設置於同一個軸線上,當該使用者的頭部配戴該框架本體時,該第一校準柱及該第二校準柱分別緊貼該使用者的雙耳,且該第三校準柱緊貼該使用者的下顎,其中,該擴增實境影像包括該使用者的頭部的三維影像醫學資訊,該定位架藉由一個校準程序,將該擴增實境影像中的該第一校準柱、該第二校準柱、及該第三校準柱的影像與該第一校準柱、該第二校準柱、及該第三校準柱作疊合,使得該擴增實境影像中的三維影像醫學資訊在該使用者的頭部相關位置顯 示。
在一些實施態樣中,其中,該擴增實境影像中的三維影像醫學資訊包含核磁共振攝影(MRI)影像、電腦斷層攝影(CT)影像、或診斷超音波二維斷面或重組三維影像。
根據本發明之另一觀點,提供另一種手術導引系統,適用於一個使用者,並包含一個光學攝影單元、一個第一慣性感測元件、一個第一參考元件、一個第二慣性感測元件、及一個處理單元。
該光學攝影單元擷取該使用者的一個影像。該第一慣性感測元件與該光學攝影單元共同設置,以偵測該光學攝影單元的姿態,進而獲得一個第一姿態向量。該第一參考元件適用於設置在一個手術器械上。該第二慣性感測元件與該第一參考元件共同設置在該手術器械上,以偵測該第一參考元件的姿態,進而獲得一個第二姿態向量。
該處理單元電連接該光學攝影單元以接收該影像,並根據該第一姿態向量、該第二姿態向量、及該第一參考元件在該影像中的面積與位置,計算該第一參考元件以該光學攝影單元為一個原點參考點的三維座標。
在一些實施態樣中,其中,該處理單元根據該第一姿態向量、該第二姿態向量、及該第一參考元件在該影像中的面積與位置,計算該光學攝影單元與該第一參考元件之間的距離R,及該第 一參考元件在空間中與該影像的畫面軸心之間的實際距離L,再根據下列關係式計算該第一參考元件的該三維座標(x,y,z),其中,夾角θ=cos-1(L/R)。
Figure TWI678181B_D0001
z=R*sinθ
在一些實施態樣中,其中,該處理單元根據下列關係式計算該光學攝影單元與該第一參考元件之間的距離R,其中,Acal為在已知預先校正距離Rcal下,該光學攝影單元所分析出該第一參考元件的面積,A為該第一參考元件在該影像中經過補償後的實際面積。
Figure TWI678181B_D0002
在一些實施態樣中,其中,該處理單元根據該第一姿態向量φt、該第二姿態向量φr、及該第一參考元件在該影像中的面積A’,利用關係式A=A’*arg(Φ),計算該第一參考元件在該影像中經過補償後的實際面積A,Φ=φt,且初始時,該第一姿態向量φt等於該第二姿態向量φr
本發明的功效在於:藉由該處理單元分析該光學攝影機所擷取的影像分析,以即時獲得該第一參考元件及該等第二參考元件在空間中的空間位置,並將對應的該輔助資訊傳送至該頭戴裝 置,使得配戴該頭戴裝置的醫療人員,能夠將該輔助資訊在空間中對應該使用者的位置與該使用者共同顯示,進而提升該醫療人員例如在執行手術時的便利性。此外,該定位架及該校正工具能夠應用於該手術導引系統,以提供使用者的頭部擴增實境影像的校準及超音波探頭的校正。
1‧‧‧光學攝影機
11‧‧‧攝影模組
2‧‧‧第一參考元件
21‧‧‧第一參考元件
3‧‧‧第二參考元件
4‧‧‧頭戴裝置
41‧‧‧第三參考元件
42‧‧‧穿透可視式顯示器
5‧‧‧處理單元
6‧‧‧定位架
61‧‧‧框架本體
62‧‧‧第一校準柱
63‧‧‧第二校準柱
64‧‧‧第三校準柱
7‧‧‧校正工具
71‧‧‧上半部
72‧‧‧下半部
721‧‧‧端點
81‧‧‧光學攝影單元
82‧‧‧第一慣性感測元件
83‧‧‧第二慣性感測元件
84‧‧‧第二慣性感測元件
90‧‧‧醫療人員
91‧‧‧使用者
92‧‧‧手術器械
93‧‧‧器械尖端
94‧‧‧擴增實境影像
941‧‧‧第一校準柱影像
942‧‧‧第二校準柱影像
943‧‧‧第三校準柱影像
95‧‧‧超音波探頭
951‧‧‧聚焦位置
99‧‧‧手持診斷工具
991‧‧‧照野
V1‧‧‧向量
Vt‧‧‧向量
Vf‧‧‧向量
Vt-V1‧‧‧向量
V1-Vf‧‧‧向量
Vf-Vt‧‧‧向量
Vt1‧‧‧距離
φ t‧‧‧第一姿態向量
φ r‧‧‧第二姿態向量
θ‧‧‧夾角
ψ‧‧‧夾角
A’‧‧‧面積
L‧‧‧距離
L’‧‧‧距離
O‧‧‧位置
R‧‧‧投影距離
本發明的其他的特徵及功效,將於參照圖式的實施方式中清楚地呈現,其中:圖1是一個示意圖,說明本發明手術導引系統的一個第一實施例;圖2是一個示意圖,輔助圖1說明該第一實施例的一個頭戴裝置所顯示的一個影像;圖3是一個示意圖,說明該第一實施例的一個定位架;圖4是一個示意圖,輔助圖3說明該定位架的一個擴增實境影像;圖5是一個立體圖,說明該第一實施例的一個校正工具;圖6是一個立體圖,輔助圖5說明該校正工具所適用的一個超音波探頭;圖7是一個示意圖,說明本發明手術導引系統的一個第二實施 例;圖8是一個示意圖,說明本發明手術導引系統的一個第三實施例;圖9是一個示意圖,說明該第二及第三實施例的一個光學攝影單元所擷取的一個影像;圖10是一個示意圖,輔助圖9說明該影像;及圖11是一個示意圖,說明本發明手術導引系統所適用的一個手持診斷工具及手術器械。
在本發明被詳細描述之前,應當注意在以下的說明內容中,類似的元件是以相同的編號來表示。
參閱圖1,本發明手術導引系統的一個第一實施例,適用於一個使用者91,並包含一個光學攝影機1、一個第一參考元件2、一個第二參考元件3、N個頭戴裝置4、N個第三參考元件41、及一個處理單元5。
該N個頭戴裝置4適用於N個醫療人員90配戴,N為正整數。每一個頭戴裝置4包括一個穿透可視式(See Through)顯示器42。在圖1中,為說明方便起見,僅以一個醫療人員90配戴一個頭戴裝置4為例作說明,實際上,N可以是大於1的複數,即多個醫療 人員90分別配戴多個頭戴裝置4。
該第一參考元件2固定且鄰近地設置於該使用者91旁。在本實施例中,該使用者91是一個病患並躺在一個椅子上,該第一參考元件2設置在該椅子上。該第二參考元件3適用於設置在一個手術器械92,該手術器械92由該醫療人員90操作。該N個第三參考元件41分別設置於該N個頭戴裝置4上。
該光學攝影機1包括二個攝影模組11,以同時擷取兩個影像,該兩個影像都包含該第一參考元件2、該第二參考元件3、及該N個第三參考元件41之其中至少一者。
該處理單元5電連接該光學攝影機1以接收該兩個影像,進而分析該第一參考元件2、該第二參考元件3、及該N個第三參考元件41在空間中的多個空間位置。
具體的說,該處理單元5例如是一個電腦主機,與該光學攝影機1建立連線,例如以無線網路的方式連接,並運用已知的技術對該兩個影像中的該第一參考元件2、該第二參考元件3、及該N個第三參考元件41作影像辨識,進而獲得該第一參考元件2、該第二參考元件3、及該N個第三參考元件41在空間中即時的三維座標。在本實施例中,該第一參考元件2、該第二參考元件3、及該N個第三參考元件41都是一種類似十字型的外觀,以方便該處理單元5作影像辨識,但並不以此限制該第一至第三參考元件2、3、41的 外形,只要該處理單元5能夠成功辨識其影像即可。
該處理單元5根據該第一參考元件2、該第二參考元件3、及該N個第三參考元件41在空間中的多個空間位置(即其三維座標),計算獲得一個座標向量(O,V1,V2,…,VN,Vt,Vf)。位置O是該手術導引系統以該光學攝影機1的位置作為一個原點參考點,Vi是第i個頭戴裝置4的該第三參考元件41相對於該原點參考點的位置向量,i等於1、2…N,Vt是該第二參考元件3相對於該原點參考點的位置向量,Vf是該第一參考元件2相對於該原點參考點的位置向量。
該處理單元5再對該座標向量(O,V1,V2,…,VN,Vt,Vf),作簡單的數學向量計算,獲得一個座標資訊X1=(Vt-V1,Vt-V2,...,Vt-VN,Vf-Vt,V1-Vf,V2-Vf,...,VN-Vf)。因此,該處理單元5獲得以位置O為原點參考點的座標資訊為X1。此時,該處理單元5可以即時將該座標資訊X1傳送到各個對應的頭戴裝置4,其中,Vt-V1是第1個頭戴裝置4的該第三參考元件41與該手術器械92的該第二參考元件3之間的相對向量關係,Vt-V2是第2個頭戴裝置4的該第三參考元件41與該手術器械92的該第二參考元件3之間的相對向量關係,同樣地,Vt-VN是第N個頭戴裝置4的該第三參考元件41與該手術器械92的該第二參考元件3之間的相對向量關係。Vf-Vt是固定的該第一參考元件2與該手術器械92的該第二參考元 件3之間的相對向量關係。V1-Vf是第1個頭戴裝置4的該第三參考元件41與固定的該第一參考元件2之間的相對向量關係,V2-Vf是第2個頭戴裝置4的該第三參考元件41與固定的該第一參考元件2之間的相對向量關係,同樣地,VN-Vf是該第N個頭戴裝置4的該第三參考元件41與固定的該第一參考元件2之間的相對向量關係。
該處理單元5藉由X2=T1*(Vt-V1,Vt-V2,...,Vt-VN,Vf-Vt,V1-Vf,V2-Vf,...,VN-Vf)的關係式,獲得以該N個頭戴裝置4的該等第三參考元件41為另一個原點參考點的座標資訊X2。T1是一個作空間座標轉換的矩陣,由於V1,V2,...,VN為即時可獲得的資訊,因此,該處理單元5能將原來以位置O為原點參考點的座標資訊,轉換為分別以該N個頭戴裝置4的該N個第三參考元件41為原點參考點的座標資訊。該處理單元5可以再將該座標資訊X2即時傳送至該N個頭戴裝置4,使得該N個頭戴裝置4以設置在其上的該第三參考元件41為原點參考點來獲得該手術器械92的該第二參考元件3的即時座標資訊。
T1的其中一種計算方式,以下N=1為例作說明,X2=T1*(Vt-V1,Vf-Vt,V1-Vf,)。事先標定出至少三個以該光學攝影機1的位置作為一個原點參考點(即位置O)所建立的空間座標系的座標資訊(即轉換前),例如三個座標資訊分別為(a1,b1,c1)’,(a2,b2,c2)’,(a3,b3,c3)’。且已知該至少三個座標資訊在以 該第三參考元件41所建立的空間座標系中對應的至少三個座標資訊(即轉換後),例如三個座標資訊(d1,e1,f1)’,(d2,e2,f2)’,(d3,e3,f3)’。則經由下列公式(1)與(2),利用反矩陣的計算即能獲得T1。
Figure TWI678181B_D0003
Figure TWI678181B_D0004
該處理單元5再藉由X3=T2*T1*(Vt-V1,Vt-V2,...,Vt-VN,Vf-Vt,V1-Vf,V2-Vf,...,VN-Vf)的關係式,獲得以該N個頭戴裝置4的該等第三參考元件41為另一個原點參考點的座標資訊X3。T2是一個作空間座標轉換的矩陣。由於該第二參考元件3與該手術器械92的一個器械尖端93(即用於治療的端點)的距離為固定且可事先已知,因此,T2可以將同樣是分別以該N個頭戴裝置4的該N個第三參考元件41為原點參考點的該第二參考元件3的座標資訊,轉換為該手術器械92的該器械尖端93的座標資訊。該處理單元5可以再將該座標資訊X3即時傳送至該N個頭戴裝置4,使得該N個頭戴裝置4以設置在其上的該第三參考元件41為原點參考點來獲得該手術器械92的該器械尖端93的即時座標資訊。
T2的其中一種計算方式,以下N=1為例作說明,X3=T2*T1*(Vt-V1,Vf-Vt,V1-Vf,)。事先標定出至少三個以該第三參考元件41所建立的空間座標系的該第二參考元件3的座標資訊(即轉換前),例如三個該第二參考元件3的座標資訊分別為(d1,e1,f1)’,(d2,e2,f2)’,(d3,e3,f3)’。且已知該第二參考元件3分別在該至少三個座標資訊時,以該第三參考元件41所建立的空間座標系中該手術器械92的該器械尖端93所對應的至少三個座標資訊(即轉換後),例如三個該器械尖端93的座標資訊(g1,h1,i1)’,(g2,h2,i2)’,(g3,h3,i3)’。則經由下列公式(3)與(4),利用反矩陣的計算即能獲得T2。
Figure TWI678181B_D0005
Figure TWI678181B_D0006
該處理單元5還與該N個頭戴裝置4連線,並根據該等空間位置,即該等座標資訊X1、X2、X3之其中任一者,將N個輔助資訊分別傳送至該N個頭戴裝置4。每一個輔助資訊包括相關於該使用者91的擴增實境(Augmented Reality;AR)影像。在本實施例中,該處理單元5根據該座標資訊X2、X3,將該等擴增實境影像 分別對應的傳送至該N個頭戴裝置4,使得每一個穿透可視式顯示器42在不同的空間位置時都能將對應的該擴增實境影像與該使用者91作出正確地重疊顯示。再參閱圖2,圖2示例性地說明醫療人員90藉由該頭戴裝置4的該穿透可視式顯示器42所見到的影像,會包含該使用者91的頭部的擴增實境影像94與該使用者91的頭部在空間上的正確重疊顯示,圖2中是將擴增實境影像94及該使用者分別畫出,實際上,該醫療人員90會見到兩者重疊的影像。又例如,將該擴增實境影像與該手術器械92或該器械尖端93作結合,使得該醫療人員90能夠在專注於手術部位的同時,也能夠獲得足夠的醫療輔助訊息,而不需要像習知技術一般,需要將視線離開手術部位。
在其他實施例中,每一個頭戴裝置4也可以包括一個處理模組(圖未示),該處理單元5將該等座標資訊X1、X2、X3及該輔助資訊傳送至每一個頭戴裝置4。每一個處理模組再根據該等座標資訊X1、X2、X3之其中任一者,將該輔助資訊的該擴增實境影像藉由該穿透可視式顯示器42作出正確地重疊顯示。此外,在其他實施例中,該等頭戴裝置4也可以不包括該等穿透可視式顯示器42,而將該等輔助資訊傳送至至少一個傳統顯示器作顯示。
藉由該手術導引系統使得進行手術的醫療人員,如外科醫師,可以利用擴增實境影像的輔助達到:1.將病人的實際資訊與擴增實境中提供的已處理資訊作同時呈現;2.治療病患的實際資訊 的空間相對位置,可以與病人的二維或三維醫學影像進行空間整合;3.藉由電腦的計算能力,可以將三維醫學影像中的重要計算訊息,用擴增實境的方式呈現在穿透可視式顯示器42上,幫助醫師即時作出更精準的醫療判斷及治療工具的導引。
再參閱圖3,在該第一實施例中,本發明手術導引系統還包含一個定位架6,適用於該使用者91,並包含一個框架本體61,及設置於該框架本體61上的一個第一校準柱62、一個第二校準柱63、與一個第三校準柱64。該第一校準柱62及該第二校準柱63還設置於同一個軸線上,當該使用者91的頭部配戴或使用該框架本體61時,該第一校準柱62及該第二校準柱63分別緊貼該使用者91的雙耳,且該第三校準柱64緊貼該使用者91的下顎。
參閱圖1、圖3與圖4,該定位架6藉由一個校準程序,將該擴增實境影像94中的該第一校準柱影像941、該第二校準柱影像942、及該第三校準柱影像943分別與該第一校準柱62、該第二校準柱63、及該第三校準柱64作疊合,使得該擴增實境影像94中的三維影像醫學資訊在該使用者91的頭部相關位置顯示。
該擴增實境影像94中的三維影像醫學資訊包含核磁共振攝影(MRI)影像、電腦斷層攝影(CT)影像、或診斷超音波二維斷面或重組三維影像,但不在此限。該等影像為複數個二維成像平面,藉由該手術導引系統的該處理單元5或是另一個電腦系主機,可以 利用已知的演算法,協助將此二維影像重建出三維醫學資訊,如人體皮膚表面的三維呈現、大腦結構的三維呈現、或是人體頭骨的三維呈現等等。
另外要特別補充說明的是:在本實施例中,該手術導引系統的該頭戴裝置4還包含一個輸入單元(圖未示),該頭戴裝置4的配戴者可以藉由該輸入單元產生多個輸入信號,舉例來說,該輸入單元可以是一個小型的觸控板、至少一個按鍵、或一種偵測手勢姿態的輸入裝置之其中至少一者,但不在此限。
在該校準程序中,該手術導引系統的該頭戴裝置4的該穿透可視式顯示器42,會呈現出該定位架6的該第一校準柱影像941、該第二校準柱影像942、及該第三校準柱影像943(如圖4)。要特別注意的是:該第一校準柱影像941、該第二校準柱影像942、及該第三校準柱影像943在該穿透可視式顯示器42所呈現的大小及比例,必須與空間上(即該定位架6)的該第一校準柱62、該第二校準柱63、及該第三校準柱64一致。
首先,開始進行現實空間及透過該頭戴裝置4所見的虛擬空間之間的同步,該頭戴裝置4的配戴者(即醫療入員90)利用本身在空間中的實際移動,或者用手勢姿態等控制方式控制該穿透可視式顯示器42所呈現的該第一校準柱影像941及該第二校準柱影像942進行縮放或旋轉的空間調整,使得空間上的該第一校準柱62及 該第二校準柱63與該穿透可視式顯示器42所呈現的該第一校準柱影像941及該第二校準柱影像942作完美結合,並記憶(儲存)空間的相對位置關係。此時,該配戴者與該使用者91的相對位置不能進行任何移動或改變。
接著,該穿透可視式顯示器42會顯示該第三校準柱影像943,同樣的,該配戴者透過手勢姿態等控制方式控制該穿透可視式顯示器42所呈現的該第三校準柱影像943,進行空間上的偏移或旋轉,使得實際空間上的該第三校準柱64與該第三校準柱影像943精準疊合。
此時,該配戴者再作最後的確認,所有空間上的該第一校準柱影像941、該第二校準柱影像942、及該第三校準柱影像943與該第一校準柱62、該第二校準柱63、及該第三校準柱64是否有完好的疊合。若是,則藉由該輸入單元進行此空間的相對位置的確認,並將此相對的位置關係傳送或儲存至該處理單元5。若該配戴者認為空間的同步仍有瑕疵,或不能接受其精準度,可以藉由該輸入單元再重新執行該校準程序,以再次進行空間上的同步。
另外要補充說明的是:在本實施例中,該定位架包括該第一校準柱62、該第二校準柱63、及該第三校準柱64。而在其他實施中,該定位架6也可以省略該第一校準柱62、該第二校準柱63、及該第三校準柱64,該擴增實境影像除了包括該使用者的頭 部的三維影像醫學資訊,還包括該使用的多個臉部特徵,例如眼睛、耳朵等位置。在該校準程序中,藉由將該擴增實境影像中的該使用者的該等臉部特徵與該使用者的臉部疊合,也能夠使得該擴增實境影像中的該三維影像醫學資訊在該使用者的頭部相關位置顯示。
參閱圖1、圖5與圖6,在該第一實施例中,本發明手術導引系統還包含一個校正工具7,適用於一個超音波探頭95,並包括一個上半部71及一個可分離的下半部72。該上半部71提供該手術導引系統的另一個第二參考元件3設置,該下半部72包括一個端點721,設置在該下半部71的該第二參考元件3與該端點721的距離Vt1等於設置於該手術器械92的該第二參考元件3與該器械尖端93的距離Vt1
當該下半部72與該上半部71結合時,適用於該手術導引系統執行一個校正程序。當該下半部72與該上半部71分離時,該上半部71可與該超音波探頭95相組合,使得該超音波探頭95所產生的超音波能量的聚焦位置951等於該下半部72與該上半部71結合時該下半部72的該端點721的所在位置。透過此方式,本發明所載明的手術導引程序也可適用於非可視性的能量形式傳遞、例如聚焦式超音波、微波、治療性雷射、電磁性刺激能量、或射頻電磁波等。
該校正程序是指藉由該手術導引系統的該手術器械92的該第二參考元件3的位置向量Vt轉換至該器械尖端93的空間座標,所描述的其中一種直觀方法。也就是說,藉由該校正工具7的該上半部71及該下半部72結合時,該第二參考元件3設置在該上半部71,使得該手術導引系統的該光學攝影機1擷取影像,該處理單元5進而辨識影像並獲得該轉換矩陣T2。
當該校正程序完成後,將該校正工具7的該下半部72分離,並將該上半部71與該超音波探頭95組合。因為該超音波探頭95所產生的超音波能量的聚焦位置951等於該下半部72與該上半部71結合時該下半部72的該端點721的所在位置,因此,該校正工具7的該上半部71與該超音波探頭95組合時,可以在該手術導引系統中,被正確的計算其空間上的相對位置關係,進而在該頭戴裝置4的該穿透可視式顯示器42中正確地顯示。
參閱圖7,本發明手術導引系統的一個第二實施例,適用於一個使用者91及一個醫療人員90,並包含一個光學攝影單元81、一個第一慣性感測元件82、一個第一參考元件2、一個第二慣性感測元件83、一個處理單元5、及一個頭戴裝置4。
該光學攝影單元81擷取該使用者91的一個影像。該第一慣性感測元件82設置於該光學攝影單元81上,以偵測該光學攝影單元81的姿態,進而獲得一個第一姿態向量。該第一慣性感測元件 82例如是包含三軸加速規、六軸加速規、或利用加速規與磁力計原理等各種已知方式所形成的積體電路元件。另外要特別說明的是:在該第二實施例的該光學攝影單元81與該第一實施例的該光學攝影機1並不相同,差異在於該光學攝影單元81僅需要單一個攝影模組,而該光學攝影機1需要二個攝影模組11。
該第一參考元件2適用於設置在一個手術器械92上。該第二慣性感測元件83設置在該第一參考元件2上,以偵測該第一參考元件2的姿態,進而獲得一個第二姿態向量。該第二慣性感測元件83與該第一慣性感測元件82是類似的積體電路元件。該第一參考元件2的幾何外觀例如是特殊著色的二維圓形、二維矩形等等,但不在此限,以利該光學攝影單元81及該處理單元5清楚辨識其形態。
該處理單元5電連接該光學攝影單元81以接收該影像,且電連接該第一慣性感測元件82及該第二慣性感測元件83,以分別接收該第一姿態向量及該第二姿態向量,並根據該第一姿態向量、該第二姿態向量、該第一參考元件2在該影像中的面積與位置、及該光學攝影單元81與該第一參考元件2之間的距離,計算該第一參考元件2以該光學攝影單元81為一個原點參考點的三維座標。該處理單元5例如是一個電腦主機,與該光學攝影單元81建立連線的方式,例如是無線網路,但不在此限。
參閱圖7、圖9與圖10,圖9是該光學攝影單元81在擷取該影像時,拍攝的畫面的環場示意圖,其中,該第一參考元件2所位於的曲面是該光學攝影單元81的對焦景深的曲面。圖10是該光學攝影單元81所擷取的該影像的示意圖。該處理單元5藉由執行步驟S1~S8,以獲得該第一參考元件2的三維座標。
步驟S1,該處理單元5根據該光學攝影單元81的像素,將該光學攝影單元81所擷取的該影像作簡單計算,以換算出估計的該第一參考元件2的實際面積A’(如圖10)。
步驟S2,該處理單元5接收該第一慣性感測元件82及該第二慣性感測元件83所分別偵測的該第一姿態向量φt及該第二姿態向量φr。φt即為該光學攝影單元81的姿態角,φr即為第二慣性元件83的姿態角。
步驟S3,該光學攝影單元81及該第二參考元件3需事先進行同步一致性的調校,也就是說,該頭戴裝置4及該手術器械92在空間中的姿態需要事先調整成一致,使得在初始時該第一姿態向量φt等於該第二姿態向量φr,或建立一固定已知關係可在後續計算分析中補償修正。
步驟S4,該處理單元5根據該第一姿態向量及該第二姿態向量,補償步驟S1所估計的該第一參考元件2的實際面積A’。更具體的說,該處理單元5藉由A=A’*arg(Φ)的關係式,計算該第一 參考元件2的實際面積A,其中,Φ=φt
步驟S5,該處理單元5藉由簡單的梯形幾何關係,計算出該光學攝影單元81及該第一參考元件2之間的投影距離R(如圖9),也就是圖7及圖9中的第一慣性感測元件82與第二慣性感測元件83之間的距離。該投影距離R的計算可以藉由幾何關係簡單建立而求出,例如其中一種方式為預先在已知距離進行面積校正,則可以在任意距離改變下透過該第一參考元件2的面積改變後而獲得新的距離,其具體的關係式如公式(5)。其中,Acal為在已知預先校正距離Rcal下之光學攝影單元81所分析出之第一參考元件2面積,A為在任意距離R(即投影距離)下之光學攝影單元81所分析出之第一參考元件2即時面積,即步驟S4中的A。
Figure TWI678181B_D0007
步驟S6,該處理單元5計算該第一參考元件2(即第二慣性感測元件)在該影像中的投影及座標位置(L’,
Figure TWI678181B_D0008
)(如圖9與圖10),再據以計算該第一參考元件2(即該第二慣性感測元件83)在空間中與影像的畫面軸心之間的實際距離L。其中,L可以藉由步驟S1及S3求出,具體的說,在得知在該距離(即投影距離R)後之該第一參考元件2的即時面積A後,利用比例關係求出在該同一影像中該第一參考元件2之中心到影像的畫面軸心之絕對距離,亦即直接 透過像素比對後以比例方式,將影像中的距離L’換算出真正的實際距離L。再藉由該第二慣性元件83在該影像中,與該影像的畫面軸心的連線與垂直方向之間的夾角,可以獲得該夾角
Figure TWI678181B_D0009
。在該影像的水平與垂直方向可以分別定義出X軸與Y軸,該影像的畫面軸心即是X軸與Y軸的交點。
步驟S7,該處理單元5計算相關於該第一參考元件2的設限投影的一個三維空間夾角θ(如圖9)。具體的說,該處理單元5是根據θ=cos-1(L/R)的關係式而獲得該三維空間夾角θ。
步驟S8,該處理單元5根據下列的關係式,計算出該第一參考元件2(即該第二慣性感測元件83)以該光學攝影單元81(即該第一慣性感測元件82)為一個原點參考點的三維座標(x,y,z)。
Figure TWI678181B_D0010
z=R*sinθ
參閱圖8,本發明手術導引系統的一個第三實施例,大致上是與該第二實施例相同,不同的地方在於該光學攝影單元81及該第一慣性導引裝置並不是設置在該醫療人員90配戴的頭戴裝置4上,而是獨立設置於一旁,該處理單元5同樣能夠計算出該第一參考元件2(即該第二慣性感測元件83)以該光學攝影單元81(即該第一慣性感測元件82)為一個原點參考點的三維座標(x,y,z)。
要特別補充說明的是:在該第二實施例與該第三實施例 中,該第一參考元件2(即該第二慣性感測元件83)以該光學攝影單元81(即該第一慣性感測元件82)為一個原點參考點的該三維座標(x,y,z)即等同於該第一實施例中的該座標資訊X2。同樣地,該第二實施例(或該第三實施例)可以與該第一實施例結合,以藉由該第一實施例的方式獲得手術器械的器械尖端的該座標資訊X3,也就是說,該第二實施例(或該第三實施例)可以取代該第一實施例中獲取座標資訊X2的相關程序,以提供該手術導引系統另外一種實施方式。此外,與該第一實施例相同,該頭戴裝置4可以包括一個穿透可視式顯示器,或者,也可以藉由一個傳統顯示器,使得該處理單元5根據該三維座標(x,y,z),將至少一個輔助資訊傳送至對應的顯示器中顯示。
參閱圖1、圖7、圖8與圖11,該第一實施例的該第二參考元件3(或該第二與第三實施例的該第一參考元件2)也可以設置在一個手持診斷工具99上。該手持診斷工具例如是一個診斷超音波設備,並具有一個照野中心991。藉由本發明手術導引系統的實施例,執行T1及T2的座標轉換,即能追蹤該手持診斷工具99的該照野中心991。此外,在本案多個實施例中,僅以一個第二參考元件3(或一個第一參考元件2、21)設置在一個手術器械92(或手持診斷工具99)上。而在其他實施例中,該手術導引系統也可以包含多個第二參考元件(或多個第一參考元件)設置在多個手術器械與多個 手持診斷工具99上,如圖11中,二個的第一參考元件2、21分別設置在一個手術器械92及一個手持診斷工具99上。換句話說,本發明可以同時應用於多個第二參考元件之距離及方位辨識,並透過平台及系統整合,也能實現出透過穿戴式擴增實境裝置(或一般顯示器螢幕顯示),觀測到診斷裝置所實現之照野以及手術器械之三軸方位,更進一步顯示出診斷裝置照野中心以及手術器械尖端之相互三維空間位置關係。
綜上所述,藉由該處理單元5分析該光學攝影機1所擷取的該兩個影像,以即時獲得該第一參考元件2及該等第二參考元件3在空間中的空間位置,並將對應的該輔助資訊傳送至該頭戴裝置4,使得配戴該頭戴裝置4的醫療人員,能夠將該輔助資訊在空間中對應該使用者91的位置與該使用者91共同顯示,例如共同顯示三維醫療資訊與使用者91,進而提升該醫療人員在執行醫療過程中的便利性。或者,該手術導引系統利用該第一慣性感測元件82及該第二慣性感測元件83所偵測的姿態角,並根據該光學攝影單元81所擷取的該影像,計算該第一參考元件2的三維座標,而同樣能夠獲得該手術器械92的該第一參考元件2及該光學攝影單元81在空間中的空間位置,進而能將對應的該輔助資訊傳送至該頭戴裝置4。此外,該定位架6及該校正工具7能夠應用於該手術導引系統,以提供使用者91的頭部擴增實境影像的校準及超音波探頭95的校正, 故確實能達成本發明的目的。
惟以上所述者,僅為本發明的實施例而已,當不能以此限定本發明實施的範圍,凡是依本發明申請專利範圍及專利說明書內容所作的簡單的等效變化與修飾,皆仍屬本發明專利涵蓋的範圍內。

Claims (9)

  1. 一種手術導引系統,適用於一個使用者,並包含:一個光學攝影機,包括二個攝影模組,以同時擷取二個影像;一個第一參考元件,固定且鄰近地設置於該使用者旁;一個第二參考元件,適用於設置在一個聚焦式超音波的手術器械上;N個頭戴裝置,適用於N個醫療人員配戴,N為正整數;N個第三參考元件,分別設置於該N個頭戴裝置上;及一個處理單元,電連接該光學攝影機以接收該等影像,進而分析該第一參考元件、該第二參考元件、及該N個第三參考元件在空間中的多個空間位置,並與該N個頭戴裝置連線,以根據該等空間位置將N個輔助資訊分別傳送至該N個頭戴裝置,該第一參考元件、該第二參考元件、及該第三參考元件不具備慣性感測的功能,每一個輔助資訊包括相關於該使用者的擴增實境(Augmented Reality;AR)影像,每一個頭戴裝置包括一個穿透可視式(See Through)顯示器,以顯示對應的該輔助資訊的該擴增實境影像,該處理單元分析該第一參考元件、該第二參考元件、及該N個第三參考元件在空間中的該等空間位置,獲得一個座標向量(O,V1,V2,...,VN,Vt,Vf),位置O是該手術導引系統以該光學攝影機的位置作為一個原點參考點,Vi是第i個頭戴裝置的該第三參考元件相對於該原點參考點的位置向量,i等於1、2...N,Vt是該第二參考元件相對於該原點參考點的位置向量,Vf是該第一參考元件相對於該原點參考點的位置向量,該處理單元藉由X2=T1*(Vt-V1,Vt-V2,...,Vt-VN,Vf-Vt,V1-Vf,V2-Vf,...,VN-Vf)的關係式,獲得以該N個頭戴裝置的該等第三參考元件為另一個原點參考點的座標資訊X2,並使得該N個頭戴裝置獲得該手術器械的該第二參考元件的即時座標資訊,T1是一個作空間座標轉換的矩陣,
    Figure TWI678181B_C0001
    其中,(a1,b1,c1)’,(a2,b2,c2)’,(a3,b3,c3)’是以該位置O作為該原點參考點所建立的空間座標系的三個座標資訊,(d1,e1,f1)’,(d2,e2,f2)’,(d3,e3,f3)’是該三個座標資訊以該第三參考元件所建立的空間座標系所分別對應的另外三個座標資訊。
  2. 如請求項1所述的手術導引系統,其中,該處理單元藉由X3=T2*T1*(Vt-V1,Vt-V2,...,Vt-VN,Vf-Vt,V1-Vf,V2-Vf,...,VN-Vf)的關係式,獲得以該N個頭戴裝置的該等第三參考元件為另一個原點參考點的座標資訊X3,並使得該N個頭戴裝置獲得該手術器械的一個器械尖端的即時座標資訊,T2是一個作空間座標轉換的矩陣。
  3. 如請求項2所述的手術導引系統,還包含一個校正工具,該校正工具適用於一個超音波探頭,並包括一個上半部及一個可分離的下半部,其中,該第二參考元件不設置在該手術器械上,而改為設置在該校正工具的該上半部,該下半部包括一個端點,該第二參考元件與該端點的距離等於該第二參考元件設置於該手術器械上時該第二參考元件與該器械尖端的距離,當該下半部與該上半部分離時,該上半部可與該超音波探頭相組合,使得該超音波探頭所產生的超音波能量聚焦於該下半部與該上半部結合時該下半部的該端點的所在位置。
  4. 如請求項1所述的手術導引系統,還包含一個定位架,該定位架包括一個框架本體,以適用於該使用者配戴於頭部,其中,該擴增實境影像包括該使用者的多個臉部特徵及頭部的三維影像醫學資訊,該定位架藉由一個校準程序將該擴增實境影像中的該使用者的該等臉部特徵與該使用者的臉部疊合,使得該擴增實境影像中的該三維影像醫學資訊在該使用者的頭部相關位置顯示。
  5. 如請求項1所述的手術導引系統,還包含一個定位架,該定位架包括一個框架本體,及設置於該框架本體上的一個第一校準柱、一個第二校準柱、與一個第三校準柱,該框架本體適用於該使用者配戴於頭部,該第一校準柱及該第二校準柱還設置於同一個軸線上,當該使用者的頭部配戴該框架本體時,該第一校準柱及該第二校準柱分別緊貼該使用者的雙耳,且該第三校準柱緊貼該使用者的下顎,其中,該擴增實境影像包括該使用者的頭部的三維影像醫學資訊,該定位架藉由一個校準程序,將該擴增實境影像中的該第一校準柱、該第二校準柱、及該第三校準柱的影像與該第一校準柱、該第二校準柱、及該第三校準柱作疊合,使得該擴增實境影像中的三維影像醫學資訊在該使用者的頭部相關位置顯示。
  6. 如請求項5所述的手術導引系統,其中,該擴增實境影像中的三維影像醫學資訊包含核磁共振攝影(MRI)影像、電腦斷層攝影(CT)影像、或診斷超音波二維斷面或重組三維影像。
  7. 一種手術導引系統,適用於一個使用者,並包含:一個光學攝影單元,擷取該使用者的一個影像;一個第一慣性感測元件,與該光學攝影單元共同設置,以偵測該光學攝影單元的姿態,進而獲得一個第一姿態向量;一個第一參考元件,適用於設置在一個手術器械上;一個第二慣性感測元件,與該第一參考元件共同設置在該手術器械上,以偵測該第一參考元件的姿態,進而獲得一個第二姿態向量;及一個處理單元,電連接該光學攝影單元以接收該影像,並根據該第一姿態向量、該第二姿態向量、及該第一參考元件在該影像中的面積與位置,計算該第一參考元件以該光學攝影單元為一個原點參考點的三維座標,該處理單元根據該第一姿態向量、該第二姿態向量、及該第一參考元件在該影像中的面積與位置,計算該光學攝影單元與該第一參考元件之間的距離R,及該第一參考元件在空間中與該影像的畫面軸心之間的實際距離L,再根據下列關係式計算該第一參考元件的該三維座標(x,y,z),
    Figure TWI678181B_C0002
    z=R*sinθ其中,夾角θ=cos-1(L/R),夾角
    Figure TWI678181B_C0003
    是該第二慣性感測元件在該影像中與該影像的畫面軸心的連線與垂直方向之間的夾角。
  8. 如請求項7所述的手術導引系統,其中,該處理單元根據下列關係式計算該光學攝影單元與該第一參考元件之間的距離R,
    Figure TWI678181B_C0004
    其中,Acal為在已知預先校正距離Rcal下,該光學攝影單元所分析出該第一參考元件的面積,A為該第一參考元件在該影像中經過補償後的實際面積。
  9. 如請求項8所述的手術導引系統,其中,該處理單元根據該第一姿態向量φt、該第二姿態向量φr、及該第一參考元件在該影像中的面積A’,利用關係式A=A’*arg(Φ),計算該第一參考元件在該影像中經過補償後的實際面積A,Φ=φt,且初始時,該第一姿態向量φt等於該第二姿態向量φr
TW107114633A 2018-04-30 2018-04-30 手術導引系統 TWI678181B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW107114633A TWI678181B (zh) 2018-04-30 2018-04-30 手術導引系統
US16/179,020 US10820945B2 (en) 2018-04-30 2018-11-02 System for facilitating medical treatment
CN201811329715.6A CN110403699B (zh) 2018-04-30 2018-11-09 手术导引系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW107114633A TWI678181B (zh) 2018-04-30 2018-04-30 手術導引系統

Publications (2)

Publication Number Publication Date
TW201944954A TW201944954A (zh) 2019-12-01
TWI678181B true TWI678181B (zh) 2019-12-01

Family

ID=68291834

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107114633A TWI678181B (zh) 2018-04-30 2018-04-30 手術導引系統

Country Status (3)

Country Link
US (1) US10820945B2 (zh)
CN (1) CN110403699B (zh)
TW (1) TWI678181B (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10010379B1 (en) 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
US11287874B2 (en) 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US11857378B1 (en) 2019-02-14 2024-01-02 Onpoint Medical, Inc. Systems for adjusting and tracking head mounted displays during surgery including with surgical helmets
US11497924B2 (en) * 2019-08-08 2022-11-15 Realize MedTech LLC Systems and methods for enabling point of care magnetic stimulation therapy
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
US11950968B2 (en) 2020-03-13 2024-04-09 Trumpf Medizin Systeme Gmbh + Co. Kg Surgical augmented reality
US12406396B2 (en) * 2020-08-10 2025-09-02 Brainlab Ag Microscope camera calibration
KR102637479B1 (ko) * 2020-11-18 2024-02-16 주식회사 뉴로소나 저강도 집속 초음파 치료 장치
US12016633B2 (en) * 2020-12-30 2024-06-25 Novarad Corporation Alignment of medical images in augmented reality displays
CN113509263B (zh) * 2021-04-01 2024-06-14 上海复拓知达医疗科技有限公司 一种物体空间校准定位方法
CN113509264B (zh) * 2021-04-01 2024-07-12 上海复拓知达医疗科技有限公司 一种基于校正物体在空间中位置的增强现实系统、方法及计算机可读存储介质
TWI785645B (zh) * 2021-06-11 2022-12-01 承鋆生醫股份有限公司 基於擴增實境的手術輔助方法
US11948265B2 (en) 2021-11-27 2024-04-02 Novarad Corporation Image data set alignment for an AR headset using anatomic structures and data fitting
US12262957B2 (en) * 2021-12-22 2025-04-01 Metal Industries Research & Development Centre System and method for position and posture detection of surgical machine
CN119095650A (zh) * 2022-02-08 2024-12-06 医视特有限公司 共形相控阵列换能器装置
CN115005864B (zh) * 2022-05-16 2024-08-20 天津大学 基于电磁定位的超声探头标定方法
CN116077182B (zh) * 2022-12-23 2024-05-28 北京纳通医用机器人科技有限公司 一种医用手术机器人控制方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201542744U (zh) * 2009-10-27 2010-08-11 南京麦迪柯科技有限公司 立体定向仪
US20140088410A1 (en) * 2012-09-26 2014-03-27 Stryker Corporation Navigation System Including Optical and Non-Optical Sensors
US20160225192A1 (en) * 2015-02-03 2016-08-04 Thales USA, Inc. Surgeon head-mounted display apparatuses
WO2018056544A1 (ko) * 2016-09-22 2018-03-29 장원석 치과 수술용 증강현실 시스템 및 구현방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4409004B2 (ja) * 1999-09-27 2010-02-03 オリンパス株式会社 手術キャリブレーションシステム
US7555331B2 (en) * 2004-08-26 2009-06-30 Stereotaxis, Inc. Method for surgical navigation utilizing scale-invariant registration between a navigation system and a localization system
CN101404039B (zh) * 2008-03-28 2010-06-16 华南师范大学 一种虚拟手术的方法及其装置
EP2431003B1 (en) * 2010-09-21 2018-03-21 Medizinische Universität Innsbruck Registration device, system, kit and method for a patient registration
US20130267838A1 (en) * 2012-04-09 2013-10-10 Board Of Regents, The University Of Texas System Augmented Reality System for Use in Medical Procedures
KR20140112207A (ko) * 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
RU2642941C2 (ru) * 2013-07-16 2018-01-29 Сейко Эпсон Корпорейшн Устройство обработки информации, способ обработки информации и система обработки информации
US10045744B2 (en) * 2014-02-14 2018-08-14 Brainlab Ag Frameless pre-positioning for radiosurgery
IL235073A (en) * 2014-10-07 2016-02-29 Elbit Systems Ltd Head-mounted view of enlarged images that are locked on an object of interest
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
HK1246123A1 (zh) * 2015-03-01 2018-09-07 阿里斯医疗诊断公司 现实增强的形态学手术
US20180140362A1 (en) * 2015-04-07 2018-05-24 King Abdullah University Of Science And Technology Method, apparatus, and system for utilizing augmented reality to improve surgery
US10105187B2 (en) * 2015-08-27 2018-10-23 Medtronic, Inc. Systems, apparatus, methods and computer-readable storage media facilitating surgical procedures utilizing augmented reality
US10195076B2 (en) * 2015-10-23 2019-02-05 Eye Labs, LLC Head-mounted device providing diagnosis and treatment and multisensory experience
EP3426179B1 (en) * 2016-03-12 2023-03-22 Philipp K. Lang Devices for surgery
US11839433B2 (en) * 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
US11992283B2 (en) * 2017-03-07 2024-05-28 Intuitive Surgical Operations, Inc. Systems and methods for controlling tool with articulatable distal portion
US20190311542A1 (en) * 2018-04-10 2019-10-10 Robert E. Douglas Smart operating room equipped with smart surgical devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201542744U (zh) * 2009-10-27 2010-08-11 南京麦迪柯科技有限公司 立体定向仪
US20140088410A1 (en) * 2012-09-26 2014-03-27 Stryker Corporation Navigation System Including Optical and Non-Optical Sensors
US20160225192A1 (en) * 2015-02-03 2016-08-04 Thales USA, Inc. Surgeon head-mounted display apparatuses
WO2018056544A1 (ko) * 2016-09-22 2018-03-29 장원석 치과 수술용 증강현실 시스템 및 구현방법

Also Published As

Publication number Publication date
US20190328462A1 (en) 2019-10-31
TW201944954A (zh) 2019-12-01
CN110403699B (zh) 2020-10-30
US10820945B2 (en) 2020-11-03
CN110403699A (zh) 2019-11-05

Similar Documents

Publication Publication Date Title
TWI678181B (zh) 手術導引系統
US12115028B2 (en) Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
JP7478106B2 (ja) 外科手術におけるコンピュータ支援ナビゲーションのための光学器具追跡ボリュームのエクステンデッドリアリティ視覚化
JP7216764B2 (ja) 手術中の支援されたナビゲーションのための拡張現実ヘッドセットのカメラによって追跡された参照アレイを備えた手術器具の位置合わせ
US20240206986A1 (en) Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
EP3498212A1 (en) A method for patient registration, calibration, and real-time augmented reality image display during surgery
US20140221819A1 (en) Apparatus, system and method for surgical navigation
US20180092698A1 (en) Enhanced Reality Medical Guidance Systems and Methods of Use
US20170296292A1 (en) Systems and Methods for Surgical Imaging
KR102476832B1 (ko) 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법
JP6112689B1 (ja) 重畳画像表示システム
TWI790447B (zh) 手術路徑定位方法、資訊顯示裝置、電腦可讀取的記錄媒體及特殊應用積體電路晶片
US12033295B2 (en) Method and system for non-contact patient registration in image-guided surgery
JP2016202351A (ja) 医療支援システム、医療支援方法、画像処理装置およびその制御方法と制御プログラム
TW202108086A (zh) 應用於與手術導航整合之混合實境系統之數位影像實境對位套件與方法
US20250005773A1 (en) Method And System For Non-Contact Registration In Electromagnetic-Based Image Guided Surgery
JP2011050583A (ja) 医療用診断装置
JP6795744B2 (ja) 医療支援方法および医療支援装置
CN117918955A (zh) 一种增强现实外科导航装置、方法、系统设备及介质
KR101635731B1 (ko) 사람의 체내 구조물을 가시화하는 가시화 시스템 및 방법
JP4736040B2 (ja) 人体内部情報投影システム
KR20220066495A (ko) 확장현실 기반의 침술 시스템 및 그 방법
JP2021045272A (ja) 鍼刺用エコーガイドシステム
JP6142462B1 (ja) 重畳画像表示システム
JP2025537073A (ja) X線取得のために患者の少なくとも1つの身体部分の配置を支援するための装置、コンピュータプログラム及び方法