CN115461009A - 用于察看受试者的系统和方法 - Google Patents
用于察看受试者的系统和方法 Download PDFInfo
- Publication number
- CN115461009A CN115461009A CN202180031567.3A CN202180031567A CN115461009A CN 115461009 A CN115461009 A CN 115461009A CN 202180031567 A CN202180031567 A CN 202180031567A CN 115461009 A CN115461009 A CN 115461009A
- Authority
- CN
- China
- Prior art keywords
- subject
- microscope
- pose
- time
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/20—Surgical microscopes characterised by non-optical aspects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/0004—Microscopes specially adapted for specific applications
- G02B21/0012—Surgical microscopes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2059—Mechanical position encoders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
- A61B2090/395—Visible markers with marking agent for marking skin or other tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/20—Surgical microscopes characterised by non-optical aspects
- A61B90/25—Supports therefor
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Pathology (AREA)
- Robotics (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Gynecology & Obstetrics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Microscoopes, Condenser (AREA)
- Lenses (AREA)
Abstract
本发明公开了一种察看系统或成像系统,该系统包括用于察看受试者的光学件。该察看系统可包括允许通过该察看系统的目镜的增强混合视图的特征。该混合视图可包括利用与该察看系统分开的信息来获取或确定的图形表示。
Description
相关申请的交叉引用
本申请包括与也于2020年4月29日提交的美国专利申请第16/861,328号相关的主题。上述申请的全部公开内容以引用方式并入本文。
技术领域
本公开涉及可视化,并且具体地涉及一种手术期间的混合式可视化。
背景技术
本部分提供与本公开相关的背景信息,其不一定是现有技术。
在手术(诸如察看对象的内部部分的手术)期间,可使用各种可视化和察看系统。例如,显微镜或可视化增强系统可用于察看对象的内部组成部分。察看系统通常允许在手术期间通过各种光学透镜对内部组成部分进行直接和放大的察看。
发明内容
本部分提供本公开的一般概述,并且不是本公开的完整范围或其全部特征的全面公开。
可视化系统可包括显微镜或其他直接可视化系统。直接可视化系统可包括光学路径,该光学路径可包括各种光学透镜,诸如放大透镜、聚焦透镜等。透镜可用于将来自对象的光透射到可包括目镜的察看区域。显微镜(可限定焦平面)的用户可通过目镜察看图像。用户可通过目镜察看或看到焦平面(也称为视平面)。
在察看区域中,用户可察看对其执行手术的对象。在察看区域中,可提供显示来自工作区域的透射光的显示以供用户察看。可在察看区域中和/或在察看区域之前提供各种增强,以增强对象的视图。提供给用户的视图和/或用户察看到的视图可以为混合视图,该混合视图包括受试者的即时视图或图像以及叠加到显示的特征的其他视图或图像(例如,被隐藏或被阻挡的对象的图形表示)。
在各种实施方案中,可在视图中对部分进行加亮,各种项目或部分的图形表示和/或调用和显示的可视化可在对象的当前视图上层叠。在各种实施方案中,例如,可将投影置入光学路径中,该投影示出或提供可供用户察看的增强现实(AR),也称为混合视图。因此,用户可察看对象的实时显示或视图(例如,即时视图),同时还察看相对于实时图像显示的增强或附加的部分(例如,图形表示)。
在各种实施方案中,对象可以为活体对象或非活体对象,并可包括患者。
根据本文提供的描述,另外的适用性领域将变得显而易见。本概述中的描述和具体示例仅旨在用于说明的目的,并且不旨在限制本公开的范围。
附图说明
本文所述的附图仅用于选定实施方案的说明性目的,而不是所有可能的具体实施,并且不旨在限制本公开的范围。
图1是根据各种实施方案的显微镜系统的环境视图;
图2是显微镜系统和所选用户的详细视图;
图3是用显微镜系统提供的即时视图和相对于该即时视图提供的所选信息;
图4A是通过显微镜系统的即时视图;
图4B是通过显微镜的叠加视图;
图4C是通过显微镜系统的混合即时视图和叠加视图;
图5A是通过显微镜系统的即时视图和混合叠加轮廓;
图5B是通过显微镜系统的荧光的即时视图;
图5C是通过显微镜系统的混合视图;
图6A和图6B是混合即时视图和改变的叠加图形;
图7是目标对象的示意图;
图8A是显微镜系统的初始时间处的第一视图;
图8B是通过显微镜系统的即时视图和叠加的先前获取的图像;
图9A是通过显微镜系统的即时视图和混合叠加图像;
图9B是显微镜系统的混合即时视图和叠加的图形表示视图;
图10是具有距离测定部分的显微镜系统;并且
图11是用于显示先前获取的信息的过程。
在所有附图的若干个视图中,对应的附图标记指示对应的部件。
具体实施方式
现在将参考附图更完整地描述示例性实施方案。
可在所选择的位置(诸如在外科手术室20中)执行手术。然而,应当理解,外科手术室可以是任何适当的所选择的手术间,并且外科手术室仅仅是示例性的。另外,应当理解,可相对于活体受试者或非活体受试者执行任何适当的手术。例如,可在不希望拆开整个系统的复杂机械系统上进行手术。此外,该手术可出于所选择的目的在活体受试者(诸如人类受试者)上进行。
参考图1和图2,在各种实施方案中,外科手术室可包括察看或光学系统,诸如外科手术显微镜系统30。察看系统30(其在本文中也可被称为显微镜)可包括用于对受试者34执行手术的各种部件。在各种实施方案中,可利用支撑件(诸如患者支撑件或手术台38)来保持或定位受试者34。外科手术显微镜系统30可包括显微镜部件(也称为头部组件32),其可包括一个或多个察看端口或入口(也称为目镜或者接目镜或目镜单元44)。显微镜30可以为双目显微镜,使得可提供多个(诸如两个)目镜单元44a、44b。另外,可提供多于一个的目镜单元,诸如第二或辅助性目镜单元48,其也可以为有立体感的或双目的。因此,由于双目系统44、46,多于一个的个体可同时察看受试者34的相同部位,并可以三维方式察看受试者。
在所选择的手术期间,可通过目镜44察看受试者34。一个或多个物镜52可定位在受试者34附近或在该受试者附近移动,并且也可形成或连接到头部部分32。因此,物镜52可定位在受试者34附近。物镜52采集来自受试者34的光(例如,反射光)并允许透射通过头部部分32。因此,显微镜30中的各种透镜系统可允许在物镜52与目镜44之间的增强或放大的受试者34的视图。
在各种实施方案中,外科手术显微镜30可包括:显微镜头部部件32,该显微镜头部部件可包括光学部件,诸如目镜44和透镜52;以及一个或多个臂或支撑构件60。支撑构件可包括第一支撑臂62和第二支撑臂64。第二支撑臂64可安装到底板或主支撑件70,该底板或主支撑件可经由一个或多个轮72固定在所选择的位置和/或可移动。还应理解,轮72可被锁定在所选择的位姿,以将显微镜30固定在相对于受试者34的所选择的位姿。
在各种实施方案中,可在该一个或多个臂60中提供一个或多个马达和/或提供一个或多个马达以移动该一个或多个臂。例如,可提供第一马达74以相对于第二臂64移动第一臂62,并可提供第二马达76以相对于第一臂62移动头部32。因此,包括透镜52的头部32可相对于支撑构件70和/或受试者34以所选择的方式移动。马达74、76可以为适当的马达,诸如电动马达,其可包括编码器和/或用编码器操作以确定精确的移动(例如,以所选择的量的移动或位置确定误差,其可在所选择的公差范围内,诸如小于约5毫米(mm)、小于约1mm、小于约0.1mm等)。马达74、786可包括DC步进马达或其他适当的马达。
在各种实施方案中,马达74、76可由用户80控制。此外,可提供一个或多个控制或处理器模块或系统84,以控制所选择的马达74、76和/或外科手术显微镜30的其他部件。例如,处理器系统84可包括一个或多个输入86,以控制显微镜部分32进行所选择的移动和/或存储显微镜32的所选择的位姿。相应地,在存储显微镜32的所选择的位姿之后,显微镜32可移动回或返回到所选择的位姿(诸如相对于支撑构件70),以在所选择的经过时间之后的所选择的手术之后进行察看。
因此,处理器系统84可包括处理器模块88以及一个或多个存储器模块90。处理器88和存储器90可以是任何适当的处理器或存储器,诸如本文进一步讨论的那些。另外,可提供一个或多个显示装置,诸如LCD或LED显示装置94,以用于察看用显微镜32察看的各种输入、状态和/或图像。
用户80可使用或操作显微镜系统32以利用一个或多个器械110对受试者34执行手术。器械110可包括一个或多个跟踪装置112,可利用一个或多个定位系统114来跟踪该一个或多个跟踪装置。定位系统114可包括光学定位系统、电磁定位系统、声学定位系统或其他定位系统中的一者或多者,其可用于跟踪跟踪装置以及跟踪装置区域安装到的部分。一般来讲,定位系统114可用于跟踪可与器械110相关联的跟踪装置112相对于受试者34的位置。显微镜或察看者跟踪装置118也可与外科手术显微镜系统30相关联,包括或直接关联于头部部件32。受试者34还可具有附接到其的跟踪装置120。因此,利用相应的跟踪装置以及跟踪定位器和系统114,器械110、受试者34和显微镜32全都可相对于彼此被跟踪,包括同时地被跟踪。其他适当的位姿系统也可用于协助和/或执行跟踪,诸如与用于移动显微镜32并将受试者34固定在已知位姿的马达相关联的跟踪装置。如上文所讨论的,编码器可包括在马达74、76和/或构件62、64的接合部中以确定显微镜32的移动和/或位姿,诸如在机器人系统或显微镜中。在各种实施方案中,透镜52相对于受试者34的位姿对于相对于受试者34察看各种特征而言可能是最相关的。如本文所讨论的,部分(例如,显微镜32、受试者34和/或器械110)的位姿可包括所有位置和取向信息,例如六个自由度,诸如平移(x,y,z)坐标和取向(偏航,俯仰,翻滚)坐标。
因此,在各种实施方案中,器械110的位姿可被示出为叠加在通过显微镜32的目镜44的视图上的图形表示。能够将先前获取的图像或其他数据配准到受试者的各种跟踪系统包括:由在科罗拉多州有营业场所的Medtronic Navigation出售的S8外科手术导航系统,和/或公布于2019年10月31日的美国专利申请公开第2019/0328461号中所公开的系统,该美国专利申请以引用方式并入本文。
配准可包括将先前获取的信息(诸如图像数据)配准到受试者34,以实时确定先前获取的图像数据与受试者34的位姿关系。类似地,跟踪系统可用于示出被跟踪系统到先前获取的信息的位姿。
在各种实施方案中,包括定位器114的系统可包含各种部分或系统,诸如美国专利第RE44,305号、第7,697,972号、第8,644,907号和第8,842,893号美国专利申请公开第2004/0199072号以及美国专利申请公开第2019/0328460号中所公开的那些,所有这些文献以引用方式并入本文。导航系统的定位器114可用于跟踪对象的位姿,如本文所讨论的。然后可以显示该位姿以供用户80察看,如本文还讨论的。另外,跟踪信息(包括关于用跟踪装置感测的磁场和/或光信号的信息)可经由通信系统递送到显微镜系统20的所选择的部分,诸如处理器88。使用适当的系统,通信可以为有线的或无线的。
除如本文所讨论的即时视图之外,可在外科手术之前和/或期间诸如用成像系统中的一个或多个成像系统获取图像数据,用于显示图像或其部分以供用户80通过目镜44察看。如本文所讨论的,附加的信息或数据可与即时视图由用户80一起察看。
导航或跟踪域或体积大致限定导航空间或患者空间,其中对象可被移动,其例如用定位器114被跟踪。由于跟踪装置112、118、120,各个部分可相对于彼此被跟踪。导航体积或患者空间可被配准到由受试者34的附加信息(例如,先前获取的图像或所选择的图像)限定的图像空间。该配准允许示出和显示各种对象相对于彼此和/或图像空间的经确定的位置。在各种实施方案中,可通过确定图像空间和导航空间中相同的点或部分(例如,配准点或界标)来进行配准。配准点可以为天然的(例如,解剖学的)或人工的(例如,固定到受试者的)。然而,一旦在两个空间中被确定,就可通过使用配准点确定该两个空间之间的转换来进行配准。可通过用适当的处理器(诸如处理器88)执行指令来进行转换和配准。可执行患者空间到图像空间的配准,以及对跟踪装置(诸如在跟踪装置118的情况下)相对于DRF(诸如DRF 120)的位置的确定,如本领域中公知的那样,包括如美国专利第RE44,305号、第7,697,972号、第8,644,907号和第8,842,893号以及美国专利申请公开第2004/0199072号中所公开的那样,所有这些文献以引用方式并入本文。
继续参考图1和图2并且附加参考图3,通过目镜44的视图可包括显示或图像130。图像130可包括或显示各种信息,诸如受试者的所选择的部分(诸如大脑134)的直接或即时视图(也称为实时视图)132。可直接通过显微镜32(诸如通过供用户80察看的目镜44的总体直射光透射)察看即时视图132。即时视图可表示在视平面处的察看区域或手术区域。视平面通常被理解为显微镜聚焦的并且用户80可通过目镜44察看的区域或平面。即时视图可以为当前或实时视图。
除视图130中的即时视图132之外,还可由于例如利用受试者跟踪装置120跟踪受试者34和/或利用显微镜跟踪装置118跟踪显微镜32,而将附加的信息叠加到即时视图132上和/或与该即时视图邻近或相邻显示。在各种实施方案中,可确定一个或多个目标。该一个或多个目标在本文中可被称为一个目标或目标,但应理解,可确定多于一个的目标。另外,目标可以为任何适当的部分(诸如解剖学特征、异常等)和/或所选择的位置(例如,包括所选择的特定特征,诸如肿瘤的体积)。例如,获取的图像数据(诸如MRI图像数据)可用于将肿瘤识别为目标,以及识别可被显示为目标图形表示140的肿瘤的轮廓。此外,由于对受试者34和器械110的跟踪,器械110可被示出为器械图示或图形表示(也称为图标)144。因此,器械110的位姿可直接用显微镜32通过目镜44进行察看,和/或器械110的表示可被示出为图形表示144。
如图3所示,通过目镜44,除即时图像130之外,还可显示附加的叠层或图形视图150。叠层150或任何适当的图形表示可以为不透明的、透明的或至少部分透明的。在部分透明的叠层中,可透过叠层150察看到即时图像。混合或增强视图150可包括附加的或所选择的信息,诸如器械的图形表示144和/或肿瘤或所选择的目标的表示140。增强视图150可附加包括信息,诸如距离表面158的深度线或指示154。平面或表面表示158可以为即时视图130中大脑132的表面或受试者34的其他所选择的部分。该表面还可以为通过目镜44的视图平面。
如上文所讨论的,可利用受试者跟踪装置120确定受试者34的位姿,其可包括受试者的所选择的部分(诸如大脑132的表面)的位姿。另外,可利用保持或固定装置(诸如头部夹具39)将受试者34固定在所选择的位置。因此,外部或表面线158可被确定并示出增强视图150。器械110可利用跟踪装置112被跟踪,并且在增强视图150中由图形表示144示出。
另外,关于受试者34的信息,诸如纤维示踪图或示踪图表示162,也可在相对于受试者34的即时视图130的增强视图150中显示。可利用附加的(包括先前获取的)信息确定纤维束。如上文所讨论的,由于对受试者34的跟踪,可将先前或附加获取的信息配准到受试者。另外,显微镜32的位姿可以相对于受试者34为已知的。因此,可在混合视图中显示附加的经配准的信息(例如,示踪图)。因此,用户80可通过显微镜32察看受试者34,并可察看除受试者34的即时视图130之外的附加信息,包括增强视图150。也可显示目标的轮廓140、器械的图形表示144和所选择的深度或目标信息。这允许用户80通过显微镜视图端口44与即时视图同时地察看所选择的目标在受试者体内的其位置处的深度或三维表示。增强图像150可允许用户80更好地理解受试者34的视图或图像的表示,而不只是或仅仅通过显微镜32察看即时视图。
如上文所讨论的,当通过目镜44察看时,即时视图130允许用户80直接察看受试者34的一个或多个部分的即时视图或当前视图。附加的数据,诸如肿瘤或目标的图形表示154、器械的图形表示144、表面或外部范围的表示158和/或示踪图信息162,可基于对受试者34的各种先前获取的图像数据和/或分析。图形表示在即时视图中和/或在附加或增强视图150上的定位可基于利用受试者跟踪装置120跟踪受试者34以及利用显微镜跟踪装置118跟踪显微镜32。
如本领域的技术人员通常所理解的,由于对受试者34的所选择的配准,诸如图像配准,可将附加的信息配准到受试者34。例如,跟踪定位器114可用于跟踪多个部分,诸如利用受试者跟踪装置120跟踪受试者34和/或利用显微镜跟踪装置118跟踪显微镜32。一个或多个所选择的处理器,诸如处理器88,可用于执行由受试者34限定的受试者空间相对于显微镜32和/或附加的图像数据空间的配准。跟踪系统可以为与由在科罗拉多州有营业场所的Medtronic Navigation,Inc.出售的Stealth 导航系统类似的跟踪系统。各种导航系统或跟踪系统可用于利用相应的跟踪装置确定受试者34相对于显微镜32的位姿,并且因此确定在增强视图150中放置图形表示,诸如器械的图形表示144的位姿。增强视图可利用可用于显示增强视图150的半透明屏幕或板(诸如由在德国有营业场所的Carl ZeissMeditec AG出售的Kinevo 900显微镜和/或具有所选择的分辨率的屏幕的显微镜中所包括的那些)来显示。另外,用户80可诸如利用显微镜系统的输入86选择确定或识别在增强视图150中显示的图形表示。相应地,用户80可选择显示或不显示各种项目,诸如表面线158、所选择的轮廓140或其他所选择的图形表示。
另外,各种图形表示可以适当的方式显示,诸如在二维表示、三维表示中或在改变的表示中,诸如时间变化可基于各种信息,诸如相对于受试者34的心跳的门控。至少部分地由于双目目镜44,可将三维渲染向用户80显示为三维图像。因此,用户80可察看用所选择的图形表示增强的受试者34的图像,如上文所讨论的。特别地,增强视图150可显示或示出距离所选择的表面(诸如在表面线15处)的深度。增强显示还可示出器械110的位置或深度,诸如利用图形表示144,包括察看器械110的远侧末端144d。
继续参考图1和图2并且附加参考图4A、图4B和图4C,示出了通过显微镜32的即时视图170。即时视图170可允许察看受试者34的所选择的部分,诸如大脑174的表面。除大脑174的表面之外,还可察看各种其他项目,诸如颅骨176和器械34。目镜44允许受试者34的部分(诸如器械110和/或受试者34的部分,诸如大脑174)在即时或实时视图170中的直接可视化。供用户80察看的直接可视化可表示显微镜32相对于受试者34的视觉范围内的任何项目。
如上文所讨论的,可利用受试者跟踪装置120跟踪受试者34,并且可利用显微镜跟踪装置118跟踪显微镜32。可利用器械跟踪装置112跟踪器械110。根据各种实施方案,显示(诸如通过目镜44的混合或叠加视图)包括呈三维方式的图形表示或图形叠层,如图4B所示。图形表示可包括器械110相对于受试者的部分(诸如大脑表面的图形表示184和所选择的部分或目标(诸如所识别的肿瘤)的表示188)的三维图形表示180。另外,也可在图形表示中示出各种解剖学特征,诸如脉管结构192和/或诸如心室、纤维束、视神经、眼球等特征的其他解剖学结构。
因此,通过目镜44的显示可表示基于各种信息(诸如受试者34的先前获取的图像数据和/或器械110的图形表示,诸如图形表示180)的三维表示。各种表示(包括属于所选择的目标或肿瘤的表示188和/或器械表示180)的定位可基于利用受试者跟踪装置120跟踪受试者34以及利用跟踪装置112跟踪器械110。相应地,可显示三维表示以供用户80利用显微镜32察看,包括先前获取的信息或不能直接利用显微镜32察看的信息。虽然显微镜32可提供或允许作为受试者34的即时视图的放大视图,如图4A所示,但是相对于受试者34的用于显示的附加信息的表示(诸如利用即时图像170叠加和/或显示的)可允许用户80对受试者34和/或相对于该受试者的部分的附加的概念形成或理解。
在外科手术或任何适当的所选择的手术期间,用户80可选择显示或不显示各种信息,包括如图4B所示的三维表示。用户可使用输入86或指示输入86(例如,指示助手、语音控制等)而显示或不显示各种三维特征。
另外和/或另选地,可在即时图像170上显示、叠加和/或层叠二维表示,如图4C所示。即时图像170可显示受试者34的各个部分,如直接所示或由用户80通过显微镜32直接察看到的。因此,即时视图可显示各个部分,诸如骨结构176和/或其他特征。然而,可在即时图像上显示或叠加各种结构和/或特征的表示,诸如可(诸如通过轮廓或指示)显示的先前识别的肿瘤或目标200。另外,也可通过叠层(诸如解剖学叠层204)显示各种解剖学结构,诸如脉管系统或骨骼。同样,由于对受试者34和显微镜32的配准和/或跟踪以及到先前获取的图像的配准,可相对于即时图像170显示叠层。在各种实施方案中,用户或其他适当的用户可在先前获取的图像数据(例如,磁共振成像(MRI))中识别所选择的特征,诸如解剖学特征和/或目标(例如,肿瘤)。然后可在手术的所选择的部分期间将先前获取和/或确定的特征配准到受试者34并叠加在即时图像170上,如图4C所示。这允许用户80理解或认识到所识别的特征的位姿以及用于在受试者34的即时图像170上显示的另选的或附加的图像(例如,MRI)。因此,用户80可察看即时图像和/或增强图像两者以理解在另选的图像数据中所识别的附加特征。
同样,用户可利用显微镜系统30的输入86确定显示或不显示各种特征。用户可使用显微镜32直接察看受试者34和/或在所选择的手术期间增强受试者34的视图。用户80可使用附加信息来识别和/或理解先前所识别的或确定的特征(诸如肿瘤或所选择的解剖学目标或特征)的表示或位姿。
继续参考图1和图2并且附加参考图5A、图5B和图5C,供用户80察看的显示或图像视图可包括受试者34(包括受试者的所选择的部分的表面224,诸如大脑表面)的大体即时的视图220。如上文所讨论的,各种附加信息可被叠加和/或显示在即时图像220上,诸如所选择的目标或部分(例如,肿瘤)的轮廓228。目标图像显示228可基于先前获取或查看的信息,诸如MRI数据。
在所选择的手术期间,可获取或利用附加的手术或信息。各种数字技术和/或操作技术可包括受试者34的所选择的解剖学特征或部分的荧光。例如,如图5B所示,可向受试者34提供荧光材料和/或多种荧光材料。然后,该材料可发荧光和/或可以所选择的方式被诱导发荧光。如图5B所示,例如,所选择的区域可具有第一荧光230,并且第二区域可具有第二荧光234。图像或视图可以为受试者34的通过显微镜的即时视图220,并且用户80可直接察看所选择的荧光。另外,可通过显微镜系统30察看或分析图像。系统可识别或区分高或亮荧光230与低荧光234。基于荧光的分化,处理器系统88可从较暗区域234识别或分割亮区域230。在各种实施方案中,高或亮荧光230区域可被称为亮区域,并可具有当与低荧光234区域相比时明亮至少约10%的亮度或辉度。在各种实施方案中,亮区域可具有明亮至少约50%、明亮约200%或明亮约400%的亮度或辉度。亮区域可以为二维区域和/或三维体积。
包括处理器的显微镜系统30然后可基于荧光来分割受试者34的视图或图像。亮荧光230和低荧光234的面积或它们之间的线可以任何适当的方式(诸如通过分割)来确定。因此,经分割区域可用于确定目标当前或更新的体积区域。然后可显示更新的区域,如本文所讨论的。
因此,如图5C所示,即时视图220可在其上层叠有混合或增强的轮廓图形表示240,该混合或增强的轮廓图形表示可基于亮荧光区域230与较暗荧光区域234的分割。在各种实施方案中,例如,第二或增强轮廓240可与荧光一起显示和/或在荧光停止之后显示。因此,应当理解,次级或增强的表示240也可以没有荧光而显示。例如,在所选择的手术期间,可在利用所选择的波长的光或能量对受试者34进行照明期间发出荧光。此时,荧光可出现在受试者34体内,并且图像可由显微镜系统30分析。在分析图像之后,可进行对增强轮廓240的识别。然后可显示轮廓以供用户80察看,诸如在即时视图220上层叠或叠加轮廓240。
增强或更新的轮廓可由用户80使用以确定所选择的手术的进展。例如,在所选择的手术期间,可进行对受试者的所选择的部分的消融或去除,诸如去除肿瘤或者去除或终止动脉瘤。因此,用户80可察看更新的轮廓240以帮助确定手术的进展。因此,轮廓或任何适当的表示可允许几何结构(例如,形状和尺寸)被示出并相对于初始或第一轮廓或表示228改变。这可以为除其位姿(即,x,y,z位置和取向)之外。
应当理解,受试者34的发光可发生多于一次,并可在手术期间在各种时间处发生。荧光可用于识别或确定受试者解剖结构或其所选择的部分的更新或改变。因此,用户可理解或更好地可视化受试者或受试者34的部分中的改变。
在各种实施方案中,对解剖结构的所选择部分的荧光照明的波长可在不可见波长的范围内。相应地,相对于较暗荧光234,可以为亮荧光230的荧光不能够被用户80在视觉上识别出。然而,显微镜系统或适当的系统可分析非可见波长中的荧光的图像,以识别解剖结构或受试者的部分之间的分化。因此,可叠加在即时图像220上的轮廓240可以为对于用户80而言的荧光分化的唯一视觉表示。相应地,显微镜系统30可用于显示初始轮廓228与更新的或第二或稍后的轮廓240之间的差异。如上文所讨论的,初始轮廓228可基于受试者34的先前获取的图像或信息,诸如具有图像数据(包括MRI图像数据)。在手术期间受试者或受试者的部分中的改变可被识别和确定并被显示(例如,利用增强轮廓)以供用户80使用。
继续参考图1和图2并且附加参考图6A和图6B,受试者34的即时视图图像260可包括直接察看受试者的一部分,诸如大脑表面264。另外,还可显示所选择的部分或目标(诸如肿瘤)的轮廓或图形表示268。可以各种方式在图像或即时视图中确定或选择目标,诸如通过手动确定(例如,用户描画目标的轮廓)、图像分割(例如,基于所选择的算法(诸如颜色或边缘检测)的自动分割)和/或调用先前确定或描绘的目标(例如,从存储器访问和调用)。如上文所讨论的,对如作为图形表示268示出的肿瘤的识别可基于先前获取的信息,诸如受试者34的先前获取的MRI数据。部分地由于利用跟踪装置120跟踪受试者34,图形表示268可基于针对受试者34的对先前获取的图像的配准和/或对肿瘤或目标的确定。也如上文所讨论的,可相对于即时图像260显示附加图形表示,但是为了使当前的讨论清楚起见,此处未示出该附加图形表示。
图形表示268可相对于即时图像260示出肿瘤的所选择的或确定的边界。即时图像260可由用户80通过目镜44进行察看。相应地,即使是大脑表面264的双目三维视图也可利用图形表示268增强,以示出所选择的目标的深度、形状等。然而,除静态边界之外,还可示出脉动式或移动的边界表示272。继续参考图6A并且附加参考图6B,即时视图260可示出受试者的大体不改变或不移动的部分,诸如察看处于固定位置的大脑表面264。另外,所选择的目标或肿瘤的静态边界268也可相对于大脑的表面264被显示。然而,脉动式或改变的表示272可移动或看起来在移动,诸如从而历经一段时间改变肿瘤边界的被加亮的部分或颜色。例如,图6A中的脉动式外壳或网格272可示出肿瘤的表面边界的最上部或最接近部。在第二时间处,诸如历经一秒的一部分或多秒的一段时间(例如,约0.1秒至约0.5秒),脉动式网格272可改变形状和位置到第二网格位置274,如图6B所示。
在所选择的时间处,用户80可选择使受试者34的肿瘤或目标的几何结构以改变或脉动式的方式示出。相应地,在图6A中,脉动式网格272的第一部分可被加亮或示出。在相同的视图或平面中,肿瘤的网格或轮廓的被加亮部分中的改变,如图6B中的不同或第二部分274所示。这允许用户80在不移动显微镜32的情况下察看视图的所选择的部分中的动态改变。
应当理解,可历经所选择的时间段示出(诸如按顺序)任何适当数量的被加亮部分。例如,具有静态图形表示268的肿瘤或目标可具有所选择的深度或外部几何结构,如图7中示例性所示。在时间零期间或在时间零(T0)处,网格外壳272可示出表面或者零毫米深度处到肿瘤或目标268i中的边界,其由图6A和图6B中的轮廓268图形表示。在所选择的时间段处,诸如间隔约0.1秒至约0.5秒,可通过对网格加亮或改变颜色来示出所选择的深度(诸如1毫米深度)处的轮廓,例如如由不同的网格部分274所示并且在图6B中所示。应当理解,可使用任何适当数量的尺寸或时间,并且如图7所示的在所选择的时间T0至T5处的1毫米尺寸仅仅是示例性的。然而,在所选择的时间处,例如,在T0至T5处的不同部分可在显示中按顺序被加亮并被示出,诸如在即时视图260上叠加以供用户80察看。
随着目标(诸如肿瘤268i)的所选择的部分或不同的部分被加亮,用户80可理解肿瘤268i在相对于表面或零毫米的不同深度处的轮廓。因此,当利用显微镜32察看即时图像260时,用户80可理解肿瘤268i的轮廓或形状。脉动式几何结构轮廓272、274可由用户80在所选择的时间处发起或停止以理解肿瘤268i的预先确定的或所识别的形状。换句话讲,用户80可更新要加亮或指定的脉动(例如,脉动式平面)的部分或位置。因此,相比于自动脉动,用户80可选择要加亮的部分或平面。轮廓或脉动式形状可被显示以助于用户80对受试者34体内的目标的理解。
继续参考图1和图2并且附加参考图8A和图8B,显微镜32可用于察看受试者24的即时图像300,如上文所讨论的。即时图像300可包含各个部分,诸如受试者的大脑的表面304。除器官(诸如大脑304)的表面之外,其他特征也可通过显微镜32的目镜44进行察看而被察看到或被显示。例如,可察看骨结构308以及一个或多个其他软结构或软组织,诸如包括一个或多个动脉312的脉管系统。尽管本文例如参考图8A和图8B进行的讨论可指动脉312,但应理解,除如本文进一步讨论的动脉312之外,还可显示和分析各种特征。
如上文所讨论的,显微镜32可相对于受试者34被固定和/或相对于受试者34被跟踪。在各种实施方案中,例如,基座支架70可相对于受试者34被固定,并且受试者34可相对于显微镜32(诸如头部夹具或保持框架39)被固定。相应地,显微镜32可相对于受试者34移动,诸如用于获得对受试者34的部分的触及、察看受试者34的多于一个的区域或其他适当的原因。当显微镜32移动时,目镜44也移动。一般来讲,用户80的察看是利用目镜44进行的,并且目镜44的移动可相对于显微镜32的移动被确定或最相关。因此,显微镜32的移动可理解为是指或涉及目镜44的移动。无论如何,显微镜32(包括显微镜系统30)可用于获得受试者34在各个时间处(例如,在第一时间和第二时间处)的图像。
在外科手术期间,显微镜可从第一时间处的第一或原始位姿移动到第二时间处的第二位姿,并且随后在第三或所选择的时间处返回到原始或第一位姿。由于利用所选择的跟踪装置(包括显微镜跟踪装置118和患者跟踪装置120)来跟踪显微镜32,可确定显微镜32的各种位姿。另外,如上文所讨论的,由于所选择的马达74、76,显微镜系统30的所选择的臂或机械机器人部分(包括臂62、64)可以相当大的精度进行移动。无论如何,出于在所选择的时间段之后察看受试者32的目的,显微镜32可从第一或原始位姿移动。
相应地,例如,如图8A所示,可通过显微镜32直接察看受试者34在显微镜32的第一位姿处的第一视图。此时,可通过显微镜32获取受试者34的图像或快照。在各种实施方案中,相机或图像采集系统可与显微镜32相关联。图像可被存储在所选择的存储器系统(诸如存储器90)中,用于在之后的时间处进行调用。图像可包括各个部分,诸如大脑的表面304、骨308和动脉312。可相对于行视图或即时视图300显示在所选择的时间段(包括第一时间T1和第二时间T2)处的快照。
参考图8B,因此,在所选择的时间段之后,诸如在时间T3处,显微镜可返回或移动到时间T1处的位姿。由于对显微镜32的跟踪,可确定或保存T1时间处的位姿。在各种实施方案中,机械臂(包括马达74、76)可用于自动地或基于输入命令将显微镜移动到先前的位姿(即针对快照获取图像时的T1处的位姿)。相应地,即时视图320可表示受试者34,包括大脑表面304a。在时间T1处获取的图像(如图8A所示)可层叠在包括大脑表面304a的即时视图320上。由于用户80进行的对图像的各种分析和/或识别,可在层叠在即时视图304a上的图像中识别各种脉管系统或部分。例如,如图8B所示,可相对于新的或改变的位姿324显示脉管系统312的原始位姿。另外,显微镜系统30可包括指示或箭头328,以示出受试者34(诸如大脑表面304a)在当前时间处的位姿相对于形成重叠视图时的原始时间处的经确定的取向或改变。箭头328可包括:在所选择的结构(例如,脉管系统312)的原始或T1位姿处的原始部,以及在所选择的结构(例如,脉管系统324)的当前或即时视图位姿处的头部或末端。
可显示或获取任何适当数量的先前时间快照。例如,可在所选择的时间(诸如时间T1、时间T2和时间T3)处生成多个快照340。快照340中的每个快照可显示为层叠在大脑304a的当前表面的即时视图上,以供用户80察看。相应地,用户80可选择快照340中的一个或多个快照进行显示,以增强大脑304a的表面的当前即时视图。
由于显微镜32的位姿重新处于先前时间(诸如时间T1)处的位姿,因此先前的快照可层叠在当前即时视图上。相应地,可察看和显示解剖结构的所选择的部分(诸如脉管系统)相对于在显微镜32的移动期间获取的在手术中的先前时间或第一时间处的初始视图或第一视图的改变或可能的改变。无论如何,用户80可察看具有先前获取的快照的叠层或叠加的即时视图,以察看相对于受试者34的时间和/或手术的一部分中的改变的结果。
继续参考图1和图2并且附加参考图9A和图9B,用户可利用显微镜32察看受试者34,以便察看受试者34的即时或实时视图420。如上文所讨论的,显微镜32可由用户80以适当的方式移动,诸如从第一位姿移动到第二位姿。另外,相对于利用受试者跟踪装置120跟踪受试者34,或者由于各种移动确定部分(诸如包括有马达74、76和/或包括机器人特征的那些),可利用包括定位器114、显微镜跟踪装置118的跟踪系统跟踪显微镜32。因此,在各种实施方案中,用户80可确定或跟踪位姿或知道显微镜32相对于受试者34的位姿。此外,用户80可通过跟踪或保存显微镜32相对于受试者34的位姿将显微镜32返回到先前的位姿。因此,显微镜32可用于在第一时间和第二时间处察看受试者34,并且例如如上文所讨论的,在该两个时间之间进行比较。然而,除此之外,用户80还可确定或知道显微镜的位姿以进行以下操作:察看受试者32,以及分析或评估受试者32的所选择的部分在不同的时间段处或历经一段时间的位姿。
参考图9A,例如,用户80可识别受试者34中的各种检查点或界标。例如,参考图9A,用户80可通过显微镜识别即时视图或视图420中的一个或多个物理或真实界标。物理界标可包括标记(例如,光学标记),诸如X或墨标记,其包括第一物理界标424、第二物理界标428、第三物理界标432和第四物理界标436。物理界标424至434可由用户80识别,诸如识别受试者中的物理界标,或者将物理界标置于受试者上,诸如墨标记。界标可由用户80识别,诸如识别图像中示出的或可察看到的部分。
显微镜系统30可识别物理界标,诸如通过对利用显微镜32察看到的图像的分析。分析可包括用于识别物理标记的所选择的特征的机器学习算法或者其他适当的识别或确定措施。例如,如图9A所示,两个墨标记的交叉点(即“X”)可用作对特定的有限或固定检查点424i至434i的指示。检查点可在显微镜系统30中或针对该显微镜系统被识别,例如通过自动识别、手动识别(例如,由用户80利用各种输入(包括输入86)针对显微镜系统30进行识别)或其他适当的确定方式。
另外,如上文所讨论的,显微镜系统30可获取或确定受试者34在第一时间处的图像。在所选择的时间段之后,诸如在一分钟、两分钟之后,或者在基于用户80的决策的所选择的时间之后,可形成第二图像或对检查点420至434的确定。如上文所讨论的,利用包括显微镜跟踪装置118的跟踪系统,显微镜32的位姿可以相对于受试者120和/或由于显微镜系统30中的机器人或马达机构74、76为已知的或确定的。因此,可移动显微镜32,从而以与获取对检查点424至434的初始确定期间大体相同的位姿来察看受试者34。这允许可在初始检查点与当前检查点之间进行分析。
如图9A所示,当前检查点可被视为物理标记,并且先前的检查点可被指示为图形表示,诸如通过“CP”后跟数字来指示。另外,可提供关于初始检查点位姿的各种指示,诸如颜色、指示或关键信息,如图9A所示。同样,关键信息可以为通过目镜44的相对于被显示以供用户80察看的图像420的增强视图。
无论如何,例如,CP1可以绿色示出,并且关键信息可指示在先前位姿确定与当前位姿确定之间已经发生或确定了小于一毫米的距离改变。另选地或除此之外,CP3可被指示为“计划外”或大于预先确定或设定的极限。附加的检查点CP3和CP4也可分别以所选择的颜色(诸如黄色和红色)示出,这些颜色与初始图示或确定与当前位姿之间的改变的距离相关。因此,显微镜系统30可用于示出受试者34从第一时间到当前时间的位姿的改变量。在各种实施方案中,这可用于确定是否需要重新配准和/或可利用显微镜的重新配准或重新对准来确定。
在各种实施方案中,例如,检查点可被置于大体刚性的结构(诸如受试者34的骨结构450)上。因此,可确定刚性骨结构在第一时间与当前时间之间已有移动,并可指示对受试者34的位姿的重新配准或重新确定。
另外,还可相对于所选择的检查点确定各种软组织或器官的位姿。例如,参考图9B,可相对于受试者34的软组织460示出检查点424至434。另外,可示出各种软组织部分,诸如功能性指示,包括第一功能位姿464和第二功能位姿468。功能位姿464、468可在大脑460上利用适当的标记(诸如生物相容的标记或物理部分)被示出或被标记。另外,由于显微镜32相对于受试者34的经确定的或可跟踪的位姿,功能性位姿464、468可被示出为大脑460上的叠加部分或特征,以供用户34在视图470中察看。因此,即时视图470可具有叠加在其上的对功能性位姿464、468的指示。
功能性位姿464、468可由于由用户80对大脑460进行探测而被确定。相应地,功能性位姿464、468可不包括大脑460上的物理或可识别的界标,但可以基于由用户80确定的功能性指示。然而,显微镜系统30可相对于检查点424、434察看功能性位姿464、468。然而,功能性位姿464、468可被显示为针对用户80的图形表示。
对移动或没有移动的确定可用于确定是否存在大脑460相对于受试者34的固定或刚性部分(诸如骨450)的脑偏移。例如,以类似于上文所讨论的方式,显微镜系统30可识别或确定检查点位姿424至434。然后可在第一时间和第二时间处或在比第一时间稍后的时间处相对于检查点424至434确定功能性位姿464、468。因此,然后还可在视图中针对用户80进行对移动或不移动的指示。
例如,相对于即时视图470,用户80通过目镜44可察看到包括关键信息的增强部分。例如,可使用数字1和2来分别识别不同的功能性位姿464、468,并可进行对它们是否处于初始位姿或相对于初始位姿的距离的指示。关键信息可指示功能性点1处于相同或类似的位姿,并且功能性点2处于相对于初始位姿的大于两毫米的距离处。因此,用户可识别或理解当前位姿,包括在两个时间段之间大脑460相对于检查点的当前位姿的变化量(如果存在)。同样,因此,用户80然后可确定由于大脑460的可能的偏移,手术是否可继续或增强。另外,可基于对可能的变化的指示来重新评估对功能性点的位姿的确定。
继续参考图1和图2并且附加参考图10,除与显微镜32相关联的跟踪装置118之外(如图2所示),显微镜还可包括附加的或另选的跟踪或定位系统或其他部分。例如,相对距离测定系统可包括一个或多个测距器,诸如第一距离测定系统或部分500以及第二距离测定系统或部分510。相应的距离测定部分500、510中的每一者可分别发射或包括距离测定波束或特征514、520。波束514、520可以为被发送和接收用于距离测定的信号(例如,光信号或声学信号)。距离测定系统可以为任何适当的系统,诸如确定线性距离或确定三维(3D)扫描和相关距离等。
距离测定特征514、520可朝向受试者34被发射,该受试者被支撑在所选择的支撑结构(诸如支撑件38)上。可将距离测定特征500、510结合到显微镜32中和/或安装到显微镜32。相应地,能够将距离测定部分500、510可移除地安装到显微镜32以用于所选择的手术和/或手术部分。
可由距离测定部分500、510发射和/或接收的距离测定特征514、520可以为所选择的距离测定特征,诸如光学距离测定特征。在各种实施方案中,例如,距离测定部分500、510可形成双目或三维成像距离测定系统或被结合到双目或三维成像距离测定系统中,该系统可对相对于相应距离测定部分500、510以及这些距离测定部分被固定到的显微镜32的位姿(包括距离)进行三角测量。在各种实施方案中,例如,距离测定部分500、510可生成或显影受试者34(诸如其大脑部分)的图像,以确定显微镜32相对于受试者34(和/或其一部分)的位姿,或由于显微镜32相对于受试者34的一部分和/或支撑件38的已知或固定的位姿而确定受试者34(诸如其中的大脑)相对于显微镜32的移动。
测距或距离测定部分500、510还可以为其他适当的距离测定特征,诸如光学(可见和红外)测距系统、声学测距系统、超声测距系统、雷达测距系统或其他适当的测距系统。无论如何,测距系统可被结合到显微镜32中和/或附连到显微镜32,以用于所选择的手术或手术部分。因此,测距系统500、510可用于识别显微镜32相对于受试者34的位姿和/或受试者34的部分相对于其他部分的位姿(例如,大脑偏移)。
在各种实施方案中,测距系统部分500、510可发射相应的波束514、520。波束514、520可从受试者34或其部分反射。反射的部分可由测距系统部分500、510或其他适当的部分接收。该发射和该接收可用于确定受试者34相对于包括测距系统部分500、510的显微镜32的位姿。如上所述,也可相对于显微镜32和受试者43确定器械110的位姿。
另外,测距系统部分500、510可包括各种特征,诸如语音启动或控制。例如,用户80可提供可听见的输入或命令,以对大脑偏移量、显微镜的位姿或相对于显微镜的视图相对于受试者34的位姿等进行测距或确定。因此,用户80可与距离测定系统510、520交互并向该系统提供所选择的输入。
同样,显微镜32还可察看可相对于受试者34移动的器械110。因此,测距系统500、510可确定器械110的至少一部分相对于受试者34的位姿,并能够通过显微镜32的检像器44察看或显示视图中的信息。相应地,测距器500、510可用于相对于受试者34的所选择的部分和/或器械110(相对于显微镜32)进行测距。可显示信息以供用户80在视图端口或目镜44中察看,诸如以确定受试者34的位姿或移动和/或位姿或确定器械110的位姿。
相应地,如上文所讨论的,显微镜系统30可用于向用户80提供信息以协助所选择的手术。可在目镜44中显示器械(诸如器械110)的位姿和/或叠层以供用户80察看。当用户80通过目镜44察看受试者34时,用户80可察看叠加的信息(例如,目标位置或尺寸、被跟踪的器械)。因此,用户80可包括同时与附加信息一起的受试者34的视图,该附加信息可从显微镜32单独获取和/或在使用显微镜32之前获取。显微镜系统30可允许用户80提供输入用于选择和/或确定各种特征,诸如器械的位姿、所选择的目标或所识别的特征(例如,肿瘤、解剖结构等)。因此,用户80可直接察看受试者34和/或相对于受试者34的附加信息,该附加信息可单独从显微镜或显微镜系统30获取或确定。
如上文所讨论的,根据各种实施方案,可利用显微镜32通过目镜44察看图像。通过显微镜察看的图像可包括受试者的即时或实际视图,也称为实时视图。可通过对受试者34的直接可视化来产生即时视图。如上文所讨论的,直接可视化可由于反射光或直射光透射穿过显微镜32的光学器件(诸如穿过物镜52,穿过内部光学器件,并最终穿过目镜44)而发生。因此,供用户80察看的即时视图可实时表示受试者34。另外,如上文所讨论的,各种附加的或增强的或混合的视图信息可显示为叠加在即时视图上和/或与即时视图邻近或相邻。相应地,用户80通过目镜44的视图可以为包括受试者34的即时视图和/或相对于其显示的附加信息两者的混合视图。另外,如上文所讨论的,可将各种视图显示为叠加在即时视图上大体遮挡即时视图,诸如受试者34的三维表示。
另外,如上文所讨论的,包括在显微镜系统30中的显微镜32可以为机器人显微镜,该机器人显微镜可利用各种马达(诸如马达74、76)移动或控制并与相应的臂或构件62、64相关联(例如,被容纳在该臂或该构件中)。因此,显微镜系统30可定位在受试者34附近,并且相对于受试者34以大体精确和已知的方式移动。另选地和/或除此之外,显微镜32可利用所选择的跟踪系统(包括定位器114)相对于受试者34被跟踪。另外,如上文所讨论的,除包括距离测定部分510、520的距离测定系统之外或另选地,跟踪系统可跟踪受试者和/或器械110。
相应地,受试者34的位置可以相对于显微镜32(包括显微镜32的视图平面)为已知的。因此,由于显微镜32相对于受试者34和/或器械110的已知位置,可显示各种信息以供用户80通过目镜44察看,以表示器械和/或部分相对于受试者34(例如,包括肿瘤的目标)的位姿,诸如深度、取向等。
参考以上附图并且附加参考图11,方法或过程600可用于识别或确定附加信息相对于受试者34的位置以进行显示,以供用户80利用目镜44进行察看。附加信息可以为先前获取的图像数据或其他数据,诸如示踪图。一般来讲,附加数据将是利用光学显微镜在即时视图中不可察看到的信息。
过程600可在开始框610中开始。在框610中开始该过程之后,可执行各种步骤或程序以确定受试者34相对于其他获取的信息的位置。例如,确定框614中对受试者相对于显微镜目镜和/或视图平面的位姿的确定。如上文所讨论的,可确定显微镜32和/或目镜44和/或显微镜32的视图平面的位姿。显微镜32相对于受试者34的位姿可通过以下方式确定:确定显微镜相对于受试者34的初始位置和/或相对于受试者34跟踪显微镜。如上文所讨论的,各种跟踪系统可用于在适当时间处跟踪或确定显微镜32的位姿。例如,在第一时间或时间T1处,可确定显微镜32相对于受试者34的位姿,诸如利用机器人系统,包括马达74、76以及相关的传感器或编码器和/或跟踪装置118。显微镜32稍后的移动也可使用类似的系统来跟踪,以确定显微镜32相对于受试者34的第二或稍后位姿。
在适当的时间处,并且不需要在于框614中确定受试者相对于显微镜的位姿之后,可在框618中获取附加信息,并可在框620中进行先前获取的信息相对于受试者的配准。附加信息可以为任何适当的信息,诸如先前获取的图像数据或其他适当的数据。可存储附加信息以供从所选择的存储器系统(诸如存储器90)中调用。然而,附加信息也可以大体实时生成,诸如从而示出或识别大脑上的功能性位置。
附加信息可包括:在受试者相对于显微镜32移动之前利用成像系统获取的信息;利用显微镜32获取的图像(例如,在光学上获取的图像);示踪图数据等。如上文所讨论的,可诸如通过利用距离测定系统和/或跟踪装置120跟踪受试者34来确定受试者34的位姿。另外,根据大体已知的技术,诸如标识受试者34中的界标并在先前获取的图像中识别类似的界标或相同的界标,可在所获取的图像与通过显微镜32的即时视图或视图之间进行配准。
如上文所讨论的,利用显微镜32获取的图像可在其中包括标记,该标记可被识别并且稍后可与受试者34上的相同位置进行比较,以确定受试者34相对于受试者34的初始位姿的可能的移动。类似地和/或另选地,可将先前获取的图像配准到受试者34,以相对于受试者34示出在先前获取的图像数据(和/或适当的其他数据)中所识别的适当部分,以便利用显微镜32进行察看。因此,可在任何适当的时间处进行所获取的信息到受试者34的配准,诸如在在导航空间中相对于显微镜32跟踪或配准受试者34和/或将受试者34配准到先前获取的图像数据之后,该导航空间可包括用于移动器械110和/或显微镜32的移动和/或体积。无论如何,在框620中对先前获取的信息的配准可允许在手术期间确定先前获取的信息中的信息针对受试者34的适当位姿。
然后可在框624中确定是否相对于受试者的即时视图(诸如通过目镜44)显示经配准的附加信息。如上文所讨论的,显微镜系统20可包括允许由用户80进行选择的各种输入。相应地,用户80可使用输入86来确定是否应显示所获取的信息。如果确定不应显示信息,则可遵循“否”框或路径628到开始框610。因此,在框614中对位姿的确定以及在框620中对信息的配准可能不需要被显示以供用户80察看。
然而,如果确定显示附加信息,则可遵循“是”路径632。在遵循“是”路径632之后,可在框640中进行附加信息相对于视图平面以适当位姿的显示或示出。如上文所讨论的,视图平面可供受试者34的用户80察看。相应地,可相对于视图平面以向用户80的适当表示来显示附加信息。
例如,如上文所讨论的,可在先前获取的信息中识别肿瘤或目标,该肿瘤或该目标可能大体低于受试者34的外部部分的表面,诸如大脑的外表面。相应地,可相对于视图平面以适当的位姿(包括深度)显示肿瘤的表示(诸如图形表示),以用于表示肿瘤的适当位姿,以供用户80通过目镜44相对于视图平面进行察看。对适当位姿的确定可基于先前获取的信息到受试者34的配准和/或在框614中受试者相对于显微镜目镜或视图平面的所确定的位姿。确定平面相对于受试者34的位姿可允许先前获取的信息相对于受试者34以适当位姿的适当示出。
在显示640之后,过程600可于框结束框650中结束。在框650中结束该过程可包括:手术的终止,移动显微镜32(如果选择的话,包括外科手术显微镜系统30),确定要显示的附加信息,或重启过程600。相应地,结束框650可被理解为手术的特定部分的结束,诸如根据过程600显示所选择的先前获取的信息。
显微镜系统30可用于显示适当的信息以供用户80察看。可基于对以下的确定来显示信息:显微镜32相对于受试者34的位姿,以及先前获取的信息相对于受试者34的经配准或已知的位姿。这由于显示先前获取的信息针对受试者34的适当位姿而允许先前获取的信息向用户80提供适当的透视信息。
信息可被显示为各个部分的图形表示,诸如器械、目标(例如,肿瘤或解剖学部分)、所识别的特征或部分等。图形表示可层叠在即时图像上,如上文所讨论的。根据各种实施方案,图形表示可以为完全不透明的、部分不透明的或透明的。完全不透明的图形表示可完全遮挡即时图像或层叠在其上的任何部分。部分不透明的图形表示允许至少部分地察看层叠在其上的即时图像部分。透明图形表示可包括例如仅轮廓并且允许察看轮廓内的即时图像。
应当理解,可将本文所公开的各个方面以与说明书和附图中具体给出的组合不同的组合进行组合。还应该理解,取决于示例,本文描述的任何过程或方法的某些动作或事件可以不同的顺序执行,可以完全添加、合并或省略(例如,执行所述技术可能不需要所有描述的动作或事件)。另外,尽管为清楚起见,本公开的某些方面被描述为由单个模块或单元执行,应当理解,本公开的技术可以通过与例如医疗设备相关联的单元或模块的组合来执行。
在一个或多个示例中,描述的技术可在硬件、软件、固件或它们的任何组合中实现。如果在软件中实现,则功能可作为一个或多个指令或代码存储在计算机可读介质(例如,存储器模块)上并由基于硬件的处理单元执行。计算机可读介质可包括非暂态计算机可读介质,其对应于有形介质,诸如数据存储介质(例如,RAM、ROM、EEPROM、闪存存储器,或可用于存储指令或数据结构形式的期望程序代码并且可由计算机访问的任何其他介质)。
指令可由一个或多个处理器(例如,处理器模块)执行,诸如一个或多个数字信号处理器(DSP)、通用微处理器、图形处理单元(GPU)、专用集成电路(ASIC)、现场可编程逻辑阵列(FPGA)或其他等同的集成或离散逻辑电路。因此,如本文所用的术语“处理器”可指前述结构或适于实现所描述的技术的任何其他物理结构中的任一种。另外,本技术可在一个或多个电路或逻辑元件中完全实现。
提供了示例性实施方案,使得本公开将是彻底的,并且将向本领域技术人员充分传达本公开的范围。阐述了许多具体细节,诸如特定部件、装置和方法的示例,以提供对本公开的实施方案的透彻理解。对于本领域技术人员显而易见的是,不需要采用特定细节,示例性实施方案可能以许多不同的形式体现,并且不应被解释为限制本公开的范围。在一些示例性实施方案中,未详细描述众所周知的过程、众所周知的装置结构和众所周知的技术。
出于说明和描述的目的,已经提供了对实施方案的前述描述。前述描述不旨在详尽无遗或限制本公开。特定实施方案的单独元件或特征通常不限于该特定实施方案,而是在适用的情况下,可互换并且也可以在选定实施方案中使用,即使未具体示出或描述。同一元件或特征可以多种方式变化。此类变化不应该被视为脱离本公开,并且所有此类修改旨在被包括在本公开的范围内。
Claims (20)
1.一种用于在通过显微镜的目镜的视图中察看受试者的系统,包括:
处理器系统,所述处理器系统被配置为访问存储器系统并执行指令以:
确定通过所述目镜察看的视平面相对于所述受试者的第一位姿;
在第一时间处获取所述受试者在所述第一位姿的所述视平面处的第一图像;
存储所述第一图像;
在视图平面中显示所述第一图像,所述第一图像叠加在所述受试者的即时图像上。
2.根据权利要求1所述的系统,其中所述处理器系统被进一步配置为执行指令以:
分析所述第一图像;
分析所述即时图像;以及
确定是否已发生所述即时图像相对于所述第一图像的位置改变。
3.根据权利要求2所述的系统,其中所述处理器系统被进一步配置为执行指令以:
输出所述确定,其中输出所确定的位姿包括:
生成示出所确定的改变的图形表示;以及
显示所述图形表示,所述图形表示叠加在所述即时图像上。
4.根据权利要求3所述的系统,其中所述图形表示是部分不透明的,以允许通过所述图形表示来察看所述即时图像。
5.根据权利要求3所述的系统,其中所述图形表示包括箭头,所述箭头具有在所显示的第一图像中的点处的原始端和在所述即时图像中的点处的头部,所述头部指示所述受试者相对于所述视图平面的移动的方向和程度。
6.根据权利要求1至5中任一项所述的系统,其中所述处理器系统被进一步配置为执行指令以:
利用在所述第一位姿处的所述视平面相对于所述受试者跟踪所述显微镜的头部。
7.根据权利要求6所述的系统,其中所述处理器系统被进一步配置为执行指令以:
在所述第一位姿处将来自所述视平面的所述头部进行移动并将所述头部返回到所述视平面之后,将第二时间处的所述即时图像与所述第一图像进行比较;
确定在所述第一时间与第三时间之间是否已发生所述即时图像相对于所述第一图像的位置改变;以及
输出所述确定。
8.根据权利要求6所述的系统,其中所述头部包括被配置为接收来自所述受试者的光的物镜。
9.一种在通过察看系统的目镜的视图中示出移动的方法,包括:
在第一时间处识别所述目镜的视平面中的界标;
在所述第一时间之后的第二时间处识别所述目镜的所述视平面中的所述界标;
评估在所述第一时间与所述第二时间之间所述界标是否已发生改变。
10.根据权利要求9所述的方法,其中所述界标在对象的刚性部分上。
11.根据权利要求9或10中任一项所述的方法,还包括:
输出对是否已发生位姿改变的所述评估的确定,所述确定包括叠加指示在所述第一时间与所述第二时间之间已发生的移动量的图形表示。
12.根据权利要求11所述的方法,其中叠加所述图形表示包括:
利用在所述第一时间处所述界标的所识别位置的第一图形表示来示出;
利用在所述第二时间处所述界标的所识别位置的第二图形表示来示出;
其中所述第二图形表示在视觉上不同于所述第一图形表示以指示位姿或几何结构的改变或位姿或几何结构的改变量中的至少一者。
13.根据权利要求9至12中任一项所述的方法,还包括:
在所述对象上形成所述界标。
14.根据权利要求9至13中任一项所述的方法,其中所述界标是第一界标,还包括:
相对于所述第一界标识别第二界标,其中所述第二界标在所述对象的非刚性部分上;
在第一时间处确定所述第一界标相对于所述第二界标的第一位姿;
在第二时间处确定所述第一界标相对于所述第二界标的第二位姿;
评估在所述第一时间与所述第二时间之间是否已发生所述第一界标与所述第二界标之间的位姿改变;
输出对是否已发生位姿改变的所述评估的确定。
15.根据权利要求9至14中任一项所述的方法,其中识别所述第二界标包括识别所述对象中的功能位置。
16.一种用于确定显微镜相对于受试者的位姿的系统,包括:
第一发射器,所述第一发射器被配置为与所述显微镜连接;
第一接收器,所述第一接收器被配置为与所述显微镜连接;
处理器系统,所述处理器系统被配置为与所述第一发射器和所述第一接收器两者通信;
其中所述第一发射器被配置为发射从所述受试者反射并由所述第一接收器接收的第一信号;
其中所述处理器系统被配置为执行指令以基于所述发射器和所接收的第一信号来确定所述受试者的第一部分的位姿。
17.根据权利要求16所述的系统,其中所述信号包括红外照射。
18.根据权利要求16所述的系统,还包括:
第二发射器,所述第二发射器被配置为与所述显微镜相关联;
第二接收器,所述第二接收器被配置为与所述显微镜相关联;
其中所述处理器系统被进一步配置为与所述第二发射器和所述第二接收器两者通信;
其中所述第二发射器被配置为发射从所述受试者反射并由所述第二接收器接收的第二信号;
其中所述处理器系统被配置为执行另外的指令以基于所述发射器和所接收的第二信号来确定所述受试者的第二部分的所述位姿。
19.根据权利要求18所述的系统,其中所述受试者的所述第一部分与所述第二部分间隔开。
20.根据权利要求18所述的系统,其中所述第一信号或所述第二信号中的至少一者能够操作为从器械反射;
其中所述处理器系统被配置为执行另外的指令以确定所述器械相对于所述显微镜或所述受试者中的至少一者的位姿。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16/861,334 | 2020-04-29 | ||
| US16/861,334 US11628037B2 (en) | 2020-04-29 | 2020-04-29 | System and method for viewing a subject |
| PCT/US2021/029409 WO2021222254A2 (en) | 2020-04-29 | 2021-04-27 | System and method for viewing a subject |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN115461009A true CN115461009A (zh) | 2022-12-09 |
Family
ID=75977814
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202180031567.3A Pending CN115461009A (zh) | 2020-04-29 | 2021-04-27 | 用于察看受试者的系统和方法 |
Country Status (4)
| Country | Link |
|---|---|
| US (3) | US11628037B2 (zh) |
| EP (1) | EP4143668A2 (zh) |
| CN (1) | CN115461009A (zh) |
| WO (1) | WO2021222254A2 (zh) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11628037B2 (en) | 2020-04-29 | 2023-04-18 | Medtronic Navigation, Inc. | System and method for viewing a subject |
| EP4582043A2 (en) * | 2022-09-01 | 2025-07-09 | Impel IP, LLC | Integrated mechatronic system for managing ophthalmology surgeries under the free hands and feet concept through execution of voice commands |
| WO2025141396A1 (en) * | 2023-12-26 | 2025-07-03 | Medtronic Navigation, Inc. | System and method to orient display of probe for navigation in real time |
| EP4589355A1 (en) * | 2024-01-18 | 2025-07-23 | Leica Instruments (Singapore) Pte. Ltd. | Surgical imaging system and corresponding system, method and computer program |
| EP4641283A1 (en) * | 2024-04-23 | 2025-10-29 | Carl Zeiss Meditec AG | Surgical microscope and method of operating a surgical microscope |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104994803A (zh) * | 2013-01-25 | 2015-10-21 | 美敦力导航股份有限公司 | 利用图像数据来放置部件的系统和方法 |
| US20170258529A1 (en) * | 2014-03-24 | 2017-09-14 | Scopis Gmbh | Electromagnetic navigation system for microscopic surgery |
| US20170325900A1 (en) * | 2016-05-12 | 2017-11-16 | Affera, Inc. | Anatomical model controlling |
| US20190327394A1 (en) * | 2017-04-24 | 2019-10-24 | Truevision Systems, Inc. | Stereoscopic visualization camera and integrated robotics platform |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6226548B1 (en) | 1997-09-24 | 2001-05-01 | Surgical Navigation Technologies, Inc. | Percutaneous registration apparatus and method for use in computer-assisted surgical navigation |
| WO2000030546A1 (en) | 1998-11-25 | 2000-06-02 | United States Surgical Corporation | Biopsy system |
| US8644907B2 (en) | 1999-10-28 | 2014-02-04 | Medtronic Navigaton, Inc. | Method and apparatus for surgical navigation |
| DE10100335B4 (de) | 2001-01-03 | 2017-02-09 | Carl Zeiss Meditec Ag | Vorrichtung zur Anzeige einer Größe im Blickfeld eines Benutzers und Verwendung der Vorrichtung |
| US7697972B2 (en) | 2002-11-19 | 2010-04-13 | Medtronic Navigation, Inc. | Navigation system for cardiac therapies |
| US20040199072A1 (en) | 2003-04-01 | 2004-10-07 | Stacy Sprouse | Integrated electromagnetic navigation and patient positioning device |
| US20050059894A1 (en) | 2003-09-16 | 2005-03-17 | Haishan Zeng | Automated endoscopy device, diagnostic method, and uses |
| US10568535B2 (en) | 2008-05-22 | 2020-02-25 | The Trustees Of Dartmouth College | Surgical navigation with stereovision and associated methods |
| US8842893B2 (en) | 2010-04-30 | 2014-09-23 | Medtronic Navigation, Inc. | Method and apparatus for image-based navigation |
| KR101531620B1 (ko) | 2011-06-03 | 2015-06-25 | 넥스팀 오와이 | 뇌의 실영상에 nbs 기능 데이터를 오버레이하기 위한 방법 및 시스템 |
| JP2013233413A (ja) | 2012-04-09 | 2013-11-21 | Toshiba Corp | X線診断装置 |
| US9310611B2 (en) | 2012-09-18 | 2016-04-12 | Qualcomm Incorporated | Methods and systems for making the use of head-mounted displays less obvious to non-users |
| WO2018217951A1 (en) | 2017-05-24 | 2018-11-29 | Camplex, Inc. | Surgical visualization systems and displays |
| US10555779B2 (en) | 2018-04-27 | 2020-02-11 | Medtronic Navigation, Inc. | System and method for a tracked procedure |
| US10736699B2 (en) | 2018-04-27 | 2020-08-11 | Medtronic Navigation, Inc. | System and method for a tracked procedure |
| US11593972B2 (en) | 2020-04-29 | 2023-02-28 | Medtronic Navigation, Inc. | System and method for viewing a subject |
| US11628037B2 (en) | 2020-04-29 | 2023-04-18 | Medtronic Navigation, Inc. | System and method for viewing a subject |
-
2020
- 2020-04-29 US US16/861,334 patent/US11628037B2/en active Active
-
2021
- 2021-04-27 EP EP21726489.4A patent/EP4143668A2/en active Pending
- 2021-04-27 CN CN202180031567.3A patent/CN115461009A/zh active Pending
- 2021-04-27 WO PCT/US2021/029409 patent/WO2021222254A2/en not_active Ceased
-
2023
- 2023-04-03 US US18/194,846 patent/US12102490B2/en active Active
-
2024
- 2024-09-27 US US18/898,797 patent/US20250017688A1/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104994803A (zh) * | 2013-01-25 | 2015-10-21 | 美敦力导航股份有限公司 | 利用图像数据来放置部件的系统和方法 |
| US20170258529A1 (en) * | 2014-03-24 | 2017-09-14 | Scopis Gmbh | Electromagnetic navigation system for microscopic surgery |
| US20170325900A1 (en) * | 2016-05-12 | 2017-11-16 | Affera, Inc. | Anatomical model controlling |
| US20190327394A1 (en) * | 2017-04-24 | 2019-10-24 | Truevision Systems, Inc. | Stereoscopic visualization camera and integrated robotics platform |
Also Published As
| Publication number | Publication date |
|---|---|
| US20210338367A1 (en) | 2021-11-04 |
| US11628037B2 (en) | 2023-04-18 |
| WO2021222254A2 (en) | 2021-11-04 |
| EP4143668A2 (en) | 2023-03-08 |
| US20230248469A1 (en) | 2023-08-10 |
| US20250017688A1 (en) | 2025-01-16 |
| WO2021222254A3 (en) | 2021-11-25 |
| US12102490B2 (en) | 2024-10-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11883118B2 (en) | Using augmented reality in surgical navigation | |
| US12102490B2 (en) | System and method for viewing a subject | |
| US10593052B2 (en) | Methods and systems for updating an existing landmark registration | |
| CN109996511B (zh) | 用于引导进程的系统 | |
| US10706610B2 (en) | Method for displaying an object | |
| US9248000B2 (en) | System for and method of visualizing an interior of body | |
| US5836954A (en) | Apparatus and method for photogrammetric surgical localization | |
| EP2637593B1 (en) | Visualization of anatomical data by augmented reality | |
| NL2022371B1 (en) | Method and assembly for spatial mapping of a model of a surgical tool onto a spatial location of the surgical tool, as well as a surgical tool | |
| JP6952740B2 (ja) | ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム | |
| JP2017513662A (ja) | Q3d画像の3d画像とのアライメント | |
| WO2001059708A1 (en) | Method of 3d/2d registration of object views to a surface model | |
| Schoob et al. | Comparative study on surface reconstruction accuracy of stereo imaging devices for microsurgery | |
| CN109833092A (zh) | 体内导航系统和方法 | |
| JP2017205343A (ja) | 内視鏡装置、内視鏡装置の作動方法 | |
| US20230196636A1 (en) | System and method for viewing a subject | |
| CN116958486A (zh) | 一种基于卷积神经网络的医学图像处理方法及系统 | |
| CN115363751B (zh) | 术中解剖结构指示方法 | |
| US20230026585A1 (en) | Method and system for determining a pose of at least one object in an operating theatre | |
| CN119604251A (zh) | 具有注释功能的导航系统和导航方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination |