[go: up one dir, main page]

JP2001204738A - Navigation system for medical operation - Google Patents

Navigation system for medical operation

Info

Publication number
JP2001204738A
JP2001204738A JP2000017135A JP2000017135A JP2001204738A JP 2001204738 A JP2001204738 A JP 2001204738A JP 2000017135 A JP2000017135 A JP 2000017135A JP 2000017135 A JP2000017135 A JP 2000017135A JP 2001204738 A JP2001204738 A JP 2001204738A
Authority
JP
Japan
Prior art keywords
image information
image
unit
endoscope
treatment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000017135A
Other languages
Japanese (ja)
Other versions
JP4472085B2 (en
Inventor
Toshiya Sugai
俊哉 菅井
Yasuo Goto
康雄 後藤
Masahiro Kudo
正宏 工藤
Hitoshi Karasawa
均 唐沢
Masaaki Ueda
昌章 植田
Takashi Shioda
敬司 塩田
Koji Shimomura
浩二 下村
Takeaki Nakamura
剛明 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2000017135A priority Critical patent/JP4472085B2/en
Publication of JP2001204738A publication Critical patent/JP2001204738A/en
Application granted granted Critical
Publication of JP4472085B2 publication Critical patent/JP4472085B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a navigation system for medical operation which displays the position of an endoscope image on a biological tissue in using of the endoscope, synthesized and display the shapes of treating devices on the picture of the biological tissue, prevents a part deviated from a microscope image from damaging the biological tissue inadvertently, and unnecessitates taking new calibration again so as to improve efficiency in the medical operation. SOLUTION: The position of the treating devices such as a treating tool 33, the endsocope 34 are measured by a position detecting sensor 36, the distance from the tip of the insertion part 34a of the endoscope 34 to the object 48 as an operation part is measured, and biological image information measured in advance is stored. Positional information from the sensor 36, distance information and biological image information are synthesized into an image by an image synthesizing circuit 39 to be displayed on the screen of a TV monitor 44.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、表示部に表示され
ている例えば生体画像情報の上に使用している手術器具
などの処置用機器の位置を表示することで手術を進める
方向をナビゲートする手術用ナビゲーションシステムに
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention navigates the direction in which surgery is performed by displaying the position of a treatment instrument such as a surgical instrument used on biological image information displayed on a display unit. To a surgical navigation system.

【0002】[0002]

【従来の技術】従来から例えば、特開平5−30507
3号公報などの様に、事前に撮影されたCT(computer
ized tomography)や、MRI(magnetic resonance
imaging )などによる断層像をコンピューターで合
成してモニターなどの表示部に断層もしくは立体表示す
ると共に、手術に使用する処置具や、内視鏡などの処置
用機器の形状を予めキャリブレーションしておき、それ
らの機器に位置検出用のマーカーを取り付け、外部から
赤外線などによる位置検出を行う事により、前述の生体
画像情報上に使用している機器の位置を表示したり、特
に脳外科などでは顕微鏡像に脳腫瘍の位置を合成して表
示することにより、手術を進める方向をナビゲートする
機器が開発されている。
2. Description of the Related Art Conventionally, for example, Japanese Patent Application Laid-Open No. Hei 5-30507
No.3, such as CT (computer
ized tomography) and MRI (magnetic resonance)
Imaging) tomographic images are synthesized by a computer and displayed in a tomographic or stereoscopic display on a display such as a monitor, and the shape of treatment tools used for surgery and treatment equipment such as endoscopes are calibrated in advance. By attaching a marker for position detection to those devices and detecting the position by infrared rays from the outside, the position of the device used on the above-mentioned biological image information can be displayed. A device for navigating the direction in which an operation is advanced by synthesizing and displaying the position of a brain tumor has been developed.

【0003】また、特公平6−43893号公報や、特
公平3−28686号公報などには、被写体の位置や、
形状を認識する技術が示されている。あるいは、特開平
7−261094号公報などには、顕微鏡像に内視鏡像
をピクチャーインピクチャーが可能な手術用顕微鏡が示
されている。
Further, Japanese Patent Publication No. 6-43893 and Japanese Patent Publication No. 3-28686 disclose the position of a subject,
A technique for recognizing a shape is shown. Alternatively, Japanese Unexamined Patent Publication No. Hei 7-26194 discloses an operation microscope capable of picture-in-picture conversion of an endoscope image into a microscope image.

【0004】その他、TVモニターや、ヘッドマウント
ディスプレーなどでは、画像ミキサーを利用する事で、
複数の画像を希望の形で合成して表示する作業を容易に
行うことができる。
[0004] In addition, for TV monitors and head-mounted displays, using an image mixer,
The operation of combining and displaying a plurality of images in a desired shape can be easily performed.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記従
来構成のものにあっては次のような問題がある。 (1)モニターに表示されている内視鏡像で見ている生
体組織が、生体のどの部分に位置するのかを表示する事
が出来ない。
However, the above-mentioned conventional structure has the following problems. (1) It is not possible to display at which part of the living body the living tissue viewed by the endoscope image displayed on the monitor is located.

【0006】(2)患者の体内の術部の処置に一般的に
使用する処置具や、内視鏡などの処置用機器は、モニタ
ーの顕微鏡像の画面上では単純化された棒状のマークで
表示されている。そのため、その処置用機器の形状を正
確には表示出来ないので、特に処置用機器の一部が顕微
鏡像から外れている場合には顕微鏡像から外れている部
分などが生体組織に接触するおそれがある。このような
場合には不用意に生体組織を損傷するおそれがる。
(2) A treatment tool generally used for treatment of a surgical site in a patient's body or a treatment device such as an endoscope is represented by a simplified rod-shaped mark on a screen of a microscope image of a monitor. Is displayed. As a result, the shape of the treatment device cannot be accurately displayed, and particularly when a part of the treatment device deviates from the microscope image, a portion that deviates from the microscope image may come into contact with living tissue. is there. In such a case, the living tissue may be inadvertently damaged.

【0007】(3)予め複数の処置用機器を準備し、使
用する処置用機器を交換しながら処置を進める場合には
使用する処置用機器を交換する度にキャリブレーション
を取り直さなくてはならない。そのため、処置用機器の
交換作業に手間が掛かるので、手術を能率良く進めるこ
とが難しい問題がある。
(3) When a plurality of treatment devices are prepared in advance and the treatment is performed while replacing the treatment device to be used, the calibration must be performed again each time the treatment device to be used is replaced. . Therefore, there is a problem that it is difficult to perform the operation efficiently because the replacement work of the treatment equipment is troublesome.

【0008】本発明は上記事情に着目してなされたもの
で、その目的は、内視鏡を使用した場合に、内視鏡像で
得られている画像の生体組織上での位置を表示すること
ができ、さらに、使用する処置具や内視鏡などの処置用
機器の形状を生体組織の画像上に合成して表示すること
ができ、例えば顕微鏡像から外れている部分が不用意に
生体組織に接触することを防止することができるととも
に、使用する処置具や、内視鏡などの処置用機器を交換
しても、新たにキャリブレーションを取り直す必要が無
く、手術を能率良く進めることができる手術用ナビゲー
ションシステムを提供することにある。
The present invention has been made in view of the above circumstances, and has as its object to display the position of an image obtained as an endoscope image on a living tissue when an endoscope is used. In addition, the shape of a treatment instrument such as a treatment tool or an endoscope to be used can be synthesized and displayed on an image of a living tissue. Can be prevented from coming into contact with the instrument, and even if the treatment tool to be used or the treatment equipment such as an endoscope is exchanged, there is no need to perform a new calibration, and the operation can be efficiently performed. An object of the present invention is to provide a surgical navigation system.

【0009】[0009]

【課題を解決するための手段】請求項1の発明は、患者
の体内の術部の処置に使用する処置用機器の位置を測定
する位置測定部と、患者の体内に挿入される挿入部の先
端から前記術部の目標物までの距離を測定する距離測定
手段を有する内視鏡と、前記患者の体内の術部の画像情
報を表示する画像情報表示部と、予め測定された生体画
像情報を保持する記憶部と、前記位置測定部からの位置
情報と、前記距離測定手段からの距離情報と、前記記憶
部に予め記録されている生体画像情報とを合成し、前記
画像情報表示部の画面上に表示する画像情報合成部とを
具備したことを特徴とする手術用ナビゲーションシステ
ムである。そして、本請求項1の発明では、患者の体内
の術部の処置に使用する処置用機器の位置を位置測定部
によって測定し、患者の体内に挿入される挿入部の先端
から前記術部の目標物までの距離を内視鏡の距離測定手
段によって測定する。さらに予め測定された生体画像情
報を記憶部によって保持するとともに、位置測定部から
の位置情報と、距離測定手段からの距離情報と、記憶部
に予め記録されている生体画像情報とを画像情報合成部
によって合成し、画像情報表示部の画面上に表示するよ
うにしたものである。
According to the first aspect of the present invention, there is provided a position measuring section for measuring a position of a treatment instrument used for treatment of an operation section in a patient's body, and an insertion section inserted into the patient's body. An endoscope having a distance measuring means for measuring a distance from a distal end to a target of the operative site, an image information display unit for displaying image information of an operative site in the patient, and biological image information measured in advance And a position information from the position measurement unit, distance information from the distance measurement unit, and biological image information recorded in advance in the storage unit, and the image information display unit A surgical navigation system comprising an image information synthesizing unit for displaying on a screen. According to the first aspect of the present invention, the position of the treatment device used for treatment of the operative site in the patient's body is measured by the position measurement unit, and the distal end of the insertion unit inserted into the patient's body is used to measure the position of the operative site. The distance to the target is measured by the distance measuring means of the endoscope. Further, the storage unit holds the pre-measured biological image information, and synthesizes the image information with the position information from the position measurement unit, the distance information from the distance measurement unit, and the biological image information recorded in the storage unit in advance. The images are combined by the unit and displayed on the screen of the image information display unit.

【0010】請求項2の発明は、前記画像情報合成部
は、前記処置用機器の形状を予め記憶しておく手段を有
し、前記処置用機器の位置及び形状の情報と、予め記録
されている生体画像情報とを合成して前記画像情報表示
部の画面上に前記機器の形状と位置とを判別可能に表示
するものであることを特徴とする請求項1に記載の手術
用ナビゲーションシステムである。そして、本請求項2
の発明では画像情報合成部に処置用機器の形状を予め記
憶させ、処置用機器の位置及び形状の情報と、予め記録
されている生体画像情報とを合成して画像情報表示部の
画面上に機器の形状と位置とを判別可能に表示するよう
にしたものである。
According to a second aspect of the present invention, the image information synthesizing section has means for storing the shape of the treatment device in advance, and the information on the position and the shape of the treatment device is recorded in advance. 2. The surgical navigation system according to claim 1, wherein the biometric image information is synthesized and displayed on the screen of the image information display unit so that the shape and position of the device can be distinguished. is there. And claim 2
In the invention of the above, the shape of the treatment device is stored in advance in the image information synthesizing unit, and the position and shape information of the treatment device and the pre-recorded biological image information are synthesized and displayed on the screen of the image information display unit. The display is such that the shape and position of the device can be distinguished.

【0011】請求項3の発明は、患者の体内の術部の処
置に使用する処置用機器の位置を測定する位置測定部
と、患者の体内に挿入される挿入部の先端から前記術部
の目標物までの距離を測定する距離測定部を有する内視
鏡と、前記患者の体内の術部の画像情報を表示する画像
情報表示部と、予め測定された生体画像情報を保持する
記憶部と、前記位置測定部からの位置情報と、前記距離
測定部からの距離情報と、前記記憶部に予め記録されて
いる生体画像情報とを合成し、前記画像情報表示部の画
面上に表示する画像情報合成部とを具備し、患者の体内
の術部の処置に複数の処置用機器を適宜、選択的に交換
して使用するとともに、前記各処置用機器の先端から所
定の設定位置に、前記位置測定部が識別する為のマーカ
ーを設けたことを特徴とする手術用ナビゲーションシス
テムである。そして、本請求項3の発明では患者の体内
の術部の処置に使用する処置用機器の位置を位置測定部
によって測定し、患者の体内に挿入される挿入部の先端
から前記術部の目標物までの距離を内視鏡の距離測定手
段によって測定する。さらに予め測定された生体画像情
報を記憶部によって保持するとともに、位置測定部から
の位置情報と、距離測定手段からの距離情報と、記憶部
に予め記録されている生体画像情報とを画像情報合成部
によって合成し、画像情報表示部の画面上に表示する。
さらに、患者の体内の術部の処置に複数の処置用機器を
適宜、選択的に交換して使用する際に、各処置用機器の
先端から所定の設定位置のマーカーによって位置測定部
が各処置用機器の種類を識別できるようにしたものであ
る。
According to a third aspect of the present invention, there is provided a position measuring section for measuring a position of a treatment instrument used for treatment of an operating portion in a patient's body, An endoscope having a distance measuring unit that measures a distance to a target, an image information display unit that displays image information of an operating unit in the body of the patient, and a storage unit that holds biological image information measured in advance. An image that combines position information from the position measurement unit, distance information from the distance measurement unit, and biological image information recorded in advance in the storage unit, and displays the image on the screen of the image information display unit An information synthesizing unit, and a plurality of treatment instruments are appropriately and selectively exchanged and used for treatment of an operation part in a patient's body, and at a predetermined set position from the tip of each treatment instrument, Note that a marker has been provided for the position measurement It is a surgical navigation system that. According to the third aspect of the present invention, the position of the treatment instrument used for treatment of the operative site in the patient's body is measured by the position measuring unit, and the target of the operative site is measured from the distal end of the insertion unit inserted into the patient's body. The distance to the object is measured by a distance measuring means of the endoscope. Further, the storage unit holds the pre-measured biological image information, and synthesizes the image information with the position information from the position measurement unit, the distance information from the distance measurement unit, and the biological image information recorded in the storage unit in advance. The images are combined by the unit and displayed on the screen of the image information display unit.
Further, when a plurality of treatment devices are selectively exchanged and used as appropriate for a treatment of an operation part in a patient's body, the position measurement unit is operated by a marker at a predetermined set position from the tip of each treatment device. The type of equipment for use can be identified.

【0012】[0012]

【発明の実施の形態】以下、本発明の第1の実施の形態
を図1乃至図7を参照して説明する。図1は本実施の形
態の手術用ナビゲーションシステムを使用する手術用顕
微鏡のシステム全体の概略構成を示すものである。図1
中で、1は手術室に設置されている手術用顕微鏡、2は
この手術用顕微鏡1の鏡体、61は患者32が載せられ
ている手術用ベッドである。ここで、手術用顕微鏡1の
架台3には、床面を移動可能なベース4と、このベース
4上に立設された支柱5とが設けられている。なお、手
術用顕微鏡1の架台3は手術室内における手術用ベッド
61の先端部側(例えばベッド61上の患者32の頭部
32aが配置される側)に配置されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 shows a schematic configuration of an entire surgical microscope system using the surgical navigation system of the present embodiment. FIG.
Among them, 1 is an operating microscope installed in an operating room, 2 is a mirror body of the operating microscope 1, and 61 is an operating bed on which a patient 32 is placed. Here, the gantry 3 of the surgical microscope 1 is provided with a base 4 that can move on the floor surface and a column 5 that stands on the base 4. The gantry 3 of the operating microscope 1 is arranged on the distal end side of the operating bed 61 in the operating room (for example, on the side of the bed 61 where the head 32a of the patient 32 is located).

【0013】さらに、支柱5の上部には、手術用顕微鏡
1の鏡体2を任意の方向に移動可能に支持する支持機構
62が設けられている。この支持機構62には第1アー
ム6と、第2アーム7と、第3アーム8とが設けられて
いる。ここで、第1アーム6には図示しない照明用光源
が内蔵されている。そして、この第1アーム6の一端部
は支柱5の上部に略鉛直方向の軸O1を中心に回転自在
に取付けられている。
Further, a support mechanism 62 for supporting the mirror body 2 of the surgical microscope 1 so as to be movable in an arbitrary direction is provided on the upper portion of the column 5. The support mechanism 62 includes a first arm 6, a second arm 7, and a third arm 8. Here, an illumination light source (not shown) is built in the first arm 6. One end of the first arm 6 is attached to the upper part of the support 5 so as to be rotatable about a substantially vertical axis O1.

【0014】さらに、第1アーム6の他端部には、第2
アーム7の一端部が略鉛直方向の軸O2を中心に回転自
在に取付けられている。この第2アーム7はリンク機構
とバランス調整用のスプリング部材とからなるパンタグ
ラフアームによって形成され、上下方向に移動操作可能
になっている。
Further, the other end of the first arm 6 has a second
One end of the arm 7 is rotatably mounted about a substantially vertical axis O2. The second arm 7 is formed by a pantograph arm including a link mechanism and a spring member for balance adjustment, and is movable in the vertical direction.

【0015】また、第2アーム7の他端部には、第3ア
ーム8の一端が略鉛直方向の軸O3を中心に回転自在に
取付けられている。この第3アーム8の他端には手術用
顕微鏡1の鏡体2が連結されている。さらに、この第3
アーム8は、略水平面上で、互いに直交する方向の2つ
の軸O4,O5を中心としてそれぞれ回転自在に支持さ
れている。そして、鏡体2はこの第3アーム8によって
軸O4を中心として術者の観察方向に対する前後方向の
俯仰を可能に、かつ軸O5を中心として術者の左右方向
の俯仰を可能にそれぞれ支持されている。
On the other end of the second arm 7, one end of a third arm 8 is mounted rotatably about a substantially vertical axis O3. The other end of the third arm 8 is connected to the mirror body 2 of the operating microscope 1. In addition, this third
The arm 8 is rotatably supported on two axes O4 and O5 in directions substantially orthogonal to each other on a substantially horizontal plane. The mirror body 2 is supported by the third arm 8 so as to be able to elevate in the front-rear direction with respect to the operator's observation direction about the axis O4 and to be able to elevate the operator in the left-right direction about the axis O5. ing.

【0016】また、支持機構62の各回転軸O1〜O5
における軸受部には図示しない電磁ブレーキが各々設け
られている。この電磁ブレーキは支柱5に内蔵された図
示しない電磁ブレーキ電源回路と接続されている。さら
に、この電磁ブレーキ電源回路は、図2に示すように鏡
体2に一体に固定されたグリップ9に設けられたスイッ
チ10と接続されている。
The rotation axes O1 to O5 of the support mechanism 62
Each of the bearing portions is provided with an electromagnetic brake (not shown). This electromagnetic brake is connected to an electromagnetic brake power supply circuit (not shown) built in the column 5. Further, this electromagnetic brake power supply circuit is connected to a switch 10 provided on a grip 9 integrally fixed to the mirror body 2 as shown in FIG.

【0017】そして、スイッチ10によって各回転軸O
1〜O5の電磁ブレーキがオンオフ操作されるようにな
っている。ここで、スイッチ10が例えばオン操作され
た場合には各回転軸O1〜O5の電磁ブレーキがオフ操
作されることにより、支持機構62がロック解除状態で
保持され、鏡体2が空間的に自由に位置調整を行うこと
ができるようになっている。そして、スイッチ10がオ
フ操作された場合には各回転軸O1〜O5の電磁ブレー
キがオン操作されて支持機構62がロック状態に切換え
られ、鏡体2の位置固定が行われるようになっている。
The rotation axis O is controlled by the switch 10.
The electromagnetic brakes 1 to O5 are turned on and off. Here, for example, when the switch 10 is turned on, the electromagnetic brake of each of the rotating shafts O1 to O5 is turned off, whereby the support mechanism 62 is held in the unlocked state, and the mirror body 2 is spatially free. Position adjustment can be performed. When the switch 10 is turned off, the electromagnetic brakes of the rotating shafts O1 to O5 are turned on, the support mechanism 62 is switched to the locked state, and the position of the mirror body 2 is fixed. .

【0018】また、図3は手術用顕微鏡1の鏡体2の概
略構成を示すものである。この鏡体2には、1つの対物
レンズ11と、左右一対の観察光学系14A,14Bと
が設けられている。ここで、左右の各観察光学系14
A,14Bの観察光軸上には変倍光学系12と、左右の
結像レンズ13a,13bと、左右の接眼レンズ14
a,14bとが順に配置されている。そして、この左右
一対の観察光学系14A,14Bによって立体観察光学
系が構成されている。
FIG. 3 shows a schematic configuration of the mirror body 2 of the operating microscope 1. The mirror body 2 is provided with one objective lens 11 and a pair of left and right observation optical systems 14A and 14B. Here, the left and right observation optical systems 14
On the observation optical axes of A and 14B, the variable power optical system 12, left and right imaging lenses 13a and 13b, and left and right eyepieces 14 are provided.
a and 14b are arranged in order. The stereoscopic observation optical system is constituted by the pair of left and right observation optical systems 14A and 14B.

【0019】また、結像レンズ13a,13bによる結
像面は、それぞれ接眼レンズ14a,14bの焦点位置
に配置されるように設置されている。なお、図3中の1
6は対物レンズ11のレンズ位置を検出する位置センサ
ーを示すものである。ここで、対物レンズ11は図示し
ないモーターと連結されて光軸方向に移動可能に支持さ
れている。そして、この対物レンズ11の光軸方向のレ
ンズ位置が位置センサー16により検出できるように構
成されている。
The imaging planes of the imaging lenses 13a and 13b are set so as to be located at the focal positions of the eyepieces 14a and 14b, respectively. Note that 1 in FIG.
Reference numeral 6 denotes a position sensor for detecting the lens position of the objective lens 11. Here, the objective lens 11 is connected to a motor (not shown) and supported so as to be movable in the optical axis direction. The position of the objective lens 11 in the optical axis direction can be detected by the position sensor 16.

【0020】また、本実施の形態の手術用顕微鏡1のシ
ステムでは図4に示すように手術用顕微鏡1と同時に手
術に使用する処置具33(例えばバイポーラ摂子や、超
音波吸引器、鉗子類など)や、内視鏡34などの処置用
機器が併用される。さらに、本実施の形態の手術用ナビ
ゲーションシステムには患者32の頭部32aを囲む略
C字状のヘッドフレーム35や、患者32の体内の術部
の処置に使用する処置具33や、内視鏡34などの処置
用機器の位置を測定する位置検出センサー(位置測定
部)36が設けられている。
In the system of the operating microscope 1 according to the present embodiment, as shown in FIG. 4, a treatment tool 33 (for example, a bipolar set, an ultrasonic suction device, forceps, etc.) used for the operation at the same time as the operating microscope 1 is used. ) And a treatment device such as an endoscope 34 are also used. Further, the surgical navigation system according to the present embodiment includes a substantially C-shaped head frame 35 surrounding the head 32 a of the patient 32, a treatment tool 33 used for treatment of an operating part in the body of the patient 32, A position detection sensor (position measurement unit) 36 that measures the position of a treatment device such as a mirror 34 is provided.

【0021】ここで、ヘッドフレーム35は、患者32
の頭蓋に固定されている。さらに、このヘッドフレーム
35は、図示しない固定用フレームにより、移動しない
様に手術用ベッド61に固定されている。
Here, the head frame 35 is mounted on the patient 32.
Is fixed to the skull. Further, the head frame 35 is fixed to the operating bed 61 by a fixing frame (not shown) so as not to move.

【0022】また、ヘッドフレーム35には複数のヘッ
ドフレームマーカー37が並設されている。このヘッド
フレームマーカー37は、赤外線を発光するアクティブ
タイプあるいは、単なる突起であるパッシブマーカーを
任意に選択して使用する。
The head frame 35 has a plurality of head frame markers 37 arranged side by side. As the head frame marker 37, an active type that emits infrared rays or a passive marker that is a simple projection is arbitrarily selected and used.

【0023】さらに、位置検出センサー36は位置、各
設定値演算回路38に接続されている。この位置、各設
定値演算回路38にはさらに画像合成回路(画像情報合
成部)39が接続されている。この画像合成回路39に
は例えばワークステーションの記憶部などの記憶装置4
0と、例えばキーボード41や、マウス42や、タッチ
ペン43、図示しないレーザーポインターなどの各種の
入力装置(コントローラ)と、TVモニター44や、ヘ
ッドマウントディスプレー45などの各種の表示装置
(画像情報表示部)がそれぞれ接続されている。
Further, the position detecting sensor 36 is connected to a position and each set value calculating circuit 38. An image synthesizing circuit (image information synthesizing unit) 39 is further connected to this position and each set value calculating circuit 38. The image synthesizing circuit 39 includes a storage device 4 such as a storage unit of a workstation, for example.
0, various input devices (controllers) such as a keyboard 41, a mouse 42, a touch pen 43, and a laser pointer (not shown), and various display devices (image information display units) such as a TV monitor 44 and a head mount display 45. ) Are connected.

【0024】また、ヘッドフレーム35は手術前に予め
患者32の頭部32aに装着される。そして、ヘッドフ
レーム35を装着した状態でMRIや、CTなどにより
生体の断層像が撮影され、この時撮影される生体画像デ
ータ46が記憶装置40に記録される。これにより、生
体画像データ46にヘッドフレーム35の位置データが
合成され、ヘッドフレーム35を基準として以後のナビ
ゲーションを行う事が可能となる。
The head frame 35 is mounted on the head 32a of the patient 32 before the operation. Then, a tomographic image of a living body is captured by MRI, CT, or the like with the head frame 35 mounted, and biological image data 46 captured at this time is recorded in the storage device 40. As a result, the position data of the head frame 35 is combined with the biological image data 46, and subsequent navigation can be performed with the head frame 35 as a reference.

【0025】さらに、位置検出センサー36は、前述の
ヘッドフレーム35のヘッドフレームマーカー37や、
後述する他のマーカーのタイプに合わせた赤外線センサ
ーを有しており、各々複数のマーカーの捉えられ方によ
り、その位置(方向)を検出出来る様になっている。
Further, the position detection sensor 36 includes a head frame marker 37 of the head frame 35 described above,
It has an infrared sensor adapted to the type of another marker described later, and the position (direction) of each marker can be detected depending on how the plurality of markers are captured.

【0026】また、生体内部を観察する内視鏡34には
患者の体内に挿入される細長い挿入部34aの基端部に
手元側の操作部34bが連結されている。この操作部3
4bには複数の内視鏡マーカー47が設けられており、
その効果はヘッドフレームマーカー37と同様である。
そして、予めキャリブレーションを取る事により、内視
鏡マーカー47を位置検出センサー36が捉える事で、
内視鏡34のヘッドフレーム35に対する相対的な位置
や向きを把握するようになっている。
An endoscope 34 for observing the inside of a living body is connected to a proximal operation portion 34b at the base end of an elongated insertion portion 34a inserted into the body of a patient. This operation unit 3
4b is provided with a plurality of endoscope markers 47,
The effect is the same as that of the head frame marker 37.
Then, by performing calibration in advance, the endoscope marker 47 is detected by the position detection sensor 36,
The relative position and orientation of the endoscope 34 with respect to the head frame 35 are grasped.

【0027】更に、複数の内視鏡マーカー47の配置、
あるいはアクティブとパッシブの組合せなどにより、内
視鏡34の種類を特定できる。そのため、事前に入力さ
れている内視鏡34の形状、視野方向、面角などのデー
タが読み出され、TVモニター44や、ヘッドマウント
ディスプレー45などの表示装置に内視鏡34の外形や
視野方向、画角などが表示される。
Further, the arrangement of a plurality of endoscope markers 47,
Alternatively, the type of the endoscope 34 can be specified by a combination of active and passive. For this reason, data such as the shape, the viewing direction, and the surface angle of the endoscope 34 which have been input in advance are read out, and the display device such as the TV monitor 44 and the head mount display 45 displays the outer shape and the viewing angle of the endoscope 34. The direction, angle of view, etc. are displayed.

【0028】また、内視鏡34の挿入部34aの基端部
には機種識別マーカー49が設けられている。そして、
この機種識別マーカー49により、この内視鏡34がど
の機種であるか(例えば、斜視か直視か、画角はいくつ
か、形状寸法はなどの機種毎のデータ)を判別出来る様
になっている。この機種識別マーカー49は例えば色、
あるいは数などによる識別を行い、位置検出センサー3
6により、その位置と種類が判断される。
At the base end of the insertion section 34a of the endoscope 34, a model identification marker 49 is provided. And
The model identification marker 49 makes it possible to determine which model the endoscope 34 is (for example, data for each model such as oblique or direct view, some angles of view, shape dimensions, etc.). . The model identification marker 49 is, for example, a color,
Alternatively, identification by number or the like is performed, and the position detection sensor 3
6, the position and type are determined.

【0029】また、現在の内視鏡には一般にピント調節
機能や、ズーム機能等が設けられている事が多い。そこ
で、本実施の形態の内視鏡34のこれらの機能の設定デ
ータは位置、各設定値演算回路38に送られ、ナビゲー
ション画像構築に使用されるようになっている。
Further, current endoscopes are generally provided with a focus adjustment function, a zoom function, and the like in many cases. Therefore, the setting data of these functions of the endoscope 34 of the present embodiment is sent to the position and setting value calculation circuit 38, and is used for constructing a navigation image.

【0030】さらに、本実施の形態の手術用ナビゲーシ
ョンシステム対応の内視鏡34には例えば本出願人が既
に出願している特開平3−28686号公報に示されて
いるスポット光の利用や、超音波センサーなどによる距
離検出機能(距離測定手段)を有している。そして、図
6に示すように内視鏡34の挿入部34aの先端と対象
物(術部の目標物)48との間の距離S1を測定出来る
様になっている。
Further, the endoscope 34 compatible with the surgical navigation system according to the present embodiment employs, for example, the use of spot light disclosed in Japanese Patent Application Laid-Open No. 3-28686, which has already been applied by the present applicant. It has a distance detecting function (distance measuring means) using an ultrasonic sensor or the like. Then, as shown in FIG. 6, the distance S1 between the distal end of the insertion portion 34a of the endoscope 34 and the target (target of the surgical site) 48 can be measured.

【0031】また、この内視鏡34と同時に併用される
手術用顕微鏡1には、図2に示すように鏡体2の側面の
所定の位置に信号部材として複数、本実施の形態では3
つの顕微鏡マーカー18a、18b、18cが一体的に
固定されている。これらの顕微鏡マーカー18a、18
b、18cとしては赤外線を発光するアクティブタイプ
あるいは、単なる突起であるパッシブマーカーが任意に
選択して使用される。そして、位置検出センサー36に
よってこれらの顕微鏡マーカー18a、18b、18c
を検出することにより、ヘッドフレーム35と鏡体2と
の相対位置、各アームの回転角度などを変数とした位置
検出や、顕微鏡マーカー18a〜18cによるヘッドフ
レーム35との相対位置検出によって、その位置を把握
出来る様になっている。
Further, as shown in FIG. 2, the operating microscope 1 used simultaneously with the endoscope 34 has a plurality of signal members at predetermined positions on the side surface of the mirror body 2.
The two microscope markers 18a, 18b, 18c are integrally fixed. These microscope markers 18a, 18
As b and 18c, an active type that emits infrared rays or a passive marker that is a simple protrusion is arbitrarily selected and used. The position detection sensor 36 detects these microscope markers 18a, 18b, 18c.
Is detected by detecting the relative position between the head frame 35 and the mirror body 2 and the rotation angle of each arm as variables, and the relative position between the head frame 35 by the microscope markers 18a to 18c. Can be grasped.

【0032】なお、バイポーラ摂子や、超音波吸引器、
鉗子類など処置具33にもヘッドフレームマーカー37
や、内視鏡マーカー47と同様の構成の処置具マーカー
50が設けられている。
It should be noted that a bipolar centrifuge, an ultrasonic suction device,
The head frame marker 37 is also used for the treatment tool 33 such as forceps.
Also, a treatment tool marker 50 having the same configuration as the endoscope marker 47 is provided.

【0033】次に、上記構成の作用について説明する。
本実施の形態の手術用ナビゲーションシステムの使用時
には手術前に事前に撮影されている生体画像データ46
が記憶装置40から画像合成回路39に伝送され、基準
となる画像が構築される。この際の画像は後述する様に
3D画像、2D画像(正面・側面・上面)でも良いし、
必要に応じて組み合わせても良い。また、3D画像は頭
蓋(脳)内部の立体構造が判断可能であれば、その表示
形式には特に制限は無く、ワイヤーフレーム像でも良い
し、スケルトンの立体表示でも良い。
Next, the operation of the above configuration will be described.
At the time of using the navigation system for surgery of the present embodiment, the biological image data 46 which is photographed in advance before surgery.
Is transmitted from the storage device 40 to the image synthesizing circuit 39, and an image serving as a reference is constructed. The image at this time may be a 3D image, a 2D image (front / side / top) as described later,
They may be combined as needed. The 3D image is not particularly limited in its display format as long as the three-dimensional structure inside the skull (brain) can be determined, and may be a wire frame image or a skeleton three-dimensional display.

【0034】その後、術者51は手術用顕微鏡1の鏡体
2のグリップ9を握り、スイッチ10を押すことにより
軸O1〜O5に内蔵された電磁ブレーキを解除し、鏡体
2を移動して術部の観察部位に焦点位置を位置決めす
る。
Thereafter, the surgeon 51 holds the grip 9 of the mirror body 2 of the operating microscope 1 and presses the switch 10 to release the electromagnetic brake built in the axes O1 to O5, and moves the mirror body 2 Position the focal point at the observation site of the surgical site.

【0035】また、手術用顕微鏡1による観察時には術
部から発せられた光束は、鏡体2に入射する。このと
き、対物レンズ11から鏡体2に入射した光束は、変倍
光学糸12、結像レンズ13a・13b、接眼レンズ1
4a・14bを透過して観察され、術者51は術部を所
望の倍率で観察する。なお、観察後の焦点位置が合わな
いときは、対物レンズ11を図示しないモータにより駆
動し、合焦を行う。
Further, at the time of observation with the operating microscope 1, the light beam emitted from the operative site enters the mirror 2. At this time, the light beam incident on the mirror body 2 from the objective lens 11 is changed by the variable magnification optical thread 12, the imaging lenses 13a and 13b, and the eyepiece 1
The operator 51 observes the operative site at a desired magnification by being transmitted through 4a and 14b. When the focal position after observation is not correct, the objective lens 11 is driven by a motor (not shown) to perform focusing.

【0036】また、手術用顕微鏡1による観察中、位置
検出センサー36は鏡体2上の顕微鏡マーカー18a、
18b、18cを検出し、その検出信号は位置、各設定
値演算回路38に伝送され、信号処理されて、鏡体2の
生体座標系における位置および姿勢が検出される。
During observation with the operating microscope 1, the position detecting sensor 36 detects the microscope markers 18 a on the mirror body 2,
18b and 18c are detected, the detection signals are transmitted to the position and each set value calculation circuit 38, and the signals are processed to detect the position and the posture of the mirror body 2 in the living body coordinate system.

【0037】また、位置センサ16により対物レンズ1
1の位置情報が位置、各設定値演算回路38に伝送され
る。このとき、位置、各設定値演算回路38では対物レ
ンズ11の位置情報から鏡体2に対する焦点位置の相対
位置が算出される。さらに、鏡体2の生体座標系におけ
る位置および姿勢と、鏡体2に対する焦点位置の相対位
置とから、生体座標系における焦点位置の位置が演算さ
れる。さらに、位置、各設定値演算回路38からの出力
信号は画像合成回路39に入力され、TVモニター44
や、ヘッドマウントディスプレー45などの表示装置に
画像上の生体座標系に3次元画像データと焦点位置が重
畳されて表示される。
Further, the objective lens 1 is detected by the position sensor 16.
1 is transmitted to the position and each set value calculation circuit 38. At this time, the position and each set value calculation circuit 38 calculates the relative position of the focal position with respect to the mirror body 2 from the position information of the objective lens 11. Further, the position of the focal position in the living body coordinate system is calculated from the position and orientation of the mirror body 2 in the living body coordinate system and the relative position of the focal position with respect to the mirror body 2. Further, an output signal from the position / set value calculation circuit 38 is input to an image synthesis circuit 39, and the TV monitor 44
Alternatively, on a display device such as the head mount display 45, the three-dimensional image data and the focal position are superimposed and displayed on the biological coordinate system on the image.

【0038】以上の動作により、術者43はTVモニタ
ー44や、ヘッドマウントディスプレー45などの表示
装置の画面を目視することにより、この画面に表示され
た3次元画像データによる術部の画像に焦点位置が重畳
された画像を観察することができる。そして、このTV
モニター44や、ヘッドマウントディスプレー45など
の表示装置の表示画像を観察することにより、3次元画
像データによる画像上において、顕微鏡1の観察位置を
知ることができる。
By the above operation, the surgeon 43 looks at the screen of the display device such as the TV monitor 44 and the head mount display 45, and focuses on the image of the surgical site based on the three-dimensional image data displayed on this screen. An image on which the position is superimposed can be observed. And this TV
By observing the display images of the display device such as the monitor 44 and the head mount display 45, the observation position of the microscope 1 can be known on the image based on the three-dimensional image data.

【0039】また、手術時には患者の頭部32aの術部
に処置具33や、内視鏡34などの処置用機器が挿入さ
れる。ここで、術部に例えば、処置具33が挿入された
場合には、ヘッドフレーム35の位置を位置検出センサ
ー36が検出し、基準の3次元座標を設定する。続い
て、その基準の3次元座標に対して処置具33の位置を
検出すると共に、前述の様に各処置具33の種類を認識
し、位置、各設定値演算回路38に処置具33の種類の
データを伝送する。そして、事前に記憶装置40に記録
されている処置具33の形状データを読み出し、画像合
成回路39に伝送する。
At the time of surgery, a treatment instrument 33 and a treatment device such as an endoscope 34 are inserted into the operative portion of the patient's head 32a. Here, for example, when the treatment tool 33 is inserted into the operative site, the position of the head frame 35 is detected by the position detection sensor 36, and reference three-dimensional coordinates are set. Subsequently, the position of the treatment tool 33 is detected with respect to the reference three-dimensional coordinates, and the type of each treatment tool 33 is recognized as described above. Transmit data. Then, the shape data of the treatment tool 33 stored in the storage device 40 in advance is read and transmitted to the image synthesis circuit 39.

【0040】なお、処置用機器として内視鏡34が使用
される場合についても処置具33の場合と同様にそのデ
ータが画像合成回路39に伝送されると共に、内視鏡像
についても伝送される。
When the endoscope 34 is used as a treatment device, the data is transmitted to the image synthesizing circuit 39 as in the case of the treatment tool 33, and the endoscope image is also transmitted.

【0041】また、手術用顕微鏡1の鏡体2のデータに
ついても前述の様に画像合成回路39まで伝送される。
そして、この画像合成回路39には顕微鏡像も伝送さ
れ、前述の内視鏡像、前述の生体画像データ46による
画像との合成により、死角の無い脳の画像が構築され
る。
The data of the mirror 2 of the surgical microscope 1 is also transmitted to the image synthesizing circuit 39 as described above.
Then, a microscope image is also transmitted to the image synthesizing circuit 39, and a brain image having no blind spots is constructed by synthesizing with the above-mentioned endoscope image and the image with the above-mentioned biological image data 46.

【0042】さらに、その脳の画像上に、前述の各処置
具33、内視鏡34の形状データ、位置データが合成さ
れる。ここで、合成された画像はTVモニター44や、
ヘッドマウントディスプレー45などの表示装置に表示
されると共に、必要に応じて後述する顕微鏡像の中にピ
クチャーインピクチャーされる。
Further, on the image of the brain, the shape data and the position data of each of the treatment tools 33 and the endoscope 34 described above are synthesized. Here, the synthesized image is a TV monitor 44,
The image is displayed on a display device such as the head mount display 45, and is picture-in-picture as needed in a microscope image described later.

【0043】そして、これらの制御はキーボード41、
あるいはマウス42、タッチペン43、図示しないレー
ザーポインターなどのコントローラーによって、指示さ
れる。
These controls are performed by the keyboard 41,
Alternatively, the instruction is given by a controller such as a mouse 42, a touch pen 43, and a laser pointer (not shown).

【0044】また、図7はTVモニター44の表示画面
の表示例を示すものである。ここで、TVモニター44
の表示画面の左半分には、3D表示部52が配置され、
患者の頭部32aの術部が3D表示される。さらに、T
Vモニター44の表示画面の右上部分には上面像表示部
53、側面像表示部54、正面像表示部55、また、表
示画面の右下部分には顕微鏡像表示部56がそれぞれ配
置されている。そして、上面像表示部53には患者の頭
部32aの術部の上面像の2D画像、側面像表示部54
には患者の頭部32aの術部の側面像の2D画像、正面
像表示部55には患者の頭部32aの術部の正面像の2
D画像、顕微鏡像表示部56には患者の頭部32aの術
部の顕微鏡像の2D画像がそれぞれ表示されている。
FIG. 7 shows a display example of the display screen of the TV monitor 44. Here, the TV monitor 44
A 3D display unit 52 is arranged on the left half of the display screen of
The operative part of the patient's head 32a is displayed in 3D. Furthermore, T
A top image display unit 53, a side image display unit 54, and a front image display unit 55 are arranged at the upper right part of the display screen of the V monitor 44, and a microscope image display unit 56 is arranged at the lower right part of the display screen. . The 2D image of the upper surface image of the operative part of the patient's head 32a and the side image display unit 54 are displayed on the upper surface image display unit 53.
Is a 2D image of a side view of the operative portion of the patient's head 32a, and the front image display portion 55 is a 2D image of a front view of the operative portion of the patient's head 32a.
A 2D image of a microscope image of the surgical site of the patient's head 32a is displayed on the D image / microscope image display unit 56, respectively.

【0045】また、3D表示部52はワイヤーフレーム
による表示を使用し、その内部の開頭の様子や、対象物
(腫瘍など)を合成して立体的に表示している。更に、
使用している内視鏡34などを立体的に外形表示し、そ
の挿入状況や、対象物48との位置関係、周囲の生体組
織との接触状況などが判断出来る様になっている。な
お、上面像表示部53、側面像表示部54、正面像表示
部55についても同様に合成された2Dの画像を示し、
より確実に確認出来る様になっている。
The 3D display unit 52 uses a display by a wire frame, and displays a three-dimensional display by synthesizing a state of craniotomy inside the 3D display unit 52 and an object (such as a tumor). Furthermore,
The used endoscope 34 and the like are displayed in a three-dimensional outline, and the insertion state, the positional relationship with the object 48, the contact state with the surrounding biological tissue, and the like can be determined. The top image display unit 53, the side image display unit 54, and the front image display unit 55 also show 2D images synthesized in the same manner.
You can check it more reliably.

【0046】また、顕微鏡像表示部56には手術用顕微
鏡1の鏡体2からは本来死角になって見る事が出来ない
対象物48の様子を、前述の内視鏡34及び手術用顕微
鏡1の位置、焦点位置、対象物との距離S1、ズーム設
定、内視鏡画像などのデータから解析して合成表示され
ている。さらに、顕微鏡像表示部56の上部には内視鏡
像表示部57が配置されている。そして、この内視鏡像
表示部57には内視鏡34からの内視鏡像が表示されて
いる。
In the microscope image display section 56, the state of the object 48, which is originally blind and cannot be seen from the mirror body 2 of the surgical microscope 1, is displayed on the endoscope 34 and the surgical microscope 1 described above. Of the object, the focal position, the distance S1 to the object, the zoom setting, the endoscope image, and the like are analyzed and combined and displayed. Further, an endoscope image display unit 57 is disposed above the microscope image display unit 56. The endoscope image display section 57 displays an endoscope image from the endoscope 34.

【0047】そこで、上記構成のものにあっては次の効
果を奏する。すなわち、本実施の形態ではTVモニター
44の表示画面には内視鏡34を使用した場合に、内視
鏡像で得られている画像の生体組織上での位置を表示す
ることができる。
Therefore, the above configuration has the following effects. That is, in the present embodiment, when the endoscope 34 is used on the display screen of the TV monitor 44, the position of the image obtained as the endoscope image on the living tissue can be displayed.

【0048】さらに、使用する処置具33や、内視鏡3
4などの処置用機器の形状を記憶して、実際の処置用機
器の形状をTVモニター44の表示画面の生体組織画像
上に合成して表示するようにしたので、従来のように処
置具33や、内視鏡34などの処置用機器の一部が例え
ば顕微鏡像から外れ、その部分が不用意に生体組織に接
触することを防止することができる。
Further, the treatment instrument 33 to be used and the endoscope 3
4 is stored, and the actual shape of the treatment device is synthesized and displayed on the biological tissue image on the display screen of the TV monitor 44. Also, it is possible to prevent a part of the treatment device such as the endoscope 34 from deviating from, for example, a microscope image and inadvertently contacting the living tissue.

【0049】また、内視鏡34の操作部34bには複数
の内視鏡マーカー47、処置具33には処置具マーカー
50をそれぞれ設け、各マーカー47、50の配置、あ
るいはアクティブとパッシブの組合せなどにより、内視
鏡34や、処置具33の種類を特定できるようにしたの
で、使用する処置具33や、内視鏡34などの処置用機
器を交換しても、新たにキャリブレーションを取り直す
必要を無くすことができる。
A plurality of endoscope markers 47 are provided on the operation section 34b of the endoscope 34, and a treatment tool marker 50 is provided on the treatment tool 33, and the arrangement of the markers 47 and 50 or a combination of active and passive is provided. Thus, the type of the endoscope 34 and the treatment tool 33 can be specified, so that even if the treatment tool 33 to be used or the treatment equipment such as the endoscope 34 is replaced, calibration is newly performed. The need can be eliminated.

【0050】また、図8は本発明の第2の実施の形態を
示すものである。本実施の形態は第1の実施の形態(図
1乃至図7参照)の手術用顕微鏡1の鏡体2の接眼部に
表示される表示画面の構成を次の通り変更したものであ
る。
FIG. 8 shows a second embodiment of the present invention. In the present embodiment, the configuration of the display screen displayed on the eyepiece of the mirror body 2 of the surgical microscope 1 of the first embodiment (see FIGS. 1 to 7) is changed as follows.

【0051】すなわち、本実施の形態の手術用顕微鏡1
の鏡体2の接眼部の顕微鏡像表示画面71には実際に手
術用顕微鏡1の鏡体2によって得られる顕微鏡像を表示
する顕微鏡像の画像表示部72と、第1の実施の形態と
同様に対象物48を仮想表示する対象物仮想表示部73
とが設けられている。
That is, the operating microscope 1 of the present embodiment.
A microscope image display screen 72 for displaying a microscope image actually obtained by the mirror body 2 of the surgical microscope 1 on the microscope image display screen 71 of the eyepiece of the mirror body 2 of the first embodiment, Similarly, an object virtual display unit 73 that virtually displays the object 48
Are provided.

【0052】さらに、顕微鏡像表示画面71の対象物仮
想表示部73にはピクチャーインピクチャーにより、任
意の画像を合わせて表示可能であり、例えば3D表示に
より位置を確認したり、内視鏡像を表示したりする事が
出来る。
Further, an arbitrary image can be displayed together with a picture-in-picture on the object virtual display section 73 of the microscope image display screen 71. For example, the position can be confirmed by 3D display or an endoscopic image is displayed. You can do it.

【0053】そこで、本実施の形態では手術中、手術用
顕微鏡1の鏡体2の接眼部の顕微鏡像表示画面71を目
視している作業者が接眼部から眼を離さずに必要な画像
を確認する事が出来る効果がある。
Therefore, in the present embodiment, during the operation, the operator who is watching the microscope image display screen 71 of the eyepiece of the mirror body 2 of the surgical microscope 1 is required to keep his / her eye from the eyepiece. There is an effect that the image can be confirmed.

【0054】また、図9は本発明の第3の実施の形態を
示すものである。本実施の形態は第1の実施の形態(図
1乃至図7参照)の手術用顕微鏡1と併用される内視鏡
34として挿入部34aの有効長が違う複数、本実施の
形態では2種類の内視鏡34A、34Bを設けたもので
ある。
FIG. 9 shows a third embodiment of the present invention. In this embodiment, as the endoscope 34 used together with the surgical microscope 1 of the first embodiment (see FIGS. 1 to 7), a plurality of insertion portions 34a having different effective lengths are used. Are provided with endoscopes 34A and 34B.

【0055】すなわち、本実施の形態では一方の内視鏡
34Aの挿入部34a1の長さに比べて他方の内視鏡3
4Bの挿入部34a2の長さの方が大きくなるように設
定されてれいる。そして、内視鏡34Aの挿入部34a
1には先端から一定の設定位置L1に内視鏡マーカー4
7aが配置されている。さらに、内視鏡34Bの挿入部
34a2にも同様に先端から一定の設定位置L2に内視
鏡マーカー47bが配置されている。ここで、内視鏡3
4A側の挿入部34a1の内視鏡マーカー47aの設置
位置L1と内視鏡34B側の挿入部34a2の内視鏡マ
ーカー47bの設置位置L2とは同一の位置に設定され
ている。
That is, in this embodiment, the length of the insertion portion 34a1 of one endoscope 34A is smaller than the length of the insertion portion 34a1 of the other endoscope 34A.
The length of the 4B insertion portion 34a2 is set to be larger. Then, the insertion portion 34a of the endoscope 34A
1 is an endoscope marker 4 at a fixed set position L1 from the tip.
7a is arranged. Further, similarly, an endoscope marker 47b is disposed at a fixed set position L2 from the distal end of the insertion portion 34a2 of the endoscope 34B. Here, the endoscope 3
The installation position L1 of the endoscope marker 47a of the insertion section 34a1 on the 4A side and the installation position L2 of the endoscope marker 47b of the insertion section 34a2 on the endoscope 34B side are set to the same position.

【0056】そこで、上記構成のものにあっては次の効
果を奏する。すなわち、本実施の形態では2種類の内視
鏡34A、34Bの各内視鏡マーカー47a、47bの
設置位置L1、L2を同一の位置に設定したので、2種
類の内視鏡34A、34Bを術中に交換しても改めてキ
ャリブレーションを取り直す事無く、すぐに使用する事
が可能である。
Therefore, the above configuration has the following effects. That is, in the present embodiment, the installation positions L1 and L2 of the endoscope markers 47a and 47b of the two types of endoscopes 34A and 34B are set to the same position, so that the two types of endoscopes 34A and 34B are used. Even if it is replaced during surgery, it can be used immediately without re-calibration.

【0057】さらに、本発明は上記実施の形態に限定さ
れるものではなく、本発明の要旨を逸脱しない範囲で種
々変形実施できることは勿論である。次に、本出願の他
の特徴的な技術事項を下記の通り付記する。 記 (付記項1) 使用する機器の位置を測定する手段と、
先端から目標物までの距離を測定する距離検出手段を有
する内視鏡と、画像情報表示手段を有し、前記位置情報
と、前記距離情報と、予め記録されている生体画像情報
を合成し、画面上に表示する機能を有する位置表示装
置。
Further, the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the spirit of the present invention. Next, other characteristic technical matters of the present application will be additionally described as follows. (Appendix 1) means for measuring the position of the equipment to be used;
An endoscope having a distance detecting means for measuring the distance from the tip to the target, and having an image information display means, and synthesizing the position information, the distance information, and pre-recorded biological image information, A position display device having a function of displaying on a screen.

【0058】(付記項2) 使用する機器の位置を測定
する手段と、前記機器の形状を予め記憶しておく手段
と、画像情報を表示する手段を有し、前記機器の位置及
び形状の情報と、予め記録されている生体画像情報を合
成し、画面上に前記機器の形状と位置が判別可能に表示
する位置表示装置。
(Additional Item 2) The apparatus has means for measuring the position of the device to be used, means for storing the shape of the device in advance, and means for displaying image information, and information on the position and shape of the device. And a position display device that combines biological image information recorded in advance and displays the shape and position of the device on a screen in a distinguishable manner.

【0059】(付記項3) 使用する機器の位置を測定
する手段と、前記位置情報と予め記録されている生体画
像情報を合成し、前記機器の位置を表示する位置表示装
置において、前記使用する機器が複数ある場合、それら
の先端から規定の位置に、前記測定手段が識別する為の
マーカーを有する事により、前記使用する機器を交換し
ても、常に前記マーカーから先端までの位置が一定であ
るもの。
(Additional Item 3) In the position measuring device for measuring the position of the device to be used and the position display device for displaying the position of the device by synthesizing the position information and the biological image information recorded in advance. When there are a plurality of devices, by providing a marker for identifying the measuring means at a prescribed position from the tip thereof, even if the device to be used is replaced, the position from the marker to the tip is always constant. some stuff.

【0060】(付記項4) 付記項1において、前記表
示内容が、2次元もしくは3次元の生体画像情報と、前
記内視鏡の位置情報と、前記内視鏡の視野中心に位置す
る生体組織の位置を合成し、前記内視鏡画像の生体組織
における位置を表示可能なもの。
(Additional Item 4) In the additional item 1, the display contents may be two-dimensional or three-dimensional biological image information, position information of the endoscope, and a biological tissue located at the center of the visual field of the endoscope. Which can display the position of the endoscope image in the biological tissue.

【0061】(付記項5) 付記項2において、前記表
示内容が、2次元もしくは3次元の生体画像情報と、前
記使用機器の2次元もしくは3次元の形状情報を合成
し、生体組織に対する前記使用機器位置を表示可能なも
の。
(Supplementary note 5) In Supplementary note 2, wherein the display content is a combination of two-dimensional or three-dimensional biological image information and two-dimensional or three-dimensional shape information of the device to be used, and A device that can display device position.

【0062】(付記項6) 付記項3において、前記マ
ーカーの取付位置もしくは種類により、前記使用する機
器の種類が判別可能であるもの。
(Additional Item 6) In the additional item 3, the type of the device to be used can be determined by the mounting position or type of the marker.

【0063】(付記項7) 付記項1〜3,付記項4〜
6において、前記画像情報が、手術用顕微鏡の顕微鏡像
内に任意に挿入もしくは、合成して表示可能なもの。
(Additional Item 7) Additional Items 1 to 3 and Additional Items 4 to
6. The apparatus according to 6, wherein the image information can be arbitrarily inserted or combined into a microscope image of a surgical microscope and displayed.

【0064】(付記項1〜3の従来技術) 従来、特開
平5−305073などの様に、事前に撮影されたCT
やMRIなどによる断層像をコンピューターで合成して
断層もしくは立体表示すると共に、手術に使用する処置
具や内視鏡などの機器の形状を予めキャリブレーション
しておき、それらの機器に位置検出のマーカーを取り付
け、外部から赤外線などによる位置検出を行う事によ
り、前述の生体画像情報上に使用している機器の位置を
表示したり、特に脳外科などでは顕微鏡像に脳腫瘍の位
置を合成して表示したり、手術を進める方向をナビゲー
トする機器があった。
(Conventional Techniques of Supplementary Items 1 to 3) Conventionally, as described in Japanese Patent Application Laid-Open No.
Composes tomographic images from images and MRI with a computer and displays them in tomographic or three-dimensional form, and also pre-calibrates the shapes of treatment tools and endoscopes and other equipment used for surgery, and provides position detection markers on those equipment. The position of the equipment used is displayed on the above-mentioned biological image information by detecting the position from outside using infrared light, etc., and the position of the brain tumor is combined with the microscope image and displayed, especially in brain surgery etc. And there were devices to navigate the direction of the surgery.

【0065】又、特公平6−43893や特公平3−2
8686などの様に、被写体の位置や形状を認識する事
が行われていた。あるいは、特開平7−261094な
どの様に、顕微鏡像に内視鏡像をピクチャーインピクチ
ャーが可能な手術用顕微鏡もあった。
Further, Japanese Patent Publication No. 6-43893 and Japanese Patent Publication No. 3-2
It has been practiced to recognize the position and shape of a subject, such as 8686. Alternatively, there has been an operation microscope capable of picture-in-picture conversion of an endoscope image into a microscope image as disclosed in Japanese Patent Application Laid-Open No. Hei 7-261094.

【0066】その他、TVモニターやヘッドマウントデ
ィスプレーなどでは、容易に画像ミキサーを利用する事
で、複数の画像を希望の形で合成して表示する事が可能
であった。
In addition, in a TV monitor, a head mounted display, or the like, a plurality of images can be synthesized and displayed in a desired form by easily using an image mixer.

【0067】(付記項1〜3が解決しようとする課題)
本発明が解決しようとする課題は従来技術の問題点で
ある。 ・内視鏡像で見ている生体組織が、生体のどの部分に位
置するのかを表示する事が出来ない。 ・一般的に使用する処置具や内視鏡などの機器は、画面
上で棒状の単純化された表示しか出来ず、その形状を表
示出来ない為、特に顕微鏡像から外れた部分などが不用
意に生体組織を損傷する事を防止出来ない。 ・使用する機器を交換する度にキャリブレーションを取
り直さなくてはならない。 という点について解決しようとするものである。
(Problems to be Solved by Additional Items 1 to 3)
The problem to be solved by the present invention is a problem of the prior art. -It is not possible to display in which part of the living body the living tissue viewed in the endoscope image is located.・ Generally used instruments such as treatment tools and endoscopes can only display a bar-shaped simplified display on the screen, and cannot display the shape, so parts that deviate from the microscope image in particular are not prepared Damage to living tissue cannot be prevented.・ You must recalibrate each time you change the equipment you use. It is to try to solve this point.

【0068】(付記項1〜3の効果) 本発明の効果
は、 ・内視鏡を使用した場合に、内視鏡像で得られている画
像の生体組織上での位置を表示出来る様にする。 ・使用する処置具や内視鏡などの機器の形状を記憶し
て、実際の形状を生体組織画像上に合成して表示する事
により、例えば顕微鏡像から外れている部分が不用意に
生体組織を損傷する事などを防止する。 ・使用する処置具や内視鏡などの機器を交換しても、新
たにキャリブレーションを取り直す必要を無くす。とい
うものである。
(Effects of Additional Items 1 to 3) The effects of the present invention are as follows: When an endoscope is used, the position of an image obtained as an endoscope image on biological tissue can be displayed. . -By storing the shape of the treatment tool or endoscope, etc., used, and combining and displaying the actual shape on the biological tissue image, for example, parts of the biological tissue inadvertently deviating from the microscope image To prevent damage.・ Eliminates the need to re-calibrate even if the instrument used, such as the treatment tool or endoscope, is replaced. That is.

【0069】[0069]

【発明の効果】本発明によれば処置用機器の位置を位置
測定部によって測定し、さらに患者の体内に挿入される
内視鏡の挿入部の先端から術部の目標物までの距離を距
離測定手段によって測定し、予め測定された生体画像情
報を記憶部によって保持するとともに、位置測定部から
の位置情報と、距離測定手段からの距離情報と、記憶部
に予め記録されている生体画像情報とを画像情報合成部
によって合成し、画像情報表示部の画面上に表示するよ
うにしたので、内視鏡を使用した場合に、内視鏡像で得
られている画像の生体組織上での位置を表示することが
でき、さらに、使用する処置具や内視鏡などの処置用機
器の形状を生体組織の画像上に合成して表示することが
でき、例えば顕微鏡像から外れている部分が不用意に生
体組織を損傷することを防止することができるととも
に、使用する処置具や、内視鏡などの処置用機器を交換
しても、新たにキャリブレーションを取り直す必要が無
く、手術を能率良く進めることができる。
According to the present invention, the position of the treatment instrument is measured by the position measuring section, and the distance from the tip of the insertion section of the endoscope inserted into the patient's body to the target of the operation section is measured by the distance. The storage unit stores the biological image information measured by the measurement unit and measured in advance, and the position information from the position measurement unit, the distance information from the distance measurement unit, and the biological image information recorded in the storage unit in advance. Are synthesized by the image information synthesizing unit and displayed on the screen of the image information display unit. Therefore, when an endoscope is used, the position of the image obtained in the endoscope image on the biological tissue is Can be displayed.Furthermore, the shape of a treatment instrument such as a treatment tool or an endoscope to be used can be synthesized and displayed on an image of a living tissue. Damage living tissue easily It is possible to prevent the door, and a treatment instrument to be used, by replacing the treatment equipment such as an endoscope, there is no need to take heart calibration operation can proceed it is efficiently a.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の第1の実施の形態の手術用ナビゲー
ションシステムを使用する手術用顕微鏡のシステム全体
の概略構成図。
FIG. 1 is a schematic configuration diagram of an entire surgical microscope system using a surgical navigation system according to a first embodiment of the present invention.

【図2】 第1の実施の形態の手術用顕微鏡の鏡体を示
す正面図。
FIG. 2 is a front view showing a mirror of the surgical microscope according to the first embodiment;

【図3】 第1の実施の形態の手術用顕微鏡の鏡体内部
の概略構成図。
FIG. 3 is a schematic configuration diagram of the inside of a mirror body of the operating microscope according to the first embodiment;

【図4】 第1の実施の形態の手術用ナビゲーションシ
ステム全体の概略構成図。
FIG. 4 is a schematic configuration diagram of the entire surgical navigation system according to the first embodiment;

【図5】 第1の実施の形態の手術用ナビゲーションシ
ステムの要部構成を示す斜視図。
FIG. 5 is a perspective view showing a configuration of a main part of the navigation system for surgery according to the first embodiment;

【図6】 第1の実施の形態の手術用ナビゲーションシ
ステム対応の内視鏡の使用状態を示す要部の縦断面図。
FIG. 6 is a longitudinal sectional view of a main part showing a use state of the endoscope corresponding to the surgical navigation system according to the first embodiment;

【図7】 第1の実施の形態の手術用ナビゲーションシ
ステムにおける表示装置の表示例を説明するための説明
図。
FIG. 7 is an explanatory diagram illustrating a display example of a display device in the navigation system for surgery according to the first embodiment;

【図8】 本発明の第2の実施の形態における手術用顕
微鏡の接眼部の顕微鏡像を示す平面図。
FIG. 8 is a plan view showing a microscope image of an eyepiece of a surgical microscope according to a second embodiment of the present invention.

【図9】 本発明の第3の実施の形態の手術用ナビゲー
ションシステムで使用される有効長の違う複数の内視鏡
を示す側面図。
FIG. 9 is a side view showing a plurality of endoscopes having different effective lengths used in the surgical navigation system according to the third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 手術用顕微鏡 33 処置具(処置用機器) 34 内視鏡(処置用機器) 36 位置検出センサー(位置測定部) 39 画像合成回路(画像情報合成部) 40 記憶装置(記憶部) 44 TVモニター(画像情報表示部) 45 ヘッドマウントディスプレー(画像情報表示
部)
1 Operating Microscope 33 Treatment Tool (Treatment Equipment) 34 Endoscope (Treatment Equipment) 36 Position Detection Sensor (Position Measurement Unit) 39 Image Synthesis Circuit (Image Information Synthesis Unit) 40 Storage Device (Storage Unit) 44 TV Monitor (Image information display section) 45 Head mount display (Image information display section)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 工藤 正宏 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 唐沢 均 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 植田 昌章 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 塩田 敬司 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 下村 浩二 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 中村 剛明 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 Fターム(参考) 2F065 AA04 AA06 AA20 AA21 AA37 BB05 BB27 BB29 CC00 CC16 EE00 FF04 HH04 LL04 LL05 PP01 PP05 PP11 PP21 PP22 PP24 QQ00 QQ24 SS02 SS03 SS13 TT02 4C061 HH52 HH56 JJ11 NN05 WW04 WW13 5C054 AA01 AA05 CA04 CC07 EA01 EA05 EA07 EH01 FA00 FC12 FE12 GB02 HA12  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Masahiro Kudo 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Co., Ltd. (72) Inventor Hitoshi Karasawa 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Co., Ltd. (72) Inventor Masaaki Ueda 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Industries Co., Ltd. (72) Keiji Shioda 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olympus Optical Co., Ltd. (72) Koji Shimomura, Inventor 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olympus Optical Co., Ltd. (72) Takeaki Nakamura, 2-43-2 Hatagaya, Shibuya-ku, Tokyo No. Olympus Optical Co., Ltd. F term (reference) 2F065 AA04 AA06 AA20 AA21 AA37 BB05 BB27 BB29 CC00 CC16 EE00 FF04 HH 04 LL04 LL05 PP01 PP05 PP11 PP21 PP22 PP24 QQ00 QQ24 SS02 SS03 SS13 TT02 4C061 HH52 HH56 JJ11 NN05 WW04 WW13 5C054 AA01 AA05 CA04 CC07 EA01 EA05 EA07 EH01 FA00 FC12 FE12 GB02 HA12

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 患者の体内の術部の処置に使用する処置
用機器の位置を測定する位置測定部と、 患者の体内に挿入される挿入部の先端から前記術部の目
標物までの距離を測定する距離測定手段を有する内視鏡
と、 前記患者の体内の術部の画像情報を表示する画像情報表
示部と、 予め測定された生体画像情報を保持する記憶部と、 前記位置測定部からの位置情報と、前記距離測定手段か
らの距離情報と、前記記憶部に予め記録されている生体
画像情報とを合成し、前記画像情報表示部の画面上に表
示する画像情報合成部とを具備したことを特徴とする手
術用ナビゲーションシステム。
1. A position measuring unit for measuring a position of a treatment device used for treatment of an operation site in a patient's body, and a distance from a distal end of an insertion unit inserted into the patient's body to a target of the operation unit. An endoscope having a distance measuring means for measuring the position of the patient, an image information display unit for displaying image information of an operating part in the body of the patient, a storage unit for holding biological image information measured in advance, and the position measuring unit The position information from the, distance information from the distance measurement means, and the biological image information recorded in advance in the storage unit, the image information synthesis unit to display on the screen of the image information display unit A navigation system for surgery, comprising:
【請求項2】 前記画像情報合成部は、前記処置用機器
の形状を予め記憶しておく手段を有し、前記処置用機器
の位置及び形状の情報と、予め記録されている生体画像
情報とを合成して前記画像情報表示部の画面上に前記機
器の形状と位置とを判別可能に表示するものであること
を特徴とする請求項1に記載の手術用ナビゲーションシ
ステム。
2. The image information synthesizing section has means for storing the shape of the treatment device in advance, and information on the position and shape of the treatment device, and biological image information recorded in advance. 2. The surgical navigation system according to claim 1, wherein the information is combined and displayed on the screen of the image information display unit so that the shape and position of the device can be distinguished.
【請求項3】 患者の体内の術部の処置に使用する処置
用機器の位置を測定する位置測定部と、 患者の体内に挿入される挿入部の先端から前記術部の目
標物までの距離を測定する距離測定部を有する内視鏡
と、 前記患者の体内の術部の画像情報を表示する画像情報表
示部と、 予め測定された生体画像情報を保持する記憶部と、 前記位置測定部からの位置情報と、前記距離測定部から
の距離情報と、前記記憶部に予め記録されている生体画
像情報とを合成し、前記画像情報表示部の画面上に表示
する画像情報合成部とを具備し、 患者の体内の術部の処置に複数の処置用機器を適宜、選
択的に交換して使用するとともに、 前記各処置用機器の先端から所定の設定位置に、前記位
置測定部が識別する為のマーカーを設けたことを特徴と
する手術用ナビゲーションシステム。
3. A position measuring unit for measuring a position of a treatment instrument used for treatment of an operation part in a patient, and a distance from a tip of the insertion part inserted into the patient to a target of the operation part. An endoscope having a distance measuring unit for measuring the distance, an image information display unit for displaying image information of an operation unit in the body of the patient, a storage unit for holding biological image information measured in advance, and the position measuring unit The position information from the distance information from the distance measurement unit, the image information synthesis unit that combines the biological image information recorded in advance in the storage unit, and displays on the screen of the image information display unit A plurality of treatment devices are appropriately and selectively exchanged and used for treatment of an operation part in a patient's body, and the position measurement unit is identified at a predetermined set position from a tip of each treatment device. For surgery characterized by the provision of markers for performing Navigation system.
JP2000017135A 2000-01-26 2000-01-26 Surgical navigation system Expired - Fee Related JP4472085B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000017135A JP4472085B2 (en) 2000-01-26 2000-01-26 Surgical navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000017135A JP4472085B2 (en) 2000-01-26 2000-01-26 Surgical navigation system

Publications (2)

Publication Number Publication Date
JP2001204738A true JP2001204738A (en) 2001-07-31
JP4472085B2 JP4472085B2 (en) 2010-06-02

Family

ID=18544167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000017135A Expired - Fee Related JP4472085B2 (en) 2000-01-26 2000-01-26 Surgical navigation system

Country Status (1)

Country Link
JP (1) JP4472085B2 (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003116874A (en) * 2001-10-10 2003-04-22 Olympus Optical Co Ltd Surgical microscope system
JP2003126115A (en) * 2001-10-23 2003-05-07 Olympus Optical Co Ltd Endoscopic operation system
JP2003199707A (en) * 2001-12-28 2003-07-15 Olympus Optical Co Ltd Endoscope apparatus
JP2004500187A (en) * 2000-01-27 2004-01-08 ストライカー インストルメンツ Surgery system
JP2005111081A (en) * 2003-10-09 2005-04-28 Olympus Corp Endoscopic image display processor
JP2005518854A (en) * 2002-02-28 2005-06-30 ヒユーストン・ステレオタクテイク・コンセプツ・インコーポレーテツド Audible feedback from positional guidance system
JP2006026229A (en) * 2004-07-20 2006-02-02 Olympus Corp Surgery system
JP2006187385A (en) * 2005-01-04 2006-07-20 Olympus Corp Endoscope device and contact position acquisition method therefor
WO2008093517A1 (en) 2007-01-31 2008-08-07 National University Corporation Hamamatsu University School Of Medicine Device for displaying assistance information for surgical operation, method for displaying assistance information for surgical operation, and program for displaying assistance information for surgical operation
JP2008264520A (en) * 2007-03-20 2008-11-06 National Univ Corp Shizuoka Univ Surgery support information display device, surgery support information display method, and surgery support information display program
WO2009116535A1 (en) 2008-03-18 2009-09-24 国立大学法人浜松医科大学 Surgery assistance system
JP2010119782A (en) * 2008-11-21 2010-06-03 Olympus Medical Systems Corp Medical observation apparatus and medical observation system
JP2010530268A (en) * 2007-06-19 2010-09-09 メドテック エス.アー. Multifunctional robotized platform for neurosurgery and position adjustment method
EP2423877A1 (en) 2010-08-31 2012-02-29 Fujifilm Corporation Endoscopic image processing device, method and program
JP2013252387A (en) * 2012-06-08 2013-12-19 Canon Inc Medical image processing apparatus
US8666476B2 (en) 2009-03-01 2014-03-04 National University Corporation Hamamatsu University School Of Medicine Surgery assistance system
JP2014117446A (en) * 2012-12-17 2014-06-30 Olympus Corp Insertion device
JP2015066021A (en) * 2013-09-27 2015-04-13 エフ・エーシステムエンジニアリング株式会社 Three-dimensional navigation image generation device
WO2015125593A1 (en) * 2014-02-21 2015-08-27 オリンパス株式会社 Endoscope system
US9131230B2 (en) 2010-10-28 2015-09-08 Sharp Kabushiki Kaisha Three-dimensional image output device, three-dimensional image output method, three-dimensional image display device, and computer readable recording medium
JP2015188566A (en) * 2014-03-28 2015-11-02 セイコーエプソン株式会社 Information processing device, information processing method, and information processing system
JP2015227848A (en) * 2014-06-02 2015-12-17 中国電力株式会社 Work support system using virtual image
US9283047B2 (en) 2011-03-31 2016-03-15 Olympus Corporation Control device and control method for surgical system
JP2016517287A (en) * 2013-03-15 2016-06-16 シナプティヴ メディカル (バルバドス) インコーポレイテッドSynaptive Medical (Barbados) Inc. CROSS-REFERENCE TO SYSTEMS AND METHODS FOR INDUCTION AND SIMULATION OF LOW-INVASIVE TREATMENTS Claims priority to 800,155, the entire contents of which are incorporated herein by reference. This application also claims priority to US Provisional Patent Application No. 61 / 924,993, filed Jan. 8, 2014, entitled “PLANNING, NAVIGATION SIMULATION SYSTEMS AND METHFORMS FORMINIMALLY INVASIVETHERAPY,” the entire contents of which are hereby incorporated by reference. Embedded in the book. This application also claims priority to US Provisional Patent Application No. 61 / 801,746, filed Mar. 15, 2013, entitled “INSERTTIMEMAGING DEVICE”, the entire contents of which are hereby incorporated by reference. Incorporated. This application also claims priority to US Provisional Patent Application No. 61 / 818,255, filed May 1, 2013, entitled “INSERTTIMEMAGING DEVICE”, the entire contents of which are hereby incorporated by reference. Incorporated. This application also claims priority to US Provisional Patent Application No. 61 / 801,143, filed March 15, 2013, entitled “INSERTABLEMANETTICRESONANCEIMAGINGCOILPROBEFORMINMINARYLYVASIVECORRIDOR-BASEDPROCEDURES,” the entire contents of which are hereby incorporated by reference. Embedded in the book. This application also claims priority to US Provisional Patent Application No. 61 / 818,325, entitled “INSERTABLEMAGNETICRESONANCENEMAGINGCOILPROBEFORMINMINARYLYVASIVECORRRIDOR-BASEDPROCEDURES,” filed May 1, 2013, the entire contents of which are hereby incorporated by reference. Embedded in the book.
KR20180047881A (en) * 2016-11-01 2018-05-10 한국전기연구원 Probe Apparatus and Method for Diagnosing Brain Tumor in Real-time using Electromagnetic Wave
JP2019502460A (en) * 2015-12-22 2019-01-31 シュピーネミント・アクチェンゲゼルシャフトSpineMind AG Intraoperative image-controlled navigation device during a surgical procedure in the spinal column and adjacent regions of the rib cage, pelvis or head
JP6704095B1 (en) * 2019-07-23 2020-06-03 Hoya株式会社 Program, information processing method, and information processing apparatus
CN112022056A (en) * 2019-06-03 2020-12-04 卡尔史托斯两合公司 Imaging system and observation method
WO2021161702A1 (en) * 2020-02-12 2021-08-19 リバーフィールド株式会社 Robot for surgery
JP7026988B1 (en) * 2020-10-27 2022-03-01 リバーフィールド株式会社 Surgical support device
CN114286650A (en) * 2019-08-27 2022-04-05 伯恩森斯韦伯斯特(以色列)有限责任公司 Registering a Magnetic Tracking System Using an Interferometric System
CN115697178A (en) * 2020-10-27 2023-02-03 瑞德医疗机器股份有限公司 Operation support device

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004500187A (en) * 2000-01-27 2004-01-08 ストライカー インストルメンツ Surgery system
JP2003116874A (en) * 2001-10-10 2003-04-22 Olympus Optical Co Ltd Surgical microscope system
JP2003126115A (en) * 2001-10-23 2003-05-07 Olympus Optical Co Ltd Endoscopic operation system
JP2003199707A (en) * 2001-12-28 2003-07-15 Olympus Optical Co Ltd Endoscope apparatus
JP2005518854A (en) * 2002-02-28 2005-06-30 ヒユーストン・ステレオタクテイク・コンセプツ・インコーポレーテツド Audible feedback from positional guidance system
JP2005111081A (en) * 2003-10-09 2005-04-28 Olympus Corp Endoscopic image display processor
JP2006026229A (en) * 2004-07-20 2006-02-02 Olympus Corp Surgery system
JP2006187385A (en) * 2005-01-04 2006-07-20 Olympus Corp Endoscope device and contact position acquisition method therefor
WO2008093517A1 (en) 2007-01-31 2008-08-07 National University Corporation Hamamatsu University School Of Medicine Device for displaying assistance information for surgical operation, method for displaying assistance information for surgical operation, and program for displaying assistance information for surgical operation
US8251893B2 (en) 2007-01-31 2012-08-28 National University Corporation Hamamatsu University School Of Medicine Device for displaying assistance information for surgical operation, method for displaying assistance information for surgical operation, and program for displaying assistance information for surgical operation
JP5137033B2 (en) * 2007-01-31 2013-02-06 国立大学法人浜松医科大学 Surgery support information display device, surgery support information display method, and surgery support information display program
JP2008264520A (en) * 2007-03-20 2008-11-06 National Univ Corp Shizuoka Univ Surgery support information display device, surgery support information display method, and surgery support information display program
JP2010530268A (en) * 2007-06-19 2010-09-09 メドテック エス.アー. Multifunctional robotized platform for neurosurgery and position adjustment method
WO2009116535A1 (en) 2008-03-18 2009-09-24 国立大学法人浜松医科大学 Surgery assistance system
US8849374B2 (en) 2008-03-18 2014-09-30 National University Corporation Hamamatsu University School Of Medicine Surgery assistance system and optical axis position measurement device
JP2010119782A (en) * 2008-11-21 2010-06-03 Olympus Medical Systems Corp Medical observation apparatus and medical observation system
US8666476B2 (en) 2009-03-01 2014-03-04 National University Corporation Hamamatsu University School Of Medicine Surgery assistance system
EP2573735A1 (en) 2010-08-31 2013-03-27 Fujifilm Corporation Endoscopic image processing device, method and program
US8939892B2 (en) 2010-08-31 2015-01-27 Fujifilm Corporation Endoscopic image processing device, method and program
EP2423877A1 (en) 2010-08-31 2012-02-29 Fujifilm Corporation Endoscopic image processing device, method and program
US9131230B2 (en) 2010-10-28 2015-09-08 Sharp Kabushiki Kaisha Three-dimensional image output device, three-dimensional image output method, three-dimensional image display device, and computer readable recording medium
US9283047B2 (en) 2011-03-31 2016-03-15 Olympus Corporation Control device and control method for surgical system
US9943213B2 (en) 2012-06-08 2018-04-17 Canon Kabushiki Kaisha Medical image processing apparatus generating a three-dimensional image of a medical device superposed over a three-dimensional image of a preoperative structure of an object
JP2013252387A (en) * 2012-06-08 2013-12-19 Canon Inc Medical image processing apparatus
JP2014117446A (en) * 2012-12-17 2014-06-30 Olympus Corp Insertion device
US10433763B2 (en) 2013-03-15 2019-10-08 Synaptive Medical (Barbados) Inc. Systems and methods for navigation and simulation of minimally invasive therapy
JP2016517287A (en) * 2013-03-15 2016-06-16 シナプティヴ メディカル (バルバドス) インコーポレイテッドSynaptive Medical (Barbados) Inc. CROSS-REFERENCE TO SYSTEMS AND METHODS FOR INDUCTION AND SIMULATION OF LOW-INVASIVE TREATMENTS Claims priority to 800,155, the entire contents of which are incorporated herein by reference. This application also claims priority to US Provisional Patent Application No. 61 / 924,993, filed Jan. 8, 2014, entitled “PLANNING, NAVIGATION SIMULATION SYSTEMS AND METHFORMS FORMINIMALLY INVASIVETHERAPY,” the entire contents of which are hereby incorporated by reference. Embedded in the book. This application also claims priority to US Provisional Patent Application No. 61 / 801,746, filed Mar. 15, 2013, entitled “INSERTTIMEMAGING DEVICE”, the entire contents of which are hereby incorporated by reference. Incorporated. This application also claims priority to US Provisional Patent Application No. 61 / 818,255, filed May 1, 2013, entitled “INSERTTIMEMAGING DEVICE”, the entire contents of which are hereby incorporated by reference. Incorporated. This application also claims priority to US Provisional Patent Application No. 61 / 801,143, filed March 15, 2013, entitled “INSERTABLEMANETTICRESONANCEIMAGINGCOILPROBEFORMINMINARYLYVASIVECORRIDOR-BASEDPROCEDURES,” the entire contents of which are hereby incorporated by reference. Embedded in the book. This application also claims priority to US Provisional Patent Application No. 61 / 818,325, entitled “INSERTABLEMAGNETICRESONANCENEMAGINGCOILPROBEFORMINMINARYLYVASIVECORRRIDOR-BASEDPROCEDURES,” filed May 1, 2013, the entire contents of which are hereby incorporated by reference. Embedded in the book.
JP2015066021A (en) * 2013-09-27 2015-04-13 エフ・エーシステムエンジニアリング株式会社 Three-dimensional navigation image generation device
JP2015154873A (en) * 2014-02-21 2015-08-27 オリンパス株式会社 endoscope system
WO2015125593A1 (en) * 2014-02-21 2015-08-27 オリンパス株式会社 Endoscope system
CN106061355A (en) * 2014-02-21 2016-10-26 奥林巴斯株式会社 Endoscope system
US10419680B2 (en) 2014-02-21 2019-09-17 Olympus Corporation Endoscope system and method of controlling endoscope system
JP2015188566A (en) * 2014-03-28 2015-11-02 セイコーエプソン株式会社 Information processing device, information processing method, and information processing system
JP2015227848A (en) * 2014-06-02 2015-12-17 中国電力株式会社 Work support system using virtual image
JP2019502460A (en) * 2015-12-22 2019-01-31 シュピーネミント・アクチェンゲゼルシャフトSpineMind AG Intraoperative image-controlled navigation device during a surgical procedure in the spinal column and adjacent regions of the rib cage, pelvis or head
US11426241B2 (en) 2015-12-22 2022-08-30 Spinemind Ag Device for intraoperative image-controlled navigation during surgical procedures in the region of the spinal column and in the adjacent regions of the thorax, pelvis or head
WO2018084456A1 (en) * 2016-11-01 2018-05-11 한국전기연구원 Real-time brain tumor diagnosis probe device and system using electromagnetic wave
KR20180047881A (en) * 2016-11-01 2018-05-10 한국전기연구원 Probe Apparatus and Method for Diagnosing Brain Tumor in Real-time using Electromagnetic Wave
KR102620677B1 (en) * 2016-11-01 2024-01-04 한국전기연구원 Probe Apparatus and Method for Diagnosing Brain Tumor in Real-time using Electromagnetic Wave
CN112022056A (en) * 2019-06-03 2020-12-04 卡尔史托斯两合公司 Imaging system and observation method
JP6704095B1 (en) * 2019-07-23 2020-06-03 Hoya株式会社 Program, information processing method, and information processing apparatus
WO2021014584A1 (en) * 2019-07-23 2021-01-28 Hoya株式会社 Program, information processing method, and information processing device
CN114286650A (en) * 2019-08-27 2022-04-05 伯恩森斯韦伯斯特(以色列)有限责任公司 Registering a Magnetic Tracking System Using an Interferometric System
JP2022546420A (en) * 2019-08-27 2022-11-04 バイオセンス・ウエブスター・(イスラエル)・リミテッド Alignment of a magnetic tracking system using an interferometric measurement system
JP7500707B2 (en) 2019-08-27 2024-06-17 バイオセンス・ウエブスター・(イスラエル)・リミテッド Aligning a Magnetic Tracking System Using an Interferometric Measurement System
US12458452B2 (en) 2019-08-27 2025-11-04 Biosense Webster (Israel) Ltd. Ent tools
JP2021126232A (en) * 2020-02-12 2021-09-02 リバーフィールド株式会社 Surgical robot
CN115135271A (en) * 2020-02-12 2022-09-30 瑞德医疗机器股份有限公司 Robot for operation
WO2021161702A1 (en) * 2020-02-12 2021-08-19 リバーフィールド株式会社 Robot for surgery
JP7026988B1 (en) * 2020-10-27 2022-03-01 リバーフィールド株式会社 Surgical support device
WO2022091209A1 (en) * 2020-10-27 2022-05-05 リバーフィールド株式会社 Surgery assistance device
CN115697178A (en) * 2020-10-27 2023-02-03 瑞德医疗机器股份有限公司 Operation support device
CN115697178B (en) * 2020-10-27 2024-05-10 瑞德医疗机器股份有限公司 Surgery support device

Also Published As

Publication number Publication date
JP4472085B2 (en) 2010-06-02

Similar Documents

Publication Publication Date Title
JP4472085B2 (en) Surgical navigation system
JP4101951B2 (en) Surgical microscope
CN113243990B (en) Surgical system
JP5190510B2 (en) Multifunctional robotized platform for neurosurgery and position adjustment method
ES2292593T3 (en) GUIDING SYSTEM
ES2945711T3 (en) Surgical navigation system to provide an augmented reality image during the operation
US6832985B2 (en) Endoscopic system with instrument position and orientation display
Navab et al. Camera augmented mobile C-arm (CAMC): calibration, accuracy study, and clinical applications
EP0950379B1 (en) Device for use with a surgical navigation system
CN101410070B (en) Image guided surgery system
US20190117318A1 (en) Surgical imaging sensor and display unit, and surgical navigation system associated therewith
US20150117601A1 (en) X-ray source with module and detector for optical radiation
JP2004530485A (en) Guide systems and probes therefor
JPH11151249A (en) Microscope calibration device
JP7581340B2 (en) Eye-gaze-detection-based smart glasses display device
JP4716545B2 (en) Surgical microscope equipment
JP2016158911A (en) Surgical operation method using image display device, and device using in surgical operation
JP2001046399A (en) Microscopic device for operation
US9204116B2 (en) Portable laser projection device for medical image display
JP2017176773A (en) Surgery support system, surgery support method, and surgery support program
JP2001161638A (en) Microscope for operation
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
JP4436495B2 (en) Surgical observation system
JP4488264B2 (en) Surgical microscope
JP4047567B2 (en) Surgical system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100303

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees