[go: up one dir, main page]

JP2020086298A - Magnification observation device - Google Patents

Magnification observation device Download PDF

Info

Publication number
JP2020086298A
JP2020086298A JP2018223952A JP2018223952A JP2020086298A JP 2020086298 A JP2020086298 A JP 2020086298A JP 2018223952 A JP2018223952 A JP 2018223952A JP 2018223952 A JP2018223952 A JP 2018223952A JP 2020086298 A JP2020086298 A JP 2020086298A
Authority
JP
Japan
Prior art keywords
unit
objective lens
image
observation
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018223952A
Other languages
Japanese (ja)
Other versions
JP7251957B2 (en
Inventor
宇範 康
Woobum Kang
宇範 康
龍太郎 平林
Ryutaro Hirabayashi
龍太郎 平林
昌平 山本
Shohei Yamamoto
昌平 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2018223952A priority Critical patent/JP7251957B2/en
Publication of JP2020086298A publication Critical patent/JP2020086298A/en
Application granted granted Critical
Publication of JP7251957B2 publication Critical patent/JP7251957B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)

Abstract

【課題】ユーザの利便性を向上させる拡大観察装置を提供する。
【解決手段】拡大観察装置は、第一結像レンズ41aと第二結像レンズ41bとのいずれかを選択して観察光路に配置する第一選択部49aと、第一対物レンズ23aと第二対物レンズ23bとのいずれかを選択して観察光路に配置する第二選択部21と、第二選択部21により選択された対物レンズを認識する認識部と、光学系の倍率を選定する倍率選定部と、観察光路に配置された絞りと、倍率選定部により選定された光学系の倍率と、認識部により認識された対物レンズとに基づき結像レンズを決定する結像レンズ決定部と、第一結像レンズ41aと第二結像レンズ41bとのうち結像レンズ決定部により決定された結像レンズが観察光路に配置されるよう第一選択部49aを制御する制御部とを有してもよい。
【選択図】図8
PROBLEM TO BE SOLVED: To provide a magnifying observation device for improving user convenience.
A magnifying observation apparatus selects a first imaging lens 41a or a second imaging lens 41b and arranges it in an observation optical path, a first selection lens 49a, a first objective lens 23a, and a second objective lens 23a. A second selection unit 21 that selects one of the objective lenses 23b and arranges it in the observation optical path, a recognition unit that recognizes the objective lens selected by the second selection unit 21, and a magnification selection that selects the magnification of the optical system. Section, an aperture stop arranged in the observation optical path, a magnification of the optical system selected by the magnification selection section, and an imaging lens determination section that determines an imaging lens based on the objective lens recognized by the recognition section. And a control unit that controls the first selection unit 49a so that the imaging lens determined by the imaging lens determination unit of the one imaging lens 41a and the second imaging lens 41b is arranged in the observation optical path. Good.
[Selection diagram] Figure 8

Description

本発明は拡大観察装置に関する。 The present invention relates to a magnifying observation apparatus.

一般に顕微鏡は観察対象物を精度よく観察するために高い光学性能を有する光学系が求められてきた。また、観察画像をリアルタイムで表示器に表示する顕微鏡が登場し、観察対象物のありのままの姿をいかにして正確かつ詳細に表示できるかについて、顕微鏡メーカーの間で競争されてきた。 In general, a microscope has been required to have an optical system having high optical performance in order to observe an observation object with high accuracy. In addition, a microscope that displays an observation image on a display in real time has appeared, and there has been competition among microscope makers for how to accurately and precisely display the original appearance of an observation target.

一方で、画像処理チップの性能が向上し、顕微鏡にも採用可能となってきた。また、顕微鏡のユーザも生物等の研究者だけでなく、工場で生産された製品の検査(拡大観察)をする検査者に広がってきた。そのため、従来の光学性能追求志向とは異なる志向の顕微鏡の市場ニーズが生まれた。これは従来の顕微鏡とは区別して、拡大観察装置と呼ばれることもある(特許文献1)。 On the other hand, the performance of the image processing chip has improved, and it has become possible to adopt it in a microscope. Further, the users of the microscope have spread not only to researchers such as living things but also to inspectors who inspect (enlarge and observe) the products produced in the factory. As a result, market needs for microscopes that are different from conventional optical performance pursuits have arisen. This is sometimes called a magnifying observation device in distinction from a conventional microscope (Patent Document 1).

特開2018−013734号公報JP, 2018-013734, A 特開2017−531201号公報JP, 2017-531201, A

拡大観察装置は複数の対物レンズを有しているが、ユーザが希望する観察倍率は、対物レンズと結像レンズとの組み合わせによって決定される。一般の顕微鏡では、結像レンズが一つであるため、ユーザはレボルバを回転させて対物レンズを選択することで、所望の倍率を実現できる。しかし、これでは実現可能な倍率の数は、対物レンズの数と同数に制限されてしまう。そこで、発明者は、複数の結像レンズを拡大観察装置に搭載することで、より多くの数の観察倍率を提供することを考えた。この場合、ユーザは、希望する観察倍率が実現されるように、対物レンズと結像レンズとの組み合わせを手動で選択しなければならず、利便性に欠ける。そこで、本発明は、倍率変更時に適切な解像度を維持しつつもユーザの利便性を損なわない拡大観察装置を提供することを目的とする。 The magnifying observation apparatus has a plurality of objective lenses, but the observation magnification desired by the user is determined by the combination of the objective lens and the imaging lens. Since a general microscope has only one imaging lens, the user can realize a desired magnification by rotating the revolver and selecting the objective lens. However, this limits the number of realizable magnifications to the same number as the number of objective lenses. Therefore, the inventor has considered providing a larger number of observation magnifications by mounting a plurality of imaging lenses on a magnifying observation apparatus. In this case, the user has to manually select the combination of the objective lens and the imaging lens so that the desired observation magnification is realized, which is inconvenient. Therefore, it is an object of the present invention to provide a magnifying observation apparatus that does not impair the convenience of the user while maintaining an appropriate resolution when changing the magnification.

本発明は、たとえば、
第一結像レンズと、
第二結像レンズと、
前記第一結像レンズと前記第二結像レンズとのいずれかを選択して観察光路に配置する第一選択部と、
第一対物レンズと、
第二対物レンズと、
前記第一対物レンズと前記第二対物レンズとのいずれかを選択して前記観察光路に配置する第二選択部と、
前記第二選択部により選択された対物レンズを認識する認識部と、
光学系の倍率を選定する倍率選定部と、
前記観察光路に配置された絞りと、
前記倍率選定部により選定された光学系の倍率と、前記認識部により認識された対物レンズとに基づき結像レンズを決定する結像レンズ決定部と、
前記第一結像レンズと前記第二結像レンズとのうち前記結像レンズ決定部により決定された結像レンズが前記観察光路に配置されるよう前記第一選択部を制御する制御部と
を有することを特徴とする拡大観察装置を提供する。
The present invention is, for example,
A first imaging lens,
A second imaging lens,
A first selection unit that selects one of the first imaging lens and the second imaging lens and arranges it in the observation optical path;
A first objective lens,
A second objective lens,
A second selection unit that selects one of the first objective lens and the second objective lens and arranges it in the observation optical path;
A recognition unit for recognizing the objective lens selected by the second selection unit,
A magnification selection section for selecting the magnification of the optical system,
A diaphragm arranged in the observation optical path,
An imaging lens determination unit that determines an imaging lens based on the magnification of the optical system selected by the magnification selection unit and the objective lens recognized by the recognition unit;
A control unit that controls the first selection unit so that the imaging lens determined by the imaging lens determination unit of the first imaging lens and the second imaging lens is arranged in the observation optical path. Provided is a magnifying observation device characterized by having.

本発明によれば、倍率変更時に適切な解像度を維持しつつもユーザの利便性を損なわない拡大観察装置を提供することが可能となる。 According to the present invention, it is possible to provide a magnifying observation apparatus that maintains an appropriate resolution when changing magnification and does not impair user convenience.

拡大観察装置100の概要を説明する図The figure explaining the outline of the magnifying observation apparatus 100. 制御部などを説明する図Diagram explaining the control unit, etc. 画像プロセッサを説明する図Figure explaining the image processor 深度合成および凹凸強調を説明する図Diagram illustrating depth stacking and embossing ユーザーインタフェースの一例を示す図Diagram showing an example of the user interface ユーザーインタフェースの一例を示す図Diagram showing an example of the user interface 拡大観察処理を説明するフローチャートFlow chart explaining the magnifying observation process 光学系を説明する図Diagram explaining the optical system 結像レンズの切り替えを説明する図Diagram illustrating switching of imaging lenses 結像レンズの切り替えを説明する図Diagram illustrating switching of imaging lenses 結像レンズの切り替えを説明する図Diagram illustrating switching of imaging lenses 結像レンズの切り替えを説明する図Diagram illustrating switching of imaging lenses 対物レンズを説明する図Diagram illustrating the objective lens 対物レンズを説明する図Diagram illustrating the objective lens 対物レンズを説明する図Diagram illustrating the objective lens 同軸落射照明の光源を説明する図The figure explaining the light source of coaxial epi-illumination. リング照明を説明する図Diagram explaining ring illumination リング照明を説明する図Diagram explaining ring illumination 照明の選択方法を示すフローチャートFlowchart showing the lighting selection method 観察倍率から開口数を決定するテーブルを説明する図FIG. 6 is a diagram illustrating a table for determining a numerical aperture from an observation magnification. 撮像制御部を説明する図Diagram illustrating the imaging control unit

<拡大観察装置>
図1は、拡大観察装置100を示している。拡大観察装置100は、例えば微小物体等の試料や電子部品、被加工物等のワーク(以下、これらを観察対象物という。)を拡大して表示する装置である。使用者は拡大観察装置100を使用して観察対象物の外観を検査したり、寸法計測等を行ったりすることができる。拡大観察装置100は、顕微鏡やデジタルマイクロスコープと呼ばれてもよい。観察対象物は、上述した例に限定されるものではなく、各種物体が観察対象物となりうる。
<Magnification observation device>
FIG. 1 shows a magnifying observation apparatus 100. The magnifying observation device 100 is a device that magnifies and displays a sample such as a minute object, an electronic component, a work such as a workpiece (hereinafter, these are referred to as an observation target). The user can use the magnifying observation device 100 to inspect the external appearance of the observation object and perform dimension measurement and the like. The magnifying observation apparatus 100 may be called a microscope or a digital microscope. The observation object is not limited to the above-mentioned example, and various objects can be the observation object.

観察部1は、ベース部10、スタンド部20、ヘッド部22、載置台30を有している。ベース部10は、観察部1をぐらつくことなく、机等に置いておくための部分であり、観察部1の略下半部を構成している。ベース部10には、載置台30が設けられている。載置台30は、ベース部10の前後方向中央部近傍から前側の部分に支持されており、該ベース部10から上方へ突出している。載置台30は、観察対象物を載置するための部分であり、この実施形態では、電動載置台で構成されている。すなわち、観察対象物を電動載置台の幅方向(X方向)及び奥行き方向(Y方向)の両方向に移動可能に支持することができるとともに、上下方向(Z方向)及びZ軸回りに回動できるようになっている。スタンド部20はベース部10に対して揺動可能となっている。たとえば、スタンド部20は、観察部1を正面から見て右回りおよび左回りに搖動させるこができる。スタンド部20が搖動することで、ヘッド部22も搖動する。スタンド部20およびヘッド部22は、Z軸方向に移動可能に取り付けられている。ヘッド部22は、対物レンズ、結像レンズ、照明装置および撮像素子などを有する。ヘッド部22は、載置台30に載置された観察対象物に照明光を照射し、該照明光の観察対象物からの反射光又は透過光の受光量を検出して観察対象物の画像を生成する。なお、観察部1の構成と機能の詳細は、本件と同一出願人の特願2018−161347に開示されている、その開示の全ては本明細書の一部として援用(incorporation herein by reference)される。 The observation unit 1 includes a base unit 10, a stand unit 20, a head unit 22, and a mounting table 30. The base part 10 is a part for placing the observation part 1 on a desk or the like without wobbling, and constitutes a substantially lower half part of the observation part 1. A mounting table 30 is provided on the base portion 10. The mounting table 30 is supported by a portion on the front side from the vicinity of the central portion of the base portion 10 in the front-rear direction, and projects upward from the base portion 10. The mounting table 30 is a part for mounting an observation target, and is configured by an electric mounting table in this embodiment. That is, the observation object can be supported movably in both the width direction (X direction) and the depth direction (Y direction) of the electric mounting table, and can be rotated in the vertical direction (Z direction) and around the Z axis. It is like this. The stand portion 20 is swingable with respect to the base portion 10. For example, the stand unit 20 can swing the observation unit 1 clockwise and counterclockwise when viewed from the front. When the stand unit 20 swings, the head unit 22 also swings. The stand section 20 and the head section 22 are attached so as to be movable in the Z-axis direction. The head unit 22 has an objective lens, an imaging lens, an illuminating device, an image sensor, and the like. The head unit 22 illuminates the observation target placed on the mounting table 30 with illumination light, detects the amount of reflected light or transmitted light of the illumination light from the observation target, and detects the image of the observation target. To generate. The details of the configuration and function of the observation unit 1 are disclosed in Japanese Patent Application No. 2018-161347 of the same applicant as the present application, the entire disclosure of which is incorporated as a part of this specification (incorporation herein by reference). It

表示部2は、例えば、液晶表示パネルや有機ELパネル等のようなカラー表示可能な表示画面2aを有しており、外部から電力が供給されるようになっている。表示画面2aにタッチ操作パネル(受付部の一例)を組み込むようにしてもよい。また、この実施形態では、表示部2に制御部60を組み込んだ例で説明しているが、これに限らず、制御部60は観察部1に組み込むようにしてもよいし、コンソール部3に組み込むようにしてもよいし、表示部2、観察部1及びコンソール部3とは別体の外部ユニットとしてもよい。表示部2と、観察部1とはケーブル5によって信号の送受が可能に接続されている。観察部1への電力供給は、ケーブル5によって行ってもよいし、図示しない電源ケーブルによって行ってもよい。 The display unit 2 has a display screen 2a capable of color display, such as a liquid crystal display panel or an organic EL panel, and is supplied with electric power from the outside. A touch operation panel (an example of a reception unit) may be incorporated in the display screen 2a. Further, in this embodiment, an example in which the control unit 60 is incorporated in the display unit 2 has been described, but the present invention is not limited to this, and the control unit 60 may be incorporated in the observation unit 1 or the console unit 3. It may be incorporated or may be an external unit separate from the display unit 2, the observation unit 1 and the console unit 3. The display unit 2 and the observation unit 1 are connected by a cable 5 so that signals can be transmitted and received. The power supply to the observation unit 1 may be performed by the cable 5 or a power cable (not shown).

コンソール部3は制御部60に接続されており、一般的なキーボードやマウスとは異なっており、観察部1を操作したり、各種情報の入力や選択操作、画像の選択操作、領域指定、位置指定等を行ったりすることが可能な専用の操作デバイスである。制御部60にはポインティングデバイスとしてマウス4が接続されている。コンソール部3およびマウス4は、拡大観察装置100を操作することができればよいので、例えばタッチパネル式の入力装置、音声入力装置等であってもよい。タッチパネル式の入力装置の場合、表示部2と一体化することができ、表示部2に表示されている表示画面上の任意の位置の検出を可能に構成することができる。コンソール部3およびマウス4は、表示部2に表示された画像上で使用者によって指定された任意の位置の入力を受け付ける受付部である。 The console unit 3 is connected to the control unit 60, and is different from a general keyboard and mouse, and operates the observation unit 1, inputs various information, performs selection operations, selects images, specifies areas, and positions. This is a dedicated operation device that can be used to specify items. The mouse 4 is connected to the control unit 60 as a pointing device. The console unit 3 and the mouse 4 may be, for example, a touch panel type input device, a voice input device, or the like, as long as they can operate the magnifying observation device 100. In the case of a touch panel type input device, it can be integrated with the display unit 2 and can be configured to be able to detect an arbitrary position on the display screen displayed on the display unit 2. The console unit 3 and the mouse 4 are reception units that receive an input at an arbitrary position designated by the user on the image displayed on the display unit 2.

拡大観察装置100には、上述した機器や装置以外にも、操作や制御を行うための装置、プリンタ、その他の各種処理を行うためのコンピュータ、記憶装置、周辺機器等を接続することもできる。この場合の接続は、例えば、IEEE1394、RS−232xやRS−422、USB等のシリアル接続、パラレル接続、あるいは10BASE−T、100BASE−TX、1000BASE−T等のネットワークを介して電気的、あるいは磁気的、光学的に接続する方法等を挙げることができる。また、有線接続以外にも、IEEE802.x等の無線LANやBluetooth(登録商標)等の電波、赤外線、光通信等を利用した無線接続等でもよい。さらにデータの交換や各種設定の保存等を行うための記憶装置に用いる記憶媒体としては、例えば、各種メモリカードや磁気ディスク、光磁気ディスク、半導体メモリ、ハードディスク等を利用することができる。拡大観察装置100は、上記各種ユニットや装置、機器を組み合わせた拡大観察システムということもできる。 In addition to the above-described devices and apparatuses, the magnifying observation apparatus 100 can be connected to devices for operating and controlling, printers, computers for performing various other processes, storage devices, peripheral devices, and the like. The connection in this case is, for example, serial connection such as IEEE 1394, RS-232x, RS-422, or USB, parallel connection, or electrical or magnetic via a network such as 10BASE-T, 100BASE-TX, 1000BASE-T. And optical connection. In addition to wired connection, IEEE802. A wireless connection using radio LAN such as x or radio waves such as Bluetooth (registered trademark), infrared rays, optical communication, or the like may be used. Further, as a storage medium used for a storage device for exchanging data and storing various settings, for example, various memory cards, magnetic disks, magneto-optical disks, semiconductor memories, hard disks, etc. can be used. The magnifying observation device 100 can also be referred to as a magnifying observation system in which the above various units, devices, and devices are combined.

<制御部>
図2が示すように、制御部60は、CPU61や画像プロセッサ66、記憶部67などを有している。CPU61は記憶部67のROM領域に記憶されているプログラムを実行することで様々な機能を実現する。撮像制御部62は、ヘッド部22に設けられたレボルバ21を回転させるためにレボルバ駆動部24を制御する。これにより、対物レンズ23の倍率が変更される。つまり、ある倍率の対物レンズ23から他の倍率の対物レンズ23に切り替わる。撮像制御部62は、対物レンズ23と通信することで対物レンズ23を識別する識別部(認識部)を有していてもよい。ヘッド部22は複数の結像レンズ41を有してもよい。撮像制御部62は、結像レンズ駆動部42(例:モータ)を駆動することで、結像レンズ41を切り換える。これにより、対物レンズ23と結像レンズ41とを含む光学系の倍率が変更される。なお、複数の対物レンズ23と複数の結像レンズ41を区別する際には参照符号の末尾に小文字のアルファベットが付与される。電動絞り37はヘッド部22の内部や対物レンズ23の内部に設けられた可変絞りである。電動絞り37も撮像制御部62によって制御される。
<Control part>
As shown in FIG. 2, the control unit 60 has a CPU 61, an image processor 66, a storage unit 67, and the like. The CPU 61 realizes various functions by executing the programs stored in the ROM area of the storage unit 67. The imaging control unit 62 controls the revolver driving unit 24 to rotate the revolver 21 provided on the head unit 22. As a result, the magnification of the objective lens 23 is changed. That is, the objective lens 23 with a certain magnification is switched to the objective lens 23 with another magnification. The imaging control unit 62 may include an identification unit (recognition unit) that identifies the objective lens 23 by communicating with the objective lens 23. The head unit 22 may have a plurality of imaging lenses 41. The imaging control unit 62 switches the imaging lens 41 by driving the imaging lens driving unit 42 (example: motor). As a result, the magnification of the optical system including the objective lens 23 and the imaging lens 41 is changed. When distinguishing between the plurality of objective lenses 23 and the plurality of imaging lenses 41, a lowercase alphabet is added to the end of the reference numeral. The motorized diaphragm 37 is a variable diaphragm provided inside the head portion 22 or inside the objective lens 23. The electric diaphragm 37 is also controlled by the imaging control unit 62.

撮像制御部62は、対物レンズ23の合焦位置を変更するためにヘッド部22を上下させるZ方向駆動部28を制御する。撮像制御部62は、載置台駆動部29を通じて載置台30をX方向、Y方向、Z方向に移動させたり、載置台30をθ回転させたりする。撮像制御部62は、ヘッド部22に設けられた撮像部25を制御し、撮像部25に観察対象物Wを撮像させ、観察対象物Wの画像を取得する。 The imaging control unit 62 controls the Z-direction drive unit 28 that moves the head unit 22 up and down in order to change the focus position of the objective lens 23. The imaging control unit 62 moves the mounting table 30 in the X direction, the Y direction, and the Z direction through the mounting table driving unit 29, and rotates the mounting table 30 by θ. The imaging control unit 62 controls the imaging unit 25 provided in the head unit 22, causes the imaging unit 25 to image the observation target object W, and acquires an image of the observation target object W.

表示制御部63は観察対象物Wの画像などを表示部2に表示させる。照明制御部64は、ヘッド部22に設けられたリング照明26や同軸落射照明27の点灯と消灯とを制御する。UI部65は、表示制御部63を通じて表示部2にUI(ユーザーインタフェース)を表示したり、コンソール部3やマウス4から入力されるユーザ指示を受け付けたりする。画像プロセッサ66は、撮像部25により取得された画像信号から様々な画像データを作成する。画像プロセッサ66はCPU61により実現されてもよい。記憶部67はROM領域やRAM領域、メモリカードなどを有する。 The display control unit 63 causes the display unit 2 to display an image of the observation object W and the like. The illumination control unit 64 controls turning on and off of the ring illumination 26 and the coaxial incident illumination 27 provided on the head unit 22. The UI unit 65 displays a UI (user interface) on the display unit 2 through the display control unit 63 and receives a user instruction input from the console unit 3 or the mouse 4. The image processor 66 creates various image data from the image signal acquired by the imaging unit 25. The image processor 66 may be realized by the CPU 61. The storage unit 67 has a ROM area, a RAM area, a memory card, and the like.

検知部68は、載置台30の静止と移動を検知したり、レボルバ21により対物レンズ23の倍率が変更されたかどうかを検知したりする。コンソール部3は、載置台30をX方向に移動させたり、Y方向に移動させたりすることを指示するためのジョイスティックを有していてもよい。この場合、検知部68は、コンソール部3のジョイスティックがいずれかの方向に倒されていれば載置台30が移動していると検知し、ジョイスティックが中立位置に静止していれば載置台30が静止していると検知する。また、コンソール部3またはマウス4を通じてレボルバ21の回転、つまり、対物レンズ23の倍率変更が指示され、レボルバ駆動部24がレボルバを回転させると、検知部68は、倍率が変更されたと検知する。倍率変更が指示されていなければ、検知部68は、倍率が変更されていないと検知する。検知部68はユーザによるピント位置の手動調整を検知してもよい。 The detection unit 68 detects whether the mounting table 30 is stationary or moving, or whether the revolver 21 has changed the magnification of the objective lens 23. The console unit 3 may have a joystick for instructing to move the mounting table 30 in the X direction or the Y direction. In this case, the detection unit 68 detects that the mounting table 30 is moving if the joystick of the console unit 3 is tilted in either direction, and detects that the mounting table 30 is moving if the joystick is stationary at the neutral position. It detects that it is stationary. When the rotation of the revolver 21, that is, the magnification change of the objective lens 23 is instructed through the console unit 3 or the mouse 4 and the revolver drive unit 24 rotates the revolver, the detection unit 68 detects that the magnification has been changed. If the magnification change is not instructed, the detection unit 68 detects that the magnification has not been changed. The detection unit 68 may detect manual adjustment of the focus position by the user.

<画像プロセッサ>
図3が示すように、画像プロセッサ66において、輝度画像生成部31は、撮像制御部62を通じて撮像部25により取得された画像信号から輝度画像を作成する。HDR処理部32は、撮像制御部62を通じて撮像部25を制御することで、それぞれ露光時間が異なる複数のサブ輝度画像を取得し、複数のサブ輝度画像をHDR処理することで輝度画像を生成する。HDRはハイダイナミックレンジの略称である。深度合成部33は、撮像制御部62を通じて撮像部25を制御することで、それぞれ合焦位置の異なる複数のサブ輝度画像を取得し、複数のサブ輝度画像を深度合成することで深度合成画像を生成する。なお、サブ輝度画像はHDR処理された輝度画像であってもよい。凹凸強調部34は、第一照明方向から照明された観察対象物Wの第一輝度画像と、第二照明方向から照明された観察対象物Wの第二輝度画像とを合成することで、観察対象物Wの表面の凹凸が強調された凹凸強調画像を作成する。第一照明方向と第二照明方向は相互に光軸A1を挟んで対称となっている。なお、第一輝度画像と第二輝度画像はそれぞれ深度合成された深度合成画像であってもよい。たとえば、凹凸強調部34は、第一深度合成画像と第二深度合成画像との輝度の差分に基づき凹凸強調画像を生成してもよい。第一深度合成画像における画素(座標x、y)の輝度値i1と、第二深度合成画像における画素(座標x、y)の輝度値i2とから凹凸強調画像における画素(座標x、y)の画素値Ixyは、次式から求められてもよい。
Ixy=(i1−i2)/(i1+i2) ・・・(1)
凹凸強調画像の画素値は、一対の画素値の差分を、一対の画素値を足した合計で割ることで得られる。画素値の差分が正規化されるのであれば、(1)の式とは異なる式が採用されてもよい。
<Image processor>
As shown in FIG. 3, in the image processor 66, the brightness image generation unit 31 creates a brightness image from the image signal acquired by the imaging unit 25 through the imaging control unit 62. The HDR processing unit 32 controls the imaging unit 25 through the imaging control unit 62 to acquire a plurality of sub-luminance images having different exposure times, and performs a HDR process on the plurality of sub-luminance images to generate a luminance image. .. HDR is an abbreviation for high dynamic range. The depth synthesis unit 33 controls the imaging unit 25 through the imaging control unit 62 to acquire a plurality of sub-luminance images having different in-focus positions, and depth-synthesizes the plurality of sub-luminance images to form a depth synthesis image. To generate. The sub-luminance image may be an HDR-processed luminance image. The unevenness emphasizing unit 34 combines the first luminance image of the observation object W illuminated from the first illumination direction and the second luminance image of the observation object W illuminated from the second illumination direction to perform observation. An unevenness-enhanced image in which unevenness on the surface of the object W is emphasized is created. The first illumination direction and the second illumination direction are symmetrical with each other with the optical axis A1 interposed therebetween. The first luminance image and the second luminance image may be depth-combined images that are depth-combined. For example, the unevenness emphasizing unit 34 may generate the unevenness emphasized image based on the difference in brightness between the first depth combined image and the second depth combined image. Based on the brightness value i1 of the pixel (coordinates x, y) in the first depth composite image and the brightness value i2 of the pixel (coordinates x, y) in the second depth composite image, The pixel value Ixy may be obtained from the following equation.
Ixy=(i1-i2)/(i1+i2) (1)
The pixel value of the unevenness-enhanced image is obtained by dividing the difference between the pair of pixel values by the sum of the pair of pixel values. An expression different from the expression (1) may be adopted as long as the difference between the pixel values is normalized.

着色部36は、撮像部25により取得された観察対象物Wについてのカラー画像から色情報を取得して凹凸強調画像をカラー化する。高さ画像生成部35は、凹凸強調画像の各画素を積分することで各画素ごとに観察対象物Wの表面の高さを求め、当該高さを各画素とする高さ画像を生成する。高さ画像生成部35は、高さ画像の各画素を、各画素の高さに応じて着色することでカラー高さ画像を生成してもよい。 The coloring unit 36 acquires color information from the color image of the observation object W acquired by the imaging unit 25 and colorizes the unevenness-enhanced image. The height image generation unit 35 obtains the height of the surface of the observation target W for each pixel by integrating each pixel of the unevenness-enhanced image, and generates a height image having the height as each pixel. The height image generation unit 35 may generate a color height image by coloring each pixel of the height image according to the height of each pixel.

<深度合成と凹凸強調の原理>
図4(A)はリング照明26の一部を点灯させることで第一照明方向から観察対象物Wに照明光を照射していることを示している。リング照明26は、四つの光源領域140A、140B、140C、140Dを有している。つまり、リング照明26は、四つの光源領域140A、140B、140C、140Dを選択的に点灯および消灯することで、四つの照明方向から照明光を観察対象物Wに照射できる。光源領域140Aの照明方向と光源領域140Cの照明方向とは光軸A1に対して対称となっている。光源領域140Bの照明方向と光源領域140Dの照明方向とは光軸A1に対して対称となっている。図4(A)では光源領域140Aだけが点灯している。
<Principle of depth synthesis and embossing>
FIG. 4A illustrates that the observation object W is illuminated with illumination light from the first illumination direction by turning on a part of the ring illumination 26. The ring illumination 26 has four light source regions 140A, 140B, 140C, 140D. That is, the ring illumination 26 can illuminate the observation object W from the four illumination directions by selectively turning on and off the four light source regions 140A, 140B, 140C, and 140D. The illumination direction of the light source region 140A and the illumination direction of the light source region 140C are symmetrical with respect to the optical axis A1. The illumination direction of the light source region 140B and the illumination direction of the light source region 140D are symmetrical with respect to the optical axis A1. In FIG. 4A, only the light source area 140A is turned on.

図4(B)は第一照明方向から観察対象物Wに照明光を照射することで取得された輝度画像I1を示している。SHは観察対象物Wの影を示している。 FIG. 4B shows a luminance image I1 obtained by irradiating the observation object W with illumination light from the first illumination direction. SH indicates the shadow of the observation object W.

図4(C)は光源領域140Cだけを点灯することで第二照明方向から観察対象物Wに照明光を照射することを示している。図4(C)は第二照明方向から観察対象物Wに照明光を照射することで取得された輝度画像I2を示している。 FIG. 4C shows that the observation object W is irradiated with the illumination light from the second illumination direction by turning on only the light source region 140C. FIG. 4C shows a luminance image I2 obtained by irradiating the observation object W with illumination light from the second illumination direction.

図4(E)は第一照明方向から観察対象物Wに照明光を照射し、かつ、合焦位置を変えながら取得されたn個の第一輝度画像I11〜I1nを示している。深度合成部33は、n個の第一輝度画像I11〜I1nを深度合成することで、第一深度合成画像Ia1を作成する。たとえば、深度合成部33は、複数の第一輝度画像I11〜I1nにおいてそれぞれ画素位置が同じである複数の画素を解析し、当該複数の画素のうちで最も合焦度の高い画素を、当該画素位置における合焦画素として選択することで、複数の画素位置でそれぞれ合焦画素からなる第一深度合成画像I1aを生成する。 FIG. 4E shows n first luminance images I11 to I1n acquired by irradiating the observation object W with illumination light from the first illumination direction and changing the focus position. The depth synthesis unit 33 creates a first depth synthesis image Ia1 by performing depth synthesis on the n first luminance images I11 to I1n. For example, the depth synthesis unit 33 analyzes a plurality of pixels having the same pixel position in each of the plurality of first luminance images I11 to I1n, and determines the pixel having the highest degree of focus among the plurality of pixels as the pixel concerned. By selecting the focus pixel at the position, the first depth composite image I1a including the focus pixels at a plurality of pixel positions is generated.

図4(F)は第二照明方向から観察対象物Wに照明光を照射し、かつ、合焦位置を変えながら取得されたn個の第二輝度画像I21〜I2nを示している。深度合成部33は、n個の第二輝度画像I21〜I2nを深度合成することで、第二深度合成画像I2aを作成する。たとえば、深度合成部33は、複数の第二輝度画像I21〜I2nにおいてそれぞれ画素位置が同じである複数の画素を解析し、当該複数の画素のうちで最も合焦度の高い画素を、当該画素位置における合焦画素として選択することで、複数の画素位置でそれぞれ合焦画素からなる第二深度合成画像I2aを生成する。 FIG. 4F shows n second luminance images I21 to I2n acquired by irradiating the observation object W with illumination light from the second illumination direction and changing the focus position. The depth synthesis unit 33 creates a second depth synthesis image I2a by performing depth synthesis on the n second luminance images I21 to I2n. For example, the depth synthesis unit 33 analyzes a plurality of pixels having the same pixel position in each of the plurality of second luminance images I21 to I2n, and determines the pixel with the highest degree of focus among the plurality of pixels as the pixel concerned. By selecting the focus pixel at the position, the second depth composite image I2a composed of the focus pixels at a plurality of pixel positions is generated.

凹凸強調部34は、第一深度合成画像I1aと第二深度合成画像I2aとを用いて凹凸強調画像を生成する。凹凸強調部34は、第一深度合成画像I1aと第二深度合成画像I2aとの輝度の差分に基づき凹凸強調画像を生成する。 The unevenness emphasizing unit 34 generates an unevenness emphasized image using the first depth combined image I1a and the second depth combined image I2a. The unevenness emphasizing unit 34 generates the unevenness emphasized image based on the difference in luminance between the first depth combined image I1a and the second depth combined image I2a.

<載置台の移動と画像の表示>
UI部65は、凹凸強調部34により生成された凹凸強調画像を表示部2に表示する。ユーザは観察対象物Wの一部を拡大観察するために凹凸強調画像を利用する。ここで、観察対象物Wの複数の箇所が拡大観察の対象となる場合がある。この場合に、ユーザはコンソール部3を操作することで、載置台30をX方向やY方向に移動させたり、θ方向に回転させたりする。CPU61はコンソール部3からX方向への移動指示が入力されると、載置台駆動部29により載置台30をX方向へ移動させ、CPU61はコンソール部3からY方向への移動指示が入力されると、載置台駆動部29により載置台30をY方向へ移動させる。このような移動指示が入力されている限り、CPU61は移動指示にしたがって連続的に載置台30を移動する。ユーザによる移動指示の入力が停止すると、CPU61は載置台駆動部29による載置台30の移動を停止させる。
<Moving the mounting table and displaying images>
The UI unit 65 displays the unevenness emphasized image generated by the unevenness emphasizing unit 34 on the display unit 2. The user uses the unevenness-enhanced image to magnify and observe a part of the observation object W. Here, there are cases where a plurality of portions of the observation object W are targets for magnified observation. In this case, the user operates the console unit 3 to move the mounting table 30 in the X direction or the Y direction or rotate it in the θ direction. When a movement instruction in the X direction is input from the console unit 3, the CPU 61 causes the mounting table drive unit 29 to move the mounting table 30 in the X direction, and the CPU 61 inputs a movement instruction in the Y direction from the console unit 3. Then, the mounting table driving unit 29 moves the mounting table 30 in the Y direction. As long as such a movement instruction is input, the CPU 61 continuously moves the mounting table 30 according to the movement instruction. When the input of the movement instruction by the user is stopped, the CPU 61 stops the movement of the mounting table 30 by the mounting table drive unit 29.

ここで、凹凸強調画像を生成するためには、ある程度の処理時間が必要となるため、載置台30が移動している期間においては、UI部65は、凹凸強調部34により生成された凹凸強調画像を表示部2に表示できない。そこで、載置台30が移動している期間において、UI部65は、輝度画像生成部31が生成した観察対象物Wの輝度画像を表示部2に表示する。これにより、ユーザは表示部2に表示された輝度画像を確認することで、次の観察部位が撮像部25の視野範囲に位置しているかどうかを確認できるようになる。ここで、UI部65は、一定時間ごとに観察対象物Wの輝度画像を更新することで、表示部2には動画のように観察対象物Wの輝度画像が表示される。CPU61は、移動指示の入力が停止したこと(載置台30の停止)を検知すると、画像プロセッサ66に凹凸強調画像の生成を指示する。これにより、上述した輝度画像の取得、深度合成、および凹凸強調画像が再度実行され、新たな観察位置での凹凸強調画像が表示部2に表示される。ユーザが凹凸強調画像の再生成を指示しなくても、載置台30の停止に応じて、凹凸強調画像が再生成される。そのため、ユーザは効率よく複数の観察部位を観察できるようになろう。 Here, since a certain amount of processing time is required to generate the unevenness-enhanced image, the UI unit 65 causes the unevenness-enhancement unit 34 to generate the unevenness-enhancement process while the mounting table 30 is moving. The image cannot be displayed on the display unit 2. Therefore, the UI unit 65 displays the brightness image of the observation target object W generated by the brightness image generation unit 31 on the display unit 2 while the mounting table 30 is moving. Thereby, the user can confirm whether or not the next observation site is located in the visual field range of the image capturing unit 25 by confirming the brightness image displayed on the display unit 2. Here, the UI unit 65 updates the luminance image of the observation target object W at regular intervals, so that the display unit 2 displays the luminance image of the observation target object W like a moving image. When the CPU 61 detects that the input of the movement instruction is stopped (stop of the mounting table 30), the CPU 61 instructs the image processor 66 to generate the unevenness-enhanced image. As a result, the acquisition of the brightness image, the depth combination, and the unevenness emphasized image described above are executed again, and the unevenness emphasized image at the new observation position is displayed on the display unit 2. Even if the user does not instruct to regenerate the unevenness-enhanced image, the unevenness-enhanced image is regenerated according to the stop of the mounting table 30. Therefore, the user will be able to efficiently observe a plurality of observation sites.

<凹凸強調画像の着色>
凹凸強調画像を構成する各画素は、観察対象物Wの表面の凹凸を示しており、表面の色情報を含まない。そのため、ユーザは、観察部位の色と凹凸の位置との関係を把握しにくい。そこで、着色部36は、リング照明26の光源領域140A〜140Dをすべて点灯させ、撮像部25に観察対象物Wを撮像させる。こにより、輝度画像生成部31は観察対象物Wのカラー画像(輝度画像)を生成する。着色部36は、カラー画像から色情報を取得し、凹凸強調画像に色情報をマッピングして凹凸強調画像をカラー化し、表示部2に表示する。これによりユーザは、観察部位の色と凹凸の位置との関係を把握しやすくなる。
<Coloring of the embossed image>
Each pixel forming the unevenness-enhanced image shows unevenness on the surface of the observation object W and does not include surface color information. Therefore, it is difficult for the user to grasp the relationship between the color of the observed region and the position of the unevenness. Therefore, the coloring unit 36 turns on all the light source regions 140A to 140D of the ring illumination 26, and causes the imaging unit 25 to image the observation target object W. As a result, the luminance image generation unit 31 generates a color image (luminance image) of the observation object W. The coloring unit 36 acquires color information from the color image, maps the color information on the unevenness emphasized image to colorize the unevenness emphasized image, and displays the color on the display unit 2. This makes it easier for the user to understand the relationship between the color of the observed region and the position of the unevenness.

<HDR処理>
観察対象物Wの表面が金属である場合、輝度画像において白飛びした画素や黒つぶれした画素が発生することがある。このような場合に、最終的に生成される凹凸強調画像において凹凸を確認しにくくなる。そこで、HDR処理部32が採用されてもよい。HDR処理部32は、一つの合焦位置について、露光時間が異なる複数のサブ輝度画像を取得し、当該複数のサブ輝度画像をHDR処理することで一つの輝度画像を生成する。HDR処理部32は、合焦位置が変更されるたびに、露光時間が異なる複数のサブ輝度画像を取得し、当該複数のサブ輝度画像をHDR処理することで一つの輝度画像を生成する。これにより、第一輝度画像I11〜I1nと第二輝度画像I21〜I2nはいずれもHDR処理された画像となる。よって、深度合成部33は、HDR処理された第一輝度画像I11〜I1nを深度合成して、第一深度画像I1aを生成し、HDR処理された第二輝度画像I21〜I2nを深度合成して、第二深度画像I2aを生成する。さらに、凹凸強調部34は、HDR処理された第一深度画像I1aおよびHDR処理された第二深度画像I2aを合成することで、HDR処理された凹凸強調画像を生成する。これにより、白飛びや黒つぶれが発生しにくくなるため、ユーザは、凹凸強調画像を確認することで、観察対象物Wにおける凹凸をより正確に把握しやすくなろう。
<HDR processing>
When the surface of the observation object W is a metal, whiteout pixels or blackout pixels may occur in the luminance image. In such a case, it becomes difficult to confirm the unevenness in the finally generated unevenness-enhanced image. Therefore, the HDR processing unit 32 may be adopted. The HDR processing unit 32 acquires a plurality of sub-luminance images having different exposure times for one in-focus position, and performs HDR processing on the plurality of sub-luminance images to generate one luminance image. The HDR processing unit 32 acquires a plurality of sub-luminance images having different exposure times each time the focus position is changed, and performs HDR processing on the plurality of sub-luminance images to generate one luminance image. As a result, the first luminance images I11 to I1n and the second luminance images I21 to I2n are all HDR-processed images. Therefore, the depth synthesis unit 33 performs depth synthesis on the HDR-processed first luminance images I11 to I1n to generate a first depth image I1a, and performs depth synthesis on the HDR-processed second luminance images I21 to I2n. , The second depth image I2a is generated. Further, the unevenness emphasizing unit 34 synthesizes the HDR-processed first depth image I1a and the HDR-processed second depth image I2a to generate the HDR-processed unevenness emphasis image. As a result, overexposure and underexposure are less likely to occur, so that the user can more easily grasp the unevenness of the observation object W by checking the unevenness-enhanced image.

<高さ画像>
上述された凹凸強調画像は観察対象物Wの表面の高さ情報を含まない。そのため、クレーター錯視が発生する。クレーター錯視とは、画像として凹形状と凸形状とが区別できないために、観察者が凹部と凸部とを誤って認識してしまう現象である。そこで、高さ画像生成部35は、凹凸強調画像の各画素を積分することで各画素ごとに観察対象物Wの表面の高さを求め、当該高さを各画素とする高さ画像を生成し、表示部2に表示してもよい。さらに、高さ画像生成部35は、高さ画像の各画素の高さデータを色情報に変換し、凹凸強調画像に対して色情報をマッピングすることで、高さに応じて異なる色で着色された凹凸強調画像を生成し、表示部2に表示してもよい。これにより、ユーザは、色情報に基づき観察対象物Wの表面における凹形状と凸形状とを区別しやすくなろう。
<Height image>
The unevenness-enhanced image described above does not include the height information of the surface of the observation object W. Therefore, a crater illusion occurs. The crater illusion is a phenomenon in which an observer mistakenly recognizes a concave portion and a convex portion because the concave shape and the convex shape cannot be distinguished as an image. Therefore, the height image generation unit 35 obtains the height of the surface of the observation object W for each pixel by integrating each pixel of the unevenness-enhanced image, and generates a height image having the height as each pixel. However, it may be displayed on the display unit 2. Further, the height image generation unit 35 converts the height data of each pixel of the height image into color information and maps the color information on the unevenness-enhanced image so that the height image generation unit 35 colors with a different color depending on the height. The unevenness-enhanced image thus generated may be generated and displayed on the display unit 2. This makes it easier for the user to distinguish between the concave shape and the convex shape on the surface of the observation object W based on the color information.

<その他>
図4においては光源領域140A、140Cについて説明されたが、この説明は光源領域140B、140Dにも適用可能である。つまり、画像プロセッサ66は、光源領域140A、140Cとのペアを用いて凹凸強調画像を生成してもよいし、光源領域140B、140Dとのペアを用いて凹凸強調画像を生成してもよい。光源領域140Bの照明方向は第三照明方向と呼ばれてもよい。光源領域140Dの照明方向は第四照明方向と呼ばれてもよい。第三照明方向と第四照明方向とは光軸A1を挟んで対称(線対称)となっている。
<Other>
Although the light source areas 140A and 140C have been described in FIG. 4, this description is also applicable to the light source areas 140B and 140D. That is, the image processor 66 may generate an unevenness-enhanced image using a pair with the light source regions 140A and 140C, or may generate an unevenness-enhanced image using a pair with the light source regions 140B and 140D. The illumination direction of the light source region 140B may be referred to as the third illumination direction. The illumination direction of the light source region 140D may be referred to as the fourth illumination direction. The third illumination direction and the fourth illumination direction are symmetrical (axisymmetric) with the optical axis A1 interposed.

輝度画像生成部31は、リング照明26を制御することで観察対象物Wに対して第一照明方向および第二照明方向と異なる第三照明方向から照明光を観察対象物Wに対して照射する。輝度画像生成部31は、Z方向駆動部28や撮像部25を制御し、それぞれ異なる複数の合焦位置のそれぞれで観察対象物Wを撮像することで複数の第三輝度画像を取得する。同様に、輝度画像生成部31は、リング照明26を制御することで観察対象物Wに対して第四照明方向から照明光を観察対象物Wに対して照射する。輝度画像生成部31は、Z方向駆動部28や撮像部25を制御し、それぞれ異なる複数の合焦位置のそれぞれで観察対象物Wを撮像することで複数の第四輝度画像を取得する。画像プロセッサ66は、第一照明方向、第二照明方向、第三照明方向および第四照明方向のうちUI部65により選択された照明方向に対応した凹凸強調画像を、複数の第一輝度画像、複数の第二輝度画像、複数の第三輝度画像および複数の第四輝度画像のうち選択された照明方向に対応した複数の輝度画像を用いて生成する。表示部2は、選択された照明方向に対応した凹凸強調画像を表示する。上述の実施形態では、第一照明方向が選択されているが、第二照明方向が選択されてもよい。この場合、(1)式におけるi1とi2とが入れ替わる。第三照明方向が選択された場合、(1)式において、第三輝度画像の各画素の輝度値がi1となり、第四輝度画像の各画素の輝度値がi2となる。第四照明方向が選択された場合、(1)式において、第四輝度画像の各画素の輝度値がi1となり、第三輝度画像の各画素の輝度値がi2となる。 The luminance image generation unit 31 controls the ring illumination 26 to irradiate the observation object W with illumination light from the third illumination direction different from the first illumination direction and the second illumination direction. . The brightness image generation unit 31 controls the Z-direction drive unit 28 and the imaging unit 25, and acquires a plurality of third brightness images by imaging the observation object W at each of a plurality of different in-focus positions. Similarly, the luminance image generation unit 31 controls the ring illumination 26 to irradiate the observation target W with illumination light from the fourth illumination direction. The brightness image generation unit 31 controls the Z direction drive unit 28 and the imaging unit 25, and acquires a plurality of fourth brightness images by imaging the observation target W at each of a plurality of different focus positions. The image processor 66 outputs the unevenness-enhanced image corresponding to the illumination direction selected by the UI unit 65 among the first illumination direction, the second illumination direction, the third illumination direction, and the fourth illumination direction to a plurality of first luminance images It is generated using a plurality of luminance images corresponding to the selected illumination direction among the plurality of second luminance images, the plurality of third luminance images, and the plurality of fourth luminance images. The display unit 2 displays the unevenness-enhanced image corresponding to the selected illumination direction. Although the first illumination direction is selected in the above embodiment, the second illumination direction may be selected. In this case, i1 and i2 in the equation (1) are interchanged. When the third illumination direction is selected, the brightness value of each pixel of the third brightness image is i1 and the brightness value of each pixel of the fourth brightness image is i2 in the expression (1). When the fourth illumination direction is selected, the luminance value of each pixel of the fourth luminance image becomes i1 and the luminance value of each pixel of the third luminance image becomes i2 in the formula (1).

<変形例>
上述した実施形態では深度合成が実行された後で凹凸強調が実行されている。しかし、凹凸強調が先に実行され、その後に深度合成が実行されてもよい。
<Modification>
In the above-described embodiment, the unevenness enhancement is performed after the depth stacking is performed. However, the unevenness enhancement may be performed first, and then the depth stacking may be performed.

凹凸強調部34は、第一輝度画像I11と第二輝度画像I21とを用いてサブ凹凸強調画像I1xを生成する。同様に、凹凸強調部34は、第一輝度画像I12と第二輝度画像I22とを用いてサブ凹凸強調画像I2xを生成する。以下の同様に繰り返し、最終的に、凹凸強調部34は、第一輝度画像I1nと第二輝度画像I2nとを用いてサブ凹凸強調画像Ixnを生成する。これにより、深度合成部33は、n個のサブ凹凸強調画像Ix1〜Ixnを深度合成し、最終的な凹凸強調画像を生成し、表示部2に表示する。 The unevenness emphasizing unit 34 uses the first brightness image I11 and the second brightness image I21 to generate a sub unevenness emphasis image I1x. Similarly, the unevenness emphasizing unit 34 uses the first brightness image I12 and the second brightness image I22 to generate a sub unevenness emphasis image I2x. By repeating the same process as described below, finally, the unevenness emphasizing unit 34 generates the sub unevenness-enhanced image Ixn using the first luminance image I1n and the second luminance image I2n. As a result, the depth combination unit 33 performs depth combination of the n sub unevenness-enhanced images Ix1 to Ixn to generate a final unevenness-enhanced image, which is displayed on the display unit 2.

なお、リング照明26は、対物レンズ23の周囲に配置されていてもよいし、対物レンズ23を通じて照明光を観察対象物Wに照射するように構成されていてもよい。 The ring illumination 26 may be arranged around the objective lens 23, or may be configured to irradiate the observation object W with illumination light through the objective lens 23.

<ユーザーインタフェース>
図5はUI部65が表示部2に表示するユーザーインタフェース70を示している。画像表示領域71aは、画像プロセッサ66から表示制御部63を通じて出力される画像を表示する。この画像は、観察対象物Wのライブ画像、深度合成された凹凸強調画像、観察対象物Wの表面の色に応じて着色された凹凸強調画像、高さデータに基づき着色されたか凹凸強調画像(カラー高さ画像)などである。載置台30が移動していたり、対物レンズ23の切り替えが指示されたりしたことを検知部68が検知すると、UI部65は、観察対象物Wのライブ画像を画像表示領域71aに表示する。倍率の変更が完了し、かつ、載置台30が静止したことを検知部68が検知すると、UI部65は、深度合成された凹凸強調画像を画像表示領域71aに表示する。凹凸強調画像が表示されているときに載置台30が移動することが検知されると、UI部65は、ライブ画像を画像表示領域71aに表示する。照明方向選択部72は、光源領域140A〜140Dに対応した四つのボタンを有している。上述したように、光源領域140Aと光源領域140Cとがペアを形成しているため、光源領域140Aに対応したボタンがポインタ74により選択されると、光源領域140Aの照明方向が第一照明方向に決定され、光源領域140Cの照明方向が第二照明方向に決定される。同様に、光源領域140Dに対応したボタンがポインタ74により選択されると、光源領域140Dの照明方向が第一照明方向に決定され、光源領域140Bの照明方向が第二照明方向に決定される。倍率選択部73は、レボルバ21に装着された複数の対物レンズ23のうち、いずれか一つの対物レンズ23を選択するためのプルダウンリストである。たとえば、UI部65は、レボルバ21に取り付けられた複数の対物レンズ23のそれぞれの倍率を対物レンズ23の設定情報から取得し、プルダウンリストを作成する。ユーザがポインタ74を操作していずれかの倍率を選択すると、UI部65は選択された倍率(対物レンズ23)をレボルバ駆動部24に通知する。レボルバ駆動部24は、通知された倍率の対物レンズ23が撮影光軸A1上に位置するようにレボルバ21を回転させる。レボルバ駆動部24は回転が終了すると、回転終了信号をCPU61に出力する。検知部68は、回転終了信号を受信すると、倍率変更が完了したと判定する。通常、倍率変更が完了すると、視野範囲内で観察部位の位置を調整することが必要となる。ユーザは、載置台30が移動することで、視野範囲内の所望の位置に観察部位を位置づける。載置台30が静止すると、UI部65は、画像プロセッサ66に凹凸強調画像の生成を指示する。UI部65は、ライブ画像に代えて深度合成された凹凸強調画像を画像表示領域71aに表示する。
<User interface>
FIG. 5 shows a user interface 70 displayed on the display unit 2 by the UI unit 65. The image display area 71a displays the image output from the image processor 66 through the display control unit 63. This image is a live image of the observation target W, a depth-combined unevenness enhancement image, an unevenness enhancement image colored according to the color of the surface of the observation target W, or an unevenness enhancement image colored based on height data ( Color height image). When the detection unit 68 detects that the mounting table 30 is moving or that switching of the objective lens 23 is instructed, the UI unit 65 displays the live image of the observation target W in the image display area 71a. When the detection unit 68 detects that the change of the magnification is completed and the mounting table 30 is stationary, the UI unit 65 displays the depth-combined unevenness-enhanced image in the image display area 71a. When it is detected that the mounting table 30 moves while the unevenness-enhanced image is displayed, the UI unit 65 displays the live image in the image display area 71a. The illumination direction selection unit 72 has four buttons corresponding to the light source areas 140A to 140D. As described above, since the light source region 140A and the light source region 140C form a pair, when the button corresponding to the light source region 140A is selected by the pointer 74, the illumination direction of the light source region 140A becomes the first illumination direction. Then, the illumination direction of the light source region 140C is determined as the second illumination direction. Similarly, when the button corresponding to the light source region 140D is selected by the pointer 74, the illumination direction of the light source region 140D is determined as the first illumination direction, and the illumination direction of the light source region 140B is determined as the second illumination direction. The magnification selection unit 73 is a pull-down list for selecting any one of the objective lenses 23 mounted on the revolver 21. For example, the UI unit 65 acquires the magnification of each of the plurality of objective lenses 23 attached to the revolver 21 from the setting information of the objective lenses 23 and creates a pull-down list. When the user operates the pointer 74 to select one of the magnifications, the UI unit 65 notifies the revolver drive unit 24 of the selected magnification (objective lens 23). The revolver drive unit 24 rotates the revolver 21 so that the objective lens 23 having the notified magnification is located on the photographing optical axis A1. When the revolver drive unit 24 has finished rotating, it outputs a rotation end signal to the CPU 61. Upon receiving the rotation end signal, the detection unit 68 determines that the magnification change has been completed. Normally, when the magnification change is completed, it is necessary to adjust the position of the observation site within the visual field range. The user positions the observation site at a desired position within the visual field range by moving the mounting table 30. When the mounting table 30 stands still, the UI unit 65 instructs the image processor 66 to generate the unevenness-enhanced image. The UI unit 65 displays, in place of the live image, the depth-combined unevenness-enhanced image in the image display area 71a.

なお、凹凸強調画像の表示と、ライブ画像の表示とを明示的に切り換えるための切替ボタンがユーザーインタフェース70に設けられてもよい。これによりユーザは、凹凸強調画像が完成した後に、凹凸強調画像とライブ画像とを切り換えて表示することで両者を対比してもよい。 It should be noted that the user interface 70 may be provided with a switching button for explicitly switching between displaying the embossed image and displaying the live image. Thus, the user may compare the both of the unevenness-enhanced image and the live image by switching between them after the completion of the unevenness-enhanced image.

図5においてテーブル選択部78は、絞り量を決定するためのテーブルとして、深度優先テーブルと解像度優先テーブルとのどちらかを選択するために使用される。 In FIG. 5, the table selection unit 78 is used to select either the depth priority table or the resolution priority table as a table for determining the aperture amount.

図6はUI部65が表示部2に表示する他の例のユーザーインタフェース70を示している。この例では、画像表示領域71aはライブ画像を表示し、画像表示領域71bは、深度合成された凹凸強調画像、観察対象物Wの表面の色に応じて着色された凹凸強調画像、高さデータに基づき着色されたか凹凸強調画像(カラー高さ画像)などを表示する。図6において画像表示領域71a、71bは縦方向に並んでいるが、横方向に並べられてもよい。 FIG. 6 shows another example of the user interface 70 displayed on the display unit 2 by the UI unit 65. In this example, the image display area 71a displays a live image, and the image display area 71b displays the depth-combined unevenness-enhanced image, the unevenness-enhanced image colored according to the color of the surface of the observation object W, and height data. An image (color height image) or the like that is colored based on is displayed. Although the image display areas 71a and 71b are arranged in the vertical direction in FIG. 6, they may be arranged in the horizontal direction.

着色指定部76は、観察対象物Wの表面の色情報に基づいて、深度合成された凹凸強調画像に着色することを指示するためのラジオボタンと、観察対象物Wの表面の高さ情報に基づき、深度合成された凹凸強調画像に着色することを指示するためのラジオボタンと、着色しないことを指示するためのラジオボタンとを有している。UI部65は着色指定部76において指定された着色指示を画像プロセッサ66に通知する。着色指定部76は、図5に示されたユーザーインタフェース70にも設けられてもよい。深度合成指示部77は、深度合成を有効にするか無効にするかを指定するためのチェックボックスである。深度合成指示部77において深度合成が無効にされている場合、凹凸強調部34は、(1)式にしたがって、第一輝度画像と第二輝度画像とを用いて凹凸強調画像を生成する。この場合、画像表示領域71bは、深度合成されていない凹凸強調画像を表示する。 The coloring designating section 76 uses radio buttons for instructing to color the depth-combined unevenness-enhanced image based on the color information of the surface of the observation target W, and height information of the surface of the observation target W. Based on this, it has a radio button for instructing to color the depth-combined unevenness-enhanced image and a radio button for instructing not to color. The UI unit 65 notifies the image processor 66 of the coloring instruction designated by the coloring designation unit 76. The coloring designating section 76 may also be provided in the user interface 70 shown in FIG. The depth stacking instruction unit 77 is a check box for designating whether to enable or disable depth stacking. When the depth stacking instruction unit 77 disables the depth stacking, the unevenness emphasizing unit 34 generates the unevenness emphasized image using the first brightness image and the second brightness image according to the equation (1). In this case, the image display area 71b displays an unevenness-enhanced image that is not depth-combined.

<拡大観察処理のフローチャート>
図7は拡大観察処理を示すフローチャートである。マウス4またはコンソール部3により開始が指示されると、CPU61は以下の処理を実行する。
<Flow chart of magnifying observation process>
FIG. 7 is a flowchart showing the magnification observation process. When the start is instructed by the mouse 4 or the console section 3, the CPU 61 executes the following processing.

凹凸強調画像が画像表示領域71に表示されている場合で説明する。 The case where the unevenness emphasized image is displayed in the image display area 71 will be described.

S0でCPU61はマウス4またはコンソール部3などにより入力される移動指示にしたがって載置台駆動部29を制御し、載置台30を移動させる。 In S0, the CPU 61 controls the mounting table driving unit 29 according to the movement instruction input from the mouse 4 or the console unit 3 to move the mounting table 30.

S1で移動開始が検知されると、画像表示領域71にはライブ画像が表示される。つまり、CPU61は撮像制御部62および照明制御部64を介して撮像部25およびリング照明26を制御し、観察対象物Wを撮像させ、画像プロセッサ66を制御し、観察対象物Wのライブ画像(一定時間ごとに更新される輝度画像)を生成させ、表示制御部63を介して表示部2にライブ画像を表示させる。ライブ画像は画像表示領域71に表示される。照明制御部64は、ライブ画像のために四つの光源領域140A〜140Dをすべて点灯する。ユーザはライブ画像を見ながら、撮像部25の視野範囲内に観察対象物Wが入るように載置台30をX方向、Y方向、Z方向、θ方向に移動させる。 When the movement start is detected in S1, a live image is displayed in the image display area 71. That is, the CPU 61 controls the imaging unit 25 and the ring illumination 26 via the imaging control unit 62 and the illumination control unit 64 to cause the observation target object W to be imaged, and controls the image processor 66 to display a live image of the observation target object W ( A brightness image that is updated at regular time intervals) is generated, and a live image is displayed on the display unit 2 via the display control unit 63. The live image is displayed in the image display area 71. The illumination control unit 64 turns on all four light source regions 140A to 140D for the live image. While viewing the live image, the user moves the mounting table 30 in the X direction, the Y direction, the Z direction, and the θ direction so that the observation target object W enters the visual field range of the imaging unit 25.

S2でCPU61は検知部68を用いて載置台30の移動が終了したかどうかを判定する。たとえば、マウス4またはコンソール部3などによる移動指示の入力が終了し、かつ、一定時間が経過するか、または、明示的な撮像指示が入力されると、CPU61(検知部68)は載置台30の移動が終了したと判定する。CPU61は、載置台30の移動が終了したと判定すると、S3に進む。 In S2, the CPU 61 uses the detection unit 68 to determine whether the movement of the mounting table 30 is completed. For example, when the input of the movement instruction by the mouse 4 or the console unit 3 is finished and a certain time has elapsed or an explicit imaging instruction is input, the CPU 61 (detection unit 68) causes the mounting table 30 It is determined that the movement of is completed. When the CPU 61 determines that the movement of the mounting table 30 is completed, the CPU 61 proceeds to S3.

S3でCPU61は移動終了したときのライブ画像を画像表示領域71に表示する。仮にS4からS10までの期間において表示領域に観察対象物Wの画像が表示されないと、ユーザは観察対象物Wを把握しにくくなってしまう。そのため、CPU61は、凹凸強調画像を生成中に、必要に応じて凹凸強調画像を生成する直前の観察対象物Wの画像を画像表示領域71に表示してもよい。 In S3, the CPU 61 displays the live image at the end of the movement in the image display area 71. If the image of the observation target object W is not displayed in the display area during the period from S4 to S10, it becomes difficult for the user to grasp the observation target object W. Therefore, the CPU 61 may display the image of the observation object W immediately before the unevenness-enhanced image is generated in the image display area 71, if necessary, while generating the unevenness-enhanced image.

S4でCPU61は第一照明方向についてそれぞれ合焦位置が異なる複数の第一輝度画像I11〜I1nを生成する。照明制御部64は、光源領域140A〜140Dのうち第一照明方向に対応する一つの光源領域を点灯させる。撮像制御部62は、Z方向駆動部28を通じて対物レンズ23の合焦位置を少しずつ変えながら撮像部25および輝度画像生成部31に第一輝度画像I11〜I1nを取得させる。 In S4, the CPU 61 generates a plurality of first luminance images I11 to I1n having different focusing positions in the first illumination direction. The illumination control unit 64 turns on one light source region corresponding to the first illumination direction among the light source regions 140A to 140D. The imaging control unit 62 causes the imaging unit 25 and the brightness image generation unit 31 to acquire the first brightness images I11 to I1n while gradually changing the focus position of the objective lens 23 through the Z-direction drive unit 28.

S5でCPU61は第二照明方向についてそれぞれ合焦位置が異なる複数の第二輝度画像I21〜I2nを生成する。照明制御部64は、光源領域140A〜140Dのうち第二照明方向に対応する一つの光源領域を点灯させる。撮像制御部62は、Z方向駆動部28を通じて対物レンズ23の合焦位置を少しずつ変えながら撮像部25および輝度画像生成部31に第二輝度画像I21〜I2nを取得させる。 In S5, the CPU 61 generates a plurality of second luminance images I21 to I2n having different focusing positions in the second illumination direction. The illumination control unit 64 turns on one light source region corresponding to the second illumination direction among the light source regions 140A to 140D. The imaging control unit 62 causes the imaging unit 25 and the luminance image generation unit 31 to acquire the second luminance images I21 to I2n while gradually changing the focus position of the objective lens 23 through the Z-direction driving unit 28.

S6でCPU61は深度合成部33を用いて第一輝度画像I11〜I1nを深度合成することで第一照明方向についての第一深度画像I1aを生成する。 In S6, the CPU 61 uses the depth combination unit 33 to perform depth combination of the first luminance images I11 to I1n to generate the first depth image I1a in the first illumination direction.

S7でCPU61は深度合成部33を用いて第二輝度画像I21〜I2nを深度合成することで第二照明方向についての第二深度画像I2aを生成する。 In S7, the CPU 61 uses the depth combination unit 33 to perform depth combination of the second luminance images I21 to I2n to generate the second depth image I2a in the second illumination direction.

S8でCPU61は凹凸強調部34を用いて第一深度画像I1aと第二深度画像I2aとに基づき凹凸強調画像を生成する。 In S8, the CPU 61 uses the unevenness emphasizing unit 34 to generate an unevenness-enhanced image based on the first depth image I1a and the second depth image I2a.

S9でCPU61は着色部36または高さ画像生成部35を用いて凹凸強調画像を着色する。これにより、観察対象物Wの表面の色が凹凸強調画像に付与されたり、高さ画像から取得した高さデータに応じて凹凸強調画像に着色が施されたりする。着色処理を実行するか否かと何の着色処理を実行するかは、着色指定部76においてどのラジオボタンが押されているかに依存する。 In S9, the CPU 61 uses the coloring unit 36 or the height image generation unit 35 to color the concave-convex emphasized image. Thereby, the color of the surface of the observation object W is added to the unevenness-emphasized image, or the unevenness-enhanced image is colored according to the height data acquired from the height image. Whether to execute the coloring process and what kind of the coloring process to be executed depend on which radio button is pressed in the coloring designating section 76.

S10でCPU61はUI部65および表示制御部63を通じて表示部2に凹凸強調画像を表示する。つまり、画像表示領域71aには観察対象物Wのライブ画像に代えて凹凸強調画像が表示される。なお、図6に示されたユーザーインタフェース70では、画像表示領域71aに観察対象物Wのライブ画像が表示され、画像表示領域71bに深度合成された凹凸強調画像が表示される。 In S10, the CPU 61 displays the concave-convex emphasized image on the display unit 2 through the UI unit 65 and the display control unit 63. That is, the embossed image is displayed in the image display area 71a instead of the live image of the observation object W. In the user interface 70 shown in FIG. 6, a live image of the observation object W is displayed in the image display area 71a, and a depth-combined unevenness-enhanced image is displayed in the image display area 71b.

S11でCPU61は拡大観察処理の終了指示が入力されたかどうかを判定する。マウス4などから終了指示が入力されると、CPU61は拡大観察処理を終了する。終了指示が入力されていなければ、CPU61はS12に進む。 In S11, the CPU 61 determines whether or not an instruction to end the magnifying observation process has been input. When the end instruction is input from the mouse 4 or the like, the CPU 61 ends the magnifying observation process. If the end instruction has not been input, the CPU 61 proceeds to S12.

S12でCPU61は検知部68を用いてマウス4などから載置台30の移動指示または倍率変更指示が入力されているかどうかを判定する。移動指示と倍率変更指示との両方ともが入力されていなければ、CPU61はS11に戻る。移動指示または倍率変更指示が入力されれば、CPU61はS1に戻り、観察対象物Wのライブ画像を表示部2に表示する。その後、載置台30の移動が停止すると、CPU61は凹凸強調画像の生成を再度実行する。 In S12, the CPU 61 uses the detection unit 68 to determine whether or not an instruction to move the mounting table 30 or an instruction to change the magnification is input from the mouse 4 or the like. If neither the movement instruction nor the magnification change instruction has been input, the CPU 61 returns to S11. When the movement instruction or the magnification change instruction is input, the CPU 61 returns to S1 and displays the live image of the observation object W on the display unit 2. After that, when the movement of the mounting table 30 is stopped, the CPU 61 executes the generation of the unevenness-enhanced image again.

<ヘッド部22の内部構成>
図8はヘッド部22の内部構成を示している。レボルバ21は少なくとも三つのマウント50a、50b、50cを有している。マウント50a、50b、50cにはそれぞれ対物レンズ23a、23b、23cが接続されている。対物レンズ23aは、たとえば、低倍率の対物レンズである。対物レンズ23aの瞳位置には電動絞り37aが設けられている。電動絞り37aはモータなどにより駆動されて絞り量が変化する可変絞りである。この例では、対物レンズ23aが観察光軸A1に配置されている。対物レンズ23aの鏡筒の周囲にはリング照明26が設けられている。対物レンズ23bも電動絞り37bを有しているが、リング照明26を有していない。対物レンズ23cの瞳位置は鏡筒の外部に存在するため、鏡筒内には絞りが設けられていない。電動絞り37cは、対物レンズ23とハーフミラー38との間に配置された絞りである。この例では、電動絞り37cは対物レンズ23cの瞳位置に設けられている。ハーフミラー38は観察光軸A1に配置されており、同軸落射照明27からの照明光を対物レンズ23に導く。ハーフミラー38は、対物レンズ23からの入射光を、結像レンズ41などを介して撮像部25へ導く。同軸落射照明27とハーフミラー38との間には集光レンズ39が配置されている。同軸落射照明27と集光レンズ39との間には電動絞り37dが配置されている。電動絞り37a〜37dはCPU61の撮像制御部62により制御される。
<Internal configuration of head section 22>
FIG. 8 shows the internal structure of the head portion 22. The revolver 21 has at least three mounts 50a, 50b, 50c. Objective lenses 23a, 23b and 23c are connected to the mounts 50a, 50b and 50c, respectively. The objective lens 23a is, for example, a low-magnification objective lens. An electric diaphragm 37a is provided at the pupil position of the objective lens 23a. The electric diaphragm 37a is a variable diaphragm that is driven by a motor or the like to change the diaphragm amount. In this example, the objective lens 23a is arranged on the observation optical axis A1. A ring illumination 26 is provided around the lens barrel of the objective lens 23a. The objective lens 23b also has an electric diaphragm 37b, but does not have the ring illumination 26. Since the pupil position of the objective lens 23c exists outside the lens barrel, no diaphragm is provided inside the lens barrel. The motorized diaphragm 37c is a diaphragm arranged between the objective lens 23 and the half mirror 38. In this example, the electric diaphragm 37c is provided at the pupil position of the objective lens 23c. The half mirror 38 is arranged on the observation optical axis A1 and guides the illumination light from the coaxial incident illumination 27 to the objective lens 23. The half mirror 38 guides the incident light from the objective lens 23 to the imaging unit 25 via the imaging lens 41 and the like. A condenser lens 39 is arranged between the coaxial epi-illumination 27 and the half mirror 38. An electric diaphragm 37d is arranged between the coaxial epi-illumination 27 and the condenser lens 39. The electric diaphragms 37a to 37d are controlled by the imaging control unit 62 of the CPU 61.

結像レンズ群は、狭視野の結像レンズ41a、広視野の結像レンズ41b、レンズアダプタ43を有している。結像レンズ41aと結像レンズ41bはスライド部材49aに保持されている。結像レンズ41a、結像レンズ41b、レンズアダプタ43の各瞳位置が電動絞り37cの設置位置となるように、結像レンズ41a、結像レンズ41b、レンズアダプタ43は設計されている。スライド部材49aはフレーム40aに対してスライド可能に保持されている。この例ではスライド部材49aは結像レンズ駆動部42により駆動されることで、図8において左右にスライドする。なお、図8における左右は、拡大観察装置100の前後に相当する。フレーム40aの両端には停止部材44a、44bが設けられている。図9が示すように、スライド部材49aが停止部材44bに接触して停止することで、結像レンズ41aが観察光軸A1に位置決めされる。図10が示すように、スライド部材49aが停止部材44aに接触して停止することで、結像レンズ41bが観察光軸A1に位置決めされる。レンズアダプタ43はスライド部材49bに保持されている。スライド部材49bはフレーム40bに対してスライド可能に保持されている。この例ではスライド部材49bは結像レンズ駆動部42により駆動されることで、図8において左右にスライドする。なお、レンズアダプタ43は結像レンズ41aと組み合わされて使用される。レンズアダプタ43は、たとえば、倍率を二倍等に変更するレンズである。図9、図10が示すように、スライド部材49bが停止部材44cに接触して停止することで、レンズアダプタ43が観察光軸A1から離間する。図11が示すように、スライド部材49bが停止部材44dに接触して停止することで、レンズアダプタ43が観察光軸A1に位置決めされる。 The imaging lens group includes a narrow-field imaging lens 41a, a wide-field imaging lens 41b, and a lens adapter 43. The imaging lens 41a and the imaging lens 41b are held by the slide member 49a. The imaging lens 41a, the imaging lens 41b, and the lens adapter 43 are designed such that the pupil positions of the imaging lens 41a, the imaging lens 41b, and the lens adapter 43 are the installation positions of the electric diaphragm 37c. The slide member 49a is held slidably with respect to the frame 40a. In this example, the slide member 49a is driven by the imaging lens drive unit 42 to slide left and right in FIG. The left and right in FIG. 8 correspond to the front and back of the magnifying observation apparatus 100. Stop members 44a and 44b are provided at both ends of the frame 40a. As shown in FIG. 9, when the slide member 49a comes into contact with the stop member 44b and stops, the imaging lens 41a is positioned on the observation optical axis A1. As shown in FIG. 10, when the slide member 49a comes into contact with the stop member 44a and stops, the imaging lens 41b is positioned on the observation optical axis A1. The lens adapter 43 is held by the slide member 49b. The slide member 49b is held slidably with respect to the frame 40b. In this example, the slide member 49b is driven by the imaging lens driving unit 42 to slide to the left and right in FIG. The lens adapter 43 is used in combination with the imaging lens 41a. The lens adapter 43 is, for example, a lens for changing the magnification to double or the like. As shown in FIGS. 9 and 10, when the slide member 49b comes into contact with the stop member 44c and stops, the lens adapter 43 is separated from the observation optical axis A1. As shown in FIG. 11, when the slide member 49b comes into contact with the stop member 44d and stops, the lens adapter 43 is positioned on the observation optical axis A1.

図12は、ヘッド部22がチルトしていない状態における結像レンズ41a、結像レンズ41bおよびフレーム40aおよび停止部材44a、44bを示している。スライド部材49aの図示は省略されている。図13は、ヘッド部22がチルトしている状態における結像レンズ41a、結像レンズ41b、フレーム40aおよび停止部材44a、44bを示している。図12と図13とからわかるように、結像レンズ41aおよび結像レンズ41bのスライド方向とチルト軸とは平行である。そのため、ヘッド部22がチルトしても、結像レンズ41aと結像レンズ41bはスライドしにくくなっている。なお、レンズアダプタ43とスライド部材49bについても同様である。さらに、スライド方向と鉛直方向とが直交することで、ヘッド部22がチルトしても、結像レンズ41a、41bにかかる重力は変化しない。これは、スライド部材49をスライドさせるモータの負荷が重力の影響を受けないことを意味する。 FIG. 12 shows the imaging lens 41a, the imaging lens 41b, the frame 40a, and the stop members 44a and 44b when the head portion 22 is not tilted. Illustration of the slide member 49a is omitted. FIG. 13 shows the imaging lens 41a, the imaging lens 41b, the frame 40a, and the stop members 44a and 44b when the head portion 22 is tilted. As can be seen from FIGS. 12 and 13, the sliding directions of the imaging lenses 41a and 41b are parallel to the tilt axis. Therefore, even if the head portion 22 is tilted, the imaging lenses 41a and 41b are unlikely to slide. The same applies to the lens adapter 43 and the slide member 49b. Further, since the sliding direction and the vertical direction are orthogonal to each other, the gravity applied to the imaging lenses 41a and 41b does not change even if the head portion 22 is tilted. This means that the load of the motor that slides the slide member 49 is not affected by gravity.

このように結像レンズ41の切替方式としてスライド方式が説明された。スライド方式では、停止部材44によって結像レンズ41やレンズアダプタ43が位置決めされるため、スライド部材49をスライドさせるためのギア機構のバックラッシュの影響を受けにくい。スライド方式に代えて、レボルバ方式などが採用されてもよい。 Thus, the slide system has been described as the system for switching the imaging lens 41. In the slide system, since the imaging lens 41 and the lens adapter 43 are positioned by the stop member 44, the influence of backlash of the gear mechanism for sliding the slide member 49 is less likely to occur. A revolver system or the like may be adopted instead of the slide system.

レンズアダプタ43は倍率変換アダプタとして機能する。結像レンズ41a、41bの焦点位置が撮像部25のCMOSセンサの受光面に一致するように結像レンズ41a、41bは保持されている。 The lens adapter 43 functions as a magnification conversion adapter. The imaging lenses 41a and 41b are held so that the focal positions of the imaging lenses 41a and 41b coincide with the light receiving surface of the CMOS sensor of the imaging unit 25.

スライド方式ではフレーム40に対して三つ以上の結像レンズ41を保持させてもよい。しかし、停止部材44による位置決め機構を採用する場合、一つのフレーム40に対して二つの結像レンズ41が保持される。結像レンズ41の切り替えによる三段階以上の観察倍率切替を実現するために、フレーム40の多段化が採用されてもよい。たとえば、フレーム40bにそれぞれ倍率の異なる二つのレンズアダプタ43が搭載されてもよい。なお、結像レンズ41aにレンズアダプタ43が組み合わされたときの焦点位置はやはりCMOSセンサの受光面に一致するようにレンズアダプタ43が設計されている。これにより、レンズアダプタ43が観察光軸A1に配置されてもピントのずれは発生しない。 In the slide system, three or more imaging lenses 41 may be held on the frame 40. However, when the positioning mechanism using the stop member 44 is adopted, the two imaging lenses 41 are held with respect to one frame 40. In order to realize the switching of the observation magnification in three steps or more by switching the imaging lens 41, the multi-stage of the frame 40 may be adopted. For example, two lens adapters 43 having different magnifications may be mounted on the frame 40b. The lens adapter 43 is designed so that the focus position when the imaging lens 41a is combined with the lens adapter 43 is also coincident with the light receiving surface of the CMOS sensor. As a result, even if the lens adapter 43 is arranged on the observation optical axis A1, no focus shift occurs.

<対物レンズ>
図14、15は対物レンズ23とマウント50との関係を示している。対物レンズ23は接続部59を有している。接続部59はマウント50に対して嵌合または螺合することで、対物レンズ23をレボルバ21に固定する。接続部59とマウント50の固定方式としては、たとえば、螺合式とバヨネット式とがある。螺合式では、接続部59に設けられた内ねじと、マウント50に設けられた外ねじとが螺合する。図15が示すように、接続部59はフランジ75を有している。フランジ75のフランジ面は光軸に対して垂直である。これにより、観察光軸A1に対して対物レンズ23の光軸を位置決めしやすくなる。フランジ75は位置決め穴45と電子接点46とを有している。図14が示すように、レボルバ21に設けられた位置決めピン51が位置決め穴45に挿入されることで、対物レンズ23がレボルバ21に対して位置決めされる。電子接点46aはレボルバ21側の電子接点46bと電気的に接続する。電子接点46a、46bは電力供給用の接点や通信用の接点などを含む。制御基板47は、電子接点46a、46bを介してCPU61から制御信号を受信し、制御信号にしたがって電動絞り37aを駆動するモータ48やリング照明26を制御する。制御基板47は、CPU、通信回路、メモリ、光源を駆動する駆動回路、モータ48を駆動する駆動回路などを有していてもよい。制御基板47の通信回路はCPU61から識別情報の要求を受信すると、メモリから識別情報を読み出して、CPU61に送信する。このように、メモリは対物レンズ23の識別情報などを記憶している。電動絞り37aはモータ48と絞り羽とを含む。
<Objective lens>
14 and 15 show the relationship between the objective lens 23 and the mount 50. The objective lens 23 has a connecting portion 59. The connecting portion 59 is fitted or screwed to the mount 50 to fix the objective lens 23 to the revolver 21. As a method of fixing the connection portion 59 and the mount 50, there are, for example, a screw type and a bayonet type. In the screw type, an inner screw provided on the connection portion 59 and an outer screw provided on the mount 50 are screwed together. As shown in FIG. 15, the connecting portion 59 has a flange 75. The flange surface of the flange 75 is perpendicular to the optical axis. This makes it easier to position the optical axis of the objective lens 23 with respect to the observation optical axis A1. The flange 75 has a positioning hole 45 and an electronic contact 46. As shown in FIG. 14, the positioning pin 51 provided on the revolver 21 is inserted into the positioning hole 45, whereby the objective lens 23 is positioned with respect to the revolver 21. The electronic contact 46a is electrically connected to the electronic contact 46b on the revolver 21 side. The electronic contacts 46a and 46b include contacts for power supply and contacts for communication. The control board 47 receives a control signal from the CPU 61 via the electronic contacts 46a and 46b, and controls the motor 48 and the ring illumination 26 that drive the electric diaphragm 37a according to the control signal. The control board 47 may include a CPU, a communication circuit, a memory, a drive circuit that drives the light source, a drive circuit that drives the motor 48, and the like. When the communication circuit of the control board 47 receives the request for the identification information from the CPU 61, the communication circuit reads the identification information from the memory and sends it to the CPU 61. Thus, the memory stores the identification information of the objective lens 23 and the like. The electric diaphragm 37a includes a motor 48 and diaphragm blades.

<同軸落射照明>
図16は同軸落射照明27における光源の配置を示している。光源群54aは第一照明方向から照明光を観察対象物Wに照射するための複数のLED53a、53e、53f、53i、53j、53k、53qを有している。光源群54cは第二照明方向から照明光を観察対象物Wに照射するための複数のLED53c、53e、53g、53h、53m、53n、53oを有している。光源群54bは第三照明方向から照明光を観察対象物Wに照射するための複数のLED53b、53e、53g、53l、53k、53mを有している。光源群54dは第四照明方向から照明光を観察対象物Wに照射するための複数のLED53d、53e、53h、53i、53o、53p、53qを有している。
<Coaxial epi-illumination>
FIG. 16 shows the arrangement of light sources in the coaxial incident illumination 27. The light source group 54a has a plurality of LEDs 53a, 53e, 53f, 53i, 53j, 53k, 53q for irradiating the observation object W with illumination light from the first illumination direction. The light source group 54c has a plurality of LEDs 53c, 53e, 53g, 53h, 53m, 53n, 53o for irradiating the observation object W with illumination light from the second illumination direction. The light source group 54b has a plurality of LEDs 53b, 53e, 53g, 53l, 53k, 53m for irradiating the observation object W with illumination light from the third illumination direction. The light source group 54d has a plurality of LEDs 53d, 53e, 53h, 53i, 53o, 53p, 53q for irradiating the observation object W with illumination light from the fourth illumination direction.

たとえば、高倍率観察ではLED53eだけが点灯してもよい。高倍率の対物レンズ23を用いて第一照明方向から照明光を偏射する場合には、LED53aだけが点灯してもよい。高倍率の対物レンズ23を用いて第二照明方向から照明光を偏射する場合には、LED53cだけが点灯してもよい。中倍率の対物レンズ23を用いて第一照明方向から照明光を偏射する場合には、LED53a、53jが同時に点灯してもよい。中倍率の対物レンズ23を用いて第二照明方向から照明光を偏射する場合には、LED53c、53nが同時に点灯してもよい。 For example, in high magnification observation, only the LED 53e may be turned on. When the illumination light is deflected from the first illumination direction using the high-magnification objective lens 23, only the LED 53a may be turned on. When the illumination light is deflected from the second illumination direction using the high-magnification objective lens 23, only the LED 53c may be turned on. When the illumination light is deflected from the first illumination direction using the medium-magnification objective lens 23, the LEDs 53a and 53j may be turned on at the same time. When the illumination light is deflected from the second illumination direction using the medium-magnification objective lens 23, the LEDs 53c and 53n may be turned on at the same time.

ところで、低倍率の対物レンズのワーキングディスタンスは長く、高倍率の対物レンズのワーキングディスタンスは短い。そのため、低倍率の対物レンズ23aはリング照明26を採用することで、観察対象物Wの表面観察と凹凸観察が実現可能となる。一方、高倍率の対物レンズ23にリング照明26を採用すると、暗視野観察となる。そのため、エッジ部分のみが光り、表面からの反射光が得にくくなる。そのため、高倍率の対物レンズ23に同軸落射照明27を適用することで、観察対象物Wの表面観察が実現される。 By the way, the working distance of a low-magnification objective lens is long, and the working distance of a high-magnification objective lens is short. Therefore, by adopting the ring illumination 26 for the low-magnification objective lens 23a, surface observation and unevenness observation of the observation object W can be realized. On the other hand, if the ring illumination 26 is used for the high-magnification objective lens 23, dark-field observation is performed. Therefore, only the edge portion shines and it becomes difficult to obtain the reflected light from the surface. Therefore, by applying the coaxial epi-illumination 27 to the high-magnification objective lens 23, the surface observation of the observation object W is realized.

図4を用いて説明したように、リング照明26を用いて二方向から照明光を偏射することで凹凸強調画像が得られる。そこで、同軸落射照明27についても二方向から照明光を偏射することで高倍率の対物レンズ23でも凹凸強調画像が得られるようになる。同軸落射照明27を用いた偏射はハレーション除去された観察画像を生成するために利用されてもよい。同軸落射照明27を用いた深度合成も実現可能である。 As described with reference to FIG. 4, the unevenness-enhanced image can be obtained by irradiating the illumination light from the two directions using the ring illumination 26. Therefore, even with respect to the coaxial epi-illumination 27, the unevenness-enhanced image can be obtained even with the high-magnification objective lens 23 by illuminating the illumination light from two directions. Biased illumination with coaxial epi-illumination 27 may be used to generate a de-haled viewing image. Depth composition using the coaxial epi-illumination 27 can also be realized.

<リング照明>
図17は、低倍率の対物レンズ23に採用されるリング照明26の構造を示している。複数のLED55はリング状の基板上に取り付けられている。LED55から出力された照明光は集光レンズ56により集光され、照明レンズ57を介して観察対象物Wに照射される。集光レンズ56と照明レンズ57との間には拡散板58が採用されてもよい。LED55は一次光源として機能するが、拡散板58は二次光源として機能する。照明レンズ57は二次光源からの照明光をリレーするリレーレンズとして機能している。これらにより、リング照明26はケーラー照明に近い照明を実現している。照明レンズ57は径方向にのみ曲率を有するため、光量ロスが発生しうる。そこで、半径方向に曲率を持たせるために、集光レンズ56としてトロイダルレンズが採用されてもよい。これにより光量ロスが軽減される。
<Ring lighting>
FIG. 17 shows the structure of the ring illumination 26 used in the low-magnification objective lens 23. The plurality of LEDs 55 are mounted on a ring-shaped substrate. The illumination light output from the LED 55 is condensed by the condenser lens 56, and is irradiated onto the observation target W via the illumination lens 57. A diffusion plate 58 may be adopted between the condenser lens 56 and the illumination lens 57. The LED 55 functions as a primary light source, while the diffuser plate 58 functions as a secondary light source. The illumination lens 57 functions as a relay lens that relays the illumination light from the secondary light source. Due to these, the ring illumination 26 realizes illumination close to Koehler illumination. Since the illumination lens 57 has a curvature only in the radial direction, a light amount loss may occur. Therefore, a toroidal lens may be adopted as the condenser lens 56 in order to have a curvature in the radial direction. This reduces the light amount loss.

図18は、高倍率の対物レンズ23に採用されるリング照明26の構造を示している。複数のLED55はリング状の基板上に取り付けられている。LED55から出力された照明光は集光レンズ56により集光され、照明レンズ57と拡散板58を介して観察対象物Wに照射される。図18においては照明レンズ57がミラーにより構成されている。高倍率の対物レンズ23では狭い視野に効率よく照明光を集中させなければならない。光量ロスを軽減するには、LED55からの光をできる限り平行光として観察対象物Wに照射することが求められる。そのため、照明光は対物レンズ23の外周から視野領域に向かって強く屈折しなければならない。そこで、照明レンズ57として、高屈折率の材料が採用されるか、反射光学系が採用される。ただし、このような光学部品を採用すると、光源が視野領域に写り込んでしまう可能性がある。これを解決するために、拡散板58が採用されている。 FIG. 18 shows the structure of the ring illumination 26 used in the high-magnification objective lens 23. The plurality of LEDs 55 are mounted on a ring-shaped substrate. The illumination light output from the LED 55 is condensed by the condenser lens 56, and is irradiated onto the observation target W via the illumination lens 57 and the diffusion plate 58. In FIG. 18, the illumination lens 57 is composed of a mirror. With the high-magnification objective lens 23, the illumination light must be efficiently concentrated in a narrow field of view. In order to reduce the light amount loss, it is required to irradiate the observation object W with the light from the LED 55 as parallel light as much as possible. Therefore, the illumination light must be strongly refracted from the outer periphery of the objective lens 23 toward the visual field region. Therefore, a material having a high refractive index or a reflective optical system is used as the illumination lens 57. However, if such an optical component is adopted, the light source may be reflected in the visual field area. In order to solve this, the diffusion plate 58 is adopted.

このように対物レンズ23のNA(開口数)や視野に合わせてリング照明26が設計される。なお、一つのLED55につき一つの集光レンズ56が設けられることで、導光効率が向上する。 In this way, the ring illumination 26 is designed according to the NA (numerical aperture) of the objective lens 23 and the field of view. The light guiding efficiency is improved by providing one condenser lens 56 for each LED 55.

<照明の自動切替>
複数の種類の照明装置を有している拡大観察装置100ではユーザが点灯すべき照明装置を選択する作業が必要となる。しかし、対物レンズ23の倍率ごとに適切な照明装置は異なるため、ユーザにとって適切な照明装置を選択することは困難な場合があった。
<Automatic switching of lighting>
In the magnifying observation apparatus 100 having a plurality of types of illumination devices, the user needs to select the illumination device to be turned on. However, since an appropriate illumination device differs depending on the magnification of the objective lens 23, it may be difficult for the user to select an appropriate illumination device.

図19は照明の自動切替を示すフローチャートである。S21でCPU61はコンソール部3などからレボルバ21の回転指示(倍率切替指示)が入力されたかどうかを判定する。回転指示が入力されると、CPU61は、回転指示に基づいてレボルバ駆動部24を制御し、レボルバ21を回転させ、S22に進む。 FIG. 19 is a flowchart showing automatic switching of lighting. In S21, the CPU 61 determines whether or not a rotation instruction (magnification switching instruction) of the revolver 21 is input from the console unit 3 or the like. When the rotation instruction is input, the CPU 61 controls the revolver driving unit 24 based on the rotation instruction, rotates the revolver 21, and proceeds to S22.

S22でCPU61は対物レンズ23の識別情報を取得する。たとえば、CPU61は電子接点46a、46bを介して制御基板47と通信することで、制御基板47のメモリに保持されている識別情報を取得してもよい。識別情報は、対物レンズ23の機種名を示す情報であってもよいし、対物レンズ23の倍率を示す倍率情報、照明装置の有無または種類を示す照明情報などを含んでもよい。CPU61は、対物レンズ23の機種名に基づき、対応する倍率情報や照明情報を記憶部67から取得してもよい。 In S22, the CPU 61 acquires the identification information of the objective lens 23. For example, the CPU 61 may obtain the identification information held in the memory of the control board 47 by communicating with the control board 47 via the electronic contacts 46a and 46b. The identification information may be information indicating the model name of the objective lens 23, magnification information indicating the magnification of the objective lens 23, illumination information indicating the presence or absence or type of the illumination device, or the like. The CPU 61 may acquire corresponding magnification information and illumination information from the storage unit 67 based on the model name of the objective lens 23.

S23でCPU61は対物レンズ23の識別情報に基づき照明を選択する。たとえば、対物レンズ23がリング照明26を有していることを識別情報が直接的または間接的に示している場合、CPU61はリング照明26を照明装置として選択する。対物レンズ23がリング照明26を有していないことを識別情報が直接的または間接的に示している場合、CPU61は同軸落射照明27を照明装置として選択する。直接的とは、対物レンズ23から取得される識別情報に、リング照明26の有無を示す情報が含まれていることを示す。間接的とは、対物レンズ23から取得される識別情報にリング照明26の有無を示す有無情報が含まれていないものの、対物レンズ23から取得される識別情報に紐付されている有無情報が記憶部67などから取得可能であることを示す。 In S23, the CPU 61 selects illumination based on the identification information of the objective lens 23. For example, when the identification information directly or indirectly indicates that the objective lens 23 has the ring illumination 26, the CPU 61 selects the ring illumination 26 as the illumination device. When the identification information directly or indirectly indicates that the objective lens 23 does not have the ring illumination 26, the CPU 61 selects the coaxial incident illumination 27 as the illumination device. Directly means that the identification information obtained from the objective lens 23 includes information indicating the presence or absence of the ring illumination 26. Indirectly, the presence/absence information indicating the presence/absence of the ring illumination 26 is not included in the identification information obtained from the objective lens 23, but the presence/absence information associated with the identification information obtained from the objective lens 23 is stored in the storage unit. 67 and the like can be acquired.

S24でCPU61はユーザにより選択された観察手法に基づき点灯すべき光源と、同時に点灯する各光源の照明光量とを決定する。観察手法としては、たとえば、表面観察と凹凸観察とがあってもよい。また、表面観察には、表面反射による白飛びを軽減するモード(ハレーション除去)などが含まれてもよい。 In S24, the CPU 61 determines a light source to be turned on and the amount of illumination light of each light source to be turned on at the same time, based on the observation method selected by the user. The observation method may include, for example, surface observation and unevenness observation. In addition, the surface observation may include a mode (halation removal) for reducing whiteout due to surface reflection.

対物レンズ23aを用いた表面観察が指定されると、CPU61は、リング照明26を選択する。また、CPU61は、光源領域140A〜140Dを同時に点灯させることを選択し、光源領域140A〜140Dの照明光量の合計値が所定光量となるように、光源領域140A〜140Dの各照明光量を決定する。なお、ユーザによりハレーション除去が選択されると、CPU61は光源領域140A〜140Dを一つずつ点灯させて、四つの輝度画像を生成する。画像プロセッサ66は、四つの輝度画像における同一位置の四つの画素の輝度値を比較し、最も輝度値の大きな画素を除いた残りの三つの画素を用いてその位置の画素の輝度値を演算(例:平均値演算)する。この場合、光源領域140A〜140Dを一つずつ点灯するため、光源領域140A〜140Dの各照明光量が所定光量となるようにCPU61は照明光量を決定する。凹凸観察が選択されると、CPU61は、凹凸観察に使用される光源領域140A、140C(または光源領域140B、140D)の各照明光量が所定光量となるようにCPU61は照明光量を決定する。 When the surface observation using the objective lens 23a is designated, the CPU 61 selects the ring illumination 26. Further, the CPU 61 selects to turn on the light source areas 140A to 140D at the same time, and determines the respective illumination light quantities of the light source areas 140A to 140D so that the total value of the illumination light quantities of the light source areas 140A to 140D becomes a predetermined light quantity. .. When halation removal is selected by the user, the CPU 61 lights the light source regions 140A to 140D one by one to generate four luminance images. The image processor 66 compares the brightness values of the four pixels at the same position in the four brightness images, and calculates the brightness value of the pixel at that position using the remaining three pixels excluding the pixel with the largest brightness value ( (Example: Average value calculation) In this case, since the light source regions 140A to 140D are turned on one by one, the CPU 61 determines the illumination light amount so that the respective illumination light amounts of the light source regions 140A to 140D become the predetermined light amount. When the unevenness observation is selected, the CPU 61 determines the illumination light amount so that the respective illumination light amounts of the light source regions 140A and 140C (or the light source regions 140B and 140D) used for the unevenness observation become a predetermined light amount.

対物レンズ23b、23cが選択されると、CPU61は同軸落射照明27を選択する。表面観察において、最高倍率の対物レンズ23が選択されると、CPU61はLED53eだけを選択して点灯させてもよい。CPU61はLED53eの照明光量が所定量となるようにLED53eに流れる駆動電流を制御する。凹凸観察において高倍率の対物レンズ23が選択されると、CPU61はLED53a、53cのペア(またはLED53b、53dのペア)を選択して点灯させる。 When the objective lenses 23b and 23c are selected, the CPU 61 selects the coaxial incident illumination 27. In the surface observation, when the objective lens 23 with the highest magnification is selected, the CPU 61 may select only the LED 53e to light it. The CPU 61 controls the drive current flowing through the LED 53e so that the illumination light amount of the LED 53e becomes a predetermined amount. When the high-magnification objective lens 23 is selected in the unevenness observation, the CPU 61 selects the pair of LEDs 53a and 53c (or the pair of LEDs 53b and 53d) to light them.

中倍率の対物レンズ23において表面観察が選択されると、CPU61は、LED53a〜53iを選択し、これらの合計光量が所定光量となるように、LED53a〜53iの各駆動電流を制御する。中倍率の対物レンズ23において凹凸観察が選択されると、CPU61は、LED53a、53cのペア(またはLED53b、53dのペア)を選択して点灯させる。LED53a、53cは同時に点灯しないため、LED53a、53cの各光量が所定光量となるようにCPU61はそれぞれの駆動電流を制御する。 When the surface observation is selected in the medium-magnification objective lens 23, the CPU 61 selects the LEDs 53a to 53i and controls the drive currents of the LEDs 53a to 53i so that the total light amount of these LEDs becomes a predetermined light amount. When unevenness observation is selected in the medium-magnification objective lens 23, the CPU 61 selects a pair of LEDs 53a and 53c (or a pair of LEDs 53b and 53d) to light them. Since the LEDs 53a and 53c are not turned on at the same time, the CPU 61 controls respective drive currents so that the respective light amounts of the LEDs 53a and 53c become a predetermined light amount.

リング照明26を有しない低倍率の対物レンズ23において表面観察が選択されると、CPU61は、LED53a〜53qを選択し、これらの合計光量が所定光量となるように、LED53a〜53qの各駆動電流を制御する。低倍率の対物レンズ23において凹凸観察が選択されると、CPU61は、LED53a、53jと、LED53c、53nとからなるペア(またはLED53b、53lと、LED53d、53pとのペア)を選択して点灯させる。LED53a、53jは同時に点灯するため、LED53a、53jの合計光量が所定光量となるように、CPU61はLED53a、53jの駆動電流を制御する。同様に、LED53c、53nは同時に点灯するため、LED53c、53nの合計光量が所定光量となるように、CPU61はLED53c、53nの駆動電流を制御する。 When the surface observation is selected in the low-magnification objective lens 23 that does not have the ring illumination 26, the CPU 61 selects the LEDs 53a to 53q, and the drive currents of the LEDs 53a to 53q are adjusted so that the total light amount of the LEDs 53a to 53q becomes a predetermined light amount. To control. When unevenness observation is selected in the low-magnification objective lens 23, the CPU 61 selects and turns on a pair of LEDs 53a and 53j and LEDs 53c and 53n (or a pair of LEDs 53b and 53l and LEDs 53d and 53p). .. Since the LEDs 53a and 53j are turned on at the same time, the CPU 61 controls the drive currents of the LEDs 53a and 53j so that the total amount of light of the LEDs 53a and 53j becomes a predetermined amount of light. Similarly, since the LEDs 53c and 53n are turned on at the same time, the CPU 61 controls the drive currents of the LEDs 53c and 53n so that the total amount of light of the LEDs 53c and 53n becomes a predetermined amount of light.

なお、対物レンズ23の種類や観察手法に依存して、リング照明26と同軸落射照明27との両方が点灯してもよい。 Both the ring illumination 26 and the coaxial incident illumination 27 may be turned on depending on the type of the objective lens 23 and the observation method.

<絞り量の決定>
金属顕微鏡や生物顕微鏡は無限遠補正光学系を採用している。無限遠補正光学系は、固定焦点距離の結像レンズ(焦点距離ft)と、レボルバによって切り替え可能な複数の固定焦点距離の対物レンズ(焦点距離fo)とを有している。倍率Mは、焦点距離ftを焦点距離foで除算することで算出される。複数の対物レンズは、その取付部から焦点位置までの距離が同一(同焦点距離)となるように設計されている。これにより、対物レンズが切り替えられてもピントずれが発生しない。
<Determination of aperture amount>
Metallurgical microscopes and biological microscopes employ infinity correction optics. The infinity correction optical system has an imaging lens with a fixed focal length (focal length ft) and a plurality of objective lenses with a fixed focal length (focal length fo) that can be switched by a revolver. The magnification M is calculated by dividing the focal length ft by the focal length fo. The plurality of objective lenses are designed so that the distances from the mounting portions to the focal positions are the same (parfocal distance). As a result, even if the objective lens is switched, no focus shift occurs.

一般に、対物レンズの倍率M(例:5倍、10倍、100倍など)は、それらの対物レンズを、顕微鏡に備わっている結像レンズに組み合わせたときの観察倍率を示している。たとえば、一般的な顕微鏡の結像レンズ(ft=180mm)に焦点距離foが18mmの対物レンズを組み合わせられると、観察倍率は10倍となる。 Generally, the magnification M of the objective lens (eg, 5 times, 10 times, 100 times, etc.) indicates the observation magnification when these objective lenses are combined with an imaging lens provided in the microscope. For example, when an objective lens having a focal length fo of 18 mm is combined with an image forming lens (ft=180 mm) of a general microscope, the observation magnification becomes 10 times.

このような光学系では、観察倍率に応じた専用の対物レンズが用意される。つまり、使用目的に応じた解像度や作動距離の対物レンズが設計される。そのため、観察倍率の数だけ対物レンズが必要となり、顕微鏡システムが大掛かりで、かつ、高価になる。 In such an optical system, a dedicated objective lens corresponding to the observation magnification is prepared. That is, an objective lens having a resolution and working distance according to the purpose of use is designed. Therefore, as many objective lenses as observation magnifications are required, which makes the microscope system large and expensive.

一方、実体顕微鏡では、結像レンズとして、1倍から10倍まで倍率を可変できるズーム光学系が採用されることがある。これにより、1本の対物レンズによって幅広い倍率帯がカバー可能となる。ただし、ズーム操作によってズームレンズ内のレンズが移動すると共に、結像光学系と対物レンズとの間に存在する、解像度制御のための絞りの径(絞り量)が変更され、開口数(NA:Numerical Aperture)が変更される。一般的に低倍率(広視野)だと絞り径は小さく、高倍率(挟視野)だと絞り径は大きくなる。ズームレンズに対して、倍率の異なる複数の対物レンズを組み合わせることで、1倍から100倍までの観察倍率がカバーされてもよい。ただし、結像レンズの入射瞳位置はズーム倍率によって大きく変化するため、対物レンズの射出瞳位置と一致しなくなってしまう。これは視野の外周での光量低下(シェーディング)やテレセントリック性の劣化を招く。観察倍率に応じて適切な解像度を設定するためには、対物レンズの射出瞳位置に対応する位置に設けられた電動絞りを制御して、対物レンズの開口数が変更される必要がある。しかし、射出瞳位置は対物レンズの設計によって異なる。低倍率の対物レンズでは対物レンズの外側に射出瞳位置が存在し、高倍率の対物レンズでは内部に射出瞳位置が存在する。そのため、複数の対物レンズを切り替えて使用する切替式では、複数の対物レンズに好適な絞り位置でのNA制御を単一の絞により提供することができない。よって、シェーディングやテレセントリック性の劣化が発生しうる。 On the other hand, in a stereoscopic microscope, a zoom optical system that can change the magnification from 1 to 10 times is sometimes used as an imaging lens. As a result, a wide range of magnification can be covered by one objective lens. However, as the lens in the zoom lens moves due to the zoom operation, the diameter (aperture amount) of the aperture existing between the imaging optical system and the objective lens for resolution control is changed, and the numerical aperture (NA: Numerical Aperture) is changed. Generally, at low magnification (wide field of view), the diaphragm diameter is small, and at high magnification (narrow field), the diaphragm diameter is large. By combining a zoom lens with a plurality of objective lenses having different magnifications, an observation magnification of 1 to 100 may be covered. However, since the entrance pupil position of the imaging lens largely changes depending on the zoom magnification, it does not coincide with the exit pupil position of the objective lens. This causes a decrease in the amount of light (shading) and deterioration of telecentricity at the outer periphery of the visual field. In order to set an appropriate resolution according to the observation magnification, it is necessary to change the numerical aperture of the objective lens by controlling an electric diaphragm provided at a position corresponding to the exit pupil position of the objective lens. However, the exit pupil position differs depending on the design of the objective lens. A low-magnification objective lens has an exit pupil position outside the objective lens, and a high-magnification objective lens has an exit pupil position inside. Therefore, in the switching type in which a plurality of objective lenses are switched and used, NA control at a diaphragm position suitable for a plurality of objective lenses cannot be provided by a single diaphragm. Therefore, shading and deterioration of telecentricity may occur.

そこで、本実施形態では、焦点距離を変更可能な結像レンズ群を有し、ユーザの倍率指定指示に基づき結像レンズの焦点距離が設定される。また、複数の電動絞りのうち対物レンズに対して適切な位置に配置された電動絞りが制御される。電動絞りの絞り量は、対物レンズの倍率に対して適切となるように決定される。電動絞りは対物レンズの光学設計上の開口位置(瞳位置)に相当する位置に設置される。図8に示したように、電動絞り37aは対物レンズ23aの瞳位置に設置されている。電動絞り37bは対物レンズ23bの瞳位置に設置されている。電動絞り37cは対物レンズ23cの瞳位置に設置されている。結像レンズ41の入射瞳位置が電動絞り37cの近傍になるように結像レンズ41を設計できるため、画質の向上に役立つ。 Therefore, in the present embodiment, an imaging lens group whose focal length can be changed is provided, and the focal length of the imaging lens is set based on the user's magnification designation instruction. Further, the motorized diaphragm, which is arranged at an appropriate position with respect to the objective lens, of the plurality of motorized diaphragms is controlled. The diaphragm amount of the motorized diaphragm is determined so as to be appropriate for the magnification of the objective lens. The motorized diaphragm is installed at a position corresponding to the aperture position (pupil position) in the optical design of the objective lens. As shown in FIG. 8, the electric diaphragm 37a is installed at the pupil position of the objective lens 23a. The electric diaphragm 37b is installed at the pupil position of the objective lens 23b. The electric diaphragm 37c is installed at the pupil position of the objective lens 23c. Since the imaging lens 41 can be designed so that the entrance pupil position of the imaging lens 41 is near the electric diaphragm 37c, it is useful for improving the image quality.

ところで、絞り量はユーザが求める解像度に応じて決定される。また、解像度は開口数NAに相関する。撮像部25側の光学分解能(像側NAi)が一定となるようにCPU61は絞り量を決定してもよい。
NAi=NAo/M・・・(1)
ここでNAoは対物レンズ側のNAである。Mは観察倍率である。この場合に絞り量φは次式により求められる。
φ=NAi/ft・・・(2)
これは焦点距離が2倍になったら瞳径も2倍にするように絞り量を制御することで、像側NAiが一定になることを意味している。
ここで像側NAiは次のようにして決定されうる。
(i)ユーザが分解能(像側NAi)を直接指定する。
(ii)撮像部25の画素数に基づいて像側NAiを計算する。
(iii)解像度と被写界深度とについてのユーザの要求に基づき像側NAiを決定する。
(iv)各対物レンズと各観察倍率に応じて求められる光学特性を考慮して予め作成されたテーブルに基づき観察倍率を像側NAiに変換する。
By the way, the aperture amount is determined according to the resolution desired by the user. Also, the resolution correlates with the numerical aperture NA. The CPU 61 may determine the diaphragm amount so that the optical resolution (image-side NAi) on the imaging unit 25 side becomes constant.
NAi=NAo/M (1)
Here, NAo is the NA on the objective lens side. M is an observation magnification. In this case, the aperture amount φ is calculated by the following equation.
φ=NAi/ft (2)
This means that the image side NAi becomes constant by controlling the diaphragm amount so that the pupil diameter is also doubled when the focal length is doubled.
Here, the image-side NAi can be determined as follows.
(I) The user directly specifies the resolution (image side NAi).
(Ii) The image-side NAi is calculated based on the number of pixels of the image pickup unit 25.
(Iii) Determine the image-side NAi based on the user's request for resolution and depth of field.
(Iv) The observation magnification is converted to the image-side NAi based on a table created in advance in consideration of the optical characteristics obtained according to each objective lens and each observation magnification.

被写界深度(ピントの深さ)はNAoの自乗に反比例する。顕微鏡においては低倍率で視野を探す際に被写界深度が深いことが好まれる。 The depth of field (depth of focus) is inversely proportional to the square of NAo. In a microscope, it is preferable that the depth of field is deep when searching a field of view at low magnification.

●テーブルの例
図20は観察倍率Mを像側NAiに変換するテーブルの一例を示している。テーブルC1は、観察倍率Mに依存することなく一定の像側NAiを出力するテーブルである。テーブルC2は低倍率側で深度を優先して像側NAiを小さくし、高倍率側で解像度を優先して像側NAiを大きくするテーブルである。テーブルC3は、ある倍率までは一定の像側NAiを出力するが、ある倍率を超えると徐々に像側NAiを減少させるテーブルである。高倍率の対物レンズ23においては、理論上、NAoが0.95以下となる。これは、倍率が大きくなると瞳径を大きく取ることができなくなることを意味する。対物レンズ23の特性に依存してテーブルC3が採用されてもよい。
Example of Table FIG. 20 shows an example of a table for converting the observation magnification M to the image side NAi. The table C1 is a table that outputs a constant image-side NAi without depending on the observation magnification M. The table C2 is a table that prioritizes depth on the low magnification side to reduce the image-side NAi, and prioritizes resolution on the high magnification side to increase the image-side NAi. The table C3 outputs a constant image-side NAi up to a certain magnification, but gradually decreases the image-side NAi when the magnification exceeds a certain magnification. In the high-magnification objective lens 23, NAo is theoretically 0.95 or less. This means that the pupil diameter cannot be increased as the magnification increases. The table C3 may be adopted depending on the characteristics of the objective lens 23.

●撮像制御部
図21は撮像制御部62を説明する図である。対物レンズ認識部81は、対物レンズ23と通信することで対物レンズ23の識別情報を取得し、識別情報に基づき対物レンズ23を認識する。UI部65は、倍率選択部73を通じて観察倍率Mを受け付けたり、テーブル選択部78を通じて深度優先テーブル84と解像度優先テーブル85とのうちのどちらかの選択を受け付けたりする。なお、UI部65は、像側NAiの入力を受け付けたり、解像度と被写界深度とについてのユーザの要求を受け付けたりしてもよい。
Imaging Control Section FIG. 21 is a diagram illustrating the imaging control section 62. The objective lens recognition unit 81 acquires the identification information of the objective lens 23 by communicating with the objective lens 23, and recognizes the objective lens 23 based on the identification information. The UI unit 65 receives the observation magnification M through the magnification selection unit 73, and receives either the depth priority table 84 or the resolution priority table 85 through the table selection unit 78. Note that the UI unit 65 may receive an input from the image side NAi, or may receive a user request for resolution and depth of field.

結像レンズ決定部82はUI部65を通じて入力された観察倍率Mと、対物レンズ認識部81により認識された対物レンズ23の焦点距離foとに基づき、結像レンズ41の焦点距離ftを求める。さらに、結像レンズ決定部82は、求められた焦点距離ftの結像レンズ41が観察光軸A1に位置するように結像レンズ駆動部42を制御する。なお、結像レンズ決定部82は、記憶部67に記憶されている結像レンズ情報86を参照することで、結像レンズ41a、41b、レンズアダプタ43の各焦点距離ftを取得する。絞り量決定部83は、UI部65で受け付けられた観察倍率Mとユーザの好み(深度優先/場解像度優先など)に基づき絞り量φを決定する。たとえば、ユーザの好みが深度優先であれば、絞り量決定部83は、記憶部67に保持されている深度優先テーブル84を参照し、入力された観察倍率Mに対応する像側NAiを決定し、さらに、像側NAiと結像レンズ41の焦点距離ftとから絞り量φを決定する。ユーザの好みが解像度優先であれば、絞り量決定部83は、記憶部67に保持されている解像度優先テーブル85を参照し、入力された観察倍率Mに対応する像側NAiを決定し、さらに、像側NAiと結像レンズ41の焦点距離ftとから絞り量φを決定する。絞り量決定部83は、対物レンズ認識部81により認識された対物レンズ23に対応する電動絞り37に絞り量φを設定する。 The imaging lens determination unit 82 determines the focal length ft of the imaging lens 41 based on the observation magnification M input through the UI unit 65 and the focal length fo of the objective lens 23 recognized by the objective lens recognition unit 81. Further, the imaging lens determination unit 82 controls the imaging lens driving unit 42 so that the imaging lens 41 having the obtained focal length ft is located on the observation optical axis A1. The imaging lens determination unit 82 acquires the focal lengths ft of the imaging lenses 41a and 41b and the lens adapter 43 by referring to the imaging lens information 86 stored in the storage unit 67. The aperture amount determination unit 83 determines the aperture amount φ based on the observation magnification M accepted by the UI unit 65 and the user's preference (depth priority/field resolution priority). For example, if the user's preference is depth priority, the aperture amount determination unit 83 refers to the depth priority table 84 stored in the storage unit 67 and determines the image-side NAi corresponding to the input observation magnification M. Further, the diaphragm amount φ is determined from the image side NAi and the focal length ft of the imaging lens 41. If the user's preference is resolution priority, the aperture amount determination unit 83 refers to the resolution priority table 85 held in the storage unit 67, determines the image side NAi corresponding to the input observation magnification M, and further, , The aperture amount φ is determined from the image side NAi and the focal length ft of the imaging lens 41. The aperture amount determination unit 83 sets the aperture amount φ to the electric aperture 37 corresponding to the objective lens 23 recognized by the objective lens recognition unit 81.

●デジタルズーム
撮像部25と画像プロセッサ66を採用しているため、デジタルズームが容易に実現可能である。撮像部25の画素数(例:10メガピクセル)と比較して、表示部2の画素数(例:2メガピクセル)は少ない。表示部2に全視野を表示することがユーザにより指示されると、画像プロセッサ66は画像をデジタル縮小して表示部2に表示してもよい。この場合、観察視野が変わるため、絞り量決定部83は、視野が狭くなるにつれて連続的に絞り量を小さくしてもよい。これにより、ズームレンズの倍率切替のような連続的な視野の切替と解像度の変更が実現されてもよい。
● Digital zoom Since the image pickup unit 25 and the image processor 66 are adopted, digital zoom can be easily realized. The number of pixels of the display unit 2 (eg, 2 megapixels) is smaller than the number of pixels of the imaging unit 25 (eg, 10 megapixels). When the user instructs to display the entire field of view on the display unit 2, the image processor 66 may digitally reduce the image and display the image on the display unit 2. In this case, since the observation visual field changes, the diaphragm amount determining unit 83 may continuously reduce the diaphragm amount as the visual field becomes narrow. Thereby, continuous switching of the field of view and change of the resolution such as switching of the magnification of the zoom lens may be realized.

●シームレスな倍率変更
観察倍率Mは、結像レンズ41の焦点距離と対物レンズ23の焦点距離との組み合わせにより実現される。しかし、結像レンズ41の数と対物レンズ23のとは有限であることから、結像レンズ41の焦点距離と対物レンズ23の焦点距離との組み合わせにより実現不可能な観察倍率Mもある。この場合、画像プロセッサ66は、ユーザにより指定された観察倍率Mの画像が表示部2に表示されるよう、撮像部25により取得された画像をデジタル拡大/縮小してもよい。これによりシームレスな倍率変更が実現されてもよい。
-Seamless magnification change The observation magnification M is realized by a combination of the focal length of the imaging lens 41 and the focal length of the objective lens 23. However, since the number of the image forming lenses 41 and the number of the objective lenses 23 are finite, there is an observation magnification M that cannot be realized depending on the combination of the focal length of the image forming lenses 41 and the objective lens 23. In this case, the image processor 66 may digitally enlarge/reduce the image acquired by the imaging unit 25 so that the image having the observation magnification M designated by the user is displayed on the display unit 2. As a result, seamless magnification change may be realized.

画像プロセッサ66は、第一の焦点距離の結像レンズ41aを第二の焦点距離の結像レンズ41bに切り替えるが開始されてから完了するまでの切替期間において、結像レンズ41aを用いて取得された画像に基づき、結像レンズ41bによる観察倍率の画像を疑似的に生成して、表示部2に表示してもよいし、拡大・縮小を示すアニメーションを表示してもよい。 The image processor 66 is acquired by using the imaging lens 41a during the switching period from the start to the completion of switching the imaging lens 41a having the first focal length to the imaging lens 41b having the second focal length. An image of the observation magnification by the imaging lens 41b may be pseudo-generated based on the image and displayed on the display unit 2, or an animation indicating enlargement/reduction may be displayed.

対物レンズ23と結像レンズ41の組み合わせを変更すると、画像の明るさが変化する。そこで、CPU61は、絞り量φ、対物レンズ23の焦点距離、および結像レンズ41の焦点距離から画像の明るさの変化量を計算し、変化量を補償するように照明光量を補正してもよい。 When the combination of the objective lens 23 and the imaging lens 41 is changed, the brightness of the image changes. Therefore, the CPU 61 calculates the amount of change in the brightness of the image from the diaphragm amount φ, the focal length of the objective lens 23, and the focal length of the imaging lens 41, and corrects the illumination light amount so as to compensate for the amount of change. Good.

●同軸落射照明の絞り
射出瞳径の小さい対物レンズ23を使用するケースや、広視野観察および深度優先観察のために対物レンズ23の電動絞りを絞るケースでは、同軸落射照明27で照明を行うことがある。この場合、同軸落射照明27は瞳径の外部に照明光を照射することになるため、対物レンズ23の電動絞りなどで反射した光により不必要な迷光が発生する。このような迷光は画像のコントラストを低下させる。
● Coaxial epi-illumination diaphragm When using the objective lens 23 with a small exit pupil diameter, or in the case of narrowing the electric diaphragm of the objective lens 23 for wide-field observation and depth-first observation, use the coaxial epi-illumination 27 for illumination. There is. In this case, since the coaxial epi-illumination 27 irradiates the illumination light to the outside of the pupil diameter, unnecessary stray light is generated by the light reflected by the electric diaphragm of the objective lens 23. Such stray light reduces the contrast of the image.

そこで、図8が示すように、同軸落射照明27の開口絞りとして電動絞り37dが設けられてもよい。撮像制御部62は、電動絞り37dを制御することで、同軸落射照明27の光束径を、現在の観察状態の射出瞳径と略同一に制御する。これにより同軸落射照明27に起因した迷光が生じにくくなり、画像のコントラスが向上する。現在の観察状態の射出瞳径は、観察光軸A1に配置された対物レンズ23の射出瞳系である。電動絞り37a、37b、37cの絞り量など、観察光軸A1に配置された対物レンズ23の絞り量に応じて電動絞り37dの絞り量が決定される。 Therefore, as shown in FIG. 8, an electric diaphragm 37d may be provided as an aperture diaphragm of the coaxial incident illumination 27. The imaging control unit 62 controls the electric diaphragm 37d to control the light flux diameter of the coaxial epi-illumination 27 to be substantially the same as the exit pupil diameter in the current observation state. As a result, stray light caused by the coaxial epi-illumination 27 is less likely to occur, and the image contrast is improved. The exit pupil diameter in the current observation state is the exit pupil system of the objective lens 23 arranged on the observation optical axis A1. The diaphragm amount of the electric diaphragm 37d is determined according to the diaphragm amount of the objective lens 23 arranged on the observation optical axis A1, such as the diaphragm amounts of the motorized diaphragms 37a, 37b, and 37c.

<まとめ>
図1などを用いて説明したように、ヘッド部22は対物レンズと結像レンズとを含む光学系として機能する。載置台30は少なくともX方向とY方向とに光学系に対して相対的に移動可能なXYステージの一例である。検知部68は光学系に対するXYステージの相対的な移動を検知する検知部として機能する。リング照明26は光学系の視野に載置された観察対象物Wに対してそれぞれ異なる方向から照明光を照射する照明部として機能する。撮像部25は光学系を介して観察対象物Wからの光を受光して観察対象物Wの輝度画像を生成する。Z方向駆動部28は、光学系の光軸A1に沿って光学系の合焦位置を変化させる変化部として機能する。制御部60は照明部、撮像部および変化部を制御する制御部として機能する。表示部2は観察対象物Wの画像である観察画像を表示する表示部として機能する。画像プロセッサ66は、(i)照明部を制御することで観察対象物に対して第一照明方向から照明光を観察対象物に対して照射し、変化部と撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで観察対象物を撮像することで複数の第一輝度画像を取得し、(ii)照明部を制御することで観察対象物に対して第一照明方向に対して光軸を挟んで対称となる第二照明方向から照明光を観察対象物に対して照射し、変化部と撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで観察対象物を撮像することで複数の第二輝度画像を取得し、(iii)複数の第一輝度画像と複数の第二輝度画像とについて深度合成および凹凸強調することで観察対象物の表面の凹凸が強調され、かつ、撮像部により取得可能な単一の輝度画像と比較して被写界深度の広い凹凸強調画像を生成する画像生成部として機能する。表示部2は、観察画像として、凹凸強調画像を表示する。これにより、深度合成された凹凸強調画像が提供される。
<Summary>
As described with reference to FIG. 1 and the like, the head unit 22 functions as an optical system including an objective lens and an imaging lens. The mounting table 30 is an example of an XY stage that can move relative to the optical system in at least the X and Y directions. The detection unit 68 functions as a detection unit that detects the relative movement of the XY stage with respect to the optical system. The ring illumination 26 functions as an illumination unit that illuminates the observation object W placed in the visual field of the optical system with illumination light from different directions. The imaging unit 25 receives light from the observation object W via the optical system and generates a brightness image of the observation object W. The Z-direction drive unit 28 functions as a changing unit that changes the focus position of the optical system along the optical axis A1 of the optical system. The control unit 60 functions as a control unit that controls the illumination unit, the imaging unit, and the changing unit. The display unit 2 functions as a display unit that displays an observation image that is an image of the observation object W. The image processor 66 (i) irradiates the observation target with illumination light from the first illumination direction by controlling the illumination unit, controls the changing unit and the imaging unit, and controls a plurality of different units. A plurality of first luminance images are acquired by imaging the observation object at each of the in-focus positions, and (ii) the illumination unit is controlled to control the optical axis of the observation object with respect to the first illumination direction. By irradiating the observation object with illumination light from the second illumination direction that is symmetrical with respect to, and controlling the changing unit and the imaging unit to image the observation object at each of a plurality of different in-focus positions. Acquiring a plurality of second luminance images, and (iii) depth combination and unevenness enhancement of the plurality of first luminance images and the plurality of second luminance images enhances the unevenness of the surface of the observation target and captures the image. It functions as an image generation unit that generates an unevenness-enhanced image with a wider depth of field than a single luminance image that can be acquired by the unit. The display unit 2 displays the embossed image as the observation image. This provides a depth-combined unevenness-enhanced image.

表示部2は、検知部68がXYステージの相対的な移動を検知している間は、観察画像として、撮像部25により取得された観察対象物Wの動画像(ライブ画像)を表示する。表示部2は、検知部68がXYステージの相対的な移動の停止を検知すると、観察画像として、XYステージの相対的な移動の停止後に画像生成部により生成された凹凸強調画像を表示する。これにより、ユーザは、撮像部25の視野範囲と観察対象物Wとの関係を確認しながら、XYステージを移動させることが可能となる。また、ユーザは、XYステージが静止すると、すぐに深度合成された凹凸強調画像を見ることができるため、効率よく観察対象物Wを観察することが可能となる。 The display unit 2 displays a moving image (live image) of the observation target object W acquired by the imaging unit 25 as an observation image while the detection unit 68 detects the relative movement of the XY stage. When the detection unit 68 detects the stop of the relative movement of the XY stage, the display unit 2 displays the unevenness-enhanced image generated by the image generation unit after the relative movement of the XY stage is stopped as the observation image. As a result, the user can move the XY stage while confirming the relationship between the visual field range of the imaging unit 25 and the observation target object W. Further, since the user can immediately see the depth-combined unevenness-enhanced image when the XY stage is stationary, the user can efficiently observe the observation object W.

検知部68は、光学系の倍率の変更をさらに検知するように構成されていてもよい。表示部2は、検知部68がXYステージの相対的な移動を検知している間は、観察画像として、撮像部25により取得された観察対象物Wの動画像を表示する。さらに、表示部2は、検知部68がXYステージの相対的な移動の停止と、光学系の倍率の変更とを検知すると、観察画像として、XYステージの相対的な移動の停止と倍率の変更後に画像生成部により生成された凹凸強調画像を表示してもよい。 The detection unit 68 may be configured to further detect a change in the magnification of the optical system. The display unit 2 displays the moving image of the observation target object W acquired by the imaging unit 25 as the observation image while the detection unit 68 detects the relative movement of the XY stage. Further, when the detection unit 68 detects that the relative movement of the XY stage is stopped and the magnification of the optical system is changed, the display unit 2 stops the relative movement of the XY stage and changes the magnification as an observation image. The unevenness-enhanced image generated by the image generation unit may be displayed later.

図5や図6に示したように、表示部2は、動画像の表示領域と凹凸強調画像の表示領域とを有していてもよい。 As shown in FIGS. 5 and 6, the display unit 2 may have a display area for a moving image and a display area for a concave-convex emphasized image.

検知部68は対物レンズ23のマニュアルまたはオートフォーカスによるピント調整が完了したことを検知してもよい。対物レンズ23の倍率が変更されると、撮像制御部62はZ方向駆動部28を制御し、オートフォーカスを実行する。よって、倍率が変更され、対物レンズ23のピント調整が完了したことをトリガーとして凹凸強調画像が生成されてもよい。 The detection unit 68 may detect that the focus adjustment of the objective lens 23 by manual or auto focus is completed. When the magnification of the objective lens 23 is changed, the imaging control unit 62 controls the Z direction drive unit 28 to execute auto focus. Therefore, the concave-convex emphasized image may be generated with the magnification changed and the completion of the focus adjustment of the objective lens 23 as a trigger.

UI部65は、さらに、ユーザーインタフェース70とは別にナビ画像を表示する別ウインドウを表示部2に表示してもよい。ナビ画像とは、倍率の低い対物レンズ23を用いて取得された観察対象物Wの画像などである。ユーザがナビ画像における観察部位をポインタ74で指定すると、UI部65は、ナビ画像における指定位置を載置台30の座標上の位置に変換し、載置台30を当該位置へ移動させる。これにより、簡単に観察部位を視野範囲内に収めることが可能となる。 The UI unit 65 may further display a separate window for displaying a navigation image on the display unit 2 separately from the user interface 70. The navigation image is, for example, an image of the observation object W acquired using the objective lens 23 having a low magnification. When the user designates the observation site in the navigation image with the pointer 74, the UI unit 65 converts the designated position in the navigation image into the coordinate position of the mounting table 30, and moves the mounting table 30 to the position. As a result, it becomes possible to easily fit the observation site within the visual field range.

深度合成部33は、複数の第一輝度画像を深度合成することで第一深度合成画像を生成するとともに、複数の第二輝度画像を深度合成することで第二深度合成画像を生成する深度合成部として機能する。凹凸強調部34は第一深度合成画像と第二深度合成画像との輝度の差分に基づき凹凸強調画像を生成する強調画像生成部として機能する。 The depth stacking unit 33 creates a first depth stacking image by depth stacking a plurality of first brightness images, and a depth stacking process that creates a second depth stacking image by depth stacking a plurality of second brightness images. Function as a department. The unevenness emphasizing unit 34 functions as an emphasized image generation unit that generates an unevenness emphasized image based on the difference in brightness between the first depth combined image and the second depth combined image.

深度合成部33は、複数の第一輝度画像においてそれぞれ画素位置が同じである複数の画素を解析し、複数の画素のうちで最も合焦度の高い画素を、当該画素位置における合焦画素として選択することで、複数の画素位置それぞれの合焦画素からなる第一深度合成画像を生成してもよい。なお、合焦度は、隣接した複数の画素からなる画素領域ごとに求められてもよい。深度合成部33は、複数の第二輝度画像においてそれぞれ画素位置が同じである複数の画素を解析し、複数の画素のうちで最も合焦度の高い画素を、当該画素位置における合焦画素として選択することで、複数の画素位置それぞれの合焦画素からなる第二深度合成画像を生成してもよい。 The depth synthesizing unit 33 analyzes a plurality of pixels having the same pixel position in each of the plurality of first luminance images, and determines the pixel with the highest degree of focusing among the plurality of pixels as the focused pixel at the pixel position. The selection may be performed to generate the first depth composite image including the in-focus pixels at each of a plurality of pixel positions. Note that the focus degree may be obtained for each pixel area including a plurality of adjacent pixels. The depth synthesizing unit 33 analyzes a plurality of pixels having the same pixel position in the plurality of second luminance images, and determines the pixel with the highest degree of focus among the plurality of pixels as the focus pixel at the pixel position. The selection may be performed to generate a second depth composite image including in-focus pixels at each of a plurality of pixel positions.

載置台30は、観察対象物Wを載置され、少なくともX方向とY方向とに移動可能なXYステージの一例である。載置台駆動部29はXYステージを駆動する駆動部の一例である。S12に関連して説明されたように、CPU61はXYステージが移動した後に静止したことを検知する検知部として機能してもよい。CPU61および画像プロセッサ66は、XYステージが移動した後に静止したことを検知部が検知すると、凹凸強調画像の生成を再度実行してもよい。これにより、ユーザは凹凸強調画像の生成を明示的に指示する手間を省略できるようになる。 The mounting table 30 is an example of an XY stage on which the observation object W is mounted and which is movable in at least the X direction and the Y direction. The mounting table drive unit 29 is an example of a drive unit that drives the XY stage. As described in relation to S12, the CPU 61 may function as a detection unit that detects that the XY stage has moved and then stopped. The CPU 61 and the image processor 66 may execute the generation of the unevenness-enhanced image again when the detection unit detects that the XY stage is stationary after moving. This allows the user to save the trouble of explicitly instructing the generation of the unevenness-enhanced image.

CPU61によりXYステージが移動していることが検知されると、CPU61は、撮像部25により取得される動画像(ライブ画像)を表示部2に表示するように構成されていてもよい。CPU61はXYステージが静止したことを検知すると、画像プロセッサ66に凹凸強調画像の生成を再度実行させ、表示部2に凹凸強調画像を表示させてもよい。 When the CPU 61 detects that the XY stage is moving, the CPU 61 may be configured to display the moving image (live image) acquired by the imaging unit 25 on the display unit 2. When the CPU 61 detects that the XY stage is stationary, the CPU 61 may cause the image processor 66 to again generate the unevenness-enhanced image and display the unevenness-enhanced image on the display unit 2.

着色部36は、撮像部25により取得された観察対象物Wについてのカラー画像から色情報を取得して凹凸強調画像をカラー化するカラー合成部として機能してもよい。これにより、ユーザは凹凸と表面色との関係を理解しやすくなろう。 The coloring unit 36 may function as a color combining unit that acquires color information from the color image of the observation object W acquired by the imaging unit 25 and colorizes the unevenness-enhanced image. This makes it easier for the user to understand the relationship between the unevenness and the surface color.

画像プロセッサ66は、第一輝度画像を生成する際にそれぞれ露光時間が異なる複数のサブ輝度画像を取得し、当該複数のサブ輝度画像をHDR処理することで第一輝度画像を生成ししてもよい。同様に、画像プロセッサ66は、第二輝度画像を生成する際にそれぞれ露光時間が異なる複数のサブ輝度画像を取得し、当該複数のサブ輝度画像をHDR処理することで第二輝度画像を生成してもよい。このようにHDR処理を応用することで、白飛びや黒つぶれが軽減され、かつ、深度合成された凹凸強調画像が得られるようになる。 The image processor 66 acquires a plurality of sub-luminance images each having a different exposure time when generating the first luminance image, and performs HDR processing on the plurality of sub-luminance images to generate the first luminance image. Good. Similarly, the image processor 66 acquires a plurality of sub-luminance images each having a different exposure time when generating the second luminance image, and performs a HDR process on the plurality of sub-luminance images to generate the second luminance image. May be. By applying the HDR processing in this way, it is possible to reduce whiteout and underexposure and obtain a depth-combined unevenness-enhanced image.

高さ画像生成部35は、凹凸強調画像の各画素を積分することで各画素ごとに観察対象物の表面の高さを求め、当該高さを各画素とする高さ画像を生成してもよい。さらに、高さ画像生成部35は、高さ画像の各画素を、各画素の高さに応じて着色することでカラー高さ画像を生成してもよい。これにより、クレーター錯視が発生しにくくなり、ユーザはより正確に凹形状と凸形状とを区別できるようになろう。 The height image generation unit 35 obtains the height of the surface of the observation target for each pixel by integrating each pixel of the unevenness-enhanced image, and generates a height image having the height as each pixel. Good. Further, the height image generation unit 35 may generate a color height image by coloring each pixel of the height image according to the height of each pixel. This makes it difficult for the crater illusion to occur, and allows the user to more accurately distinguish between the concave shape and the convex shape.

マウス4、コンソール部3およびCPU61は照明部の照明方向を選択する選択部として機能してもよい。画像プロセッサ66は、照明部を制御することで観察対象物Wに対して第一照明方向および第二照明方向と異なる第三照明方向から照明光を観察対象物Wに対して照射し、変化部と撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで観察対象物を撮像することで複数の第三輝度画像を取得してもよい。画像プロセッサ66は、照明部を制御することで観察対象物に対して第三照明方向に対して光軸を挟んで対称となる第四照明方向から照明光を観察対象物に対して照射し、変化部と撮像部を制御してそれぞれ異なる複数の合焦位置のそれぞれで観察対象物を撮像することで複数の第四輝度画像を取得してもよい。さらに、画像プロセッサ66は、第一照明方向、第二照明方向、第三照明方向および第四照明方向のうち選択部により選択された照明方向に対応した凹凸強調画像を、複数の第一輝度画像、複数の第二輝度画像、複数の第三輝度画像および複数の第四輝度画像のうち選択部により選択された照明方向に対応した複数の輝度画像を用いて生成してもよい。表示部2は、選択部により選択された照明方向に対応した凹凸強調画像を表示してもよい。 The mouse 4, the console unit 3, and the CPU 61 may function as a selection unit that selects the illumination direction of the illumination unit. The image processor 66 irradiates the observation target W with illumination light from a third illumination direction different from the first illumination direction and the second illumination direction by controlling the illumination unit, and the changing unit. The plurality of third luminance images may be acquired by controlling the image capturing unit and capturing the observation target object at each of a plurality of different focus positions. The image processor 66 irradiates the observation object with illumination light from a fourth illumination direction that is symmetrical with respect to the third illumination direction with respect to the third illumination direction by controlling the illumination unit. You may acquire a some 4th brightness|luminance image by controlling a change part and an image pick-up part, and image|photographing an observation target object in each of a plurality of different focus positions, respectively. Further, the image processor 66 outputs a plurality of first luminance images, the unevenness-enhanced image corresponding to the illumination direction selected by the selection unit among the first illumination direction, the second illumination direction, the third illumination direction and the fourth illumination direction. Alternatively, it may be generated using a plurality of brightness images corresponding to the illumination direction selected by the selection unit among the plurality of second brightness images, the plurality of third brightness images, and the plurality of fourth brightness images. The display unit 2 may display the unevenness-enhanced image corresponding to the illumination direction selected by the selection unit.

凹凸強調部34は、複数の第一輝度画像と複数の第二輝度画像とからそれぞれ合焦位置が同じである輝度画像のペアを輝度の差分に基づき合成して、複数の合焦位置のそれぞれについて凹凸の強調された複数のサブ凹凸強調画像を生成してもよい。深度合成部33は、複数のサブ凹凸強調画像を深度合成することで、深度合成された凹凸強調画像を生成する深度合成画像生成部として機能してもよい。このように凹凸強調と深度合成との順番はどちらが先であってもよい。 The unevenness emphasizing unit 34 synthesizes a pair of brightness images having the same in-focus position from the plurality of first brightness images and the plurality of second brightness images based on the difference in brightness, and then combines each of the plurality of focus positions. A plurality of sub unevenness-enhanced images in which unevenness is emphasized may be generated. The depth synthesis unit 33 may function as a depth synthesis image generation unit that generates a depth-synthesized unevenness-enhanced image by depth-synthesizing a plurality of sub-unevenness-enhanced images. As described above, the order of the embossing and the depth stacking may be first.

照明部は、対物レンズ23の周囲に配置されたリング照明26でああってもよい。照明部は、対物レンズ23を通じて照明光を観察対象物Wに照射する、ヘッド部22の内部に設けられた照明光源であってもよい。 The illumination unit may be a ring illumination 26 arranged around the objective lens 23. The illumination unit may be an illumination light source provided inside the head unit 22 that illuminates the observation object W with illumination light through the objective lens 23.

図8が示すように、対物レンズ23a〜23c、結像レンズ41a、41bなどは拡大観察装置100の光学系を形成している。レボルバ21は第一対物レンズと、第二対物レンズとを択一的に光学系の観察光路(観察光軸A1)に配置するレンズ選択部として機能する。リング照明26は第一対物レンズを通過せずに照明光を観察対象物に照射する第一照明部の一例である。同軸落射照明27は第二対物レンズを通過して照明光を観察対象物に照射する第二照明部として機能する。リング照明26の光源領域140Aは観察対象物に対して第一照明方向から照明光を照射する第一光源として機能する。光源領域140Dは観察対象物に対して第二照明方向から照明光を照射する第二光源として機能する。同軸落射照明27のLED53aは観察対象物に対して第一照明方向から照明光を照射する第三光源として機能する。LED53dは観察対象物に対して第二照明方向から照明光を照射する第四光源として機能する。 As shown in FIG. 8, the objective lenses 23a to 23c, the imaging lenses 41a and 41b, and the like form an optical system of the magnifying observation apparatus 100. The revolver 21 functions as a lens selection unit that selectively arranges the first objective lens and the second objective lens in the observation optical path (observation optical axis A1) of the optical system. The ring illumination 26 is an example of a first illumination unit that illuminates the observation object with illumination light without passing through the first objective lens. The coaxial epi-illumination 27 functions as a second illuminating unit that illuminates the observation object with illumination light passing through the second objective lens. The light source region 140A of the ring illumination 26 functions as a first light source that illuminates the observation object with illumination light from the first illumination direction. The light source region 140D functions as a second light source that illuminates the observation object with illumination light from the second illumination direction. The LED 53a of the coaxial epi-illumination 27 functions as a third light source that irradiates the observation object with illumination light in the first illumination direction. The LED 53d functions as a fourth light source that illuminates the observation object with illumination light from the second illumination direction.

CPU61は、観察光路に配置されている対物レンズ23に応じて第一照明部と第二照明部とを選択的に使用する。観察光路に配置されている対物レンズ23に応じて照明装置が自動的に選択されるため、拡大観察装置100を利用するユーザの利便性が向上する。 The CPU 61 selectively uses the first illumination unit and the second illumination unit according to the objective lens 23 arranged in the observation optical path. Since the illumination device is automatically selected according to the objective lens 23 arranged in the observation optical path, the convenience of the user who uses the magnifying observation device 100 is improved.

たとえば、CPU61は、第一対物レンズが観察光路に配置されているときに、第一光源を点灯することで第一照明方向から照明光を観察対象物に対して照射し、撮像部25を制御して観察対象物を撮像することで第一輝度画像を取得する。CPU61は、第二光源を点灯することで第二照明方向から照明光を観察対象物に対して照射し、撮像部25を制御して観察対象物を撮像することで第二輝度画像を取得する。CPU61は画像プロセッサ66を使用して、第一輝度画像と第二輝度画像とに基づき第一観察画像を生成し、表示部2に表示してもよい。CPU61は、第二対物レンズが観察光路に配置されているときに、第三光源を点灯することで第一照明方向から照明光を観察対象物に対して照射し、撮像部25を制御して観察対象物を撮像することで第三輝度画像を取得する。CPU61は、第四光源を点灯することで第二照明方向から照明光を観察対象物に対して照射し、撮像部25を制御して観察対象物を撮像することで第四輝度画像を取得する。画像プロセッサ66は第三輝度画像と第四輝度画像とに基づき第二観察画像を生成する。 For example, the CPU 61 illuminates the observation object with illumination light from the first illumination direction by turning on the first light source when the first objective lens is arranged in the observation optical path, and controls the imaging unit 25. Then, the first luminance image is acquired by imaging the observation object. The CPU 61 illuminates the observation object with illumination light from the second illumination direction by turning on the second light source, and controls the imaging unit 25 to capture an image of the observation object to acquire the second luminance image. .. The CPU 61 may use the image processor 66 to generate a first observation image based on the first luminance image and the second luminance image and display the first observation image on the display unit 2. When the second objective lens is arranged in the observation optical path, the CPU 61 illuminates the observation object with illumination light from the first illumination direction by turning on the third light source, and controls the imaging unit 25. The third luminance image is acquired by imaging the observation target. The CPU 61 illuminates the observation object with illumination light from the second illumination direction by turning on the fourth light source, and controls the imaging unit 25 to capture an image of the observation object to acquire a fourth brightness image. .. The image processor 66 generates a second observation image based on the third luminance image and the fourth luminance image.

CPU61は、第一対物レンズが観察光路に配置されているときに、第一光源および第三光源を点灯することで第一照明方向から照明光を観察対象物に対して照射し、撮像部25を制御して観察対象物を撮像することで第一輝度画像を取得してもよい。また、CPU61は、第二光源および第四光源を点灯することで第二照明方向から照明光を観察対象物に対して照射し、撮像部を制御して観察対象物を撮像することで第二輝度画像を取得してもよい。画像プロセッサ66は、このような第一輝度画像と第二輝度画像とに基づき第一観察画像を生成するように構成されていてもよい。このようにリング照明26による偏射と、同軸落射照明27による偏射とが組み合わされてもよい。 The CPU 61 illuminates the observation object with illumination light from the first illumination direction by turning on the first light source and the third light source when the first objective lens is arranged in the observation optical path, and the imaging unit 25. The first brightness image may be acquired by controlling the image pickup device to image the observation target. Further, the CPU 61 illuminates the observation object with the illumination light from the second illumination direction by turning on the second light source and the fourth light source, and controls the imaging unit to image the observation object. A brightness image may be acquired. The image processor 66 may be configured to generate a first observation image based on such a first luminance image and a second luminance image. In this way, the partial illumination by the ring illumination 26 and the partial illumination by the coaxial epi-illumination 27 may be combined.

ハーフミラー38は、観察光路に配置され、第三光源からの照明光と第四光源から照明光とを第二対物レンズへ導くハーフミラーとして機能する。このようなハーフミラー38を採用することで、同軸落射照明27が実現されてもよい。ここで、同軸落射照明27の光源はヘッド部22の内部に設けられてもよいし、ヘッド部22の外部に設けられてもよい。 The half mirror 38 is arranged in the observation optical path and functions as a half mirror that guides the illumination light from the third light source and the illumination light from the fourth light source to the second objective lens. By adopting such a half mirror 38, the coaxial epi-illumination 27 may be realized. Here, the light source of the coaxial epi-illumination 27 may be provided inside the head portion 22 or outside the head portion 22.

CPU61(照明制御部64)は、第一光源、第二光源、第三光源および第四光源のうち同時に点灯する光源の数に応じて当該同時に点灯する光源の光量を制御することで、観察対象物に照射される照明光の光量を所定量に維持してもよい。 The CPU 61 (illumination control unit 64) controls the light amount of the light sources that are turned on at the same time among the first light source, the second light source, the third light source, and the fourth light source, by controlling the light amount of the light sources that are turned on at the same time. The amount of illumination light with which an object is irradiated may be maintained at a predetermined amount.

図8が示すようにマウント50a〜50cは、第一対物レンズが取り付けられる第一マウントと、第二対物レンズが取り付けられる第二マウントとの一例である。CPU61は、第一マウントを介して第一対物レンズからレンズ識別情報を取得することで第一対物レンズを認識し、第二マウントを介して第二対物レンズからレンズ識別情報を取得することで第二対物レンズを認識してもよい。CPU61はレンズ認識部として機能する。図19が示すように、CPU61は、レンズ識別情報に基づき第一光源、第二光源、第三光源および第四光源の点灯/非点灯を制御してもよい。第一対物レンズのレンズ識別情報は、第一対物レンズの鏡筒の周囲に第一照明部が配置されていることを示す情報を含んでもよい。 As shown in FIG. 8, the mounts 50a to 50c are examples of a first mount to which a first objective lens is attached and a second mount to which a second objective lens is attached. The CPU 61 recognizes the first objective lens by obtaining the lens identification information from the first objective lens via the first mount, and the lens identification information from the second objective lens via the second mount. Two objectives may be recognized. The CPU 61 functions as a lens recognition unit. As shown in FIG. 19, the CPU 61 may control lighting/non-lighting of the first light source, the second light source, the third light source, and the fourth light source based on the lens identification information. The lens identification information of the first objective lens may include information indicating that the first illumination unit is arranged around the lens barrel of the first objective lens.

画像プロセッサ66は上述した手順にしたがって凹凸強調画像を生成してもよい。凹凸強調画像は、被写界深度の広い(深い)凹凸強調画像であってもよい。画像プロセッサ66は、複数の第一輝度画像と複数の第二輝度画像とについて深度合成および凹凸強調することで観察対象物の表面の凹凸が強調され、かつ、撮像部25により取得可能な単一の輝度画像と比較して被写界深度の広い凹凸強調画像を、第一観察画像および第二観察画像として生成してもよい。このように、リング照明26と同軸落射照明27とをそれぞれ使用して、被写界深度の広い凹凸強調画像が生成されてもよい。 The image processor 66 may generate the embossed image according to the procedure described above. The unevenness-enhanced image may be an unevenness-enhanced image with a wide (deep) depth of field. The image processor 66 emphasizes the unevenness on the surface of the observation object by performing depth synthesis and unevenness emphasis on the plurality of first luminance images and the plurality of second luminance images, and a single image that can be acquired by the imaging unit 25. The unevenness-enhanced image having a wider depth of field than that of the luminance image may be generated as the first observation image and the second observation image. In this manner, the ring illumination 26 and the coaxial incident illumination 27 may be used to generate an unevenness-enhanced image with a wide depth of field.

照明方向選択部72は、観察画像における照明方向を選択する方向選択部の一例である。第一照明部(例:リング照明26)は、観察対象物に対して第三照明方向から照明光を照射する第五光源(光源領域140B)と、観察対象物に対して第四照明方向から照明光を照射する第六光源(光源領域140D)とを有してもよい。第二照明部(同軸落射照明27)は、観察対象物に対して第三照明方向から照明光を照射する第七光源(例:LED53b)と、観察対象物に対して第四照明方向から照明光を照射する第八光源(LED53d)とを有してもよい。CPU61は、第一対物レンズが観察光路に配置されているときに、第一光源を点灯することで第一照明方向から照明光を観察対象物に対して照射し、撮像部を制御して観察対象物を撮像することで第一輝度画像を取得し、第二光源を点灯することで第二照明方向から照明光を観察対象物に対して照射し、撮像部を制御して観察対象物を撮像することで第二輝度画像を取得し、第五光源を点灯することで第三照明方向から照明光を観察対象物に対して照射し、撮像部を制御して観察対象物を撮像することで第五輝度画像を取得し、第六光源を点灯することで第四照明方向から照明光を観察対象物に対して照射し、撮像部を制御して観察対象物を撮像することで第六輝度画像を取得してもよい。さらに、CPU61は第二対物レンズが観察光路に配置されているときに、第三光源を点灯することで第一照明方向から照明光を観察対象物に対して照射し、撮像部を制御して観察対象物を撮像することで第三輝度画像を取得し、第四光源を点灯することで第二照明方向から照明光を観察対象物に対して照射し、撮像部を制御して観察対象物を撮像することで第四輝度画像を取得し、第七光源を点灯することで第三照明方向から照明光を観察対象物に対して照射し、撮像部を制御して観察対象物を撮像することで第七輝度画像を取得し、第八光源を点灯することで第四照明方向から照明光を観察対象物に対して照射し、撮像部を制御して観察対象物を撮像することで第八輝度画像を取得してもよい。画像プロセッサ66は、第一照明方向、第二照明方向、第三照明方向および第四照明方向のうち方向選択部により選択された照明方向に対応した観察画像を、第一輝度画像、第二輝度画像、第三輝度画像、第四輝度画像、第五輝度画像、第六輝度画像、第七輝度画像、第八輝度画像のうち方向選択部により選択された照明方向に対応した複数の輝度画像を用いて生成してもよい。 The illumination direction selection unit 72 is an example of a direction selection unit that selects the illumination direction in the observation image. The first illuminator (eg, ring illuminator 26) includes a fifth light source (light source region 140B) that irradiates the observation target with illumination light from the third illumination direction, and an observation target from the fourth illumination direction. A sixth light source (light source region 140D) that emits illumination light may be included. The second illumination unit (coaxial epi-illumination 27) illuminates the observation object with illumination light from the third illumination direction (eg, LED 53b) and illuminates the observation object from the fourth illumination direction. An eighth light source (LED 53d) that emits light may be included. The CPU 61 irradiates the observation object with illumination light from the first illumination direction by turning on the first light source when the first objective lens is arranged in the observation optical path, and controls the imaging unit to perform observation. The first brightness image is acquired by imaging the target object, and the illumination light is emitted from the second illumination direction to the observation target object by turning on the second light source, and the observation unit is controlled by controlling the imaging unit. Acquiring a second luminance image by imaging, illuminating the observation object with illumination light from the third illumination direction by turning on the fifth light source, and controlling the imaging unit to image the observation object. The fifth light intensity image is acquired with, and the sixth light source is turned on to illuminate the observation object with illumination light from the fourth illumination direction, and the imaging unit is controlled to image the observation object. A brightness image may be acquired. Further, when the second objective lens is arranged in the observation optical path, the CPU 61 illuminates the observation object with the illumination light from the first illumination direction by turning on the third light source, and controls the imaging unit. The third luminance image is acquired by imaging the observation target, and the fourth light source is turned on to illuminate the observation target with illumination light from the second illumination direction, and the imaging unit is controlled to control the observation target. To obtain the fourth luminance image, and by turning on the seventh light source, illuminate the observation object with illumination light from the third illumination direction, and control the imaging unit to image the observation object. The seventh luminance image is acquired by illuminating the observation object with illumination light from the fourth illumination direction by turning on the eighth light source, and the imaging unit is controlled to image the observation object. An eight-luminance image may be acquired. The image processor 66 uses the first brightness image and the second brightness as the observation image corresponding to the illumination direction selected by the direction selection unit from among the first illumination direction, the second illumination direction, the third illumination direction, and the fourth illumination direction. A plurality of brightness images corresponding to the illumination direction selected by the direction selection unit among the image, the third brightness image, the fourth brightness image, the fifth brightness image, the sixth brightness image, the seventh brightness image, and the eighth brightness image. It may be generated by using.

図8が示すようにスライド部材49aは第一結像レンズ(例:結像レンズ41a)と第二結像レンズ(例:結像レンズ41b)とのいずれかを選択して観察光路に配置する第一選択部として機能する。レボルバ21は第一対物レンズ(例:対物レンズ23a)と第二対物レンズ(例:対物レンズ23b)とのいずれかを選択して観察光路に配置する第二選択部として機能する。図21が示すように、対物レンズ認識部81は第二選択部により選択された対物レンズを認識する認識部として機能する。倍率選択部73は光学系の倍率を選定する倍率選定部として機能する。電動絞り37a、37b、37cは観察光路に配置された絞りの一例である。結像レンズ決定部82は倍率選定部により選定された光学系の倍率と、認識部により認識された対物レンズとに基づき結像レンズを決定する。撮像制御部62および結像レンズ決定部82は第一結像レンズと第二結像レンズとのうち結像レンズ決定部82により決定された結像レンズが観察光路に配置されるよう第一選択部を制御する制御部として機能する。このようにユーザにより指定または選択された観察倍率に対応した結像レンズが観察光路に配置されるため、ユーザの利便性が向上する。 As shown in FIG. 8, the slide member 49a selects either the first image forming lens (example: image forming lens 41a) or the second image forming lens (example: image forming lens 41b) and arranges it in the observation optical path. Functions as the first selection unit. The revolver 21 functions as a second selection unit that selects either the first objective lens (example: objective lens 23a) or the second objective lens (example: objective lens 23b) and arranges it in the observation optical path. As shown in FIG. 21, the objective lens recognition unit 81 functions as a recognition unit that recognizes the objective lens selected by the second selection unit. The magnification selection unit 73 functions as a magnification selection unit that selects the magnification of the optical system. The motorized diaphragms 37a, 37b, 37c are examples of diaphragms arranged in the observation optical path. The imaging lens determination unit 82 determines the imaging lens based on the magnification of the optical system selected by the magnification selection unit and the objective lens recognized by the recognition unit. The imaging control unit 62 and the imaging lens determination unit 82 first select so that the imaging lens determined by the imaging lens determination unit 82 out of the first imaging lens and the second imaging lens is arranged in the observation optical path. It functions as a control unit that controls the unit. In this way, since the imaging lens corresponding to the observation magnification designated or selected by the user is arranged in the observation optical path, the convenience for the user is improved.

電動絞り37aは、第一対物レンズの瞳位置に配置された第一可変絞りの一例である。電動絞り37cは第二対物レンズの瞳位置に配置された第二可変絞りの一例である。撮像制御部62は認識部により認識された対物レンズが第一対物レンズである場合、第一可変絞りを制御し、認識部により認識された対物レンズが第二対物レンズである場合、第二可変絞りを制御する。このように観察光軸A1に配置された対物レンズ23に適した電動絞り37が選択的に制御されるようになる。 The electric diaphragm 37a is an example of a first variable diaphragm arranged at the pupil position of the first objective lens. The motorized diaphragm 37c is an example of a second variable diaphragm arranged at the pupil position of the second objective lens. The imaging control unit 62 controls the first variable diaphragm when the objective lens recognized by the recognition unit is the first objective lens, and controls the second variable lens when the objective lens recognized by the recognition unit is the second objective lens. Control the aperture. In this way, the electric diaphragm 37 suitable for the objective lens 23 arranged on the observation optical axis A1 is selectively controlled.

図8が示すように、第一対物レンズは第一可変絞りを内蔵していてもよい。これは、第一対物レンズの瞳位置が第一対物レンズの内部に存在する場合に適した配置である。第二可変絞りは第二対物レンズの外側にある観察光路に配置される。これは、第二対物レンズの瞳位置が第二対物レンズの外部に存在する場合に適した配置である。 As shown in FIG. 8, the first objective lens may include a first variable diaphragm. This is an arrangement suitable when the pupil position of the first objective lens exists inside the first objective lens. The second variable diaphragm is arranged in the observation optical path outside the second objective lens. This is an arrangement suitable when the pupil position of the second objective lens is outside the second objective lens.

図20や図21に例示されたテーブルは光学系の倍率と絞り量との関係を示すテーブルの一例である。絞り量決定部83は、テーブルを参照することで、倍率選定部により選定された光学系の倍率に対応する絞り量を決定する絞り決定部として機能する。撮像制御部62は、絞り決定部により決定された絞り量となるように絞りを制御する。

深度優先テーブル84は深度を優先する第一テーブルの一例であり、解像度優先テーブル85は解像度を優先する第二テーブルの一例である。絞り量決定部83は、第一テーブルと第二テーブルとのうちユーザにより選択されたテーブルを使用してもよい。図5に示したように、ユーザはテーブル選択部78を通じていずれかのテーブルを選択してもよい。このようにユーザの好みに応じてテーブルが選択され、選択されたテーブルに基づき絞り用が適切に決定される。
The tables illustrated in FIGS. 20 and 21 are examples of tables showing the relationship between the magnification of the optical system and the aperture amount. The aperture amount determination unit 83 functions as an aperture determination unit that determines the aperture amount corresponding to the magnification of the optical system selected by the magnification selection unit by referring to the table. The imaging control unit 62 controls the diaphragm so that the diaphragm amount is determined by the diaphragm determination unit.

The depth priority table 84 is an example of a first table that prioritizes depth, and the resolution priority table 85 is an example of a second table that prioritizes resolution. The aperture amount determination unit 83 may use a table selected by the user from the first table and the second table. As shown in FIG. 5, the user may select one of the tables through the table selection unit 78. In this way, the table is selected according to the user's preference, and the aperture stop is appropriately determined based on the selected table.

図8ないし図13が示すように、スライド部材49aは、第一結像レンズと、第二結像レンズとを観察光路に対して直交した方向にスライドさせる第一スライド部材として機能する。第一スライド部材は第一フレーム(例:フレーム40a)に対してスライド可能に保持されている。観察光路に対して直交した方向における第一スライド部材の第一端部が第一フレームに設けられた第一停止部材(例:停止部材44a)に接触して停止すると、第二結像レンズが観察光路に配置される。観察光路に対して直交した方向における第一スライド部材の第二端部が第一フレームに設けられた第二停止部材(例:44b)に接触して停止すると、第一結像レンズが観察光路に配置される。これにより、第一結像レンズと第二結像レンズとは観察光路に対して正確に位置決めされよう。 As shown in FIGS. 8 to 13, the slide member 49a functions as a first slide member that slides the first imaging lens and the second imaging lens in the direction orthogonal to the observation optical path. The first slide member is slidably held with respect to the first frame (eg, frame 40a). When the first end portion of the first slide member in the direction orthogonal to the observation optical path comes into contact with the first stop member (for example, stop member 44a) provided on the first frame and stops, the second imaging lens moves. It is placed in the observation light path. When the second end portion of the first slide member in the direction orthogonal to the observation optical path comes into contact with the second stop member (example: 44b) provided on the first frame and stops, the first imaging lens causes the observation optical path to move. Is located in. Thereby, the first image forming lens and the second image forming lens will be accurately positioned with respect to the observation optical path.

レンズアダプタ43は第一結像レンズとともに観察光路に対して直列に配置可能な第三結像レンズの一例である。第一選択部は、第三結像レンズを観察光路に対して直交した方向にスライドさせる第二スライド部材(例:スライド部材49b)を有してもよい。第一選択部は、第一結像レンズ、第二結像レンズおよび第三結像レンズのうち、第一結像レンズのみを観察光路に配置するか、第二結像レンズのみを観察光路に配置するか、または、第一結像レンズと第三結像レンズとを観察光路に配置するように構成されていてもよい。これにより、観察倍率を三段階に切り替えることが可能となる。図13が示すように、観察光路に対して直交した方向(スライド方向)は、拡大観察装置100のチルト軸と平行である。これにより、結像レンズ41をスライドさせるモータにかかる負荷が、ヘッド部22のチルトの影響を受けにくくなる。さらに、スライド方向が鉛直方向と直交していれば、結像レンズ41をスライドさせるモータにかかる負荷が、重力の影響を受けにくくなる。通常、回転型のレボルバや、三箇所を平行移動するスライダが用いられる。しかし、本実施形態では、レンズアダプタ43などの光学アダプタを挿入する形を取ることで、二段の押し当て式スライダが導入可能になっている。これにより、位置決め不要で安価な倍率切り替え機構が実現されている。 The lens adapter 43 is an example of a third imaging lens that can be arranged in series with the observation optical path together with the first imaging lens. The first selection unit may include a second slide member (eg, slide member 49b) that slides the third imaging lens in a direction orthogonal to the observation optical path. The first selection unit arranges only the first imaging lens in the observation optical path among the first imaging lens, the second imaging lens and the third imaging lens, or only the second imaging lens in the observation optical path. Alternatively, the first imaging lens and the third imaging lens may be arranged in the observation optical path. This makes it possible to switch the observation magnification in three steps. As shown in FIG. 13, the direction orthogonal to the observation optical path (sliding direction) is parallel to the tilt axis of the magnifying observation apparatus 100. As a result, the load on the motor that slides the imaging lens 41 is less likely to be affected by the tilt of the head portion 22. Furthermore, if the sliding direction is orthogonal to the vertical direction, the load applied to the motor that slides the imaging lens 41 is less likely to be affected by gravity. Usually, a rotary revolver or a slider that moves in parallel at three positions is used. However, in the present embodiment, by adopting a form in which an optical adapter such as the lens adapter 43 is inserted, a two-stage pressing slider can be introduced. As a result, an inexpensive magnification switching mechanism that does not require positioning is realized.

電動絞り37dは光源とハーフミラーとの間に配置された第三可変絞りの一例である。これにより、照明光に起因した迷光が軽減されるため、画像のコントラストが向上しよう。さらに、電動絞り37dが対物レンズ側の絞り37a、37b、37cの絞り量に応じて変化するように制御されてもよい。これによりさらに迷光が軽減されてもよい。 The motorized diaphragm 37d is an example of a third variable diaphragm arranged between the light source and the half mirror. As a result, stray light caused by the illumination light is reduced, and the image contrast will be improved. Further, the electric diaphragm 37d may be controlled so as to change according to the diaphragm amounts of the diaphragms 37a, 37b, 37c on the objective lens side. This may further reduce stray light.

第二選択部は、レボルバ21により実現されうる。レボルバ21は、第一対物レンズが取り付けられる第一マウント(例:マウント50a)と、第二対物レンズが取り付けられる第二マウント(例:マウント50b)とを有してもよい。図14や図15に関連して説明されたように、第一マウントおよび第二マウントは認識部と通信するための複数の接点(例:電子接点46b)を有している。対物レンズ認識部81は、第一マウントの複数の接点を介して第一対物レンズに設けられ通信部(例:制御基板47)と通信して第一対物レンズの識別情報を取得することで第一対物レンズを認識してもよい。対物レンズ認識部81は、第二マウントの複数の接点を介して第二対物レンズに設けられ通信部と通信することで第二対物レンズの識別情報を取得することで第二対物レンズを認識してもよい。なお、レボルバ21の回転軸にはスリップリングが採用されてもよい。スリップリングとは、リングとブラシとを有する信号伝達機構である。これにより、レボルバ21を回転させたとしても、各マウントに接続された対物レンズの制御基板47と、対物レンズ認識部81とがスリップリングを通じて通信可能となる。このように、スリップリングは、第一マウントおよび第二マウントが認識部と通信するための回転可能な複数の接点の一例である。 The second selection unit can be realized by the revolver 21. The revolver 21 may have a first mount (example: mount 50a) to which the first objective lens is attached and a second mount (example: mount 50b) to which the second objective lens is attached. As described with reference to FIGS. 14 and 15, the first mount and the second mount have a plurality of contacts (eg, electronic contacts 46b) for communicating with the recognition unit. The objective lens recognizing unit 81 is provided in the first objective lens through a plurality of contacts of the first mount and communicates with a communication unit (eg, the control board 47) to acquire the identification information of the first objective lens. One objective lens may be recognized. The objective lens recognition unit 81 recognizes the second objective lens by acquiring the identification information of the second objective lens by communicating with the communication unit provided in the second objective lens through the plurality of contacts of the second mount. May be. A slip ring may be adopted as the rotating shaft of the revolver 21. The slip ring is a signal transmission mechanism having a ring and a brush. As a result, even if the revolver 21 is rotated, the control substrate 47 of the objective lens connected to each mount and the objective lens recognition unit 81 can communicate with each other through the slip ring. Thus, the slip ring is an example of a plurality of rotatable contacts for the first mount and the second mount to communicate with the recognizer.

Claims (14)

第一結像レンズと、
第二結像レンズと、
前記第一結像レンズと前記第二結像レンズとのいずれかを選択して観察光路に配置する第一選択部と、
第一対物レンズと、
第二対物レンズと、
前記第一対物レンズと前記第二対物レンズとのいずれかを選択して前記観察光路に配置する第二選択部と、
前記第二選択部により選択された対物レンズを認識する認識部と、
光学系の倍率を選定する倍率選定部と、
前記観察光路に配置された絞りと、
前記倍率選定部により選定された光学系の倍率と、前記認識部により認識された対物レンズとに基づき結像レンズを決定する結像レンズ決定部と、
前記第一結像レンズと前記第二結像レンズとのうち前記結像レンズ決定部により決定された結像レンズが前記観察光路に配置されるよう前記第一選択部を制御する制御部と
を有することを特徴とする拡大観察装置。
A first imaging lens,
A second imaging lens,
A first selection unit that selects one of the first imaging lens and the second imaging lens and arranges it in the observation optical path;
A first objective lens,
A second objective lens,
A second selection unit that selects one of the first objective lens and the second objective lens and arranges it in the observation optical path;
A recognition unit for recognizing the objective lens selected by the second selection unit,
A magnification selection section for selecting the magnification of the optical system,
A diaphragm arranged in the observation optical path,
An imaging lens determination unit that determines an imaging lens based on the magnification of the optical system selected by the magnification selection unit and the objective lens recognized by the recognition unit;
A control unit that controls the first selection unit so that the imaging lens determined by the imaging lens determination unit of the first imaging lens and the second imaging lens is arranged in the observation optical path. A magnifying observation apparatus having.
前記絞りは、
前記第一対物レンズの瞳位置に配置された第一可変絞りと、
前記第二対物レンズの瞳位置に配置された第二可変絞りと、
を有し、
前記制御部は、
前記認識部により認識された対物レンズが前記第一対物レンズである場合、前記第一可変絞りを制御し、前記認識部により認識された対物レンズが前記第二対物レンズである場合、前記第二可変絞りを制御するように構成されていることを特徴とする請求項1に記載の拡大観察装置。
The diaphragm is
A first variable aperture arranged at the pupil position of the first objective lens;
A second variable aperture arranged at the pupil position of the second objective lens,
Have
The control unit is
When the objective lens recognized by the recognition unit is the first objective lens, the first variable diaphragm is controlled, and when the objective lens recognized by the recognition unit is the second objective lens, the second objective lens is controlled. The magnifying observation apparatus according to claim 1, wherein the magnifying observation apparatus is configured to control the variable diaphragm.
前記第一対物レンズは、前記第一可変絞りを内蔵していることを特徴とする請求項2に記載の拡大観察装置。 The magnifying observation apparatus according to claim 2, wherein the first objective lens incorporates the first variable diaphragm. 前記第二可変絞りは、前記第二対物レンズの外側にある観察光路に配置されていることを特徴とする請求項2または3に記載の拡大観察装置。 The magnifying observation apparatus according to claim 2 or 3, wherein the second variable diaphragm is arranged in an observation optical path outside the second objective lens. 前記光学系の倍率と絞り量との関係を示すテーブルと、
前記テーブルを参照することで前記倍率選定部により選定された光学系の倍率に対応する絞り量を決定する絞り決定部と、をさらに有し、
前記制御部は、前記絞り決定部により決定された絞り量となるように前記絞りを制御することを特徴とする請求項1ないし4のいずれか一項に記載の拡大観察装置。
A table showing the relationship between the magnification of the optical system and the diaphragm amount,
An aperture determination unit that determines the aperture amount corresponding to the magnification of the optical system selected by the magnification selection unit by referring to the table,
The magnifying observation apparatus according to any one of claims 1 to 4, wherein the control unit controls the diaphragm so that the diaphragm amount is determined by the diaphragm determination unit.
前記テーブルは、深度を優先する第一テーブルと、解像度を優先する第二テーブルとを有し、
前記絞り決定部は、前記第一テーブルと前記第二テーブルとのうちユーザにより選択されたテーブルを使用することを特徴とする請求項5に記載の拡大観察装置。
The table has a first table that prioritizes depth and a second table that prioritizes resolution.
The magnifying observation apparatus according to claim 5, wherein the aperture determination unit uses a table selected by a user from the first table and the second table.
前記第一選択部は、
前記第一結像レンズと、前記第二結像レンズとを前記観察光路に対して直交した方向にスライドさせる第一スライド部材を有することを特徴とする請求項1ないし6のいずれか一項に記載の拡大観察装置。
The first selection unit,
7. The first slide member for sliding the first image forming lens and the second image forming lens in a direction orthogonal to the observation light path, according to any one of claims 1 to 6. The magnifying observation device described.
前記第一スライド部材は第一フレームに対してスライド可能に保持されており、
前記観察光路に対して直交した方向における前記第一スライド部材の第一端部が前記第一フレームに設けられた第一停止部材に接触して停止すると、前記第二結像レンズが前記観察光路に配置され、前記観察光路に対して直交した方向における前記第一スライド部材の第二端部が前記第一フレームに設けられた第二停止部材に接触して停止すると、前記第一結像レンズが前記観察光路に配置されることを特徴とする請求項7に記載の拡大観察装置。
The first slide member is slidably held with respect to the first frame,
When the first end portion of the first slide member in the direction orthogonal to the observation light path comes into contact with the first stop member provided on the first frame and stops, the second imaging lens causes the observation light path to move. When the second end of the first slide member in the direction orthogonal to the observation optical path comes into contact with the second stop member provided on the first frame and stops, the first imaging lens Is arranged in the observation optical path, The magnifying observation apparatus according to claim 7, wherein
前記第一結像レンズとともに前記観察光路に対して直列に配置可能な第三結像レンズをさらに有することを特徴とする請求項1ないし8のいずれか一項に記載の拡大観察装置。 The magnifying observation apparatus according to any one of claims 1 to 8, further comprising a third imaging lens that can be arranged in series with the observation optical path together with the first imaging lens. 前記第一選択部は、
前記第三結像レンズを前記観察光路に対して直交した方向にスライドさせる第二スライド部材を有し、
前記第一選択部は、前記第一結像レンズ、前記第二結像レンズおよび前記第三結像レンズのうち、前記第一結像レンズのみを前記観察光路に配置するか、前記第二結像レンズのみを前記観察光路に配置するか、または、前記第一結像レンズと前記第三結像レンズとを前記観察光路に配置するように構成されていることを特徴とする請求項9に記載の拡大観察装置。
The first selection unit,
A second slide member for sliding the third imaging lens in a direction orthogonal to the observation optical path,
The first selecting unit arranges only the first image forming lens in the observation optical path among the first image forming lens, the second image forming lens, and the third image forming lens. 10. The configuration is such that only the image lens is arranged in the observation optical path, or the first imaging lens and the third imaging lens are arranged in the observation optical path. The magnifying observation device described.
前記観察光路に対して直交した方向は、前記拡大観察装置のチルト軸と平行であることを特徴とする請求項7、8および10のいずれか一項に記載の拡大観察装置。 11. The magnifying observation apparatus according to claim 7, wherein a direction orthogonal to the observation optical path is parallel to a tilt axis of the magnifying observation apparatus. 前記第一選択部により選択された対物レンズを介して照明光を観察対象物に照射する光源と、
前記光源から出力された出力光を前記対物レンズへ導くハーフミラーと、
前記光源と前記ハーフミラーとの間に配置された第三可変絞りと
をさらに有することを特徴とする請求項1ないし11のいずれか一項に記載の拡大観察装置。
A light source for irradiating the observation object with illumination light through the objective lens selected by the first selection unit,
A half mirror that guides the output light output from the light source to the objective lens;
12. The magnifying observation apparatus according to claim 1, further comprising a third variable diaphragm disposed between the light source and the half mirror.
前記第二選択部は、レボルバであり、
前記レボルバは、
前記第一対物レンズが取り付けられる第一マウントと、
前記第二対物レンズが取り付けられる第二マウントと、
を有し、
前記第一マウントおよび前記第二マウントは前記認識部と通信するための複数の接点を有し、
前記認識部は、前記第一マウントの前記複数の接点を介して前記第一対物レンズに設けられ通信部と通信することで前記第一対物レンズの識別情報を取得し、当該識別情報に基づき前記第一対物レンズを認識し、前記第二マウントの前記複数の接点を介して前記第二対物レンズに設けられ通信部と通信することで前記第二対物レンズの識別情報を取得し、当該識別情報に基づき前記第二対物レンズを認識することを特徴とする請求項1ないし12のいずれか一項に記載の拡大観察装置。
The second selection unit is a revolver,
The revolver is
A first mount to which the first objective lens is attached,
A second mount to which the second objective lens is attached,
Have
The first mount and the second mount have a plurality of contacts for communicating with the recognition unit,
The recognition unit acquires identification information of the first objective lens by communicating with a communication unit provided in the first objective lens via the plurality of contacts of the first mount, and the identification information based on the identification information. The identification information of the second objective lens is acquired by recognizing the first objective lens and communicating with the communication unit provided in the second objective lens through the plurality of contacts of the second mount, and the identification information is obtained. 13. The magnifying observation apparatus according to claim 1, wherein the second objective lens is recognized based on the.
前記第二選択部は、レボルバであり、
前記レボルバは、
前記第一対物レンズが取り付けられる第一マウントと、
前記第二対物レンズが取り付けられる第二マウントと、
を有し、
前記第一マウントおよび前記第二マウントは前記認識部と通信するための回転可能な複数の接点を介して接続されていることを特徴とする請求項1ないし12のいずれか一項に記載の拡大観察装置。
The second selection unit is a revolver,
The revolver is
A first mount to which the first objective lens is attached,
A second mount to which the second objective lens is attached,
Have
13. The expansion according to claim 1, wherein the first mount and the second mount are connected via a plurality of rotatable contacts for communicating with the recognition unit. Observation device.
JP2018223952A 2018-11-29 2018-11-29 Magnifying observation device Active JP7251957B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018223952A JP7251957B2 (en) 2018-11-29 2018-11-29 Magnifying observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018223952A JP7251957B2 (en) 2018-11-29 2018-11-29 Magnifying observation device

Publications (2)

Publication Number Publication Date
JP2020086298A true JP2020086298A (en) 2020-06-04
JP7251957B2 JP7251957B2 (en) 2023-04-04

Family

ID=70907920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018223952A Active JP7251957B2 (en) 2018-11-29 2018-11-29 Magnifying observation device

Country Status (1)

Country Link
JP (1) JP7251957B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023129805A1 (en) 2022-10-28 2024-05-08 Mitutoyo Corporation OPTICAL DEVICE

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08190056A (en) * 1995-01-09 1996-07-23 Olympus Optical Co Ltd Optical observation device
JPH10293254A (en) * 1997-04-17 1998-11-04 Nikon Corp microscope
JP2005316362A (en) * 2004-03-31 2005-11-10 Olympus Corp Observing device and fluorescent light observing device
JP2011008000A (en) * 2009-06-25 2011-01-13 Olympus Corp Fluorescence observing apparatus and fluorescent observation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08190056A (en) * 1995-01-09 1996-07-23 Olympus Optical Co Ltd Optical observation device
JPH10293254A (en) * 1997-04-17 1998-11-04 Nikon Corp microscope
JP2005316362A (en) * 2004-03-31 2005-11-10 Olympus Corp Observing device and fluorescent light observing device
JP2011008000A (en) * 2009-06-25 2011-01-13 Olympus Corp Fluorescence observing apparatus and fluorescent observation method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023129805A1 (en) 2022-10-28 2024-05-08 Mitutoyo Corporation OPTICAL DEVICE

Also Published As

Publication number Publication date
JP7251957B2 (en) 2023-04-04

Similar Documents

Publication Publication Date Title
JP5875812B2 (en) Microscope system and illumination intensity adjustment method
JP6325816B2 (en) Magnification observation apparatus, magnification image observation method, magnification image observation program, and computer-readable recording medium
US9690088B2 (en) Magnifying observation apparatus, magnified image observing method and computer-readable recording medium
JP6487156B2 (en) Magnification observation apparatus, magnification image observation method, magnification image observation program, and computer-readable recording medium
JP7268991B2 (en) Magnifying observation device
JP5863357B2 (en) Magnification observation apparatus, and image display method and spectroscopic method switching method of magnification observation apparatus
JP7268992B2 (en) Magnifying observation device
US10816783B2 (en) Magnifying observation apparatus
US12013525B2 (en) Magnified observation apparatus
US10859806B2 (en) Magnifying observation apparatus
JP7251957B2 (en) Magnifying observation device
JP6355334B2 (en) Magnification observation apparatus, magnification image observation method, magnification image observation program, and computer-readable recording medium
JP2020086296A (en) Magnifying observation device
US10539775B2 (en) Magnifying observation apparatus
US12282148B2 (en) Magnified observation apparatus, magnified observation method, and non-transitory computer-readable storage medium or storage device
JP2015127769A (en) Magnification observation apparatus, magnification image observation method, magnification image observation program, and computer-readable recording medium
JP2020086294A (en) Magnification observation device
JP6362435B2 (en) Microscope system
JP5532318B2 (en) Microscope device and recording medium
JP2022127537A (en) Enlarging observation device, enlarged image observation method, enlarged image observation program, and computer-readable recording medium, and apparatus storing program
JP7032098B2 (en) Magnifying observation device
JP6062028B2 (en) Magnification observation apparatus and magnification observation method
JP3125124U (en) Infrared microscope
JP6928533B2 (en) Magnifying observation device
US20150355450A1 (en) Observation device, signal output method and computer readable recording medium

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230323

R150 Certificate of patent or registration of utility model

Ref document number: 7251957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250