[go: up one dir, main page]

JP2018013738A - Magnification observation device - Google Patents

Magnification observation device Download PDF

Info

Publication number
JP2018013738A
JP2018013738A JP2016144940A JP2016144940A JP2018013738A JP 2018013738 A JP2018013738 A JP 2018013738A JP 2016144940 A JP2016144940 A JP 2016144940A JP 2016144940 A JP2016144940 A JP 2016144940A JP 2018013738 A JP2018013738 A JP 2018013738A
Authority
JP
Japan
Prior art keywords
light
unit
image
image data
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016144940A
Other languages
Japanese (ja)
Inventor
晋吾 松村
Shingo Matsumura
晋吾 松村
政寛 猪俣
Masahiro Inomata
政寛 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2016144940A priority Critical patent/JP2018013738A/en
Publication of JP2018013738A publication Critical patent/JP2018013738A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a magnification observation device that can easily acquire an image of an observation object according to a user's request.SOLUTION: An observation object S is placed on a stage 121. A light projection part 140 selectively irradiates the observation object S with rays of light in a plurality of emission directions different from each other. A plurality of pieces of original image data showing images of the observation object S when the observation object S is irradiated with the rays of light in the plurality of emission direction are created by an imaging part 132. Thumbnail image data corresponding respectively to the plurality of original image data are created. A plurality of thumbnail images of the observation object S based on the plurality of thumbnail image data created by the imaging part 132 are displayed on a display part 430.SELECTED DRAWING: Figure 1

Description

本発明は、観察対象物を拡大して観察する拡大観察装置に関する。   The present invention relates to a magnification observation apparatus that magnifies and observes an observation object.

観察対象物を拡大して観察するために、拡大観察装置が用いられることがある(例えば特許文献1参照)。特許文献1に記載された顕微鏡システムにおいては、明視野照明光および暗視野照明光が対物レンズを通してステージ上の標本に照射される。ここで、明視野照明光は対物レンズの光軸と平行な方向に出射される照明光であり、暗視野照明光は対物レンズの光軸に対して傾斜した方向に出射される照明光である。標本で反射された観察光が結像レンズを通して撮像装置に入射することにより標本が撮像される。   In order to magnify and observe an observation object, a magnifying observation apparatus may be used (see, for example, Patent Document 1). In the microscope system described in Patent Document 1, bright-field illumination light and dark-field illumination light are applied to a specimen on a stage through an objective lens. Here, bright field illumination light is illumination light emitted in a direction parallel to the optical axis of the objective lens, and dark field illumination light is illumination light emitted in a direction inclined with respect to the optical axis of the objective lens. . The observation light reflected by the sample enters the image pickup device through the imaging lens, and the sample is imaged.

特開2013−72971号公報JP 2013-72971 A

特許文献1に記載された顕微鏡システムにおいては、明視野照明光に対する露光時間と暗視野照明光に対する露光時間との比に応じて、一方の照明光の照明強度が相対的に小さくされる。これにより、明視野照明光の強度と暗視野照明光の強度とが揃えられる。その結果、特許文献1には、明視野照明光と暗視野照明光とを同時に照射した標本を観察するうえで、最も適した照明強度において標本の観察を行うことが可能となると記載されている。また、使用者は、照明強度が最適化された状態の画像から直感的に明視野照明光と暗視野照明光との照明強度の比率を調整することも可能である。   In the microscope system described in Patent Document 1, the illumination intensity of one illumination light is relatively reduced according to the ratio of the exposure time for bright-field illumination light and the exposure time for dark-field illumination light. Thereby, the intensity | strength of bright field illumination light and the intensity | strength of dark field illumination light are arrange | equalized. As a result, Patent Document 1 describes that it is possible to observe a sample at the most suitable illumination intensity when observing a sample irradiated with bright field illumination light and dark field illumination light simultaneously. . In addition, the user can intuitively adjust the ratio of the illumination intensity between the bright field illumination light and the dark field illumination light from the image with the illumination intensity optimized.

しかしながら、照明強度等の適切な撮像条件は、観察対象物の形状および材質により異なる。そのため、熟練していない使用者には、適切な撮像条件において撮像された画像を取得することは困難である。また、事後的に撮像条件が適切ではなかったことが判明する場合がある。このような場合、異なる撮像条件において観察対象物の撮像を再度行う必要があり、使用者の負担が増加する。   However, appropriate imaging conditions such as illumination intensity vary depending on the shape and material of the observation object. Therefore, it is difficult for an unskilled user to acquire an image captured under appropriate imaging conditions. In addition, there may be cases where the imaging conditions are not appropriate afterwards. In such a case, it is necessary to image the observation object again under different imaging conditions, which increases the burden on the user.

本発明の目的は、使用者の要求に応じた観察対象物の画像を容易に取得することが可能な拡大観察装置を提供することである。   An object of the present invention is to provide a magnifying observation apparatus that can easily acquire an image of an observation object according to a user's request.

(1)本発明に係る拡大観察装置は、観察対象物が載置されるステージと、ステージに載置された観察対象物に対して互いに異なる複数の出射方向の光を選択的に照射するように構成された投光装置と、観察対象物からの光を受光し、複数の出射方向の光がそれぞれ観察対象物に照射されたときの観察対象物の画像を示す複数の画像データをそれぞれ生成する撮像部と、撮像部により生成された複数の画像データに基づく複数の画像を表示する表示部とを備える。   (1) The magnifying observation apparatus according to the present invention selectively irradiates light on a stage on which an observation object is placed and a plurality of different emission directions to the observation object placed on the stage. And a plurality of image data indicating images of the observation target when the light from the plurality of emission directions is irradiated to the observation target, respectively. And an image display unit that displays a plurality of images based on a plurality of image data generated by the image pickup unit.

その拡大観察装置においては、ステージに観察対象物が載置され、ステージ上の観察対象物に複数の出射方向の光がそれぞれ選択的に照射される。複数の出射方向の光がそれぞれ観察対象物に照射されたときの観察対象物の画像を示す複数の画像データが生成される。生成された複数の画像データに基づく複数の画像が表示部に表示される。   In the magnification observation apparatus, an observation object is placed on a stage, and light in a plurality of emission directions is selectively irradiated to the observation object on the stage. A plurality of pieces of image data indicating images of the observation object when the light in the plurality of emission directions is respectively irradiated on the observation object are generated. A plurality of images based on the generated plurality of image data are displayed on the display unit.

複数の画像データは、複数の出射方向の光にそれぞれ対応する。観察対象物の画像は、観察対象物の形状および観察対象物に照射される光の出射方向に応じて変化する。したがって、使用者は、表示部に表示される観察対象物の複数の画像から、観察対象物の形状および材質に応じた適切な画像を容易に識別することができる。それにより、使用者は、自己の要求に応じた観察対象物の画像を容易に取得することができる。   The plurality of image data respectively correspond to light in a plurality of emission directions. The image of the observation object changes according to the shape of the observation object and the emission direction of the light applied to the observation object. Therefore, the user can easily identify an appropriate image corresponding to the shape and material of the observation object from the plurality of images of the observation object displayed on the display unit. Thereby, the user can easily obtain an image of the observation object according to his / her request.

また、複数の出射方向の光にそれぞれ対応する複数の画像データが生成されることにより、光の出射方向を調整しながら観察対象物の撮像を繰り返す必要がない。したがって、使用者の負担を低減することができる。   In addition, since a plurality of image data corresponding to light in a plurality of emission directions is generated, it is not necessary to repeat imaging of the observation object while adjusting the light emission direction. Therefore, the burden on the user can be reduced.

(2)表示部は、各画像に対応する光の出射方向を示す指標をその画像に対応する位置に表示してもよい。この場合、使用者は、複数の画像とともに指標を視認することにより、各画像に対応する光の出射方向を容易に識別することができる。   (2) The display unit may display an index indicating the light emission direction corresponding to each image at a position corresponding to the image. In this case, the user can easily identify the light emission direction corresponding to each image by visually recognizing the index together with the plurality of images.

(3)撮像部により生成された複数の画像データの少なくとも一部を合成することにより、複数の出射方向とは異なる仮想的な出射方向の光が観察対象物に照射されたと仮定した場合に得られるべき観察対象物の画像を示す画像データを生成するデータ生成部をさらに備え、表示部は、データ生成部により生成された画像データに基づく画像を、撮像部により生成された複数の画像データに基づく複数の画像とともに表示してもよい。   (3) It is obtained when it is assumed that light in a virtual emission direction different from the plurality of emission directions is irradiated on the observation object by combining at least a part of the plurality of image data generated by the imaging unit. The image processing apparatus further includes a data generation unit that generates image data indicating an image of the observation target to be performed, and the display unit converts the image based on the image data generated by the data generation unit into a plurality of image data generated by the imaging unit. It may be displayed together with a plurality of images based on it.

この場合、表示部には、実際に観察対象物に照射される光の出射方向よりも多数の出射方向にそれぞれ対応する複数の画像が表示される。したがって、使用者は、表示部に表示されるより多数の画像から、観察により適した画像を容易に識別することができる。   In this case, the display unit displays a plurality of images respectively corresponding to a larger number of emission directions than the emission direction of the light actually irradiated to the observation object. Therefore, the user can easily identify an image more suitable for observation from a larger number of images displayed on the display unit.

(4)拡大観察装置は、使用者の操作に基づいて表示部により表示される複数の画像のいずれかを選択する選択部をさらに備え、表示部は、選択部による選択前の複数の画像を第1の態様で表示し、第1の態様で表示された複数の画像のいずれかが選択部により選択された場合に、選択された画像を第1の態様とは異なる第2の態様で表示し、第2の態様で表示される画像は、選択部による選択前の第1の態様で表示される画像に対して面積および解像度のうち少なくとも一方が大きくてもよい。   (4) The magnification observation apparatus further includes a selection unit that selects any of a plurality of images displayed by the display unit based on a user's operation, and the display unit displays the plurality of images before selection by the selection unit. Displayed in the first mode, and when any of the plurality of images displayed in the first mode is selected by the selection unit, the selected image is displayed in a second mode different from the first mode. The image displayed in the second mode may be larger in at least one of the area and the resolution than the image displayed in the first mode before selection by the selection unit.

この場合、使用者は、第1の態様で表示される複数の画像から所望の画像を選択することにより、第2の態様で表示される選択された画像に基づいて観察対象物をより詳細に観察することができる。   In this case, the user selects a desired image from the plurality of images displayed in the first mode, and thus the observation object is selected in more detail based on the selected image displayed in the second mode. Can be observed.

(5)拡大観察装置は、使用者の操作に基づいて第2の態様で表示される画像についての画像処理を指示する画像処理指示部と、画像処理指示部からの指示に応答して、第2の態様で表示される画像について指示された画像処理を行う画像処理部とをさらに備え、表示部は、画像処理部による画像処理前の画像と画像処理部による画像処理後の画像とを同時に表示してもよい。   (5) The magnification observation apparatus is responsive to an instruction from the image processing instruction unit and an image processing instruction unit that instructs image processing for an image displayed in the second mode based on a user operation. And an image processing unit that performs image processing instructed on the image displayed in the second mode, and the display unit simultaneously displays the image before the image processing by the image processing unit and the image after the image processing by the image processing unit. It may be displayed.

この場合、使用者は画像処理前の画像と画像処理後の画像とを比較しつつ所望の画像処理を指示することができる。したがって、観察により適した画像を容易に取得することができる。   In this case, the user can instruct desired image processing while comparing the image before image processing and the image after image processing. Therefore, an image more suitable for observation can be easily acquired.

(6)拡大観察装置は、対物レンズをさらに備え、撮像部は、観察対象物からの光を対物レンズを介して受光することにより複数の画像データを生成し、投光装置は、対物レンズの光軸を中心に回転対象に配置された複数の光出射領域を有するとともに、対物レンズの光軸を取り囲むように設けられる第1の投光部と、複数の出射方向の光が観察対象物に照射されるように複数の光出射領域における光の出射状態を切り替える切替部とを含んでもよい。   (6) The magnifying observation apparatus further includes an objective lens, and the imaging unit receives a light from the observation object via the objective lens to generate a plurality of image data. A first light projecting portion having a plurality of light emission regions arranged on the rotation target around the optical axis and provided so as to surround the optical axis of the objective lens, and light in a plurality of emission directions are applied to the observation target A switching unit that switches light emission states in a plurality of light emission regions so as to be irradiated may be included.

この場合、切替部により第1の投光部の複数の光出射領域における光の出射状態が切り替えられる。それにより、簡単な構成かつ簡単な制御で、互いに異なる複数の出射方向の光を観察対象物に選択的に照射することができる。   In this case, the light emission state in the plurality of light emission regions of the first light projecting unit is switched by the switching unit. Thereby, it is possible to selectively irradiate the observation target with light in a plurality of different emission directions with a simple configuration and simple control.

(7)投光装置は、第1の投光部よりも対物レンズの光軸に近い位置から観察対象物に第1の光を照射する第2の投光部をさらに含み、切替部は、第2の投光部における第1の光の出射状態をさらに切り替え、撮像部は、第1の光が観察対象物に照射されたときの観察対象物の画像を示す画像データをさらに生成し、表示部は、第1の光に対応して生成された画像データに基づく画像をさらに表示してもよい。   (7) The light projecting device further includes a second light projecting unit that irradiates the observation target with the first light from a position closer to the optical axis of the objective lens than the first light projecting unit, and the switching unit includes: The emission state of the first light in the second light projecting unit is further switched, and the imaging unit further generates image data indicating an image of the observation object when the first light is irradiated on the observation object, The display unit may further display an image based on the image data generated corresponding to the first light.

この場合、第2の投光部により第1の投光部よりも対物レンズの光軸に近い位置から観察対象物に第1の光が照射される。第1の光が照射されたときの観察対象物の画像においては、第1の投光部から光が照射されたときの観察対象物の画像に比べて、観察対象物の表面の凹凸がより鮮明に示される。それにより、使用者は、第1の光とは異なる出射方向の光が照射されたときの観察対象物の画像と、観察対象物の表面の凹凸がより鮮明に示された画像とを比較しつつ、観察により適した画像を識別することができる。   In this case, the second light projecting unit irradiates the observation object with the first light from a position closer to the optical axis of the objective lens than the first light projecting unit. In the image of the observation object when the first light is irradiated, the surface of the observation object is more uneven than the image of the observation object when the light is irradiated from the first light projecting unit. It is clearly shown. Thereby, the user compares the image of the observation object when the light in the emission direction different from the first light is irradiated with the image in which the unevenness of the surface of the observation object is more clearly shown. However, an image more suitable for observation can be identified.

(8)投光装置は、観察対象物を挟んで撮像部と対向するように配置され、観察対象物に第2の光を照射する第3の投光部をさらに含み、切替部は、第3の投光部における第2の光の出射状態をさらに切り替え、撮像部は、第2の光が観察対象物に照射されたときの観察対象物の画像を示す画像データをさらに生成し、表示部は、第2の光に対応して生成された画像データに基づく画像をさらに表示してもよい。   (8) The light projecting device is further disposed to face the imaging unit with the observation object interposed therebetween, further includes a third light projecting unit that irradiates the observation target with the second light, and the switching unit includes the first light projecting unit. The emission state of the second light in the third light projecting unit is further switched, and the imaging unit further generates and displays image data indicating an image of the observation target when the second light is irradiated on the observation target. The unit may further display an image based on the image data generated corresponding to the second light.

この場合、第3の投光部により観察対象物に第2の光が照射され、観察対象物を透過した光が撮像部により受光される。第2の光が照射されたときの観察対象物の画像においては、観察対象物の内部の構造が示される。それにより、使用者は、第2の光とは異なる出射方向の光が照射されたときの観察対象物の画像と、観察対象物の内部の構造を示す画像とを比較しつつ、観察により適した画像を識別することができる。   In this case, the third light projecting unit irradiates the observation target with the second light, and the imaging unit receives the light transmitted through the observation target. In the image of the observation object when the second light is irradiated, the internal structure of the observation object is shown. Accordingly, the user is more suitable for observation while comparing the image of the observation object when the light in the emission direction different from the second light is irradiated and the image showing the internal structure of the observation object. Images can be identified.

本発明によれば、使用者の要求に応じた観察対象物の画像を容易に取得することができる。   According to the present invention, it is possible to easily acquire an image of an observation object according to a user's request.

本発明の第1の実施の形態に係る拡大観察装置の構成を示す模式図である。It is a schematic diagram which shows the structure of the magnification observation apparatus which concerns on the 1st Embodiment of this invention. 図1の制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the control apparatus of FIG. 投光部の構成を示す斜視図および平面図である。It is the perspective view and top view which show the structure of a light projection part. 測定ヘッドの外観斜視図および鏡筒部の構成を示す模式図である。It is a schematic diagram which shows the external appearance perspective view of a measurement head, and the structure of a lens-barrel part. 焦点駆動部の構成例を示す図である。It is a figure which shows the structural example of a focus drive part. 図2の演算処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the arithmetic processing part of FIG. ステージの載置面上に定義される極座標系を示す図である。It is a figure which shows the polar coordinate system defined on the mounting surface of a stage. 複数照明撮像が指示されたときの拡大観察装置の基本動作を説明するための模式図である。It is a schematic diagram for demonstrating the basic operation | movement of the magnification observation apparatus when multiple illumination imaging is instruct | indicated. 観察画面の一表示例を示す図である。It is a figure which shows the example of a display of an observation screen. 光の仮想的な出射方向の指定に応答して観察対象物の画像が更新されるときの処理内容を説明するための模式図である。It is a schematic diagram for demonstrating the processing content when the image of an observation target object is updated in response to designation | designated of the virtual emission direction of light. 主表示領域および副表示領域にそれぞれ光アイコンが表示される例を示す図である。It is a figure which shows the example in which a light icon is displayed on a main display area and a sub display area, respectively. 観察画面の他の表示例を示す図である。It is a figure which shows the other example of a display of an observation screen. 観察画面のさらに他の表示例を示す図である。It is a figure which shows the other example of a display of an observation screen. 光の仮想的な出射方向を指定するための他の構成例を示す図である。It is a figure which shows the other structural example for designating the virtual emission direction of light. 光の仮想的な出射方向を指定するための他の構成例を示す図である。It is a figure which shows the other structural example for designating the virtual emission direction of light. 光の仮想的な出射方向を指定するための他の構成例を示す図である。It is a figure which shows the other structural example for designating the virtual emission direction of light. 複数照明撮像処理の一例を示すフローチャートである。It is a flowchart which shows an example of a multiple illumination imaging process. 表示用画像生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image generation process for a display. 表示用画像生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image generation process for a display. 深度合成処理の概念図である。It is a conceptual diagram of a depth synthetic | combination process. マスクイメージデータを視覚的に示す図である。It is a figure which shows mask image data visually. 深度合成処理の一例を示すフローチャートである。It is a flowchart which shows an example of a depth synthetic | combination process. 深度合成処理の一例を示すフローチャートである。It is a flowchart which shows an example of a depth synthetic | combination process. 深度合成処理の一例を示すフローチャートである。It is a flowchart which shows an example of a depth synthetic | combination process. 深度合成処理の他の例を示すフローチャートである。It is a flowchart which shows the other example of a depth synthetic | combination process. 深度合成処理の他の例を示すフローチャートである。It is a flowchart which shows the other example of a depth synthetic | combination process. 深度合成処理の他の例を示すフローチャートである。It is a flowchart which shows the other example of a depth synthetic | combination process. DR調整処理の一例を示すフローチャートである。It is a flowchart which shows an example of DR adjustment processing. DR調整処理の一例を示すフローチャートである。It is a flowchart which shows an example of DR adjustment processing. DR調整処理の他の例を示すフローチャートである。It is a flowchart which shows the other example of DR adjustment processing. DR調整処理の他の例を示すフローチャートである。It is a flowchart which shows the other example of DR adjustment processing. プレビュー処理中の観察画面の表示状態の一例を示す図である。It is a figure which shows an example of the display state of the observation screen during a preview process. プレビュー処理中の観察画面の表示状態の一例を示す図である。It is a figure which shows an example of the display state of the observation screen during a preview process. プレビュー処理の一例を示すフローチャートである。It is a flowchart which shows an example of a preview process. 画像調整処理中の観察画面の表示状態の一例を示す図である。It is a figure which shows an example of the display state of the observation screen during an image adjustment process. 第2の実施の形態に係る拡大観察装置の初期画面の一例を示す図である。It is a figure which shows an example of the initial screen of the magnification observation apparatus which concerns on 2nd Embodiment. 処理選択画面の一表示例を示す図である。It is a figure which shows the example of 1 display of a process selection screen. 本発明の第3の実施の形態に係る拡大観察装置の構成を示す模式図である。It is a schematic diagram which shows the structure of the magnification observation apparatus which concerns on the 3rd Embodiment of this invention. 第3の実施の形態に係る複数照明撮像処理後の観察画面の一表示例を示す図である。It is a figure which shows the example of a display of the observation screen after the multiple illumination imaging process which concerns on 3rd Embodiment. 第3の実施の形態に係るプレビュー処理中の観察画面の表示状態の一例を示す図である。It is a figure which shows an example of the display state of the observation screen in the preview process which concerns on 3rd Embodiment. 本発明の第4の実施の形態に係る拡大観察装置の構成を示す模式図である。It is a schematic diagram which shows the structure of the magnification observation apparatus which concerns on the 4th Embodiment of this invention. 第4の実施の形態に係る複数照明撮像処理後の観察画面の一表示例を示す図である。It is a figure which shows the example of a display of the observation screen after the multiple illumination imaging process which concerns on 4th Embodiment. 第4の実施の形態に係るプレビュー処理中の観察画面の表示状態の一例を示す図である。It is a figure which shows an example of the display state of the observation screen in the preview process which concerns on 4th Embodiment. 投光部の変形例を示す模式図である。It is a schematic diagram which shows the modification of a light projection part.

[1]第1の実施の形態
(1)拡大観察装置の構成
(a)測定ヘッド
以下、本発明の第1の実施の形態に係る拡大観察装置について、図を参照しながら説明する。図1は、本発明の第1の実施の形態に係る拡大観察装置の構成を示す模式図である。図1に示すように、拡大観察装置1は、測定ヘッド100および処理装置200を備える。測定ヘッド100は、例えば顕微鏡であり、スタンド部110、ステージ装置120、鏡筒部130、投光部140および制御基板150を含む。
[1] First Embodiment (1) Configuration of Magnification Observation Device (a) Measurement Head Hereinafter, a magnification observation device according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram showing the configuration of the magnification observation apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the magnification observation device 1 includes a measurement head 100 and a processing device 200. The measurement head 100 is a microscope, for example, and includes a stand unit 110, a stage device 120, a lens barrel unit 130, a light projecting unit 140, and a control board 150.

スタンド部110は、縦断面がL字形状を有し、設置部111、保持部112および焦点駆動部113を含む。設置部111および保持部112は、例えば樹脂により形成される。設置部111は、水平な平板形状を有し、設置面に設置される。保持部112は、設置部111の一端部から上方に延びるように設けられる。   The stand unit 110 has an L-shaped longitudinal section and includes an installation unit 111, a holding unit 112, and a focus driving unit 113. The installation part 111 and the holding part 112 are made of, for example, resin. The installation unit 111 has a horizontal flat plate shape and is installed on the installation surface. The holding part 112 is provided so as to extend upward from one end of the installation part 111.

ステージ装置120は、ステージ121およびステージ駆動部122を含む。ステージ121は、設置部111の上面に設けられる。ステージ121上には、観察対象物Sが載置される。観察対象物Sが載置されるステージ121上の平面(以下、載置面と呼ぶ。)内で互いに直交する2方向をX方向およびY方向と定義し、それぞれ矢印X,Yで示す。ステージ121の載置面に対して直交する法線の方向をZ方向と定義し、矢印Zで示す。Z方向に平行な軸を中心に回転する方向をθ方向と定義し、矢印θで示す。   Stage device 120 includes a stage 121 and a stage drive unit 122. The stage 121 is provided on the upper surface of the installation unit 111. An observation object S is placed on the stage 121. Two directions orthogonal to each other within a plane (hereinafter referred to as a placement surface) on the stage 121 on which the observation object S is placed are defined as an X direction and a Y direction, which are indicated by arrows X and Y, respectively. The direction of the normal line orthogonal to the mounting surface of the stage 121 is defined as the Z direction and is indicated by the arrow Z. A direction rotating around an axis parallel to the Z direction is defined as a θ direction, and is indicated by an arrow θ.

ステージ駆動部122は、ステッピングモータ等の図示しないアクチュエータを含む。ステージ駆動部122は、制御基板150により与えられる駆動パルスに基づいて、ステージ121をX方向、Y方向もしくはZ方向に移動させるか、またはθ方向に回転させる。また、使用者は、手動によりステージ121をX方向、Y方向もしくはZ方向に移動させるか、またはθ方向に回転させることも可能である。   The stage drive unit 122 includes an actuator (not shown) such as a stepping motor. The stage drive unit 122 moves the stage 121 in the X direction, the Y direction, the Z direction, or rotates it in the θ direction based on the drive pulse given by the control board 150. Further, the user can manually move the stage 121 in the X direction, the Y direction, or the Z direction, or rotate it in the θ direction.

鏡筒部130は、レンズユニット131および撮像部132を含み、ステージ121の上方に配置される。レンズユニット131は、観察対象物Sの種類に応じて他のレンズユニットと交換可能である。レンズユニット131は、対物レンズ131aおよび図示しない複数のレンズにより構成される。対物レンズ131aの光軸A1は、Z方向に平行である。撮像部132は、例えばCMOS(相補性金属酸化膜半導体)カメラを含む。撮像部132は、CCD(電荷結合素子)カメラ等の他のカメラを含んでもよい。   The lens barrel 130 includes a lens unit 131 and an imaging unit 132 and is disposed above the stage 121. The lens unit 131 can be replaced with another lens unit according to the type of the observation object S. The lens unit 131 includes an objective lens 131a and a plurality of lenses (not shown). The optical axis A1 of the objective lens 131a is parallel to the Z direction. The imaging unit 132 includes, for example, a CMOS (complementary metal oxide semiconductor) camera. The imaging unit 132 may include other cameras such as a CCD (charge coupled device) camera.

鏡筒部130は、スタンド部110の焦点駆動部113により保持部112に取り付けられる。焦点駆動部113は、ステッピングモータ等の図示しないアクチュエータを含む。焦点駆動部113は、制御基板150により与えられる駆動パルスに基づいて、レンズユニット131を対物レンズ131aの光軸A1の方向(Z方向)に移動させる。これにより、レンズユニット131を通過した光の焦点位置がZ方向に変化する。また、使用者は、手動によりレンズユニット131を対物レンズ131aの光軸A1の方向に移動させることも可能である。   The lens barrel part 130 is attached to the holding part 112 by the focus driving part 113 of the stand part 110. The focus driving unit 113 includes an actuator (not shown) such as a stepping motor. The focus driving unit 113 moves the lens unit 131 in the direction of the optical axis A1 (Z direction) of the objective lens 131a based on the driving pulse given by the control board 150. As a result, the focal position of the light that has passed through the lens unit 131 changes in the Z direction. The user can also manually move the lens unit 131 in the direction of the optical axis A1 of the objective lens 131a.

投光部140は、対物レンズ131aの光軸A1を取り囲むようにレンズユニット131に一体的に取り付けられる。これにより、投光部140とレンズユニット131との位置関係を一意的に決定することができる。また、拡大観察装置1に投光部140を保持する部材を追加する必要がないので、拡大観察装置1をコンパクト化することができる。投光部140の光軸A2(後述する図3)は、対物レンズ131aの光軸A1と略同一である。   The light projecting unit 140 is integrally attached to the lens unit 131 so as to surround the optical axis A1 of the objective lens 131a. Thereby, the positional relationship between the light projecting unit 140 and the lens unit 131 can be uniquely determined. Moreover, since it is not necessary to add a member for holding the light projecting unit 140 to the magnification observation apparatus 1, the magnification observation apparatus 1 can be made compact. An optical axis A2 (FIG. 3 described later) of the light projecting unit 140 is substantially the same as the optical axis A1 of the objective lens 131a.

投光部140からステージ121上の観察対象物Sに複数の出射方向の光が照射される。観察対象物Sによりステージ121の上方に反射された光は、レンズユニット131により集光および結像された後、撮像部132により受光される。撮像部132は、各画素の受光量に対応する画素データに基づいて画像データを生成する。投光部140により複数の出射方向の光が観察対象物Sに照射されたときに撮像部132によりそれぞれ生成される複数の画像データの各々を原画像データと呼ぶ。撮像部132は、生成した複数の原画像データを制御装置400に与える。   The light projecting unit 140 irradiates the observation object S on the stage 121 with light in a plurality of emission directions. The light reflected above the stage 121 by the observation object S is collected and imaged by the lens unit 131 and then received by the imaging unit 132. The imaging unit 132 generates image data based on pixel data corresponding to the amount of light received by each pixel. Each of the plurality of pieces of image data generated by the imaging unit 132 when the light projecting unit 140 irradiates the observation object S with light in a plurality of emission directions is referred to as original image data. The imaging unit 132 gives the generated plurality of original image data to the control device 400.

制御基板150は、例えばスタンド部110の保持部112内に設けられ、焦点駆動部113、ステージ駆動部122および撮像部132に接続される。制御基板150は、処理装置200による制御に基づいて焦点駆動部113およびステージ駆動部122の動作を制御する。撮像部132には、制御装置400から制御信号が入力される。また、撮像部132により生成された複数の原画像データは、ケーブル203を介して順次処理装置200に与えられる。   The control board 150 is provided in the holding unit 112 of the stand unit 110, for example, and is connected to the focus driving unit 113, the stage driving unit 122, and the imaging unit 132. The control board 150 controls the operations of the focus driving unit 113 and the stage driving unit 122 based on the control by the processing apparatus 200. A control signal is input from the control device 400 to the imaging unit 132. The plurality of original image data generated by the imaging unit 132 is sequentially supplied to the processing device 200 via the cable 203.

(b)処理装置
処理装置200は、筐体210、光生成部300および制御装置400を含む。筐体210は、光生成部300および制御装置400を収容する。光生成部300は、ファイバユニット201により測定ヘッド100の投光部140に光学的に接続される。ファイバユニット201は、図示しない複数の光ファイバを含む。
(B) Processing Device The processing device 200 includes a housing 210, a light generation unit 300, and a control device 400. The housing 210 houses the light generation unit 300 and the control device 400. The light generation unit 300 is optically connected to the light projecting unit 140 of the measurement head 100 by the fiber unit 201. The fiber unit 201 includes a plurality of optical fibers (not shown).

光生成部300は、光源310および遮光部320を含む。光源310は、例えばLED(発光ダイオード)である。光源310は、ハロゲンランプ等の他の光源であってもよい。遮光部320は、光源310により出射される光を部分的に遮光可能に光源310とファイバユニット201との間に配置される。光源310により出射された光は、遮光部320を通過してファイバユニット201へ入射する。これにより、ファイバユニット201を通して測定ヘッド100の投光部140から光が出射される。   The light generation unit 300 includes a light source 310 and a light shielding unit 320. The light source 310 is, for example, an LED (light emitting diode). The light source 310 may be another light source such as a halogen lamp. The light blocking unit 320 is disposed between the light source 310 and the fiber unit 201 so that the light emitted from the light source 310 can be partially blocked. The light emitted from the light source 310 passes through the light blocking unit 320 and enters the fiber unit 201. Thereby, light is emitted from the light projecting unit 140 of the measuring head 100 through the fiber unit 201.

図2は、図1の制御装置400の構成を示すブロック図である。図2に示すように、制御装置400は、制御部410、記憶部420、表示部430、操作部440および通信部450を含む。制御部410は、例えばCPU(中央演算処理装置)を含む。記憶部420は、例えばROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)またはHDD(ハードディスクドライブ)を含む。本実施の形態においては、制御部410および記憶部420は、パーソナルコンピュータにより実現される。   FIG. 2 is a block diagram showing a configuration of the control device 400 of FIG. As shown in FIG. 2, the control device 400 includes a control unit 410, a storage unit 420, a display unit 430, an operation unit 440 and a communication unit 450. The control unit 410 includes, for example, a CPU (Central Processing Unit). The storage unit 420 includes, for example, a ROM (read only memory), a RAM (random access memory), or an HDD (hard disk drive). In the present embodiment, control unit 410 and storage unit 420 are realized by a personal computer.

制御部410は、駆動制御部500および演算処理部600を含む。記憶部420には、システムプログラムが記憶される。また、記憶部420は、種々のデータの処理および制御部410から与えられる種々のデータの保存のために用いられる。駆動制御部500および演算処理部600の機能は、制御部410が記憶部420に記憶されるシステムプログラムを実行することにより実現される。   Control unit 410 includes drive control unit 500 and arithmetic processing unit 600. The storage unit 420 stores a system program. The storage unit 420 is used for processing various data and storing various data given from the control unit 410. The functions of the drive control unit 500 and the arithmetic processing unit 600 are realized by the control unit 410 executing a system program stored in the storage unit 420.

駆動制御部500は、投光制御部510、撮像制御部520、焦点制御部530およびステージ制御部540を含む。投光制御部510は、ケーブル202を通して図1の光生成部300に接続され、光生成部300の動作を制御する。撮像制御部520、焦点制御部530およびステージ制御部540は、ケーブル203を通して図1の測定ヘッド100の制御基板150に接続される。   The drive control unit 500 includes a light projection control unit 510, an imaging control unit 520, a focus control unit 530, and a stage control unit 540. The light projection control unit 510 is connected to the light generation unit 300 in FIG. 1 through the cable 202 and controls the operation of the light generation unit 300. The imaging control unit 520, the focus control unit 530, and the stage control unit 540 are connected to the control board 150 of the measurement head 100 in FIG.

撮像制御部520、焦点制御部530およびステージ制御部540は、制御基板150を通して撮像部132、焦点駆動部113およびステージ駆動部122の動作をそれぞれ制御する。また、撮像制御部520は、撮像部132により生成された複数の原画像データを順次演算処理部600に与える。   The imaging control unit 520, the focus control unit 530, and the stage control unit 540 control the operations of the imaging unit 132, the focus driving unit 113, and the stage driving unit 122 through the control board 150, respectively. In addition, the imaging control unit 520 sequentially gives a plurality of original image data generated by the imaging unit 132 to the arithmetic processing unit 600.

演算処理部600は、取得した複数の原画像データの少なくとも1つに基づいて、使用者により指定された出射方向の光が観察対象物Sに照射されたと仮定した場合に得られるべき観察対象物Sの画像を示す表示用画像データを生成することができる。演算処理部600の詳細については後述する。演算処理部600により取得された複数の原画像データおよび生成された表示用画像データは、記憶部420に記憶される。   The arithmetic processing unit 600 is based on at least one of the acquired plurality of original image data, and the observation object to be obtained when it is assumed that the light in the emission direction designated by the user is irradiated on the observation object S Display image data indicating the image of S can be generated. Details of the arithmetic processing unit 600 will be described later. The plurality of original image data acquired by the arithmetic processing unit 600 and the generated display image data are stored in the storage unit 420.

表示部430は、例えばLCD(液晶ディスプレイ)パネルにより構成される。表示部430は、有機EL(エレクトロルミネッセンス)パネル等の他の表示部により構成されてもよい。表示部430は、記憶部420に記憶された画像データまたは演算処理部600により生成された画像データに基づく画像等を表示する。操作部440は、マウス、タッチパネル、トラックボールまたはジョイスティック等のポインティングデバイスおよびキーボードを含み、制御装置400に指示等を与えるために使用者により操作される。また、操作部440はポインティングデバイスおよびキーボードに加えてジョグシャトルを含んでもよいし、鏡筒部130およびステージ121を上下方向に移動させるための回転中心が水平方向を向くダイヤル状の操作手段を含んでもよい。   The display unit 430 is configured by, for example, an LCD (liquid crystal display) panel. Display unit 430 may be configured by another display unit such as an organic EL (electroluminescence) panel. Display unit 430 displays image data or the like based on image data stored in storage unit 420 or image data generated by arithmetic processing unit 600. The operation unit 440 includes a pointing device such as a mouse, a touch panel, a trackball or a joystick, and a keyboard, and is operated by a user to give an instruction or the like to the control device 400. The operation unit 440 may include a jog shuttle in addition to the pointing device and the keyboard, or may include a dial-shaped operation unit in which the center of rotation for moving the lens barrel unit 130 and the stage 121 in the vertical direction is directed in the horizontal direction. But you can.

通信部450は、制御装置400をネットワークに接続するためのインターフェースを含む。図1の例では、表示機能を有する外部装置2がネットワークに接続されている。制御装置400は、通信部450を介して表示機能を有する外部装置2に画像データを送信することが可能である。外部装置2の使用者は、通信部450を介して汎用的な画像ファイル形式で記憶された画像データを制御装置400から取得し、当該画像データに基づく画像を外部装置2に表示させることができる。   Communication unit 450 includes an interface for connecting control device 400 to a network. In the example of FIG. 1, an external device 2 having a display function is connected to the network. The control device 400 can transmit image data to the external device 2 having a display function via the communication unit 450. The user of the external device 2 can acquire image data stored in a general-purpose image file format from the control device 400 via the communication unit 450 and display an image based on the image data on the external device 2. .

(c)投光部
図3(a),(b)は、それぞれ投光部140の構成を示す斜視図および平面図である。図3(a)に示すように、投光部140は、保持部材141および複数の光ファイバ142を含む。保持部材141は、例えば樹脂により形成され、円筒形状を有する。平面視における保持部材141の外径は、図1のステージ121の寸法よりも小さい。保持部材141は、図1の対物レンズ131aの光軸A1を取り囲むように配置される。
(C) Projecting Unit FIGS. 3A and 3B are a perspective view and a plan view showing the configuration of the projecting unit 140, respectively. As shown in FIG. 3A, the light projecting unit 140 includes a holding member 141 and a plurality of optical fibers 142. The holding member 141 is made of, for example, a resin and has a cylindrical shape. The outer diameter of the holding member 141 in plan view is smaller than the dimension of the stage 121 in FIG. The holding member 141 is disposed so as to surround the optical axis A1 of the objective lens 131a of FIG.

保持部材141には、上面から下面に貫通する複数の貫通孔141aが形成される。複数の貫通孔141aは、略等間隔で配置され、対物レンズ131aの光軸A1を中心に回転対称に位置する。複数の光ファイバ142は、複数の貫通孔141a内にそれぞれ挿通される。これにより、複数の光ファイバ142は保持部材141により一体的に保持される。各光ファイバ142における光の入射部および出射部は、保持部材141の上面および下面にそれぞれ位置する。これにより、保持部材141の下面に光出射部140oが形成される。   The holding member 141 is formed with a plurality of through holes 141a penetrating from the upper surface to the lower surface. The plurality of through holes 141a are arranged at substantially equal intervals, and are positioned rotationally symmetrically about the optical axis A1 of the objective lens 131a. The plurality of optical fibers 142 are respectively inserted into the plurality of through holes 141a. As a result, the plurality of optical fibers 142 are integrally held by the holding member 141. The light incident portion and the light emitting portion of each optical fiber 142 are located on the upper surface and the lower surface of the holding member 141, respectively. Thereby, the light emitting part 140o is formed on the lower surface of the holding member 141.

複数の光ファイバ142は、対物レンズ131aの光軸A1を中心とする1つの円周上に配置される。そのため、対物レンズ131aの光軸A1から複数の複数の光ファイバ142における出射部までの距離は略等しい。各光ファイバ142における出射部とステージ121の中心とを結ぶ線が対物レンズ131aの光軸A1に対して成す角度は鋭角である。本実施の形態においては、保持部材141が複数の光ファイバ142を一体的に保持することにより、上記の複数の光ファイバ142の位置関係が容易に維持される。   The plurality of optical fibers 142 are arranged on one circumference around the optical axis A1 of the objective lens 131a. Therefore, the distances from the optical axis A1 of the objective lens 131a to the emitting portions of the plurality of optical fibers 142 are substantially equal. The angle formed by the line connecting the emission part of each optical fiber 142 and the center of the stage 121 with respect to the optical axis A1 of the objective lens 131a is an acute angle. In the present embodiment, the holding member 141 integrally holds the plurality of optical fibers 142, whereby the positional relationship between the plurality of optical fibers 142 is easily maintained.

図3(b)に示すように、投光部140の円環状の光出射部140oは、複数(本例では4つ)の領域140A,140B,140C,140Dに略等分される。複数の領域140A〜140Dは、対物レンズ131aの光軸A1を中心に回転対称に配置される。複数の領域140A〜140Dは、略同数の光ファイバ142の出射部を含む。   As shown in FIG. 3B, the annular light emitting portion 140o of the light projecting portion 140 is approximately equally divided into a plurality (four in this example) of regions 140A, 140B, 140C, and 140D. The plurality of regions 140A to 140D are arranged rotationally symmetrically about the optical axis A1 of the objective lens 131a. The plurality of regions 140 </ b> A to 140 </ b> D include substantially the same number of emission portions of the optical fibers 142.

複数の光ファイバ142の入射部は、図1のファイバユニット201により処理装置200の光生成部300に光学的に接続される。これにより、光生成部300から出射された光が、保持部材141の上面から複数の光ファイバ142の入射部に入射し、複数の光ファイバ142の出射部を通して保持部材141の下面の光出射部140oから出射される。すなわち、各領域140A〜140Dに含まれる光ファイバ142が光出射部140oから光を出射することにより、各領域140A〜140Dから光が出射される。   Incident portions of the plurality of optical fibers 142 are optically connected to the light generation unit 300 of the processing apparatus 200 by the fiber unit 201 of FIG. Thereby, the light emitted from the light generation unit 300 enters the incident portions of the plurality of optical fibers 142 from the upper surface of the holding member 141, and passes through the emission portions of the plurality of optical fibers 142. It is emitted from 140o. That is, light is emitted from each of the regions 140A to 140D when the optical fiber 142 included in each of the regions 140A to 140D emits light from the light emitting unit 140o.

図1の遮光部320は、投光部140の領域140A〜140Dにそれぞれ対応する複数の開口パターンを有するマスクを含む。図1の光源310により出射された光は、遮光部320のいずれかの開口パターンを通過してファイバユニット201へ入射する。図2の投光制御部510は、光を通過させる遮光部320の開口パターンを切り替えることにより、投光部140における光を出射する領域140A〜140Dを切り替える。これにより、投光部140は、領域140A〜140Dの全体から光を出射可能であるとともに、領域140A〜140Dのいずれかから選択的に光を出射可能である。   1 includes a mask having a plurality of opening patterns respectively corresponding to the regions 140A to 140D of the light projecting unit 140. The light emitted from the light source 310 in FIG. 1 passes through any one of the opening patterns of the light shielding unit 320 and enters the fiber unit 201. The light projection control unit 510 in FIG. 2 switches the regions 140 </ b> A to 140 </ b> D that emit light in the light projecting unit 140 by switching the opening pattern of the light shielding unit 320 that transmits light. Thereby, the light projecting unit 140 can emit light from the entire regions 140A to 140D and can selectively emit light from any of the regions 140A to 140D.

このように、投光部140は出射方向が互いに異なる光を観察対象物Sに照射することができる。領域140A〜140Dの全体から同時に出射される光をリング照明と呼び、領域140A〜140Dのいずれか1つの領域から出射される光を方向性照明と呼ぶ。本実施の形態においては、投光部140は、リング照明および4つの方向性照明のいずれかを選択的に出射可能である。したがって、図1の撮像部132は、リング照明および4つの方向性照明がそれぞれ観察対象物Sに照射されたときの観察対象物Sを示す5つの原画像データを生成可能である。   As described above, the light projecting unit 140 can irradiate the observation object S with light having different emission directions. The light emitted simultaneously from the entire areas 140A to 140D is called ring illumination, and the light emitted from any one of the areas 140A to 140D is called directional illumination. In the present embodiment, light projecting unit 140 can selectively emit either ring illumination or four directional illuminations. Therefore, the imaging unit 132 in FIG. 1 can generate five original image data indicating the observation object S when the ring illumination and the four directional illuminations are respectively irradiated on the observation object S.

図2の演算処理部600は、撮像部132により生成された5つの原画像データに基づく観察対象物Sの画像を図1の表示部430に選択可能に表示させることができる(プレビュー処理)。   2 can display the image of the observation object S based on the five original image data generated by the imaging unit 132 in a selectable manner on the display unit 430 of FIG. 1 (preview processing).

さらに、演算処理部600は、観察対象物Sの画像について使用者の調整指示に応じた処理を行うとともに、処理前および処理後の画像を表示部430に同時に表示させることができる(画像調整処理)。   Further, the arithmetic processing unit 600 performs processing according to the user's adjustment instruction for the image of the observation object S, and can simultaneously display the pre-processing and post-processing images on the display unit 430 (image adjustment processing). ).

4つの方向性照明は、対物レンズ131aの光軸A1を中心にθ方向に約90°異なる4つの位置(領域140A〜140D)からそれぞれ出射される光であり、対物レンズ131aの光軸A1を中心に回転対称となる。したがって、各方向性照明は、対物レンズ131aの光軸A1に対して偏りを有する。4つの方向性照明は、対物レンズ131aの光軸A1に対して傾斜しかつ互いに異なる方向に出射される。4つの方向性照明の光量は互いに略等しい。対物レンズ131aの光軸A1に対する4つの方向性照明の照射の角度は、θ方向により均一ではない。   The four directional illuminations are lights respectively emitted from four positions (regions 140A to 140D) that are different by about 90 ° in the θ direction around the optical axis A1 of the objective lens 131a, and the optical axis A1 of the objective lens 131a. It is rotationally symmetric about the center. Therefore, each directional illumination is biased with respect to the optical axis A1 of the objective lens 131a. The four directional illuminations are emitted with respect to the optical axis A1 of the objective lens 131a in different directions. The light amounts of the four directional illuminations are substantially equal to each other. The irradiation angles of the four directional illuminations with respect to the optical axis A1 of the objective lens 131a are not uniform depending on the θ direction.

一方、リング照明は、対物レンズ131aの光軸A1に対して偏らない光であり、その中心は対物レンズ131aの光軸A1に略一致する。したがって、リング照明は、実質的に対物レンズ131aの光軸A1の方向に出射される。リング照明は、対物レンズ131aの光軸A1を中心に略均一な光量分布を有し、リング照明の光量は4つの方向性照明の光量の総和に略等しい。すなわち、リング照明の光量は各方向性照明の光量の約4倍である。対物レンズ131aの光軸A1に対するリング照明の照射の角度は、θ方向により均一である。   On the other hand, the ring illumination is light that is not polarized with respect to the optical axis A1 of the objective lens 131a, and its center substantially coincides with the optical axis A1 of the objective lens 131a. Therefore, the ring illumination is emitted substantially in the direction of the optical axis A1 of the objective lens 131a. The ring illumination has a substantially uniform light amount distribution around the optical axis A1 of the objective lens 131a, and the light amount of the ring illumination is substantially equal to the sum of the light amounts of the four directional illuminations. That is, the light amount of the ring illumination is about four times the light amount of each directional illumination. The irradiation angle of the ring illumination with respect to the optical axis A1 of the objective lens 131a is more uniform in the θ direction.

このように、本実施の形態においては、複数の領域140A〜140Dが対物レンズ131aの光軸A1を中心に回転対称に配置される。これにより、複数の原画像データに基づいて演算により表示用画像データを生成する場合には、その演算を単純化することができる。   Thus, in the present embodiment, the plurality of regions 140A to 140D are arranged rotationally symmetrically about the optical axis A1 of the objective lens 131a. Thereby, when the display image data is generated by calculation based on a plurality of original image data, the calculation can be simplified.

本実施の形態においては、投光部140の各領域140A〜140Dに光出射部材として光ファイバ142が設けられるが、本発明はこれに限定されない。投光部140の各領域140A〜140Dに光出射部材としてLED等の光源が設けられてもよい。この場合、処理装置200に光生成部300が設けられない。この構成においては、各領域140A〜140Dに設けられた1または複数の光源が光を出射することにより、各領域140A〜140Dから光が出射される。   In the present embodiment, the optical fiber 142 is provided as a light emitting member in each of the regions 140A to 140D of the light projecting unit 140, but the present invention is not limited to this. A light source such as an LED may be provided as a light emitting member in each of the regions 140 </ b> A to 140 </ b> D of the light projecting unit 140. In this case, the light generator 300 is not provided in the processing apparatus 200. In this configuration, light is emitted from each of the regions 140A to 140D when one or more light sources provided in each of the regions 140A to 140D emit light.

さらに、本実施の形態においては、投光部140に4つの光を出射する領域140A〜140Dが設けられるが、本発明はこれに限定されない。投光部140に3つ以下または5つ以上の光を出射する領域が設けられてもよい。   Further, in the present embodiment, the light projecting unit 140 is provided with the regions 140A to 140D that emit four lights, but the present invention is not limited to this. The light projecting unit 140 may be provided with a region for emitting three or less or five or more lights.

また、本実施の形態においては、複数の光出射部材(光ファイバ142)が対物レンズ131aの光軸A1を中心とする1つの円周上に配置されるが、本発明はこれに限定されない。複数の光出射部材は、対物レンズ131aの光軸A1を中心とする2つ以上の同心円上に配置されてもよい。さらに、本実施の形態においては、各領域140A〜140Dに複数の光出射部材が配置されるが、本発明はこれに限定されない。各領域140A〜140Dに1つの光出射部材が配置されてもよい。   In the present embodiment, a plurality of light emitting members (optical fibers 142) are arranged on one circumference centered on the optical axis A1 of the objective lens 131a, but the present invention is not limited to this. The plurality of light emitting members may be arranged on two or more concentric circles centered on the optical axis A1 of the objective lens 131a. Furthermore, in this Embodiment, although several light emission member is arrange | positioned in each area | region 140A-140D, this invention is not limited to this. One light emitting member may be disposed in each of the regions 140A to 140D.

(d)鏡筒部
図4(a),(b)は、それぞれ測定ヘッド100の外観斜視図および鏡筒部130の構成を示す模式図である。図4(a)に示すように、測定ヘッド100は鏡筒部130をステージ121に対して傾斜させるための傾斜機構101を含む。傾斜機構101は、Y方向に直交する平面内で保持部112の下部に対して保持部112の上部を支持する。これにより、傾斜機構101は、傾斜中心130cの周りで鏡筒部130をステージ121に対して傾斜させることができる。図4(b)においては、傾斜後の鏡筒部130が一点鎖線で示される。
(D) Lens barrel portion FIGS. 4A and 4B are an external perspective view of the measuring head 100 and a schematic diagram showing the configuration of the lens barrel portion 130, respectively. As shown in FIG. 4A, the measuring head 100 includes an inclination mechanism 101 for inclining the lens barrel 130 with respect to the stage 121. The tilt mechanism 101 supports the upper part of the holding part 112 with respect to the lower part of the holding part 112 in a plane orthogonal to the Y direction. Thereby, the tilt mechanism 101 can tilt the lens barrel 130 with respect to the stage 121 around the tilt center 130c. In FIG. 4B, the tilted barrel portion 130 is indicated by a one-dot chain line.

ステージ121は、図2のステージ制御部540による制御に基づいて、観察対象物Sの表面が鏡筒部130の傾斜中心130cと略同一の高さに位置するようにZ方向に移動する。そのため、鏡筒部130を傾斜させた場合でも、撮像部132の視野が移動しないユーセントリック関係が維持され、観察対象物Sの所望の観察領域が撮像部132の視野から外れることを防止することができる。   The stage 121 moves in the Z direction so that the surface of the observation object S is positioned at substantially the same height as the inclined center 130c of the lens barrel 130 based on the control by the stage controller 540 in FIG. Therefore, even when the lens barrel 130 is tilted, a eucentric relationship is maintained in which the visual field of the imaging unit 132 does not move, and a desired observation region of the observation object S is prevented from deviating from the visual field of the imaging unit 132. Can do.

図4(b)に示すように、鏡筒部130は、レンズユニット131、撮像部132および傾斜センサ133を含む。撮像部132は、図2の撮像制御部520による制御に基づいてステージ121の載置面に載置された観察対象物Sからの光をレンズユニット131を介して受光し、原画像データを生成する。   As shown in FIG. 4B, the lens barrel unit 130 includes a lens unit 131, an imaging unit 132, and a tilt sensor 133. The imaging unit 132 receives light from the observation object S placed on the placement surface of the stage 121 through the lens unit 131 based on control by the imaging control unit 520 in FIG. 2 and generates original image data. To do.

撮像制御部520は、撮像部132の受光時間、ゲインおよびタイミング等を制御する。例えば、撮像制御部520は、リング照明の照射時における受光時間に基づいて各方向性照明の照射時における受光時間を調整する。本例では、上述したように、リング照明の光量は各方向性照明の光量の約4倍であるので、撮像制御部520は各方向性照明の照射時における受光時間がリング照明の照射時における受光時間の4倍になるように調整する。   The imaging control unit 520 controls the light reception time, gain, timing, and the like of the imaging unit 132. For example, the imaging control unit 520 adjusts the light reception time when each directional illumination is irradiated based on the light reception time when the ring illumination is irradiated. In this example, as described above, since the light amount of the ring illumination is about four times the light amount of each directional illumination, the imaging control unit 520 receives the light reception time at the time of irradiation of each directional illumination. Adjust to 4 times the light reception time.

この制御によれば、撮像部132は、各方向性照明の照射時における受光時間を独立して調整する場合に比べて高速に原画像データを生成することができる。また、リング照明の照射時における画像と各方向性照明の照射時における画像との明るさを容易に略等しくすることができる。なお、本例では、複数の方向性照明の照射時における撮像部132の制御内容は互いに同一である。   According to this control, the imaging unit 132 can generate original image data at a higher speed than in the case of independently adjusting the light receiving time during irradiation of each directional illumination. Moreover, the brightness of the image at the time of ring illumination irradiation and the image at the time of irradiation of each directional illumination can be easily made substantially equal. In this example, the control contents of the imaging unit 132 at the time of irradiation with a plurality of directional illuminations are the same.

また、撮像部132は、撮像制御部520により受光時間が複数変化された状態で複数の原画像データを生成することができる。図2の演算処理部600は、撮像部132の受光時間が複数変化された状態で生成された複数の原画像データを選択的に合成することにより、ダイナミックレンジが調整された画像データを生成することができる(DR(ダイナミックレンジ)調整処理)。   In addition, the imaging unit 132 can generate a plurality of original image data in a state where a plurality of light reception times are changed by the imaging control unit 520. The arithmetic processing unit 600 of FIG. 2 generates image data with an adjusted dynamic range by selectively combining a plurality of original image data generated in a state where a plurality of light reception times of the imaging unit 132 are changed. (DR (dynamic range) adjustment processing).

Z方向に対する対物レンズ131aの光軸A1の傾斜角度(以下、鏡筒部130の傾斜角度と呼ぶ。)は、傾斜センサ133により検出され、傾斜角度に対応する角度信号が図1の制御基板150に出力される。制御基板150は、傾斜センサ133により出力された角度信号を図2のケーブル203および撮像制御部520を介して演算処理部600に与える。演算処理部600は、角度信号に基づいて、鏡筒部130の傾斜角度を算出する。演算処理部600により算出された傾斜角度は、図1の表示部430に表示させることができる。   The tilt angle of the optical axis A1 of the objective lens 131a with respect to the Z direction (hereinafter referred to as the tilt angle of the lens barrel 130) is detected by the tilt sensor 133, and an angle signal corresponding to the tilt angle is a control board 150 in FIG. Is output. The control board 150 gives the angle signal output from the tilt sensor 133 to the arithmetic processing unit 600 via the cable 203 and the imaging control unit 520 of FIG. The arithmetic processing unit 600 calculates the tilt angle of the lens barrel 130 based on the angle signal. The tilt angle calculated by the arithmetic processing unit 600 can be displayed on the display unit 430 in FIG.

上記の構成によれば、ステージ121の載置面に載置された観察対象物Sの平面観察および傾斜観察を選択的に行うことができる。平面観察時には、対物レンズ131aの光軸A1はZ方向に平行になる。すなわち、鏡筒部130の傾斜角度が0°になる。一方、傾斜観察時には、対物レンズ131aの光軸A1はZ方向に対して傾斜する。また、使用者は、鏡筒部130を図1のスタンド部110から取り外し、手持ちまたは他の固定部材により固定した状態で観察対象物Sの観察を行うことができる。以下の説明においては、観察対象物Sの平面観察が行われる。   According to the configuration described above, planar observation and tilt observation of the observation object S placed on the placement surface of the stage 121 can be selectively performed. During planar observation, the optical axis A1 of the objective lens 131a is parallel to the Z direction. That is, the inclination angle of the lens barrel 130 is 0 °. On the other hand, during tilt observation, the optical axis A1 of the objective lens 131a is tilted with respect to the Z direction. Further, the user can observe the observation object S in a state where the lens barrel 130 is detached from the stand 110 of FIG. 1 and is fixed by hand or other fixing members. In the following description, planar observation of the observation object S is performed.

(e)焦点駆動部
図2の焦点制御部530は、レンズユニット131を通過した観察対象物Sからの光の焦点位置が観察対象物Sに対して相対的にZ方向に変化するように図1の焦点駆動部113を制御する。これにより、図1の撮像部132は、Z方向に位置が異なる観察対象物Sを示す複数の原画像データを生成することができる。
(E) Focus Drive Unit The focus control unit 530 in FIG. 2 is arranged so that the focal position of light from the observation object S that has passed through the lens unit 131 changes in the Z direction relative to the observation object S. 1 focus driving unit 113 is controlled. Accordingly, the imaging unit 132 in FIG. 1 can generate a plurality of original image data indicating the observation object S whose positions are different in the Z direction.

この処理において、使用者は、焦点駆動部113がZ方向に移動する範囲を指定することができる。移動範囲が指定された場合、焦点制御部530は、指定された移動範囲で光の焦点位置がZ方向に変化するように焦点駆動部113を制御する。これにより、撮像部132は、Z方向に位置が異なる観察対象物Sを示す複数の原画像データを短時間で生成することができる。   In this process, the user can specify a range in which the focus driving unit 113 moves in the Z direction. When the movement range is designated, the focus control unit 530 controls the focus driving unit 113 so that the focal position of the light changes in the Z direction within the designated movement range. Thereby, the imaging unit 132 can generate a plurality of original image data indicating the observation object S having different positions in the Z direction in a short time.

また、演算処理部600は、生成されたZ方向に位置が異なる観察対象物Sを示す複数の原画像データの各々について、画素ごとの合焦度を判定することができる。焦点制御部530は、演算処理部600による合焦度の判定結果に基づいて、撮像部132の焦点が観察対象物Sの特定の部分に合うように焦点駆動部113を調整することができる(オートフォーカス処理)。さらに、演算処理部600は、合焦度の判定結果に基づいて複数の原画像データを画素ごとに選択的に合成することにより、観察対象物Sの全部分に合焦した画像データを生成することができる(深度合成処理)。   In addition, the arithmetic processing unit 600 can determine the degree of focus for each pixel with respect to each of the plurality of original image data indicating the observed object S whose positions are different in the Z direction. The focus control unit 530 can adjust the focus driving unit 113 so that the focus of the imaging unit 132 matches a specific portion of the observation object S based on the determination result of the degree of focus by the arithmetic processing unit 600 ( Autofocus processing). Furthermore, the arithmetic processing unit 600 generates image data focused on all parts of the observation object S by selectively combining a plurality of original image data for each pixel based on the determination result of the degree of focus. (Depth synthesis processing).

図5は、焦点駆動部113の構成例を示す図である。本実施の形態においては、投光部140はレンズユニット131に取り付けられる。図5に点線で示すように、レンズユニット131が投光部140と一体的に焦点駆動部113によりZ方向に移動される。また、図5に一点鎖線で示すように、ステージ121が図1のステージ駆動部122によりZ方向に移動される。このように、レンズユニット131および投光部140とステージ121とが相対的にZ方向に移動可能である。   FIG. 5 is a diagram illustrating a configuration example of the focus driving unit 113. In the present embodiment, the light projecting unit 140 is attached to the lens unit 131. As indicated by a dotted line in FIG. 5, the lens unit 131 is moved in the Z direction by the focus driving unit 113 integrally with the light projecting unit 140. Further, as indicated by a one-dot chain line in FIG. 5, the stage 121 is moved in the Z direction by the stage driving unit 122 in FIG. Thus, the lens unit 131, the light projecting unit 140, and the stage 121 are relatively movable in the Z direction.

観察対象物Sとレンズユニット131と投光部140とのZ方向の位置関係が変化すると、観察対象物Sへ照明を照射する光源の仰角(後述する図9参照)が変化する。   When the positional relationship in the Z direction among the observation object S, the lens unit 131, and the light projecting unit 140 changes, the elevation angle of the light source that illuminates the observation object S (see FIG. 9 described later) changes.

図5の例においては、投光部140は鏡筒部130に一体的に設けられるが、本発明はこれに限定されない。投光部140は、ユニットとして鏡筒部130に着脱可能に取り付けられてもよい。この場合、θ方向における投光部140とレンズユニット131との角度関係を一定に維持するための位置決め機構がレンズユニット131または投光部140に設けられることが好ましい。   In the example of FIG. 5, the light projecting unit 140 is provided integrally with the lens barrel unit 130, but the present invention is not limited to this. The light projecting unit 140 may be detachably attached to the barrel unit 130 as a unit. In this case, it is preferable that the lens unit 131 or the light projecting unit 140 be provided with a positioning mechanism for maintaining a constant angular relationship between the light projecting unit 140 and the lens unit 131 in the θ direction.

(f)演算処理部
図6は、図2の演算処理部600の構成を示すブロック図である。図6に示すように、演算処理部600は、データ生成部610、合焦判定部620、算出部630および条件設定部640を含む。
(F) Arithmetic Processing Unit FIG. 6 is a block diagram showing a configuration of the arithmetic processing unit 600 of FIG. As illustrated in FIG. 6, the arithmetic processing unit 600 includes a data generation unit 610, a focus determination unit 620, a calculation unit 630, and a condition setting unit 640.

データ生成部610は、図1の撮像部132により生成される複数の原画像データの少なくとも1つに基づいて表示用画像データを生成する。また、データ生成部610は、使用者の指示に従って画像データにDR調整処理、深度合成処理、プレビュー処理または画像調整処理等を行う。   The data generation unit 610 generates display image data based on at least one of the plurality of original image data generated by the imaging unit 132 of FIG. Further, the data generation unit 610 performs DR adjustment processing, depth synthesis processing, preview processing, image adjustment processing, or the like on the image data in accordance with a user instruction.

合焦判定部620は、図2の焦点制御部530がオートフォーカス処理を行う際に、焦点駆動部113のZ方向の移動により生成された複数の原画像データの各々について画素ごとの合焦度を判定する。また、合焦判定部620は、データ生成部610が深度合成処理を行う際に、複数の原画像データについて画素ごとの合焦度を判定する。   When the focus control unit 530 in FIG. 2 performs the autofocus process, the focus determination unit 620 performs the focus degree for each pixel for each of a plurality of original image data generated by the movement of the focus driving unit 113 in the Z direction. Determine. Further, the focus determination unit 620 determines the degree of focus for each pixel with respect to a plurality of original image data when the data generation unit 610 performs depth synthesis processing.

算出部630は、図4の傾斜センサ133により出力される角度信号に基づいて、図4の鏡筒部130の傾斜角度を算出する。また、算出部630は、使用者の指示に従って、算出した鏡筒部130の傾斜角度を図2の表示部430に表示させる。さらに、算出部630は、ステージ121に設けられる図示しない位置センサから出力される位置信号に基づいて、図1のステージ121の位置を算出する。また、算出部630は、使用者の指示に従って、算出したステージ121の位置を図2の表示部430に表示させる。   The calculation unit 630 calculates the tilt angle of the lens barrel 130 in FIG. 4 based on the angle signal output from the tilt sensor 133 in FIG. Further, the calculation unit 630 displays the calculated tilt angle of the lens barrel unit 130 on the display unit 430 in FIG. 2 in accordance with a user instruction. Furthermore, the calculation unit 630 calculates the position of the stage 121 in FIG. 1 based on a position signal output from a position sensor (not shown) provided on the stage 121. Further, the calculation unit 630 displays the calculated position of the stage 121 on the display unit 430 in FIG. 2 in accordance with a user instruction.

条件設定部640は、撮像条件設定部641および照明条件設定部642を含む。撮像条件設定部641は、使用者の指示に従って撮像条件を設定する。また、条件設定部640は、設定した撮像条件を示す撮像情報を図2の記憶部420に記憶させる。撮像条件は、例えば図1の撮像部132の受光時間、DR調整処理の実行の有無、深度合成処理の実行の有無およびZ方向における光の焦点位置の範囲等を含む。図2の駆動制御部500は、撮像条件設定部641により設定された撮像条件に基づいて図1の測定ヘッド100および光生成部300の動作を制御する。   The condition setting unit 640 includes an imaging condition setting unit 641 and an illumination condition setting unit 642. The imaging condition setting unit 641 sets imaging conditions according to a user instruction. In addition, the condition setting unit 640 stores imaging information indicating the set imaging conditions in the storage unit 420 of FIG. The imaging conditions include, for example, the light reception time of the imaging unit 132 in FIG. 1, whether or not DR adjustment processing is performed, whether or not depth synthesis processing is performed, and the range of the focal position of light in the Z direction. The drive control unit 500 in FIG. 2 controls the operations of the measurement head 100 and the light generation unit 300 in FIG. 1 based on the imaging conditions set by the imaging condition setting unit 641.

照明条件設定部642は、使用者の指示に従って照明条件を設定する。また、照明条件設定部642は、設定した照明条件に対応する照明情報を記憶部420に記憶させる。照明条件は、観察対象物Sに対する光の仮想的な出射方向を含む。データ生成部610は、照明条件設定部642により設定された照明条件に基づいて表示用画像データを生成し、記憶部420に記憶させる。使用者による照明条件の指示方法については後述する。   The illumination condition setting unit 642 sets the illumination condition according to a user instruction. Also, the illumination condition setting unit 642 causes the storage unit 420 to store illumination information corresponding to the set illumination condition. The illumination condition includes a virtual emission direction of light with respect to the observation object S. The data generation unit 610 generates display image data based on the illumination conditions set by the illumination condition setting unit 642 and stores the display image data in the storage unit 420. A method for instructing illumination conditions by the user will be described later.

(2)拡大観察装置の基本動作
(a)基本動作の内容
ステージ121の載置面において、対物レンズ131aの光軸A1が交差する位置を基準点と呼ぶ。観察対象物Sは観察対象部分が基準点上に位置するようにステージ121に載置される。この状態で、観察対象物Sの少なくとも一部に対物レンズ131aの焦点が合うようにレンズユニット131(図1)のZ方向の位置が調整される。また、観察対象物Sの所望の部分を観察することができるように、ステージ121がX方向およびY方向に調整される。さらに、撮像部132の受光時間およびホワイトバランス等の撮像条件が調整される。
(2) Basic operation of magnifying observation apparatus (a) Contents of basic operation On the mounting surface of the stage 121, a position where the optical axis A1 of the objective lens 131a intersects is called a reference point. The observation object S is placed on the stage 121 so that the observation object portion is located on the reference point. In this state, the position of the lens unit 131 (FIG. 1) in the Z direction is adjusted so that the objective lens 131a is focused on at least a part of the observation object S. Further, the stage 121 is adjusted in the X direction and the Y direction so that a desired portion of the observation object S can be observed. Furthermore, imaging conditions such as the light reception time and white balance of the imaging unit 132 are adjusted.

以下の説明では、上記の4つの方向性照明を区別するために、投光部140の領域140A,140B,140C,140Dの各々から出射される光をそれぞれ第1の方向性照明、第2の方向性照明、第3の方向性照明および第4の方向性照明と呼ぶ。また、以下の説明では、リング照明を形成する複数の光線がベクトル的に合成された場合において合成された光線の進行方向をリング出射方向と呼ぶ。リング出射方向は、ステージ121の載置面に対して垂直な方向である。また、第1の方向性照明を形成する複数の光線がベクトル的に合成された場合において合成された光線の進行方向を第1の出射方向と呼び、第2の方向性照明を形成する複数の光線がベクトル的に合成された場合において合成された光線の進行方向を第2の出射方向と呼ぶ。さらに、第3の方向性照明を形成する複数の光線がベクトル的に合成された場合において合成された光線の進行方向を第3の出射方向と呼び、第4の方向性照明を形成する複数の光線がベクトル的に合成された場合において合成された光線の進行方向を第4の出射方向と呼ぶ。   In the following description, in order to distinguish the above four directional illuminations, the light emitted from each of the regions 140A, 140B, 140C, and 140D of the light projecting unit 140 is referred to as the first directional illumination and the second directional illumination, respectively. These are called directional illumination, third directional illumination, and fourth directional illumination. Further, in the following description, the traveling direction of the combined light beam when the plurality of light beams forming the ring illumination are combined in vector is referred to as a ring emission direction. The ring emission direction is a direction perpendicular to the mounting surface of the stage 121. Further, when a plurality of light beams forming the first directional illumination are combined in a vector manner, the traveling direction of the combined light rays is referred to as a first emission direction, and a plurality of light beams forming the second directional illumination are formed. When the light beams are combined in a vector manner, the traveling direction of the combined light beam is referred to as a second emission direction. Further, when a plurality of light beams forming the third directional illumination are combined in a vector manner, the traveling direction of the combined light beams is referred to as a third emission direction, and a plurality of light beams forming the fourth directional illumination are formed. In the case where the light beams are combined in a vector manner, the traveling direction of the combined light beam is referred to as a fourth emission direction.

ここで、基準点上に載置される観察対象物Sに光を照射する際の光の出射方向または出射位置が特定可能となるように、ステージ121の載置面上に基準点を原点とする極座標系を定義する。図7は、ステージ121の載置面上に定義される極座標系を示す図である。図7に示すように、ステージ121の載置面上の基準点が原点Oとして定義される。図7に太い実線で示すように、ステージ121の載置面を上方から見た状態で原点Oを中心として反時計回りの方向に方位角が定義される。本例では、原点Oから拡大観察装置1の一側方に向く方向が方位角の基準角度(0°)として定義される。   Here, the reference point is set as the origin on the placement surface of the stage 121 so that the emission direction or emission position of the light when irradiating the observation object S placed on the reference point can be identified. Define the polar coordinate system to be used. FIG. 7 is a diagram showing a polar coordinate system defined on the mounting surface of the stage 121. As shown in FIG. 7, the reference point on the placement surface of the stage 121 is defined as the origin O. As shown by a thick solid line in FIG. 7, the azimuth angle is defined in a counterclockwise direction around the origin O in a state where the mounting surface of the stage 121 is viewed from above. In this example, the direction from the origin O toward one side of the magnification observation apparatus 1 is defined as the reference angle (0 °) of the azimuth angle.

また、載置面上または載置面よりも上方の任意の位置に点Qを仮定する。この場合、図7に太い一点鎖線で示すように、点Qと原点Oとを結ぶ直線と、載置面との間の角度が点Qの仰角として定義される。点Qが載置面上にある場合、点Qの仰角は0°である。点Qが載置面の上方でかつ光軸A1上にある場合、点Qの仰角は90°である。図7では、ステージ121の載置面上の方位角が90°ごとに示される。以下の説明では、ステージ121の載置面よりも上方の任意の位置、または観察対象物Sに照射される光の向き等を説明する際に、上記のように定義された「仰角」および「方位角」を適宜用いる。   A point Q is assumed on the placement surface or at an arbitrary position above the placement surface. In this case, the angle between the straight line connecting the point Q and the origin O and the placement surface is defined as the elevation angle of the point Q, as indicated by a thick dashed line in FIG. When the point Q is on the placement surface, the elevation angle of the point Q is 0 °. When the point Q is above the placement surface and on the optical axis A1, the elevation angle of the point Q is 90 °. In FIG. 7, the azimuth angle on the mounting surface of the stage 121 is shown every 90 °. In the following description, when describing an arbitrary position above the mounting surface of the stage 121 or the direction of light irradiated on the observation object S, the “elevation angle” and “ “Azimuth” is used as appropriate.

本例では、投光部140の領域140A,140B,140C,140Dの中央部分が、光軸A1を中心としてそれぞれ45°、135°、225°および315°の方位角で配置される。なお、投光部140の配置は、上記の例に限定されない。例えば、領域140A,140B,140C,140Dの中央部分が、光軸A1を中心としてそれぞれ0°、90°、180°および270°の方位角で配置されてもよい。リング照明および第1〜第4の方向性照明を用いて観察対象物Sを順次撮像することを複数照明撮像と呼ぶ。   In this example, the central portions of the regions 140A, 140B, 140C, and 140D of the light projecting unit 140 are arranged at azimuth angles of 45 °, 135 °, 225 °, and 315 °, respectively, with the optical axis A1 as the center. In addition, arrangement | positioning of the light projection part 140 is not limited to said example. For example, the central portions of the regions 140A, 140B, 140C, and 140D may be arranged at azimuth angles of 0 °, 90 °, 180 °, and 270 °, respectively, about the optical axis A1. The sequential imaging of the observation object S using the ring illumination and the first to fourth directional illuminations is called multiple illumination imaging.

拡大観察装置1の各構成要素は、使用者による複数照明撮像の指示に応答して以下の基本動作を行う。図8は、複数照明撮像が指示されたときの拡大観察装置1の基本動作を説明するための模式図である。図8(a)〜(e)に、観察対象物Sに照射される照明の変化が時系列で示される。図8(a)〜(e)では、光を出射する投光部140の領域が太い実線で示されるとともに、リング出射方向および第1〜第4の出射方向がそれぞれ太い実線の矢印で示される。図8(f)〜(j)に、図8(a)〜(e)の各照明が観察対象物Sに照射されたときの観察対象物Sの画像SIが示される。以下の説明では、観察対象物Sが表示された画像のうち観察対象物Sの表示部分を対象部分画像spと呼ぶ。   Each component of the magnifying observation apparatus 1 performs the following basic operation in response to a multiple illumination imaging instruction from the user. FIG. 8 is a schematic diagram for explaining the basic operation of the magnifying observation apparatus 1 when multiple illumination imaging is instructed. FIGS. 8A to 8E show changes in illumination irradiated to the observation object S in time series. 8A to 8E, the region of the light projecting unit 140 that emits light is indicated by a thick solid line, and the ring emission direction and the first to fourth emission directions are indicated by thick solid arrows. . FIGS. 8F to 8J show images SI of the observation object S when the illumination objects S in FIGS. 8A to 8E are irradiated. In the following description, the display portion of the observation target S in the image on which the observation target S is displayed is referred to as a target partial image sp.

図8(a)に示すように、まず観察対象物Sにリング照明が照射され、観察対象物Sが撮像される。この場合、対物レンズ131aの光軸A1を取り囲む全ての領域140A〜140Dから観察対象物Sの各部分に第1〜第4の方向性照明が同時かつ均一に照射される。それにより、図8(f)に示すように、リング照明で撮像された観察対象物Sの画像SIにおいては、対象部分画像spに観察対象物Sの形状による影がほとんど発生しない。したがって、観察対象物Sのうち上方を向く部分の表面状態をほぼ全体に渡って観察することができる。   As shown in FIG. 8A, the observation object S is first irradiated with ring illumination, and the observation object S is imaged. In this case, the first to fourth directional illuminations are simultaneously and uniformly applied to each part of the observation object S from all the regions 140A to 140D surrounding the optical axis A1 of the objective lens 131a. Thereby, as shown in FIG. 8 (f), in the image SI of the observation object S imaged with ring illumination, the shadow due to the shape of the observation object S hardly occurs in the target partial image sp. Therefore, the surface state of the portion of the observation object S facing upward can be observed almost entirely.

次に、図8(b)に示すように、観察対象物Sに第1の方向性照明のみが照射され、観察対象物Sが撮像される。図8(g)に示すように、第1の方向性照明で撮像された観察対象物Sの画像SIにおいては、対象部分画像spの一部に第1の出射方向および観察対象物Sの形状に応じて45°の方位角の位置から225°の方位角の位置に向かう影SHが発生する。それにより、観察対象物Sにおける凹凸部分が第1の出射方向に強く強調される。   Next, as shown in FIG. 8B, the observation object S is irradiated with only the first directional illumination, and the observation object S is imaged. As shown in FIG. 8G, in the image SI of the observation object S imaged with the first directional illumination, the first emission direction and the shape of the observation object S are included in a part of the target partial image sp. Accordingly, a shadow SH is generated from the 45 ° azimuth position to the 225 ° azimuth position. Thereby, the uneven | corrugated | grooved part in the observation target S is strongly emphasized in the 1st output direction.

次に、図8(c)に示すように、観察対象物Sに第2の方向性照明のみが照射され、観察対象物Sが撮像される。図8(h)に示すように、第2の方向性照明で撮像された観察対象物Sの画像SIにおいては、対象部分画像spの一部に第2の出射方向および観察対象物Sの凹凸に応じて135°の方位角の位置から315°の方位角の位置に向かう影SHが発生する。それにより、観察対象物Sにおける凹凸部分が第2の出射方向に強く強調される。   Next, as shown in FIG. 8C, only the second directional illumination is irradiated on the observation object S, and the observation object S is imaged. As shown in FIG. 8 (h), in the image SI of the observation object S imaged by the second directional illumination, the second emission direction and the unevenness of the observation object S are formed on a part of the object partial image sp. Accordingly, a shadow SH is generated from the position of the azimuth angle of 135 ° toward the position of the azimuth angle of 315 °. Thereby, the uneven | corrugated | grooved part in the observation target object S is emphasized strongly in a 2nd output direction.

次に、図8(d)に示すように、観察対象物Sに第3の方向性照明のみが照射され、観察対象物Sが撮像される。図8(i)に示すように、第3の方向性照明で撮像された観察対象物Sの画像SIにおいては、対象部分画像spの一部に第3の出射方向および観察対象物Sの凹凸に応じて225°の方位角の位置から45°の方位角の位置に向かう影SHが発生する。それにより、観察対象物Sにおける凹凸部分が第3の出射方向に強く強調される。   Next, as shown in FIG. 8D, the observation object S is irradiated with only the third directional illumination, and the observation object S is imaged. As shown in FIG. 8 (i), in the image SI of the observation object S imaged with the third directional illumination, the third emission direction and the unevenness of the observation object S are included in a part of the object partial image sp. Accordingly, a shadow SH is generated from the 225 ° azimuth position to the 45 ° azimuth position. Thereby, the uneven | corrugated | grooved part in the observation target S is strongly emphasized in the 3rd output direction.

次に、図8(e)に示すように、観察対象物Sに第4の方向性照明のみが照射され、観察対象物Sが撮像される。図8(j)に示すように、第4の方向性照明で撮像された観察対象物Sの画像SIにおいては、対象部分画像spの一部に第4の出射方向および観察対象物Sの凹凸に応じて315°の方位角の位置から135°の方位角の位置に向かう影SHが発生する。それにより、観察対象物Sにおける凹凸部分が第4の出射方向に強く強調される。   Next, as shown in FIG. 8E, the observation object S is irradiated with only the fourth directional illumination, and the observation object S is imaged. As shown in FIG. 8 (j), in the image SI of the observation object S imaged by the fourth directional illumination, the fourth emission direction and the unevenness of the observation object S are included in a part of the object partial image sp. Accordingly, a shadow SH is generated from the 315 ° azimuth position to the 135 ° azimuth position. Thereby, the uneven | corrugated | grooved part in the observation target S is strongly emphasized in the 4th emission direction.

複数の原画像データがそれぞれ記憶部420に記憶される際には、各原画像データから一部の画素データが間引かれることにより、各原画像データに対応するサムネイル画像データが生成され、生成されたサムネイル画像データが記憶部420に記憶される。記憶部420に記憶された複数のサムネイル画像データは、後述するプレビュー処理等で用いられる。   When a plurality of original image data is stored in the storage unit 420, thumbnail image data corresponding to each original image data is generated by thinning out some pixel data from each original image data. The obtained thumbnail image data is stored in the storage unit 420. A plurality of thumbnail image data stored in the storage unit 420 is used in a preview process or the like to be described later.

上記の一連の動作は、後述するように図1の制御部410が記憶部420に記憶されたシステムプログラムを実行することにより自動的に行われるが、使用者の操作に基づいて手動で行われてもよい。   The series of operations described above are automatically performed when the control unit 410 in FIG. 1 executes the system program stored in the storage unit 420 as described later, but is manually performed based on the user's operation. May be.

複数照明撮像が完了すると、図1の表示部430に観察画面が表示される。図9は、観察画面の一表示例を示す図である。図9に示すように、観察画面430Aの上部に機能表示領域431が設定される。機能表示領域431には、深度合成ボタンb1、DR調整ボタンb2、プレビューボタンb5、調整ボタンb6および保存ボタンb7が表示される。   When the multiple illumination imaging is completed, an observation screen is displayed on the display unit 430 in FIG. FIG. 9 is a diagram illustrating a display example of the observation screen. As shown in FIG. 9, a function display area 431 is set at the top of the observation screen 430A. In the function display area 431, a depth synthesis button b1, a DR adjustment button b2, a preview button b5, an adjustment button b6, and a save button b7 are displayed.

使用者は、図2の操作部440を用いて機能表示領域431に表示される各ボタンを操作することができる。深度合成ボタンb1、DR調整ボタンb2、プレビューボタンb5、調整ボタンb6および保存ボタンb7がそれぞれ操作されることにより実行される処理の内容については後述する。   The user can operate each button displayed in the function display area 431 using the operation unit 440 of FIG. Details of processing executed by operating the depth synthesis button b1, the DR adjustment button b2, the preview button b5, the adjustment button b6, and the save button b7 will be described later.

図9に示すように、機能表示領域431の下方に主表示領域432および副表示領域433が左右に並ぶように設定される。主表示領域432は、機能表示領域431および副表示領域433に比べて大きい面積を有する。初期状態では、直前の複数照明撮像により生成された複数の原画像データに基づく複数の画像SIのうちの1つが主表示領域432のほぼ全体に渡って表示される。本例では、第1の方向性照明が照射されたときの観察対象物Sの画像SI(図8(b),(g)参照)が主表示領域432に表示される。   As shown in FIG. 9, the main display area 432 and the sub display area 433 are set to be arranged on the left and right below the function display area 431. The main display area 432 has a larger area than the function display area 431 and the sub display area 433. In the initial state, one of the plurality of images SI based on the plurality of original image data generated by the immediately preceding multiple illumination imaging is displayed over substantially the entire main display area 432. In this example, an image SI (see FIGS. 8B and 8G) of the observation object S when the first directional illumination is irradiated is displayed in the main display area 432.

副表示領域433には、出射方向指定欄433aおよび出射方向表示欄433bが表示される。出射方向指定欄433aには、載置面上の観察対象物Sの位置を示す対象物位置画像ss0が表示される。また、投光部140よりも上方の位置から観察対象物Sを見たときの観察対象物Sに対する光の出射位置を示す光アイコンss1が対象物位置画像ss0上に重畳表示される。   In the sub display area 433, an emission direction designation column 433a and an emission direction display column 433b are displayed. In the emission direction designation field 433a, an object position image ss0 indicating the position of the observation object S on the placement surface is displayed. In addition, a light icon ss1 indicating the emission position of light with respect to the observation object S when the observation object S is viewed from a position above the light projecting unit 140 is superimposed on the object position image ss0.

この場合、対象物位置画像ss0上の観察対象物Sの対象部分画像spと光アイコンss1との相対的な位置関係は、主表示領域432に表示される画像SIを得るために観察対象物Sに照射されるべき光の出射方向(以下、光の仮想的な出射方向と呼ぶ。)に対応する。対象物位置画像ss0として、例えばリング照明に対応するサムネイル画像を用いることができる。   In this case, the relative positional relationship between the target partial image sp of the observation target object S and the light icon ss1 on the target object position image ss0 is the observation target object S in order to obtain the image SI displayed in the main display region 432. This corresponds to the emission direction of light to be irradiated to the light (hereinafter referred to as a virtual light emission direction). As the object position image ss0, for example, a thumbnail image corresponding to ring illumination can be used.

使用者は、図2の操作部440を用いて図9の光アイコンss1を対象物位置画像ss0上の観察対象物Sの対象部分画像spに対して相対的に移動させることにより、光の仮想的な出射位置を把握しつつ光の仮想的な出射方向を容易に指定することができる。   The user uses the operation unit 440 in FIG. 2 to move the light icon ss1 in FIG. 9 relative to the target partial image sp of the observation target object S on the target object position image ss0. The virtual emission direction of light can be easily specified while grasping the specific emission position.

使用者により光の仮想的な出射方向が指定されることにより、主表示領域432に表示される観察対象物Sの画像SIは、指定された出射方向の光が観察対象物Sに照射されたと仮定した場合に得られるべき観察対象物Sの画像SIに更新される。画像SIの更新処理は、図6のデータ生成部610により実行される。   When the virtual emission direction of light is designated by the user, the image SI of the observation object S displayed in the main display area 432 is irradiated with light in the designated emission direction. It is updated to the image SI of the observation object S to be obtained when assumed. The update process of the image SI is executed by the data generation unit 610 in FIG.

出射方向表示欄433bには、載置面上の基準点を示す画像が基準点画像ss2として表示されるとともに、ステージ121上で基準点を覆う仮想的な半球の画像が半球画像ss3として立体的に表示される。半球画像ss3上には、光アイコンss1により指定される光の仮想的な出射方向に対応する光の出射位置を示す画像が出射位置画像ss4として表示される。   In the emission direction display field 433b, an image indicating a reference point on the placement surface is displayed as a reference point image ss2, and a virtual hemispheric image covering the reference point on the stage 121 is stereoscopically displayed as a hemispheric image ss3. Is displayed. On the hemispherical image ss3, an image indicating the light emission position corresponding to the virtual light emission direction designated by the light icon ss1 is displayed as the emission position image ss4.

さらに、半球画像ss3上の出射位置画像ss4と基準点画像ss2とを結ぶように直線が表示される。この場合、直線上で出射位置画像ss4から基準点画像ss2に向かう方向が、光アイコンss1により指定される光の出射方向を示す。使用者は、出射方向表示欄433bに表示される基準点画像ss2、半球画像ss3および出射位置画像ss4を視認することにより、光アイコンss1により指定される光の仮想的な出射方向を容易かつ正確に認識することができる。   Further, a straight line is displayed so as to connect the emission position image ss4 and the reference point image ss2 on the hemispherical image ss3. In this case, the direction from the emission position image ss4 to the reference point image ss2 on the straight line indicates the light emission direction specified by the light icon ss1. By visually recognizing the reference point image ss2, the hemispherical image ss3, and the emission position image ss4 displayed in the emission direction display field 433b, the user can easily and accurately determine the virtual emission direction of the light specified by the light icon ss1. Can be recognized.

拡大観察装置1は、リング照明および第1〜第4の方向性照明のうちの一部のみを複数照明撮像に用いる照明として選択可能に構成されてもよい。リング照明および第1〜第4の方向性照明のうちの一部のみを用いて複数照明撮像が行われると、光アイコンss1により指定可能な出射方向の範囲が制限される場合がある。   The magnification observation apparatus 1 may be configured to be selectable as illumination that uses only a part of the ring illumination and the first to fourth directional illuminations for multiple illumination imaging. When multiple illumination imaging is performed using only part of the ring illumination and the first to fourth directional illuminations, the range of the emission direction that can be specified by the light icon ss1 may be limited.

この場合、半球画像ss3においては、出射方向指定欄433aの光アイコンss1により指定可能な出射方向の範囲が指定不可能な出射方向の範囲から識別可能に表示されてもよい。例えば、指定可能な出射方向の範囲が特定の方位角の範囲に制限される場合、指定可能な方位角の範囲に対応する部分と指定不可能な方位角の範囲に対応する部分とで色等の表示態様を異ならせてもよい。それにより、使用者は、光アイコンss1により指定可能な出射方向の範囲を容易に認識することができる。あるいは、半球画像ss3は、上記の例に代えて、光アイコンss1により指定可能な出射方向の範囲のみを表示してもよい。   In this case, in the hemispherical image ss3, the range of the emission direction that can be designated by the light icon ss1 in the emission direction designation column 433a may be displayed so as to be distinguishable from the range of the emission direction that cannot be designated. For example, when the specifiable emission direction range is limited to a specific azimuth angle range, the color of the portion corresponding to the specifiable azimuth range and the portion corresponding to the non-specifiable azimuth range The display mode may be different. Thereby, the user can easily recognize the range of the emission direction that can be specified by the light icon ss1. Alternatively, the hemispherical image ss3 may display only the range of the emission direction that can be specified by the light icon ss1 instead of the above example.

本例では、出射方向表示欄433bに、基準点を覆う仮想的な半球が半球画像ss3として立体的に表示されるが、本発明はこれに限定されない。出射方向表示欄433bには、基準点を覆う仮想的な半球を上方から見た平面半球画像と仮想的な半球を一側方から見た側面半球画像とが表示されてもよい。この場合、平面半球画像上に基準点画像ss2と出射位置画像ss4とが表示されてもよい。また側面半球画像上に基準点画像ss2と出射位置画像ss4とが表示されてもよい。   In this example, a virtual hemisphere that covers the reference point is displayed three-dimensionally as a hemispherical image ss3 in the emission direction display field 433b, but the present invention is not limited to this. In the emission direction display field 433b, a planar hemisphere image obtained by viewing a virtual hemisphere covering the reference point from above and a side hemisphere image obtained by viewing the virtual hemisphere from one side may be displayed. In this case, the reference point image ss2 and the emission position image ss4 may be displayed on the planar hemisphere image. Further, the reference point image ss2 and the emission position image ss4 may be displayed on the side hemisphere image.

図10は、光の仮想的な出射方向の指定に応答して観察対象物Sの画像SIが更新されるときの処理内容を説明するための模式図である。   FIG. 10 is a schematic diagram for explaining the processing contents when the image SI of the observation object S is updated in response to the designation of the virtual emission direction of light.

拡大観察装置1においては、図9の副表示領域433に表示される対象物位置画像ss0について予め定められた平面座標系が定義されている。さらに、図10(a)に示すように、図9の対象物位置画像ss0上には、上記のリング照明ならびに第1、第2、第3および第4の出射方向にそれぞれ対応する光の出射位置を示す点PA,PB,PC,PD,PEが予め設定されている。   In the magnifying observation apparatus 1, a predetermined plane coordinate system is defined for the object position image ss0 displayed in the sub display area 433 of FIG. Further, as shown in FIG. 10A, on the object position image ss0 of FIG. 9, the ring illumination and the emission of light corresponding to the first, second, third and fourth emission directions, respectively. Points PA, PB, PC, PD, and PE indicating positions are set in advance.

点PA〜PEの位置は、例えば投光部140とステージ121との相対的な位置関係に基づいて設定される。本例では、点PAは、対象物位置画像ss0の中心に位置し、点PB,PC,PD,PEは、点PAを中心とする同心円上に等角度間隔で並ぶ。   The positions of the points PA to PE are set based on the relative positional relationship between the light projecting unit 140 and the stage 121, for example. In this example, the point PA is located at the center of the object position image ss0, and the points PB, PC, PD, and PE are arranged at equiangular intervals on a concentric circle centered on the point PA.

制御部410は、予め定められた周期で光アイコンss1の対象物位置画像ss0上の位置(座標)を検出し、光アイコンss1の位置に対応する観察対象物Sの画像SIを図9の主表示領域432に表示させる。   The control unit 410 detects the position (coordinates) of the light icon ss1 on the object position image ss0 at a predetermined cycle, and displays the image SI of the observation object S corresponding to the position of the light icon ss1 in FIG. It is displayed in the display area 432.

例えば、制御部410は、光アイコンss1が図10(a)の点PA上に位置する場合にリング出射方向に対応する図8(f)の画像SIを図9の主表示領域432に表示させる。また、制御部410は、光アイコンss1が図10(a)の点PB上に位置する場合に第1の出射方向に対応する図8(g)の画像SIを図9の主表示領域432に表示させ、光アイコンss1が図10(a)の点PC上に位置する場合に第2の出射方向に対応する図8(h)の画像SIを図9の主表示領域432に表示させる。さらに、制御部410は、光アイコンss1が図10(a)の点PD上に位置する場合に第3の出射方向に対応する図8(i)の画像SIを図9の主表示領域432に表示させ、光アイコンss1が図10(a)の点PE上に位置する場合に第4の出射方向に対応する図8(j)の画像SIを図9の主表示領域432に表示させる。   For example, when the light icon ss1 is positioned on the point PA in FIG. 10A, the control unit 410 displays the image SI in FIG. 8F corresponding to the ring emission direction in the main display region 432 in FIG. . Further, the control unit 410 displays the image SI of FIG. 8G corresponding to the first emission direction in the main display area 432 of FIG. 9 when the light icon ss1 is positioned on the point PB of FIG. When the light icon ss1 is positioned on the point PC in FIG. 10A, the image SI in FIG. 8H corresponding to the second emission direction is displayed in the main display area 432 in FIG. Furthermore, the control unit 410 displays the image SI of FIG. 8I corresponding to the third emission direction in the main display region 432 of FIG. 9 when the light icon ss1 is positioned on the point PD of FIG. When the light icon ss1 is positioned on the point PE in FIG. 10A, the image SI in FIG. 8J corresponding to the fourth emission direction is displayed in the main display area 432 in FIG.

光アイコンss1が点PA〜PEとは異なる位置にある場合、制御部410は、以下の手順に従って主表示領域432に表示させるべき観察対象物Sの画像SIを生成する。   When the light icon ss1 is at a position different from the points PA to PE, the control unit 410 generates an image SI of the observation object S to be displayed in the main display area 432 according to the following procedure.

図10(a)に示すように、制御部410は、光アイコンss1が点PA〜PEとは異なる位置にある場合、各点PA〜PEと光アイコンss1との間の距離を算出する。また、制御部410は、算出された距離の短い順に複数の点PA〜PEから予め定められた数の点(本例では3つの点)を抽出する。図10(a)の例では、光アイコンss1と点PBとの間の距離d1が最も短く、光アイコンss1と点PAとの間の距離d2が2番目に短く、光アイコンss1と点PCとの間の距離d3が3番目に短い。したがって、制御部410は点PA,PB,PCを抽出する。   As illustrated in FIG. 10A, when the light icon ss1 is at a position different from the points PA to PE, the control unit 410 calculates a distance between each point PA to PE and the light icon ss1. In addition, the control unit 410 extracts a predetermined number of points (three points in this example) from the plurality of points PA to PE in order of short calculated distance. In the example of FIG. 10A, the distance d1 between the light icon ss1 and the point PB is the shortest, the distance d2 between the light icon ss1 and the point PA is the second shortest, and the light icon ss1 and the point PC Is the third shortest distance d3. Therefore, the control unit 410 extracts points PA, PB, and PC.

続いて、制御部410は、距離d1,d2,d3に基づいて、点PAに対応する原画像データと、点PBに対応する原画像データと、点PCに対応する原画像データとの合成割合を決定する。   Subsequently, the control unit 410 combines the original image data corresponding to the point PA, the original image data corresponding to the point PB, and the original image data corresponding to the point PC based on the distances d1, d2, and d3. To decide.

合成割合は、例えば距離d1,d2,d3の値の逆数の比である。この場合、合成割合は、光アイコンss1からの距離が短い点に対応する原画像データほど高くなり、光アイコンss1からの距離が遠い点に対応する原画像データほど低くなる。図10(b)の例では、点PAに対応する原画像データ、点PBに対応する原画像データおよび点PCに対応する原画像データの合成割合が、それぞれ30%、50%および20%として決定されている。   The composition ratio is, for example, a ratio of reciprocals of the values of the distances d1, d2, and d3. In this case, the composition ratio becomes higher as the original image data corresponds to a point having a short distance from the light icon ss1, and becomes lower as the original image data corresponding to a point far from the light icon ss1. In the example of FIG. 10B, the composition ratios of the original image data corresponding to the point PA, the original image data corresponding to the point PB, and the original image data corresponding to the point PC are 30%, 50%, and 20%, respectively. It has been decided.

制御部410は、決定した合成割合に基づいて点PA,PB,PCにそれぞれ対応する3つの原画像データを合成する。具体的には、制御部410は、原画像データごとにその原画像データの全画素データの値(画素値)に合成割合を乗算し、乗算後の3つの原画像データを合成することにより表示用画像データを生成する。その後、制御部410は、生成された表示用画像データに基づく画像SIを図9の主表示領域432に表示させる。   The control unit 410 synthesizes three original image data respectively corresponding to the points PA, PB, and PC based on the determined composition ratio. Specifically, for each original image data, the control unit 410 multiplies the value (pixel value) of all pixel data of the original image data by the composition ratio, and synthesizes the three original image data after the multiplication. Image data is generated. Thereafter, the control unit 410 displays an image SI based on the generated display image data in the main display area 432 of FIG.

図10(c)に、図10(a)の光アイコンss1の位置に対応して主表示領域432に表示される画像SIの一例が示される。図10(c)の画像SIにおいては、点PA,PB,PCにそれぞれ対応する3つの原画像データが合成されることにより、観察対象物Sにおける凹凸部分が図10(a)の光アイコンss1により指定される光の仮想的な出射方向に強く強調されている。   FIG. 10C shows an example of an image SI displayed in the main display area 432 corresponding to the position of the light icon ss1 in FIG. In the image SI shown in FIG. 10C, the three original image data respectively corresponding to the points PA, PB, and PC are combined so that the uneven portion in the observation object S becomes the light icon ss1 shown in FIG. Is strongly emphasized in the virtual emission direction of light specified by.

上記のように、主表示領域432に表示される画像SIの画像データは、複数照明撮像の完了後、生成された複数の原画像データと使用者により指定された光の仮想的な出射方向とに基づいて生成される。そのため、使用者により指定される光の仮想的な出射方向が連続的に変化する場合であっても、指定された出射方向に対応する複数の画像データが、制御部410の処理能力に応じた速度でほぼ連続的に生成される。また、生成された複数の画像データに基づく画像SIが連続的に表示される。したがって、照明の位置を変化させつつ継続して撮像を行った場合に得られる映像(動画)とほぼ同じ映像が主表示領域432上で擬似的に再現される。それにより、使用者は、光の仮想的な出射方向を指定しつつ主表示領域432上の画像SIを視認することにより、指定された出射方向の光が観察対象物Sにリアルタイムに照射されているように感じる。   As described above, the image data of the image SI displayed in the main display area 432 includes the plurality of original image data generated after the completion of the multiple illumination imaging and the virtual emission direction of the light specified by the user. Is generated based on Therefore, even when the virtual emission direction of light designated by the user continuously changes, a plurality of image data corresponding to the designated emission direction corresponds to the processing capability of the control unit 410. Produced almost continuously at speed. In addition, images SI based on the plurality of generated image data are continuously displayed. Therefore, substantially the same image as the image (moving image) obtained when imaging is continuously performed while changing the position of the illumination is reproduced on the main display region 432 in a pseudo manner. As a result, the user visually recognizes the image SI on the main display area 432 while designating the virtual light emission direction, whereby the observation object S is irradiated with light in the designated emission direction in real time. I feel like you are.

上記の例では、制御部410は、リング照明および第1〜第4の方向性照明に対応する点PA〜PEのうち3つの点を抽出し、抽出された3つの点に対応する3つの原画像データの合成割合を決定するが、本発明はこれに限定されない。制御部410は、全ての点PA〜PEにそれぞれ対応する5つの原画像データについて合成割合を決定し、決定された合成割合に基づいて5つの原画像データを合成してもよい。   In the above example, the control unit 410 extracts three points from the points PA to PE corresponding to the ring illumination and the first to fourth directional illuminations, and three originals corresponding to the extracted three points. The composition ratio of the image data is determined, but the present invention is not limited to this. The control unit 410 may determine the composition ratio for the five original image data respectively corresponding to all the points PA to PE, and may compose the five original image data based on the determined composition ratio.

なお、図9の観察画面430A上には、図2の操作部440により複数照明撮像により得られる複数の原画像データについての合成割合を入力可能な合成割合入力欄が表示されてもよい。この場合、制御部410は、使用者により合成割合入力欄に入力された値に基づいて複数の原画像データのうちの一部または全てを合成してもよい。   9 may be displayed on the observation screen 430A of FIG. 9 in which a composition ratio input field for inputting a composition ratio for a plurality of original image data obtained by performing multiple illumination imaging using the operation unit 440 in FIG. In this case, the control unit 410 may synthesize part or all of the plurality of original image data based on the value input by the user in the synthesis rate input field.

図9の観察画面430Aにおいては、副表示領域433に表示される対象物位置画像ss0上に光アイコンss1が重畳表示される。本実施の形態においては、対象物位置画像ss0上の光アイコンss1に加えて、主表示領域432に表示される画像SI上にも光アイコンss1が重畳表示されてもよい。図11は、主表示領域432および副表示領域433にそれぞれ光アイコンss1が表示される例を示す図である。   On the observation screen 430A in FIG. 9, the light icon ss1 is superimposed and displayed on the object position image ss0 displayed in the sub display area 433. In the present embodiment, in addition to the light icon ss1 on the object position image ss0, the light icon ss1 may be superimposed on the image SI displayed on the main display area 432. FIG. 11 is a diagram illustrating an example in which the light icon ss1 is displayed in the main display area 432 and the sub display area 433, respectively.

この場合、観察対象物Sの画像SI上にも、上記の点PA〜PEが設定される。使用者は、例えば図2の操作部440を用いて観察対象物Sの画像SI上の光アイコンss1および対象物位置画像ss0上の光アイコンss1のうちいずれか一方を観察画面430A上で移動させることができる。   In this case, the above points PA to PE are also set on the image SI of the observation object S. For example, the user moves one of the light icon ss1 on the image SI of the observation object S and the light icon ss1 on the object position image ss0 on the observation screen 430A using the operation unit 440 of FIG. be able to.

対象物位置画像ss0上の光アイコンss1が移動された場合、制御部410は、上記の図10を用いて説明した例と同様の手順で表示用画像データを生成し、生成された表示用画像データに基づく画像SIを主表示領域432に表示する。このとき、制御部410は、対象物位置画像ss0上の光アイコンss1の位置に対応する位置へ移動するように、画像SI上の光アイコンss1の位置を調整する。   When the light icon ss1 on the object position image ss0 is moved, the control unit 410 generates display image data in the same procedure as the example described with reference to FIG. 10, and the generated display image is displayed. The image SI based on the data is displayed in the main display area 432. At this time, the control unit 410 adjusts the position of the light icon ss1 on the image SI so as to move to a position corresponding to the position of the light icon ss1 on the object position image ss0.

観察対象物Sの画像SI上の光アイコンss1が移動された場合、制御部410は、画像SI上の光アイコンss1の位置と、画像SIに設定された点PA〜PEとの位置関係に基づいて表示用画像データを生成し、生成された表示用画像データに基づく画像SIを主表示領域432に表示する。このとき、制御部410は、画像SI上の光アイコンss1の位置に対応する位置へ移動するように、対象物位置画像ss0上の光アイコンss1の位置を調整する。   When the light icon ss1 on the image SI of the observation target S is moved, the control unit 410 is based on the positional relationship between the position of the light icon ss1 on the image SI and the points PA to PE set in the image SI. Display image data is generated, and an image SI based on the generated display image data is displayed in the main display area 432. At this time, the control unit 410 adjusts the position of the light icon ss1 on the object position image ss0 so as to move to a position corresponding to the position of the light icon ss1 on the image SI.

図11の例によれば、使用者は、2つの光アイコンss1のうち所望の光アイコンss1を用いて光の仮想的な出射方向を指定することができる。なお、図11の例においては、2つの光アイコンss1は必ずしも同時に表示されなくてもよい。例えば、観察画面430A上に表示される各種ボタンおよび光アイコンss1等がポインタにより操作される場合には、観察画面430A上のポインタの位置に応じて2つの光アイコンss1のうちの一方の光アイコンss1のみが観察画面430A上に表示されてもよい。具体的には、マウスポインタが主表示領域432上に位置する場合には、観察対象物Sの画像SI上の光アイコンss1のみが表示され、対象物位置画像ss0上の光アイコンss1が表示されなくてもよい。また、マウスポインタが副表示領域433上に位置する場合には、対象物位置画像ss0上の光アイコンss1のみが表示され、観察対象物Sの画像SI上の光アイコンss1が表示されなくてもよい。   According to the example of FIG. 11, the user can designate a virtual light emission direction using a desired light icon ss1 of the two light icons ss1. In the example of FIG. 11, the two optical icons ss1 do not necessarily have to be displayed at the same time. For example, when various buttons displayed on the observation screen 430A, the light icon ss1, and the like are operated by the pointer, one of the two light icons ss1 depending on the position of the pointer on the observation screen 430A. Only ss1 may be displayed on the observation screen 430A. Specifically, when the mouse pointer is positioned on the main display area 432, only the light icon ss1 on the image SI of the observation object S is displayed, and the light icon ss1 on the object position image ss0 is displayed. It does not have to be. When the mouse pointer is positioned on the sub display area 433, only the light icon ss1 on the object position image ss0 is displayed, and the light icon ss1 on the image SI of the observation object S is not displayed. Good.

なお、対象物位置画像ss0上の光アイコンss1は、マウスポインタの位置に関わらず表示されていてもよい。これにより、使用者は、光の仮想的な出射位置を容易に把握することができる。   Note that the light icon ss1 on the object position image ss0 may be displayed regardless of the position of the mouse pointer. Thereby, the user can easily grasp the virtual emission position of the light.

表示部430に図9の観察画面430Aが表示された状態で、光アイコンss1により光の仮想的な出射方向が指定される場合の観察画面430Aの変化について具体例を説明する。   A specific example of the change in the observation screen 430A when the virtual emission direction of light is designated by the light icon ss1 in a state where the observation screen 430A of FIG. 9 is displayed on the display unit 430 will be described.

図12は、観察画面430Aの他の表示例を示す図である。図12では、以下の説明の理解を容易にするために、出射方向指定欄433aに表示される対象物位置画像ss0上に図10(a)の5つの点PA〜PEを示している。   FIG. 12 is a diagram showing another display example of the observation screen 430A. In FIG. 12, in order to facilitate understanding of the following description, the five points PA to PE of FIG. 10A are shown on the object position image ss0 displayed in the emission direction designation column 433a.

図12の出射方向指定欄433aに点線で示すように、例えば点PB〜PEが並ぶ点PAの同心円上で点PBの位置から点PB,PEの間の位置にかけて光アイコンss1が移動される。この場合、制御部410は、上記の例と同様に点PA〜PEにそれぞれ対応する複数の原画像データのうちの一部の原画像データを合成することにより、表示用画像データを生成する。また、制御部410は、生成した表示用画像データに基づく観察対象物Sの画像SIを主表示領域432に表示させる。   As indicated by a dotted line in the emission direction designation column 433a of FIG. 12, for example, the optical icon ss1 is moved from the position of the point PB to the position between the points PB and PE on the concentric circle of the point PA where the points PB to PE are arranged. In this case, the control unit 410 generates display image data by synthesizing a part of the original image data among the plurality of original image data respectively corresponding to the points PA to PE as in the above example. In addition, the control unit 410 displays the image SI of the observation object S based on the generated display image data in the main display region 432.

図12の主表示領域432に表示される画像SIにおいては、観察対象物Sにおける凹凸部分が出射方向指定欄433aの光アイコンss1により指定される光の仮想的な出射方向に強く強調されている。   In the image SI displayed in the main display area 432 of FIG. 12, the uneven portion of the observation object S is strongly emphasized in the virtual emission direction of light designated by the light icon ss1 in the emission direction designation column 433a. .

仮想的な光の出射方向は、方位角および仰角の成分を含む。本例では、点PB〜PEが並ぶ点PAの同心円上で光アイコンss1が移動される。使用者は、対象物位置画像ss0上で光アイコンss1を対象物位置画像ss0の中心に対して回転するように移動させることにより仮想的な光の出射方向の方位角を指定することができる。それにより、光の仮想的な出射方向の方位角が、光アイコンss1により指定された方位角に変更される。このように、使用者は、光アイコンss1を操作することにより、光の仮想的な出射方向の方位角を所望の方向に指定することができる。その結果、主表示領域432に表示される画像SIにおいて、観察対象物Sにおける凹凸部分の強調される方向をθ方向に容易に変更することができる。   The virtual light emission direction includes components of an azimuth angle and an elevation angle. In this example, the light icon ss1 is moved on a concentric circle of the point PA where the points PB to PE are arranged. The user can designate the azimuth angle of the virtual light emission direction by moving the light icon ss1 so as to rotate with respect to the center of the object position image ss0 on the object position image ss0. As a result, the azimuth angle in the virtual light emission direction is changed to the azimuth angle designated by the light icon ss1. Thus, the user can designate the azimuth angle of the virtual light emission direction as a desired direction by operating the light icon ss1. As a result, in the image SI displayed in the main display region 432, the direction in which the uneven portion of the observation object S is emphasized can be easily changed to the θ direction.

図13は、観察画面430Aのさらに他の表示例を示す図である。図13においても、図12の例と同様に、出射方向指定欄433aに表示される対象物位置画像ss0上に、図10(a)の5つの点PA〜PEを示している。図13の出射方向指定欄433aに点線で示すように、光アイコンss1が図12の出射方向指定欄433aに示される位置から点PAに近づくように移動される。この場合、制御部410は、上記の例と同様に点PA〜PEにそれぞれ対応する複数の原画像データのうちの一部の原画像データを合成することにより、表示用画像データを生成する。また、制御部410は、生成した表示用画像データに基づく観察対象物Sの画像SIを主表示領域432に表示させる。   FIG. 13 is a diagram showing still another display example of the observation screen 430A. Also in FIG. 13, the five points PA to PE in FIG. 10A are shown on the object position image ss0 displayed in the emission direction designation column 433a, as in the example of FIG. As indicated by a dotted line in the emission direction designation column 433a in FIG. 13, the light icon ss1 is moved so as to approach the point PA from the position indicated in the emission direction designation column 433a in FIG. In this case, the control unit 410 generates display image data by synthesizing a part of the original image data among the plurality of original image data respectively corresponding to the points PA to PE as in the above example. In addition, the control unit 410 displays the image SI of the observation object S based on the generated display image data in the main display region 432.

図13の主表示領域432に表示される画像SIにおいては、観察対象物Sにおける凹凸部分が、図12の主表示領域432に表示される画像SIに比べて弱く強調されている。   In the image SI displayed in the main display region 432 of FIG. 13, the uneven portion in the observation object S is emphasized weaker than the image SI displayed in the main display region 432 of FIG.

本例では、点PAを中心として点PB〜PEが並ぶ同心円上から点PAに向かって光アイコンss1が移動される。使用者は、対象物位置画像ss0上で光アイコンss1を対象物位置画像ss0の中心に対して近づけるまたは遠ざけることにより仮想的な光の出射方向の載置面からの仰角を指定することができる。それにより、光の仮想的な出射方向の載置面からの仰角が、光アイコンss1により指定された仰角に変更される。このように、使用者は、光アイコンss1を操作することにより、仮想的な光の出射方向の仰角を所望の角度に指定することができる。その結果、主表示領域432に表示される画像SIにおいて、観察対象物Sにおける凹凸部分の強調される度合いを容易に変更することができる。   In this example, the light icon ss1 is moved from the concentric circle where the points PB to PE are arranged around the point PA toward the point PA. The user can designate the elevation angle from the placement surface in the virtual light emission direction by moving the light icon ss1 closer to or away from the center of the object position image ss0 on the object position image ss0. . As a result, the elevation angle from the placement surface in the virtual emission direction of the light is changed to the elevation angle specified by the light icon ss1. Thus, the user can designate the elevation angle in the virtual light emission direction as a desired angle by operating the light icon ss1. As a result, in the image SI displayed in the main display region 432, the degree of emphasis of the uneven portion in the observation object S can be easily changed.

上記の例では、表示部430の観察画面430A上に、表示用画像データに基づく画像SIを表示するための主表示領域432と、光アイコンss1を操作するための副表示領域433とが設定される。それにより、観察対象物Sの画像SIと光アイコンss1とが重ならない。したがって、観察対象物Sの画像SIおよび光アイコンss1が視認しやすい。   In the above example, the main display area 432 for displaying the image SI based on the display image data and the sub display area 433 for operating the light icon ss1 are set on the observation screen 430A of the display unit 430. The Thereby, the image SI of the observation object S and the light icon ss1 do not overlap. Therefore, the image SI of the observation object S and the light icon ss1 are easy to visually recognize.

使用者は、観察対象物Sの画像SIについて光の仮想的な出射方向を所望の方向に指定した状態で、図2の操作部440を用いて図9の保存ボタンb7を操作する。この場合、主表示領域432に表示される画像SIの表示用画像データが、その表示用画像データに関する複数のデータとともに記憶部420に記憶される。複数のデータには、表示用画像データに関連する複数の原画像データ、複数のサムネイル画像データ、撮像情報、照明情報およびレンズ情報等が含まれる。   The user operates the save button b7 in FIG. 9 using the operation unit 440 in FIG. 2 in a state where the virtual light emission direction of the image SI of the observation object S is designated as a desired direction. In this case, the display image data of the image SI displayed in the main display area 432 is stored in the storage unit 420 together with a plurality of data related to the display image data. The plurality of data includes a plurality of original image data related to the display image data, a plurality of thumbnail image data, imaging information, illumination information, lens information, and the like.

ここで、光の仮想的な出射方向を指定するための構成は上記の例に限定されない。図14〜図16は、光の仮想的な出射方向を指定するための他の構成例を示す図である。   Here, the configuration for designating the virtual emission direction of light is not limited to the above example. 14 to 16 are diagrams illustrating other configuration examples for designating a virtual emission direction of light.

図14の例では、観察画面430Aに図9の副表示領域433が設定されず、主表示領域432に表示される観察対象物Sの画像SI上に、光アイコンss1が重畳表示される。この場合、観察対象物Sの画像SI上に、上記の点PA〜PEが設定される。制御部410は、画像SI上の光アイコンss1と設定された点PA〜PEとの位置関係に基づいて表示用画像データを生成し、生成された表示用画像データに基づく画像SIで主表示領域432の表示を更新する。使用者は、画像SI上で光アイコンss1をより直感的に操作することができるので、光の仮想的な出射方向をより容易に指定することができる。   In the example of FIG. 14, the sub display area 433 of FIG. 9 is not set on the observation screen 430A, and the light icon ss1 is superimposed on the image SI of the observation object S displayed in the main display area 432. In this case, the above points PA to PE are set on the image SI of the observation object S. The control unit 410 generates display image data based on the positional relationship between the light icon ss1 on the image SI and the set points PA to PE, and the main display area using the image SI based on the generated display image data. The display of 432 is updated. Since the user can more intuitively operate the light icon ss1 on the image SI, the virtual emission direction of light can be specified more easily.

図14の例に関して、使用者は、画像SI上で光アイコンss1を画像SIの中心に対して回転するように移動させることにより仮想的な光の出射方向の方位角を指定することができる。また、使用者は、画像SI上で光アイコンss1を画像SIの中心に対して近づけるまたは遠ざけることにより仮想的な光の出射方向の載置面からの仰角を指定することができる。   With respect to the example of FIG. 14, the user can designate the azimuth angle of the virtual light emission direction by moving the light icon ss1 to rotate about the center of the image SI on the image SI. Further, the user can designate the elevation angle from the placement surface in the virtual light emission direction by moving the light icon ss1 closer to or away from the center of the image SI on the image SI.

図15の例では、観察画面430Aに図9の副表示領域433が設定されず、主表示領域432に表示される観察対象物Sの画像SI上に、左右方向に延びる位置調整バー432aと上下方向に延びる位置調整バー432bとが表示される。また、位置調整バー432aには、その位置調整バー432a上で左右方向に移動可能に光アイコンss5が表示される。さらに、位置調整バー432bには、その位置調整バー432b上で上下方向に移動可能に光アイコンss6が表示される。   In the example of FIG. 15, the sub display area 433 of FIG. 9 is not set on the observation screen 430 </ b> A, and the position adjustment bar 432 a extending in the left-right direction and the upper and lower positions on the image SI of the observation object S displayed in the main display area 432 A position adjustment bar 432b extending in the direction is displayed. In addition, a light icon ss5 is displayed on the position adjustment bar 432a so as to be movable in the left-right direction on the position adjustment bar 432a. Further, a light icon ss6 is displayed on the position adjustment bar 432b so as to be movable in the vertical direction on the position adjustment bar 432b.

光アイコンss5は画像SI上の左右方向の位置(座標)を示し、光アイコンss6は画像SI上の上下方向の位置(座標)を示す。本例においても、図14の例と同様に、観察対象物Sの画像SI上に上記の点PA〜PEが設定される。制御部410は、光アイコンss5,ss6により特定される画像SI上の位置と点PA〜PEとの位置関係に基づいて表示用画像データを生成し、生成された表示用画像データに基づく画像SIで主表示領域432の表示を更新する。使用者は、画像SI上で光アイコンss5,ss6を操作することにより、光の仮想的な出射方向を指定することができる。   The light icon ss5 indicates the position (coordinates) in the horizontal direction on the image SI, and the light icon ss6 indicates the position (coordinates) in the vertical direction on the image SI. Also in this example, the above points PA to PE are set on the image SI of the observation object S as in the example of FIG. The control unit 410 generates display image data based on the positional relationship between the positions on the image SI specified by the light icons ss5 and ss6 and the points PA to PE, and the image SI based on the generated display image data. The display of the main display area 432 is updated. The user can designate the virtual emission direction of light by operating the light icons ss5 and ss6 on the image SI.

図15の例に関して、使用者は、光アイコンss5,ss6により特定される画像SI上の位置を回転するように移動させることにより仮想的な光の出射方向の方位角を指定することができる。また、使用者は、光アイコンss5,ss6により特定される画像SI上の位置を画像SIの中心に対して近づけるまたは遠ざけることにより仮想的な光の出射方向の載置面からの仰角を指定することができる。なお、上記の図9の例においては、1つの光アイコンss1に代えて、図15の位置調整バー432a,432bおよび光アイコンss5,ss6と同じ機能を有する複数の指標が副表示領域433上に表示されてもよい。   With respect to the example of FIG. 15, the user can designate the azimuth angle of the virtual light emission direction by moving the position on the image SI specified by the light icons ss5 and ss6 so as to rotate. Further, the user designates the elevation angle from the placement surface in the virtual light emission direction by moving the position on the image SI specified by the light icons ss5 and ss6 closer to or away from the center of the image SI. be able to. In the example of FIG. 9 described above, a plurality of indexes having the same functions as the position adjustment bars 432a and 432b and the light icons ss5 and ss6 of FIG. 15 are displayed on the sub display area 433 instead of the single light icon ss1. May be displayed.

図16の例では、観察画面430Aに図9の副表示領域433が設定されず、主表示領域432に表示される観察対象物Sの画像SI上に、5つのスイッチアイコンss7が表示される。本例においても、図14の例と同様に、観察対象物Sの画像SI上に上記の点PA〜PEが設定される。5つのスイッチアイコンss7は、それぞれ点PA〜PE上に位置し、リング照明および第1〜第4の方向性照明にそれぞれ対応する。   In the example of FIG. 16, the sub display area 433 of FIG. 9 is not set on the observation screen 430A, and five switch icons ss7 are displayed on the image SI of the observation object S displayed in the main display area 432. Also in this example, the above points PA to PE are set on the image SI of the observation object S as in the example of FIG. The five switch icons ss7 are located on the points PA to PE, respectively, and correspond to the ring illumination and the first to fourth directional illuminations, respectively.

各スイッチアイコンss7は、オン状態およびオフ状態に切替可能に表示される。この場合、制御部410は、オン状態にあるスイッチアイコンss7に対応する1または複数の画像SIに基づいて表示用画像データを生成してもよい。例えば、画像SIの中央に位置するスイッチアイコンss7および画像SIの右上に位置するスイッチアイコンss7がオン状態にされ、残りの全てのスイッチアイコンss7がオフ状態にされた場合を想定する。この場合、制御部410は、上記の点PA,PBに対応する2つの原画像データを合成することにより表示用画像データを生成してもよい。   Each switch icon ss7 is displayed to be switchable between an on state and an off state. In this case, the control unit 410 may generate display image data based on one or a plurality of images SI corresponding to the switch icon ss7 in the on state. For example, it is assumed that the switch icon ss7 located at the center of the image SI and the switch icon ss7 located at the upper right of the image SI are turned on and all the remaining switch icons ss7 are turned off. In this case, the control unit 410 may generate display image data by combining two original image data corresponding to the points PA and PB.

複数のスイッチアイコンss7が、リング出射方向および第1〜第4の出射方向に対応する光の出射位置と同様に配置され場合、使用者は画像SI上で投光部140における光の出射位置を容易に把握することができる。   When the plurality of switch icons ss7 are arranged in the same manner as the light emission positions corresponding to the ring emission direction and the first to fourth emission directions, the user sets the light emission position in the light projecting unit 140 on the image SI. It can be easily grasped.

図16の例に関して、使用者は、例えば画像SIの中心を取り囲む4つのスイッチアイコンss7のオン状態およびオフ状態を切り替えることにより仮想的な光の出射方向の方位角を指定することができる。また、使用者は、画像SIの中心に位置するスイッチアイコンss7のオン状態およびオフ状態を切り替えるとともに、4つのスイッチアイコンss7のオン状態およびオフ状態を切り替えることにより仮想的な光の出射方向の載置面からの仰角を指定することができる。この場合、指定できる仰角のパターンは少ないものの、スイッチをオン/オフするという操作のみで、仰角を指定することができる。   With respect to the example of FIG. 16, the user can designate the azimuth angle of the virtual light emission direction by switching the on state and the off state of the four switch icons ss7 surrounding the center of the image SI, for example. In addition, the user switches the on state and the off state of the switch icon ss7 located at the center of the image SI, and switches the on state and the off state of the four switch icons ss7 to display the virtual light emission direction. The elevation angle from the surface can be specified. In this case, although the elevation angle pattern that can be specified is small, the elevation angle can be specified only by the operation of turning on / off the switch.

図9および図11〜図16の例の他、光の仮想的な出射方向を指定するための構成として、仮想的な光の出射方向の方位角および仰角をそれぞれ入力可能な方位角入力欄および仰角入力欄が観察画面430Aに表示されてもよい。この場合、使用者は、方位角入力欄および仰角入力欄を用いて方位角および仰角を指定することにより、光の仮想的な出射方向を指定してもよい。   In addition to the examples of FIGS. 9 and 11 to 16, as a configuration for designating a virtual light emission direction, an azimuth angle input field in which an azimuth angle and an elevation angle of the virtual light emission direction can be input, and An elevation angle input field may be displayed on the observation screen 430A. In this case, the user may designate the virtual emission direction of light by designating the azimuth angle and the elevation angle using the azimuth angle input field and the elevation angle input field.

上記の例では、複数照明撮像の完了後の初期状態で観察画面430Aの主表示領域432に、直前の複数照明撮像により生成された複数の原画像データに基づく複数の画像SIのうちの1つが表示されるが、本発明はこれに限定されない。拡大観察装置1においては、例えば複数照明撮像が開始される前に、予め初期状態で表示されるべき画像SIに対応する仮想的な光の出射方向が指定可能であってもよい。あるいは、予め初期状態で表示されるべき画像SIに対応する仮想的な光の出射方向は、拡大観察装置1の工場出荷時に予め製造業者により指定されていてもよい。また、使用者の操作を受け付けるまで、複数照明撮像の完了後の初期状態で観察画面430Aの主表示領域432に、画像SIに対応する仮想的な光の出射方向が徐々に変化するように、画像SIに対する出射方向が滑らかに変化する画像(動画)が表示されてもよい。   In the above example, one of the plurality of images SI based on the plurality of original image data generated by the immediately preceding multiple illumination imaging is displayed in the main display region 432 of the observation screen 430A in the initial state after the completion of the multiple illumination imaging. Although displayed, the present invention is not limited to this. In the magnifying observation apparatus 1, for example, the virtual light emission direction corresponding to the image SI to be displayed in the initial state may be designated in advance before the multiple illumination imaging is started. Alternatively, the virtual light emission direction corresponding to the image SI to be displayed in the initial state in advance may be designated in advance by the manufacturer when the magnification observation apparatus 1 is shipped from the factory. Further, until the user's operation is accepted, the emission direction of the virtual light corresponding to the image SI gradually changes in the main display region 432 of the observation screen 430A in the initial state after the completion of the multiple illumination imaging. An image (moving image) in which the emission direction with respect to the image SI changes smoothly may be displayed.

この場合、制御部410は、複数照明撮像が完了時に、予め指定された仮想的な光の出射方向と、複数照明撮像により生成された複数の原画像データとに基づいて指定された出射方向に対応する表示用画像データを生成する。また、制御部410は、生成された表示用画像データに基づく画像SIを主表示領域432に表示させる。   In this case, when the multiple illumination imaging is completed, the control unit 410 sets the emission direction specified based on the virtual light emission direction specified in advance and the plurality of original image data generated by the multiple illumination imaging. Corresponding display image data is generated. In addition, the control unit 410 displays an image SI based on the generated display image data in the main display area 432.

(b)複数照明撮像処理の一例
図2の記憶部420に記憶されるシステムプログラムは、複数照明撮像プログラムおよび表示用画像生成プログラムを含む。図2の制御部410は、複数照明撮像プログラムおよび表示用画像生成プログラムを実行することにより、複数照明撮像処理および表示用画像生成処理を行う。複数照明撮像処理および表示用画像生成処理により上記の一連の基本動作が実現される。これにより、使用者が熟練していない場合でも、原画像データを容易に生成することができる。
(B) Example of Multiple Illumination Imaging Process The system program stored in the storage unit 420 in FIG. 2 includes a multiple illumination imaging program and a display image generation program. The control unit 410 in FIG. 2 performs the multiple illumination imaging process and the display image generation process by executing the multiple illumination imaging program and the display image generation program. The series of basic operations described above is realized by the multiple illumination imaging process and the display image generation process. Thereby, even when the user is not skilled, the original image data can be easily generated.

図17は、複数照明撮像処理の一例を示すフローチャートである。複数照明撮像処理は、使用者による複数照明撮像の指示に応答して開始される。複数照明撮像処理が開始されると、制御部410は、予め設定された撮像条件に従ってリング照明を観察対象物Sに照射するとともに、撮像部132により観察対象物Sを撮像する(ステップS101)。撮像により生成された原画像データは記憶部420に記憶される。   FIG. 17 is a flowchart illustrating an example of the multiple illumination imaging process. The multiple illumination imaging process is started in response to an instruction for multiple illumination imaging by the user. When the multi-illumination imaging process is started, the control unit 410 irradiates the observation object S with ring illumination according to preset imaging conditions, and images the observation object S with the imaging unit 132 (step S101). Original image data generated by imaging is stored in the storage unit 420.

次に、制御部410はiを1に設定する(ステップS102)。ここで、iは複数の方向性照明の番号を示す。続いて、制御部410は、第iの方向性照明を観察対象物Sに照射するとともに、撮像部132により観察対象物Sを撮像する(ステップS103)。撮像により得られる原画像データは記憶部420に記憶される。   Next, the control unit 410 sets i to 1 (step S102). Here, i indicates a number of a plurality of directional illuminations. Subsequently, the control unit 410 irradiates the observation object S with i-th directional illumination, and images the observation object S by the imaging unit 132 (step S103). Original image data obtained by imaging is stored in the storage unit 420.

次に、制御部410は、iが4であるか否かを判定する(ステップS104)。iが4でない場合、制御部410は、iをi+1に更新し(ステップS105)、ステップS103の処理に戻る。   Next, the control unit 410 determines whether i is 4 (step S104). If i is not 4, the control unit 410 updates i to i + 1 (step S105), and returns to the process of step S103.

ステップS104において、iが4である場合、制御部410は、複数の原画像データにそれぞれ対応する複数のサムネイル画像データを生成する(ステップS106)。生成された複数のサムネイル画像データは記憶部420に記憶される。それにより、複数照明撮像処理が終了する。   In step S104, when i is 4, the control unit 410 generates a plurality of thumbnail image data respectively corresponding to the plurality of original image data (step S106). The plurality of generated thumbnail image data is stored in the storage unit 420. Thereby, the multiple illumination imaging process ends.

上記の説明において、表示部430にサムネイル画像を表示する必要がない場合にステップS106の処理が省略されてもよい。それにより、処理時間が短縮される。   In the above description, when it is not necessary to display the thumbnail image on the display unit 430, the process of step S106 may be omitted. Thereby, the processing time is shortened.

また、上記の説明において、一部の処理が他の時点で行われてよい。例えば、ステップS101の処理は、ステップS102〜S105の処理よりも後に実行されてもよい。   In the above description, some processes may be performed at other times. For example, the process of step S101 may be executed after the processes of steps S102 to S105.

(c)表示用画像生成処理の一例
図18および図19は、表示用画像生成処理の一例を示すフローチャートである。本実施の形態においては、制御部410は、複数照明撮像処理の終了後に表示用画像生成処理を開始する。
(C) Example of Display Image Generation Process FIGS. 18 and 19 are flowcharts illustrating an example of the display image generation process. In the present embodiment, control unit 410 starts display image generation processing after the end of multiple illumination imaging processing.

制御部410は、まず複数照明撮像処理で生成された複数の原画像データのうち任意の原画像データに基づく観察対象物Sの画像SIを表示部430の主表示領域432に表示させる(ステップS201)。また、制御部410は、対象物位置画像ss0および光アイコンss1を表示部430の出射方向指定欄433aに表示させる(ステップS202)。さらに、制御部410は、基準点画像ss2、半球画像ss3および出射位置画像ss4を表示部430の出射方向表示欄433bに表示させる(ステップS203)。   First, the control unit 410 causes the main display area 432 of the display unit 430 to display the image SI of the observation object S based on arbitrary original image data among the plurality of original image data generated by the multiple illumination imaging process (step S201). ). In addition, the control unit 410 displays the object position image ss0 and the light icon ss1 on the emission direction designation field 433a of the display unit 430 (step S202). Further, the control unit 410 displays the reference point image ss2, the hemispherical image ss3, and the emission position image ss4 on the emission direction display field 433b of the display unit 430 (step S203).

その後、制御部410は、光アイコンss1が操作されたか否かを判定する(ステップS204)。光アイコンss1が操作されない場合、制御部410は、後述するステップS210の処理に進む。   Thereafter, the control unit 410 determines whether or not the light icon ss1 has been operated (step S204). When the light icon ss1 is not operated, the control unit 410 proceeds to the process of step S210 described later.

光アイコンss1が操作されると、制御部410は、光アイコンss1の操作に応答して光アイコンss1および出射位置画像ss4の表示を更新する(ステップS205)。また、制御部410は、光アイコンss1の操作により光の仮想的な出射方向が指定されたと認識し(ステップS206)、指定された出射方向がリング出射方向または第1〜第4の出射方向のいずれかであるか否かを判定する(ステップS207)。ステップS207の判定処理は、対象物位置画像ss0上に設定される上記の点PA〜PEと光アイコンss1との位置関係に基づいて実行される。   When the light icon ss1 is operated, the control unit 410 updates the display of the light icon ss1 and the emission position image ss4 in response to the operation of the light icon ss1 (step S205). Further, the control unit 410 recognizes that the virtual emission direction of light is designated by the operation of the light icon ss1 (step S206), and the designated emission direction is the ring emission direction or the first to fourth emission directions. It is determined whether or not any of them (step S207). The determination process in step S207 is executed based on the positional relationship between the points PA to PE set on the object position image ss0 and the light icon ss1.

指定された出射方向がリング出射方向または第1〜第4の出射方向のいずれかである場合、制御部410は、指定された出射方向に対応する原画像データを表示用画像データとし、その表示用画像データに基づく観察対象物Sの画像SIを表示部430の主表示領域432に表示させる(ステップS208)。その後、制御部410は、後述するステップS210の処理に進む。   When the designated emission direction is either the ring emission direction or the first to fourth emission directions, the control unit 410 uses the original image data corresponding to the designated emission direction as display image data, and displays the display image data. The image SI of the observation object S based on the image data for use is displayed in the main display area 432 of the display unit 430 (step S208). Thereafter, the control unit 410 proceeds to the process of step S210 described later.

ステップS207において、指定された出射方向がリング出射方向または第1〜第4の出射方向のいずれでもない場合、制御部410は、指定された出射方向に基づいて複数の原画像データの合成割合を算出する(ステップS209)。ステップS209の算出処理は、ステップS207の処理と同様に、対象物位置画像ss0上に設定される上記の点PA〜PEと光アイコンss1との位置関係に基づいて実行される。   In step S207, when the designated emission direction is neither the ring emission direction nor the first to fourth emission directions, the control unit 410 determines the composition ratio of the plurality of original image data based on the designated emission direction. Calculate (step S209). The calculation process of step S209 is executed based on the positional relationship between the points PA to PE set on the object position image ss0 and the light icon ss1, as in the process of step S207.

その後、制御部410は、ステップS209で算出された合成割合に基づいて複数の原画像データを合成することにより表示用画像データを生成し、その表示用画像データに基づく観察対象物Sの画像SIを表示部430の主表示領域432に表示させる(ステップS210)。   Thereafter, the control unit 410 generates display image data by combining a plurality of original image data based on the combining ratio calculated in step S209, and the image SI of the observation object S based on the display image data. Is displayed in the main display area 432 of the display unit 430 (step S210).

本実施の形態においては、使用者は、図2の操作部440を操作することにより、観察対象物Sの観察の終了を指示することができる。制御部410は、ステップS209の処理後、観察対象物Sの観察の終了が指示されたか否かを判定する(ステップS211)。観察対象物Sの観察の終了が指示されると、制御部410は、表示用画像生成処理を終了する。一方、観察対象物Sの観察の終了が指示されない場合、制御部410は、ステップS204の処理に戻る。   In the present embodiment, the user can instruct the end of observation of the observation object S by operating the operation unit 440 of FIG. After the process in step S209, the control unit 410 determines whether or not an instruction to end observation of the observation object S has been issued (step S211). When the end of observation of the observation object S is instructed, the control unit 410 ends the display image generation process. On the other hand, when the end of observation of the observation object S is not instructed, the control unit 410 returns to the process of step S204.

図18および図19の表示用画像生成処理においては、制御部410は、ステップS209の処理中または処理後に、指定された仮想的な光の出射方向の方位角および仰角のうち少なくとも一方を算出してもよい。この場合、制御部410は、算出された方位角および仰角のうち少なくとも一方を表示部430に表示させてもよい。それにより、使用者は、指定した光の仮想的な出射方向についての情報を容易に認識することができる。   In the display image generation processing of FIGS. 18 and 19, the control unit 410 calculates at least one of the azimuth angle and elevation angle of the designated virtual light emission direction during or after the processing of step S209. May be. In this case, the control unit 410 may cause the display unit 430 to display at least one of the calculated azimuth angle and elevation angle. Thereby, the user can easily recognize information on the virtual emission direction of the designated light.

上記の表示用画像生成処理においては、ステップS201の処理で複数照明撮像処理で生成された複数の原画像データのうち任意の原画像データに基づく観察対象物Sの画像SIが表示部430に表示されるが、本発明はこれに限定されない。ステップS201の処理において、制御部410は、任意の原画像データに代えて、予め定められた照明(例えばリング照明)に対応する原画像データに基づく画像SIを表示部430に表示させてもよい。または、制御部410は、ステップS201の処理を省略してもよい。   In the display image generation process, the image SI of the observation object S based on arbitrary original image data among the plurality of original image data generated by the multiple illumination imaging process in the process of step S201 is displayed on the display unit 430. However, the present invention is not limited to this. In the process of step S201, the control unit 410 may cause the display unit 430 to display an image SI based on original image data corresponding to predetermined illumination (for example, ring illumination) instead of arbitrary original image data. . Or the control part 410 may abbreviate | omit the process of step S201.

上記の例では、表示用画像生成処理は、複数照明撮像処理の終了後に実行されるが、本発明はこれに限定されない。複数照明撮像処理が連続的または間欠的に一定周期で実行される場合、表示用画像生成処理は複数照明撮像処理と並行して実行されてもよい。この場合、直前の複数照明撮像処理により記憶部420に記憶される最新の複数の原画像データに基づいて表示用画像生成処理を実行することができる。   In the above example, the display image generation process is executed after the end of the multiple illumination imaging process, but the present invention is not limited to this. When the multiple illumination imaging process is executed continuously or intermittently at a constant period, the display image generation process may be executed in parallel with the multiple illumination imaging process. In this case, the display image generation process can be executed based on the latest plurality of original image data stored in the storage unit 420 by the immediately preceding multiple illumination imaging process.

本実施の形態に係る拡大観察装置1においては、使用者は、図2の操作部440を用いて記憶部420に記憶された複数の原画像データの一部を指定することができる。この場合、制御部410は、使用者による原画像データの指定に応答し、指定された原画像データを読み込み、読み込んだ原画像データに基づく表示用画像生成処理を行ってもよい。   In the magnifying observation apparatus 1 according to the present embodiment, the user can specify a part of a plurality of original image data stored in the storage unit 420 using the operation unit 440 of FIG. In this case, the control unit 410 may read the designated original image data and perform display image generation processing based on the read original image data in response to the designation of the original image data by the user.

(3)深度合成処理
(a)処理内容
使用者は、図2の操作部440を用いて図9の深度合成ボタンb1を操作することにより、図1の制御部410に深度合成処理の指示を与えることができる。
(3) Depth synthesis process (a) Processing content The user operates the depth synthesis button b1 in FIG. 9 using the operation unit 440 in FIG. 2 to instruct the control unit 410 in FIG. Can be given.

深度合成処理では、Z方向における光の焦点位置の範囲および焦点位置の移動ピッチが深度合成処理用の撮像条件として予め設定されることが好ましい。この場合、図1の焦点駆動部113は過度に大きい範囲で光の焦点位置を変化させる必要がないので、複数の原画像データを高速に生成することができる。撮像条件は、例えば使用者による図2の操作部440の操作に基づいて設定される。なお、Z方向における光の焦点位置の範囲および焦点位置の移動ピッチは、撮像に用いられる対物レンズ131aの倍率等に応じて自動的に設定されてもよい。以下の説明では、深度合成処理用の撮像条件は予め設定されているものとする。   In the depth synthesis process, it is preferable that the range of the focal position of the light in the Z direction and the movement pitch of the focal position are set in advance as imaging conditions for the depth synthesis process. In this case, since the focus driving unit 113 in FIG. 1 does not need to change the focus position of the light within an excessively large range, a plurality of original image data can be generated at high speed. The imaging condition is set based on, for example, the operation of the operation unit 440 in FIG. 2 by the user. The range of the focal position of light in the Z direction and the movement pitch of the focal position may be automatically set according to the magnification of the objective lens 131a used for imaging. In the following description, it is assumed that the imaging conditions for the depth synthesis process are set in advance.

図20は、深度合成処理の概念図である。図20(a)に、レンズユニット131と投光部140とステージ121との位置関係が示される。本例では、ステージ121が静止した状態で、レンズユニット131が投光部140と一体的にZ方向に移動される。この場合、予め指定されたZ方向における光の焦点位置の範囲および焦点位置の移動ピッチに基づいて、レンズユニット131(対物レンズ131a)が移動すべきZ方向の位置H1〜Hj(jは自然数)が定まる。   FIG. 20 is a conceptual diagram of the depth synthesis process. FIG. 20A shows the positional relationship among the lens unit 131, the light projecting unit 140, and the stage 121. In this example, the lens unit 131 is moved in the Z direction integrally with the light projecting unit 140 while the stage 121 is stationary. In this case, positions H1 to Hj (j is a natural number) in the Z direction to which the lens unit 131 (objective lens 131a) should move based on the range of the focal position of light in the Z direction and the movement pitch of the focal position specified in advance. Is determined.

深度合成処理では、レンズユニット131が位置H1〜Hjの各々に位置決めされた状態でリング照明および第1〜第4の方向性照明を用いて観察対象物Sが撮像される。それにより、リング照明および第1〜第4の方向性照明を用いて位置H1〜Hjにそれぞれ対応する複数(j個)の原画像データが生成される。図20(b)に、位置H1〜Hjにそれぞれ対応する観察対象物Sの複数の画像SIが照明ごとに示される。   In the depth synthesis process, the observation object S is imaged using the ring illumination and the first to fourth directional illuminations with the lens unit 131 positioned at each of the positions H1 to Hj. Accordingly, a plurality (j) of original image data corresponding to the positions H1 to Hj is generated using the ring illumination and the first to fourth directional illuminations. FIG. 20B shows a plurality of images SI of the observation object S corresponding to the positions H1 to Hj for each illumination.

リング照明を用いた撮像により得られた複数の原画像データの各々について、画素ごとの合焦度が判定される。合焦度の判定結果に基づいて、複数の原画像データが選択的に合成される。それにより、リング照明が照射された観察対象物Sの全部分に合焦した深度合成画像データが生成される。また、各方向性照明に対応する複数の原画像データと後述するマスクイメージデータとに基づいて各方向性照明に対応する深度合成画像データが生成される。深度合成画像データに基づく画像を深度合成画像と呼ぶ。図20(b)に、リング照明および第1〜第4の方向性照明にそれぞれ対応する観察対象物Sの複数の深度合成画像SFが示される。   The degree of focus for each pixel is determined for each of a plurality of original image data obtained by imaging using ring illumination. Based on the determination result of the degree of focus, a plurality of original image data is selectively combined. Thereby, depth composite image data in which all parts of the observation object S irradiated with ring illumination are focused is generated. Further, based on a plurality of original image data corresponding to each directional illumination and mask image data described later, depth composite image data corresponding to each directional illumination is generated. An image based on the depth composite image data is referred to as a depth composite image. FIG. 20B shows a plurality of depth composite images SF of the observation object S corresponding to the ring illumination and the first to fourth directional illuminations, respectively.

制御部410は、複数の原画像データに代えて深度合成処理により生成された複数の深度合成画像データに基づいて表示用画像生成処理を実行する。それにより、使用者は、所望の方向から観察対象物Sに光が照射されたと仮定した場合に得られるべき観察対象物Sの深度合成画像SFを表示部430に容易に表示させることができる。   The control unit 410 executes display image generation processing based on a plurality of depth synthesized image data generated by the depth synthesis processing instead of the plurality of original image data. Thereby, the user can easily display on the display unit 430 the depth composite image SF of the observation object S to be obtained when it is assumed that the observation object S is irradiated with light from a desired direction.

上記の深度合成処理において、照明ごとに位置H1〜Hjにそれぞれ対応する複数の原画像データが生成される。図9の観察画面430Aには、複数の原画像データの生成のみを指示するための操作ボタンが表示されてもよい。複数の原画像データの生成のみが指示された場合、制御部410は、複数の原画像データの生成のみを行った後、焦点のZ方向の位置について使用者による指定を受け付け、指定されたZ方向の位置に対応する複数の原画像データを用いて表示用画像生成処理を実行してもよい。   In the above-described depth synthesis process, a plurality of original image data respectively corresponding to the positions H1 to Hj is generated for each illumination. An operation button for instructing only the generation of a plurality of original image data may be displayed on the observation screen 430A in FIG. When only the generation of the plurality of original image data is instructed, the control unit 410 only receives the generation of the plurality of original image data, and then receives the designation by the user regarding the position of the focal point in the Z direction. The display image generation processing may be executed using a plurality of original image data corresponding to the position in the direction.

上記の深度合成処理においては、リング照明対応する深度合成画像データが生成される際にマスクイメージデータが生成され、生成されたマスクイメージデータを用いて第1〜第4の方向性照明にそれぞれ対応する複数の深度合成画像データが生成される。マスクイメージデータについて説明する。   In the above-described depth synthesis processing, mask image data is generated when depth synthesized image data corresponding to ring illumination is generated, and each of the first to fourth directional illuminations is handled using the generated mask image data. A plurality of depth composite image data to be generated is generated. The mask image data will be described.

鏡筒部130とステージ121とのZ方向の位置を変化させつつ観察対象物Sを撮像する処理において生成された複数の原画像データの各々には、Z方向における光の焦点位置H1〜Hjに対応する番号が付与される。図6のデータ生成部610は、リング照明に対応する深度合成画像データの各画素と原画像データの番号との対応関係を示すマスクイメージデータを生成する。   Each of the plurality of original image data generated in the process of imaging the observation object S while changing the position of the lens barrel 130 and the stage 121 in the Z direction includes the light focal positions H1 to Hj in the Z direction. Corresponding numbers are given. The data generation unit 610 in FIG. 6 generates mask image data indicating the correspondence between each pixel of the depth composite image data corresponding to the ring illumination and the number of the original image data.

図21は、マスクイメージデータを視覚的に示す模式図である。図21における小さい各正方形は、リング照明に対応する深度合成画像データの各画素データに相当する。また、各正方形に付与された番号は、当該正方形に対応する画素において、Z方向における光の焦点位置H1〜Hjのうち、どの位置で生成した画素データの画素値が最適であったか、つまり飽和せずに輝度値が最も高くなったのは光のどの焦点位置であるかというデータが抽出された原画像データの番号を示す。すなわち、図21の例においては、最も左上の画素データは光の焦点位置H12の原画像データから抽出され、最も右下の画素データは光の焦点位置H85の原画像データから抽出されたことを示す。   FIG. 21 is a schematic diagram visually showing mask image data. Each small square in FIG. 21 corresponds to each pixel data of the depth composite image data corresponding to the ring illumination. In addition, the number assigned to each square is the pixel value of the pixel data generated at which of the focal positions H1 to Hj of the light in the Z direction in the pixel corresponding to the square, that is, saturated. The number of the original image data from which data indicating which focal position of the light has the highest luminance value is extracted. That is, in the example of FIG. 21, the upper left pixel data is extracted from the original image data at the light focal position H12, and the lower right pixel data is extracted from the original image data at the light focal position H85. Show.

データ生成部610は、生成したマスクイメージデータに基づいて、第1〜第4の方向性照明の各々に対応する深度合成画像データを生成する。この場合、図6の合焦判定部620は、第1〜第4の方向性照明の各々に対応する深度合成画像データを生成する際に、原画像データについて画素ごとの合焦度を判定する必要がない。これにより、深度合成処理を高速化することができる。   The data generation unit 610 generates depth composite image data corresponding to each of the first to fourth directional illuminations based on the generated mask image data. In this case, when the focus determination unit 620 in FIG. 6 generates the depth composite image data corresponding to each of the first to fourth directional illuminations, the focus determination unit determines the focus degree for each pixel with respect to the original image data. There is no need. Thereby, the depth synthesis process can be speeded up.

上記の説明においては、リング照明および第1〜第4の方向性照明ごとに深度合成画像データが先に生成され、生成された複数の深度合成画像データに基づいて表示用画像データが生成されるが、本発明はこれに限定されない。使用者により指定された光の仮想的な出射方向に基づいて、Z方向の複数の位置H1〜Hjにそれぞれ対応する複数の表示用画像データが生成され、生成された複数の表示用画像データに基づいて表示用の深度合成画像データが生成されてもよい。この場合、マスクイメージデータは不要である。   In the above description, the depth composite image data is generated first for each of the ring illumination and the first to fourth directional illuminations, and display image data is generated based on the plurality of generated depth composite image data. However, the present invention is not limited to this. A plurality of display image data respectively corresponding to the plurality of positions H1 to Hj in the Z direction are generated based on the virtual emission direction of light designated by the user, and the generated plurality of display image data are generated. Based on this, depth composite image data for display may be generated. In this case, mask image data is not necessary.

なお、上記説明においては、リング照明が出射されたときの画像データに基づいてマスクイメージデータが生成されたが、本発明はこれに限定されない。リング照明が出射されたときの画像データおよび方向性照明が出射されたときの画像データの各々に基づいてマスクイメージデータが生成されてもよい。また、方向性照明が出射されたときのマスクイメージデータは、複数の方向性照明ごとに生成されてもよい。この構成は、リング照明と方向性照明とで光量が異なること等により最適なZ方向の位置が異なる場合に有用である。   In the above description, the mask image data is generated based on the image data when the ring illumination is emitted, but the present invention is not limited to this. Mask image data may be generated based on each of the image data when the ring illumination is emitted and the image data when the directional illumination is emitted. Moreover, the mask image data when the directional illumination is emitted may be generated for each of the plurality of directional illuminations. This configuration is useful when the optimum position in the Z direction is different due to the difference in the amount of light between the ring illumination and the directional illumination.

(b)深度合成処理の一例
図2の記憶部420に記憶されるシステムプログラムは、深度合成プログラムを含む。図2の制御部410は、深度合成プログラムを実行することにより、深度合成処理を行う。
(B) Example of Depth Synthesis Process The system program stored in the storage unit 420 in FIG. 2 includes a depth synthesis program. The control unit 410 in FIG. 2 performs a depth synthesis process by executing a depth synthesis program.

図22、図23および図24は、深度合成処理の一例を示すフローチャートである。制御部410は、レンズユニット131を下限位置に移動させる(ステップS301)。次に、制御部410は、投光部140によりリング照明を観察対象物Sに照射するとともに、撮像部132により観察対象物Sを撮像する(ステップS302)。また、制御部410は、生成された原画像データにレンズユニット131のZ方向の位置に対応する番号を付与する(ステップS303)。続いて、制御部410は、レンズユニット131が上限位置まで移動したか否かを判定する(ステップS304)。   22, FIG. 23 and FIG. 24 are flowcharts showing an example of the depth synthesis process. The controller 410 moves the lens unit 131 to the lower limit position (step S301). Next, the control unit 410 irradiates the observation object S with ring illumination by the light projecting unit 140 and images the observation object S by the imaging unit 132 (step S302). In addition, the control unit 410 assigns a number corresponding to the position of the lens unit 131 in the Z direction to the generated original image data (step S303). Subsequently, the control unit 410 determines whether or not the lens unit 131 has moved to the upper limit position (step S304).

ステップS304において、レンズユニット131が上限位置まで移動していない場合、制御部410は、レンズユニット131を所定量(予め設定された移動ピッチ)だけ上方に移動させる(ステップS305)。その後、制御部410は、ステップS302の処理に戻る。レンズユニット131が上限位置まで移動するまで、制御部410はステップS302〜S305の処理を繰り返す。   In step S304, when the lens unit 131 has not moved to the upper limit position, the control unit 410 moves the lens unit 131 upward by a predetermined amount (a preset movement pitch) (step S305). Thereafter, the control unit 410 returns to the process of step S302. The control unit 410 repeats the processes of steps S302 to S305 until the lens unit 131 moves to the upper limit position.

ステップS304において、レンズユニット131が上限位置まで移動した場合、制御部410は、リング照明に対応する各原画像データについて、画素ごとの合焦度を判定する(ステップS306)。次に、制御部410は、合焦度の判定結果に基づいて複数の原画像データの画素データを合成することにより、リング照明に対応する深度合成画像データを生成する(ステップS307)。また、制御部410は、合成された画像データの各画素と原画像データの番号との対応関係を示すマスクイメージデータを生成し、記憶部420に記憶させる(ステップS308)。   When the lens unit 131 has moved to the upper limit position in step S304, the control unit 410 determines the degree of focus for each pixel for each original image data corresponding to ring illumination (step S306). Next, the control unit 410 generates depth combined image data corresponding to ring illumination by combining the pixel data of the plurality of original image data based on the determination result of the in-focus level (step S307). Further, the control unit 410 generates mask image data indicating the correspondence between each pixel of the combined image data and the number of the original image data, and stores the mask image data in the storage unit 420 (step S308).

その後、制御部410は、レンズユニット131を下限位置に移動させる(ステップS309)。次に、制御部410は、iを1に設定する(ステップS310)。ここで、iは複数の方向性照明の番号を示す。続いて、制御部410は、投光部140により第iの方向性照明を観察対象物Sに照射するとともに、撮像部132により観察対象物Sを撮像する(ステップS311)。また、制御部410は、生成された原画像データにレンズユニット131のZ方向の位置に対応する番号を付与する(ステップS312)。続いて、制御部410は、レンズユニット131が上限位置まで移動したか否かを判定する(ステップS313)。   Thereafter, the control unit 410 moves the lens unit 131 to the lower limit position (step S309). Next, control unit 410 sets i to 1 (step S310). Here, i indicates a number of a plurality of directional illuminations. Subsequently, the control unit 410 irradiates the observation object S with the i-th directional illumination by the light projecting unit 140 and images the observation object S by the imaging unit 132 (step S311). In addition, the control unit 410 gives a number corresponding to the position of the lens unit 131 in the Z direction to the generated original image data (step S312). Subsequently, the control unit 410 determines whether or not the lens unit 131 has moved to the upper limit position (step S313).

ステップS313において、レンズユニット131が上限位置まで移動していない場合、制御部410は、レンズユニット131を所定量(予め設定された移動ピッチ)だけ上方に移動させる(ステップS314)。その後、制御部410は、ステップS311の処理に戻る。レンズユニット131が上限位置まで移動するまで、制御部410はステップS311〜S314の処理を繰り返す。   In step S313, when the lens unit 131 has not moved to the upper limit position, the control unit 410 moves the lens unit 131 upward by a predetermined amount (a preset movement pitch) (step S314). Thereafter, the control unit 410 returns to the process of step S311. Until the lens unit 131 moves to the upper limit position, the control unit 410 repeats the processes of steps S311 to S314.

ステップS313において、レンズユニット131が上限位置まで移動した場合、制御部410は、記憶部420に記憶されたマスクイメージデータに基づいて複数の原画像データの画素データを合成することにより、第iの方向性照明に対応する深度合成画像データを生成する(ステップS315)。   In step S313, when the lens unit 131 moves to the upper limit position, the control unit 410 combines the pixel data of the plurality of original image data based on the mask image data stored in the storage unit 420, so that the i th Depth composite image data corresponding to the directional illumination is generated (step S315).

次に、制御部410は、iが4であるか否かを判定する(ステップS316)。ステップS316において、iが4でない場合、制御部410はiをi+1に更新する(ステップS317)。また、制御部410は、レンズユニット131を下限位置に移動させる(ステップS318)。その後、制御部410はステップS311の処理に戻る。iが4になるまで、制御部410はステップS311〜S318の処理を繰り返す。これにより、第1〜第4の方向性照明の各々に対応する複数の原画像データが生成されるとともに、第1〜第4の方向性照明の各々に対応する深度合成画像データが生成される。ステップS316において、iが4である場合、制御部410は処理を終了する。   Next, the control unit 410 determines whether i is 4 (step S316). In step S316, when i is not 4, the control unit 410 updates i to i + 1 (step S317). Further, the control unit 410 moves the lens unit 131 to the lower limit position (step S318). Thereafter, the control unit 410 returns to the process of step S311. Control unit 410 repeats the processing of steps S311 to S318 until i becomes 4. Accordingly, a plurality of original image data corresponding to each of the first to fourth directional illuminations is generated, and depth composite image data corresponding to each of the first to fourth directional illuminations is generated. . In step S316, when i is 4, the control part 410 complete | finishes a process.

上記の説明において、一部の処理が他の時点で行われてよい。例えば、ステップS306〜S308の処理は、ステップS309〜S314と並列的に実行されてもよい。また、第iの方向性照明に対応するステップS315の処理は、第(i+1)の方向性照明に対応するステップS311〜S314と並列的に実行されてもよい。これらの場合、深度合成処理を高速化することができる。   In the above description, some processes may be performed at other times. For example, the processes in steps S306 to S308 may be executed in parallel with steps S309 to S314. Further, the process of step S315 corresponding to the i-th directional illumination may be performed in parallel with steps S311 to S314 corresponding to the (i + 1) -th directional illumination. In these cases, the depth synthesis process can be speeded up.

あるいは、ステップS306〜S308の処理は、ステップS309〜S314の処理よりも後に実行されてもよい。また、第iの方向性照明に対応するステップS315の処理は、第(i+1)の方向性照明に対応するステップS311〜S314の処理よりも後に実行されてもよい。   Or the process of step S306-S308 may be performed after the process of step S309-S314. Further, the process of step S315 corresponding to the i-th directional illumination may be executed after the processes of steps S311 to S314 corresponding to the (i + 1) -th directional illumination.

(c)深度合成処理の他の例
図25、図26および図27は、深度合成処理の他の例を示すフローチャートである。制御部410は、レンズユニット131を下限位置に移動させる(ステップS321)。次に、制御部410は、投光部140によりリング照明を観察対象物Sに照射するとともに、撮像部132により観察対象物Sを撮像する(ステップS322)。また、制御部410は、生成された原画像データにレンズユニット131のZ方向の位置に対応する番号を付与する(ステップS323)。
(C) Another Example of Depth Combining Process FIGS. 25, 26, and 27 are flowcharts illustrating another example of the depth synthesizing process. The controller 410 moves the lens unit 131 to the lower limit position (step S321). Next, the control unit 410 irradiates the observation object S with ring illumination by the light projecting unit 140 and images the observation object S by the imaging unit 132 (step S322). Further, the control unit 410 assigns a number corresponding to the position of the lens unit 131 in the Z direction to the generated original image data (step S323).

続いて、制御部410は、iを1に設定する(ステップS324)。ここで、iは複数の方向性照明の番号を示す。その後、制御部410は、投光部140により第iの方向性照明を観察対象物Sに照射するとともに、撮像部132により観察対象物Sを撮像する(ステップS325)。また、制御部410は、生成された原画像データにレンズユニット131のZ方向の位置に対応する番号を付与する(ステップS326)。次に、制御部410は、iが4であるか否かを判定する(ステップS327)。   Subsequently, the control unit 410 sets i to 1 (step S324). Here, i indicates a number of a plurality of directional illuminations. Thereafter, the control unit 410 irradiates the observation object S with the i-th directional illumination by the light projecting unit 140 and images the observation object S by the imaging unit 132 (step S325). In addition, the control unit 410 assigns a number corresponding to the position of the lens unit 131 in the Z direction to the generated original image data (step S326). Next, the control unit 410 determines whether i is 4 (step S327).

ステップS327において、iが4でない場合、制御部410はiをi+1に更新する(ステップS328)。その後、制御部410はステップS325の処理に戻る。iが4になるまで、制御部410はステップS325〜S328の処理を繰り返す。これにより、第1〜第4の方向性照明の各々に対応する複数の原画像データが生成される。ステップS327において、iが4である場合、制御部410は、レンズユニット131が上限位置まで移動したか否かを判定する(ステップS329)。   If i is not 4 in step S327, control unit 410 updates i to i + 1 (step S328). Thereafter, the control unit 410 returns to the process of step S325. Control unit 410 repeats the processing of steps S325 to S328 until i becomes 4. Thereby, a plurality of original image data corresponding to each of the first to fourth directional illuminations is generated. In step S327, when i is 4, the control unit 410 determines whether or not the lens unit 131 has moved to the upper limit position (step S329).

ステップS329において、レンズユニット131が上限位置まで移動していない場合、制御部410は、レンズユニット131を所定量だけ上方に移動させる(ステップS330)。その後、制御部410は、ステップS322の処理に戻る。レンズユニット131が上限位置まで移動するまで、制御部410はステップS322〜S330の処理を繰り返す。   If the lens unit 131 has not moved to the upper limit position in step S329, the control unit 410 moves the lens unit 131 upward by a predetermined amount (step S330). Thereafter, the control unit 410 returns to the process of step S322. Until the lens unit 131 moves to the upper limit position, the control unit 410 repeats the processes of steps S322 to S330.

ステップS329において、レンズユニット131が上限位置まで移動した場合、制御部410は、リング照明に対応する各原画像データについて、画素ごとの合焦度を判定する(ステップS331)。次に、制御部410は、合焦度の判定結果に基づいて複数の原画像データの画素データを合成することにより、リング照明に対応する深度合成画像データを生成する(ステップS332)。また、制御部410は、合成された画像データの各画素と原画像データの番号との対応関係を示すマスクイメージデータを生成し、記憶部420に記憶させる(ステップS333)。   In step S329, when the lens unit 131 moves to the upper limit position, the control unit 410 determines the degree of focus for each pixel for each original image data corresponding to the ring illumination (step S331). Next, the control unit 410 generates depth combined image data corresponding to ring illumination by combining the pixel data of the plurality of original image data based on the determination result of the in-focus level (step S332). In addition, the control unit 410 generates mask image data indicating the correspondence between each pixel of the combined image data and the number of the original image data, and stores the mask image data in the storage unit 420 (step S333).

続いて、制御部410は、再度iを1に設定する(ステップS334)。その後、制御部410は、記憶部420に記憶されたマスクイメージデータに基づいて複数の原画像データの画素データを合成することにより、第iの方向性照明に対応する深度合成画像データを生成する(ステップS335)。   Subsequently, control unit 410 sets i to 1 again (step S334). Thereafter, the control unit 410 combines the pixel data of the plurality of original image data based on the mask image data stored in the storage unit 420 to generate depth combined image data corresponding to the i-th directional illumination. (Step S335).

次に、制御部410は、iが4であるか否かを判定する(ステップS336)。ステップS316において、iが4でない場合、制御部410はiをi+1に更新する(ステップS337)。その後、制御部410はステップS335の処理に戻る。iが4になるまで、制御部410はステップS335〜S337の処理を繰り返す。これにより、第1〜第4の方向性照明の各々に対応する深度合成画像データが生成される。ステップS336において、iが4である場合、制御部410は処理を終了する。   Next, the control unit 410 determines whether i is 4 (step S336). In step S316, when i is not 4, the control unit 410 updates i to i + 1 (step S337). Thereafter, the control unit 410 returns to the process of step S335. Control unit 410 repeats the processing of steps S335 to S337 until i becomes 4. Thereby, depth composite image data corresponding to each of the first to fourth directional illuminations is generated. In step S336, when i is 4, the control unit 410 ends the process.

上記の説明において、一部の処理が他の時点で行われてよい。例えば、ステップS331〜S337の処理の一部は、ステップS321〜S330と並列的に実行されてもよい。この場合、深度合成処理を高速化することができる。また、ステップS322,S323の処理は、ステップS324〜S328の処理よりも後に実行されてもよい。   In the above description, some processes may be performed at other times. For example, part of the processing of steps S331 to S337 may be executed in parallel with steps S321 to S330. In this case, the depth synthesis process can be speeded up. Moreover, the process of step S322, S323 may be performed after the process of step S324-S328.

上記の深度合成処理の一例および他の例においては、レンズユニット131が初期位置として下限位置に移動された後、上限位置まで所定量ずつ上方に移動されるが、本発明はこれに限定されない。深度合成処理においては、レンズユニット131が初期位置として上限位置に移動された後、下限位置まで所定量ずつ下方に移動されてもよい。   In one example and other examples of the above-described depth synthesis processing, the lens unit 131 is moved to the upper limit position by a predetermined amount after being moved to the lower limit position as the initial position, but the present invention is not limited to this. In the depth synthesis process, after the lens unit 131 is moved to the upper limit position as the initial position, it may be moved downward by a predetermined amount to the lower limit position.

なお、上記の説明においては、深度合成処理として位置H1〜Hjにそれぞれ対応する複数の原画像データが合成されるが、本発明はこれに限定されない。位置H1〜Hjにそれぞれ対応する複数の原画像データが、合成されることなく独立に利用されてもよい。   In the above description, a plurality of original image data respectively corresponding to the positions H1 to Hj are combined as the depth combining process, but the present invention is not limited to this. A plurality of original image data respectively corresponding to the positions H1 to Hj may be used independently without being synthesized.

例えば、図6の合焦判定部620による判定結果に基づいて、撮像部132の焦点が観察対象物Sの特定の部分に最も一致する原画像データが位置H1〜Hjにそれぞれ対応する複数の原画像データから抽出されてもよい。この場合、リング照明および第1〜第4の方向性照明にそれぞれ対応して抽出された複数の原画像データに基づいて、全体的に合焦度が大きい画像を示す表示用画像データを高速に生成することができる。   For example, based on the determination result by the focus determination unit 620 in FIG. It may be extracted from the image data. In this case, display image data indicating an image with a high degree of focus as a whole is rapidly generated based on a plurality of original image data extracted corresponding to each of the ring illumination and the first to fourth directional illuminations. Can be generated.

(4)DR調整処理
(a)処理内容
使用者は、図2の操作部440を用いて図9のDR調整ボタンb2を操作することにより、演算処理部600にDR調整処理の指示を与えることができる。
(4) DR adjustment processing (a) Processing content The user gives an instruction for DR adjustment processing to the arithmetic processing unit 600 by operating the DR adjustment button b2 in FIG. 9 using the operation unit 440 in FIG. Can do.

DR調整処理においては、撮像部132の受光時間を予め定められた複数の値に変化させた状態で、リング照明および第1〜第4の方向性照明の各々が照射されたときの観察対象物Sが撮像される。これにより、リング照明および第1〜第4の方向性照明の各々に対応する複数の原画像データが、撮像部132の受光時間ごとに図6のデータ生成部610により生成される。撮像部132の受光時間が短いときに生成された各原画像データの全体的な画素値は比較的小さく撮像部132の受光時間が長いときに生成された各原画像データの全体的な画素値は比較的大きい。   In the DR adjustment process, an observation object when each of the ring illumination and the first to fourth directional illuminations is irradiated in a state where the light reception time of the imaging unit 132 is changed to a plurality of predetermined values. S is imaged. Accordingly, a plurality of original image data corresponding to each of the ring illumination and the first to fourth directional illuminations is generated by the data generation unit 610 of FIG. The overall pixel value of each original image data generated when the light receiving time of the imaging unit 132 is short is relatively small, and the overall pixel value of each original image data generated when the light receiving time of the imaging unit 132 is long. Is relatively large.

リング照明に対応する複数の原画像データがデータ生成部610により合成される。これにより、リング照明に対応する原画像データのダイナミックレンジを調整することができる。同様に、各方向性照明に対応する複数の原画像データがデータ生成部610により合成される。これにより、各方向性照明に対応する原画像データのダイナミックレンジを調整することができる。   A plurality of original image data corresponding to ring illumination is synthesized by the data generation unit 610. Thereby, the dynamic range of the original image data corresponding to ring illumination can be adjusted. Similarly, a plurality of original image data corresponding to each directional illumination is synthesized by the data generation unit 610. Thereby, the dynamic range of the original image data corresponding to each directional illumination can be adjusted.

ここで、ダイナミックレンジの調整は、ダイナミックレンジの拡大および縮小を含む。ダイナミックレンジが拡大するように複数の原画像データを合成することにより、画像から黒つぶれおよびハレーション(白とび)を低減することができる。一方、ダイナミックレンジが縮小するように複数の原画像データを合成することにより、画像の濃淡の差が大きくなる。これにより、滑らかな表面を有する観察対象物Sの凹凸を精密に観察することができる。   Here, the adjustment of the dynamic range includes expansion and reduction of the dynamic range. By combining a plurality of original image data so as to expand the dynamic range, it is possible to reduce blackout and halation from the image. On the other hand, by synthesizing a plurality of original image data so as to reduce the dynamic range, the difference in image density increases. Thereby, the unevenness | corrugation of the observation target object S which has a smooth surface can be observed precisely.

上記の説明においては、リング照明および第1〜第4の方向性照明ごとにダイナミックレンジが調整されるように原画像データが先に合成され、合成された複数の原画像データに基づいて表示用画像データが生成されるが、本発明はこれに限定されない。撮像部132の受光時間ごとに複数の原画像データに基づいて表示用画像データが先に生成され、ダイナミックレンジが調整されるように撮像部132の受光時間ごとに生成された表示用画像データが合成されてもよい。   In the above description, the original image data is synthesized first so that the dynamic range is adjusted for each of the ring illumination and the first to fourth directional illuminations, and for display based on a plurality of synthesized original image data Although image data is generated, the present invention is not limited to this. Display image data is first generated based on a plurality of original image data for each light reception time of the imaging unit 132, and the display image data generated for each light reception time of the imaging unit 132 is adjusted so that the dynamic range is adjusted. It may be synthesized.

(b)DR調整処理の一例
図2の記憶部420に記憶されるシステムプログラムは、DR調整プログラムを含む。図2の制御部410は、DR調整プログラムを実行することにより、DR調整処理を行う。
(B) Example of DR Adjustment Process The system program stored in the storage unit 420 in FIG. 2 includes a DR adjustment program. The control unit 410 in FIG. 2 performs a DR adjustment process by executing a DR adjustment program.

図28および図29は、DR調整処理の一例を示すフローチャートである。制御部410は、撮像部132の受光時間を予め定められた初期値に設定する(ステップS401)。この状態で、制御部410は、投光部140によりリング照明を観察対象物Sに照射するとともに、撮像部132により観察対象物Sを撮像する(ステップS402)。続いて、制御部410は、リング照明が照射された状態で、撮像部132の全ての所望の受光時間で観察対象物Sが撮像されたか否かを判定する(ステップS403)。   28 and 29 are flowcharts illustrating an example of the DR adjustment processing. The control unit 410 sets the light reception time of the imaging unit 132 to a predetermined initial value (step S401). In this state, the control unit 410 irradiates the observation object S with the ring illumination by the light projecting unit 140 and images the observation object S by the imaging unit 132 (step S402). Subsequently, the control unit 410 determines whether or not the observation object S has been imaged during all desired light receiving times of the imaging unit 132 in a state where the ring illumination is irradiated (step S403).

ステップS403において、撮像部132の全ての所望の受光時間で観察対象物Sが撮像されていない場合、制御部410は、撮像部132の受光時間を予め定められた次の値に設定する(ステップS404)。その後、制御部410は、ステップS402の処理に戻る。撮像部132の全ての所望の受光時間で観察対象物Sが撮像されるまで、制御部410はステップS402〜S404の処理を繰り返す。   In step S403, when the observation object S is not imaged in all desired light reception times of the imaging unit 132, the control unit 410 sets the light reception time of the imaging unit 132 to a predetermined value (step). S404). Thereafter, the control unit 410 returns to the process of step S402. The control unit 410 repeats the processes of steps S402 to S404 until the observation object S is imaged during all desired light reception times of the imaging unit 132.

ステップS403において、撮像部132の全ての所望の受光時間で観察対象物Sが撮像された場合、制御部410は、生成されたリング照明に対応する複数の原画像データを合成する(ステップS405)。これにより、リング照明に対応する原画像データのダイナミックレンジが調整される。   In step S403, when the observation object S is imaged during all desired light reception times of the imaging unit 132, the control unit 410 synthesizes a plurality of original image data corresponding to the generated ring illumination (step S405). . Thereby, the dynamic range of the original image data corresponding to ring illumination is adjusted.

その後、制御部410は、iを1に設定する(ステップS406)。ここで、iは複数の方向性照明の番号を示す。次に、制御部410は、撮像部132の受光時間を予め定められた初期値に設定する(ステップS407)。この状態で、制御部410は、投光部140により第iの方向性照明を観察対象物Sに照射するとともに、撮像部132により観察対象物Sを撮像する(ステップS408)。続いて、制御部410は、第iの方向性照明が照射された状態で、撮像部132の全ての所望の受光時間で観察対象物Sが撮像されたか否かを判定する(ステップS409)。   Thereafter, control unit 410 sets i to 1 (step S406). Here, i indicates a number of a plurality of directional illuminations. Next, the control unit 410 sets the light reception time of the imaging unit 132 to a predetermined initial value (step S407). In this state, the control unit 410 irradiates the observation object S with the i-th directional illumination by the light projecting unit 140 and images the observation object S by the imaging unit 132 (step S408). Subsequently, the control unit 410 determines whether or not the observation object S has been imaged during all desired light reception times of the imaging unit 132 in a state where the i-th directional illumination is irradiated (step S409).

ステップS409において、撮像部132の全ての所望の受光時間で観察対象物Sが撮像されていない場合、制御部410は、撮像部132の受光時間を予め定められた次の値に設定する(ステップS410)。その後、制御部410は、ステップS408の処理に戻る。撮像部132の全ての所望の受光時間で観察対象物Sが撮像されるまで、制御部410はステップS408〜S410の処理を繰り返す。   In step S409, when the observation object S is not imaged at all desired light reception times of the imaging unit 132, the control unit 410 sets the light reception time of the imaging unit 132 to a predetermined next value (step S409). S410). Thereafter, the control unit 410 returns to the process of step S408. The control unit 410 repeats the processes of steps S408 to S410 until the observation object S is imaged at all desired light reception times of the imaging unit 132.

ステップS409において、撮像部132の全ての所望の受光時間で観察対象物Sが撮像された場合、制御部410は、生成された生成された第iの方向性照明に対応する複数の原画像データを合成する(ステップS411)。これにより、第iの方向性照明に対応する原画像データのダイナミックレンジが調整される。   In step S409, when the observation object S is imaged during all desired light reception times of the imaging unit 132, the control unit 410 generates a plurality of original image data corresponding to the generated i-th directional illumination. Are synthesized (step S411). Thereby, the dynamic range of the original image data corresponding to the i-th directional illumination is adjusted.

次に、制御部410は、iが4であるか否かを判定する(ステップS412)。ステップS412において、iが4でない場合、制御部410はiをi+1に更新する(ステップS413)。その後、制御部410はステップS407の処理に戻る。iが4になるまで、制御部410はステップS407〜S413の処理を繰り返す。これにより、第1〜第4の方向性照明の各々に対応する複数の原画像データが生成され、ダイナミックレンジが調整されるように合成される。ステップS412において、iが4である場合、制御部410は処理を終了する。   Next, the control unit 410 determines whether i is 4 (step S412). In step S412, if i is not 4, the control unit 410 updates i to i + 1 (step S413). Thereafter, the control unit 410 returns to the process of step S407. Control unit 410 repeats the processing of steps S407 to S413 until i becomes 4. Thereby, a plurality of original image data corresponding to each of the first to fourth directional illuminations is generated and combined so that the dynamic range is adjusted. In step S412, if i is 4, the control unit 410 ends the process.

上記の説明において、一部の処理が他の時点で行われてよい。例えば、ステップS405の処理は、ステップS406〜S413の処理と並列的に実行されてもよい。また、第iの方向性照明に対応するステップS411の処理は、第(i+1)の方向性照明に対応するステップS407〜S410と並列的に実行されてもよい。これらの場合、DR調整処理を高速化することができる。   In the above description, some processes may be performed at other times. For example, the process in step S405 may be executed in parallel with the processes in steps S406 to S413. Further, the process of step S411 corresponding to the i-th directional illumination may be performed in parallel with steps S407 to S410 corresponding to the (i + 1) -th directional illumination. In these cases, the DR adjustment process can be speeded up.

あるいは、ステップS401〜S405の処理は、ステップS406〜S413の処理よりも後に実行されてもよい。また、第iの方向性照明に対応するステップS411の処理は、第(i+1)の方向性照明に対応するステップS407〜S410の処理よりも後に実行されてもよい。   Or the process of step S401-S405 may be performed after the process of step S406-S413. Further, the process of step S411 corresponding to the i-th directional illumination may be executed after the processes of steps S407 to S410 corresponding to the (i + 1) -th directional illumination.

(c)DR調整処理の他の例
図30および図31は、DR調整処理の他の例を示すフローチャートである。制御部410は、撮像部132の受光時間を予め定められた初期値に設定する(ステップS421)。この状態で、制御部410は、投光部140によりリング照明を観察対象物Sに照射するとともに、撮像部132により観察対象物Sを撮像する(ステップS422)。
(C) Another Example of DR Adjustment Processing FIGS. 30 and 31 are flowcharts showing another example of the DR adjustment processing. The control unit 410 sets the light reception time of the imaging unit 132 to a predetermined initial value (step S421). In this state, the control unit 410 irradiates the observation object S with the ring illumination by the light projecting unit 140 and images the observation object S by the imaging unit 132 (step S422).

続いて、制御部410は、iを1に設定する(ステップS423)。ここで、iは複数の方向性照明の番号を示す。その後、制御部410は、投光部140により第iの方向性照明を観察対象物Sに照射するとともに、撮像部132により観察対象物Sを撮像する(ステップS424)。   Subsequently, the control unit 410 sets i to 1 (step S423). Here, i indicates a number of a plurality of directional illuminations. Thereafter, the control unit 410 irradiates the observation object S with the i-th directional illumination by the light projecting unit 140 and images the observation object S by the imaging unit 132 (step S424).

次に、制御部410は、iが4であるか否かを判定する(ステップS425)。ステップS425において、iが4でない場合、制御部410はiをi+1に更新する(ステップS426)。その後、制御部410はステップS424の処理に戻る。iが4になるまで、制御部410はステップS424〜S426の処理を繰り返す。これにより、第1〜第4の方向性照明の各々に対応する複数の原画像データが生成される。続いて、制御部410は、撮像部132の全ての所望の受光時間で観察対象物Sが撮像されたか否かを判定する(ステップS427)。   Next, the control unit 410 determines whether i is 4 (step S425). If i is not 4 in step S425, control unit 410 updates i to i + 1 (step S426). Thereafter, the control unit 410 returns to the process of step S424. Control unit 410 repeats the processing of steps S424 to S426 until i becomes 4. Thereby, a plurality of original image data corresponding to each of the first to fourth directional illuminations is generated. Subsequently, the control unit 410 determines whether or not the observation object S has been imaged during all desired light reception times of the imaging unit 132 (step S427).

ステップS427において、撮像部132の全ての所望の受光時間で観察対象物Sが撮像されていない場合、制御部410は、撮像部132の受光時間を予め定められた次の値に設定する(ステップS428)。その後、制御部410は、ステップS422の処理に戻る。撮像部132の全ての所望の受光時間で観察対象物Sが撮像されるまで、制御部410はステップS422〜S428の処理を繰り返す。   In step S427, when the observation object S is not imaged in all desired light reception times of the imaging unit 132, the control unit 410 sets the light reception time of the imaging unit 132 to a predetermined value (step). S428). Thereafter, the control unit 410 returns to the process of step S422. The control unit 410 repeats the processes of steps S422 to S428 until the observation object S is imaged at all desired light reception times of the imaging unit 132.

ステップS427において、撮像部132の全ての所望の受光時間で観察対象物Sが撮像された場合、制御部410は、生成されたリング照明に対応する複数の原画像データをダイナミックレンジが調整されるように合成する(ステップS429)。これにより、リング照明に対応する原画像データのダイナミックレンジが調整される。   In step S427, when the observation object S is imaged during all desired light reception times of the imaging unit 132, the control unit 410 adjusts the dynamic range of the plurality of original image data corresponding to the generated ring illumination. (Step S429). Thereby, the dynamic range of the original image data corresponding to ring illumination is adjusted.

その後、制御部410は、再度iを1に設定する(ステップS430)。次に、制御部410は、生成された第iの方向性照明に対応する複数の原画像データを合成する(ステップS431)。これにより、第iの方向性照明に対応する原画像データのダイナミックレンジが調整される。続いて、制御部410は、iが4であるか否かを判定する(ステップS432)。   Thereafter, control unit 410 sets i to 1 again (step S430). Next, the control unit 410 combines a plurality of original image data corresponding to the generated i-th directional illumination (step S431). Thereby, the dynamic range of the original image data corresponding to the i-th directional illumination is adjusted. Subsequently, the control unit 410 determines whether i is 4 (step S432).

ステップS432において、iが4でない場合、制御部410はiをi+1に更新する(ステップS433)。その後、制御部410はステップS431の処理に戻る。iが4になるまで、制御部410はステップS431〜S433の処理を繰り返す。これにより、第1〜第4の方向性照明の各々に対応する複数の原画像データが、ダイナミックレンジが調整されるように合成される。ステップS432において、iが4である場合、制御部410は処理を終了する。   In step S432, when i is not 4, the control unit 410 updates i to i + 1 (step S433). Thereafter, the control unit 410 returns to the process of step S431. Control unit 410 repeats the processes of steps S431 to S433 until i becomes 4. Thereby, a plurality of original image data corresponding to each of the first to fourth directional illuminations are combined so that the dynamic range is adjusted. In step S432, when i is 4, the control unit 410 ends the process.

上記の説明において、一部の処理が他の時点で行われてよい。例えば、ステップS429〜S433の処理の一部は、ステップS421〜S428の処理と並列的に行われてもよい。この場合、DR調整処理を高速化することができる。また、ステップS422の処理は、ステップS423〜S426の処理よりも後に実行されてもよい。さらに、ステップS429の処理は、ステップS430〜S433の処理よりも後に実行されてもよい。   In the above description, some processes may be performed at other times. For example, part of the processing of steps S429 to S433 may be performed in parallel with the processing of steps S421 to S428. In this case, the DR adjustment process can be speeded up. Further, the process of step S422 may be executed after the processes of steps S423 to S426. Furthermore, the process of step S429 may be executed after the processes of steps S430 to S433.

(5)プレビュー処理
(a)プレビュー処理の具体的な内容
使用者は、図2の操作部440を用いて図9のプレビューボタンb5を操作することにより、制御部410にプレビュー処理の指示を与えることができる。
(5) Preview Processing (a) Specific Contents of Preview Processing The user gives an instruction for preview processing to the control unit 410 by operating the preview button b5 in FIG. 9 using the operation unit 440 in FIG. be able to.

図32は、プレビュー処理中の観察画面430Aの表示状態の一例を示す図である。使用者によるプレビュー処理の指示があると、制御部410は、記憶部420に記憶された複数のサムネイル画像データに基づく複数のサムネイル画像SUを主表示領域432に選択可能に一覧表示させる。   FIG. 32 is a diagram illustrating an example of a display state of the observation screen 430A during the preview process. When a preview instruction is given by the user, the control unit 410 displays a plurality of thumbnail images SU based on the plurality of thumbnail image data stored in the storage unit 420 in a selectable manner in the main display area 432.

また、制御部410は、主表示領域432における各サムネイル画像SUの近傍の位置にそのサムネイル画像SUに対応する光の出射方向を示す指標を表示させる。この指標として、本例では、光の出射方向に対応する照明の名称を示す文字列が表示されるとともに、観察対象物Sに照射される光の出射方向の方位角を示す文字列が括弧書きで表示される。   In addition, the control unit 410 displays an index indicating the emission direction of the light corresponding to the thumbnail image SU at a position near each thumbnail image SU in the main display area 432. As this index, in this example, a character string indicating the name of the illumination corresponding to the light emission direction is displayed, and a character string indicating the azimuth angle of the light emission direction irradiated on the observation object S is written in parentheses. Is displayed.

この場合、使用者は、複数のサムネイル画像SUとリング照明および第1〜第4の方向性照明との対応を把握しつつ複数のサムネイル画像SUを容易に比較することができる。したがって、使用者は、複数のサムネイル画像SUから観察に適した画像を容易に識別することができる。   In this case, the user can easily compare the plurality of thumbnail images SU while grasping the correspondence between the plurality of thumbnail images SU and the ring illumination and the first to fourth directional illuminations. Therefore, the user can easily identify an image suitable for observation from the plurality of thumbnail images SU.

使用者は、図2の操作部440を用いて主表示領域432に表示される複数のサムネイル画像SUのうちの1つを選択することができる。この場合、制御部410は、サムネイル画像SUの選択に応答して、選択されたサムネイル画像SUに対応する観察対象物Sの画像SIを主表示領域432の全体に渡って表示させる。このようにして、観察画面430Aの表示状態が、図9の例と同様の基本的な表示状態に戻り、プレビュー処理が終了する。   The user can select one of a plurality of thumbnail images SU displayed in the main display area 432 using the operation unit 440 of FIG. In this case, in response to the selection of the thumbnail image SU, the control unit 410 displays the image SI of the observation object S corresponding to the selected thumbnail image SU over the entire main display area 432. In this way, the display state of the observation screen 430A returns to the basic display state similar to the example of FIG. 9, and the preview process ends.

本実施の形態では、プレビュー処理後に主表示領域432に表示される観察対象物Sの画像SI(図9等参照)の面積は、プレビュー処理における選択前の各サムネイル画像SUの面積よりも大きい。また、プレビュー処理後に主表示領域432に表示される観察対象物Sの画像SI(図9等参照)の解像度は、プレビュー処理における選択前の各サムネイル画像SUの解像度よりも大きい。   In the present embodiment, the area of the image SI (see FIG. 9 etc.) of the observation object S displayed in the main display area 432 after the preview process is larger than the area of each thumbnail image SU before selection in the preview process. Further, the resolution of the image SI (see FIG. 9 and the like) of the observation object S displayed in the main display area 432 after the preview process is larger than the resolution of each thumbnail image SU before selection in the preview process.

これにより、使用者は、複数のサムネイル画像SUから観察に適したサムネイル画像SUを選択した後、選択したサムネイル画像SUに対応する観察対象物Sの画像SIに基づいてより詳細な観察を行うことができる。   Accordingly, the user selects a thumbnail image SU suitable for observation from the plurality of thumbnail images SU, and then performs more detailed observation based on the image SI of the observation object S corresponding to the selected thumbnail image SU. Can do.

プレビュー処理においては、リング照明および第1〜第4の方向性照明にそれぞれ対応する5つのサムネイル画像SUとともに、リング出射方向および第1〜第4の出射方向とは異なる出射方向の光が観察対象物Sに照射されたと仮定した場合に得られるべき観察対象物Sのサムネイル画像が選択可能に表示されてもよい。以下の説明では、このサムネイル画像を仮想サムネイル画像と呼ぶ。   In the preview processing, together with five thumbnail images SU corresponding to the ring illumination and the first to fourth directional illuminations, light in an emission direction different from the ring emission direction and the first to fourth emission directions is observed. A thumbnail image of the observation object S to be obtained when it is assumed that the object S is irradiated may be displayed in a selectable manner. In the following description, this thumbnail image is called a virtual thumbnail image.

この場合、制御部410は、上記の複数照明撮像処理において、複数の原画像データにそれぞれ対応する複数のサムネイル画像データを生成した後、複数の原画像データに対応する複数のサムネイル画像データと予め定められた光の仮想的な出射方向とに基づいて各仮想サムネイル画像SVを示す仮想サムネイル画像データを生成する。   In this case, the control unit 410 generates a plurality of thumbnail image data corresponding to each of the plurality of original image data in the above-described plurality of illumination imaging processes, and then stores the plurality of thumbnail image data corresponding to the plurality of original image data in advance. Virtual thumbnail image data representing each virtual thumbnail image SV is generated based on the determined virtual emission direction of light.

具体的には、制御部410は、複数の原画像データを合成して表示用画像データを生成する場合と同様に、予め定められた光の仮想的な出射方向に基づいて複数のサムネイル画像データの少なくとも一部について合成割合を決定し、決定された合成割合で複数のサムネイル画像データを合成する。それにより、仮想サムネイル画像データが生成される。   Specifically, the control unit 410 generates a plurality of thumbnail image data based on a predetermined virtual emission direction of light, as in the case of generating a display image data by combining a plurality of original image data. A composite ratio is determined for at least a part of the plurality of thumbnail image data, and a plurality of thumbnail image data are combined at the determined composite ratio. Thereby, virtual thumbnail image data is generated.

図33は、プレビュー処理中の観察画面430Aの表示状態の一例を示す図である。図33の例では、リング照明および第1〜第4の方向性照明にそれぞれ対応する5つのサムネイル画像SUとともに、複数の仮想サムネイル画像SVが表示されている。   FIG. 33 is a diagram illustrating an example of a display state of the observation screen 430A during the preview process. In the example of FIG. 33, a plurality of virtual thumbnail images SV are displayed together with five thumbnail images SU corresponding to the ring illumination and the first to fourth directional illuminations, respectively.

図33の表示状態で1つの仮想サムネイル画像SVが選択されると、選択された仮想サムネイル画像SVに対応する光の仮想的な出射方向に基づいて、その出射方向に対応する表示用画像データが複数の原画像データに基づいて生成される。生成された表示用画像データに基づく観察対象物Sの画像SIが主表示領域432に表示される。したがって、使用者は、複数のサムネイル画像SUおよび複数の仮想サムネイル画像SVを視認することにより、観察により適した画像を容易に識別することができる。   When one virtual thumbnail image SV is selected in the display state of FIG. 33, display image data corresponding to the emission direction is based on the virtual emission direction of light corresponding to the selected virtual thumbnail image SV. Generated based on a plurality of original image data. An image SI of the observation object S based on the generated display image data is displayed in the main display area 432. Therefore, the user can easily identify images more suitable for observation by visually recognizing the plurality of thumbnail images SU and the plurality of virtual thumbnail images SV.

図32および図33の例では、プレビュー処理において複数の原画像データにそれぞれ対応する複数のサムネイル画像SUの全てが一覧表示されるが、本発明はこれに限定されない。プレビュー処理では、少なくとも複数の原画像データにそれぞれ対応する複数のサムネイル画像SUが表示部430に表示されればよく、例えば複数のサムネイル画像SUが一定の周期で順次切り替わるように表示されてもよい。この場合、プレビュー処理における選択前のサムネイル画像SUの面積の大きさと、プレビュー処理後に主表示領域432に表示される観察対象物Sの画像SIの面積の大きさとが同じであってもよい。   In the example of FIGS. 32 and 33, all of the plurality of thumbnail images SU respectively corresponding to the plurality of original image data are displayed in a list in the preview process, but the present invention is not limited to this. In the preview process, a plurality of thumbnail images SU corresponding to at least a plurality of original image data may be displayed on the display unit 430. For example, the plurality of thumbnail images SU may be displayed so as to be sequentially switched at a constant cycle. . In this case, the size of the area of the thumbnail image SU before selection in the preview process may be the same as the size of the area of the image SI of the observation object S displayed in the main display area 432 after the preview process.

上記の例では、プレビュー処理中に主表示領域432に表示される複数の画像として複数のサムネイル画像SUが用いられるが、本発明はこれに限定されない。プレビュー処理中に複数の原画像データに基づく複数の画像SIが主表示領域432に表示されもよい。   In the above example, a plurality of thumbnail images SU are used as a plurality of images displayed in the main display area 432 during the preview process, but the present invention is not limited to this. A plurality of images SI based on a plurality of original image data may be displayed in the main display area 432 during the preview process.

(b)プレビュー処理の一例
図2の記憶部420に記憶されるシステムプログラムは、プレビュープログラムを含む。図2の制御部410は、プレビュープログラムを実行することにより、プレビュー処理を行う。
(B) Example of Preview Process The system program stored in the storage unit 420 in FIG. 2 includes a preview program. The control unit 410 in FIG. 2 performs a preview process by executing a preview program.

図34は、プレビュー処理の一例を示すフローチャートである。プレビュー処理は、使用者によるプレビュー処理の指示に応答して開始される。プレビュー処理が開始されると、制御部410は、複数のサムネイル画像データに基づく複数のサムネイル画像SUを表示部430の主表示領域432上に一覧表示させる(ステップS701)。また、制御部410は、表示部430に表示される各サムネイル画像SUの近傍に対応する光の出射方向を示す指標を表示する(ステップS702)。   FIG. 34 is a flowchart illustrating an example of the preview process. The preview process is started in response to a preview process instruction from the user. When the preview process is started, the control unit 410 displays a plurality of thumbnail images SU based on the plurality of thumbnail image data in a list on the main display area 432 of the display unit 430 (step S701). In addition, the control unit 410 displays an index indicating the light emission direction corresponding to the vicinity of each thumbnail image SU displayed on the display unit 430 (step S702).

続いて、制御部410は、複数のサムネイル画像SUのうち1つのサムネイル画像SUが選択されたか否かを判定する(ステップS703)。サムネイル画像SUが選択されると、制御部410は、選択されたサムネイル画像SUに対応する原画像データに基づいてサムネイル画像SUとは異なる態様で観察対象物Sの画像SIを表示部430の主表示領域432に表示させる(ステップS704)。   Subsequently, the control unit 410 determines whether one thumbnail image SU is selected from the plurality of thumbnail images SU (step S703). When the thumbnail image SU is selected, the control unit 410 displays the image SI of the observation object S on the display unit 430 in a manner different from the thumbnail image SU based on the original image data corresponding to the selected thumbnail image SU. It is displayed on the display area 432 (step S704).

すなわち、制御部410は、選択されたサムネイル画像SUよりも大きい面積でかつ大きい解像度で、原画像データに基づく観察対象物Sの画像SIを表示部430に表示させる。その後、制御部410は、プレビュー処理を終了する。   That is, the control unit 410 causes the display unit 430 to display the image SI of the observation object S based on the original image data with a larger area and a larger resolution than the selected thumbnail image SU. Thereafter, the control unit 410 ends the preview process.

本実施の形態においては、使用者は、図2の操作部440を操作することにより、プレビュー処理の終了を指示することができる。ステップS703においてサムネイル画像SUが選択されない場合、制御部410は、プレビュー処理の終了が指示されたか否かを判定する(ステップS705)。   In the present embodiment, the user can instruct the end of the preview process by operating the operation unit 440 of FIG. If the thumbnail image SU is not selected in step S703, the control unit 410 determines whether or not the end of the preview process has been instructed (step S705).

プレビュー処理の終了が指示されない場合、制御部410は、ステップS703の処理に戻る。一方、プレビュー処理の終了が指示された場合、制御部410は、表示部430の表示状態をプレビュー処理の開始直前の状態に戻し(ステップS706)、プレビュー処理を終了する。   When the end of the preview process is not instructed, the control unit 410 returns to the process of step S703. On the other hand, when the end of the preview process is instructed, the control unit 410 returns the display state of the display unit 430 to the state immediately before the start of the preview process (step S706), and ends the preview process.

なお、記憶部420に予め上記の仮想サムネイル画像SVに対応する仮想サムネイル画像データが記憶されている場合、制御部410は、ステップS701において、複数のサムネイル画像SUとともに仮想サムネイル画像SVを表示部430に表示させてもよい。この場合、制御部410は、ステップS703において仮想サムネイル画像SVが選択されたときに、選択された仮想サムネイル画像SVに対応する観察対象物Sの画像SIを表示部430に表示させてもよい。   If virtual thumbnail image data corresponding to the virtual thumbnail image SV is stored in the storage unit 420 in advance, the control unit 410 displays the virtual thumbnail image SV together with the plurality of thumbnail images SU in step S701. May be displayed. In this case, when the virtual thumbnail image SV is selected in step S703, the control unit 410 may cause the display unit 430 to display the image SI of the observation target S corresponding to the selected virtual thumbnail image SV.

(6)画像調整処理
使用者は、図2の操作部440を用いて図9の調整ボタンb6を操作することにより、制御部410に画像調整処理の指示を与えることができる。
(6) Image Adjustment Processing The user can give an instruction for image adjustment processing to the control unit 410 by operating the adjustment button b6 in FIG. 9 using the operation unit 440 in FIG.

図35は、画像調整処理中の観察画面430Aの表示状態の一例を示す図である。使用者による画像調整処理の指示があると、制御部410は、直前に主表示領域432に表示されていた観察対象物Sの画像SIを、主表示領域432内に2つ並べて表示させる。ここで、2つの画像SIのうちの一方を元画像SI1と呼び、他方を調整画像SI2と呼ぶ。さらに、制御部410は、主表示領域432内に決定ボタンb8を表示させる。   FIG. 35 is a diagram illustrating an example of a display state of the observation screen 430A during the image adjustment process. When the user instructs an image adjustment process, the control unit 410 displays two images SI of the observation object S that have been displayed in the main display area 432 in the main display area 432 side by side. Here, one of the two images SI is called an original image SI1, and the other is called an adjusted image SI2. Further, the control unit 410 displays a determination button b8 in the main display area 432.

使用者は、図2の操作部440を操作することにより、調整画像SI2について明るさ、コントラストおよび輪郭強調等の調整を指示することができる。それにより、制御部410は、調整画像SI2について使用者による調整の指示に応じた処理を行う。   The user can instruct adjustments such as brightness, contrast, and contour enhancement for the adjusted image SI2 by operating the operation unit 440 of FIG. Accordingly, the control unit 410 performs processing according to the adjustment instruction from the user for the adjustment image SI2.

その後、使用者は、調整画像SI2について所望の処理が施された状態で、操作部440を用いて決定ボタンb8を操作する。それにより、観察画面430Aにおける元画像SI1の表示が終了し、調整画像SI2が主表示領域432のほぼ全体に渡って表示される。   Thereafter, the user operates the determination button b8 using the operation unit 440 in a state where desired processing is performed on the adjustment image SI2. Thereby, the display of the original image SI1 on the observation screen 430A is finished, and the adjustment image SI2 is displayed over almost the entire main display area 432.

この場合、使用者は、調整されていない元画像SI1と調整後の調整画像SI2とを比較しつつ調整作業を行うことにより、観察により適した画像を容易に取得することができる。   In this case, the user can easily obtain an image more suitable for observation by performing an adjustment operation while comparing the original image SI1 that has not been adjusted and the adjusted image SI2 that has been adjusted.

ここで、上記の画像調整処理には、観察対象物Sに照射される光の向きを変更する処理も含まれる。例えば、使用者は、図2の操作部440を操作することにより、観察対象物Sへの光の出射方向を、元画像SI1に対応する光の出射方向とは異なる方向に指定することができる。この場合、制御部410は、指定された方向から観察対象物Sに光を照射しつつ観察対象物Sを撮像することにより、新たに指定された光の出射方向に対応する画像を生成する。   Here, the above-described image adjustment process includes a process of changing the direction of light applied to the observation object S. For example, by operating the operation unit 440 in FIG. 2, the user can designate the light emission direction to the observation object S as a direction different from the light emission direction corresponding to the original image SI1. . In this case, the control unit 410 generates an image corresponding to the newly specified light emission direction by imaging the observation target S while irradiating the observation target S with light from the specified direction.

それにより、元画像SI1として任意の出射方向に対応する観察対象物Sの画像を表示部430に表示するとともに、調整画像SI2として新たな出射方向を指定した後に取得される観察対象物Sの画像を表示部430に表示するようにしてもよい。その結果、使用者は、光の出射方向の変更前後の画像の変化を一画面で比較しながら観察することができる。   Accordingly, an image of the observation object S corresponding to an arbitrary emission direction is displayed on the display unit 430 as the original image SI1, and an image of the observation object S acquired after designating a new emission direction as the adjustment image SI2 May be displayed on the display unit 430. As a result, the user can observe the image change before and after the change of the light emission direction while comparing them on one screen.

(7)効果
本実施の形態に係る拡大観察装置1においては、複数照明撮像処理によりリング照明および第1〜第4の方向性照明にそれぞれ対応する複数の原画像データが生成される。また、複数の原画像データにそれぞれ対応する複数のサムネイル画像データが生成される。プレビュー処理において、生成された複数のサムネイル画像データに基づく複数のサムネイル画像SUが表示部430に表示される。
(7) Effect In the magnification observation apparatus 1 according to the present embodiment, a plurality of original image data corresponding to the ring illumination and the first to fourth directional illuminations are generated by the plurality of illumination imaging processes. Also, a plurality of thumbnail image data respectively corresponding to the plurality of original image data is generated. In the preview process, a plurality of thumbnail images SU based on the generated plurality of thumbnail image data are displayed on the display unit 430.

複数のサムネイル画像データは、リング照明および第1〜第4の方向性照明にそれぞれ対応する。観察対象物Sのサムネイル画像SUは、観察対象物Sの形状および観察対象物に照射される光の出射方向に応じて変化する。したがって、使用者は、表示部430に表示される観察対象物Sの複数のサムネイル画像SUから、観察対象物Sの形状および材質に応じた適切なサムネイル画像SUを容易に識別することができる。   The plurality of thumbnail image data correspond to ring illumination and first to fourth directional illumination, respectively. The thumbnail image SU of the observation object S changes according to the shape of the observation object S and the emission direction of the light applied to the observation object. Therefore, the user can easily identify an appropriate thumbnail image SU corresponding to the shape and material of the observation object S from the plurality of thumbnail images SU of the observation object S displayed on the display unit 430.

また、上記のプレビュー処理によれば、使用者は、操作部440を操作することにより、表示部430に表示される観察対象物Sの複数のサムネイル画像SUから所望のサムネイル画像SUを選択することができる。それにより、選択されたサムネイル画像SUに対応する原画像データの画像SIが、そのサムネイル画像SUよりも大きい面積でかつ大きい解像度で表示部430に表示される。したがって、使用者は、観察対象物Sをより詳細に観察することができる。   Further, according to the preview process, the user operates the operation unit 440 to select a desired thumbnail image SU from the plurality of thumbnail images SU of the observation object S displayed on the display unit 430. Can do. Thereby, the image SI of the original image data corresponding to the selected thumbnail image SU is displayed on the display unit 430 with a larger area and larger resolution than the thumbnail image SU. Therefore, the user can observe the observation object S in more detail.

[2]第2の実施の形態
本発明の第2の実施の形態に係る拡大観察装置について、第1の実施の形態に係る拡大観察装置1と異なる点を説明する。本実施の形態に係る拡大観察装置1においては、複数照明撮像処理が実行される前の表示部430の初期画面上に、上記の複数照明撮像処理を含む複数種類の処理の実行を指示するための複数のボタンが表示される。使用者は、初期画面に表示される複数のボタンのいずれかを操作することにより、操作したボタンに対応する処理を制御部410に実行させることができる。
[2] Second Embodiment A magnification observation apparatus according to a second embodiment of the present invention will be described while referring to differences from the magnification observation apparatus 1 according to the first embodiment. In the magnifying observation apparatus 1 according to the present embodiment, in order to instruct execution of a plurality of types of processing including the above-described multiple illumination imaging processing on the initial screen of the display unit 430 before the multiple illumination imaging processing is executed. Multiple buttons are displayed. The user can cause the control unit 410 to execute processing corresponding to the operated button by operating any of the plurality of buttons displayed on the initial screen.

図36は、第2の実施の形態に係る拡大観察装置の初期画面の一例を示す図である。図36に示すように、初期画面430Bには、図9の観察画面430Aと同様に、機能表示領域431、主表示領域432および副表示領域433が設定される。   FIG. 36 is a diagram illustrating an example of an initial screen of the magnification observation apparatus according to the second embodiment. As shown in FIG. 36, a function display area 431, a main display area 432, and a sub display area 433 are set in the initial screen 430B, as in the observation screen 430A in FIG.

本例では、ステージ121上に観察対象物Sが載置されかつ観察対象物Sにリング照明が照射されているものとする。この状態で、撮像部132により取得される観察対象物Sの画像SIが、初期画面430Bの機能表示領域431に表示される。   In this example, it is assumed that the observation target object S is placed on the stage 121 and the observation target object S is irradiated with ring illumination. In this state, the image SI of the observation object S acquired by the imaging unit 132 is displayed in the function display area 431 of the initial screen 430B.

図36の機能表示領域431には、複数照明撮像ボタンb90、複数のボタンb91および最適画像選択ボタンb92が表示される。複数照明撮像ボタンb90は、上記の複数照明撮像処理に対応する。使用者は、図2の操作部440を用いて複数照明撮像ボタンb90を操作することにより、複数照明撮像処理および表示用画像生成処理の実行を制御部410に指示することができる。この場合、制御部410は、使用者による指示に応答して図17の複数照明撮像処理および図18および図19の表示用画像生成処理を実行する。   In the function display area 431 of FIG. 36, a plurality of illumination imaging buttons b90, a plurality of buttons b91, and an optimum image selection button b92 are displayed. The multiple illumination imaging button b90 corresponds to the multiple illumination imaging process described above. The user can instruct the control unit 410 to execute the multiple illumination imaging process and the display image generation process by operating the multiple illumination imaging button b90 using the operation unit 440 of FIG. In this case, the control unit 410 executes the multiple illumination imaging process of FIG. 17 and the display image generation process of FIGS. 18 and 19 in response to an instruction from the user.

複数のボタンb91は、互いに異なる複数種類の処理に対応する。これらの複数種類の処理には、例えば深度合成処理、DR調整処理、ハレーション成分の除去処理、平滑化処理、輪郭強調処理および色調補正処理等が含まれる。使用者は、図2の操作部440を用いて複数のボタンb91のうちいずれかを操作することにより、操作したボタンに対応する処理の実行を制御部410に指示することができる。この場合、制御部410は指示された処理を実行する。   The plurality of buttons b91 correspond to a plurality of different types of processing. These multiple types of processing include, for example, depth synthesis processing, DR adjustment processing, halation component removal processing, smoothing processing, contour enhancement processing, and tone correction processing. The user can instruct the control unit 410 to execute processing corresponding to the operated button by operating one of the plurality of buttons b91 using the operation unit 440 of FIG. In this case, the control unit 410 executes the instructed process.

最適画像選択ボタンb92は、複数照明撮像処理を含む予め定められた複数種類の処理に対応する。本例の最適画像選択ボタンb92は、複数照明撮像ボタンb90および複数のボタンb91にそれぞれ対応する全ての処理に対応する。使用者は、図2の操作部440を用いて最適画像選択ボタンb92を操作することにより、複数種類の処理の実行を制御部410に指示することができる。   The optimum image selection button b92 corresponds to a plurality of predetermined processes including a plurality of illumination imaging processes. The optimum image selection button b92 in this example corresponds to all the processes corresponding to the plurality of illumination imaging buttons b90 and the plurality of buttons b91, respectively. The user can instruct the control unit 410 to execute a plurality of types of processing by operating the optimum image selection button b92 using the operation unit 440 of FIG.

制御部410は、使用者により最適画像選択ボタンb92が操作された場合に、最適画像選択ボタンb92に対応する複数種類の処理を実行する。その後、制御部410は、各処理を実行することにより生成される1または複数の画像データに基づいて当該処理に対応する一のサムネイル画像データを生成する。さらに、制御部410は、生成された複数種類の処理にそれぞれ対応するサムネイル画像データに基づいて表示部430に処理選択画面を表示させる。   When the optimum image selection button b92 is operated by the user, the control unit 410 executes a plurality of types of processing corresponding to the optimum image selection button b92. Thereafter, the control unit 410 generates one thumbnail image data corresponding to the process based on one or a plurality of image data generated by executing each process. Further, the control unit 410 causes the display unit 430 to display a process selection screen based on the generated thumbnail image data corresponding to the plurality of types of processes.

図37は、処理選択画面の一表示例を示す図である。図37に示すように、処理選択画面430Cは、制御部410により実行された複数種類の処理にそれぞれ対応する複数の画像ボタンb20,b21を含む。各画像ボタンb20,b21は、当該ボタンに対応する処理により生成されたサムネイル画像データに基づくサムネイル画像SRを含む。さらに、各画像ボタンb20,b21には、当該ボタンに対応する処理を示す文字列が付されている。   FIG. 37 is a diagram illustrating a display example of the process selection screen. As illustrated in FIG. 37, the process selection screen 430C includes a plurality of image buttons b20 and b21 that respectively correspond to a plurality of types of processes executed by the control unit 410. Each image button b20, b21 includes a thumbnail image SR based on the thumbnail image data generated by the processing corresponding to the button. Further, each image button b20, b21 is assigned a character string indicating processing corresponding to the button.

この状態で、使用者は、複数種類の処理にそれぞれ対応する複数のサムネイル画像SRを視認しつつ、所望のサムネイル画像SRを含む画像ボタンb20,b21を選択的に操作することができる。それにより、制御部410は、操作された画像ボタンb20,b21に対応する処理で取得された観察対象物Sの画像SIを例えば図9の観察画面430A上に表示する。この場合、使用者は、複数種類の処理に対応するサムネイル画像SRから観察に適した画像を容易に識別することができる。   In this state, the user can selectively operate the image buttons b20 and b21 including the desired thumbnail image SR while visually recognizing the plurality of thumbnail images SR respectively corresponding to the plurality of types of processing. Accordingly, the control unit 410 displays the image SI of the observation object S acquired by the processing corresponding to the operated image buttons b20 and b21 on, for example, the observation screen 430A in FIG. In this case, the user can easily identify an image suitable for observation from the thumbnail images SR corresponding to a plurality of types of processing.

ここで、図37の例において、画像ボタンb20は複数照明撮像処理に対応する。使用者により図37の画像ボタンb20が選択された場合、制御部410は、図34のプレビュー処理を実行してもよい。この場合、制御部410は、例えば図32に示すように、リング照明および第1〜第4の方向性照明にそれぞれ対応する複数のサムネイル画像SUを表示部430に一覧表示してもよい。それにより、使用者は、複数のサムネイル画像SUとリング照明および第1〜第4の方向性照明との対応を把握しつつ複数のサムネイル画像SUを容易に比較することができる。   Here, in the example of FIG. 37, the image button b20 corresponds to the multiple illumination imaging process. When the image button b20 of FIG. 37 is selected by the user, the control unit 410 may execute the preview process of FIG. In this case, for example, as illustrated in FIG. 32, the control unit 410 may display a list of a plurality of thumbnail images SU corresponding to the ring illumination and the first to fourth directional illuminations on the display unit 430, respectively. Accordingly, the user can easily compare the plurality of thumbnail images SU while grasping the correspondence between the plurality of thumbnail images SU and the ring illumination and the first to fourth directional illuminations.

[3]第3の実施の形態
本発明の第3の実施の形態に係る拡大観察装置について、第1の実施の形態に係る拡大観察装置1と異なる点を説明する。図38は、本発明の第3の実施の形態に係る拡大観察装置の構成を示す模式図である。図38に示すように、本実施の形態に係る拡大観察装置1においては、測定ヘッド100は投光部160をさらに含む。投光部160は、ハーフミラー161を有する。
[3] Third Embodiment A magnification observation apparatus according to a third embodiment of the present invention will be described while referring to differences from the magnification observation apparatus 1 according to the first embodiment. FIG. 38 is a schematic diagram showing the configuration of the magnification observation apparatus according to the third embodiment of the present invention. As shown in FIG. 38, in the magnifying observation device 1 according to the present embodiment, the measurement head 100 further includes a light projecting unit 160. The light projecting unit 160 includes a half mirror 161.

レンズユニット131は、内部に投光部160を保持可能に構成される。投光部160は、ハーフミラー161の反射面が斜め下方を向くように対物レンズ131aの光軸A1に対して約45°傾斜する状態で、レンズユニット131内に配置される。投光部160は、ファイバユニット201の図示しない一部の光ファイバにより処理装置200の光生成部300に光学的に接続される。   The lens unit 131 is configured to hold the light projecting unit 160 inside. The light projecting unit 160 is disposed in the lens unit 131 in a state where the light reflecting surface of the half mirror 161 is inclined by about 45 ° with respect to the optical axis A1 of the objective lens 131a so that the reflecting surface faces obliquely downward. The light projecting unit 160 is optically connected to the light generation unit 300 of the processing apparatus 200 through a part of the optical fiber (not shown) of the fiber unit 201.

光生成部300の遮光部320は、図3の投光部140の領域140A〜140Dにそれぞれ対応する複数の開口パターンを有するとともに、投光部160に対応する開口パターンを有する。図2の投光制御部510は、光を通過させる遮光部320の開口パターンを切り替えることにより、第1の実施の形態と同様に投光部140に光を入射可能であるとともに、投光部160に光を入射可能である。投光部140に入射した光の挙動は、第1の実施の形態における投光部140に入射した光の挙動と同様である。   The light blocking unit 320 of the light generating unit 300 has a plurality of opening patterns respectively corresponding to the regions 140A to 140D of the light projecting unit 140 of FIG. 3 and has an opening pattern corresponding to the light projecting unit 160. The light projecting control unit 510 in FIG. 2 can enter light into the light projecting unit 140 as in the first embodiment by switching the opening pattern of the light shielding unit 320 that allows light to pass through. Light can be incident on 160. The behavior of the light incident on the light projecting unit 140 is the same as the behavior of the light incident on the light projecting unit 140 in the first embodiment.

投光部160に入射した光は、ハーフミラー161で反射されることにより対物レンズ131aの光軸A1に沿って下方に出射され、観察対象物Sに照射される。投光部160から出射される光を同軸落射照明と呼ぶ。観察対象物Sに照射された光は上方に反射され、投光部160のハーフミラー161およびレンズユニット131を透過して撮像部132に導かれる。   The light incident on the light projecting unit 160 is reflected downward by the half mirror 161, is emitted downward along the optical axis A <b> 1 of the objective lens 131 a, and is applied to the observation object S. The light emitted from the light projecting unit 160 is called coaxial epi-illumination. The light applied to the observation object S is reflected upward, passes through the half mirror 161 and the lens unit 131 of the light projecting unit 160, and is guided to the imaging unit 132.

上記の構成によれば、投光部160は、投光部140よりも対物レンズ131aの光軸A1に近い位置から観察対象物Sに光を照射可能である。したがって、同軸落射照明は対物レンズ131aの光軸A1と平行な方向に出射される明視野照明となり、リング照明は対物レンズ131aの光軸A1に対して傾斜した方向に照射される暗視野照明となる。同軸落射照明を観察対象物Sに照射することにより、観察対象物Sの表面の凹凸および素材の違いをより鮮明に撮像することができる。なお、投光部140,160から同時に光を観察対象物Sに照射することも可能である。   According to said structure, the light projection part 160 can irradiate the observation object S from the position nearer to the optical axis A1 of the objective lens 131a than the light projection part 140. FIG. Therefore, the coaxial epi-illumination is bright-field illumination emitted in a direction parallel to the optical axis A1 of the objective lens 131a, and the ring illumination is dark-field illumination emitted in a direction inclined with respect to the optical axis A1 of the objective lens 131a. Become. By irradiating the observation object S with the coaxial epi-illumination, the surface unevenness and the difference in the material of the observation object S can be imaged more clearly. Note that it is also possible to irradiate the observation object S with light from the light projecting units 140 and 160 at the same time.

図2の撮像制御部520は、同軸落射照明の照射時における撮像部132の受光時間、ゲインおよびタイミング等を制御する。本実施の形態では、同軸落射照明の照射は、リング照明および第1〜第4の方向性照明の照射よりも後に行われる。撮像制御部520は、先に生成されたリング照明に対応する原画像データの平均輝度値に基づいて自動露出を行うことにより、同軸落射照明の照射時における受光時間を調整する。同軸落射照明の照射時における受光時間は、使用者により所望の値に調整されてもよい。   The imaging control unit 520 in FIG. 2 controls the light reception time, gain, timing, and the like of the imaging unit 132 during irradiation with coaxial epi-illumination. In the present embodiment, the coaxial epi-illumination is performed after the ring illumination and the first to fourth directional illuminations. The imaging control unit 520 adjusts the light reception time during the irradiation of the coaxial epi-illumination by performing automatic exposure based on the average brightness value of the original image data corresponding to the ring illumination generated previously. The light reception time at the time of irradiation of the coaxial epi-illumination may be adjusted to a desired value by the user.

撮像部132は、同軸落射照明が観察対象物Sに照射されたときの観察対象物Sを示す原画像データをさらに生成する。生成された同軸落射照明に対応する原画像データは、記憶部420に記憶される。また、同軸落射照明の照射の実行の有無および同軸落射照明の照射時における受光時間等の撮像条件をさらに示す撮像情報が記憶部420に記憶される。   The imaging unit 132 further generates original image data indicating the observation object S when the coaxial incident illumination is irradiated onto the observation object S. The generated original image data corresponding to the coaxial incident illumination is stored in the storage unit 420. In addition, the storage unit 420 stores imaging information that further indicates imaging conditions such as the presence or absence of execution of the coaxial epi-illumination and the light reception time during the coaxial epi-illumination.

図6のデータ生成部610は、記憶部420に記憶されたリング照明および方向性照明にそれぞれ対応する原画像データに加えて、同軸落射照明に対応する原画像データにさらに基づいて表示用画像データを生成する。具体的には、データ生成部610は、リング照明、方向性照明および同軸落射照明にそれぞれ対応する複数の原画像データの一部または全部を、使用者により指定された照明条件により定まる割合で合成する。生成された表示用画像データは、記憶部420に記憶される。   In addition to the original image data corresponding to the ring illumination and the directional illumination stored in the storage unit 420, the data generation unit 610 in FIG. 6 further displays image data based on the original image data corresponding to the coaxial incident illumination. Is generated. Specifically, the data generation unit 610 synthesizes some or all of the plurality of original image data respectively corresponding to ring illumination, directional illumination, and coaxial epi-illumination at a rate determined by the illumination conditions specified by the user. To do. The generated display image data is stored in the storage unit 420.

本実施の形態に係る複数照明撮像処理では、リング照明および第1〜第4の方向性照明を用いた観察対象物Sの撮像後に同軸落射照明を用いて観察対象物Sが撮像される。それにより、リング照明、第1〜第4の方向性照明および同軸落射照明にそれぞれ対応する複数(本例では6つ)の原画像データが生成される。   In the multiple illumination imaging process according to the present embodiment, the observation object S is imaged using the coaxial epi-illumination after the observation object S is imaged using the ring illumination and the first to fourth directional illuminations. Thereby, a plurality (six in this example) of original image data respectively corresponding to the ring illumination, the first to fourth directional illuminations, and the coaxial incident illumination are generated.

複数照明撮像処理が完了すると、表示部430に観察画面430Aが表示される。図39は、第3の実施の形態に係る複数照明撮像処理後の観察画面430Aの一表示例を示す図である。図39に示すように、機能表示領域431に、上記の複数のボタンb1,b2,b5〜b7に加えて落射ボタンb11が表示される。   When the multiple illumination imaging process is completed, the observation screen 430A is displayed on the display unit 430. FIG. 39 is a diagram illustrating a display example of the observation screen 430A after the multiple illumination imaging process according to the third embodiment. As shown in FIG. 39, an epi-illumination button b11 is displayed in the function display area 431 in addition to the plurality of buttons b1, b2, b5 to b7.

使用者は、図2の操作部440を用いて落射ボタンb11を操作する。それにより、使用者は、同軸落射照明に対応する原画像データを用いて表示用画像データを生成すべきことを指示することができる。   The user operates the epi-illumination button b11 using the operation unit 440 of FIG. Accordingly, the user can instruct that display image data should be generated using the original image data corresponding to the coaxial epi-illumination.

同軸落射照明に対応する原画像データを用いることが指示されると、副表示領域433に、同軸落射照明に対応する原画像データの他の原画像データに対する合成割合(以下、落射画像割合と呼ぶ。)を指定するためのバー433cおよびスライダ433dが表示される。   When it is instructed to use original image data corresponding to the coaxial epi-illumination, the sub-display area 433 combines the original image data corresponding to the coaxial epi-illumination with other original image data (hereinafter referred to as an epi-image ratio). .) Is displayed as a bar 433c and a slider 433d.

使用者は、スライダ433dを操作することにより、落射画像割合を指定することができる。図39の例では、スライダ433dがバー433cの左端に近づくにつれて落射画像割合が高く指定され、スライダ433dがバー433cの右端に近づくにつれて落射画像割合が低く指定される。   The user can designate the incident image ratio by operating the slider 433d. In the example of FIG. 39, the incident image ratio is specified to be higher as the slider 433d approaches the left end of the bar 433c, and the incident image ratio is specified to be lower as the slider 433d approaches the right end of the bar 433c.

落射画像割合が指定されると、制御部410は、表示用画像生成処理における図19のステップS209の処理で、指定された出射方向に加えて指定された落射画像割合に基づいて複数の原画像データの合成割合を算出する。   When the incident image ratio is designated, the control unit 410 performs a plurality of original images based on the designated incident image ratio in addition to the designated emission direction in the process of step S209 of FIG. 19 in the display image generation process. Calculate the composition ratio of the data.

例えば、制御部410は、まず指定された出射方向に基づいてリング照明および第1〜第4の方向性照明の各々に対応する原画像データの合成割合を算出する。その後、制御部410は、指定された落射画像割合がt(tは0から100までの数)%である場合に、リング照明および第1〜第4の方向性照明の複数の合成割合の合計が(100−t)%となるように、リング照明および第1〜第4の方向性照明の各々に対応する原画像データの合成割合を修正する。   For example, the control unit 410 first calculates the composition ratio of the original image data corresponding to each of the ring illumination and the first to fourth directional illuminations based on the designated emission direction. Thereafter, when the designated incident image ratio is t (t is a number from 0 to 100)%, the control unit 410 sums up a plurality of composite ratios of the ring illumination and the first to fourth directional illuminations. Of the original image data corresponding to each of the ring illumination and the first to fourth directional illuminations is corrected so that becomes (100−t)%.

上記のように算出された複数の合成割合に基づいて複数の原画像データが合成されることにより表示用画像データが生成され、同軸落射照明に対応する原画像データの成分を含む観察対象物Sの画像SIが主表示領域432に表示される。   Display image data is generated by combining a plurality of original image data based on the plurality of combining ratios calculated as described above, and the observation object S includes a component of the original image data corresponding to the coaxial incident illumination. The image SI is displayed in the main display area 432.

同軸落射照明に対応する原画像データの画像SIによれば、リング照明および第1〜第4の方向性照明の各々に対応する原画像データの画像SIに比べて、観察対象物Sの表面の凹凸および素材の違いをより正確に観察することができる。   According to the image SI of the original image data corresponding to the coaxial epi-illumination, the surface of the observation object S is compared with the image SI of the original image data corresponding to each of the ring illumination and the first to fourth directional illuminations. It is possible to observe the unevenness and the difference in material more accurately.

したがって、使用者は、図39の落射ボタンb11およびスライダ433dを操作することにより、観察の目的に応じた観察対象物Sの画像SIを容易に取得することができる。   Therefore, the user can easily acquire the image SI of the observation object S according to the purpose of observation by operating the epi-illumination button b11 and the slider 433d in FIG.

プレビュー処理において同軸落射照明に対応するサムネイル画像SUが主表示領域432に表示されてもよい。図40は、第3の実施の形態に係るプレビュー処理中の観察画面430Aの表示状態の一例を示す図である。図40に示すように、本例では、リング照明、同軸落射照明および第1〜第4の方向性照明にそれぞれ対応する複数のサムネイル画像SUが、対応する照明の名称を示す文字列とともに主表示領域432に表示されている。これにより、使用者は、複数のサムネイル画像SUから観察に適した画像を多数の画像から容易に識別することができる。   A thumbnail image SU corresponding to the coaxial epi-illumination may be displayed in the main display area 432 in the preview process. FIG. 40 is a diagram illustrating an example of a display state of the observation screen 430A during the preview process according to the third embodiment. As shown in FIG. 40, in this example, a plurality of thumbnail images SU respectively corresponding to ring illumination, coaxial epi-illumination, and first to fourth directional illuminations are displayed together with a character string indicating the name of the corresponding illumination. It is displayed in area 432. Accordingly, the user can easily identify an image suitable for observation from a plurality of thumbnail images SU from a number of images.

[4]第4の実施の形態
本発明の第4の実施の形態に係る拡大観察装置について、第1の実施の形態に係る拡大観察装置1と異なる点を説明する。図41は、本発明の第4の実施の形態に係る拡大観察装置の構成を示す模式図である。図41に示すように、本実施の形態に係る拡大観察装置1においては、測定ヘッド100は投光部170をさらに含む。投光部170は、ミラー171を有する。また、拡大観察装置1はファイバユニット204をさらに含む。ファイバユニット204は、図示しない複数の光ファイバを含む。投光部170は、スタンド部110の設置部111に内蔵されていてもよい。
[4] Fourth Embodiment A magnification observation apparatus according to the fourth embodiment of the present invention will be described while referring to differences from the magnification observation apparatus 1 according to the first embodiment. FIG. 41 is a schematic diagram showing a configuration of a magnification observation apparatus according to the fourth embodiment of the present invention. As shown in FIG. 41, in the magnifying observation apparatus 1 according to the present embodiment, the measurement head 100 further includes a light projecting unit 170. The light projecting unit 170 includes a mirror 171. The magnification observation apparatus 1 further includes a fiber unit 204. The fiber unit 204 includes a plurality of optical fibers (not shown). The light projecting unit 170 may be built in the installation unit 111 of the stand unit 110.

スタンド部110の設置部111は、内部に投光部170を保持可能に構成される。投光部170は、ミラー171の反射面が斜め上方を向くように対物レンズ131aの光軸A1に対して約45°傾斜する状態で、設置部111内に配置される。これにより、投光部170は、観察対象物Sおよびステージ121を挟んで鏡筒部130と対向する。投光部170は、ファイバユニット201の図示しない一部の光ファイバにより処理装置200の光生成部300に光学的に接続される。   The installation unit 111 of the stand unit 110 is configured to hold the light projecting unit 170 therein. The light projecting unit 170 is disposed in the installation unit 111 in a state of being inclined by about 45 ° with respect to the optical axis A1 of the objective lens 131a so that the reflection surface of the mirror 171 faces obliquely upward. Accordingly, the light projecting unit 170 faces the lens barrel unit 130 with the observation object S and the stage 121 interposed therebetween. The light projecting unit 170 is optically connected to the light generating unit 300 of the processing apparatus 200 through a part of the optical fiber (not shown) of the fiber unit 201.

光生成部300の遮光部320は、図3の投光部140の領域140A〜140Dにそれぞれ対応する複数の開口パターンを有するとともに、投光部170に対応する開口パターンを有する。図2の投光制御部510は、光を通過させる遮光部320の開口パターンを切り替えることにより、第1の実施の形態と同様に投光部140に光を入射可能であるとともに、投光部170に光を入射可能である。投光部140に入射した光の挙動は、第1の実施の形態における投光部140に入射した光の挙動と同様である。   The light blocking unit 320 of the light generating unit 300 has a plurality of opening patterns respectively corresponding to the regions 140A to 140D of the light projecting unit 140 of FIG. 3 and has an opening pattern corresponding to the light projecting unit 170. The light projecting control unit 510 in FIG. 2 can enter light into the light projecting unit 140 as in the first embodiment by switching the opening pattern of the light shielding unit 320 that allows light to pass through. Light can be incident on 170. The behavior of the light incident on the light projecting unit 140 is the same as the behavior of the light incident on the light projecting unit 140 in the first embodiment.

投光部170に入射した光は、ミラー171で反射されることにより対物レンズ131aの光軸A1に沿って上方に出射され、ステージ121上の観察対象物Sに照射される。投光部170から出射される光を透過照明と呼ぶ。観察対象物Sに照射された光は上方に透過し、レンズユニット131を透過して撮像部132に導かれる。透過照明を観察対象物Sに照射することにより、観察対象物Sの内部の構造を撮像することができる。   The light incident on the light projecting unit 170 is reflected upward by the mirror 171 and then emitted upward along the optical axis A1 of the objective lens 131a, and is irradiated onto the observation object S on the stage 121. The light emitted from the light projecting unit 170 is referred to as transmitted illumination. The light applied to the observation object S is transmitted upward, passes through the lens unit 131, and is guided to the imaging unit 132. By irradiating the observation object S with the transmitted illumination, the internal structure of the observation object S can be imaged.

撮像部132は、透過照明が観察対象物Sに照射されたときの観察対象物Sを示す原画像データをさらに生成する。生成された透過照明に対応する原画像データは、記憶部420に記憶される。また、透過照明の照射の実行の有無および透過照明の照射時における受光時間等の撮像条件をさらに示す撮像情報が記憶部420に記憶される。   The imaging unit 132 further generates original image data indicating the observation object S when the transmission object is irradiated with the transmitted illumination. The original image data corresponding to the generated transmitted illumination is stored in the storage unit 420. In addition, imaging information that further indicates imaging conditions such as the presence or absence of execution of transmission illumination and the light reception time at the time of illumination of transmission illumination is stored in the storage unit 420.

図6のデータ生成部610は、記憶部420に記憶されたリング照明および方向性照明にそれぞれ対応する原画像データに加えて、透過照明に対応する原画像データにさらに基づいて表示用画像データを生成する。具体的には、データ生成部610は、リング照明、方向性照明および透過照明にそれぞれ対応する複数の原画像データの一部または全部を、使用者により指定された照明条件により定まる割合で合成する。生成された表示用画像データは、記憶部420に記憶される。   In addition to the original image data corresponding to the ring illumination and the directional illumination stored in the storage unit 420, the data generation unit 610 in FIG. 6 generates display image data based on the original image data corresponding to the transmitted illumination. Generate. Specifically, the data generation unit 610 synthesizes some or all of the plurality of original image data respectively corresponding to the ring illumination, the directional illumination, and the transmitted illumination at a rate determined by the illumination conditions specified by the user. . The generated display image data is stored in the storage unit 420.

図41の測定ヘッド100は同軸落射照明を出射する投光部160を含まないが、本発明はこれに限定されない。図41の測定ヘッド100は、図38の投光部160と同様の投光部160を含んでもよい。この場合、リング照明、方向性照明、同軸落射照明および透過照明にそれぞれ対応する原画像データに基づいて表示用画像データが生成される。   The measurement head 100 of FIG. 41 does not include the light projecting unit 160 that emits the coaxial incident illumination, but the present invention is not limited to this. The measurement head 100 in FIG. 41 may include a light projecting unit 160 similar to the light projecting unit 160 in FIG. In this case, display image data is generated based on original image data corresponding to ring illumination, directional illumination, coaxial incident illumination, and transmitted illumination.

本実施の形態に係る複数照明撮像処理では、リング照明および第1〜第4の方向性照明を用いた観察対象物Sの撮像後に透過照明を用いて観察対象物Sが撮像される。それにより、リング照明、第1〜第4の方向性照明および透過照明にそれぞれ対応する複数(本例では6つ)の原画像データが生成される。   In the multiple illumination imaging process according to the present embodiment, the observation object S is imaged using the transmitted illumination after the observation object S is imaged using the ring illumination and the first to fourth directional illuminations. Thereby, a plurality (six in this example) of original image data corresponding to the ring illumination, the first to fourth directional illuminations, and the transmitted illumination are generated.

複数照明撮像処理が完了すると、表示部430に観察画面430Aが表示される。図42は、第4の実施の形態に係る複数照明撮像処理後の観察画面430Aの一表示例を示す図である。図42に示すように、機能表示領域431に、上記の複数のボタンb1,b2,b5〜b7に加えて透過ボタンb12が表示される。   When the multiple illumination imaging process is completed, the observation screen 430A is displayed on the display unit 430. FIG. 42 is a diagram illustrating a display example of the observation screen 430A after the multiple illumination imaging process according to the fourth embodiment. As shown in FIG. 42, a transparent button b12 is displayed in the function display area 431 in addition to the plurality of buttons b1, b2, b5 to b7.

使用者は、図2の操作部440を用いて透過ボタンb12を操作する。それにより、使用者は、透過照明に対応する原画像データを用いて表示用画像データを生成すべきことを指示することができる。   The user operates the transparent button b12 using the operation unit 440 of FIG. Accordingly, the user can instruct that display image data should be generated using original image data corresponding to transmitted illumination.

透過照明に対応する原画像データを用いることが指示されると、副表示領域433に、透過照明に対応する原画像データの他の原画像データに対する合成割合(以下、透過画像割合と呼ぶ。)を指定するためのバー433eおよびスライダ433fが表示される。   When it is instructed to use the original image data corresponding to the transmitted illumination, the sub-display area 433 combines the original image data corresponding to the transmitted illumination with the other original image data (hereinafter referred to as the transmitted image ratio). A bar 433e and a slider 433f are displayed.

使用者は、スライダ433fを操作することにより、透過画像割合を指定することができる。図42の例では、スライダ433fがバー433eの左端に近づくにつれて透過画像割合が高く指定され、スライダ433fがバー433eの右端に近づくにつれて透過画像割合が低く指定される。   The user can specify the transmission image ratio by operating the slider 433f. In the example of FIG. 42, the transparent image ratio is designated as the slider 433f approaches the left end of the bar 433e, and the transmission image ratio is designated as the slider 433f approaches the right end of the bar 433e.

透過画像割合が指定されると、制御部410は、表示用画像生成処理における図19のステップS209の処理で、指定された出射方向に加えて指定された透過画像割合に基づいて複数の原画像データの合成割合を算出する。   When the transmission image ratio is designated, the control unit 410 performs a plurality of original images based on the designated transmission image ratio in addition to the designated emission direction in the process of step S209 of FIG. 19 in the display image generation process. Calculate the composition ratio of the data.

例えば、制御部410は、まず指定された出射方向に基づいてリング照明および第1〜第4の方向性照明の各々に対応する原画像データの合成割合を算出する。その後、制御部410は、指定された透過画像割合がu(uは0から100までの数)%である場合に、リング照明および第1〜第4の方向性照明の複数の合成割合の合計が(100−u)%となるように、リング照明および第1〜第4の方向性照明の各々に対応する原画像データの合成割合を修正する。   For example, the control unit 410 first calculates the composition ratio of the original image data corresponding to each of the ring illumination and the first to fourth directional illuminations based on the designated emission direction. Thereafter, when the specified transmission image ratio is u (where u is a number from 0 to 100)%, the control unit 410 sums a plurality of combined ratios of the ring illumination and the first to fourth directional illuminations. Of the original image data corresponding to each of the ring illumination and the first to fourth directional illuminations is corrected so that becomes (100-u)%.

上記のように算出された複数の合成割合に基づいて複数の原画像データが合成されることにより表示用画像データが生成され、透過照明に対応する原画像データの成分を含む観察対象物Sの画像SIが主表示領域432に表示される。観察対象物Sが光を透過する材料で形成されている場合、透過照明に対応する原画像データの画像SIには、観察対象物Sの内部構造が鮮明に表れる。   Display image data is generated by combining a plurality of original image data based on the plurality of combining ratios calculated as described above, and the observation object S including the components of the original image data corresponding to the transmitted illumination is generated. The image SI is displayed in the main display area 432. When the observation object S is formed of a material that transmits light, the internal structure of the observation object S appears clearly in the image SI of the original image data corresponding to the transmitted illumination.

したがって、使用者は、図42の透過ボタンb12およびスライダ433fを操作することにより、観察の目的に応じた観察対象物Sの画像SIを容易に取得することができる。   Therefore, the user can easily acquire the image SI of the observation object S according to the purpose of observation by operating the transparent button b12 and the slider 433f of FIG.

プレビュー処理において透過照明に対応するサムネイル画像SUが主表示領域432に表示されてもよい。図43は、第4の実施の形態に係るプレビュー処理中の観察画面430Aの表示状態の一例を示す図である。図43に示すように、本例では、リング照明、透過照明および第1〜第4の方向性照明にそれぞれ対応する複数のサムネイル画像SUが、対応する照明の名称を示す文字列とともに主表示領域432に表示されている。これにより、使用者は、複数のサムネイル画像SUから観察に適した画像を多数の画像から容易に識別することができる。   In the preview process, the thumbnail image SU corresponding to the transmitted illumination may be displayed in the main display area 432. FIG. 43 is a diagram illustrating an example of a display state of the observation screen 430A during the preview process according to the fourth embodiment. As shown in FIG. 43, in this example, a plurality of thumbnail images SU respectively corresponding to ring illumination, transmitted illumination, and first to fourth directional illuminations are displayed together with a character string indicating the name of the corresponding illumination. 432 is displayed. Accordingly, the user can easily identify an image suitable for observation from a plurality of thumbnail images SU from a number of images.

上記のように、図41の測定ヘッド100が図38の投光部160を含む場合には、複数照明撮像処理において、リング照明、方向性照明、同軸落射照明および透過照明にそれぞれ対応する複数の原画像データが生成されてもよい。この場合、観察画面430Aにおいて、図39の落射ボタンb11、バー433cおよびスライダ433dと図42の透過ボタンb12、バー433eおよびスライダ433fとが同時に表示されてもよい。それにより、主表示領域432に表示される観察対象物Sの画像SIについて調整の自由度が向上する。   As described above, when the measurement head 100 of FIG. 41 includes the light projecting unit 160 of FIG. 38, in the multiple illumination imaging process, a plurality of rings corresponding to ring illumination, directional illumination, coaxial epi-illumination, and transmitted illumination respectively. Original image data may be generated. In this case, on the observation screen 430A, the epi-illumination button b11, the bar 433c and the slider 433d in FIG. 39 and the transmission button b12, the bar 433e and the slider 433f in FIG. 42 may be displayed at the same time. Thereby, the degree of freedom of adjustment for the image SI of the observation object S displayed in the main display area 432 is improved.

[5]他の実施の形態
(1)上記実施の形態において、複数の照明にそれぞれ対応する複数の原画像データが生成された後、使用者により指定された照明条件に応じて、複数の原画像データに基づいて表示用画像データが生成されるが、本発明はこれに限定されない。使用者により照明条件が先に指定されてもよい。この場合、指定された照明条件に基づいて生成すべき表示用画像データを生成するために必要な原画像データが決定する。
[5] Other Embodiments (1) In the above embodiment, after a plurality of original image data respectively corresponding to a plurality of illuminations are generated, a plurality of original images are generated according to the illumination conditions designated by the user. Display image data is generated based on the image data, but the present invention is not limited to this. The lighting conditions may be specified first by the user. In this case, the original image data necessary for generating the display image data to be generated based on the designated illumination condition is determined.

そこで、本実施の形態においては、必要な原画像データに対応する照明のみが観察対象物に照射される。これにより、当該必要な原画像データのみが生成される。この構成によれば、他の照明が観察対象物Sに照射されず、不要な原画像データが生成されない。これにより、表示用画像データを高速に生成することができる。   Therefore, in the present embodiment, only the illumination corresponding to the necessary original image data is irradiated on the observation object. Thereby, only the necessary original image data is generated. According to this configuration, no other illumination is irradiated on the observation object S, and unnecessary original image data is not generated. Thereby, display image data can be generated at high speed.

(2)上記実施の形態において、投光部140の領域140A〜140Dが対物レンズ131aの光軸A1を中心に回転対称に配置されることが好ましいが、本発明はこれに限定されない。投光部140の領域140A〜140Dは、対物レンズ131aの光軸A1を中心に回転対称に配置されなくてもよい。   (2) In the above embodiment, it is preferable that the regions 140A to 140D of the light projecting unit 140 are arranged rotationally symmetrically about the optical axis A1 of the objective lens 131a, but the present invention is not limited to this. The regions 140 </ b> A to 140 </ b> D of the light projecting unit 140 may not be arranged rotationally symmetrically about the optical axis A <b> 1 of the objective lens 131 a.

(3)上記実施の形態において、複数の原画像データが合成されることにより表示用画像データが生成される場合には、複数の原画像データの1つがリング照明に対応する原画像データであることが好ましいが、本発明はこれに限定されない。リング照明に対応する原画像データが合成に用いられず、方向性照明、同軸落射照明および透過照明にそれぞれ対応する複数の原画像データの一部または全部が合成されることにより表示用画像データが生成されてもよい。   (3) In the above embodiment, when display image data is generated by combining a plurality of original image data, one of the plurality of original image data is the original image data corresponding to the ring illumination. However, the present invention is not limited to this. The original image data corresponding to the ring illumination is not used for the synthesis, and the display image data is obtained by synthesizing some or all of the plurality of original image data respectively corresponding to the directional illumination, the coaxial incident illumination, and the transmitted illumination. May be generated.

(4)上記実施の形態において、複数の原画像データが合成されることにより表示用画像データが生成されるが、本発明はこれに限定されない。生成された複数の原画像データのうちの1つが選択されることにより表示用画像データが生成されてもよい。この構成においては、より多数の原画像データが生成されることが好ましい。この場合、より正確な表示用画像データを生成することができる。したがって、より多数の原画像データを生成可能にするため、より多数の光出射領域が設けられてもよいし、より多数の位置から光を出射可能に光出射部材が設けられてもよい。あるいは、単一の光出射部材が複数の出射位置に移動可能に設けられてもよい。   (4) In the above embodiment, display image data is generated by combining a plurality of original image data, but the present invention is not limited to this. Display image data may be generated by selecting one of the plurality of generated original image data. In this configuration, it is preferable that a larger number of original image data is generated. In this case, more accurate display image data can be generated. Accordingly, in order to be able to generate a larger number of original image data, a larger number of light emission regions may be provided, or a light emission member may be provided so that light can be emitted from a larger number of positions. Alternatively, a single light emitting member may be provided to be movable to a plurality of emitting positions.

(5)上記実施の形態において、投光部140は円筒形状を有するが、本発明はこれに限定されない。投光部140は円筒形状以外の他の形状を有してもよい。図44は、投光部140の変形例を示す模式図である。図44の例では、投光部140は、例えば半球形状を有し、投光部140の内面の任意の位置から観察対象物に複数の出射方向の光を照射可能に複数の光源142aが設けられる。この場合、複数の原画像データを合成することなく、単一の原画像データにより表示用画像データを生成することが容易になる。この構成においては、各出射方向の光の光量を個別に調整可能であることがより好ましい。   (5) In the above embodiment, the light projecting unit 140 has a cylindrical shape, but the present invention is not limited to this. The light projecting unit 140 may have a shape other than the cylindrical shape. FIG. 44 is a schematic diagram showing a modification of the light projecting unit 140. In the example of FIG. 44, the light projecting unit 140 has, for example, a hemispherical shape, and a plurality of light sources 142a are provided so that light in a plurality of emission directions can be irradiated onto an observation target from an arbitrary position on the inner surface of the light projecting unit 140. It is done. In this case, it becomes easy to generate display image data from a single original image data without combining a plurality of original image data. In this configuration, it is more preferable that the amount of light in each emission direction can be individually adjusted.

(6)上記実施の形態において、表示用画像生成処理においては、使用者により光の仮想的な出射方向が新たに指定されると、表示部430に表示される観察対象物Sの画像SIが、指定された出射方向の光に対応する画像SIに切り替わるが、本発明はこれに限定されない。   (6) In the above-described embodiment, in the display image generation process, when the virtual emission direction of light is newly designated by the user, the image SI of the observation object S displayed on the display unit 430 is displayed. The image SI corresponding to the light in the designated emission direction is switched, but the present invention is not limited to this.

使用者により光の仮想的な出射方向が新たに指定された場合に、更新前の表示用画像データに基づく観察対象物Sの画像SIと、更新後の表示用画像データに基づく観察対象物Sの画像SIとが表示部430に同時に表示されてもよい。この場合、使用者は、出射方向を指定する前の観察対象物Sの画像SIと指定後の観察対象物Sの画像SIとを比較することができる。したがって、光の仮想的な出射方向を指定しつつ観察対象物Sの観察により適切な画像SIを容易に識別することができる。更新前後の画像SIを同時に表示する例は、更新前後の画像SIを並べて表示すること、または更新前後の画像SIを重ねて表示すること等を含む。   When a virtual emission direction of light is newly designated by the user, the image SI of the observation object S based on the display image data before update and the observation object S based on the display image data after update The image SI may be displayed on the display unit 430 at the same time. In this case, the user can compare the image SI of the observation object S before designating the emission direction with the image SI of the observation object S after designation. Therefore, an appropriate image SI can be easily identified by observing the observation object S while designating a virtual light emission direction. Examples of simultaneously displaying the image SI before and after the update include displaying the image SI before and after the update side by side or displaying the image SI before and after the update in a superimposed manner.

(7)上記実施の形態において、拡大観察装置1の制御部410は、複数照明撮像処理、表示用画像生成処理、深度合成処理、DR調整処理、プレビュー処理および画像調整処理等を実行するが、本発明はこれに限定されない。制御部410は、上記の複数の処理のうち複数照明撮像処理およびプレビュー処理を実行すればよく、表示用画像生成処理、深度合成処理、DR調整処理および画像調整処理の一部または全てを実行しなくてもよい。   (7) In the above embodiment, the control unit 410 of the magnifying observation apparatus 1 executes a multiple illumination imaging process, a display image generation process, a depth synthesis process, a DR adjustment process, a preview process, an image adjustment process, and the like. The present invention is not limited to this. The control unit 410 only needs to execute a plurality of illumination imaging processes and a preview process among the plurality of processes described above, and executes part or all of the display image generation process, the depth synthesis process, the DR adjustment process, and the image adjustment process. It does not have to be.

[6]請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
[6] Correspondence relationship between each constituent element of claim and each part of the embodiment Hereinafter, an example of correspondence between each constituent element of the claim and each part of the embodiment will be described. It is not limited.

上記実施の形態では、観察対象物Sが観察対象物の例であり、ステージ121がステージの例であり、リング照明および第1〜第4の方向性照明が複数の出射方向の光の例であり、投光部140,160,170およびファイバユニット201,204および光生成部300が投光装置の例であり、撮像部132が撮像部の例であり、表示部430が表示部の例であり、拡大観察装置1が拡大観察装置の例である。   In the above embodiment, the observation object S is an example of the observation object, the stage 121 is an example of the stage, and the ring illumination and the first to fourth directional illuminations are examples of light in a plurality of emission directions. Yes, the light projecting units 140, 160, 170, the fiber units 201, 204, and the light generating unit 300 are examples of the light projecting device, the image capturing unit 132 is an example of the image capturing unit, and the display unit 430 is an example of the display unit. Yes, the magnification observation apparatus 1 is an example of a magnification observation apparatus.

また、データ生成部610がデータ生成部の例であり、表示部430および操作部440が選択部の例であり、サムネイル画像SUが第1の態様で表示される画像の例であり、サムネイル画像SUに対応しかつそのサムネイル画像よりも面積および解像度が大きい画像SIが第2の態様で表示される画像の例である。   In addition, the data generation unit 610 is an example of a data generation unit, the display unit 430 and the operation unit 440 are examples of a selection unit, the thumbnail image SU is an example of an image displayed in the first mode, and a thumbnail image An image SI corresponding to SU and having an area and resolution larger than that of the thumbnail image is an example of an image displayed in the second mode.

さらに、表示部430および操作部440が画像処理指示部の例であり、データ生成部610が画像処理部の例であり、対物レンズ131aが対物レンズの例であり、投光部140の領域140A〜140Dが複数の光出射領域の例であり、投光部140が第1の投光部の例であり、遮光部320が切替部の例である。   Further, the display unit 430 and the operation unit 440 are examples of an image processing instruction unit, the data generation unit 610 is an example of an image processing unit, the objective lens 131a is an example of an objective lens, and the region 140A of the light projecting unit 140 is displayed. ˜140D is an example of a plurality of light emitting areas, the light projecting unit 140 is an example of a first light projecting unit, and the light shielding unit 320 is an example of a switching unit.

また、同軸落射照明が第1の光の例であり、投光部160が第2の投光部の例であり、透過照明が第2の光の例であり、投光部170が第3の投光部の例である。   Further, the coaxial epi-illumination is an example of the first light, the light projecting unit 160 is an example of the second light projecting unit, the transmitted illumination is an example of the second light, and the light projecting unit 170 is the third light. It is an example of the light projection part.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。   As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.

本発明は、種々の拡大観察装置に有効に利用することができる。   The present invention can be effectively used for various magnification observation apparatuses.

1 拡大観察装置
2 外部装置
100 測定ヘッド
101 傾斜機構
110 スタンド部
111 設置部
112,114 保持部
113 焦点駆動部
120 ステージ装置
121 ステージ
122 ステージ駆動部
130 鏡筒部
130c 傾斜中心
131 レンズユニット
131a 対物レンズ
132 撮像部
133 傾斜センサ
140,160,170 投光部
140A〜140D 領域
140o 光出射部
141 保持部材
141a 貫通孔
141b 突起部
142 光ファイバ
142a 光源
150 制御基板
161 ハーフミラー
171 ミラー
200 処理装置
201,204 ファイバユニット
202,203 ケーブル
210 筐体
300 光生成部
310 光源
320 遮光部
400 制御装置
410 制御部
420 記憶部
421 ヘッダ領域
422 データ領域
422A 汎用データ領域
422B メタデータ領域
430 表示部
430A 観察画面
430B 初期画面
430C 処理選択画面
431 機能表示領域
432 主表示領域
432a,432b 位置調整バー
433 副表示領域
433a 出射方向指定欄
433b 出射方向表示欄
433c,433e バー
433d,433f スライダ
440 操作部
500 駆動制御部
510 投光制御部
520 撮像制御部
530 焦点制御部
540 ステージ制御部
600 演算処理部
610 データ生成部
620 合焦判定部
630 算出部
640 条件設定部
641 撮像条件設定部
642 照明条件設定部
650 編集部
660 報告書作成部
A1,A2 光軸
b1 深度合成ボタン
b2 DR調整ボタン
b5 プレビューボタン
b6 調整ボタン
b7 保存ボタン
b8 決定ボタン
b11 落射ボタン
b12 透過ボタン
b20,b21 画像ボタン
b90 複数照明撮像ボタン
b91 ボタン
b92 最適画像選択ボタン
d1〜d3 距離
H1〜Hj 位置
O 原点
PA〜PE,Q 点
S 観察対象物
SF 深度合成画像
SH 影
SI 画像
SI1 元画像
SI2 調整画像
sp 対象部分画像
ss0 対象物位置画像
ss1,ss5,ss6 光アイコン
ss2 基準点画像
ss3 半球画像
ss4 出射位置画像
ss7 スイッチアイコン
SU,SR サムネイル画像
SV 仮想サムネイル画像
DESCRIPTION OF SYMBOLS 1 Magnification observation apparatus 2 External apparatus 100 Measuring head 101 Inclination mechanism 110 Stand part 111 Installation part 112,114 Holding part 113 Focus drive part 120 Stage apparatus 121 Stage 122 Stage drive part 130 Lens barrel part 130c Inclination center 131 Lens unit 131a Objective lens 132 Image pickup unit 133 Inclination sensor 140, 160, 170 Projection unit 140A to 140D Region 140o Light emission unit 141 Holding member 141a Through hole 141b Protrusion unit 142 Optical fiber 142a Light source 150 Control substrate 161 Half mirror 171 Mirror 200 Processing device 201, 204 Fiber unit 202, 203 Cable 210 Case 300 Light generation unit 310 Light source 320 Light blocking unit 400 Control device 410 Control unit 420 Storage unit 421 Header area 42 Data area 422A General-purpose data area 422B Metadata area 430 Display unit 430A Observation screen 430B Initial screen 430C Processing selection screen 431 Function display area 432 Main display areas 432a and 432b Position adjustment bar 433 Sub display area 433a Outgoing direction designation field 433b Outgoing direction display Field 433c, 433e Bar 433d, 433f Slider 440 Operation unit 500 Drive control unit 510 Light projection control unit 520 Imaging control unit 530 Focus control unit 540 Stage control unit 600 Arithmetic processing unit 610 Data generation unit 620 Focus determination unit 630 Calculation unit 640 Condition setting unit 641 Imaging condition setting unit 642 Illumination condition setting unit 650 Editing unit 660 Report creation unit A1, A2 Optical axis b1 Depth synthesis button b2 DR adjustment button b5 Preview button b6 Adjustment button 7 Save button b8 Enter button b11 Incident button b12 Transparent button b20, b21 Image button b90 Multiple illumination imaging button b91 button b92 Optimal image selection button d1-d3 Distance H1-Hj Position O Origin PA-PE, Q point S Observation object SF Depth composite image SH Shadow SI image SI1 Original image SI2 Adjusted image sp Target partial image ss0 Target object position image ss1, ss5, ss6 Light icon ss2 Reference point image ss3 Hemisphere image ss4 Ejection position image ss7 Switch icon SU, SR Thumbnail image SV Virtual Thumbnail image

Claims (8)

観察対象物が載置されるステージと、
前記ステージに載置された観察対象物に対して互いに異なる複数の出射方向の光を選択的に照射するように構成された投光装置と、
観察対象物からの光を受光し、前記複数の出射方向の光がそれぞれ観察対象物に照射されたときの観察対象物の画像を示す複数の画像データをそれぞれ生成する撮像部と、
前記撮像部により生成された前記複数の画像データに基づく複数の画像を表示する表示部とを備える、拡大観察装置。
A stage on which an observation object is placed;
A light projecting device configured to selectively irradiate light in a plurality of different emission directions with respect to the observation object placed on the stage;
An imaging unit that receives light from the observation target and generates a plurality of image data indicating images of the observation target when the light in the plurality of emission directions is respectively irradiated on the observation target;
A magnification observation apparatus comprising: a display unit that displays a plurality of images based on the plurality of image data generated by the imaging unit.
前記表示部は、各画像に対応する光の出射方向を示す指標をその画像に対応する位置に表示する、請求項1記載の拡大観察装置。 The magnification observation apparatus according to claim 1, wherein the display unit displays an index indicating an emission direction of light corresponding to each image at a position corresponding to the image. 前記撮像部により生成された前記複数の画像データの少なくとも一部を合成することにより、前記複数の出射方向とは異なる仮想的な出射方向の光が観察対象物に照射されたと仮定した場合に得られるべき観察対象物の画像を示す画像データを生成するデータ生成部をさらに備え、
前記表示部は、前記データ生成部により生成された画像データに基づく画像を、前記撮像部により生成された複数の画像データに基づく複数の画像とともに表示する、請求項1または2記載の拡大観察装置。
Obtained when it is assumed that light in a virtual emission direction different from the plurality of emission directions is irradiated on the observation object by combining at least a part of the plurality of image data generated by the imaging unit. A data generation unit for generating image data indicating an image of an observation object to be observed;
The magnification observation apparatus according to claim 1, wherein the display unit displays an image based on the image data generated by the data generation unit together with a plurality of images based on the plurality of image data generated by the imaging unit. .
使用者の操作に基づいて前記表示部により表示される複数の画像のいずれかを選択する選択部をさらに備え、
前記表示部は、前記選択部による選択前の前記複数の画像を第1の態様で表示し、前記第1の態様で表示された複数の画像のいずれかが前記選択部により選択された場合に、選択された画像を前記第1の態様とは異なる第2の態様で表示し、
前記第2の態様で表示される画像は、前記選択部による選択前の前記第1の態様で表示される画像に対して面積および解像度のうち少なくとも一方が大きい、請求項1〜3のいずれか一項に記載の拡大観察装置。
A selection unit that selects any of a plurality of images displayed by the display unit based on a user's operation;
The display unit displays the plurality of images before selection by the selection unit in a first mode, and when any of the plurality of images displayed in the first mode is selected by the selection unit , Displaying the selected image in a second aspect different from the first aspect,
The image displayed in the second mode has at least one of area and resolution larger than that of the image displayed in the first mode before selection by the selection unit. The magnification observation apparatus according to one item.
使用者の操作に基づいて前記第2の態様で表示される画像についての画像処理を指示する画像処理指示部と、
前記画像処理指示部からの指示に応答して、前記第2の態様で表示される画像について指示された画像処理を行う画像処理部とをさらに備え、
前記表示部は、前記画像処理部による画像処理前の画像と前記画像処理部による画像処理後の画像とを同時に表示する、請求項4記載の拡大観察装置。
An image processing instruction unit for instructing image processing for an image displayed in the second mode based on a user's operation;
An image processing unit that performs image processing instructed on the image displayed in the second mode in response to an instruction from the image processing instruction unit;
The magnification observation apparatus according to claim 4, wherein the display unit simultaneously displays an image before image processing by the image processing unit and an image after image processing by the image processing unit.
対物レンズをさらに備え、
前記撮像部は、観察対象物からの光を前記対物レンズを介して受光することにより前記複数の画像データを生成し、
前記投光装置は、
前記対物レンズの光軸を中心に回転対象に配置された複数の光出射領域を有するとともに、前記対物レンズの光軸を取り囲むように設けられる第1の投光部と、
前記複数の出射方向の光が観察対象物に照射されるように前記複数の光出射領域における光の出射状態を切り替える切替部とを含む、請求項1〜5のいずれか一項に記載の拡大観察装置。
An objective lens,
The imaging unit generates the plurality of image data by receiving light from the observation object through the objective lens,
The light projecting device is:
A first light projecting portion provided so as to surround the optical axis of the objective lens, and having a plurality of light emitting regions arranged on a rotation target around the optical axis of the objective lens;
The switching part as described in any one of Claims 1-5 including the switching part which switches the emission state of the light in these light emission area | regions so that the observation target object may be irradiated with the light of these emission directions. Observation device.
前記投光装置は、前記第1の投光部よりも前記対物レンズの光軸に近い位置から観察対象物に第1の光を照射する第2の投光部をさらに含み、
前記切替部は、前記第2の投光部における前記第1の光の出射状態をさらに切り替え、
前記撮像部は、前記第1の光が観察対象物に照射されたときの観察対象物の画像を示す画像データをさらに生成し、
前記表示部は、前記第1の光に対応して生成された画像データに基づく画像をさらに表示する、請求項6記載の拡大観察装置。
The light projecting device further includes a second light projecting unit that irradiates the observation target with the first light from a position closer to the optical axis of the objective lens than the first light projecting unit,
The switching unit further switches the emission state of the first light in the second light projecting unit,
The imaging unit further generates image data indicating an image of the observation object when the observation object is irradiated with the first light,
The magnification observation apparatus according to claim 6, wherein the display unit further displays an image based on image data generated corresponding to the first light.
前記投光装置は、観察対象物を挟んで前記撮像部と対向するように配置され、観察対象物に第2の光を照射する第3の投光部をさらに含み、
前記切替部は、前記第3の投光部における前記第2の光の出射状態をさらに切り替え、
前記撮像部は、前記第2の光が観察対象物に照射されたときの観察対象物の画像を示す画像データをさらに生成し、
前記表示部は、前記第2の光に対応して生成された画像データに基づく画像をさらに表示する、請求項6または7記載の拡大観察装置。
The light projecting device further includes a third light projecting unit that is disposed so as to face the imaging unit with the observation object interposed therebetween, and that irradiates the observation object with the second light,
The switching unit further switches the emission state of the second light in the third light projecting unit,
The imaging unit further generates image data indicating an image of the observation object when the second light is irradiated onto the observation object;
The magnification observation apparatus according to claim 6 or 7, wherein the display unit further displays an image based on image data generated corresponding to the second light.
JP2016144940A 2016-07-22 2016-07-22 Magnification observation device Pending JP2018013738A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016144940A JP2018013738A (en) 2016-07-22 2016-07-22 Magnification observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016144940A JP2018013738A (en) 2016-07-22 2016-07-22 Magnification observation device

Publications (1)

Publication Number Publication Date
JP2018013738A true JP2018013738A (en) 2018-01-25

Family

ID=61020209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016144940A Pending JP2018013738A (en) 2016-07-22 2016-07-22 Magnification observation device

Country Status (1)

Country Link
JP (1) JP2018013738A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020187160A (en) * 2019-05-10 2020-11-19 オリンパス株式会社 Image processing method, program, image processing device, image processing system, and microscope system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020187160A (en) * 2019-05-10 2020-11-19 オリンパス株式会社 Image processing method, program, image processing device, image processing system, and microscope system
WO2020230747A1 (en) * 2019-05-10 2020-11-19 オリンパス株式会社 Image processing method, program, image processing device, image processing system, and microscope system
US11892615B2 (en) 2019-05-10 2024-02-06 Evident Corporation Image processing method for microscopic image, computer readable medium, image processing apparatus, image processing system, and microscope system

Similar Documents

Publication Publication Date Title
JP6667393B2 (en) Magnifying observation device
JP6635892B2 (en) Magnifying observation device
JP7268991B2 (en) Magnifying observation device
JP2014106099A (en) Shape measurement device, shape measurement method, and shape measurement program
EP2804145B1 (en) Microscope system and stitched area decision method
JP6654979B2 (en) Magnifying observation device
JP6667395B2 (en) Magnifying observation device
JP2014106094A (en) Shape measurement device
JP2014056060A (en) Optical microscope
JP2015082099A (en) Control apparatus for controlling microscope, microscope system, control method, and program
JP6635893B2 (en) Magnifying observation device
JP2018013738A (en) Magnification observation device
JP5956932B2 (en) Shape measuring device, shape measuring method, and shape measuring program
CN114967095A (en) magnifying observation equipment
JP7268992B2 (en) Magnifying observation device
JP6667394B2 (en) Magnifying observation device
JP2017207520A (en) Shape measurement device, shape measurement method and shape measurement program
JP2018013733A (en) Magnification observation device
JP6025466B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6654980B2 (en) Magnifying observation device
JP7251957B2 (en) Magnifying observation device
JP7157546B2 (en) Shape measuring device, shape measuring method, shape measuring program, computer-readable recording medium, and recorded equipment
JP2006153636A (en) 3-dimensional measurement method and program making computer perform 3-dimensional measurement method
JP2024154080A (en) Magnification observation device, observation image generating method, observation image generating program, and recording medium
JP2020086294A (en) Magnification observation device