JP2019120501A - Picture-taking system, image processing device, and image processing method - Google Patents
Picture-taking system, image processing device, and image processing method Download PDFInfo
- Publication number
- JP2019120501A JP2019120501A JP2017252990A JP2017252990A JP2019120501A JP 2019120501 A JP2019120501 A JP 2019120501A JP 2017252990 A JP2017252990 A JP 2017252990A JP 2017252990 A JP2017252990 A JP 2017252990A JP 2019120501 A JP2019120501 A JP 2019120501A
- Authority
- JP
- Japan
- Prior art keywords
- light source
- optical element
- image data
- imaging
- polarization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Stroboscope Apparatuses (AREA)
- Blocking Light For Cameras (AREA)
Abstract
【課題】ユーザの負担となる作業を行わせることなく、偏光条件が異なり、かつ被写体が様々な向きに変更された大量の写真を撮影する。【解決手段】透過照明用光源101と、光源側光学素子102と、被写体10を支持し、光軸に対して被写体10の向きを変更する回転テーブル104と、カメラ側光学素子105と、カメラ106を配置する。撮影制御装置200は、光源側光学素子102を透過する光の偏光状態、カメラ側光学素子105を透過する光の偏光状態、回転テーブル104における被写体の向きなどの各条件を組み合わせた複数通りの状態を作るよう制御し、複数通りの状態の各状態において順次、カメラ106に撮影処理を行わせるよう制御する。【選択図】図1PROBLEM TO BE SOLVED: To take a large number of photographs in which polarization conditions are different and a subject is changed in various directions, without performing work that burdens a user. A transillumination light source 101, a light source side optical element 102, a rotary table 104 that supports a subject 10 and changes the direction of the subject 10 with respect to an optical axis, a camera side optical element 105, and a camera 106. To place. The image capturing control apparatus 200 has a plurality of states in which the conditions such as the polarization state of light passing through the light source side optical element 102, the polarization state of light passing through the camera side optical element 105, and the orientation of the subject on the turntable 104 are combined. Control is performed so that the camera 106 sequentially performs shooting processing in each of a plurality of states. [Selection diagram] Figure 1
Description
本発明は、偏光を用いてサンプル(試料)を観察するために、当該サンプルを被写体として写真撮影を行う撮影システム及び画像処理装置並びに画像処理方法に関する。なお、本明細書では、偏光を用いてサンプルを観察することを偏光観察と記載することがある。 The present invention relates to an imaging system, an image processing apparatus, and an image processing method for taking a picture of a sample (sample) as a subject in order to observe the sample using polarized light. In the present specification, observing a sample using polarized light may be referred to as polarized light observation.
光は電磁波の一種で、「波」の性質を持っており、波長によって紫外線、可視光、赤外線などと分類される。偏光(polarization)とは、特定方向に振動している光で、例えば、所定の光源から出た光を偏光子に透過させることで人工的に生成することができる。 Light is a kind of electromagnetic wave and has the property of "wave", and is classified into ultraviolet light, visible light, infrared light, etc. depending on the wavelength. Polarization is light vibrating in a specific direction, and can be artificially generated, for example, by transmitting light emitted from a predetermined light source to a polarizer.
偏光を用いた観察では、自然光や肉眼で見えない/見えにくい構造をうまく可視化できる可能性がある。光沢があったり、黒や透明、構造色を持つような対象が偏光下では、複屈折と干渉を経て、色がついたり、輪郭が強調されて見やすく効果的に観察することができる。 In polarized light observation, it may be possible to visualize structures that are invisible or hard to see with natural light or the naked eye. Under polarized light, an object that is glossy, black, transparent, or structural color passes birefringence and interference, and is colored or contoured to be emphasized, making it possible to observe effectively and easily.
ガラスやポリカーボネートなど透明な材料に応力を加え、偏光下で観察すると、ひずみによって複屈折した偏光に位相差が生じ、干渉縞が現れる。これを光弾性(Photoelasticity)と言い、材料の応力分布を解析する実験法としてよく使われる。約200年前から知られている現象である。 When stress is applied to a transparent material such as glass or polycarbonate and observed under polarized light, a strain causes a phase difference in the birefringent polarized light and interference fringes appear. This is called photoelasticity and is often used as an experimental method for analyzing the stress distribution of a material. It is a phenomenon known about 200 years ago.
偏光観察のための既存製品としては、偏光子を組み込んだ専用カメラが実用化されている。偏光下で実験や現象を高速度撮影する場合などに有利とされるが、コストが高く、専用ハードウェアまで必要なケースは限定的である。
(株式会社フォトニックラティス http://www.photonic-lattice.com/、株式会社フォトロン http://www.photron.co.jp/を参照)
As an existing product for polarization observation, a dedicated camera incorporating a polarizer is put to practical use. This is advantageous when shooting experiments and phenomena at high speed under polarized light, etc., but the cost is high and the need for dedicated hardware is limited.
(Refer to Photonic Lattice, Inc. http://www.photonic-lattice.com/ and Photoron, Inc. http://www.photron.co.jp/)
偏光顕微鏡は結晶や鉱物の観察に良く用いられる。偏光顕微鏡は100μm以下といった高分解能な観察が可能だが、それ故に視野が狭く、数cm以上の機械部品相当のサイズの全体像を一度に観察することはできない。 Polarized light microscopes are often used to observe crystals and minerals. A polarized light microscope is capable of high resolution observation such as 100 μm or less, but it has a narrow field of view and can not simultaneously observe an entire image of a size equal to or more than a few centimeters of a mechanical part.
光源と偏光板のみから構成された、安価に偏光観察を行う製品も存在するが、テーブル上に置いた試料を単に見る、簡易的な用途を目的としている。
(http://www.mecan.co.jp/Visualization/strain_viewer/index.htmlを参照)
Although there are products for polarization observation inexpensively, which are composed only of a light source and a polarizing plate, the purpose is to simply view a sample placed on a table.
(Refer to http://www.mecan.co.jp/Visualization/strain_viewer/index.html)
下記の特許文献1では、鉱物の内部歪みを観察する装置が開示されている。 Patent Document 1 below discloses an apparatus for observing the internal strain of a mineral.
また、下記の特許文献2では、被測定物内部の欠陥と歪みを測定できる装置が開示されている。 Moreover, in the following patent document 2, the apparatus which can measure the defect and distortion inside a to-be-measured object is disclosed.
また、下記の特許文献3では、偏光観察に限定されず、カメラを用いて被写体を様々な視野から撮影する技術が開示されている。 Further, Patent Document 3 below discloses a technique for capturing an object from various fields of view using a camera without being limited to polarization observation.
複数の画像を3次元的につなぎ合わせて、現実に近い視界をムービーで表現する技術として、QuickTime VR(Virtual Reality)(登録商標)が知られている。QuickTime VRには、カメラを中心として周囲の視野や空間を観察できるQuickTime VRパノラマと、対象物を3次元的に回して観察できるQuickTime VRオブジェクトムービーの2種類が存在する。また、Webブラウザ上で対象物を3次元的に回して観察できる技術として、Web3DやHTML5が知られている。 QuickTime VR (Virtual Reality) (registered trademark) is known as a technology for connecting a plurality of images in a three-dimensional manner and expressing a near-real view as a movie. There are two types of QuickTime VR, a QuickTime VR panorama that allows you to observe the surrounding field of view and space centered on the camera, and a QuickTime VR object movie that allows you to observe an object three-dimensionally. In addition, Web3D and HTML5 are known as a technology that can rotate and observe an object three-dimensionally on a Web browser.
一方、特許文献4では、3次元画像データを入力とし、レンダリングされた画像から利便性の高い表示用画像データファイルを生成する技術が開示されている。 On the other hand, Patent Document 4 discloses a technique of using three-dimensional image data as an input and generating a highly convenient display image data file from a rendered image.
近年ではArduino、mbedといったマイコンボードや関連書籍が市販され、これらを用いてプログラムを記述し、モータや電子デバイスを制御する方法は公知となっている。 In recent years, microcomputer boards such as Arduino and mbed and related books are commercially available, and methods for describing programs using these and controlling motors and electronic devices have become known.
OpenCV、Qtといった開発ツールを用いてプログラムを記述することでユーザインタフェースを構築したり、画像データに対して様々な画像処理を行ったりすることは公知となっている。 It is known to construct a user interface by describing a program using development tools such as OpenCV and Qt, and to perform various image processing on image data.
偏光観察では光源、偏光板の角度、被写体の回転などによって、見え方は様々に変化する。偏光による干渉色は、偏光板の角度、また被写体の複屈折値と厚みに相関して変化するため、被写体を一定の条件で単一方向のみから観察していたのでは、その色分布を全体的に把握できない。偏光観察において良く見える有用な画像データを得るためには、撮像時の手間暇とノウハウを要するのが実情である。 In polarized light observation, the appearance changes in various ways depending on the light source, the angle of the polarizing plate, the rotation of the subject, and the like. Since the interference color by polarization changes in correlation with the angle of the polarizing plate and the birefringence value and thickness of the subject, if the subject is observed from only a single direction under certain conditions, the entire color distribution can be obtained. Can not grasp In order to obtain useful image data that looks good in polarized light observation, it is a fact that it requires labor and know-how at the time of imaging.
本発明は、上記の問題点を考慮し、偏光観察に有用な多数の画像データを簡単かつ迅速に得ることができる撮影システム、及び、この撮影システムによって得られた画像データの処理を行う画像処理装置及び画像処理方法を提供することを目的とする。 SUMMARY OF THE INVENTION In consideration of the above problems, the present invention provides an imaging system capable of easily and quickly obtaining a large number of image data useful for polarization observation, and image processing for processing image data obtained by this imaging system. An object of the present invention is to provide an apparatus and an image processing method.
上記の目的を達成するため、本発明の撮影システムは、
第1の光源と、
前記第1の光源から入射された光を、第1の偏光状態に変更して透過させる第1の光学素子と、
前記第1の光学素子から入射された光を、第2の偏光状態に変更して透過させる第2の光学素子と、
前記第1の光学素子と前記第2の光学素子との間の光軸上に被写体が配置されていない場合には、前記第2の光学素子から入射された光を受光して電気信号に変換し、前記第1の光学素子と前記第2の光学素子との間の光軸上に前記被写体が配置されている場合には、前記被写体を透過した光を含めて前記第2の光学素子から入射された光を受光して電気信号に変換し、前記電気信号を画像データとして出力する撮影処理を行うよう構成されている撮影装置と、
前記被写体を支持するととともに、前記被写体を回転させて、前記光軸に対して前記被写体の向きを変更するよう構成されている回転装置と、
前記第1の光学素子、前記第2の光学素子、前記回転装置を制御して、前記第1の偏光状態、前記第2の偏光状態、前記被写体の向きの各条件を組み合わせた複数通りの状態を作るよう構成されており、前記複数通りの状態の各状態において順次、前記撮影処理を行うよう前記撮影装置を制御する撮影制御装置とを、
有する。
In order to achieve the above object, the imaging system of the present invention is
A first light source,
A first optical element for changing light transmitted from the first light source to a first polarization state and transmitting the light;
A second optical element for changing light transmitted from the first optical element into a second polarization state and transmitting the light;
When a subject is not disposed on the optical axis between the first optical element and the second optical element, the light incident from the second optical element is received and converted into an electric signal. When the subject is disposed on the optical axis between the first optical element and the second optical element, the light from the second optical element including the light transmitted through the subject An imaging device configured to perform an imaging process of receiving incident light and converting it into an electrical signal and outputting the electrical signal as image data;
A rotating device configured to support the subject and to rotate the subject to change the orientation of the subject with respect to the optical axis;
A plurality of states combining conditions of the first polarization state, the second polarization state, and the direction of the subject by controlling the first optical element, the second optical element, and the rotation device. A photographing control device configured to control the photographing device to sequentially perform the photographing processing in each state of the plurality of states;
Have.
また、上記目的を達成するため、本発明の画像処理装置は、上記の撮影システムによって得られた、前記複数通りの状態の各状態に対応する複数の画像データを用いて画像処理を行うよう構成されている。 Further, in order to achieve the above object, the image processing apparatus of the present invention is configured to perform image processing using a plurality of image data corresponding to each of the plurality of states obtained by the imaging system. It is done.
また、上記の目的を達成するため、本発明の画像処理方法は、
上記の撮影システムによって得られた、前記複数通りの状態の各状態に対応する複数の画像データを、所定の記憶装置から読み出すステップと、
前記所定の記憶装置から読み出された前記複数の画像データを用いた画像処理を行うステップとを、
有する。
In addition, in order to achieve the above object, the image processing method of the present invention is
Reading a plurality of image data corresponding to each state of the plurality of states obtained by the imaging system from a predetermined storage device;
Performing image processing using the plurality of image data read from the predetermined storage device;
Have.
本発明によれば、ユーザは手間暇をかけずに一度の操作で、偏光条件が異なり、かつ、被写体を様々な向きに変更した大量の写真を自動的に連続撮影することが可能となる。また、本発明によれば、ユーザは様々な条件下で撮影された被写体の画像を見ることが可能となり、被写体の偏光下における様々な見え方を容易に把握することが可能となる。また、本発明によれば、様々な条件下における撮影で得られた画像データを処理することによって、被写体の偏光特性に係る数値を計算したり、偏光特性を把握しやすい画像データを生成したりすることが可能となる。また、本発明によれば、様々な条件下で撮影された画像と、偏光計算の結果、数値化された可視化画像を比べて見ることで、これまで目視で検査していた偏光画像と、樹脂などの成形ひずみの程度、関係性を理解することが可能となる。 According to the present invention, it is possible for a user to automatically and continuously shoot a large number of photographs in which the polarization conditions are different and the subject is changed in various directions by one operation without spending time and effort. Further, according to the present invention, the user can view an image of a subject photographed under various conditions, and can easily grasp various ways of viewing the subject under polarization. Further, according to the present invention, by processing image data obtained by photographing under various conditions, it is possible to calculate numerical values relating to the polarization characteristic of the subject, or to generate image data that makes it easy to grasp the polarization characteristic. It is possible to Further, according to the present invention, it is possible to compare an image photographed under various conditions with a visualized image which is digitized as a result of polarization calculation, so that a polarized image which has been inspected visually until now, a resin It is possible to understand the degree of forming strain such as
以下、図面を参照しながら、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の実施の形態における撮影システムの構成の一例を示すブロック図である。図1に図示されている撮影システムは、偏光を用いて撮影を行う撮影系と、撮影系の動作を制御する撮影制御系と、撮影系における撮影によって得られた画像データの処理を行う画像処理系とに大別される。以下、撮影系、撮影制御系、画像処理系の各構成について順に説明する。 FIG. 1 is a block diagram showing an example of the configuration of a photographing system according to an embodiment of the present invention. The imaging system illustrated in FIG. 1 includes an imaging system that performs imaging using polarized light, an imaging control system that controls the operation of the imaging system, and image processing that processes image data obtained by imaging in the imaging system. It is divided roughly into systems. Hereinafter, each configuration of the imaging system, the imaging control system, and the image processing system will be described in order.
偏光を用いて撮影を行う撮影系は、透過照明用光源101、光源側光学素子102、回転テーブル103、反射照明用光源104、カメラ側光学素子105、カメラ106により構成される。 An imaging system that performs imaging using polarized light includes a transmissive illumination light source 101, a light source side optical element 102, a rotating table 103, a reflective illumination light source 104, a camera side optical element 105, and a camera 106.
撮影系では、透過照明用光源101から発せられた光がカメラ106に到達する経路(図1に示す光の経路L1)上に、光源側光学素子102、回転テーブル103上の被写体10(偏光観察を行う対象となる物体)、カメラ側光学素子105がこの順で配置される。なお、後述するように、被写体10が回転テーブル103上に載置されない状態とすることも可能である。 In the imaging system, the light source side optical element 102 and the object 10 on the rotation table 103 (polarization observation) are on the path (the path L1 of light shown in FIG. 1) for the light emitted from the transmissive illumination light source 101 to reach the camera 106. Object to be performed, and the camera-side optical element 105 are arranged in this order. As described later, the subject 10 may not be placed on the rotary table 103.
なお、光源側光学素子102、回転テーブル103上の被写体10、カメラ側光学素子105は、透過照明用光源101から発せられた光がカメラ106に到達する経路上に配置されればよい。光の方向は、水平方向(重力方向に対して垂直な方向)であってもよく、重力方向又は重力と逆向きの方向であってもよく、さらには、重力方向に対して任意の角度方向であってもよい。 The light source side optical element 102, the subject 10 on the rotary table 103, and the camera side optical element 105 may be disposed on a path through which light emitted from the transmissive illumination light source 101 reaches the camera 106. The direction of light may be horizontal (direction perpendicular to the direction of gravity), may be the direction of gravity or the direction opposite to gravity, and may be any angular direction with respect to the direction of gravity. It may be
以下では、透過照明用光源101から発せられた光がカメラ106に到達する経路を光軸と呼ぶことがある。なお、光軸は、ある広がりを持って伝搬される光束の一部が通る経路を表しており、例えば、光束の断面の幾何学的な中心部が通る経路に限定されるものではない。 Hereinafter, a path along which light emitted from the transmissive illumination light source 101 reaches the camera 106 may be referred to as an optical axis. The optical axis represents a path through which a part of a light beam propagated with a certain spread passes, and is not limited to, for example, a path through which a geometrically central portion of a cross section of the light flux passes.
透過照明用光源101は、カメラ106の方向(光軸方向)に向けて光を発する光源である。透過照明用光源101は、例えばRGB(赤、緑、青)の各色の可視光をそれぞれ発するLED(Light Emission Diode:発光ダイオード)パネルが配列されており、RGBの各色の発光強度を制御することで、RGBの単色光だけではなく、任意のフルカラーの色の光を発することが可能である。また、LEDパネルを並べることで大型の面発光照明を構成可能であることから、透過照明用光源101として、例えば384mm×384mmの大型サイズで面発光する照明を実現することが可能である。透過照明用光源101を大型化することで、数十センチメートル程度の比較的大きな被写体10を偏光観察の対象とすることが可能となる。後述のように、透過照明用光源101の点灯/消灯や発光パターンは、撮影制御系の透過照明用光源制御部201によって制御可能である。 The transmissive illumination light source 101 is a light source that emits light toward the direction of the camera 106 (the optical axis direction). The transmissive illumination light source 101 is, for example, an array of LED (Light Emission Diode) panels that respectively emit visible light of each color of RGB (red, green, blue), and controls emission intensity of each color of RGB Thus, it is possible to emit light of any full color, not only RGB single color light. Moreover, since large-scale surface emitting illumination can be configured by arranging the LED panels, it is possible to realize, as the transmissive illumination light source 101, illumination that performs surface emitting with a large size of 384 mm × 384 mm, for example. By increasing the size of the transmissive illumination light source 101, it is possible to use a relatively large object 10 of about several tens of centimeters as a target for polarization observation. As described later, turning on / off and the light emission pattern of the transmissive illumination light source 101 can be controlled by the transmissive illumination light source control unit 201 of the photographing control system.
透過照明用光源101は、被写体10を偏光観察する際に用いられる光源であり、カメラ106から被写体10を見た場合に逆光(バックライト)となる位置に配置される透過照明としての役割を有する。 The transmissive illumination light source 101 is a light source used when observing the subject 10 in polarization, and has a role as transmissive illumination disposed at a position to be a back light when the subject 10 is viewed from the camera 106 .
なお、透過照明用光源101は、可視光を発する光源に限定されるものではなく、用途に応じて、例えば赤外光や紫外光を発する光源であってもよい。特に、被写体10が可視光を通しにくい半透明や色付きの材料である場合に、透過照明用光源101として赤外光を発する光源を用いることが有効である。 The transmissive illumination light source 101 is not limited to a light source that emits visible light, and may be, for example, a light source that emits infrared light or ultraviolet light according to the application. In particular, when the subject 10 is a translucent or colored material that does not easily transmit visible light, it is effective to use a light source that emits infrared light as the transmissive illumination light source 101.
光源側光学素子102は、偏光子102a、QWP(Quarter Wavelength Plate:1/4波長板)102bを有する光学素子であり、光軸方向に向かって偏光子102a、QWP102bの順に配置される。偏光子102a及びQWP102bは、偏光子102a及びQWP102bが例えばフィルム状の部材である場合には、フィルム状の面の法線の方向が光軸方向と略一致するように配置される。偏光子102aは、例えば直線偏光素子であり、透過軸方位を所望の角度へ回転させることが可能である。QWP102bは、直線偏光を円偏光とする1/4波長板であり、主軸方位を所望の角度へ回転させることが可能である。後述のように、偏光子102aの透過軸方位やQWP102bの主軸方位は、撮影制御系の光源側光学素子制御部202によって制御可能である。 The light source side optical element 102 is an optical element having a polarizer 102a and a quarter wavelength plate (QWP) 102b, and is disposed in the order of the polarizer 102a and the QWP 102b in the optical axis direction. When the polarizer 102a and the QWP 102b are, for example, film-like members, the polarizers 102a and the QWP 102b are arranged such that the direction of the normal to the film-like surface substantially matches the optical axis direction. The polarizer 102a is, for example, a linear polarization element, and can rotate the transmission axis orientation to a desired angle. The QWP 102 b is a quarter-wave plate that converts linearly polarized light into circularly polarized light, and can rotate the principal axis direction to a desired angle. As described later, the transmission axis orientation of the polarizer 102a and the main axis orientation of the QWP 102b can be controlled by the light source side optical element control unit 202 of the photographing control system.
回転テーブル103は、被写体10を載置するためのテーブル(台座)を有する。例えば光軸が略水平方向である場合、被写体10を載置するためのテーブル面は、略水平となるよう配置される。回転テーブル103に載置された被写体10は、透過照明用光源101からカメラ106を結ぶ光軸上に配置される。これにより、透過照明用光源101から発せられた光は、光源側光学素子102を透過した後、被写体10を透過し、さらに、カメラ側光学素子105を透過して、カメラ106に到達するように位置決めされるため、カメラ106から、2つの光学素子102、105に挟まれた被写体10を透過する偏光の様子を観察することが可能となる。また、回転テーブル103はモータを搭載し、光軸に対して垂直な方向を回転軸としてテーブルを回転させることが可能なよう構成されている。これにより、回転テーブル103を所望の角度となるよう回転させることで、回転テーブルに載置された被写体10の向きを所望の向きとすることが可能である。 The rotary table 103 has a table (pedestal) on which the subject 10 is placed. For example, when the optical axis is in the substantially horizontal direction, the table surface on which the subject 10 is placed is arranged to be substantially horizontal. The subject 10 placed on the rotary table 103 is disposed on the optical axis connecting the light source 101 for transmissive illumination to the camera 106. As a result, the light emitted from the light source 101 for transmission illumination passes through the light source side optical element 102 and then passes through the subject 10 and further passes through the camera side optical element 105 to reach the camera 106. Since the positioning is performed, it is possible to observe, from the camera 106, the state of polarized light transmitted through the subject 10 sandwiched between the two optical elements 102 and 105. Further, the rotary table 103 is mounted with a motor, and is configured such that the table can be rotated with a direction perpendicular to the optical axis as a rotation axis. As a result, by rotating the rotary table 103 to a desired angle, it is possible to set the direction of the subject 10 placed on the rotary table to a desired direction.
なお、後述するキャリブレーション撮影時などのように、回転テーブル103に被写体10を載置しない状態で撮影システムを動作させることも可能である。後述のように、回転テーブル103に搭載されているモータは、撮影制御系の回転テーブル制御部203によって制御可能である。 Note that it is also possible to operate the imaging system in a state where the subject 10 is not placed on the rotation table 103 as in calibration imaging which will be described later. As described later, the motor mounted on the rotary table 103 can be controlled by the rotary table control unit 203 of the imaging control system.
さらに、複数の被写体10の偏光観察を同時に行えるように、複数の回転テーブル103を設けてもよい。例えば、2つの回転テーブル103を横に(すなわち、光軸に対して垂直な方向に)並べて設置し、それぞれの回転テーブル103に異なる被写体10を載置することで、異なる被写体10の偏光観察を同時に行うことが可能となる。この場合、複数の回転テーブル103が同期して回転できる構成としてもよく、それぞれ独立して回転できる構成としてもよい。 Furthermore, a plurality of rotation tables 103 may be provided so that polarization observation of a plurality of subjects 10 can be performed simultaneously. For example, by arranging two rotary tables 103 sideways (that is, in a direction perpendicular to the optical axis) and placing different subjects 10 on the respective rotary tables 103, polarization observation of different subjects 10 can be performed. It can be done at the same time. In this case, the plurality of rotary tables 103 may be configured to be able to rotate synchronously, or may be configured to be capable of independently rotating.
本明細書では、光軸上に被写体10を配置し、かつ、光軸に対する被写体10の向きを変更する装置(回転装置)として、テーブル(台座)で被写体10を支えるよう構成された回転テーブル103を用いる場合について説明している。しかしながら、回転装置は、光軸上に被写体10を配置でき、かつ、光軸に対する被写体10の向きを変更できる構成であればよく、回転テーブル103に限定されるものではない。回転装置は、例えば、被写体10を把持したり、針状部材を突き刺して被写体10を固定したりすることで、光軸上に被写体10を配置し、かつ、光軸に対する被写体10の向きを変更するよう構成されていてもよい。また、回転装置は、上述した複数の回転テーブル103を設ける場合と同様に、光軸上に複数の被写体10を配置し、光軸に対して各被写体10の向きを同期して又はそれぞれ独立して変更できるよう構成されていてもよい。 In this specification, a rotary table 103 configured to support the subject 10 with a table (base) as a device (rotation device) for arranging the subject 10 on the optical axis and changing the orientation of the subject 10 with respect to the optical axis. Is described in the case of using. However, the rotation device is not limited to the rotation table 103 as long as the rotation device has a configuration capable of arranging the subject 10 on the optical axis and changing the direction of the subject 10 with respect to the optical axis. The rotation device arranges the subject 10 on the optical axis and changes the direction of the subject 10 with respect to the optical axis by, for example, holding the subject 10 or inserting the needle-like member to fix the subject 10. It may be configured to In addition, as in the case of providing the plurality of rotation tables 103 described above, the rotation device arranges the plurality of subjects 10 on the optical axis and synchronizes the directions of the respective subjects 10 with the optical axis or is independent of each other. It may be configured to be able to change.
反射照明用光源104は、カメラ106側から被写体10に照明(順光)を当てるための光源であり、反射照明の役割を有する。反射照明用光源104は、カメラ106による撮影の邪魔にならないようにカメラ106による撮影範囲外に設けられ、例えば、被写体10に対して均一に照明を当てることが可能なリング形状(光軸と重ならないよう、光軸の円周方向に沿って光源が配列された形状)を有する。反射照明用光源104から発せられた光は、被写体10に反射してカメラ106に到達する(図1に示す光の経路L2)。なお、反射照明用光源104は、被写体10の色や形状を明確にするための白色光光源であることが望ましいが、任意の色の可視光光源、赤外光光源、紫外光光源などであってもよい。後述のように、反射照明用光源104の点灯/消灯は、撮影制御系の反射照明用光源制御部204によって制御可能である。 The reflective illumination light source 104 is a light source for applying illumination (forward light) to the subject 10 from the camera 106 side, and has a role of reflective illumination. The reflective illumination light source 104 is provided outside the imaging range by the camera 106 so as not to disturb the imaging by the camera 106, and may be, for example, a ring shape (the optical axis and weight which can uniformly illuminate the object 10). (A shape in which the light sources are arranged along the circumferential direction of the optical axis). The light emitted from the reflective illumination light source 104 is reflected by the subject 10 and reaches the camera 106 (a light path L2 shown in FIG. 1). The reflective illumination light source 104 is desirably a white light source for clarifying the color and shape of the subject 10, but may be a visible light source of any color, an infrared light source, an ultraviolet light source, or the like. May be As described later, turning on / off of the reflective illumination light source 104 can be controlled by the reflective illumination light source control unit 204 of the photographing control system.
カメラ側光学素子105は、QWP105a、偏光子105bを有する光学素子である。QWP105a及び偏光子105bはフィルム状の部材であり、フィルム状の面の法線の方向が光軸方向と略一致するように、光軸方向に向かってQWP105a、偏光子105bの順に配置される。QWP105aは、直線偏光を円偏光とする1/4波長板であり、主軸方位を所望の角度へ回転させることが可能である。偏光子105bは、例えば直線偏光素子であり、透過軸方位を所望の角度へ回転させることが可能である。後述のように、QWP105aの主軸方位や偏光子105bの透過軸方位は、撮影制御系のカメラ側光学素子制御部205によって制御可能である。 The camera side optical element 105 is an optical element having the QWP 105 a and the polarizer 105 b. The QWP 105 a and the polarizer 105 b are film-like members, and the QWP 105 a and the polarizer 105 b are disposed in this order in the optical axis direction such that the direction of the normal to the film surface substantially matches the optical axis direction. The QWP 105 a is a quarter-wave plate that converts linearly polarized light into circularly polarized light, and can rotate the principal axis direction to a desired angle. The polarizer 105 b is, for example, a linear polarization element, and can rotate the transmission axis orientation to a desired angle. As described later, the main axis direction of the QWP 105a and the transmission axis direction of the polarizer 105b can be controlled by the camera-side optical element control unit 205 of the photographing control system.
カメラ106は、所定の撮影範囲を撮影する撮影装置であり、市販の一眼レフデジタルカメラを利用することが可能である。カメラ106は、カメラ側光学素子105を透過した光が入射される場所に設置され、カメラ側光学素子105を透過した光を受光して電気信号に変換する機能や、所定のシャッタータイミングにおいて得られた電気信号を画像データとして出力する写真撮影機能などを有している。カメラ106による写真撮影で得られた画像データは、記憶装置400に記憶される。なお、例えば透過照明用光源101が赤外光や紫外光を発する光源の場合には、カメラ106は、透過照明用光源101で用いられる光に対応していることが望ましい。後述のように、カメラ106による写真撮影は、撮影制御系のカメラ制御部206によって制御可能である。 The camera 106 is an imaging device for imaging a predetermined imaging range, and can use a commercially available single-lens reflex digital camera. The camera 106 is installed at a place where the light transmitted through the camera side optical element 105 is incident, receives the light transmitted through the camera side optical element 105 and converts it into an electric signal, and is obtained at a predetermined shutter timing. It has a photographing function and the like for outputting an electrical signal as image data. Image data obtained by photographing with the camera 106 is stored in the storage device 400. For example, in the case where the transmissive illumination light source 101 emits infrared light or ultraviolet light, it is desirable that the camera 106 correspond to the light used by the transmissive illumination light source 101. As described later, photographing by the camera 106 can be controlled by the camera control unit 206 of the photographing control system.
また、カメラ106は、XYZ軸方向の回転や移動などの微調整ができる雲台にセットされる。さらに、雲台は前後に自由に移動可能なスライダーと呼ばれる台に乗っており、小さい/大きい被写体10を撮影する際に、被写体10に対して近づける/遠ざけることが可能なように構成されている。 Further, the camera 106 is set at a camera platform capable of fine adjustment such as rotation or movement in the XYZ axial directions. Furthermore, the camera platform rests on a platform called a slider that can freely move back and forth, and is configured to be able to move closer to or away from the subject 10 when shooting a small / large subject 10 .
なお、カメラ106による撮影時には、外部からの光を遮断して、被写体10の偏光観察を行うために充分な暗さを確保することが望ましく、例えば、撮影系の各機器(透過照明用光源101、光源側光学素子102、回転テーブル103、反射照明用光源104、カメラ側光学素子105、カメラ106)は、暗室内に設置されることが望ましい。 When photographing with the camera 106, it is desirable to block external light to ensure sufficient darkness for polarized observation of the object 10. For example, each device of the photographing system (the light source 101 for transmissive illumination) It is desirable that the light source side optical element 102, the rotary table 103, the reflective illumination light source 104, the camera side optical element 105, and the camera 106) be installed in a dark room.
一方、撮影系の動作を制御する撮影制御系は、撮影制御装置200、PC(Personal Computer:パーソナルコンピュータ)300により構成される。 On the other hand, a photographing control system for controlling the operation of the photographing system is constituted by a photographing control device 200 and a PC (Personal Computer: personal computer) 300.
撮影制御装置200は、撮影系の各機器及びPC300に接続されている。撮影制御装置200は、マイコンボードを搭載し、撮影系の各機器の動作を集中制御することが可能である。具体的には、撮影制御装置200は、撮影系の各機器の動作を制御するために、透過照明用光源制御部201、光源側光学素子制御部202、回転テーブル制御部203、反射照明用光源制御部204、カメラ側光学素子制御部205、カメラ制御部206を有する。 The imaging control apparatus 200 is connected to each device of the imaging system and the PC 300. The imaging control apparatus 200 can be equipped with a microcomputer board, and can centrally control the operation of each device of the imaging system. Specifically, in order to control the operation of each device of the imaging system, the imaging control device 200 controls the light source control unit 201 for transmission illumination, the light source side optical element control unit 202, the rotation table control unit 203, and the light source for reflection illumination A control unit 204, a camera-side optical element control unit 205, and a camera control unit 206 are included.
透過照明用光源制御部201は、透過照明用光源101に係る動作を制御する機能を表している。透過照明用光源制御部201は、透過照明用光源101の点灯/消灯の制御、透過照明用光源101の発光色の制御(RGBの各色の可視光を発する各LEDパネルの光量制御)などを行うことが可能である。一例として、透過照明用光源制御部201は、透過照明用光源101をRGB発光させる場合、透過照明用光源101をRのみ発光(既知の波長を有する赤色光のみ発光)させる場合、透過照明用光源101を消灯させる場合の3パターンの異なる状態を制御することが可能である。 The transmissive illumination light source control unit 201 represents a function of controlling the operation of the transmissive illumination light source 101. The transmissive illumination light source control unit 201 performs control of turning on / off of the transmissive illumination light source 101, control of emission color of the transmissive illumination light source 101 (control of light intensity of each LED panel emitting visible light of each color of RGB), and the like. It is possible. As an example, when the transmissive illumination light source control unit 201 causes the transmissive illumination light source 101 to emit RGB light, when the transmissive illumination light source 101 emits only R light (only red light having a known wavelength emits), the transmissive illumination light source It is possible to control three different states in the case of turning off the light 101.
光源側光学素子制御部202は、光源側光学素子102に係る動作を制御する機能を表している。光源側光学素子102は、上述のように偏光子102aとQWP102bによって構成されており、光源側光学素子制御部202は、偏光子102aの透過軸方位、QWP102bの主軸方位をそれぞれ個別に変更することが可能である。また、光源側光学素子制御部202は、偏光子102aやQWP102bの有無(偏光子102aやQWP102bを配置する場合と配置しない場合)を制御することも可能である。 The light source side optical element control unit 202 has a function of controlling the operation of the light source side optical element 102. The light source side optical element 102 is composed of the polarizer 102a and the QWP 102b as described above, and the light source side optical element control unit 202 individually changes the transmission axis orientation of the polarizer 102a and the main axis orientation of the QWP 102b. Is possible. The light source side optical element control unit 202 can also control the presence or absence of the polarizer 102 a and the QWP 102 b (with and without the polarizer 102 a and the QWP 102 b).
光源側光学素子制御部202は、光源側光学素子102を通る光を所望の偏光状態(複数の偏光状態)とするよう光源側光学素子102に係る設定を変更できればよく、所望の偏光状態を得るための構成や、所望の偏光状態のパターン数は、特に限定されない。一例として、偏光子102aを所定の透過軸方位(例えば45°)に固定するとともに、QWP102bを第1の主軸方位(例えば0°)、第2の主軸方位(例えば90°)、さらには、QWP102bを配置しない状態の3パターンとすることが可能である。この場合、例えば、第1の主軸方位のQWP102bと、第2の主軸方位のQWP102bとを用意し、光軸上に第1の主軸方位のQWP102bを配置する状態、光軸上に第2の主軸方位のQWP102bを配置する状態、光軸上にQWP102bを配置しない状態を機械的に切り替える機構を設ければよい。このとき、光源側光学素子制御部202は、QWP102bを機械的に切り替える切替駆動部を制御してQWP102bの配置を変更することで、光源側光学素子102を通る光について3パターンの異なる偏光状態を実現することが可能である。 The light source side optical element control unit 202 only needs to change the setting relating to the light source side optical element 102 so as to make the light passing through the light source side optical element 102 into a desired polarization state (a plurality of polarization states). There are no particular limitations on the configuration for the light source and the number of patterns of desired polarization states. As an example, the polarizer 102a is fixed at a predetermined transmission axis orientation (for example, 45 °), and the QWP 102b is set to a first main axis orientation (for example, 0 °), a second main axis orientation (for example, 90 °), and further, QWP 102b It is possible to make 3 patterns of the state which does not arrange. In this case, for example, a state in which the QWP 102b of the first main axis orientation and the QWP 102b of the second main axis orientation are prepared and the QWP 102b of the first main axis orientation is disposed on the optical axis, the second main axis on the optical axis A mechanism may be provided to mechanically switch the state in which the QWP 102b in the orientation is arranged and the state in which the QWP 102b is not arranged on the optical axis. At this time, the light source side optical element control unit 202 controls the switching drive unit that mechanically switches the QWP 102 b to change the arrangement of the QWP 102 b, whereby the light passing through the light source side optical element 102 has three different polarization states. It is possible to realize.
なお、ここでは、QWP102bについて、主軸方位の異なる複数のQWP102bを用意して機械的に切り替える機構としているが、光軸方向を回転軸としてQWP102bを回転させる機構としてもよい。 Here, with respect to the QWP 102b, a plurality of QWPs 102b having different main axis orientations are prepared and mechanically switched, but may be a mechanism that rotates the QWP 102b with the optical axis direction as a rotation axis.
回転テーブル制御部203は、回転テーブル103に係る動作を制御する機能を表している。回転テーブル制御部203は、回転テーブル103を回転させるモータを制御して、回転テーブル103が所望の角度となるよう回転させることで、回転テーブル103上に載置された被写体10がカメラ106に対して所望の向きとなるよう変更することが可能である。 The rotary table control unit 203 represents a function of controlling the operation of the rotary table 103. The rotary table control unit 203 controls a motor that rotates the rotary table 103 to rotate the rotary table 103 so as to have a desired angle, whereby the subject 10 placed on the rotary table 103 is directed to the camera 106. It is possible to change to the desired orientation.
回転テーブル制御部203は、被写体10がカメラ106に対して所望の向き(複数の向き)となるよう回転テーブル103の角度を変更できればよく、回転テーブル103の角度の数値及び範囲や回転ステップ数は、特に限定されない。一例として、回転テーブル103の角度の範囲を例えば120°とし、回転ステップ数を5(0°、30°、60°、90°、120°の5つの角度)とすることで、被写体10を異なる5方向(5パターンの撮影方向)から撮影することが可能となる。 The rotation table control unit 203 only needs to change the angle of the rotation table 103 so that the subject 10 has a desired orientation (a plurality of orientations) with respect to the camera 106. The numerical value and range of the angle of the rotation table 103 and the number of rotation steps are There is no particular limitation. As an example, by setting the range of the angle of the rotary table 103 to, for example, 120 ° and setting the number of rotation steps to 5 (five angles of 0 °, 30 °, 60 °, 90 °, 120 °), the subject 10 is different. It becomes possible to shoot from five directions (five pattern shooting directions).
反射照明用光源制御部204は、反射照明用光源104に係る動作を制御する機能を表している。反射照明用光源制御部204は、反射照明用光源104の点灯/消灯の制御、光量の制御などを行うことが可能である。一例として、反射照明用光源制御部204は、反射照明用光源104を発光させる場合、反射照明用光源104を消灯させる場合の2パターンの異なる状態を制御することが可能である。 The reflective illumination light source control unit 204 represents a function of controlling the operation of the reflective illumination light source 104. The reflective illumination light source control unit 204 can perform control of turning on / off the reflective illumination light source 104, control of the light amount, and the like. As an example, the light source control unit 204 for reflective illumination can control two different states of two patterns when turning off the light source for reflective illumination 104 when emitting the light source for reflective illumination 104.
カメラ側光学素子制御部205は、カメラ側光学素子105に係る動作を制御する機能を表している。カメラ側光学素子105は、上述のようにQWP105aと偏光子105bによって構成されており、カメラ側光学素子制御部205は、QWP105aの主軸方位、偏光子105bの透過軸方位をそれぞれ個別に変更することが可能である。また、カメラ側光学素子制御部205は、QWP105aや偏光子105bの有無(QWP105aや偏光子105bを配置する場合と配置しない場合)を制御することも可能である。 The camera-side optical element control unit 205 represents a function of controlling the operation of the camera-side optical element 105. The camera side optical element 105 is composed of the QWP 105a and the polarizer 105b as described above, and the camera side optical element control unit 205 individually changes the main axis direction of the QWP 105a and the transmission axis direction of the polarizer 105b. Is possible. The camera-side optical element control unit 205 can also control the presence or absence of the QWP 105 a and the polarizer 105 b (with and without the QWP 105 a and the polarizer 105 b).
カメラ側光学素子制御部205は、カメラ側光学素子105を通る光が所望の偏光状態(複数の偏光状態)となるように、カメラ側光学素子105に係る設定を変更できればよく、所望の偏光状態を得るための構成や、所望の偏光状態のパターン数は、特に限定されない。 The camera-side optical element control unit 205 only needs to change the setting related to the camera-side optical element 105 so that the light passing through the camera-side optical element 105 has a desired polarization state (a plurality of polarization states). There are no particular limitations on the configuration for obtaining and the number of patterns of desired polarization states.
QWP105aについては、例えば、フィルム状の面の法線の方向が光軸方向と略一致した状態を維持したまま、光軸方向を回転軸としてQWP105aを機械的に回転させる機構を設ければよい。このとき、カメラ側光学素子制御部205は、光軸方向を回転軸としてQWP105aを機械的に回転させる回転駆動部を制御して、QWP105aの主軸方位を所望の角度に設定することが可能である。また、偏光子105bについては、例えば、上述した偏光子102aと同様の切り替え機構を用いて、それぞれ異なる透過軸方位に設定された複数の偏光子105b(及び偏光子105bを配置しない状態)を機械的に切り替える機構を設ければよい。一例として、QWP105aを主軸方位が45°、67.5°、90°、112.5°の4つの角度となる4パターンとし、偏光子105bを透過軸方位が45°、135°の2つの角度及び偏光子105bを配置しない状態の3パターンとすると、これらの組み合わせから、カメラ側光学素子105を通る光について12パターンの異なる偏光状態を実現することが可能である。 For the QWP 105a, for example, a mechanism may be provided to mechanically rotate the QWP 105a with the optical axis direction as the rotation axis while maintaining the direction of the normal to the film-like surface substantially coincident with the optical axis direction. At this time, the camera-side optical element control unit 205 can set the main axis direction of the QWP 105 a to a desired angle by controlling the rotation drive unit that mechanically rotates the QWP 105 a with the optical axis direction as the rotation axis. . In addition, for the polarizer 105b, for example, using a switching mechanism similar to that of the above-described polarizer 102a, a plurality of polarizers 105b (and a state in which the polarizers 105b are not arranged) are set. It is sufficient to provide a mechanism for switching the As an example, QWP 105a is made into four patterns which become four angles of 45 °, 67.5 °, 90 °, 112.5 ° in principal axis direction, and two angles of transmission axis azimuth 45 °, 135 ° in polarizer 105b And if it is set as three patterns of the state which does not arrange | position the polarizer 105b, it is possible to implement | achieve 12 different polarization states about the light which passes the camera side optical element 105 from these combination.
なお、ここでは、QWP105aについて、光軸方向を回転軸としてQWP105aを回転させる機構としているが、主軸方位の異なる複数のQWP105aを用意して機械的に切り替える機構としてもよい。また、偏光子105bについて、透過軸方位の異なる複数の偏光子105bを用意して機械的に切り替える機構としているが、光軸方向を回転軸として偏光子105bを回転させる機構としてもよい。 Here, the QWP 105a has a mechanism for rotating the QWP 105a with the optical axis direction as the rotation axis, but it may be a mechanism for mechanically switching by preparing a plurality of QWPs 105a having different main axis orientations. In addition, with regard to the polarizer 105b, although a plurality of polarizers 105b having different transmission axis orientations are prepared and mechanically switched, the polarizer 105b may be rotated with the optical axis direction as a rotation axis.
カメラ制御部206は、カメラ106に係る動作を制御する機能を表している。カメラ制御部206は、カメラ106の写真撮影動作、特に、カメラ106に対してシャッターを切るよう指示することで、カメラ106に写真撮影を行わせて画像データを出力させることが可能である。 A camera control unit 206 represents a function of controlling the operation of the camera 106. The camera control unit 206 can cause the camera 106 to take a picture and output image data by instructing the camera 106 to take a picture, in particular, to release the shutter.
また、撮影制御装置200は、上記の各制御部を通じて、撮影系の各機器に係る動作をそれぞれ独立して制御するとともに、撮影系の各機器に係る動作を統合的に制御することが可能である。具体的には、撮影制御装置200は、透過照明用光源101、光源側光学素子102、回転テーブル103、反射照明用光源104、カメラ側光学素子105のそれぞれの状態を所定の状態とし、各機器が所定の状態となった時点でカメラ106に撮影を行わせることが可能である。なお、以下では、この一連の動作を撮影ステップと呼ぶ。 In addition, the imaging control apparatus 200 can independently control the operation related to each device of the imaging system and control the operation related to each device related to the imaging system in an integrated manner through each control unit described above. is there. Specifically, the photographing control device 200 sets each state of the transmissive illumination light source 101, the light source side optical element 102, the rotary table 103, the reflective illumination light source 104, and the camera side optical element 105 to a predetermined state. When it becomes a predetermined state, it is possible to cause the camera 106 to take a picture. Hereinafter, this series of operations will be referred to as a photographing step.
さらに、撮影制御装置200は、ある撮影ステップが終了すると、各機器の一部の状態を変更して別の撮影ステップを行うよう制御することが可能である。具体的には、撮影制御装置200は、透過照明用光源101、光源側光学素子102、回転テーブル103、反射照明用光源104、カメラ側光学素子105のいずれか1つ又は複数の機器の状態を変更し、状態が変更された時点でカメラ106に撮影を行わせることが可能である。 Furthermore, when a certain imaging step is completed, the imaging control apparatus 200 can control to change the state of a part of each device to perform another imaging step. Specifically, the photographing control device 200 determines the state of one or more devices of the transmissive illumination light source 101, the light source side optical element 102, the rotary table 103, the reflective illumination light source 104, and the camera side optical element 105. It is possible to change and to cause the camera 106 to take an image when the state is changed.
撮影制御装置200は、各機器の状態を変更しながら上記のように撮影ステップを繰り返し行うよう制御することで、複数回の撮影ステップを実行させ、その結果、複数回の撮影ステップに対応した複数の画像データを記憶装置400に記憶させることが可能である。 The imaging control apparatus 200 controls the imaging step to be repeatedly performed as described above while changing the state of each device, thereby executing a plurality of imaging steps, and as a result, a plurality of imaging steps corresponding to the plurality of imaging steps. Image data can be stored in the storage device 400.
なお、透過照明用光源101、光源側光学素子102、回転テーブル103、反射照明用光源104、カメラ側光学素子105のそれぞれの状態として、上記のように複数のパターンを設定することが可能であり、撮影系全体は、これらの複数のパターンの組み合わせの数だけ異なる状態となり得る。例えば、一例として上述したように、透過照明用光源101が3パターンの状態、光源側光学素子102が3パターンの状態、回転テーブル103が5パターンの状態、反射照明用光源104が2パターンの状態、カメラ側光学素子105が12パターンの状態となり得ると仮定すると、撮影系全体は、これらの複数のパターンの組み合わせの数(3×3×5×2×12=1080通り)の異なる状態となり得る。撮影制御装置200は、上記のすべての組み合わせ、又は、上記の組み合わせの中から選択された一部の所望の組み合わせ(各機器の状態のうちのいくつかの組み合わせのみ)について、撮影ステップを実行するよう制御することが可能である。 In addition, it is possible to set a plurality of patterns as described above as the respective states of the light source for transmission illumination 101, the light source side optical element 102, the rotation table 103, the light source for reflection illumination 104, and the camera side optical element 105. The entire imaging system may be different by the number of combinations of these plural patterns. For example, as described above as an example, the light source 101 for transmissive illumination has three patterns, the light source side optical element 102 has three patterns, the rotary table 103 has five patterns, and the reflective light source 104 has two patterns Assuming that the camera-side optical element 105 can be in a 12-pattern state, the entire imaging system can be in different states in the number of combinations of these plural patterns (3 × 3 × 5 × 2 × 12 = 1080). . The imaging control apparatus 200 executes the imaging step for all combinations of the above or some desired combinations selected from the above combinations (only some combinations of the states of the respective devices). It is possible to control.
また、撮影制御系におけるPC300は、マウスやキーボードなどの入力装置(不図示)や表示装置500と接続されており、撮影制御装置200における処理の設定や指示などを入力するためのGUI(Graphical User Interface:グラフィカルユーザインタフェース)として機能する。PC300は、ユーザによる入力に基づき、撮影制御装置200に対して、撮影パターン(撮影制御装置200による各機器の制御パターン)の設定および指示、撮影開始指示、撮影中止指示などを行うことが可能である。 Further, the PC 300 in the imaging control system is connected to an input device (not shown) such as a mouse or a keyboard and the display device 500, and a GUI (Graphical User) for inputting processing settings and instructions in the imaging control device 200. Interface: Functions as a graphical user interface. The PC 300 can perform setting and instructing of a photographing pattern (a control pattern of each device by the photographing control device 200), photographing start instruction, photographing stop instruction and the like to the photographing control device 200 based on input by the user. is there.
また、画像処理系は、PC300、記憶装置400、表示装置500により構成される。なお、図1には、撮影制御系と画像処理系において同一のPC300を用いるように図示されているが、異なるPC300が用いられてもよい。 The image processing system includes the PC 300, the storage device 400, and the display device 500. Although FIG. 1 illustrates that the same PC 300 is used in the imaging control system and the image processing system, different PCs 300 may be used.
画像処理系におけるPC300は、画像データが記憶された記憶装置400、マウスやキーボードなどの入力装置(不図示)や表示装置500と接続されており、記憶装置400に記憶されている画像データを読み出して、表示装置500上に表示することが可能である。画像処理系におけるPC300は、画像処理機能を有する。PC300は、記憶装置400に記憶されている画像データを読み出して画像加工処理を行い、画像加工処理後の画像データを表示装置500上に表示することが可能である。また、PC300は、記憶装置400に記憶されている画像データに含まれる情報に基づいて、偏光計算を行うことも可能である。画像処理については、後で詳細に説明する。 The PC 300 in the image processing system is connected to a storage device 400 storing image data, an input device (not shown) such as a mouse and a keyboard, and a display device 500, and reads out image data stored in the storage device 400. Can be displayed on the display device 500. The PC 300 in the image processing system has an image processing function. The PC 300 can read out the image data stored in the storage device 400, perform image processing, and display the image data after the image processing on the display device 500. The PC 300 can also perform polarization calculation based on the information included in the image data stored in the storage device 400. The image processing will be described in detail later.
なお、撮影制御系及び画像処理系のPC300は、汎用のPCを用いることが可能であり、CPU(Central Processing Unit:中央演算処理装置)が、所望の動作を実現するために設計されたソフトウェア(プログラム言語によって記述されたプログラム)を実行することが可能である。また、記憶装置400は、カメラ106による撮影で得られた画像データの記憶や、画像処理系のPC300による画像データの読み出しなどが可能なデータストレージであり、例えば、フラッシュメモリやハードディスクなどの既存の補助記憶装置を用いることが可能である。 Note that a general-purpose PC can be used for the imaging control system and image processing system PC 300, and software (CPU (Central Processing Unit) designed to realize a desired operation (Central Processing Unit)) It is possible to execute a program described by a programming language. The storage device 400 is a data storage capable of storing image data obtained by photographing with the camera 106 and reading out image data by the PC 300 of the image processing system. For example, the storage device 400 may be a flash memory or a hard disk. It is possible to use auxiliary storage.
次に、本発明の実施の形態における撮影システムの動作の一例について説明する。本発明の実施の形態における撮影システムの動作は、偏光を用いて撮影を行う撮影動作と、撮影系における撮影によって得られた画像データの処理を行う画像処理動作とに大別される。 Next, an example of the operation of the imaging system according to the embodiment of the present invention will be described. The operation of the imaging system according to the embodiment of the present invention is roughly classified into an imaging operation for imaging using polarized light and an image processing operation for processing image data obtained by imaging in the imaging system.
まず、偏光を用いて撮影を行う撮影動作について説明する。偏光を用いて撮影を行う撮影動作は、被写体10を回転テーブル103に載置しない状態で撮影を行うキャリブレーション撮影と、被写体10を回転テーブル103に載置した状態で撮影を行うサンプル撮影とを含む。 First, an imaging operation for imaging using polarized light will be described. The imaging operation of performing imaging using polarized light includes calibration imaging in which imaging is performed with the subject 10 not mounted on the rotary table 103 and sample imaging in which imaging is performed with the subject 10 mounted on the rotational table 103. Including.
図2は、本発明の実施の形態における撮影システムに係るキャリブレーション撮影時の処理の一例を示すフローチャートである。なお、図2に示す各ステップは、図1の撮影制御装置200によって実行される処理を表している。 FIG. 2 is a flowchart showing an example of processing at the time of calibration imaging according to the imaging system in the embodiment of the present invention. Each step shown in FIG. 2 represents a process performed by the imaging control apparatus 200 of FIG.
図2に示すキャリブレーション撮影に係る処理は、例えばユーザがPC300を用いて撮影開始指示を入力し、PC300から撮影制御装置200に対して撮影開始指示が行われることで開始される。撮影制御装置200は、キャリブレーション撮影における撮影系の各機器の動作が記述されたキャリブレーション撮影パターンパラメータ定義を読み込む(ステップS11)。このキャリブレーション撮影パターンパラメータ定義は、あらかじめプログラムに組み込まれていてもよく、あるいは、ユーザがPC300を用いて設定してもよい。 The process relating to calibration imaging illustrated in FIG. 2 is started, for example, when the user inputs an imaging start instruction using the PC 300 and the PC 300 issues an imaging start instruction to the imaging control apparatus 200. The imaging control apparatus 200 reads a calibration imaging pattern parameter definition in which the operation of each device of the imaging system in calibration imaging is described (step S11). The calibration photographing pattern parameter definition may be incorporated in the program in advance, or may be set by the user using the PC 300.
キャリブレーション撮影は、被写体10を回転テーブル103に載置しない状態で行われる。したがって、後述するサンプル撮影とは異なり、撮影制御装置200は、回転テーブル103の回転駆動制御を行う必要はない。 Calibration imaging is performed with the subject 10 not placed on the rotary table 103. Therefore, unlike the sample imaging to be described later, the imaging control apparatus 200 does not have to perform rotational drive control of the rotary table 103.
撮影制御装置200は、キャリブレーション撮影パターンパラメータ定義に基づき、撮影ステップのループ処理を開始する(ステップS12)。撮影ステップのループ処理は、キャリブレーション撮影パターンパラメータ定義に基づくキャリブレーション撮影がすべて終了するまで繰り返される。撮影ステップのループ処理は、キャリブレーション撮影パターンパラメータに従って、透過照明用光源101、光源側光学素子102、反射照明用光源104、カメラ側光学素子105のそれぞれを動作させて特定の状態とする処理(ステップS13)と、透過照明用光源101、光源側光学素子102、反射照明用光源104、カメラ側光学素子105のそれぞれが特定の状態となった時点で、カメラ106による撮影を行う処理(ステップS14)とを含む。 The imaging control apparatus 200 starts loop processing of the imaging step based on the calibration imaging pattern parameter definition (step S12). The loop process of the imaging step is repeated until all calibration imaging based on the calibration imaging pattern parameter definition is completed. A loop process of the photographing step is a process of operating each of the light source for transmission illumination 101, the light source side optical element 102, the light source for reflection illumination 104, and the camera side optical element 105 according to the calibration photographing pattern parameter to make a specific state Step S13) A process of performing photographing with the camera 106 when each of the light source for transmission illumination 101, the light source side optical element 102, the light source for reflection illumination 104, and the camera side optical element 105 is in a specific state And).
なお、キャリブレーション撮影を途中で中断することも可能であり、撮影制御装置200は、例えばユーザによる撮影中止指示をPC300から受けた場合には、撮影ステップのループ処理を終了する(ステップS15)。 Note that it is also possible to interrupt calibration shooting in the middle, and the shooting control apparatus 200 ends the loop processing of the shooting step, for example, when receiving a shooting stop instruction from the user from the PC 300 (step S15).
撮影ステップのループ処理は、各機器の動作を制御して各機器の状態を変更する処理と、カメラ106による撮影を行う処理とを含んでいることから、キャリブレーション撮影パターンパラメータ定義に従って各機器の状態が変更されるたびに、カメラ106による撮影が行われることになる。これにより、各機器の状態の組み合わせがそれぞれ異なる複数枚の写真(画像データ)が得られる。 Since the loop process of the shooting step includes the process of controlling the operation of each device to change the state of each device and the process of shooting with the camera 106, the loop process of the shooting step is performed according to the calibration shooting pattern parameter definition. Every time the state is changed, shooting by the camera 106 is performed. As a result, a plurality of photographs (image data) with different combinations of the states of the respective devices can be obtained.
以下、キャリブレーション撮影に係る具体的な一例について、図3を参照しながら説明する。図3は、本発明の実施の形態における撮影システムに係るキャリブレーション撮影の具体的な一例を示す図である。 Hereinafter, a specific example of calibration imaging will be described with reference to FIG. FIG. 3 is a diagram showing a specific example of calibration imaging according to the imaging system in the embodiment of the present invention.
図3には、キャリブレーション撮影の各撮影ステップにおける各機器の状態が示されている。撮影制御装置200は、例えば、図3に示す撮影ステップ1〜10を実現するために、以下のように撮影系の各機器の動作を制御する。撮影ステップ1の前は、透過照明用光源101をRのみ発光させ、偏光子102aの透過軸方位の角度を45°に設定し、QWP102bを光軸上から外し、反射照明用光源104を消灯し、QWP105aの主軸方位を90°とし、偏光子105bの透過軸方位を45°とする。なお、キャリブレーション撮影前にこの状態を設定しておいてもよく、撮影制御装置200が各機器の動作を制御してこの状態を作り出してもよい。撮影制御装置200は、この状態でカメラ106に撮影を行わせる(撮影ステップ1)。撮影ステップ1終了後、撮影制御装置200は、偏光子105bを透過軸方位が135°である偏光子に変更して、カメラ106に撮影を行わせる(撮影ステップ2)。 FIG. 3 shows the state of each device at each imaging step of calibration imaging. The imaging control apparatus 200 controls the operation of each device of the imaging system as follows, for example, in order to realize the imaging steps 1 to 10 shown in FIG. 3. Before the shooting step 1, the transmissive illumination light source 101 emits only R, the transmission axis azimuth angle of the polarizer 102a is set to 45 °, the QWP 102b is removed from the optical axis, and the reflective illumination light source 104 is extinguished. The principal axis orientation of the QWP 105a is 90 °, and the transmission axis orientation of the polarizer 105b is 45 °. Note that this state may be set before calibration imaging, or the imaging control apparatus 200 may control the operation of each device to create this state. The imaging control apparatus 200 causes the camera 106 to perform imaging in this state (imaging step 1). After the end of the photographing step 1, the photographing control device 200 changes the polarizer 105b to a polarizer whose transmission axis orientation is 135 °, and causes the camera 106 to perform photographing (photographing step 2).
撮影ステップ2終了後、撮影制御装置200は、QWP102bを主軸方位が90°のQWPに変更し、QWP105aの主軸方位を45°に変更し、偏光子105bを透過軸方位が45°である偏光子に変更して、カメラ106に撮影を行わせる(撮影ステップ3)。撮影ステップ3終了後、撮影制御装置200は、QWP105aの主軸方位を67.5°に変更して、カメラ106に撮影を行わせる(撮影ステップ4)。撮影ステップ4終了後、撮影制御装置200は、QWP105aの主軸方位を90°に変更して、カメラ106に撮影を行わせる(撮影ステップ5)。撮影ステップ5終了後、撮影制御装置200は、QWP105aの主軸方位を112.5°に変更して、カメラ106に撮影を行わせる(撮影ステップ6)。 After completion of the imaging step 2, the imaging control device 200 changes the QWP 102b to a QWP of 90 ° in the main axis direction, changes the main axis of the QWP 105a to 45 °, and a polarizer in which the transmission axis direction of the polarizer 105b is 45 °. , And causes the camera 106 to shoot (shooting step 3). After the shooting step 3 ends, the shooting control device 200 changes the main axis direction of the QWP 105a to 67.5 °, and causes the camera 106 to shoot (shooting step 4). After the end of the photographing step 4, the photographing control device 200 changes the main axis direction of the QWP 105a to 90 °, and causes the camera 106 to perform photographing (photographing step 5). After the end of the photographing step 5, the photographing control device 200 changes the main axis orientation of the QWP 105a to 112.5 °, and causes the camera 106 to perform photographing (photographing step 6).
撮影ステップ6終了後、撮影制御装置200は、QWP102bを主軸方位が0°のQWPに変更し、QWP105aの主軸方位を45°に変更して、カメラ106に撮影を行わせる(撮影ステップ7)。撮影ステップ7終了後、撮影制御装置200は、QWP105aの主軸方位を67.5°に変更して、カメラ106に撮影を行わせる(撮影ステップ8)。撮影ステップ8終了後、撮影制御装置200は、QWP105aの主軸方位を90°に変更して、カメラ106に撮影を行わせる(撮影ステップ9)。撮影ステップ9終了後、撮影制御装置200は、QWP105aの主軸方位を112.5°に変更して、カメラ106に撮影を行わせる(撮影ステップ10)。 After the completion of the photographing step 6, the photographing control device 200 changes the QWP 102b to a QWP having a main axis orientation of 0 °, changes the main axis orientation of the QWP 105a to 45 °, and causes the camera 106 to perform photographing (photographing step 7). After the end of the photographing step 7, the photographing control device 200 changes the main axis direction of the QWP 105a to 67.5 °, and causes the camera 106 to perform photographing (photographing step 8). After the end of the photographing step 8, the photographing control device 200 changes the main axis orientation of the QWP 105a to 90 °, and causes the camera 106 to perform photographing (photographing step 9). After the end of the photographing step 9, the photographing control device 200 changes the main axis direction of the QWP 105a to 112.5 ° and causes the camera 106 to perform photographing (photographing step 10).
以上の撮影ステップ1〜10は、キャリブレーション撮影パターンパラメータ定義に従って、連続して(ユーザにとっては自動的に)行われる。また、撮影ステップ1〜10では、撮影系全体の状態(各機器の状態の組み合わせ)がそれぞれ異なっており、撮影系全体の条件がそれぞれ異なる10枚の写真(10個の画像データ)が得られる。このとき、各機器の状態と、カメラ106による撮影で得られた画像データとを関連付けておくことが望ましい。なお、キャリブレーション撮影パターンパラメータ定義の形式は、特に限定されるものではなく、例えば、数値や関数などで各機器の状態を指定することが可能である。 The above imaging steps 1 to 10 are performed continuously (automatically for the user) according to the calibration imaging pattern parameter definition. Further, in the photographing steps 1 to 10, the states of the entire photographing system (combination of the states of the respective devices) are different, and ten photographs (ten image data) different in the conditions of the whole photographing system are obtained. . At this time, it is desirable to associate the state of each device with the image data obtained by shooting with the camera 106. The format of the calibration shooting pattern parameter definition is not particularly limited, and it is possible to specify the state of each device by, for example, a numerical value or a function.
また、図4は、本発明の実施の形態における撮影システムに係るサンプル撮影時の処理の一例を示すフローチャートである。なお、図4に示す各ステップは、図1の撮影制御装置200によって実行される処理を表している。 FIG. 4 is a flowchart showing an example of processing at the time of sample shooting according to the shooting system in the embodiment of the present invention. Each step shown in FIG. 4 represents a process executed by the imaging control apparatus 200 of FIG.
図4に示すサンプル撮影に係る処理は、例えばユーザがPC300を用いて撮影開始指示を入力し、PC300から撮影制御装置200に対して撮影開始指示が行われることで開始される。撮影制御装置200は、サンプル撮影における撮影系の各機器の動作が記述されたサンプル撮影パターンパラメータ定義を読み込む(ステップS21)。このサンプル撮影パターンパラメータ定義は、あらかじめプログラムに組み込まれていてもよく、あるいは、ユーザがPC300を用いて設定してもよい。 The process relating to sample imaging shown in FIG. 4 is started, for example, when the user inputs an imaging start instruction using the PC 300 and the PC 300 issues an imaging start instruction to the imaging control apparatus 200. The imaging control apparatus 200 reads a sample imaging pattern parameter definition in which the operation of each device of the imaging system in sample imaging is described (step S21). The sample shooting pattern parameter definition may be incorporated in the program in advance, or may be set by the user using the PC 300.
サンプル撮影は、被写体10を回転テーブル103に載置した状態で行われる。したがって、上述したキャリブレーション撮影とは異なり、撮影制御装置200は、回転テーブル103の回転駆動制御を行う必要がある。例えばユーザがPC300を用いて回転テーブルのパラメータを入力すると、PC300から撮影制御装置200に対して回転テーブルのパラメータが供給される(ステップS22)。 The sample shooting is performed with the subject 10 placed on the rotary table 103. Therefore, unlike the calibration imaging described above, the imaging control apparatus 200 needs to perform rotational drive control of the rotary table 103. For example, when the user uses the PC 300 to input the parameters of the rotation table, the parameters of the rotation table are supplied from the PC 300 to the photographing control device 200 (step S22).
撮影制御装置200は、サンプル撮影パターンパラメータ定義及び回転テーブルのパラメータに基づき、回転テーブル及び撮影ステップのループ処理を開始する(ステップS23)。回転テーブル及び撮影ステップのループ処理は、サンプル撮影パターンパラメータ定義及び回転テーブルのパラメータに基づくサンプル撮影がすべて終了するまで繰り返される。 The imaging control apparatus 200 starts the loop processing of the rotation table and the imaging step based on the sample imaging pattern parameter definition and the parameters of the rotation table (step S23). The loop process of the rotation table and the imaging step is repeated until all the sample imaging based on the sample imaging pattern parameter definition and the parameters of the rotation table is finished.
回転テーブルのループ処理は、回転テーブルのパラメータに従って回転テーブル103の回転角度(すなわち、被写体10のカメラに対する向き)を特定の角度にする処理(ステップS24)と、撮影ステップのループ処理(ステップS25)とを含む。また、撮影ステップのループ処理は、サンプル撮影パターンパラメータに従って、透過照明用光源101、光源側光学素子102、反射照明用光源104、カメラ側光学素子105のそれぞれを動作させて特定の状態とする処理(ステップS26)と、透過照明用光源101、光源側光学素子102、反射照明用光源104、カメラ側光学素子105のそれぞれが特定の状態となった時点で、カメラ106による撮影を行う処理(ステップS27)とを含む。 The loop process of the rotary table is a process of setting the rotation angle of the rotary table 103 (that is, the direction of the subject 10 with respect to the camera) to a specific angle according to the parameters of the rotary table (step S24), and a loop process of the photographing step (step S25) And. Further, the loop process of the photographing step is a process of operating each of the light source for transmission illumination 101, the light source side optical element 102, the light source for reflection illumination 104, and the camera side optical element 105 in a specific state according to the sample photographing pattern parameters. (Step S26) A process of performing photographing with the camera 106 when each of the transmissive illumination light source 101, the light source side optical element 102, the reflective illumination light source 104, and the camera side optical element 105 is in a specific state And S27).
なお、サンプル撮影を途中で中断することも可能であり、撮影制御装置200は、例えばユーザによる撮影中止指示をPC300から受けた場合には、撮影ステップのループ処理を終了する(ステップS28)。 Note that it is also possible to interrupt sample shooting on the way, and the shooting control apparatus 200 ends the loop process of the shooting step, for example, when receiving a shooting stop instruction from the user from the PC 300 (step S28).
回転テーブルのループ処理は、回転テーブルの角度を変更する処理と、撮影ステップのループ処理とを含み、さらに撮影ステップのループ処理は、各機器の動作を制御して各機器の状態を変更する処理と、カメラ106による撮影を行う処理とを含んでいることから、サンプル撮影パターンパラメータ定義及び回転テーブルのパラメータに従って各機器の状態が変更されるたびに、カメラ106による撮影が行われることになる。これにより、各機器の状態の組み合わせがそれぞれ異なる複数枚の写真(画像データ)が得られる。 Loop processing of the rotation table includes processing of changing the angle of the rotation table and loop processing of the imaging step, and further, loop processing of the imaging step is processing of controlling the operation of each device to change the state of each device Since the process of performing imaging by the camera 106 is included, imaging by the camera 106 is performed each time the state of each device is changed according to the sample imaging pattern parameter definition and the parameters of the rotation table. As a result, a plurality of photographs (image data) with different combinations of the states of the respective devices can be obtained.
以下、サンプル撮影に係る具体的な一例について、図5を参照しながら説明する。図5は、本発明の実施の形態における撮影システムに係るサンプル撮影の具体的な一例を示す図である。 Hereinafter, a specific example related to sample imaging will be described with reference to FIG. FIG. 5 is a diagram showing a specific example of sample imaging according to the imaging system in the embodiment of the present invention.
図5には、サンプル撮影の各撮影ステップにおける各機器の状態が示されている。撮影制御装置200は、例えば、図5に示す撮影ステップ1〜10を実現するために、以下のように撮影系の各機器の動作を制御する。撮影ステップ1の前は、透過照明用光源101をRのみ発光させ、偏光子102aの透過軸方位の角度を45°に設定し、QWP102bの主軸方位を90°に設定し、回転テーブルの回転角度を0°に設定し、反射照明用光源104を消灯し、QWP105aの主軸方位を45°とし、偏光子105bの透過軸方位を45°とする。なお、サンプル撮影前にこの状態を設定しておいてもよく、撮影制御装置200が各機器の動作を制御してこの状態を作り出してもよい。 FIG. 5 shows the state of each device at each imaging step of sample imaging. The imaging control apparatus 200 controls the operation of each device of the imaging system as follows, for example, in order to realize the imaging steps 1 to 10 shown in FIG. 5. Before the shooting step 1, the transmission illumination light source 101 emits only R, the transmission axis orientation of the polarizer 102a is set at 45 °, the main axis orientation of the QWP 102b is set at 90 °, and the rotation angle of the rotary table Is set to 0 °, the reflective illumination light source 104 is turned off, the main axis direction of the QWP 105a is 45 °, and the transmission axis direction of the polarizer 105b is 45 °. Note that this state may be set before sample photographing, or the photographing control device 200 may control the operation of each device to create this state.
撮影制御装置200は、この状態でカメラ106に撮影を行わせる(撮影ステップ1)。撮影ステップ1終了後、撮影制御装置200は、QWP105aの主軸方位を67.5°に変更して、カメラ106に撮影を行わせる(撮影ステップ2)。撮影ステップ3終了後、撮影制御装置200は、QWP105aの主軸方位を90°に変更して、カメラ106に撮影を行わせる(撮影ステップ3)。撮影ステップ3終了後、撮影制御装置200は、QWP105aの主軸方位を112.5°に変更して、カメラ106に撮影を行わせる(撮影ステップ4)。 The imaging control apparatus 200 causes the camera 106 to perform imaging in this state (imaging step 1). After the end of the photographing step 1, the photographing control device 200 changes the main axis direction of the QWP 105a to 67.5 °, and causes the camera 106 to perform photographing (photographing step 2). After the end of the photographing step 3, the photographing control device 200 changes the main axis direction of the QWP 105a to 90 ° and causes the camera 106 to perform photographing (photographing step 3). After the end of the photographing step 3, the photographing control device 200 changes the main axis direction of the QWP 105a to 112.5 ° and causes the camera 106 to perform photographing (photographing step 4).
撮影ステップ4終了後、撮影制御装置200は、QWP102bを主軸方位が0°のQWPに変更し、QWP105aの主軸方位を45°に変更して、カメラ106に撮影を行わせる(撮影ステップ5)。撮影ステップ5終了後、撮影制御装置200は、QWP105aの主軸方位を67.5°に変更して、カメラ106に撮影を行わせる(撮影ステップ6)。撮影ステップ6終了後、撮影制御装置200は、QWP105aの主軸方位を90°に変更して、カメラ106に撮影を行わせる(撮影ステップ7)。撮影ステップ7終了後、撮影制御装置200は、QWP105aの主軸方位を112.5°に変更して、カメラ106に撮影を行わせる(撮影ステップ8)。 After the completion of the photographing step 4, the photographing control device 200 changes the QWP 102b to a QWP having a main axis orientation of 0 °, changes the main axis orientation of the QWP 105a to 45 °, and causes the camera 106 to perform photographing (photographing step 5). After the end of the photographing step 5, the photographing control device 200 changes the main axis direction of the QWP 105a to 67.5 °, and causes the camera 106 to perform photographing (photographing step 6). After the end of the photographing step 6, the photographing control device 200 changes the main axis direction of the QWP 105a to 90 °, and causes the camera 106 to perform photographing (photographing step 7). After the end of the photographing step 7, the photographing control device 200 changes the main axis direction of the QWP 105a to 112.5 ° and causes the camera 106 to perform photographing (photographing step 8).
撮影ステップ8終了後、撮影制御装置200は、透過照明用光源101をRGB発光させ、QWP102bを光軸上から外し、QWP105aの主軸方位を45°に変更し、偏光子105bを透過軸方位が135°である偏光子に変更して、カメラ106に撮影を行わせる(撮影ステップ9)。撮影ステップ9終了後、撮影制御装置200は、QWP105aの主軸方位を67.5°に変更して、カメラ106に撮影を行わせる(撮影ステップ10)。撮影ステップ10終了後、撮影制御装置200は、QWP105aの主軸方位を90°に変更して、カメラ106に撮影を行わせる(撮影ステップ11)。撮影ステップ5終了後、撮影制御装置200は、QWP105aの主軸方位を112.5°に変更して、カメラ106に撮影を行わせる(撮影ステップ12)。 After the completion of the imaging step 8, the imaging control device 200 causes the transmissive illumination light source 101 to emit RGB light, removes the QWP 102b from the optical axis, changes the principal axis orientation of the QWP 105a to 45 °, and transmits 135 for the polarizer 105b. The polarizer is changed to a degree of °, and the camera 106 performs photographing (photographing step 9). After the end of the photographing step 9, the photographing control device 200 changes the main axis direction of the QWP 105a to 67.5 °, and causes the camera 106 to perform photographing (photographing step 10). After the end of the photographing step 10, the photographing control device 200 changes the spindle orientation of the QWP 105a to 90 °, and causes the camera 106 to perform photographing (photographing step 11). After the end of the photographing step 5, the photographing control device 200 changes the main axis direction of the QWP 105a to 112.5 °, and causes the camera 106 to perform photographing (photographing step 12).
撮影ステップ12終了後、撮影制御装置200は、偏光子105bを光軸上から外して、カメラ106に撮影を行わせる(撮影ステップ13)。撮影ステップ13終了後、撮影制御装置200は、反射照明用光源104を点灯して、カメラ106に撮影を行わせる(撮影ステップ14)。撮影ステップ14終了後、撮影制御装置200は、透過照明用光源を消灯して、カメラ106に撮影を行わせる(撮影ステップ15)。以上の撮影ステップ1〜15では、カメラ106及び被写体10は固定されており、各撮影ステップ1〜15で撮影された画像内における被写体10は、同一の位置(同一のピクセル)に写っている。 After the end of the photographing step 12, the photographing control device 200 removes the polarizer 105b from the optical axis and causes the camera 106 to perform photographing (photographing step 13). After the end of the photographing step 13, the photographing control device 200 turns on the light source for reflection illumination 104 to make the camera 106 perform photographing (photographing step 14). After the end of the photographing step 14, the photographing control device 200 turns off the transmissive illumination light source and causes the camera 106 to perform photographing (photographing step 15). In the above shooting steps 1 to 15, the camera 106 and the subject 10 are fixed, and the subject 10 in the image captured in each of the shooting steps 1 to 15 is captured at the same position (the same pixel).
撮影ステップ15終了後、撮影制御装置200は、回転テーブルの回転角度を30°に設定し、その他の条件を撮影ステップ1〜15と同一にしてカメラ106に撮影を行わせる(撮影ステップ16〜30)。撮影ステップ30終了後、撮影制御装置200は、回転テーブルの回転角度を60°に設定し、その他の条件を撮影ステップ1〜15と同一にしてカメラ106に撮影を行わせる(撮影ステップ31〜45)。撮影ステップ45終了後、撮影制御装置200は、回転テーブルの回転角度を90°に設定し、その他の条件を撮影ステップ1〜15と同一にしてカメラ106に撮影を行わせる(撮影ステップ46〜60)。撮影ステップ60終了後、撮影制御装置200は、回転テーブルの回転角度を120°に設定し、その他の条件を撮影ステップ1〜15と同一にしてカメラ106に撮影を行わせる(撮影ステップ61〜75)。 After the end of the photographing step 15, the photographing control device 200 sets the rotation angle of the rotary table to 30 °, and causes the camera 106 to perform photographing under the same conditions as the photographing steps 1 to 15 (photographing step 16 to 30). ). After the end of the photographing step 30, the photographing control device 200 sets the rotation angle of the rotary table to 60 ° and makes the camera 106 perform photographing with the same conditions as the photographing steps 1 to 15 (photographing steps 31 to 45) ). After the end of the photographing step 45, the photographing control device 200 sets the rotation angle of the rotary table to 90 ° and makes the camera 106 perform photographing with the other conditions being the same as the photographing steps 1 to 15 (photographing step 46 to 60 ). After the completion of the imaging step 60, the imaging control apparatus 200 sets the rotation angle of the rotary table to 120 °, and causes the camera 106 to perform imaging under the same conditions as the imaging steps 1 to 15 (imaging steps 61 to 75). ).
以上の撮影ステップ1〜75は、サンプル撮影パターンパラメータ定義及び回転テーブルのパラメータに従って、連続した処理として(ユーザにとっては自動的に)行われる。また、撮影ステップ1〜75では、撮影系全体の状態(各機器の状態の組み合わせ)がそれぞれ異なっており、撮影系の条件が全体としてそれぞれ異なる75枚の写真(75個の画像データ)が得られる。このとき、各機器の状態と、カメラ106による撮影で得られた画像データとを関連付けておくことが望ましい。なお、サンプル撮影パターンパラメータ定義の形式は、キャリブレーション撮影パターンパラメータ定義と同様に、特に限定されるものではなく、例えば、数値や関数などで各機器の状態を指定することが可能である。 The above-described shooting steps 1 to 75 are performed as a continuous process (automatically for the user) in accordance with the sample shooting pattern parameter definition and the parameters of the rotation table. Further, in the photographing steps 1 to 75, the states of the entire photographing system (combination of the states of the respective devices) are different from one another, and 75 photographs (75 image data) different in the conditions of the photographing system as a whole are obtained. Be At this time, it is desirable to associate the state of each device with the image data obtained by shooting with the camera 106. The format of the sample shooting pattern parameter definition is not particularly limited as in the calibration shooting pattern parameter definition. For example, the state of each device can be designated by a numerical value or a function.
次に、撮影系における撮影によって得られた画像データに係る画像処理について説明する。図6は、本発明の実施の形態における撮影システムによって得られる画像データの用途の一例を模式的に示す図である。 Next, image processing related to image data obtained by shooting in a shooting system will be described. FIG. 6 is a view schematically showing an example of application of image data obtained by the imaging system according to the embodiment of the present invention.
本発明の実施の形態における撮影システムは、上述のように、撮影系全体の状態がそれぞれ異なる大量の写真(画像データ)を得ることが可能である。特に、光軸上に配置された光源側光学素子102及びカメラ側光学素子105の条件を変更することで、様々な偏光状態を作り出せることから、様々な偏光状態において異なる見え方をする被写体10の写真を大量に得ることができる。具体的には、本発明の実施の形態における撮影システムによって、キャリブレーション用画像(例えば、図3の撮影ステップ1〜10で取得可能)、偏光計算用画像(例えば、図5の撮影ステップ1〜8で取得可能)、偏光可視化画像(例えば、図5の撮影ステップ9〜12で取得可能)、反射照明画像(例えば、図5の撮影ステップ13で取得可能)、反射照明+透過照明画像(例えば、図5の撮影ステップ14で取得可能)、透過照明画像(例えば、図5の撮影ステップ15で取得可能)を得ることが可能である。 As described above, the photographing system in the embodiment of the present invention can obtain a large number of photographs (image data) in which the state of the entire photographing system is different. In particular, by changing the conditions of the light source side optical element 102 and the camera side optical element 105 arranged on the optical axis, various polarization states can be created, so the subject 10 looks different in various polarization states. You can get a lot of photos. Specifically, the imaging system according to the embodiment of the present invention can obtain an image for calibration (for example, can be acquired at imaging steps 1 to 10 in FIG. 3) and an image for polarization calculation (for example, imaging steps 1 to 4 in FIG. 5). 8, which can be acquired in polarized light visualization image (for example, can be acquired in photographing steps 9 to 12 in FIG. 5), reflected illumination image (for example, can be acquired in photographing step 13 in FIG. 5), reflected illumination + transmitted illumination image (for example, It is possible to obtain a transmitted illumination image (for example, obtainable at the shooting step 15 of FIG. 5), which can be obtained at the shooting step 14 of FIG.
画像処理系におけるPC300は、例えば、複数の画像データのそれぞれに含まれる各ピクセルの輝度値を用いて、各ピクセルに対応した被写体の偏光特性を表す数値を計算する偏光計算部と、偏光計算部によって計算された各ピクセルに対応した被写体の偏光特性を表す数値を用いて、新たな画像データを生成する画像データ生成部とを有してもよい。偏光計算部は、キャリブレーション用画像及び偏光計算用画像のそれぞれに含まれるデータ(例えば、画像を構成する各ピクセル(画素)の輝度値)を用いた偏光計算を行うことで、被写体10の偏光特性(複屈折位相差や主軸方位)を求めることが可能である。 The PC 300 in the image processing system, for example, uses a luminance value of each pixel included in each of a plurality of image data to calculate a numerical value representing the polarization characteristic of an object corresponding to each pixel, and a polarization calculation unit And an image data generation unit that generates new image data using the numerical value representing the polarization characteristic of the subject corresponding to each pixel calculated by The polarization calculation unit performs polarization calculation using data included in each of the calibration image and the polarization calculation image (for example, the luminance value of each pixel (pixel) that constitutes the image), thereby the polarization of the subject 10 It is possible to obtain characteristics (birefringence retardation and principal axis orientation).
この偏光計算では、一例として、以下のような計算が行われる。例えば画像のあるピクセルに着目し、まず、カメラ側光学素子105の偏光子105bの条件を変えて得られた画像データ(例えば、図3の撮影ステップ1、2で得られた2つの画像データ)の輝度値から偏光子105bの位相差を求める。次に、偏光子105bの位相差と、被写体10が配置されていない状態で撮影された画像データ(例えば、図3の撮影ステップ3〜10で得られた画像データ)の輝度値から、カメラ側光学素子105の光入射側における偏光状態を求めるとともに、被写体10が配置された状態で撮影された同一条件の画像データ(例えば、図5の撮影ステップ1〜8で得られた画像データ)の輝度値についても同様に、カメラ側光学素子105の光入射側における偏光状態を求める。そして、被写体10が配置されていない状態に係る偏光状態と、被写体10が配置された状態に係る偏光状態との関係から、被写体10の偏光特性である複屈折位相差や主軸方位を求める。なお、被写体10が有する偏光特性を求めるための偏光計算は、上記の手法に限定されるものではない。 In this polarization calculation, as one example, the following calculation is performed. For example, image data obtained by changing the condition of the polarizer 105b of the camera side optical element 105, focusing on a certain pixel of the image (for example, two image data obtained in the photographing steps 1 and 2 in FIG. 3) The phase difference of the polarizer 105 b is obtained from the luminance value of Next, from the phase difference of the polarizer 105 b and the luminance value of the image data (for example, the image data obtained in the photographing steps 3 to 10 in FIG. 3) photographed in the state where the subject 10 is not disposed While determining the polarization state on the light incident side of the optical element 105, the luminance of the image data of the same condition (for example, the image data obtained in the photographing steps 1 to 8 in FIG. 5) photographed in the state where the object 10 is arranged. Similarly for the value, the polarization state on the light incident side of the camera side optical element 105 is determined. Then, from the relationship between the polarization state according to the state in which the subject 10 is not arranged and the polarization state according to the state in which the subject 10 is arranged, the birefringence phase difference and the main axis direction which are the polarization characteristics of the object 10 are obtained. The polarization calculation for obtaining the polarization characteristic of the subject 10 is not limited to the method described above.
偏光計算によって得られる複屈折位相差や主軸方位は、ピクセル単位の数値データである。例えば、複屈折位相差については、LUT(Look Up Table:ルックアップテーブル)を用いて色や輝度などを設定することで、偏光計算によって得られた複屈折位相差を視覚的に認識しやすい画像(複屈折位相差可視化画像)を生成することが可能である。図7は、本発明の実施の形態における撮影システムで得られた複数の画像データを用いて生成された画像の一例を示す図であり、複数の画像データを用いた偏光計算によって得られた複屈折位相差を表す複屈折位相差可視化画像を示す図である。図7に示す画像は、2つの回転テーブル103のそれぞれにポリスチレン製のスプーンが載置された状態で撮影されたものである。図7に示す画像はカラー画像であり、LUTを用いて、各ピクセルにおける複屈折位相差の数値に対応する色が付けられている。このように、複屈折位相差の数値に対して擬似的に色付けを行うことで、偏光計算によって得られた被写体10の複屈折位相差を視覚的に把握しやすい画像を生成することが可能である。 Birefringence retardation and principal axis orientation obtained by polarization calculation are numerical data in pixel units. For example, for birefringence retardation, an image that is easy to visually recognize birefringence retardation obtained by polarization calculation by setting a color, brightness, and the like using a LUT (Look Up Table). It is possible to generate a (birefringence phase contrast visualization image). FIG. 7 is a view showing an example of an image generated using a plurality of image data obtained by the imaging system according to the embodiment of the present invention, and a compound obtained by polarization calculation using a plurality of image data It is a figure which shows the birefringent phase contrast visualization image showing a refractive phase difference. The image shown in FIG. 7 is taken in a state in which a polystyrene spoon is placed on each of the two rotary tables 103. The image shown in FIG. 7 is a color image, which is colored using the LUT to correspond to the value of the birefringence retardation at each pixel. As described above, it is possible to generate an image that is easy to visually grasp the birefringence phase difference of the subject 10 obtained by the polarization calculation by performing pseudo coloring on the numerical value of the birefringence phase difference. is there.
また、主軸方位についても同様に、LUTを用いた画像を生成することが可能であるが、任意のピクセル数の画像領域の主軸方位を平均化して、偏光計算によって得られた主軸方位を表すベクトル(細い線などの表示要素によって、線の長さで主軸方位の大きさを表し、線の向きで主軸方位の方向を表す)を各画像領域内に描いた画像(主軸方位可視化画像)を生成することも可能である。図8は、本発明の実施の形態における撮影システムで得られた複数の画像データを用いて生成された画像の一例を示す図であり、複数の画像データを用いた偏光計算によって得られた主軸方位を表す主軸方位可視化画像を示す図である。図8に示す画像は、2つの回転テーブル103のそれぞれにポリスチレン製のスプーンが載置された状態で撮影されたものである。図8に示す画像では、画像領域が複数のピクセルを含む正方形の領域に分割されている。正方形の各領域に含まれるピクセルにおける主軸方位の大きさ及び方向の平均値を求め、主軸方位の平均値を各領域内に細い線で表すことで、偏光計算によって得られた被写体10の主軸方位を視覚的に把握しやすい画像を生成することが可能である。 Similarly, with regard to the main axis direction, it is possible to generate an image using a LUT, but a vector representing the main axis direction obtained by polarization calculation by averaging the main axis direction of an image region of an arbitrary number of pixels An image (principal axis visualized image) is drawn in each image area (a display element such as a thin line indicates the size of the main axis direction by the length of the line, and the direction of the main axis direction by the line direction) It is also possible. FIG. 8 is a view showing an example of an image generated using a plurality of image data obtained by the imaging system according to the embodiment of the present invention, and a main axis obtained by polarization calculation using a plurality of image data It is a figure which shows the main-axis direction visualization image which represents an azimuth | direction. The image shown in FIG. 8 is taken in a state where a polystyrene spoon is placed on each of the two rotary tables 103. In the image shown in FIG. 8, the image area is divided into square areas including a plurality of pixels. The average value of the magnitude and direction of the main axis direction in the pixels included in each area of the square is determined, and the average value of the main axis direction is represented by a thin line in each area, so that the main axis direction of the subject 10 obtained by the polarization calculation. It is possible to generate an image that is easy to grasp visually.
また、キャリブレーション用画像、偏光計算用画像、偏光可視化画像、反射照明画像、反射照明+透過照明画像、透過照明画像、複屈折位相差可視化画像、主軸方位可視化画像を任意に組み合わせて可視化画像データを生成してもよく、あるいは、輝度値の加減乗除を計算して、画像を重ね合わせる処理を行ってもよい。画像を重ね合わせる処理によって得られた結果は、例えば、二値化(binarization)、ラベリング、領域抽出、カウント、明確化、判定などの用途に用いることが可能である。なお、画像データに係る処理を行う際に、例えば特定の関心領域(Region of Interest)を設定し、関心領域に含まれるピクセルについてのみ偏光計算を行ったり、画像の抽出及び加工などを行ったりしてもよい。 In addition, the image for calibration, the image for polarization calculation, the image for polarized light, the image for reflected light, the image for reflected light and the light for transmitted light, the image for transmitted light, the image for birefringence phase difference visualization, and the image for visualization of main axis direction May be generated, or the process of superimposing images may be performed by calculating addition and subtraction of luminance values. The result obtained by the process of superimposing images can be used, for example, in applications such as binarization, labeling, region extraction, counting, clarification, and determination. In addition, when performing processing related to image data, for example, a specific region of interest (Region of Interest) is set, polarization calculation is performed only for pixels included in the region of interest, extraction and processing of an image, etc. May be
以下、様々な画像処理に係る具体的な例について説明する。 Hereinafter, specific examples related to various image processing will be described.
デジタル画像はピクセルの集合である。8ビットグレースケール画像の場合、0から255までの輝度値が各ピクセルに格納され、2次元配列として並んでいる。カラー画像の場合、RGBの各色が0から255までの値によって表され、RGBいずれかの値をそのピクセルの輝度値とするか、例えば輝度値=INT(0.299×(Rの値)+0.587×(Gの値)+0.114×(Bの値)+0.5)などの式に基づいて各ピクセルの輝度値を計算することによって、カラー情報を破棄してグレースケール画像に変換することが可能である。 A digital image is a collection of pixels. For an 8-bit grayscale image, luminance values from 0 to 255 are stored in each pixel and arranged as a two-dimensional array. In the case of a color image, each color of RGB is represented by a value from 0 to 255, and either RGB value is taken as the luminance value of the pixel, for example, luminance value = INT (0.299 × (value of R) +0 Discard color information and convert it to a grayscale image by calculating the luminance value of each pixel based on an expression such as 587 × (value of G) + 0.114 × (value of B) +0.5) It is possible.
図9は、本発明の実施の形態における撮影システムで得られた複数の画像データを用いて生成された画像の一例を示す図であり、ポリスチレン製のスプーンを被写体として撮影された画像を示す図である。図9に示す画像は、2つの回転テーブル103のそれぞれにポリスチレン製のスプーンが載置された状態で撮影されたものである。図9に示す画像はカラー画像であり、偏光によってスプーン上に虹色の縞模様が見えている状態が撮影されている。 FIG. 9 is a view showing an example of an image generated using a plurality of image data obtained by the photographing system according to the embodiment of the present invention, showing an image photographed with a polystyrene spoon as a subject It is. The image shown in FIG. 9 is taken in a state in which a polystyrene spoon is placed on each of the two rotary tables 103. The image shown in FIG. 9 is a color image, and a state in which an iridescent stripe pattern is visible on the spoon due to polarization is taken.
画像解析の実務において、関心の対象となる画像領域は通常、限定的である。この場合、関心領域は、左右2つのスプーンのそれぞれの樹脂材料部分に限定され、下部に写っている台や背景部は画像解析において排除したい場合がある。 In image analysis practice, the image areas of interest are usually limited. In this case, the region of interest is limited to the resin material portion of each of the two right and left spoons, and there is a case where it is desired to exclude the pedestal or background portion shown in the lower part in the image analysis.
こうした場合に用いる典型的な画像処理手法は、二値化である。8ビットグレースケールの画素の輝度値に対して閾値(例えば、100)を設定すると、それより暗いピクセル(0から99までの輝度値を持つピクセル)や、それより明るいピクセル(0から99までの輝度値を持つピクセル)を選別することが可能となり、注目する画像領域/注目しない画像領域を任意に抽出することが可能となる。例えば、抽出された画像領域のみに対して、LUTを設定して着色を行うと、見やすい明瞭な画像を得ることが可能となり、目視で検査を行う場合など、可視化用途に有用である。 A typical image processing method used in such a case is binarization. Setting a threshold (for example, 100) for the luminance value of an 8-bit grayscale pixel results in darker pixels (pixels with luminance values from 0 to 99) and brighter pixels (0 to 99). It becomes possible to select pixels having luminance values, and it is possible to arbitrarily extract an image area of interest / an image area of interest. For example, if coloring is performed by setting the LUT only to the extracted image area, it is possible to obtain a clear image that is easy to see, which is useful for visualization applications such as when visual inspection is performed.
図10は、本発明の実施の形態における撮影システムで得られた複数の画像データに対して行われるラベリング処理を説明するための図である。図10には、横16ピクセル×縦15ピクセルの画像領域内に4つの関心領域が存在する画像(図10の左側の画像)と、この画像に対してラベリング処理が行われた状態の画像(図10の右側の画像)とが図示されている。 FIG. 10 is a diagram for describing a labeling process performed on a plurality of image data obtained by the imaging system according to the embodiment of the present invention. In FIG. 10, an image (an image on the left side of FIG. 10) in which four regions of interest are present in an image area of 16 pixels × 15 pixels (image on the left of FIG. 10) and an image in a state where labeling processing is performed (image And the image on the right side of FIG.
図10に示すように、関心領域内の画素のそれぞれに対してプログラム上で異なる番号を割り当てるラベリング処理を行うと、各関心領域に対応するピクセルを数えることで各関心領域の面積を求める、関心領域の数を数える、関心領域の有無を判定するなどの様々な数値化や自動処理が可能となる。また、ラベリング処理によって割り当てた番号ごとに異なる色を割り当てることで、領域の分布を視覚的に把握しやすい画像を生成することが可能である。ラベリング処理後の画像(図10の右側の画像)はカラー画像であり、例えば、番号0のピクセルに黒、番号1のピクセルに青色、番号2のピクセルに緑色、番号3のピクセルに橙色、番号4のピクセルに赤色がそれぞれ色付けされている。 As shown in FIG. 10, when labeling processing is performed to assign different numbers in the program to each of the pixels in the region of interest, the area of each region of interest is determined by counting the pixels corresponding to each region of interest. Various digitization and automatic processing such as counting the number of regions and determining the presence or absence of a region of interest can be performed. Further, by assigning different colors to the respective numbers assigned by the labeling process, it is possible to generate an image which makes it easy to visually grasp the distribution of the area. The image after the labeling process (the image on the right in FIG. 10) is a color image, for example, black to pixel number 0, blue to pixel number 1, green to pixel number 2, orange to pixel number 3, orange Red is colored in each of the four pixels.
また、画像の二値化処理は、画像データの質に依存する。図11は、本発明の実施の形態における撮影システムで得られた透過照明画像の一例を示す図である。図11に示すように、被写体10であるスプーンの樹脂を透過した光の明るさは、背景部(被写体10とは異なる部分)の光の明るさと近接しているため、画像内のスプーンに対応したピクセルは、背景部に対応したピクセルの輝度値と近接した明るい輝度値を持っている。そのため、単純な二値化処理でスプーンの画像領域のみを抽出することは容易ではない。 Also, the binarization process of the image depends on the quality of the image data. FIG. 11 is a view showing an example of a transmitted illumination image obtained by the imaging system according to the embodiment of the present invention. As shown in FIG. 11, the brightness of the light transmitted through the resin of the spoon which is the subject 10 is close to the brightness of the light of the background part (the part different from the subject 10), so it corresponds to the spoon in the image. Each pixel has a bright value close to that of the pixel corresponding to the background. Therefore, it is not easy to extract only the spoon image area by simple binarization processing.
一方、図12は、本発明の実施の形態における撮影システムで得られた画像データをグレースケール変換し、さらにコントラストを調整する場合を説明するための図である。図12の左側の画像は、第1の光学素子102と第2の光学素子105とがクロスニコルの状態となるよう配置された状態で撮影されたものであり、背景部が暗くなっている。このような状態で撮影された画像は、画像内のスプーンに対応したピクセルの輝度値と比べて、背景部に対応するピクセルが暗い輝度値を持つ。そのため、画像をグレースケールに変換し(図12の中央の画像)、適切にコントラストを調整することで(図12の右側の画像)、被写体10であるスプーンに対応するピクセルの輝度値のみを高くする二値化処理を行うことが容易となり、スプーンに対応する部分が強調された画像を生成することが可能となる。 On the other hand, FIG. 12 is a view for explaining the case where the image data obtained by the imaging system according to the embodiment of the present invention is subjected to grayscale conversion and the contrast is further adjusted. The image on the left side of FIG. 12 is taken in a state in which the first optical element 102 and the second optical element 105 are arranged to be in the state of cross nicol, and the background portion is dark. In an image captured in such a state, the pixel corresponding to the background portion has a dark luminance value as compared to the luminance value of the pixel corresponding to the spoon in the image. Therefore, by converting the image to grayscale (the center image in FIG. 12) and adjusting the contrast appropriately (the right image in FIG. 12), only the luminance value of the pixel corresponding to the spoon that is the subject 10 is high. It becomes easy to perform the binarization processing, and it becomes possible to generate an image in which the portion corresponding to the spoon is emphasized.
本発明の実施の形態における撮影システムは、異なる条件下で撮影された複数の画像データを任意に利用して、可視化や画像解析が可能である。図13は、本発明の実施の形態における撮影システムで得られた画像データに対して二値化処理を行い、二値化処理によって得られた画像をマスク情報として用いる場合を説明するための図である。 The imaging system according to the embodiment of the present invention can perform visualization and image analysis by arbitrarily using a plurality of image data captured under different conditions. FIG. 13 is a view for explaining a case where image data obtained by the imaging system in the embodiment of the present invention is binarized and an image obtained by the binarization process is used as mask information. It is.
図13の左側の画像は、本発明の実施の形態における撮影システムで得られた複数の画像データを用いて生成された画像であり、複数の画像データを用いた偏光計算によって得られた複屈折位相差にLUTを設定して可視化した画像である。図13の左側の画像はカラー画像であり、背景部にも色が付いているが、被写体10であるスプーン以外の領域は意味がなく、関心もない。そこで、上述した二値化処理によって得られた画像をマスク情報として重ね合わせることで、図13の右側に示すように背景部を排除することが可能となる。マスク処理が施された画像は、被写体10に対応する関心領域内の各ピクセルのみ有効な数値を持っている。したがって、被写体10に対応する各ピクセルに係る数値の最大値、最小値、平均値、標準偏差を求めるなどの処理が容易となり、被写体10の特性を容易に評価することが可能となる。 The image on the left side of FIG. 13 is an image generated using a plurality of image data obtained by the imaging system according to the embodiment of the present invention, and a birefringence obtained by polarization calculation using a plurality of image data It is an image visualized by setting a LUT to the phase difference. The image on the left side of FIG. 13 is a color image, and the background portion is also colored, but the area other than the spoon which is the subject 10 is meaningless and has no interest. Therefore, it is possible to eliminate the background portion as shown on the right side of FIG. 13 by superimposing the image obtained by the above-described binarization processing as mask information. The image subjected to the mask processing has a valid numerical value only for each pixel in the region of interest corresponding to the subject 10. Therefore, processing such as obtaining the maximum value, the minimum value, the average value, and the standard deviation of the numerical values of each pixel corresponding to the subject 10 becomes easy, and the characteristics of the subject 10 can be easily evaluated.
また、異なる条件下で撮影された複数の画像データを任意に利用した可視化処理も可能である。図14は、本発明の実施の形態における撮影システムで得られた複数の画像データを用いた画像合成処理を説明するための図である。なお、図14(a)〜(e)の画像は9個の領域に分かれており、各領域は、各ピクセルに対応するか、あるいは、複数のピクセルを含む領域に対応している。以下では、各領域が各ピクセルに対応しているものとして説明する。 Moreover, the visualization process which used arbitrarily several image data image | photographed on different conditions is also possible. FIG. 14 is a diagram for describing an image combining process using a plurality of image data obtained by the imaging system according to the embodiment of the present invention. In addition, the image of FIG. 14 (a)-(e) is divided into nine area | regions, and each area | region respond | corresponds to each pixel or corresponds to the area | region containing several pixels. In the following, it is assumed that each area corresponds to each pixel.
偏光計算によって、各ピクセルについて複屈折位相差の数値を算出することが可能である。複屈折位相差の数値は、複数のキャリブレーション用画像及び偏光計算用画像に基づき偏光計算を行うことによって得られる。図14(a)には、偏光計算によって得られた各ピクセルの複屈折位相差の数値が示されている。各ピクセルが持つ複屈折位相差の数値に関してLUT処理を行うことで、図14(b)に示すように、複屈折位相差の数値に対応した色を各ピクセルに対して割り当てることが可能である。図14(b)はカラー画像であり、複屈折位相差の数値に対応して色付けされている。 By means of polarization calculations, it is possible to calculate the value of the birefringence retardation for each pixel. The values of birefringence retardation are obtained by performing polarization calculation based on a plurality of calibration images and polarization calculation images. FIG. 14A shows numerical values of the birefringence retardation of each pixel obtained by the polarization calculation. By performing LUT processing on the numerical value of birefringence retardation of each pixel, it is possible to assign a color corresponding to the numerical value of birefringence retardation to each pixel, as shown in FIG. . FIG. 14 (b) is a color image, which is colored corresponding to the value of the birefringence retardation.
一方、図14(c)の画像は反射照明画像であり、各ピクセルがカラー情報(例えばRGBの3色の数値の組み合わせ)を持つカラー画像である。この反射照明画像をクレースケール変換することで、図14(d)に示すような画像(グレー化画像)を得ることが可能である。 On the other hand, the image in FIG. 14C is a reflection illumination image, and each pixel is a color image having color information (for example, a combination of numerical values of three colors of RGB). It is possible to obtain an image (grayed image) as shown in FIG. 14D by subjecting the reflected illumination image to a clay scale conversion.
ここで、例えば、図14(b)の画像に対して閾値処理を行い、偏光計算によって得られた複屈折位相差の数値が所定の閾値以下(例えば、100以下)のピクセルのみ色情報をそのまま維持し、所定の閾値より大きいピクセルについては、図14(d)のグレー化画像のピクセルに置き換える(グレー化する)ように、図14(c)のカラー化画像と図14(d)のグレー化画像とを合成する。これにより、図14(e)に示すような画像を生成することが可能である。図14(e)の画像は、偏光計算によって得られた複屈折位相差の数値が所定の閾値以下のピクセルについては色付けされており、閾値より大きいピクセルについては、反射照明画像をグレースケール変換して得られた輝度値を持つ画像である。 Here, for example, threshold processing is performed on the image shown in FIG. 14 (b), and the color information of the pixel having a numerical value of birefringence phase difference obtained by polarization calculation equal to or less than a predetermined threshold (eg, 100 or less) The colored image of FIG. 14 (c) and the gray of FIG. 14 (d) are maintained so that pixels larger than the predetermined threshold value are replaced (grayed) with the pixels of the grayed image of FIG. 14 (d). Composite with the Thereby, it is possible to generate an image as shown in FIG. The image in FIG. 14E is colored for pixels whose birefringence retardation value obtained by polarization calculation is less than a predetermined threshold value, and for pixels larger than the threshold value, the reflected illumination image is grayscale converted. It is an image having the luminance value obtained.
画像処理系のPC300における画像処理は、上述の処理に限定されるものではなく、任意の手法による画像処理を行うことが可能である。上述の処理以外に、例えば、グレースケール変換した複数の画像の各ピクセルのうち最高輝度値を持つピクセルを投影したMIP(Max Intensity Projection)画像を生成する機能を有していてもよい。また、被写体が写っている領域のみを切り抜くクリッピング機能や、任意の画像を同一画像内に配置して合成するタイリング機能を有していてもよい。 Image processing in the PC 300 of the image processing system is not limited to the above-described processing, and image processing can be performed by any method. In addition to the above-described processing, for example, a function of generating a MIP (Max Intensity Projection) image obtained by projecting a pixel having the highest luminance value among pixels of a plurality of grayscale-converted images may be provided. In addition, it may have a clipping function of clipping only an area where a subject is shown, or a tiling function of arranging and combining an arbitrary image in the same image.
さらに、画像処理系のPC300は、例えば、複数の画像データや、複数の画像データから生成された新たな画像データから選択された画像データ群について、N(Nは2以上の整数)次元配列フォーマットにおける配置位置を表すように定められる命名規則に従って、画像データ群に含まれる各画像データに対してファイル名を付け、各画像データにファイル名が付けられた画像データ群を含む表示用画像データファイルを生成する表示用画像データファイル生成部を有してもよい。 Furthermore, the PC 300 of the image processing system has, for example, an N (N is an integer of 2 or more) dimensional array format for an image data group selected from a plurality of image data and new image data generated from a plurality of image data. A display image data file including an image data group in which a file name is attached to each image data included in the image data group and the image name is attached to each image data in accordance with a naming rule determined to represent the arrangement position in May be included in the display image data file generation unit.
例えば、本発明の実施の形態における撮影システムで得られた画像データや、上述の様々な画像処理によって新たに生成された画像データなどから、所望の画像データを複数選択し、選択された複数の画像データに対して、所定の配列ルール(例えば、2次元配列フォーマット)に基づく一定の命名規則に従ってファイル名を付ける。そして、ファイル名が付けられた一連の画像データを読み込んで所定の配列ルールに従って動画フォーマットなどに変換することで、複数の画像データを含む1つの表示用画像データファイルを生成することが可能である。この場合、複数の画像データを読み込み、例えば、H.264を用いてデータの圧縮を行ってQuickTime(登録商標)VRフォーマット(オブジェクトムービー)として出力することで、複数の画像データを含む1つの表示用画像データファイルが生成することが可能である。 For example, a plurality of desired image data are selected from the image data obtained by the imaging system according to the embodiment of the present invention, the image data newly generated by the various image processing described above, etc. Image data is given a file name according to a certain naming rule based on a predetermined arrangement rule (for example, a two-dimensional arrangement format). Then, it is possible to generate a single display image data file including a plurality of image data by reading a series of image data with a file name and converting it into a moving image format according to a predetermined arrangement rule. . In this case, a plurality of image data are read. By compressing the data using H.264 and outputting it as a QuickTime (registered trademark) VR format (object movie), it is possible to generate one display image data file including a plurality of image data.
ここで、表示用画像データファイルに格納される複数の画像データの配列ルールの一例について説明する。選択された複数の画像データは、例えば、RowとColumnの2つの配列軸により構成される2次元配列フォーマット内の配置座標と関連付けられることで、当該2次元配列フォーマット内に仮想的に配置される。例えば、図15に図示されているように、RowにM枚、ColumnにN枚の画像が配置される2次元配列フォーマット(N×Mの2次元配列フォーマット)が設定され、この2次元配列フォーマット内の各配置座標(Rm,Cn)(m、nは整数、1≦m≦M、1≦n≦N)に各画像データが仮想的に配置される。このとき、2次元配列フォーマットに含まれる画像は、生成後の表示用画像データファイルを適切な再生環境(例えば、QuickTimeプレーヤ)で再生及び表示した際に、所定のユーザ操作に応じて、Row方向又はColumn方向に隣り合う画像間で表示が切り替わることを前提として配置される。 Here, an example of an arrangement rule of a plurality of image data stored in the display image data file will be described. A plurality of selected image data are virtually arranged in the two-dimensional array format, for example, by being associated with the arrangement coordinates in the two-dimensional array format constituted by two array axes of Row and Column. . For example, as illustrated in FIG. 15, a two-dimensional array format (N × M two-dimensional array format) is set in which M images are arranged in Row and N images are arranged in Column as shown in FIG. Each image data is virtually arranged at each arrangement coordinate (Rm, Cn) (m, n is an integer, 1 ≦ m ≦ M, 1 ≦ n ≦ N). At this time, when the image included in the two-dimensional array format is reproduced and displayed in a suitable reproduction environment (for example, a QuickTime player) after generation, the display image data file is generated in the Row direction according to a predetermined user operation. Alternatively, it is arranged on the premise that the display is switched between the images adjacent in the column direction.
表示用画像データファイルの再生環境では、例えば、ユーザがマウスを上下方向に移動したり上下に対応するカーソルキーを押下したりすることによって、Row方向に隣り合う画像間で表示が切り替わり、マウスを左右方向に移動したり左右に対応するカーソルキーを押下したりすることによって、Column方向に隣り合う画像間で表示が切り替わる。なお、図15において、2次元配列フォーマット内のRowのM番目又はColumnのN番目が、Rowの1番目又はColumnの1番目と隣り合うように設定されてもよい。 In the reproduction environment of the display image data file, for example, when the user moves the mouse up and down or presses the cursor key corresponding to the upper and lower sides, the display is switched between the images adjacent in the row direction, and the mouse The display is switched between the images adjacent in the column direction by moving in the left-right direction or pressing the cursor keys corresponding to the left and right. In FIG. 15, the M-th row or the N-th column of Row in the two-dimensional array format may be set to be adjacent to the first row or the first column of Row.
図15に図示されているように2次元配列フォーマット内に仮想的に配置された複数の画像データは、図16に模式的に示されているように、所定の配列ルールに従って動画フォーマットなどに出力されることで、1つの表示用画像データファイル内に格納される。表示用画像データファイルに複数の画像データを格納する際に任意のファイルフォーマットを用いることが可能であるが、動画フォーマットを用いることで高能率のコーデックを適用することが可能となり、ファイルサイズを極めて小さく圧縮することが可能となる。 A plurality of image data virtually arranged in a two-dimensional array format as shown in FIG. 15 is output to a moving image format etc. according to a predetermined array rule, as schematically shown in FIG. As a result, they are stored in one display image data file. It is possible to use an arbitrary file format when storing a plurality of image data in the display image data file, but it becomes possible to apply a highly efficient codec by using the moving image format, and the file size becomes extremely high. It becomes possible to compress small.
なお、図15に図示されている2次元配列フォーマットは一例であり、本発明は、この配列に限定されるものではない。また、現在のQuickTimeVRフォーマットは、2次元配列フォーマットを有しているが、これに限定されるものではなく、表示用画像をN(Nは3以上の整数)次元配列フォーマット内に配置してもよい。2次元配列フォーマットでは2本の配列軸が存在し、2次元配列フォーマット内において各配列軸に沿って隣接する表示用画像は4枚存在する。QuickTimeプレーヤは、これら4方向に対してマウスの上下左右の移動又は4方向のカーソルキーを関連付けることで各配列軸に沿って隣接した画像の表示切り替えを行っている。一方、N次元配列フォーマットが実現可能な場合、N次元配列フォーマットでは配列軸がN本存在し、N次元配列フォーマット内において各配列軸に沿って隣接する表示用画像は2×N枚となる。この場合、再生環境において2×N方向で隣接した画像の表示切り替えを行うプレーヤを準備することで、所望の画像切り替えを実現することが可能となる。 The two-dimensional array format illustrated in FIG. 15 is an example, and the present invention is not limited to this array. Also, the current QuickTime VR format has a two-dimensional array format, but the present invention is not limited to this, and even if a display image is arranged in an N (N is an integer of 3 or more) dimensional array format Good. In the two-dimensional array format, there are two array axes, and in the two-dimensional array format, there are four display images adjacent to each array axis. The QuickTime player switches the display of adjacent images along each array axis by associating the four directions with the up, down, left, and right movements of the mouse or the cursor keys in four directions. On the other hand, when the N-dimensional array format can be realized, there are N array axes in the N-dimensional array format, and 2 × N display images adjacent along each array axis in the N-dimensional array format. In this case, it is possible to realize desired image switching by preparing a player for switching display of adjacent images in the 2 × N direction in the reproduction environment.
RowとColumnの2つの配列軸に割り当てられる情報は、選別された複数の画像データや、最終的に生成される表示用画像データファイルの用途などに応じて、ユーザが適宜定めることが可能である。一例として、Rowの配列軸を光軸に対する被写体の向きと定め、Columnの配列軸を光源素子や光源を組み合わせた条件と定めることが可能である。 The information assigned to the two array axes of Row and Column can be appropriately determined by the user according to the selected plural image data and the application of the display image data file finally generated. . As an example, it is possible to define the alignment axis of Row as the orientation of the object with respect to the optical axis, and define the alignment axis of Column as a condition combining the light source element and the light source.
例えば図5に示す各撮影ステップで撮影された画像データを利用する場合、図17に示されているように、Rowに5枚の画像、Columnに15枚の画像が配置された状態とすることが可能である。図17に示す仮想的な配置に基づいて表示用画像データファイルを生成した場合、表示用画像データファイルの再生環境では、Row方向に隣り合う画像を切り替えることで、同一の偏光条件下で被写体が回転するように見え、Column方向に隣り合う画像を切り替えることで、被写体が同一の向きを向いたまま偏光条件が変化するように見える表示を実現することが可能である。 For example, when using the image data taken at each photographing step shown in FIG. 5, it is assumed that five images are arranged in Row and fifteen images are arranged in Column, as shown in FIG. Is possible. When the display image data file is generated based on the virtual arrangement shown in FIG. 17, in the reproduction environment of the display image data file, the subject is switched under the same polarization condition by switching the adjacent images in the Row direction. By switching images adjacent to each other in the column direction, it is possible to realize a display that looks as if the polarization condition changes while the subject is facing the same direction.
上述した画像処理はそれぞれ独立して行われてもよく、あるいは、任意に組み合わせて可視化画像を生成してもよい。画像処理を組み合わせる場合としては、例えば、偏光計算によって得られた複屈折位相差を表す色付けされ、かつ、偏光計算によって得られた主軸方位を表す表示要素が描かれた画像を生成してもよい。 The image processing described above may be performed independently, or may be arbitrarily combined to generate a visualized image. In the case of combining the image processing, for example, an image may be generated in which a display element representing a colored retardation representing birefringence retardation obtained by polarization calculation and a principal axis orientation obtained by polarization calculation is drawn. .
また特に、本発明の実施の形態における撮影システムは、偏光観察用の画像だけではなく、例えば、カメラ側光学素子105の偏光子105bを光軸上から外した状態で、透過照明用光源101が白色光(RGB発光)を発光して撮影される透過照明画像、及び、反射照明用光源104が白色光(RGB発光)を発光して撮影される反射照明画像を得ることができるという特徴を備えている。透過照明画像や反射照明画像は、発色に優れており、人間が視認する状態に極めて近い状態を撮影した画像である。こうした透過照明画像や反射照明画像をベースとして、偏光計算によって得られた偏光特性を表す画像や、偏光下において観察される画像などを合成することで、視認性の高い画像を生成することが可能である。 Furthermore, in particular, in the imaging system according to the embodiment of the present invention, the light source 101 for transmission illumination is not only an image for polarized light observation but, for example, in a state where the polarizer 105b of the camera side optical element 105 is removed from the optical axis. A transmission illumination image captured by emitting white light (RGB emission), and a reflection illumination image captured by emitting light (RGB emission) by the light source for reflected illumination 104 can be obtained. ing. The transmitted illumination image and the reflected illumination image are images that are excellent in color development, and are photographed in a state very close to a state visually recognized by humans. An image with high visibility can be generated by combining an image showing polarization characteristics obtained by polarization calculation, an image observed under polarization, etc. on the basis of such transmission illumination image and reflection illumination image. It is.
上述したように、本発明では、被写体10が有する偏光特性を求める偏光計算の手法は、特に限定されるものではないが、本発明の発明者のうちの一人を発明者とする特許出願(特願2017−98856号)に係る特許請求の範囲、明細書及び図面に記載された偏光測定及び偏光計算の手法を用いることが可能である。以下、この特許出願に含まれている、本発明に有用な技術的思想(以下、本関連技術と呼ぶ)の概要について記載する。なお、本願の出願時には、本関連技術はまだ公知技術とはなっていない。 As described above, in the present invention, the method of polarization calculation for obtaining the polarization characteristic of the subject 10 is not particularly limited. However, a patent application in which one of the inventors of the present invention is an inventor It is possible to use the methods of polarization measurement and polarization calculation described in the claims, specification and drawings according to the application No. 2017-98856). Hereinafter, an outline of technical ideas (hereinafter, referred to as present related technologies) useful for the present invention included in this patent application will be described. At the time of filing of the present application, this related art has not yet become a known art.
以下、本関連技術の概要について説明する。以下では、図面ならびに数式において太字表記したベクトルを、『[]』を用いて表記する。 Hereinafter, an outline of the present related technology will be described. In the following, vectors bolded in drawings and formulas are described using “[]”.
図18は、本関連技術による偏光特性測定装置の概略構成を示す説明図である。図示した測定装置901は、所定波長の光を試料913へ向けて出射する光源911、試料913へ入射させる光を変調する偏光変調部912を備えている。
また、測定装置901は、試料913から出射された光に所定の偏光等を施し、後述する演算に対応させる偏光解析部914、偏光解析部914から出射された光を入射し、所定の電気信号へ変換出力する検出器915、検出器915の出力信号を用いて所定演算を行う演算手段916を備えている。
FIG. 18 is an explanatory view showing a schematic configuration of a polarization characteristic measuring apparatus according to the present related art. The illustrated measuring apparatus 901 includes a light source 911 for emitting light of a predetermined wavelength toward the sample 913, and a polarization modulation unit 912 for modulating light to be incident on the sample 913.
In addition, the measuring apparatus 901 subjects the light emitted from the sample 913 to predetermined polarization and the like, and enters the light emitted from the polarization analysis unit 914 and the polarization analysis unit 914 corresponding to the calculation described later, and outputs the predetermined electric signal. A detector 915 for converting and outputting the image data to the image data, and an operation means 916 for performing a predetermined operation using an output signal of the detector 915.
なお、具体的な測定装置901として、例えば、光源911と偏光変調部912との間に、図示を省略したコリメータレンズユニット等を設置し、当該コリメータレンズユニット等と偏光解析部914との間に試料913を設置固定する試料ステージ(図示省略)を設置し、試料913と偏光解析部914との間に適当な対物レンズ(図示省略)を設置し、偏光解析部914と検出器915との間に無限遠補正が可能な鏡筒(図示省略)を設置し、また、上記の光源911から検出器915までの間に光導波路等(図示省略)を適当に設けて、顕微鏡型の偏光測定装置として構成してもよい。 As a specific measurement apparatus 901, for example, a collimator lens unit (not shown) is installed between the light source 911 and the polarization modulation unit 912, and between the collimator lens unit etc. and the polarization analysis unit 914. A sample stage (not shown) for mounting and fixing the sample 913 is installed, and an appropriate objective lens (not shown) is installed between the sample 913 and the polarization analysis unit 914, and between the polarization analysis unit 914 and the detector 915 A microscope (not shown) capable of infinity correction can be installed on the light source, and an optical waveguide etc. (not shown) can be appropriately provided between the light source 911 and the detector 915 described above to provide a microscope-type polarization measuring apparatus. It may be configured as
光源911は、例えば、波長が780nmの光を発行するLED等の準単色発光体や光学フィルタなどを備え、一定の光強度で出射するように構成されている。
偏光変調部912は、偏光子P1と位相板R1を有し、偏光子P1は、例えば直線偏光素子であり、透過軸方位を所望の角度へ回転させて設定調整することを可能に構成された例えばホルダ等によって支持されている。位相板R1は、例えば波長633nmの入射光に関して、直線偏光を円偏光とするλ/4波長板であり、主軸方位を所望の角度へ回転させて設定調整することを可能に構成された例えばホルダ等によって支持されている。
偏光変調部912と偏光解析部914の間には、前述の図示を省略した試料ステージが設置されており、この試料ステージ等を用いて試料913が測定装置901の所定位置に固定されている。
The light source 911 includes, for example, a quasi-monochromatic light emitter such as an LED that emits light having a wavelength of 780 nm, an optical filter, and the like, and is configured to emit light with a constant light intensity.
The polarization modulation unit 912 has a polarizer P1 and a phase plate R1, and the polarizer P1 is, for example, a linear polarization element, and is configured to be able to set and adjust the transmission axis orientation to a desired angle. For example, it is supported by a holder or the like. The phase plate R1 is, for example, a λ / 4 wavelength plate that converts linearly polarized light into circularly polarized light with respect to incident light having a wavelength of 633 nm, for example, a holder configured to be able to set and adjust the main axis azimuth to a desired angle. It is supported by
A sample stage (not shown) is placed between the polarization modulator 912 and the polarization analyzer 914, and the sample 913 is fixed at a predetermined position of the measuring apparatus 901 using this sample stage or the like.
偏光解析部914は、位相板R2と偏光子P2を有し、位相板R2は、例えば波長633nmの入射光に関して、直線偏光を円偏光とするλ/4波長板であり、主軸方位を所望の角度へ回転させて設置調整することを可能に構成された例えばホルダ等によって支持されている。また、偏光子P2は、例えば直線偏光素子であり、透過軸方位を所望の角度へ回転させて設定調整することを可能に構成された例えばホルダ等によって支持されている。
検出器915は、例えば、画像等を撮影可能な撮像素子や分光機構などを備えたCCDカメラ等であり、撮影したカラー画像を表す信号を出力するように構成されている。
なお、測定装置901は、例えば、前述の光導波路等によって接続された、光源911、偏光変調部912、偏光解析部914、検出器915などにより測定光学系を構成している。特に、検出器915に偏光解析部914から出射された光以外が入射しないように、測定装置901内部、もしくは当該測定装置901を設置する場所は、暗室環境とする必要がある。
The polarization analysis unit 914 has a phase plate R2 and a polarizer P2, and the phase plate R2 is, for example, a λ / 4 wavelength plate that converts linearly polarized light into circularly polarized light with respect to incident light of wavelength 633 nm. It is supported by, for example, a holder or the like, which is configured to be able to rotate to an angle for installation adjustment. The polarizer P2 is, for example, a linear polarization element, and is supported by, for example, a holder or the like configured to be able to set and adjust the transmission axis orientation to a desired angle.
The detector 915 is, for example, a CCD camera or the like provided with an imaging device capable of capturing an image or the like, a spectroscopic mechanism, or the like, and is configured to output a signal representing a captured color image.
In addition, the measuring apparatus 901 comprises a measurement optical system by the light source 911, the polarization modulation part 912, the polarization analysis part 914, the detector 915 etc. which were connected by the above-mentioned optical waveguide etc., for example. In particular, the inside of the measuring apparatus 901 or the place where the measuring apparatus 901 is installed needs to be a dark room environment so that light other than the light emitted from the polarization analysis unit 914 does not enter the detector 915.
演算手段916は、検出器915から出力された画像信号等を入力し、この画像信号に含まれる例えば光強度などに関する演算や取得したデータの処理などを行うプロセッサ、必要に応じて所定のデータ等を記憶するメモリ、演算処理結果などを出力表示するディスプレイ装置等を備えた、例えばパーソナルコンピュータなどの情報処理装置である。
なお、測定装置901の測定精度を高めるため、単色性の良好な光源911、ならびに波長分解能の良好な検出器915を使用することが好ましい。
A processor 916 inputs an image signal and the like output from the detector 915, and a processor that performs, for example, calculation of light intensity and the like and processing of acquired data included in the image signal, predetermined data and the like as necessary. The information processing apparatus is, for example, an information processing apparatus such as a personal computer, provided with a memory for storing and a display device for outputting and displaying the result of arithmetic processing and the like.
In order to enhance the measurement accuracy of the measurement apparatus 901, it is preferable to use a light source 911 having a good monochromaticity and a detector 915 having a good wavelength resolution.
偏光変調部912の偏光子P1および位相板R1、ならびに偏光解析部914の位相板R2および偏光子P2は、前述のようにホルダ等によって回転可能に支持されている。このホルダ等を回転駆動する機構部を設置し、当該機構部の動作を、例えば演算手段916によって制御するように構成してもよい。即ち、プロセッサやメモリなどを備えた演算手段916を、測定装置901の各部動作を制御する制御手段とし、あるいは演算手段916を制御手段に含めて構成し、例えば、この制御手段になされた入力操作等に応じて、あるいは予め設定されたデータ等に則して、上記の各光学素子の方位などを設定、ならびに変更するように構成してもよい。また、上記の制御手段等により、光源911、検出器915などの動作を併せて制御するように構成してもよい。
また、演算手段916は、偏光子P1、位相板R1、位相板R2、偏光子P2等の光学素子の方位角度等を示す値を取得するように構成されており、例えば、上記の各光学素子を支持するホルダ等にセンサを備え、このセンサの出力信号から方位角度等の値を表すデータを取得するように構成されている。
The polarizer P1 and the phase plate R1 of the polarization modulation unit 912, and the phase plate R2 and the polarizer P2 of the polarization analysis unit 914 are rotatably supported by a holder or the like as described above. A mechanism unit that rotationally drives the holder or the like may be installed, and the operation of the mechanism unit may be controlled by, for example, the calculation unit 916. That is, the calculating means 916 provided with a processor, a memory, etc. is configured as control means for controlling the operation of each part of the measuring apparatus 901, or the calculating means 916 is included in the control means. The orientation of each of the above optical elements may be set or changed according to the data or in accordance with data set in advance. In addition, the operation of the light source 911, the detector 915 and the like may be controlled together by the above control means and the like.
Further, the calculation means 916 is configured to obtain values indicating the azimuth angle and the like of the optical elements such as the polarizer P1, the phase plate R1, the phase plate R2 and the polarizer P2, etc. For example, each of the above optical elements A holder or the like supporting the sensor is configured to obtain data representing a value such as an azimuth angle from an output signal of the sensor.
次に動作について説明する。
ここでは、
i)偏光変調部912について、
偏光子P1の透過軸方位をθP1、
位相板R1の主軸方位をθR1、位相差(任意)をδ1(δ1≠180×n度)
ii)偏光解析部914について、
位相板R2の主軸方位をθR2、位相差(任意)をδ2(δ2≠180×n度)
偏光子P2の透過軸方位をθP2、
と定義して説明する。
Next, the operation will be described.
here,
i) The polarization modulator 912
The transmission axis orientation of the polarizer P1 is θ P1 ,
Principal axis orientation of phase plate R1 θ R1 , phase difference (arbitrary) δ 1 (δ 1 ≠ 180 × n degrees)
ii) The polarization analyzer 914
Principal axis orientation of phase plate R2 θ R2 , phase difference (arbitrary) δ 2 (δ 2 ≠ 180 × n degrees)
The transmission axis orientation of the polarizer P2 is θ P2 ,
Define and explain.
測定装置901による偏光特性の測定は、概ね次のように動作する。
初めに、偏光解析部914の位相板R2の位相差δ2を、測定光学系を稼働させて測定する(Step1)。
次に、Step1において測定した位相差δ2を示すデータを用いて、偏光解析部914の伝達行列(4×4)を求め、この伝達行列の逆行列と検出器915が検出した光強度とを用いて、偏光解析部914の光入射側における偏光特性(ストークスベクトル・4×1)を求める(Step2)。
また、試料913の偏光特性を測定する動作では、試料913がない状態で得られるストークスベクトル[Sin]と、試料913を透過したときのストークスベクトル[Sout]とをStep2の処理動作によって求める。これらから試料913の偏光特性を示すミュラー行列を求め、当該ミュラー行列の要素を用いて試料913の偏光特性を定量化する(Step3)。
The measurement of the polarization characteristic by the measuring apparatus 901 operates approximately as follows.
First, the phase difference [delta] 2 of the phase plate R2 polarization analyzer 914 is measured by running the measurement optical system (Step1).
Then, using the data indicating the phase difference [delta] 2 measured in Step1, we obtain the transfer matrix of the polarization analyzer 914 (4 × 4), and a light intensity inverse matrix and the detector 915 detects the transfer matrix The polarization characteristic (Stokes vector · 4 × 1) on the light incident side of the polarization analysis unit 914 is determined using (Step 2).
Further, in the operation of measuring the polarization characteristic of the sample 913, the Stokes vector [S in ] obtained in the absence of the sample 913 and the Stokes vector [S out ] when transmitted through the sample 913 are determined by the processing operation of Step 2. . From these, the Mueller matrix indicating the polarization characteristics of the sample 913 is obtained, and the polarization characteristics of the sample 913 are quantified using the elements of the Mueller matrix (Step 3).
次に各Stepの動作を説明する。
なお、下記のStep1およびStep2で説明する動作処理は、後述するStep3において行われる動作処理の一部分である。
<Step1>
1−1.例えば、偏光変調部912の偏光子P1の透過軸方位θP1に対して、位相板R1の主軸方位θR1および位相板R2の主軸方位θR2を、平行となる、または直交する方位に設定する。このとき、各位相板の主軸方位を進相軸あるいは遅相軸のどちらに設定してもよい。
1−2.偏光解析部914の位相板R2の主軸方位θR2を、例えば、上記の項目1−1で設定した状態から45×(2n+1)度回転させる。
1−3.偏光解析部914の主軸方位θR2を、上記の項目1−2で設定した状態としておき、当該偏光解析部914の偏光子P2の透過軸方位θP2を、偏光変調部912の偏光子P1の透過軸方位θP1に対して平行状態に設定したときの光強度と、直交状態に設定したときの光強度を、順次、演算手段916のメモリ等に記憶させる。
Next, the operation of each step will be described.
Note that the operation processing described in Steps 1 and 2 below is a part of the operation processing performed in Step 3 described later.
<Step 1>
1-1. For example, with respect to the transmission axis azimuth theta P1 of the polarizer P1 of the polarization modulation unit 912, the principal axis directions theta R2 of the spindle orientation theta R1 and the phase plate R2 of the phase plate R1, is set to be parallel or perpendicular orientation . At this time, the principal axis orientation of each phase plate may be set to either the fast axis or the slow axis.
1-2. For example, the main axis azimuth θ R2 of the phase plate R2 of the polarization analysis unit 914 is rotated 45 × (2n + 1) degrees from the state set in the item 1-1 above.
1-3. The principal axis orientation θ R2 of the polarization analysis unit 914 is set in the above item 1-2, and the transmission axis orientation θ P2 of the polarizer P2 of the polarization analysis unit 914 is the same as that of the polarizer P1 of the polarization modulation unit 912 The light intensity when it is set parallel to the transmission axis azimuth θ P1 and the light intensity when it is set orthogonal are sequentially stored in the memory or the like of the calculation means 916.
1−4.項目1−3にて記憶させた各光学素子の状態(方位角度)における光強度を用いて、偏光解析部914の位相板R2の位相差δ2を算出する。
例えば、偏光子P1の透過軸方位θP1=0度、位相板R1の主軸方位θR1=0度、位相板R2の主軸方位θR2=45度と設定し、偏光子P2の透過軸方位θP2=0度(θP1と並行状態)において検出器915が検出した光強度をI0、透過軸方位θP2=90度(θP1と直交状態)において検出器915が検出した光強度をI90としたとき、位相板R2の位相差δ2は、次の式(1)によって求められる。
1-4. Using the light intensity in the state (the azimuth angle) of each optical element having stored in item 1-3, and calculates the phase difference [delta] 2 of the phase plate R2 polarization analyzer 914.
For example, the transmission axis azimuth theta P1 = 0 ° of the polarizer P1, principal axis directions theta R1 = 0 degrees phase plate R1, sets the spindle orientation theta R2 = 45 degree phase plate R2, transmission axes of the polarizer P2 theta The light intensity detected by the detector 915 at P 2 = 0 degrees (parallel to θ P 1 ) is I 0 , and the light intensity detected by the detector 915 at transmission axis azimuth θ P 2 = 90 degrees (orthogonal to θ P 1 ) is I when a 90, a phase difference [delta] 2 of the phase plate R2 is obtained by the following equation (1).
Step1において、測定装置901は、試料913の偏光測定時と同じ状態とされ、例えば、図示を省略した各部レンズの倍率などは最適な値に設定されている。このように各部を設定した状態において、試料ステージ等に試料913を設置固定することなく、前述のように各光学素子(偏光子P1、位相板R1、位相板R2、偏光子P2)の方位等を設定し、例えば、上記の各光学素子を図26の表1に示した各値に設定して、偏光解析部914からの出射光を検出器915へ入射し、光強度を測定する。 In Step 1, the measuring apparatus 901 is in the same state as in the polarization measurement of the sample 913. For example, the magnification of each lens (not shown) is set to an optimum value. In the state where each part is set in this way, the orientation of each optical element (polarizer P1, phase plate R1, phase plate R2, polarizer P2) as described above without setting and fixing the sample 913 to the sample stage etc. For example, the above-described optical elements are set to the values shown in Table 1 of FIG. 26, the light emitted from the polarization analysis unit 914 is incident on the detector 915, and the light intensity is measured.
検出器915は、撮影した画像を示す信号として、例えばRAWデータを出力し、演算手段916は、適宜、検出器915から出力されたRAW形式の画像ファイルを、自ら備えるメモリ等の記憶手段に保存する。即ち、Step1において、上記の記憶手段に記憶する画像ファイルは、前述の項目1−3にて説明した2つの状態(各光学素子の方位角度)において撮影されたものである。
演算手段916は、前述の記憶した2枚の(2つの状態で撮影された)画像ファイルについて、これら画像の各ピクセルに存在する光強度を抽出し、項目1−4で説明した式(1)の演算をピクセル毎に行って、位相板R2が有する位相差δ2の二次元分布を表す画像データを生成する。
The detector 915 outputs, for example, RAW data as a signal indicating a photographed image, and the calculation unit 916 appropriately stores the RAW format image file output from the detector 915 in a storage unit such as a memory provided with itself. Do. That is, in Step 1, the image file stored in the storage unit is the one captured in the two states (azimuth angles of the respective optical elements) described in the above-mentioned item 1-3.
The calculating means 916 extracts the light intensity present in each pixel of the two stored (photographed in two states) image files, and the equation (1) described in the item 1-4. performing calculation for each pixel, and generates image data representing the two-dimensional distribution of the phase difference [delta] 2 with the phase plate R2.
<Step2>
2−1.偏光解析部914の直前(光入射側)の偏光状態をストークスベクトル[S]=(S0,S1,S2,S3)と表し、前述の各光学素子に対応するミュラー行列から、検出器5を用いた場合の光強度Iiを算出する式を生成する。ここで例示する測定装置901では、次の式(2)のように定められる。
<Step 2>
2-1. The polarization state immediately before (on the light incident side) of the polarization analysis unit 914 is expressed as Stokes vector [S] = (S 0 , S 1 , S 2 , S 3 ), and detection is performed from Mueller matrix corresponding to each optical element described above. The equation for calculating the light intensity I i in the case of using the device 5 is generated. In the measuring apparatus 901 illustrated here, it is defined as the following equation (2).
式(2)において、
2−2.偏光解析部914を構成する各光学素子(位相板R2、偏光子P1)の方位角度を任意の値に設定し、これら方位角度とStep1において求めた位相差δ2とを用いて、ストークスベクトル[S]の上位の係数Ai、Bi、Ci、Diを算出する。
2−3.偏光解析部914の各光学素子の方位θR2及び方位θP2の各角度を任意に設定し、ある射偏光状態の光が偏光解析部914を透過した後の光強度Iiを測定し、この測定値を例えば前述のメモリ等に記憶させる。
2−4.偏光解析部914の各光学素子の方位θR2及び方位θP2の角度設定を4回変更して、項目2−3で説明した動作処理を繰り返す(i=1〜4)。
ここで、光学素子の方位角度を変更して光強度Iiを繰り返し測定するとき、方位θR2、θP2の各角度は、順次、任意に設定するが、上記のθaが同一とならないように設定する。
2-2. Each optical elements constituting the polarization analyzer 914 (phase plate R2, polarizer P1) the azimuth angle of the set to an arbitrary value, by using the phase difference [delta] 2 obtained in these azimuth angles and Step1, Stokes vector [ The upper coefficients A i , B i , C i and D i of S] are calculated.
2-3. Each angle of azimuth θ R2 and azimuth θ P2 of each optical element of polarization analysis unit 914 is arbitrarily set, and light intensity I i after light of a certain incident polarization state passes through polarization analysis unit 914 is measured. The measured values are stored, for example, in the above-described memory or the like.
2-4. The angle setting of the azimuth θ R2 and the azimuth θ P2 of each optical element of the polarization analysis unit 914 is changed four times, and the operation processing described in the item 2-3 is repeated (i = 1 to 4).
Here, when the azimuth angle of the optical element is changed and the light intensity I i is repeatedly measured, each angle of the azimuths θ R2 and θ P2 is arbitrarily set sequentially, but the above θ a is not identical Set to
2−5.前述の項目2−1から項目2−4において、算出される係数Ai、Bi、Ci、Di、偏光解析部914直前(光入射側)におけるストークスベクトル[S]、測定・記憶される光強度Iiは、次の行列式(3)のように表記される。 2-5. Coefficients A i , B i , C i , D i calculated in the above item 2-1 to item 2-4, Stokes vector [S] just before (polarization side) the polarization analysis unit 914, measured and stored The light intensity I i is expressed as the following determinant (3).
上記の行列式(3)より、係数Ai、Bi、Ci、Diを行列の要素とする、偏光解析部914の伝達行列A、ならびに、その逆行列A-1と、各画像ファイルの光強度Iiを要素とする光強度行列Iとを用いて、次の式(4)に示したようにストークスベクトル[S]を求めることができる。 From the above matrix equation (3), the transfer matrix A of the polarization analysis unit 914 whose coefficients are A i , B i , C i and D i are elements of the matrix, and its inverse matrix A -1 and each image file The Stokes vector [S] can be determined as shown in the following Equation (4), using the light intensity matrix I having the light intensity I i of
Step2において、測定装置901の演算手段916は、前述の項目2−1で説明したように光強度Iiを算出する式を定め、項目2−2で説明したようにストークスベクトル[S]の各係数Ai、Bi、Ci、Diを算出する。
また、演算手段916は、項目2−3で説明したように、偏光解析部914の各光学素子について、例えば、前述の機構部等を制御して当該光学素子を支持するホルダ等を回転させ、図27の表2に示すように方位角度を設定する。また、検出器915を用いて各方位角度における撮影を行い、撮影した各画像ファイルの光強度Iiを前述のメモリ等に記憶させ、これらの動作処理を項目2−4で説明したように繰り返して、伝達行列A、さらに逆行列A-1を求め、偏光解析部914直前の偏光状態を示すストークスベクトル[S]を求める。
測定装置901は、次に説明するStep3の動作処理によって試料913の偏光特性を測定する。Step3は、後述する各光学素子に設定された様々な方位角度等についてStep1ならびにStep2で説明した動作処理(演算処理)等を行うものである。
In Step 2, the calculating means 916 of the measuring apparatus 901 determines an equation for calculating the light intensity I i as described in the item 2-1 above, and as described in the item 2-2, each of the Stokes vectors [S] The coefficients A i , B i , C i and D i are calculated.
In addition, as described in item 2-3, the calculation unit 916 controls, for example, the above-described mechanism unit and the like for each optical element of the polarization analysis unit 914 to rotate a holder or the like that supports the optical element, The azimuth angle is set as shown in Table 2 of FIG. In addition, imaging at each azimuth angle is performed using the detector 915, and the light intensity I i of each imaged image file is stored in the above-described memory or the like, and these operation processes are repeated as described in item 2-4. Then, the transfer matrix A and the inverse matrix A −1 are obtained, and the Stokes vector [S] indicating the polarization state immediately before the polarization analysis unit 914 is obtained.
The measuring apparatus 901 measures the polarization characteristic of the sample 913 by the operation processing of Step 3 described below. Step 3 is to perform operation processing (calculation processing) and the like described in Step 1 and Step 2 with respect to various azimuth angles and the like set in each optical element described later.
<Step3>
3−1.測定装置901に試料913を設置しない状態、例えば、前述の試料ステージを空の状態として光源911を発光させ、偏光変調部912の位相板R1の方位θR1を任意の角度に設定し、前述Step1ならびにStep2で説明した演算処理を行って入射ストークスベクトル[Sinj]を算出する。
3−2.上記の項目3−1で説明した動作ならびに演算処理は、偏光状態が重複しないように偏光変調部912の条件(方位θR1の設定角度)を変更して、入射ストークスベクトル[Sinj]の算出を4回繰り返し(j=1〜4)、入射ストークスベクトル[Sin1]、[Sin2]、[Sin3]、[Sin4]を求める。
<Step 3>
3-1. State the measuring device 901 not including the sample 913, for example, the light source 911 is emitted as the state of the sample stage empty described above, the orientation theta R1 of the phase plate R1 of the polarization modulating section 912 sets an arbitrary angle, above Step1 Also, the incident Stokes vector [S inj ] is calculated by performing the arithmetic processing described in Step 2.
3-2. In the operation and arithmetic processing described in the item 3-1 above, the incident Stokes vector [S inj ] is calculated by changing the condition (set angle of the azimuth θ R1 ) of the polarization modulation unit 912 so that the polarization states do not overlap. Are repeated four times (j = 1 to 4) to obtain incident Stokes vectors [S in1 ], [S in2 ], [S in3 ], and [S in4 ].
3−3.測定装置901に試料913を設置固定した状態で光源911を発光させ、項目3−1もしくは項目3−2と同一の条件下で試料913に入射光を照射し、この状態で検出した光強度を用いて前述のStep1ならびにStep2で説明した演算処理を行って、試料を透過した透過後ストークスベクトル[Soutj]を算出する。即ち、項目3−2の動作処理において設定した4つの方位θR1毎に(j=1〜4)、透過後ストークスベクトル[Sout1]、[Sout2]、[Sout3]、[Sout4]を求める。
3−4.ここで、試料913の偏光特性をミュラー行列Mとして表す場合、入射ストークスベクトル[Sinj]と透過後ストークスベクトル[Soutj]との関係は、次の式(5)のように表記することができる。
3-3. The light source 911 is caused to emit light in a state where the sample 913 is installed and fixed to the measuring device 901, and the sample 913 is irradiated with incident light under the same conditions as item 3-1 or item 3-2, and the light intensity detected in this state is The arithmetic processing described in Step 1 and Step 2 described above is performed to calculate a Stokes vector [S outj ] after transmission through the sample. That is, the Stokes vectors after transmission [S out1 ], [S out2 ], [S out3 ], [S out4 ] for each of four azimuths θ R1 set in the operation processing of item 3-2 (j = 1 to 4) Ask for
3-4. Here, when the polarization characteristic of the sample 913 is represented as Mueller matrix M, the relationship between the incident Stokes vector [S inj ] and the post-transmission Stokes vector [S outj ] can be expressed as the following formula (5) it can.
上記の式(5)に基づき、項目3−1〜項目3−3の各動作処理によって得られた入射ストークスベクトル[Sinj]と透過後ストークスベクトル[Soutj]を、それぞれ4×4の行列要素として、行列S’inおよび行列S’outに行列化すると、次の式(6)のように表記することができる。 The incident Stokes vector [S inj ] and the post-transmission Stokes vector [S outj ] obtained by each operation process of item 3-1 to item 3-3 based on the above equation (5) are respectively 4 × 4 matrices If the elements are matrixed into a matrix S ′ in and a matrix S ′ out , they can be expressed as the following equation (6).
上記の式(6)より、各入射ストークスベクトルからなる行列S’inの逆行列と、各透過後ストークスベクトルからなる行列S’outを用いて、試料913のミュラー行列Mの要素が、次の式(7)によって求められる。 From the above equation (6), using the inverse matrix of the matrix S ′ in consisting of each incident Stokes vector and the matrix S ′ out consisting of each post-transmission Stokes vector, the elements of the Mueller matrix M of the sample 913 are It is calculated by the equation (7).
Step3において、測定装置901の演算手段916は、項目3−1および項目3−2で説明したように、測定装置901に試料913を設置しない状態で入射ストークスベクトル[Sinj]を求めるとき、{偏光変調部912における4パターンの方位(θR1)の入射偏光}×{偏光解析部914直前の偏光状態を示す4つの要素(S0,S1,S2,S3)=16の要素を算出する。これは、前述のStep2で説明した偏光解析部914に関するストークスベクトル[S]が、4つの要素(S0,S1,S2,S3)で構成されていることと同義である。なお、これらの演算は、前述のStep1で説明したように、画像ファイルのピクセル毎に行われる。 In Step 3, when calculating the incident Stokes vector [S inj ] in a state where the sample 913 is not installed in the measuring device 901, the calculating means 916 of the measuring device 901 does not install the sample 913 as described in items 3-1 and 3-2. Incident polarization of the orientation (θ R1 ) of the four patterns in the polarization modulation section 912} × {four elements (S 0 , S 1 , S 2 , S 3 ) = 16 elements indicating the polarization state immediately before the polarization analysis section 914 calculate. This is equivalent to the fact that the Stokes vector [S] related to the polarization analysis unit 914 described in Step 2 described above is composed of four elements (S 0 , S 1 , S 2 , S 3 ). Note that these calculations are performed for each pixel of the image file, as described in Step 1 described above.
図19は、図18の演算手段916が求める入射ストークスベクトルを示す説明図である。
演算手段916は、入射ストークスベクトル[Sinj]を求めるとき、前述の各光学素子を、例えば、図27の表2に示した、いずれかの方位角度(θP1,θR1,θR2,θP2)に設定し、設定した方位角度について、項目3−1で説明したようにStep1ならびにStep2の処理動作を行って、測定装置901に試料913を設置していないときの伝達行列A並びに逆行列A-1を求め、これを用いて入射ストークスベクトル[Sin1]、[Sin2]、[Sin3]、[Sin4]を求める。なお、これらの入射ストークスベクトルは、図19に示したように各々4つの要素からなるものである。
FIG. 19 is an explanatory view showing an incident Stokes vector obtained by the calculation means 916 shown in FIG.
When the calculation means 916 obtains the incident Stokes vector [S inj ], for example, any of the azimuth angles (θ P1 , θ R1 , θ R2 , θ) shown in Table 2 of FIG. The transfer matrix A and the inverse matrix when the sample 913 is not installed in the measuring apparatus 901 by performing the processing operations of Step 1 and Step 2 as described in the item 3-1 with respect to the azimuth angle set in P2 ) and set. A- 1 is determined, and incident Stokes vectors [S in1 ], [S in2 ], [S in3 ], and [S in4 ] are determined using this. These incident Stokes vectors are each composed of four elements as shown in FIG.
具体的には、演算処理16は、設定されている(例えば、図27の表2に示した入射パターン1の)位相板R2と偏光子P2の各方位θR2、θP2の値を示すデータを取得し、これらの値とStep1で求めた位相差δ2とを用いて、式(2)の演算を行う。また、式(2)の演算によって取得した光強度I1-1〜I4-1を用いて伝達行列Aを求め、さらに逆行列A-1を求める。
次に、当該入射パターン1で取得した各光強度と逆行列A-1とを用いて、前述の式(4)から入射ストークスベクトル[Sin1]の要素(S0inl,S1inl,S2inl,S3inl)を算出する。
この後、項目3−2で説明したように偏光状態が重複しないように、各光学素子の方位角度等を設定し、例えば図27の表2に示した入射パターン2〜4に示した各設定値についても、入射パターン1と同様な演算処理を行い、図19に示した4つのパターンの偏光状態を示す4つの入射ストークスベクトル[Sin1]、[Sin2]、[Sin3]、[Sin4]、もしくは、これらのベクトル要素を求める。
Specifically, the arithmetic processing 16 is data indicating the values of the respective orientations θ R2 and θ P2 of the phase plate R2 and the polarizer P2 which have been set (for example, for the incident pattern 1 shown in Table 2 of FIG. 27) acquires, by using the phase difference [delta] 2 obtained in these values and Step1, performs calculation of the equation (2). Further, the transfer matrix A is determined using the light intensities I 1-1 to I 4-1 acquired by the calculation of the equation (2), and the inverse matrix A −1 is determined.
Next, using the respective light intensities acquired in the incident pattern 1 and the inverse matrix A −1 , the elements (S 0inl , S 1inl , S 2inl ,) of the incident Stokes vector [S in1 ] from the above equation (4) Calculate S 3inl ).
After that, as described in the item 3-2, the azimuth angle etc. of each optical element is set so that the polarization state does not overlap, for example, each setting shown in the incident patterns 2 to 4 shown in Table 2 of FIG. Also for the values, the same calculation processing as for incident pattern 1 is performed, and the four incident Stokes vectors [S in1 ], [S in2 ], [S in 3 ], [S in 3 ], and [S in 3 ] that indicate the polarization states of the four patterns shown in FIG. in 4 ] or determine these vector elements.
図20は、図18の演算処理16が求める透過後ストークスベクトルを示す説明図である。
演算手段916は、透過後ストークスベクトル[Soutj]を求めるとき、前述の各光学素子を、例えば、図27の表2に示したいずれかの方位角度(θP1,θR1,θR2,θP2)に設定し、設定した方位角度について、項目3−3で説明したようにStep1ならびにStep2の動作処理を行って、測定装置901に試料913を設置して光入射させたときの伝達行列Aならびに逆行列A-1を求め、これを用いて透過後ストークスベクトル[Sout1]、[Sout2]、[Sout3]、[Sout4]を求める。なお、これらの透過後ストークスベクトルは、図20に示したように各々4つの要素からなる。
FIG. 20 is an explanatory view showing a Stokes vector after transmission found by the calculation processing 16 of FIG.
When the arithmetic means 916 obtains the Stokes vector [S outj ] after transmission, for example, any of the azimuth angles (θ P1 , θ R1 , θ R2 , θ) shown in Table 2 of FIG. Transfer matrix A when the sample 913 is installed in the measuring apparatus 901 and light is incident on the azimuth angle set in P2 ) and the operation processing of Step 1 and Step 2 as described in item 3-3 for the azimuth angle set. Also, the inverse matrix A -1 is obtained, and the transmitted Stokes vectors [S out1 ], [S out2 ], [S out3 ], [S out4 ] are obtained using this. Note that these post-transmission Stokes vectors each consist of four elements as shown in FIG.
図21は、図18の測定装置901に設置される試料913の一例を示す説明図である。図示した試料913は、例えば、2種類の位相差フィルムをガラス基板に貼り付け固定し、各位相差フィルムの主軸方位が直交するように構成されたものである。
具体的に透過後ストークスベクトル[Soutj]を求めるとき、測定装置901の試料ステージに、例えば、図21に示した試料913を設置固定し、光源911から光照射を行って、偏光変調部912を介して試料913へ入射させ、試料913の出射光を偏光解析部914を介して検出器915へ入射させる。このとき、偏光変調部912の偏光子P1と位相板R1、および偏光解析部914の位相板R2と偏光子P2の各方位角度等は、入射ストークスベクトル[Sinl]を求めたときと同様に、例えば図27の表2に示した値に設定され、演算手段916は、例えば入射パターン1の各値に設定されたときの各光強度を測定してメモリ等に記憶させる。
FIG. 21 is an explanatory view showing an example of the sample 913 installed in the measuring apparatus 901 of FIG. The illustrated sample 913 is configured such that, for example, two types of retardation films are attached and fixed to a glass substrate, and the principal axis orientations of the respective retardation films are orthogonal to each other.
Specifically, when the post-transmission Stokes vector [S outj ] is to be determined, for example, the sample 913 shown in FIG. The light emitted from the sample 913 is made incident on the detector 915 via the polarization analysis unit 914. At this time, azimuth angles and the like of the polarizer P1 and the phase plate R1 of the polarization modulation unit 912, and the azimuth angles of the phase plate R2 and the polarizer P2 of the polarization analysis unit 914 are the same as when the incident Stokes vector [S inl ] is determined. For example, the values are set to the values shown in Table 2 of FIG. 27, and the calculation means 916 measures each light intensity when it is set to each value of the incident pattern 1, for example, and stores it in a memory or the like.
この後、メモリ等に記憶させた光強度を用いて、前述の入射ストークスベクトル[Sinl]の要素(S0inl,S1inl,S2inl,S3inl)を求めたときと同様な演算処理を行い、試料913を設置したとき、(試料913透過後)の透過後ストークスベクトル(S0out1)の要素(S0out1,S1out1,S2out1,S3out1)を算出する。
次に、前述の入射ストークスベクトル[Sinl]を求めたときと同様に、偏光状態が重複しないように各光学素子の方位角度等を設定し、例えば表2に示した入射パターン2〜4に示した各設定値についても、入射パターン1と同様な演算処理を行い、図20に示した4つのパターンの偏光状態を示す4つの透過後ストークスベクトル[Sout1]、[Sout2]、[Sout3]、[Sout4]、もしくは、これらのベクトル要素を求める。
Thereafter, using the light intensity stored in the memory or the like, the same calculation processing as when the elements (S 0inl , S 1inl , S 2inl , S 3inl ) of the aforementioned incident Stokes vector [S inl ] are determined is performed. When the sample 913 is set, the elements (S 0out 1 , S 1out 1 , S 2out 1 , S 3out 1 ) of the post-transmission Stokes vector (S 0out 1 ) of (after transmission of the sample 913) are calculated.
Next, as in the case of obtaining the incident Stokes vector [S inl ] described above, the azimuth angle etc. of each optical element is set so that the polarization states do not overlap, for example, in the incident patterns 2 to 4 shown in Table 2. Also for each set value shown, the same calculation processing as for incident pattern 1 is performed, and four post-transmission Stokes vectors [S out1 ], [S out2 ], [S shown the polarization states of the four patterns shown in FIG. out3 ], [S out4 ], or these vector elements are determined.
このように求めた入射ストークスベクトル[Sin1]、[Sin2]、[Sin3]、[Sin4]と透過後ストークスベクトル[Sout1]、[Sout2]、[Sout3]、[Sout4]を用いて、試料913のミュラー行列Mを式(7)の演算によって算出する。
図22は、演算手段916が算出した試料913のミュラー行列Mを示す説明図である。この図は、図21に示した試料913について、測定装置901を用いて求めたミュラー行列Mを示したものである。図22(a)はミュラー行列Mを構成する各要素の偏光状態をグラフィカルに示し、図22(b)は、当該ミュラー行列Mの各要素の大きさ、もしくは数値を示している。
The incident Stokes vectors [S in1 ], [S in2 ], [S in3 ], [S in4 ] and the post-transmission Stokes vectors [S out1 ], [S out2 ], [S out3 ], [S out4 ] thus obtained. ] Is used to calculate the Mueller matrix M of the sample 913 by the operation of equation (7).
FIG. 22 is an explanatory drawing showing the Mueller matrix M of the sample 913 calculated by the calculation means 916. This figure shows the Mueller matrix M obtained using the measuring device 901 for the sample 913 shown in FIG. FIG. 22 (a) graphically shows the polarization state of each element constituting the Mueller matrix M, and FIG. 22 (b) shows the size or numerical value of each element of the Mueller matrix M.
次に、演算手段916は、算出したミュラー行列Mの要素から、各偏光状態を排出する。具体的には、式(6)に示したミュラー行列Mの各要素を用いて次の各式の演算を行い、試料913の偏光特性を定量化する。 Next, operation means 916 discharges each polarization state from the elements of the calculated Mueller matrix M. Specifically, using the elements of the Mueller matrix M shown in the equation (6), the following equations are calculated to quantify the polarization characteristics of the sample 913.
図23は、ミュラー行列の要素から抽出した偏光状態を示す説明図である。この図は、上記の各式を用いて算出した、試料913の偏光特性の解析結果を示したもので、図23(a)は試料913の複屈折位相差を示し、図23(b)は試料913の主軸方位を示し、図23(c)は試料913の特性測定における偏光解消度を示している。 FIG. 23 is an explanatory drawing showing polarization states extracted from elements of the Mueller matrix. This figure shows the analysis result of the polarization characteristic of the sample 913 calculated using each of the above formulas, and FIG. 23 (a) shows the birefringence phase difference of the sample 913, and FIG. 23 (b) shows The principal axis orientation of the sample 913 is shown, and FIG. 23C shows the depolarization degree in the characteristic measurement of the sample 913.
図24は、図18の測定装置901を用いて測定した偏光特性の一例を示す説明図である。例えば、設計波長が633nmの位相板(位相差90度のλ/4板)を試料913として偏光特性を測定したとき、測定装置901の光源911は波長が780nmなので、この試料913によって生じる位相差は約75度となり、上記のように光源911の波長と試料913の設計波長が異なる場合では、図24に示した程度の誤差が測定結果に生じる。
図25は、本関連技術を用いた測定結果と一般的な測定(解析)方法を用いた測定結果を示す説明図である。この図は、試料913(図中サンプルと表記)の複屈折位相差を測定したときの測定(解析)結果を示したもので、縦軸に解析結果(位相差の角度)を示し、横軸に試料913(サンプル)の位相差(角度)を示している。なお、この図に示した、一般的な解析方法を用いた測定装置の測定(解析)結果については、当該装置に備えられた、試料からの出射光を入射する位相板R2(本関連技術の測定装置901においては偏光解析部914の位相板R2に相当するもの)として、位相差60度〜120度の範囲内において、位相板R2を理想的なλ/4波長板と仮定する一般的な解析法を用いた複屈折位相差の計算結果である。
FIG. 24 is an explanatory view showing an example of polarization characteristics measured using the measuring apparatus 901 of FIG. For example, when the polarization characteristic is measured using a phase plate with a design wavelength of 633 nm (λ / 4 plate with a phase difference of 90 degrees) as the sample 913, the light source 911 of the measuring apparatus 901 has a wavelength of 780 nm. Becomes approximately 75 degrees, and when the wavelength of the light source 911 and the design wavelength of the sample 913 are different as described above, an error of the degree shown in FIG. 24 occurs in the measurement result.
FIG. 25 is an explanatory view showing a measurement result using the related art and a measurement result using a general measurement (analysis) method. This figure shows the measurement (analysis) result when measuring the birefringence phase difference of the sample 913 (shown as a sample in the figure), and the analysis result (angle of phase difference) is shown on the vertical axis, the horizontal axis The phase difference (angle) of the sample 913 (sample) is shown in FIG. As for the measurement (analysis) results of the measurement apparatus using the general analysis method shown in this figure, the phase plate R2 (in this related art) provided in the apparatus and into which the light emitted from the sample is incident In the measuring apparatus 901, as the phase plate R2 of the polarization analysis unit 914), it is generally assumed that the phase plate R2 is an ideal λ / 4 wavelength plate within the range of 60 degrees to 120 degrees of phase difference. It is a calculation result of the birefringence phase difference using an analysis method.
図25に示した一般的な測定装置の測定(解析)結果は、複屈折率位相差の誤差が10〜20%程度となる。これに対して、本関連技術の測定装置901の測定(解析)結果は、図28の表3に示したように誤差が約5%以内となる。
このことから、本関連技術の測定装置901は、演算手段916がミュラー行列Mと逆行列による補正を用いた演算処理を行うことにより、当該測定装置901に備えられた光学素子等に存在する非理想性を解消して試料913が有する本来の偏光特性に、より近い結果を得ることができる。換言すると、各光学素子等が持つ非理想性を補正して、当該光学素子等による偏光特性の誤差を解消することができるという効果が得られる。
The measurement (analysis) result of the general measurement device shown in FIG. 25 is that the error of the birefringence phase difference is about 10 to 20%. On the other hand, the measurement (analysis) result of the measuring apparatus 901 of this related art has an error within about 5% as shown in Table 3 of FIG.
From this, the measuring device 901 according to the related art performs the arithmetic processing using the correction based on the Mueller matrix M and the inverse matrix in the calculating unit 916, whereby the non-existent in the optical element etc. included in the measuring device 901. It is possible to eliminate the ideality and obtain a result closer to the original polarization characteristic of the sample 913. In other words, it is possible to correct the non-ideality of each optical element or the like and to eliminate the error of the polarization characteristic due to the optical element or the like.
また、光学素子等が有する偏光特性の誤差を解消することができるので、試料913と各光学素子等に設定されている光波長が異なっている場合でも、精度良く試料913の偏光特性を測定することができる。
また、偏光特性を測定するときのサンプリング数を16に抑制することができ、測定結果を算出するまでの時間を短時間に抑えることが可能になる。
In addition, since an error in polarization characteristics of an optical element or the like can be eliminated, the polarization characteristics of the sample 913 can be accurately measured even when the light wavelengths set for the sample 913 and each optical element or the like are different. be able to.
Further, the number of samplings when measuring the polarization characteristic can be suppressed to 16 and the time until calculation of the measurement result can be suppressed to a short time.
本発明は、偏光を用いてサンプル(試料)を観察する検査・測定に係る技術、サンプルを被写体として写真撮影を行う撮影技術、サンプルの偏光特性を計算する偏光計算技術などに適用可能である。 The present invention can be applied to techniques relating to inspection and measurement for observing a sample (a sample) using polarized light, photographing technology for photographing a sample as a subject, polarization calculation technology for calculating polarization characteristics of a sample, and the like.
10 被写体
101 透過照明用光源
102 光源側光学素子
102a、105b 偏光子
102b、105a QWP
103 回転テーブル
104 反射照明用光源
105 カメラ側光学素子
106 カメラ
200 撮影制御装置
201 透過照明用光源制御部
202 光源側光学素子制御部
203 回転テーブル制御部
204 反射照明用光源制御部
205 カメラ側光学素子制御部
206 カメラ制御部
300 PC
400 記憶装置
500 表示装置
901 測定装置
911 光源
912 偏光変調部
913 試料
914 偏光解析部
915 検出器
916 演算手段
10 Subject 101 Light Source for Transmitting Illumination 102 Light Source Side Optical Element 102 a, 105 b Polarizer 102 b, 105 a QWP
DESCRIPTION OF SYMBOLS 103 Rotating table 104 Light source for reflective illumination 105 Camera side optical element 106 Camera 200 Imaging control device 201 Light source control part 202 for transmissive illuminations Light source side optical element control part 203 Rotation table control part 204 Reflective light source control part 205 Camera side optical element Control unit 206 Camera control unit 300 PC
400 storage device 500 display device 901 measurement device 911 light source 912 polarization modulation unit 913 sample 914 polarization analysis unit 915 detector 916 calculation means
Claims (16)
前記第1の光源から入射された光を、第1の偏光状態に変更して透過させる第1の光学素子と、
前記第1の光学素子から入射された光を、第2の偏光状態に変更して透過させる第2の光学素子と、
前記第1の光学素子と前記第2の光学素子との間の光軸上に被写体が配置されていない場合には、前記第2の光学素子から入射された光を受光して電気信号に変換し、前記第1の光学素子と前記第2の光学素子との間の光軸上に前記被写体が配置されている場合には、前記被写体を透過した光を含めて前記第2の光学素子から入射された光を受光して電気信号に変換し、前記電気信号を画像データとして出力する撮影処理を行うよう構成されている撮影装置と、
前記被写体を支持するととともに、前記被写体を回転させて、前記光軸に対して前記被写体の向きを変更するよう構成されている回転装置と、
前記第1の光学素子、前記第2の光学素子、前記回転装置を制御して、前記第1の偏光状態、前記第2の偏光状態、前記被写体の向きの各条件を組み合わせた複数通りの状態を作るよう構成されており、前記複数通りの状態の各状態において順次、前記撮影処理を行うよう前記撮影装置を制御する撮影制御装置とを、
有する撮影システム。 A first light source,
A first optical element for changing light transmitted from the first light source to a first polarization state and transmitting the light;
A second optical element for changing light transmitted from the first optical element into a second polarization state and transmitting the light;
When a subject is not disposed on the optical axis between the first optical element and the second optical element, the light incident from the second optical element is received and converted into an electric signal. When the subject is disposed on the optical axis between the first optical element and the second optical element, the light from the second optical element including the light transmitted through the subject An imaging device configured to perform an imaging process of receiving incident light and converting it into an electrical signal and outputting the electrical signal as image data;
A rotating device configured to support the subject and to rotate the subject to change the orientation of the subject with respect to the optical axis;
A plurality of states combining conditions of the first polarization state, the second polarization state, and the direction of the subject by controlling the first optical element, the second optical element, and the rotation device. A photographing control device configured to control the photographing device to sequentially perform the photographing processing in each state of the plurality of states;
Has a shooting system.
前記撮影制御装置は、さらに前記第2の光源を制御して、前記第1の光源の点灯/消灯、前記第2の光源の点灯/消灯、前記第1の偏光状態、前記第2の偏光状態、前記被写体の向きの各条件を組み合わせた複数通りの状態を作るよう構成されている請求項1又は2に記載の撮影システム。 And a second light source disposed closer to the imaging device than the subject,
The photographing control device further controls the second light source to turn on / off the first light source, turn on / off the second light source, the first polarization state, and the second polarization state. The imaging system according to claim 1 or 2, configured to create a plurality of states combining each condition of the direction of the subject.
前記撮影制御装置は、前記偏光子の透過軸方位及び前記波長板の主軸方位の少なくとも一方又は両方の方位角度を設定することで、前記第1の偏光状態を所望の状態に設定するよう構成されている請求項1から3のいずれか1つに記載の撮影システム。 The first optical element has a configuration in which a polarizer and a wave plate are disposed in this order from the light source side,
The imaging control device is configured to set the first polarization state to a desired state by setting an azimuth angle of at least one or both of the transmission axis direction of the polarizer and the principal axis direction of the wave plate. The imaging system according to any one of claims 1 to 3.
前記撮影制御装置は、前記複数の波長板を切り替えて、前記複数の波長板のいずれか1つが前記光軸上に配置された状態、又は、前記複数の波長板のいずれも前記光軸上に配置されない状態とすることで、前記第1の偏光状態を所望の状態に設定するよう構成されている請求項4に記載の撮影システム。 The first optical element includes a plurality of wavelength plates in which the main axis direction is set in advance,
The imaging control apparatus switches the plurality of wavelength plates, and any one of the plurality of wavelength plates is disposed on the optical axis, or any of the plurality of wavelength plates is on the optical axis 5. The imaging system according to claim 4, wherein the first polarization state is set to a desired state by setting the first polarization state not to be disposed.
前記撮影制御装置は、前記波長板の主軸方位及び前記偏光子の透過軸方位の少なくとも一方又は両方の方位角度を設定することで、前記第2の偏光状態を所望の状態に設定するよう構成されている請求項1から5のいずれか1つに記載の撮影システム。 The second optical element has a configuration in which the light source, the wavelength plate, and the polarizer are arranged in this order,
The imaging control device is configured to set the second polarization state to a desired state by setting an azimuth angle of at least one or both of the principal axis direction of the wave plate and the transmission axis direction of the polarizer. The imaging system according to any one of claims 1 to 5.
前記撮影制御装置は、前記第2の光学素子の前記波長板を回転させて前記波長板の主軸方位の方位角度を設定することで、前記第2の偏光状態を所望の状態に設定するよう構成されている請求項6に記載の撮影システム。 The wave plate of the second optical element is configured to be rotatable with the direction of the optical axis as a rotation axis,
The imaging control apparatus is configured to set the second polarization state to a desired state by rotating the wave plate of the second optical element to set the azimuth angle of the principal axis direction of the wave plate. The imaging system according to claim 6.
前記撮影制御装置は、前記複数の偏光子を切り替えて、前記複数の偏光子のいずれか1つが前記光軸上に配置された状態、又は、前記複数の偏光子のいずれも前記光軸上に配置されない状態とすることで、前記第2の偏光状態を所望の状態に設定するよう構成されている請求項6又は7に記載の撮影システム。 The second optical element includes a plurality of polarizers having transmission axis orientations set in advance.
The imaging control device switches the plurality of polarizers, and any one of the plurality of polarizers is disposed on the optical axis, or any of the plurality of polarizers is disposed on the optical axis 8. The imaging system according to claim 6, wherein the second polarization state is set to a desired state by setting the second polarization state to a non-arranged state.
前記偏光計算部によって計算された前記各ピクセルに対応した前記被写体の偏光特性を表す前記数値を用いて、新たな画像データを生成する画像データ生成部とを、
有する請求項13に記載の画像処理装置。 A polarization calculation unit that calculates a numerical value representing the polarization characteristic of the subject corresponding to each of the pixels using the luminance value of each pixel included in each of the plurality of image data;
An image data generation unit for generating new image data using the numerical value representing the polarization characteristic of the subject corresponding to each pixel calculated by the polarization calculation unit;
The image processing apparatus according to claim 13, comprising:
前記所定の記憶装置から読み出された前記複数の画像データを用いた画像処理を行うステップとを、
有する画像処理方法。 A plurality of image data corresponding to each state of the plurality of states obtained by the imaging system according to any one of claims 1 to 12 is read from a predetermined storage device;
Performing image processing using the plurality of image data read from the predetermined storage device;
Image processing method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017252990A JP7142201B2 (en) | 2017-12-28 | 2017-12-28 | Imaging system, image processing device, and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017252990A JP7142201B2 (en) | 2017-12-28 | 2017-12-28 | Imaging system, image processing device, and image processing method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019120501A true JP2019120501A (en) | 2019-07-22 |
| JP7142201B2 JP7142201B2 (en) | 2022-09-27 |
Family
ID=67306224
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017252990A Active JP7142201B2 (en) | 2017-12-28 | 2017-12-28 | Imaging system, image processing device, and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7142201B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102281167B1 (en) * | 2020-02-27 | 2021-07-26 | 전북대학교산학협력단 | Apparatus and method for measuring the retardation of a retarder based on a stokes polarimeter |
| JP2022176681A (en) * | 2021-05-17 | 2022-11-30 | 東亜建設工業株式会社 | Acquisition method and acquisition system of image data |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS59114445A (en) * | 1982-12-21 | 1984-07-02 | Yamamura Glass Kk | Apparatus for detecting defect of transparent body |
| JP2005509153A (en) * | 2001-10-16 | 2005-04-07 | ハインズ インスツルメンツ インコーポレイテッド | Accurate calibration of birefringence measurement system |
| JP2006145305A (en) * | 2004-11-18 | 2006-06-08 | Topcon Corp | Surface inspection device |
| JP2007199087A (en) * | 2005-11-18 | 2007-08-09 | Raax Co Ltd | System and method for simply determining fibrous mineral |
| JP2010121935A (en) * | 2007-11-05 | 2010-06-03 | Nippon Sheet Glass Co Ltd | Polarized image picking-up device and image processing device |
| JP2013015443A (en) * | 2011-07-05 | 2013-01-24 | Fujifilm Corp | Method and device for measuring optical characteristics |
| JP5582584B2 (en) * | 2012-03-22 | 2014-09-03 | 日本ビジュアルサイエンス株式会社 | Display image data file generation device, display device, and program |
| JP2015075329A (en) * | 2013-10-04 | 2015-04-20 | 浜松ホトニクス株式会社 | Method and apparatus for measuring circular dichroism |
| US20160116397A1 (en) * | 2013-05-23 | 2016-04-28 | Hinds Instruments, Inc. | Polarization properties imaging systems |
| JP2017058559A (en) * | 2015-09-17 | 2017-03-23 | キヤノン株式会社 | Optical apparatus and imaging apparatus |
-
2017
- 2017-12-28 JP JP2017252990A patent/JP7142201B2/en active Active
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS59114445A (en) * | 1982-12-21 | 1984-07-02 | Yamamura Glass Kk | Apparatus for detecting defect of transparent body |
| JP2005509153A (en) * | 2001-10-16 | 2005-04-07 | ハインズ インスツルメンツ インコーポレイテッド | Accurate calibration of birefringence measurement system |
| JP2006145305A (en) * | 2004-11-18 | 2006-06-08 | Topcon Corp | Surface inspection device |
| JP2007199087A (en) * | 2005-11-18 | 2007-08-09 | Raax Co Ltd | System and method for simply determining fibrous mineral |
| JP2010121935A (en) * | 2007-11-05 | 2010-06-03 | Nippon Sheet Glass Co Ltd | Polarized image picking-up device and image processing device |
| JP2013015443A (en) * | 2011-07-05 | 2013-01-24 | Fujifilm Corp | Method and device for measuring optical characteristics |
| JP5582584B2 (en) * | 2012-03-22 | 2014-09-03 | 日本ビジュアルサイエンス株式会社 | Display image data file generation device, display device, and program |
| US20160116397A1 (en) * | 2013-05-23 | 2016-04-28 | Hinds Instruments, Inc. | Polarization properties imaging systems |
| JP2015075329A (en) * | 2013-10-04 | 2015-04-20 | 浜松ホトニクス株式会社 | Method and apparatus for measuring circular dichroism |
| JP2017058559A (en) * | 2015-09-17 | 2017-03-23 | キヤノン株式会社 | Optical apparatus and imaging apparatus |
Non-Patent Citations (2)
| Title |
|---|
| HILLAR ABEN ET AL.: "Photoelastic tomography for residual stress measurement in glass", OPTICAL ENGINEERING, vol. 44, no. 9, JPN6021042273, September 2005 (2005-09-01), pages 093601 - 1, ISSN: 0004764645 * |
| 村越 英樹 他: "偏光イメージングのための多角的撮像システムの樹脂成形品評価への応用", プラスチックス, vol. 第67巻第10号, JPN6021042276, October 2016 (2016-10-01), pages 7 - 11, ISSN: 0004764646 * |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102281167B1 (en) * | 2020-02-27 | 2021-07-26 | 전북대학교산학협력단 | Apparatus and method for measuring the retardation of a retarder based on a stokes polarimeter |
| JP2022176681A (en) * | 2021-05-17 | 2022-11-30 | 東亜建設工業株式会社 | Acquisition method and acquisition system of image data |
| JP7281500B2 (en) | 2021-05-17 | 2023-05-25 | 東亜建設工業株式会社 | Image data acquisition method and acquisition system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7142201B2 (en) | 2022-09-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Feng et al. | General solution for high dynamic range three-dimensional shape measurement using the fringe projection technique | |
| CN103852033B (en) | Measuring microscope device, image producing method and computer readable recording medium storing program for performing | |
| Huang et al. | Target enhanced 3D reconstruction based on polarization-coded structured light | |
| US12288375B2 (en) | Acquisition of optical characteristics | |
| CN109642787A (en) | The System and method for of 3D surface measurement | |
| JP2015132509A (en) | Image data acquiring system, and image data acquiring method | |
| JP2011002240A (en) | Three-dimensional shape measurement method and device | |
| CN109872382A (en) | Image processing system and image processing method | |
| CN107076663A (en) | Double refraction detection device and double refraction detecting method | |
| Zaman et al. | Simultaneous capture of the color and topography of paintings using fringe encoded stereo vision | |
| López-Téllez et al. | Broadband extended source imaging Mueller-matrix polarimeter | |
| JP2017129561A (en) | Measuring system, information processing device, information processing method, and program | |
| CN115867846A (en) | Method and digital in-line holographic microscope scanner comprising determination of a quantitatively dispersed image of an object | |
| JP7142201B2 (en) | Imaging system, image processing device, and image processing method | |
| TW201925746A (en) | Defect inspection device and defect inspection method | |
| KR101739096B1 (en) | Device and method for inspecting external appearance of display panel | |
| EP4377893A2 (en) | Acquisition of optical characteristics | |
| CN104584075B (en) | Object points for describing object spaces and connection methods for their execution | |
| Nogue et al. | Polarization-imaging Surface Reflectometry using Near-field Display. | |
| Amano et al. | Enhancing materiality in adaptive BRDF display with light ray diffusion | |
| JP2019090647A (en) | Method for determining position of liquid crystal display element in projection unit of inspection device | |
| CN111982025A (en) | Point cloud data acquisition method and system for mold detection | |
| KR102171773B1 (en) | Inspection area determination method and visual inspection apparatus using the same | |
| KR102485214B1 (en) | Apparatus and method of executing vision inspection by using a plurality of hologram devices | |
| WO2023007121A2 (en) | Acquisition of optical characteristics |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20180117 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180117 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201202 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201210 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210827 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211026 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211213 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220509 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220630 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220811 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7142201 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |