[go: up one dir, main page]

JP2020098963A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2020098963A
JP2020098963A JP2018235411A JP2018235411A JP2020098963A JP 2020098963 A JP2020098963 A JP 2020098963A JP 2018235411 A JP2018235411 A JP 2018235411A JP 2018235411 A JP2018235411 A JP 2018235411A JP 2020098963 A JP2020098963 A JP 2020098963A
Authority
JP
Japan
Prior art keywords
image
basic
lattice pattern
imaging device
distortion correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018235411A
Other languages
Japanese (ja)
Inventor
和幸 田島
Kazuyuki Tajima
和幸 田島
良太 川俣
Ryota Kawamata
良太 川俣
悠介 中村
Yusuke Nakamura
悠介 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018235411A priority Critical patent/JP2020098963A/en
Publication of JP2020098963A publication Critical patent/JP2020098963A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

【課題】簡易な構成で、薄型であり、かつ、歪みのない状態で接写時の視野を拡大した撮像装置を提供する。【解決手段】撮像装置は、撮像面にアレイ状に配列された複数の画素に取り込まれた光学像を画像信号に変換して出力する画像センサと、画像センサの受光面に設けられ、格子パターンを用いて光の強度を変調する変調部と、画像センサより出力された出力画像に対して所定の画像処理を施す画像処理部と、画像処理部から出力された画像に対して歪み補正を行う画像歪み補正部と、画像歪み補正部に画像歪み補正用の設定値を受け渡す画像歪み補正設定値入力部と、を備える。【選択図】図30Provided is an imaging device having a simple configuration, a thin shape, and a wide field of view at the time of close-up photography without distortion. An image pickup device includes an image sensor that converts an optical image captured by a plurality of pixels arranged in an array on an image pickup surface into an image signal and outputs the image signal, and a light receiving surface of the image sensor. A modulation unit that modulates the intensity of light using the image processing unit, an image processing unit that performs predetermined image processing on the output image output from the image sensor, and distortion correction on the image output from the image processing unit. An image distortion correction unit and an image distortion correction setting value input unit that transfers setting values for image distortion correction to the image distortion correction unit are provided. [Selection diagram] Fig. 30

Description

本発明は、撮像装置に関する。 The present invention relates to an imaging device.

IoT(Internet of things)デバイスやウェアラブルデバイスなどのデバイスに搭載する撮像装置は、限られたスペースへ組み込むために薄型化と低コスト化が求められる。そこで、例えば特許文献1のようにレンズを用いることなく物体像を得ることができる撮像方式が提案されている。また、例えば特許文献2では、マイクロレンズアレイを用いた「携帯用情報機器に設置することが可能な厚さの小さい指認証装置を可能にする撮像装置」が提案されている。 An imaging device mounted on a device such as an IoT (Internet of things) device or a wearable device is required to be thin and low in cost in order to be incorporated in a limited space. Therefore, for example, as in Patent Document 1, an imaging method capable of obtaining an object image without using a lens has been proposed. Further, for example, Patent Document 2 proposes an “imaging device that enables a finger authentication device with a small thickness that can be installed in a portable information device” using a microlens array.

米国特許出願公開第2015/0219808号明細書US Patent Application Publication No. 2015/0219808 特開2011−203792号公報JP, 2011-203792, A

上述の特許文献1は、画像センサ前に特殊な格子パターンを配置し、画像センサで受光する格子パターンの斜影パターンを用いて信号処理により逆問題を解くことで物体の像を得る撮像方式である。この撮像方式は、撮像装置の薄型化を可能とするが、像を得るための演算が複雑になるという問題がある。 The above-mentioned Patent Document 1 is an imaging method in which a special lattice pattern is arranged in front of the image sensor, and an inverse problem is solved by signal processing using a diagonal pattern of the lattice pattern received by the image sensor to obtain an image of the object. .. This imaging method enables the imaging device to be thin, but has a problem that the calculation for obtaining an image becomes complicated.

また、上述の特許文献2は、「前段のマイクロレンズアレイと絞りアレイとを対向させ、前段のマイクロレンズアレイの被写体からの光の焦点近傍に絞りアレイの絞りを設けて、更に後段のマイクロレンズアレイによって光の集束も同時に行う」ことで、「指静脈認証装置に用いる光学系を小さくし、小型・薄型の指静脈認証装置を実現することができる」撮像方式である。この撮像方式は、特に、接写可能な撮像装置の薄型化を可能とするが、レンズによる集光に距離が必要である点と、2つのレンズアレイを配置する空間が必要である点で、薄型化の限界となっている。 In addition, Japanese Patent Laid-Open No. 2004-242242 discloses that "a microlens array in the front stage and a diaphragm array are opposed to each other, a diaphragm of the diaphragm array is provided in the vicinity of the focal point of light from a subject in the microlens array in the front stage, and a microlens in the rear stage is further provided. This is an imaging method in which the optical system used for the finger vein authentication device can be made small and a small and thin finger vein authentication device can be realized by "focusing light at the same time by the array". This imaging method enables a thin imaging device capable of close-up photography, but is thin because it requires a distance for condensing by a lens and a space for arranging two lens arrays. Has become the limit.

本発明の目的は、簡易な構成で、薄型であり、かつ、歪みのない状態で接写時の視野を拡大した撮像装置を提供することを目的とする。 It is an object of the present invention to provide an image pickup apparatus having a simple structure, a thin shape, and a wide field of view at the time of close-up photography without distortion.

本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。 The present application includes a plurality of means for solving at least a part of the above problems, and examples thereof are as follows.

本発明の一態様は、撮像装置であって、撮像面にアレイ状に配列された複数の画素に取り込まれた光学像を画像信号に変換して出力する画像センサと、上記画像センサの受光面に設けられ、格子パターンを用いて光の強度を変調する変調部と、上記画像センサより出力された出力画像に対して所定の画像処理を施す画像処理部と、上記画像処理部から出力された画像に対して歪み補正を行う画像歪み補正部と、上記画像歪み補正部に画像歪み補正用の設定値を受け渡す画像歪み補正設定値入力部と、を備える。 One embodiment of the present invention is an imaging device, which includes an image sensor that converts an optical image captured by a plurality of pixels arranged in an array on the imaging surface into an image signal and outputs the image signal, and a light-receiving surface of the image sensor. A modulation unit that modulates the intensity of light using a lattice pattern, an image processing unit that performs predetermined image processing on the output image output from the image sensor, and an output from the image processing unit. An image distortion correction unit that performs distortion correction on an image, and an image distortion correction set value input unit that transfers a set value for image distortion correction to the image distortion correction unit are provided.

本発明によれば、簡易な構成で、薄型であり、かつ、歪みのない状態で接写時の視野を拡大した撮像装置を提供することができる。 According to the present invention, it is possible to provide an image pickup apparatus having a simple structure, a thin shape, and a wide field of view at the time of close-up photography without distortion.

上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

第1実施形態に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which concerns on 1st Embodiment. 変調器の構成例を示す図である。It is a figure which shows the structural example of a modulator. 変調器の他の構成例を示す図である。It is a figure which shows the other structural example of a modulator. 撮像装置を用いて外界の物体を撮影する様子を示す図である。It is a figure which shows a mode that the external object is imaged using an imaging device. 画像処理部の画像処理の一例を示すフローチャートである。It is a flow chart which shows an example of image processing of an image processing part. 斜め入射平行光による格子基板表面から裏面への射影像が面内ずれを生じることを説明する図である。It is a figure explaining that the projection image from the grating substrate front surface to the back surface due to obliquely incident parallel light causes in-plane displacement. 格子基板両面の格子の軸がそろった場合のモアレ縞の生成と周波数スペクトルを説明する図であり、(a)は入射角:0の場合を示し、(b)は入射角:+θの場合を示し、(c)は入射角:−θの場合を示す。It is a figure explaining generation|occurrence|production of a moire fringe and frequency spectrum when the axis of the grating|lattice on both surfaces of a grating|lattice board|substrate is aligned, (a) shows the case of an incident angle: 0, (b) shows the case of an incident angle: +(theta). (C) shows the case where the incident angle is −θ. 表面格子と裏面格子の軸をずらして配置した格子基板の一例を示す図である。It is a figure which shows an example of the grating|lattice board which has arrange|positioned the axis|shaft of the surface grating|lattice and the back surface grating|lattice offset. 格子基板両面の格子をずらして配置する場合のモアレ縞の生成と周波数スペクトルを説明する図であり、(a)は入射角:0の場合を示し、(b)は入射角:+θの場合を示し、(c)は入射角:−θの場合を示す。It is a figure explaining generation|occurrence|production of a moire fringe and frequency spectrum at the time of arranging a grating|lattice on both surfaces of a grating|lattice substrate, (a) shows the case of an incident angle: 0, (b) shows the case of an incident angle: +(theta). (C) shows the case where the incident angle is −θ. 格子パターンの一例を示す図である。It is a figure which shows an example of a lattice pattern. 格子パターンの他の例を示す図である。It is a figure which shows the other example of a lattice pattern. 格子パターンのさらに他の例を示す図である。It is a figure which shows the further another example of a lattice pattern. 物体を構成する各点からの光が画像センサに対してなす角を説明する図である。It is a figure explaining the angle which the light from each point which comprises an object makes with respect to an image sensor. 物体が無限距離にある場合に表側格子パターンが投影されることを説明する図である。It is a figure explaining that a front side lattice pattern is projected when an object is in infinite distance. 物体が無限距離にある場合に生成されるモアレ縞の例を示す図である。It is a figure which shows the example of the moire fringe produced|generated when an object exists in infinite distance. 物体が有限距離にある場合に表側格子パターンが拡大されることを説明する図である。It is a figure explaining that a front side lattice pattern is expanded when an object is in a finite distance. 物体が有限距離にある場合に生成されるモアレ縞の例を示す図である。It is a figure which shows the example of the moire fringe produced|generated when an object exists in a finite distance. 物体が有限距離にある場合に裏側格子パターンを補正したモアレ縞の例を示す図である。It is a figure which shows the example of the moire fringe which corrected the back side lattice pattern, when an object exists in a finite distance. 裏側格子パターンを画像処理で実現する撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which implement|achieves a back side lattice pattern by image processing. 変調器の構成例を示す図である。It is a figure which shows the structural example of a modulator. 画像処理部の画像処理の一例を示すフローチャートである。It is a flow chart which shows an example of image processing of an image processing part. 時分割フリンジスキャンを実現する撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which implement|achieves a time division fringe scan. 時分割フリンジスキャンにおける格子パターンの例を示す図である。It is a figure which shows the example of the lattice pattern in a time division fringe scan. 時分割フリンジスキャンを実現する変調器の構成例を示す図である。It is a figure which shows the structural example of the modulator which implement|achieves a time division fringe scan. 時分割フリンジスキャンを実現する画像処理部の画像処理の一例を示すフローチャートである。9 is a flowchart illustrating an example of image processing of an image processing unit that realizes time-division fringe scanning. 空間分割フリンジスキャンを実現する撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which implement|achieves space division fringe scanning. 空間分割フリンジスキャンにおける格子パターンの例を示す図である。It is a figure which shows the example of the lattice pattern in space division fringe scan. 被写体からの光線が光学部の厚みと屈折率、被写体位置によってずれて画像センサ上に投影される様子を説明する図である。It is a figure explaining a mode that a light ray from a subject shifts and is projected on an image sensor by the thickness and refractive index of an optical part, and a subject position. 撮影される被写体の歪みの発生の一例を示す図である。It is a figure which shows an example of distortion generation of the to-be-photographed object. 画像歪み補正により画像の歪みを補正した状態で被写体を撮影することを実現する撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which implement|achieves photographing a to-be-photographed object in the state which image distortion was corrected by image distortion correction. 画角θmax2を説明する図である。It is a figure explaining angle of view thetamax2 . 物体が近距離にある場合に物体を構成するある点からの光が照射する格子パターンの範囲と視野を説明する図である。It is a figure explaining the range and visual field of the lattice pattern which the light from a certain point which comprises an object irradiates, when an object is in a short distance. 複眼の格子パターンと複数の画像センサの組み合わせ及び画像歪み補正によりによる広視野化を実現する撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which implement|achieves a wide visual field by the combination of a grid pattern of a compound eye, several image sensors, and image distortion correction. 複眼の格子パターンの一例を示す図である。It is a figure which shows an example of the lattice pattern of a compound eye. 複眼の格子パターンと複数の画像センサによる視野を説明する図である。It is a figure explaining a visual field by a lattice pattern of a compound eye and a plurality of image sensors. 画像歪み補正処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of image distortion correction processing. 合成方法の一例を説明する図である。It is a figure explaining an example of a synthesizing method. 合成画像を説明する図である。It is a figure explaining a synthetic image. 画像センサの配置例を説明する図である。It is a figure explaining the example of arrangement of an image sensor. 画像センサの他の配置例を説明する図である。It is a figure explaining the other example of arrangement|positioning of an image sensor. 注視方向の一例を説明する図である。It is a figure explaining an example of a gaze direction. 注視方向の他の例を説明する図である。It is a figure explaining the other example of a gaze direction. 画像歪み補正部内に画像歪み補正設定値を記憶する構成例を示す図である。It is a figure which shows the structural example which memorize|stores an image distortion correction setting value in an image distortion correction part. 画像歪み補正設定値学習部で学習した設定値を画像歪み補正設定値を記憶する構成例を示す図である。It is a figure which shows the structural example which memorize|stores the image distortion correction setting value with the setting value learned by the image distortion correction setting value learning part. 撮像装置からセンサ画像と必要設定値の情報を外部に出力し、外部で情報を受信し画像処理、画像歪み補正、画像合成を行う構成を示す図である。It is a figure which shows the structure which outputs the information of a sensor image and a required setting value outside from an imaging device, receives information outside, and performs image processing, image distortion correction, and image composition.

以下の実施形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。 In the following embodiments, when there is a need for convenience, the description will be divided into a plurality of sections or embodiments, but unless otherwise specified, they are not unrelated to each other, and one is not There are some or all of the modifications, details, supplementary explanations, and the like.

また、以下の実施形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。 In addition, in the following embodiments, unless otherwise specified, such as the number of elements (including the number, numerical value, amount, range, etc.), unless otherwise explicitly stated and in principle limited to a specific number, etc. However, the number is not limited to the specific number, and may be a specific number or more or less.

さらに、以下の実施形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。 Further, in the following embodiments, it is needless to say that the constituent elements (including element steps and the like) are not necessarily essential unless otherwise specified or in principle considered to be essential. Yes.

同様に、以下の実施形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。 Similarly, in the following embodiments, when referring to the shapes and positional relationships of constituent elements and the like, the shapes and the like of the constituent elements are substantially the same, unless otherwise specified or when it is considered that the principle is not clear. And the like, etc. are included. This also applies to the above numerical values and ranges.

また、実施形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。以下、本発明の各実施形態について図面を用いて説明する。 In addition, in all the drawings for explaining the embodiments, the same members are denoted by the same reference symbols in principle and their repeated description is omitted. Hereinafter, each embodiment of the present invention will be described with reference to the drawings.

[第一実施形態]
<無限遠物体の撮影原理>
図1は、第一実施形態に係る撮像装置の構成例を示す図である。撮像装置101は、通常のカメラが備えるような結像させるためのレンズを用いることなく、外界の物体の画像を取得するものであり、変調器102、画像センサ103、および画像処理部106から構成されている。
[First embodiment]
<Principle of shooting objects at infinity>
FIG. 1 is a diagram showing a configuration example of an image pickup apparatus according to the first embodiment. The imaging device 101 acquires an image of an object in the external world without using a lens for forming an image, which is included in a normal camera, and includes a modulator 102, an image sensor 103, and an image processing unit 106. Has been done.

図2は、変調器の構成例を示す図である。変調器102は、画像センサ103の受光面に密着して固定されており(図1)、格子基板102aと、格子基板102aの上下面に形成された第1の格子パターン104及び第2の格子パターン105とを含んで構成される。格子基板102aは、例えばガラスやプラスティックなどの透明な材料からなる。以降、格子基板102aの画像センサ103側を裏面と呼び、対向する面すなわち撮影対象側を表面と呼ぶ。 FIG. 2 is a diagram showing a configuration example of the modulator. The modulator 102 is in close contact with and fixed to the light receiving surface of the image sensor 103 (FIG. 1 ), and the grating substrate 102 a and the first grating pattern 104 and the second grating formed on the upper and lower surfaces of the grating substrate 102 a. And a pattern 105. The lattice substrate 102a is made of a transparent material such as glass or plastic. Hereinafter, the image sensor 103 side of the lattice substrate 102a is referred to as a back surface, and the facing surface, that is, the imaging target side is referred to as a front surface.

これらの格子パターン104,105は、外側に向かうほど中心からの半径に反比例して格子パターンの間隔、すなわちピッチが狭くなる同心円状の格子パターンからなる。格子パターン104,105は、例えば半導体プロセスに用いられるスパッタリング法などによってアルミニウム、クロムなどの金属を蒸着することによって形成される。金属が蒸着されたパターンと蒸着されていないパターンによって濃淡がつけられる。 These lattice patterns 104 and 105 are formed of concentric lattice patterns in which the intervals of the lattice patterns, that is, the pitches are reduced in inverse proportion to the radius from the center toward the outside. The lattice patterns 104 and 105 are formed by depositing a metal such as aluminum or chromium by a sputtering method used in a semiconductor process, for example. The metallization pattern and the non-metallization pattern create a shade.

格子パターン104,105の形成は、蒸着に限定されるものでなく、例えばインクジェットプリンタなどによる印刷などによって濃淡をつけて形成してもよい。さらに、ここでは可視光を例に説明したが、例えば遠赤外線での撮影の場合、格子基板102aは、例えばゲルマニウム、シリコン、カルコゲナイドなどの遠赤外線に対して透明な材料からなる。すなわち、格子基板102aには、撮影対象となる波長に対して透明な材料を用いることができ、格子パターン104,105には、撮影対象となる波長を遮断する金属等の材料を用いることができる。 The formation of the grid patterns 104 and 105 is not limited to vapor deposition, and may be formed by printing with an ink jet printer or the like with different shades. Furthermore, although visible light has been described as an example here, in the case of imaging with far infrared rays, for example, the grating substrate 102a is made of a material that is transparent to far infrared rays, such as germanium, silicon, or chalcogenide. That is, the grating substrate 102a can be made of a material transparent to the wavelength to be imaged, and the grating patterns 104 and 105 can be made of a material such as a metal that blocks the wavelength to be imaged. ..

なお、ここでは変調器102を実現するために、格子パターン104,105を格子基板102aに形成する方法について述べたが、これに限定されない。図3は、変調器102の他の構成例を示す図である。格子パターン104,105を薄膜に形成し、これらを格子基板102aの替わりに設けた支持部材102bにより保持する構成などによっても、変調器102を実現することができる。 Although the method of forming the grating patterns 104 and 105 on the grating substrate 102a in order to realize the modulator 102 has been described here, the present invention is not limited to this. FIG. 3 is a diagram showing another configuration example of the modulator 102. The modulator 102 can also be realized by forming the lattice patterns 104 and 105 in a thin film and holding these by a supporting member 102b provided in place of the lattice substrate 102a.

画像センサ103は、例えばCCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどからなる。画像センサ103の表面には、受光素子である画素103aが格子状に規則的に配置されている。格子パターン104,105を透過する光は、それらの格子パターンによって光の強度が変調され、画像センサ103にて受光される。画像センサ103は、画素103aが受光した光画像を電気信号である画像信号に変換する。画像センサ103から出力された画像信号(「画像データ」とも呼ぶ)は、画像処理部106によって画像処理されて画像表示部107などに出力される。画像処理部106は、処理した画像データを、撮像装置101の備える記憶装置(図示せず)に格納したり、外部のホストコンピュータや記録媒体に出力したりしてもよい。 The image sensor 103 is, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. Pixels 103a, which are light receiving elements, are regularly arranged in a grid pattern on the surface of the image sensor 103. The intensity of light transmitted through the lattice patterns 104 and 105 is modulated by the lattice patterns, and the light is received by the image sensor 103. The image sensor 103 converts the optical image received by the pixel 103a into an image signal which is an electric signal. The image signal (also referred to as “image data”) output from the image sensor 103 is subjected to image processing by the image processing unit 106 and output to the image display unit 107 or the like. The image processing unit 106 may store the processed image data in a storage device (not shown) included in the imaging device 101, or may output the processed image data to an external host computer or a recording medium.

なお、撮像装置101は、例えば、プロセッサ、メモリ、通信装置、処理回路等を備えることができる。また、撮像装置101は、例えばUSB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)等の、外部装置と接続する入出力インターフェイスを備えてもよい。画像処理部106は、例えば、専用画像処理回路によって実現されてもよいし、プログラムを実行するプロセッサによって実現されてもよい。 The imaging device 101 can include, for example, a processor, a memory, a communication device, a processing circuit, and the like. Further, the image pickup apparatus 101 may include an input/output interface such as a USB (Universal Serial Bus) and an HDMI (High-Definition Multimedia Interface) that is connected to an external device. The image processing unit 106 may be realized by, for example, a dedicated image processing circuit or a processor that executes a program.

図4は、図1の撮像装置101を用いて外界の物体を撮影する様子を示す図である。図4では、被写体401が撮像装置101によって撮影されて画像表示部107に表示されている例を示している。被写体401を撮影する際には、変調器102における表面、具体的には第1の格子パターン104が形成されている格子基板102aの面が、被写体401に対して正対するようにして撮影が行われる。 FIG. 4 is a diagram showing a state in which an object in the external world is photographed using the image pickup apparatus 101 of FIG. FIG. 4 illustrates an example in which the subject 401 is photographed by the imaging device 101 and is displayed on the image display unit 107. When the subject 401 is photographed, the surface of the modulator 102, specifically, the surface of the lattice substrate 102a on which the first lattice pattern 104 is formed faces the subject 401. Be seen.

続いて、画像処理部106による画像処理の概略について説明する。図5は、画像処理部106の画像処理の一例を示すフローチャートである。 Next, an outline of image processing by the image processing unit 106 will be described. FIG. 5 is a flowchart showing an example of image processing of the image processing unit 106.

まず、画像処理部106は、画像センサ103から出力されるモアレ縞画像に対して、カラーのRGB(Red Green Blue)成分ごとに高速フーリエ変換(FFT:Fast Fourier Transform)などの2次元フーリエ変換演算による現像処理で周波数スペクトルを求める(501)。続いて、画像処理部106は、ステップ501の処理による周波数スペクトルのうち必要な周波数領域のデータを切り出した後(502)、該周波数スペクトルの強度計算を行う(503)ことによって画像を取得する。そして、画像処理部106は、得られた画像に対してノイズ除去処理を行い(504)、続いてコントラスト強調処理(505)などを行う。その後、画像処理部106は、画像のカラーバランスを調整して(506)撮影画像として出力する。以上により、画像処理部106による画像処理が終了となる。 First, the image processing unit 106 performs a two-dimensional Fourier transform operation such as a fast Fourier transform (FFT) on the Moire fringe image output from the image sensor 103 for each RGB (Red Green Blue) component of color. The frequency spectrum is obtained by the developing process according to (501). Subsequently, the image processing unit 106 cuts out data in a necessary frequency region from the frequency spectrum obtained by the processing of step 501 (502), and then calculates the intensity of the frequency spectrum (503) to acquire an image. Then, the image processing unit 106 performs noise removal processing on the obtained image (504), and subsequently performs contrast enhancement processing (505). After that, the image processing unit 106 adjusts the color balance of the image (506) and outputs it as a captured image. With the above, the image processing by the image processing unit 106 is completed.

続いて、撮像装置101における撮影原理について説明する。 Next, the shooting principle of the image pickup apparatus 101 will be described.

まず、中心からの半径に対して反比例してピッチが細かくなる同心円状の格子パターン104,105は、以下のように定義する。レーザ干渉計などにおいて、平面波に近い球面波と参照光として用いる平面波とを干渉させる場合を想定する。同心円の中心である基準座標からの半径をrとし、そこでの球面波の位相をΦ(r)とするとき、球面波は、波面の曲がりの大きさを決める係数βを用いて、 First, the concentric lattice patterns 104 and 105 in which the pitch becomes finer in inverse proportion to the radius from the center are defined as follows. In a laser interferometer, it is assumed that a spherical wave close to a plane wave interferes with a plane wave used as reference light. When the radius from the reference coordinates that is the center of the concentric circles is r and the phase of the spherical wave there is Φ(r), the spherical wave uses a coefficient β that determines the magnitude of bending of the wavefront,

Figure 2020098963
と表せる。
Figure 2020098963
Can be expressed as

球面波にもかかわらず、半径rの2乗で表されているのは、平面波に近い球面波のため、展開の最低次のみで近似できるからである。この位相分布を持った光に平面波を干渉させると、 Despite the spherical wave, it is represented by the square of the radius r because it is a spherical wave close to a plane wave and can be approximated only by the lowest order of expansion. When a plane wave is caused to interfere with light having this phase distribution,

Figure 2020098963
のような干渉縞の強度分布が得られる。これは、
Figure 2020098963
An intensity distribution of interference fringes such as this is,

Figure 2020098963
を満たす半径位置で明るい線を持つ同心円の縞となる。縞のピッチをpとすると、
Figure 2020098963
Concentric stripes with bright lines at radial positions satisfying. If the pitch of stripes is p,

Figure 2020098963
が得られ、ピッチは、半径に対して反比例して狭くなっていくことがわかる。このような縞を持つプレートは、フレネルゾーンプレートやガボールゾーンプレートと呼ばれる。本実施形態では、式(2)で定義される強度分布に比例した透過率分布をもった格子パターンを、図1に示した格子パターン104,105として用いる。
Figure 2020098963
It can be seen that the pitch becomes narrower in inverse proportion to the radius. Plates having such stripes are called Fresnel zone plates and Gabor zone plates. In this embodiment, the lattice patterns having the transmittance distribution proportional to the intensity distribution defined by the equation (2) are used as the lattice patterns 104 and 105 shown in FIG.

図6は、斜め入射平行光による格子基板表面から裏面への射影像が面内ずれを生じることを説明する図である。格子パターン104,105が両面に形成された厚さtの変調器102に、角度θで平行光が入射したとする。変調器102中の屈折角をθとして、幾何光学的には、表面の格子の透過率が乗じられた光が、δ=t・tanθだけずれて裏面に入射し、仮に2つの同心円格子の中心がそろえて形成されていたとすると、裏面の格子の透過率がδだけずれて掛け合わされることになる。このとき、 FIG. 6 is a diagram for explaining that the projection image from the front surface to the back surface of the grating substrate due to the obliquely incident parallel light causes an in-plane shift. It is assumed that collimated light is incident on the modulator 102 having the thickness t in which the grating patterns 104 and 105 are formed on both surfaces at an angle θ 0 . In terms of geometrical optics, the light multiplied by the transmittance of the grating on the front surface is shifted by δ=t·tan θ and enters the rear surface, and the center of the two concentric circular gratings is assumed. If they are aligned, the transmittance of the grating on the back surface is shifted by δ and the transmittance is multiplied. At this time,

Figure 2020098963
のような強度分布が得られる。この展開式の第4項が、2つの格子のずれの方向にまっすぐな等間隔の縞模様を、2つの格子の重なり合った領域一面に作ることがわかる。このような縞と縞の重ね合わせによって相対的に低い空間周波数で生じる縞は、モアレ縞と呼ばれる。このようにまっすぐな等間隔の縞は、検出画像の2次元フーリエ変換によって得られる空間周波数分布に鋭いピークを生じる。その周波数の値からδの値、すなわち光線の入射角θを求めることが可能となる。このような全面で一様に等間隔で得られるモアレ縞は、同心円状の格子配置の対称性から、ずれの方向によらず同じピッチで生じることは明らかである。このような縞が得られるのは、格子パターンをフレネルゾーンプレートまたはガボールゾーンプレートで形成したことによるものであるが、全面で一様に等間隔なモアレ縞が得られるのであればどのような格子パターンを使用してもよい。
Figure 2020098963
An intensity distribution such as It can be seen that the fourth term of this expansion formula forms straight, equally-spaced striped patterns in the direction of displacement of the two grids over the area where the two grids overlap. The fringes generated at a relatively low spatial frequency due to the superposition of such fringes are called moire fringes. Such straight, evenly spaced fringes produce sharp peaks in the spatial frequency distribution obtained by the two-dimensional Fourier transform of the detected image. The value of δ, that is, the incident angle θ of the light ray can be obtained from the value of the frequency. Due to the symmetry of the concentric lattice arrangement, it is clear that the moire fringes obtained at equal intervals on the entire surface occur at the same pitch regardless of the direction of deviation. Such stripes are obtained because the lattice pattern is formed by a Fresnel zone plate or a Gabor zone plate. However, as long as evenly spaced moire fringes can be obtained over the entire surface, any lattice Patterns may be used.

ここで、式(5)から鋭いピークを持つ成分のみを、 Here, only the component having a sharp peak from equation (5) is

Figure 2020098963
のように取り出すと、そのフーリエスペクトルは、
Figure 2020098963
, The Fourier spectrum is

Figure 2020098963
のようになる。ここで、Fはフーリエ変換の演算を表し、uおよびvは、x方向およびy方向の空間周波数座標、括弧を伴うδはデルタ関数である。この結果から、検出画像の空間周波数スペクトルにおいて、モアレ縞の空間周波数のピークがu=±δβ/πの位置に生じることがわかる。その様子を図7に示す。
Figure 2020098963
become that way. Here, F represents a Fourier transform operation, u and v are spatial frequency coordinates in the x and y directions, and δ with parentheses is a delta function. From this result, it can be seen that in the spatial frequency spectrum of the detected image, the peak of the spatial frequency of moire fringes occurs at the position of u=±δβ/π. This is shown in FIG.

図7は、格子基板両面の格子の軸がそろった場合のモアレ縞の生成と周波数スペクトルを説明する図である。図7において、左から右にかけて、光線と変調器102の配置図、モアレ縞、および空間周波数スペクトルの模式図を、それぞれ示している。図7の(a)は、垂直入射、図7の(b)は、左側から角度θで光線が入射する場合、図7の(c)は、右側から角度θで光線が入射する場合を、それぞれ示している。 FIG. 7 is a diagram for explaining the generation of moire fringes and the frequency spectrum when the axes of the gratings on both sides of the grating substrate are aligned. In FIG. 7, from left to right, a schematic view of the arrangement of the light beam and the modulator 102, moire fringes, and a spatial frequency spectrum are shown. 7A shows the case of vertical incidence, FIG. 7B shows the case of incident light rays from the left side at an angle θ, and FIG. 7C shows the case of incident light rays from the right side at an angle θ. Shown respectively.

変調器102の表面側に形成された第1の格子パターン104と裏面側に形成された第2の格子パターン105とは、軸がそろっている。図7の(a)では、第1の格子パターン104と第2の格子パターン105との影が一致するのでモアレ縞は生じない。 The first grid pattern 104 formed on the front surface side of the modulator 102 and the second grid pattern 105 formed on the back surface side have the same axis. In FIG. 7A, since the shadows of the first lattice pattern 104 and the second lattice pattern 105 coincide with each other, moire fringes do not occur.

図7の(b)および図7の(c)では、第1の格子パターン104と第2の格子パターン105とのずれが等しいために同じモアレが生じ、空間周波数スペクトルのピーク位置も一致して、空間周波数スペクトルからは、光線の入射角が図7の(b)の場合なのか図7の(c)の場合なのかを判別することができなくなる。これを避ける方法の例を、図8に示す。 In FIGS. 7B and 7C, the same moiré occurs because the first grating pattern 104 and the second grating pattern 105 have the same deviation, and the peak positions of the spatial frequency spectrum also match. From the spatial frequency spectrum, it becomes impossible to determine whether the incident angle of the light ray is in the case of FIG. 7B or in the case of FIG. 7C. An example of a method for avoiding this is shown in FIG.

図8は、表面格子と裏面格子の軸をずらして配置した格子基板の一例を示す図である。図8に示すように、変調器102に垂直に入射する光線に対しても2つの格子パターンの影がずれて重なるよう予め2つの格子パターン104,105を光軸に対して相対的にずらしておくことが必要である。軸上の垂直入射平面波に対して2つの格子の影の相対的なずれをδとするとき、入射角θの平面波によって生じるずれδは、 FIG. 8 is a diagram showing an example of a grating substrate in which the axes of the front surface grid and the back surface grid are offset from each other. As shown in FIG. 8, the two grating patterns 104 and 105 are preliminarily displaced relative to the optical axis so that the shadows of the two grating patterns are shifted and overlap even with respect to a light beam that is vertically incident on the modulator 102. It is necessary to leave. When the relative shift of the shadows of the two gratings with respect to the vertically incident plane wave on the axis is δ 0 , the shift δ caused by the plane wave with the incident angle θ is

Figure 2020098963
のように表せる。このとき、入射角θの光線のモアレ縞の空間周波数スペクトルのピークは周波数のプラス側では、
Figure 2020098963
Can be expressed as At this time, the peak of the spatial frequency spectrum of the moire fringes of the ray with the incident angle θ is on the plus side of the frequency,

Figure 2020098963
の位置となる。画像センサの大きさをS、画像センサのx方向およびy方向の画素数を共にNとすると、2次元フーリエ変換による離散画像の空間周波数スペクトルは、−N/(2S)から+N/(2S)の範囲で得られる。このことから、プラス側の入射角とマイナス側の入射角を均等に受光することを考えれば、垂直入射平面波(θ=0)によるモアレ縞のスペクトルピーク位置は、原点(DC:直流成分)位置と、例えば+側端の周波数位置との中央位置、すなわち、
Figure 2020098963
Position. When the size of the image sensor is S and the number of pixels in the x direction and the y direction of the image sensor are both N, the spatial frequency spectrum of the discrete image by the two-dimensional Fourier transform is -N/(2S) to +N/(2S). It is obtained in the range of. From this fact, considering that the positive side incident angle and the negative side incident angle are received evenly, the spectral peak position of the moire fringes due to the vertically incident plane wave (θ=0) is the origin (DC: DC component) position. And, for example, the center position between the + side end frequency position, that is,

Figure 2020098963
の空間周波数位置とするのが妥当である。したがって、2つの格子の相対的な中心位置ずれは、
Figure 2020098963
The spatial frequency position of is appropriate. Therefore, the relative center misalignment of the two gratings is

Figure 2020098963
とするのが妥当である。
Figure 2020098963
Is appropriate.

図9は、格子基板両面の格子をずらして配置する場合のモアレ縞の生成と周波数スペクトルを説明する図である。図7と同様にして、左から右にかけて、光線と変調器102の配置図、モアレ縞、および空間周波数スペクトルの模式図を、それぞれ示す。図9の(a)は、光線が垂直入射の場合、図9の(b)は、光線が左側から角度θで入射する場合、図9の(c)は、光線が右側から角度θで入射する場合を、それぞれ示している。 FIG. 9 is a diagram for explaining the generation of moire fringes and the frequency spectrum when the gratings on both sides of the grating substrate are arranged in a shifted manner. Similar to FIG. 7, schematic views of the arrangement of the light beam and the modulator 102, moire fringes, and spatial frequency spectrum are shown from left to right. 9A shows a case where the light ray is vertically incident, FIG. 9B shows a case where the light ray enters from the left side at an angle θ, and FIG. 9C shows a case where the light ray enters from the right side at an angle θ. The respective cases are shown.

第1の格子パターン104と第2の格子パターン105とは、予めδだけずらして配置されている。そのため、図9の(a)でもモアレ縞が生じ、空間周波数スペクトルにピークが現れる。そのずらし量δは、上記したとおり、ピーク位置が原点から片側のスペクトル範囲の中央に現れるように設定されている。このとき図9の(b)では、ずれδがさらに大きくなる方向、図9の(c)では、ずれδが小さくなる方向となっているため、図7と異なり、図9の(b)と図9の(c)との違いがスペクトルのピーク位置から判別できる。このピークのスペクトル像がすなわち無限遠の光束を示す輝点であり、図1の撮像装置101による撮影像にほかならない。 The first lattice pattern 104 and the second lattice pattern 105 are arranged in advance with a shift of δ 0 . Therefore, Moire fringes also occur in FIG. 9A, and a peak appears in the spatial frequency spectrum. As described above, the shift amount δ 0 is set so that the peak position appears in the center of the spectrum range on one side from the origin. At this time, in FIG. 9B, the deviation δ is further increased, and in FIG. 9C, the deviation δ is decreased, which is different from FIG. The difference from FIG. 9C can be discriminated from the peak position of the spectrum. That is, the spectrum image of this peak is a bright spot showing a light flux at infinity, and is nothing but an image taken by the image pickup apparatus 101 in FIG.

受光できる平行光の入射角の最大角度をθmaxとすると、 If the maximum angle of incidence of parallel light that can be received is θ max ,

Figure 2020098963
より、撮像装置101にて受光できる最大画角は、
Figure 2020098963
Therefore, the maximum angle of view that can be received by the imaging device 101 is

Figure 2020098963
で与えられる。
Figure 2020098963
Given in.

一般的なレンズを用いた結像との類推から、画角θmaxの平行光を画像センサの端で焦点を結んで受光すると考えると、レンズを用いない撮像装置101の実効的な焦点距離は、 From the analogy with the image formation using a general lens, considering that parallel light with an angle of view θ max is focused and received at the end of the image sensor, the effective focal length of the imaging device 101 without a lens is ,

Figure 2020098963
に相当すると考えることができる。
Figure 2020098963
Can be considered equivalent to.

ここで、式(13)および式(14)より、画角は変調器102の厚さt、および画像センサ103の大きさSによって変更可能であることが判る。よって、例えば変調器102が図3の構成であり支持部材102bの長さを変更可能な機能(例えば機械構造)を有していれば、撮影時に画角を変更して撮影することも可能となる。 Here, it can be understood from the expressions (13) and (14) that the angle of view can be changed by the thickness t of the modulator 102 and the size S of the image sensor 103. Therefore, for example, if the modulator 102 has the configuration of FIG. 3 and has a function (for example, a mechanical structure) capable of changing the length of the support member 102b, it is possible to change the angle of view at the time of shooting and perform shooting. Become.

なお、モアレ縞から空間周波数スペクトルを算出する方法として高速フーリエ変換を例に説明したが、これに限定されるものではなく、離散コサイン変換(DCT:Discrete Cosine Transform)などを使用しても実現可能であり、さらに演算量を削減することも可能である。 Although the fast Fourier transform has been described as an example of the method for calculating the spatial frequency spectrum from the moire fringes, the method is not limited to this, and it can be realized by using a discrete cosine transform (DCT) or the like. Therefore, it is possible to further reduce the calculation amount.

また、格子パターン104,105の透過率分布は、式(2)で示したように正弦波的な特性があることを想定して説明したが、格子パターンの基本周波数成分としてそのような成分を含んでいればよい。例えば図10(格子パターンの一例を示す図)に示すように格子パターンの透過率を2値化することも可能であり、さらに図11(格子パターンの他の例を示す図)のように透過率が高い格子領域と低い領域のdutyを変えて、透過率の高い領域の幅を広げて透過率を高めることも可能である。これにより、格子パターンからの回折を抑圧するなどの効果も得られ、撮影像の劣化を低減可能である。 Further, the transmittance distributions of the grid patterns 104 and 105 have been described assuming that they have sinusoidal characteristics as shown in the equation (2), but such a component is used as the fundamental frequency component of the grid pattern. It only needs to be included. For example, it is possible to binarize the transmittance of the lattice pattern as shown in FIG. 10 (a diagram showing an example of the lattice pattern), and further, as shown in FIG. 11 (a diagram showing another example of the lattice pattern). It is also possible to increase the transmittance by changing the duty of the grating region having a high ratio and the duty of the region having a low ratio to widen the width of the region having a high transmittance. As a result, the effect of suppressing the diffraction from the grating pattern can be obtained, and the deterioration of the captured image can be reduced.

また、格子パターン104,105は透過率変調でなく、位相変調で実現してもよい。例えば図12(格子パターンのさらに他の例を示す図)に示すように、格子基板102aをシリンドリカルレンズ1201で構成することにより、画像センサ103上に図に示すような強度変調パターンを生じさせることができるため、今までの議論と同様に撮像が可能となる。これにより格子パターン104の遮蔽部による光量損失を低減でき、光利用効率を向上させることができる上、格子パターンからの回折を抑圧する効果も得られる。図12ではレンズで実現したが、同等の効果を持つ位相変調素子で実現することも可能である。 The grating patterns 104 and 105 may be realized by phase modulation instead of transmittance modulation. For example, as shown in FIG. 12 (a diagram showing still another example of the lattice pattern), by forming the lattice substrate 102a with a cylindrical lens 1201, an intensity modulation pattern as shown in the diagram is generated on the image sensor 103. Therefore, it is possible to perform imaging in the same manner as the discussion so far. As a result, it is possible to reduce the light amount loss due to the shield portion of the grating pattern 104, improve the light utilization efficiency, and obtain the effect of suppressing the diffraction from the grating pattern. Although it is realized by a lens in FIG. 12, it can be realized by a phase modulation element having an equivalent effect.

以上の説明では、いずれも入射光線が同時には1つの入射角度で入射する場合であったが、実際に撮像装置101がカメラとして作用するためには、複数の入射角度の光が同時に入射する場合を想定しなければならない。このような複数の入射角の光は、裏面側の格子パターンに入射する時点ですでに複数の表側格子の像を重なり合わせることになる。もし、これらの像が相互にモアレ縞を生じると、このモアレ縞が、信号成分である第2の格子パターン105とのモアレ縞の検出を阻害するノイズとなることが懸念される。しかし、実際は、第1の格子パターン104の像どうしの重なりはモアレ像のピークを生じず、ピークを生じさせるのは裏面側の第2の格子パターン105との重なりだけになる。その理由について以下に説明する。 In the above description, the incident light beams are incident at one incident angle at the same time. However, in order for the image pickup apparatus 101 to actually act as a camera, when the incident light beams are incident at a plurality of incident angles at the same time. Must be assumed. The light of such a plurality of incident angles already overlaps the images of the plurality of front side gratings at the time of being incident on the back side grating pattern. If these images produce moire fringes with each other, it is feared that the moiré fringes become noise that hinders detection of the moiré fringes with the second lattice pattern 105, which is a signal component. However, in reality, the overlapping of the images of the first grating pattern 104 does not generate the peak of the moire image, and the peak is generated only by the overlapping with the second grating pattern 105 on the back surface side. The reason will be described below.

まず、複数の入射角の光線による表面側の第1の格子パターン104の影どうしの重なりは、積ではなく和であることが大きな違いである。1つの入射角の光による第1の格子パターン104の影と第2の格子パターン105との重なりについては、第1の格子パターン104の影である光の強度分布に、第2の格子パターン105の透過率を乗算することで、裏面側の第2の格子パターン105を透過したあとの光強度分布が得られる。 First, the major difference is that the overlap of the shadows of the first grating pattern 104 on the surface side due to light rays having a plurality of incident angles is a sum, not a product. Regarding the overlap between the shadow of the first grating pattern 104 and the second grating pattern 105 due to the light having one incident angle, the shadow of the first grating pattern 104 has a light intensity distribution of the second grating pattern 105. The light intensity distribution after passing through the second grating pattern 105 on the back surface side can be obtained by multiplying by the transmittance of.

これに対して、表面側の第1の格子パターン104に複数入射する角度の異なる光による影どうしの重なりは、光の重なり合いなので、積ではなく、和になるのである。和の場合は、 On the other hand, the overlapping of the shadows due to the lights incident on the first grating pattern 104 on the surface side at different angles is not the product but the sum, because the overlapping of the lights is the overlap. In the case of sum,

Figure 2020098963
のように、もとのフレネルゾーンプレートの格子の分布に、モアレ縞の分布を乗算した分布となる。したがって、その周波数スペクトルは、それぞれの周波数スペクトルの重なり積分で表される。そのため、たとえモアレのスペクトルが単独で鋭いピークをもったとしても、実際上、その位置にフレネルゾーンプレートの周波数スペクトルのゴーストが生じるだけである。つまり、スペクトルに鋭いピークは生じない。したがって、複数の入射角の光を入れても検出されるモアレ像のスペクトルは、常に表面側の第1の格子パターン104と裏面側の第2の格子パターン105との積のモアレだけであり、第2の格子パターン105が単一である以上、検出されるスペクトルのピークは1つの入射角に対して1つだけとなるのである。
Figure 2020098963
As described above, the distribution of the original lattice of the Fresnel zone plate is multiplied by the distribution of Moire fringes. Therefore, the frequency spectrum is represented by the overlap integral of each frequency spectrum. Therefore, even if the moiré spectrum has a sharp peak alone, in reality, only a ghost of the frequency spectrum of the Fresnel zone plate occurs at that position. That is, no sharp peak appears in the spectrum. Therefore, the spectrum of the moire image detected even when light with a plurality of incident angles is input is always only the moire of the product of the first grating pattern 104 on the front surface side and the second grating pattern 105 on the back surface side. Since the second grating pattern 105 is single, the number of detected spectrum peaks is only one for one incident angle.

ここで、これまで検出することを説明してきた平行光と、実際の物体からの光との対応について図13を用いて模式的に説明する。 Here, the correspondence between the parallel light which has been described so far to be detected and the light from the actual object will be schematically described with reference to FIG.

図13は、物体を構成する各点からの光が画像センサに対してなす角を説明する図である。被写体401を構成する各点からの光は、厳密には点光源からの球面波として、図1の撮像装置101の変調器102および画像センサ103(以下、図13では格子センサ一体基板1301という)に入射する。このとき、被写体401に対して格子センサ一体基板1301が十分に小さい場合や十分に遠い場合には、各点から格子センサ一体基板1301を照明する光の入射角は、同じとみなすことができる。 FIG. 13 is a diagram illustrating an angle formed by light from each point forming an object with respect to the image sensor. Strictly speaking, the light from each point constituting the subject 401 is a spherical wave from a point light source, and the modulator 102 and the image sensor 103 of the image pickup apparatus 101 of FIG. 1 (hereinafter, referred to as a grating sensor integrated substrate 1301 in FIG. 13). Incident on. At this time, when the grating sensor integrated substrate 1301 is sufficiently small or far from the subject 401, the incident angles of the light illuminating the grating sensor integrated substrate 1301 from each point can be regarded as the same.

式(9)から求められる微小角度変位Δθに対するモアレの空間周波数変位Δuが、画像センサの空間周波数の最小解像度である1/S以下となる関係から、Δθが平行光とみなせる条件は、 Since the spatial frequency displacement Δu of the moire with respect to the minute angular displacement Δθ obtained from the equation (9) is 1/S or less which is the minimum resolution of the spatial frequency of the image sensor, the condition that Δθ can be regarded as parallel light is as follows.

Figure 2020098963
のように表せる。この条件下であれば、無限遠の物体を本実施形態の撮像装置が撮像可能である。
Figure 2020098963
Can be expressed as Under this condition, the object at infinity can be imaged by the imaging device of this embodiment.

<有限距離物体の撮影原理>
ここで、これまで述べた無限遠の物体に対する撮像について再度説明する。図14は、物体が無限距離にある場合に表側格子パターンが投影されることを説明する図である。図14は、表面側の第1の格子パターン104の裏面への射影の様子を示している。無限遠の物体を構成する点1401からの球面波は、十分に長い距離を伝搬する間に平面波となり表面側の第1の格子パターン104を照射し、その投影像1402が下の面に投影される。この場合、その投影像は第1の格子パターン104とほぼ同じ形状である。結果、投影像1402に対して、裏面側の格子パターン(図2の第2の格子パターン105に相当)の透過率分布を乗じることにより、図15(物体が無限距離にある場合に生成されるモアレ縞の例を示す図)に示すような等間隔な直線状のモアレ縞を得ることができる。
<Principle of photographing a finite object>
Here, the imaging of the object at infinity described so far will be described again. FIG. 14 is a diagram illustrating that the front side lattice pattern is projected when the object is at an infinite distance. FIG. 14 shows how the first grid pattern 104 on the front surface side is projected onto the back surface. A spherical wave from a point 1401 forming an object at infinity becomes a plane wave while propagating over a sufficiently long distance and irradiates the first grating pattern 104 on the surface side, and its projected image 1402 is projected on the lower surface. It In this case, the projected image has substantially the same shape as the first grid pattern 104. As a result, the projected image 1402 is multiplied by the transmittance distribution of the back-side grating pattern (corresponding to the second grating pattern 105 in FIG. 2) to generate FIG. 15 (when the object is at an infinite distance). It is possible to obtain linear moire fringes at even intervals as shown in the figure showing an example of moire fringes.

一方、有限距離の物体に対する撮像について説明する。図16は、物体が有限距離にある場合に表側格子パターンが拡大されることを説明する図である。図16は、表面側の第1の格子パターン104の裏面への射影の様子を示している。物体を構成する点1601からの球面波は表面側の第1の格子パターン104を照射し、その投影像1602が下の面に投影される。この場合、その投影像はほぼ一様に拡大される。なお、この拡大率αは、第1の格子パターン104から点1601までの距離dを用いて、 On the other hand, imaging of an object with a finite distance will be described. FIG. 16 is a diagram illustrating that the front side lattice pattern is enlarged when the object is at a finite distance. FIG. 16 shows how the first grid pattern 104 on the front surface side is projected onto the back surface. The spherical wave from the point 1601 forming the object irradiates the first grating pattern 104 on the surface side, and the projected image 1602 is projected on the lower surface. In this case, the projected image is enlarged almost uniformly. Note that this enlargement factor α is calculated by using the distance d from the first grid pattern 104 to the point 1601.

Figure 2020098963
のように算出できる。
Figure 2020098963
Can be calculated as

そのため、平行光に対して設計された裏面側の格子パターンの透過率分布をそのまま乗じたのでは、図17(物体が有限距離にある場合に生成されるモアレ縞の例を示す図)に示すように、等間隔な直線状のモアレ縞は生じなくなる。しかし、一様に拡大された表面側の第1の格子パターン104の影に合わせて、第2の格子パターン105を拡大するならば、拡大された投影像1602に対して再び、図18(物体が有限距離にある場合に裏側格子パターンを補正したモアレ縞の例を示す図)に示すように、等間隔な直線状のモアレ縞を生じさせることができる。このためには、第2の格子パターン105の係数βをβ/αとすることで補正が可能である。 Therefore, if the transmittance distribution of the designed back side grating pattern is multiplied as it is for parallel light, it is shown in FIG. 17 (a diagram showing an example of moire fringes generated when an object is at a finite distance). As described above, the linear moire fringes at equal intervals are not generated. However, if the second lattice pattern 105 is enlarged in accordance with the shadow of the first lattice pattern 104 on the surface side that is uniformly enlarged, the enlarged projected image 1602 is displayed again in FIG. Is a finite distance, a linear moire fringe at even intervals can be generated, as shown in a figure showing an example of the moire fringe in which the back side lattice pattern is corrected. For this purpose, the correction can be performed by setting the coefficient β of the second lattice pattern 105 to β/α 2 .

これにより、必ずしも無限遠でない距離の点1601からの光を選択的に現像することができる。これによって、任意の位置に焦点合わせて撮影を行うことができる。 Thereby, the light from the point 1601 at a distance which is not necessarily infinity can be selectively developed. As a result, it is possible to perform shooting by focusing on an arbitrary position.

<簡略化構成>
次に、上述の変調器102の構成を簡略化する方法について説明する。変調器102では、格子基板102aの表面および裏面にそれぞれ同一形状の第1の格子パターン104および第2の格子パターン105を互いにずらして形成している。そして、画像処理によって入射する平行光の角度をモアレ縞の空間周波数スペクトルから検知して像を現像している。この裏面側の第2の格子パターン105は、画像センサ103に密着して入射する光の強度を変調する光学素子であり、入射光に依らず同じ格子パターンである。そこで、次のように撮像装置101の構成を変更してもよい。図1と異なる点を中心に説明する。
<Simplified configuration>
Next, a method of simplifying the configuration of the modulator 102 described above will be described. In the modulator 102, a first grating pattern 104 and a second grating pattern 105 having the same shape are formed on the front surface and the back surface of the grating substrate 102a, offset from each other. Then, the angle of the incident parallel light is detected from the spatial frequency spectrum of the moire fringes by image processing to develop the image. The second grid pattern 105 on the back surface side is an optical element that modulates the intensity of light that comes into close contact with the image sensor 103 and has the same grid pattern regardless of the incident light. Then, you may change the structure of the imaging device 101 as follows. The difference from FIG. 1 will be mainly described.

図19は、裏側格子パターンを画像処理で実現する撮像装置101の構成例を示す図である。この撮像装置101は、第2の格子パターン105を省略した変調器1901と、第2の格子パターン105に相当する処理を行う強度変調部1903を含む画像処理部1902とを備える。 FIG. 19 is a diagram showing a configuration example of the imaging device 101 that realizes the back side lattice pattern by image processing. The image pickup apparatus 101 includes a modulator 1901 in which the second lattice pattern 105 is omitted, and an image processing unit 1902 including an intensity modulator 1903 that performs a process corresponding to the second lattice pattern 105.

図20は、変調器1901の構成例を示す図である。変調器1901は、格子基板102aと、格子基板102aの表面に形成された第1の格子パターン104とから構成される。図2と比較して、格子基板102aに形成する格子パターンを1面減らすことができる。これにより、変調器の製造コストを低減することができ、さらに光利用効率を向上させることもできる。 FIG. 20 is a diagram showing a configuration example of the modulator 1901. The modulator 1901 is composed of the grating substrate 102a and the first grating pattern 104 formed on the surface of the grating substrate 102a. As compared with FIG. 2, the number of lattice patterns formed on the lattice substrate 102a can be reduced by one. As a result, the manufacturing cost of the modulator can be reduced and the light utilization efficiency can be improved.

図21は、画像処理部1902の画像処理の一例を示すフローチャートである。図5のフローチャートと異なるところは、ステップ501の前のステップ2101の処理である。ステップ501〜506の処理は、図5の対応する処理と同様であるので、ここでは説明を省略する。 FIG. 21 is a flowchart showing an example of image processing of the image processing unit 1902. The difference from the flowchart of FIG. 5 is the processing of step 2101 before step 501. The processing of steps 501 to 506 is the same as the corresponding processing of FIG. 5, so description thereof will be omitted here.

ステップ2101の処理では、前述した強度変調部1903は、画像センサ103から出力される画像に対して、裏面側の格子パターン105を透過したことに相当するモアレ縞画像を生成する。具体的には、式(5)に相当する演算が行われればよいので、強度変調部1903は、裏面側の格子パターン105を生成し、画像センサ103の画像に対して乗算する。さらに、裏面側の格子パターン105が図10又は図11に示すような2値化したパターンであれば、強度変調部1903が黒に相当する領域の画像センサ103の値を0に設定するだけでよい。これにより、乗算演算の計算負荷や乗算回路の規模を抑圧することが可能である。 In the process of step 2101, the intensity modulation unit 1903 described above generates a moire fringe image corresponding to the image transmitted from the image sensor 103 through the lattice pattern 105 on the back surface side. Specifically, since the calculation corresponding to Expression (5) may be performed, the intensity modulation unit 1903 generates the back surface side grid pattern 105 and multiplies the image of the image sensor 103 by the image. Further, if the lattice pattern 105 on the back surface side is a binarized pattern as shown in FIG. 10 or FIG. 11, the intensity modulation unit 1903 simply sets the value of the image sensor 103 in the area corresponding to black to 0. Good. This makes it possible to suppress the calculation load of the multiplication operation and the scale of the multiplication circuit.

なお、この場合、画像センサ103が有する画素103a(図20)のピッチは、第1の格子パターン104のピッチを十分再現できる程度に細かいか、あるいは第1の格子パターン104のピッチは、画素103aのピッチにて再現できる程度に粗い必要がある。格子パターンを格子基板102aの両面に形成する場合は、必ずしも格子パターンのピッチが画像センサ103の画素103aにて解像できる必要はなく、そのモアレ像だけが解像できればよい。しかし、画像処理により格子パターンを再現する場合は、格子パターンと画像センサ103の解像度は同等である必要がある。 Note that in this case, the pitch of the pixels 103a (FIG. 20) included in the image sensor 103 is fine enough to sufficiently reproduce the pitch of the first grid pattern 104, or the pitch of the first grid pattern 104 is the pixel 103a. It needs to be coarse enough to be reproduced at the pitch. When the grid pattern is formed on both sides of the grid substrate 102a, the pitch of the grid pattern does not necessarily have to be resolved by the pixels 103a of the image sensor 103, and only the moire image needs to be resolved. However, when a lattice pattern is reproduced by image processing, the lattice pattern and the image sensor 103 must have the same resolution.

また、以上は強度変調部1903により第2の格子パターン105に相当する処理を実現した。しかし、これに限定されず、第2の格子パターン105はセンサに密着して入射する光の強度を変調する光学素子であるため、センサの感度を実効的に第2の格子パターン105の透過率を加味して設定することによっても実現できる。 In addition, the processing corresponding to the second lattice pattern 105 has been realized by the intensity modulator 1903. However, the second grating pattern 105 is not limited to this, and since the second grating pattern 105 is an optical element that closely modulates the intensity of light incident on the sensor, the sensitivity of the sensor can be effectively increased. It can also be realized by taking into account the setting.

<ノイズキャンセル>
これまでの説明では、式(5)から鋭いピークを持つ成分のみを取り出した式(6)に着目して話を進めたが、実際には式(5)の第4項以外の項がノイズとなる。そこで、フリンジスキャンに基づくノイズキャンセルが効果的である。
<Noise cancellation>
In the above description, the discussion was focused on Equation (6) in which only the component having a sharp peak is extracted from Equation (5), but in reality, terms other than the fourth term in Equation (5) are noise. Becomes Therefore, noise cancellation based on fringe scanning is effective.

まず、式(2)の干渉縞強度分布において、第1の格子パターン104の初期位相をΦ、第2の格子パターン105の初期位相をΦとすると、式(5)は、 First, in the interference fringe intensity distribution of Expression (2), when the initial phase of the first grating pattern 104 is Φ F and the initial phase of the second grating pattern 105 is Φ B , Expression (5) yields

Figure 2020098963
のように表せる。ここで、三角関数の直交性を利用し、
Figure 2020098963
Can be expressed as Here, using the orthogonality of trigonometric functions,

Figure 2020098963
式(19)のように式(18)をΦ、Φに関して積分すると、ノイズ項がキャンセルされ単一周波数の定数倍の項が残ることになる。前述の議論から、これをフーリエ変換すれば、空間周波数分布にノイズのない鋭いピークを生じることになる。
Figure 2020098963
When equation (18) is integrated with respect to Φ F and Φ B as in equation (19), the noise term is canceled and a term that is a constant multiple of the single frequency remains. From the above discussion, Fourier transform of this will yield a sharp peak with no noise in the spatial frequency distribution.

ここで式(19)は積分の形で示しているが、実際にはΦ、Φの組合せの総和を計算することによっても同様の効果が得られる。Φ、Φは0〜2πの間の角度を等分するように設定すればよく、{0、π/2、π、3π/2}のように4等分、{0、π/3、2π/3}のように3等分してもよい。 Here, the formula (19) is shown in the form of integration, but actually, the same effect can be obtained by calculating the total sum of the combinations of Φ F and Φ B. Φ F and Φ B may be set so as to equally divide an angle between 0 and 2π, and {0, π/2, π, 3π/2} are equally divided into four, {0, π/3. , 2π/3} may be equally divided.

さらに、式(19)は簡略化できる。式(19)では、Φ、Φを独立して変えられるように計算したが、Φ=Φすなわち格子パターン104と105の初期位相に同じ位相を適用してもノイズ項をキャンセルできる。式(19)においてΦ=Φ=Φとすれば、 Furthermore, equation (19) can be simplified. In Expression (19), Φ F and Φ B are calculated so that they can be changed independently, but Φ FB, that is, even if the same phase is applied to the initial phases of the grating patterns 104 and 105, the noise term can be canceled. .. If Φ FB =Φ in equation (19),

Figure 2020098963
となり、ノイズ項がキャンセルされ単一周波数の定数倍の項が残ることになる。また、Φは0〜2πの間の角度を等分するように設定すればよく、{0、π/2、π、3π/2}のように4等分すればよい。
Figure 2020098963
Therefore, the noise term is canceled and the term that is a constant multiple of the single frequency remains. Further, Φ may be set so as to equally divide an angle between 0 and 2π, and may be equally divided into four such as {0, π/2, π, 3π/2}.

また、等分せずとも、{0、π/2}の直交した位相を使用してもノイズ項をキャンセルでき、さらに簡略化できる。まず、図19の構成のように第2の格子パターン105を画像処理部1902で実施すれば、格子パターン105に負値を扱えるため、式(18)は、 Further, the noise term can be canceled by using the orthogonal phases of {0, π/2} without even division, and the simplification can be further achieved. First, if the image processing unit 1902 implements the second lattice pattern 105 as in the configuration of FIG. 19, a negative value can be handled in the lattice pattern 105, and therefore the equation (18) is

Figure 2020098963
となる(Φ=Φ=Φ)。格子パターン105は既知であるため、この式(21)から格子パターン105を減算し、Φ={0、π/2}の場合について加算すれば、
Figure 2020098963
FB =Φ). Since the lattice pattern 105 is known, if the lattice pattern 105 is subtracted from this equation (21) and added for the case of Φ={0, π/2},

Figure 2020098963
のようにノイズ項がキャンセルされ単一周波数の定数倍の項が残ることになる。
Figure 2020098963
Thus, the noise term is canceled and a term that is a constant multiple of the single frequency remains.

また、前述のように第1の格子パターン104と第2の格子パターン105とは、あらかじめδずらすことで空間周波数空間に生じる2つの現像画像を分離していた。しかし、この方法では現像画像の画素数が半分になる問題点がある。そこで、δずらさなくとも現像画像の重複を回避する方法について説明する。式(19)のフリンジスキャンにおいて、cosの代わりに、 Further, as described above, the first grid pattern 104 and the second grid pattern 105 separate the two developed images generated in the spatial frequency space by shifting in advance by δ 0 . However, this method has a problem that the number of pixels of the developed image is halved. Therefore, a method for avoiding overlapping of developed images without shifting by δ 0 will be described. In the fringe scan of equation (19), instead of cos,

Figure 2020098963
のようにexpを用い複素平面上で演算する。これによりノイズ項がキャンセルされ単一周波数の定数倍の項が残ることになる。式(23)中のexp(2iβδx)をフーリエ変換すれば、
Figure 2020098963
The calculation is performed on the complex plane using exp as follows. This cancels the noise term, leaving a term that is a constant multiple of the single frequency. Fourier transform of exp(2iβδx) in equation (23) gives

Figure 2020098963
となり、式(7)のように2つのピークを生じず、単一の現像画像を得られることが判る。このように、格子パターン104,105をずらす必要もなくなり、画素数を有効に使用可能となる。
Figure 2020098963
Therefore, it can be seen that a single developed image can be obtained without generating two peaks as in Expression (7). In this way, it is not necessary to shift the grid patterns 104 and 105, and the number of pixels can be effectively used.

以上のフリンジスキャンに基づくノイズキャンセル方法を行うための構成について、図22〜27を用いて説明する。フリンジスキャンでは、少なくとも格子パターン104として初期位相の異なる複数のパターンを使用する必要がある。これを実現するには、時分割でパターンを切り替える方法(図22〜25)と、空間分割でパターンを切り替える方法(図26〜27)がある。 A configuration for performing the above-described fringe scan-based noise canceling method will be described with reference to FIGS. In the fringe scan, it is necessary to use at least a plurality of patterns having different initial phases as the grid pattern 104. To realize this, there are a method of switching patterns by time division (FIGS. 22 to 25) and a method of switching patterns by space division (FIGS. 26 to 27).

図22は、時分割フリンジスキャンを実現する撮像装置101の構成例を示す図である。この撮像装置101は、図1の変調器102に替えて、変調器2201を有する。また、この撮像装置101は、変調器制御部2202と画像処理部2203を有する。 FIG. 22 is a diagram showing a configuration example of the image pickup apparatus 101 that realizes the time division fringe scan. This imaging device 101 has a modulator 2201 instead of the modulator 102 of FIG. The image pickup apparatus 101 also has a modulator control unit 2202 and an image processing unit 2203.

図23は、時分割フリンジスキャンにおける格子パターンの例を示す図である。変調器2201は、例えば電気的に図23に示す複数の初期位相を切り替えて表示することが可能(すなわち格子パターンを変更可能)な液晶表示素子などで構成される。図23の各パターンは、初期位相Φもしくは位相差Φがそれぞれ{0、π/2、π、3π/2}である。これを実現する変調器2201の液晶表示素子における電極配置の例を図24に示す。 FIG. 23 is a diagram showing an example of a lattice pattern in the time division fringe scan. The modulator 2201 is composed of, for example, a liquid crystal display element capable of electrically switching and displaying a plurality of initial phases shown in FIG. 23 (that is, capable of changing a lattice pattern). In each pattern of FIG. 23, the initial phase Φ F or the phase difference Φ is {0, π/2, π, 3π/2}, respectively. An example of the electrode arrangement in the liquid crystal display element of the modulator 2201 that realizes this is shown in FIG.

図24は、時分割フリンジスキャンを実現する変調器2201の構成例を示す図である。変調器2201には、格子パターンの1周期を4分割するように同心円状電極が設けられており、内側から4本おきに電極が結線され、外周部から駆動端子として4本の電極が引き出されている。変調器制御部2202によってこれら4つの電極に印加する電圧状態を“0”と“1”の2つの状態で時間的に切り替えることで、格子パターンの初期位相ΦもしくはΦを図24のように{0、π/2、π、3π/2}と切り替えることが可能となる。なお、図24において、網掛けで示した“1”を印加した電極が光を遮蔽し、白で示した“0”を印加した電極が光を透過させることに対応している。 FIG. 24 is a diagram showing a configuration example of the modulator 2201 that realizes time division fringe scanning. The modulator 2201 is provided with concentric electrodes so as to divide one period of the lattice pattern into four, and every four electrodes are connected from the inside, and four electrodes are drawn out from the outer peripheral portion as drive terminals. ing. The modulator control unit 2202 temporally switches the voltage states applied to these four electrodes between two states of "0" and "1", so that the initial phase Φ F or Φ of the lattice pattern is changed as shown in FIG. It is possible to switch to {0, π/2, π, 3π/2}. It is to be noted that in FIG. 24, the shaded electrode corresponds to the electrode to which “1” is applied shields the light, and the shaded electrode corresponds to the electrode to which “0” is applied transmits the light.

図25は、時分割フリンジスキャンを実現する画像処理部2203の画像処理の一例を示すフローチャートである。図21のフローチャートと異なるところは、ステップ501より前のステップ2501〜2504の処理である。ステップ501〜506の処理は、図21の対応する処理と同様であるので、ここでは説明を省略する。 FIG. 25 is a flowchart showing an example of the image processing of the image processing unit 2203 that realizes the time division fringe scanning. The difference from the flowchart of FIG. 21 is the processing of steps 2501 to 2504 before step 501. The processing of steps 501 to 506 is the same as the corresponding processing of FIG. 21, so description thereof will be omitted here.

まず、画像処理部2203は、フリンジスキャン演算の初めに加算結果をリセットする(2501)。次に、式(20)に対応する場合には、画像処理部2203は、撮影に使用された格子パターン104と同じ初期位相を設定し(2502)、その初期位相を持つ格子パターン105を生成し、画像センサ103の出力画像に対して乗算する(2101)。画像処理部2203は、この乗算結果を各初期位相のパターン毎に加算する(2503)。画像処理部2203は、以上のステップ2502〜2503の処理を全ての初期位相のパターン数繰り返す(2504でNO)。全ての位相について処理が終了した場合(2504でYES)、画像処理部2203は、処理をステップ501に進める。なお、上記フローチャートは式(20)を例に説明したが、式(19)、式(22)、式(23)にも同様に適用することが可能である。 First, the image processing unit 2203 resets the addition result at the beginning of the fringe scan calculation (2501). Next, in the case of corresponding to Expression (20), the image processing unit 2203 sets the same initial phase as the grid pattern 104 used for imaging (2502) and generates the grid pattern 105 having the initial phase. , The output image of the image sensor 103 is multiplied (2101). The image processing unit 2203 adds the multiplication result for each initial phase pattern (2503). The image processing unit 2203 repeats the above steps 2502 to 2503 for all the patterns of the initial phase (NO in 2504). If the processing has been completed for all the phases (YES in 2504), the image processing unit 2203 advances the processing to step 501. In addition, although the above-described flowchart has been described by using the equation (20) as an example, it can be similarly applied to the equations (19), (22), and (23).

図26は、空間分割フリンジスキャンを実現する撮像装置101の構成例を示す図である。この撮像装置101は、図1の変調器102に替えて、変調器2601を有する。また、この撮像装置101は、画像分割部2602と画像処理部2203を有する。 FIG. 26 is a diagram showing a configuration example of the image pickup apparatus 101 that realizes the space division fringe scan. This imaging device 101 has a modulator 2601 instead of the modulator 102 of FIG. The image pickup apparatus 101 also includes an image division unit 2602 and an image processing unit 2203.

図27は、空間分割フリンジスキャンにおける格子パターンの例を示す図である。変調器2601は、例えば図27の初期位相ΦFもしくはΦがそれぞれ{0、π/2、π、3π/2}のパターンように、2次元的に配列した複数の初期位相のパターンを有する。画像分割部2602は、画像センサ103の出力画像を変調器2601のパターン配置に対応した領域画像に分割し、画像処理部2203に順次伝送する。図26の例では、画像センサ出力は、2×2の領域に分割される。式(20)に基づくフリンジスキャンでは4位相必要であるため、変調器2601は2×2のパターン配置を有する。式(22)に基づくフリンジスキャンは2位相で実現できるため、変調器2601は1×2のパターン配置で実現可能であり、それに応じて画像センサ出力も1×2の領域に分割される。以降の画像処理部2203の処理は、時分割フリンジスキャンである図22の処理と同等であるため、説明を省略する。 FIG. 27 is a diagram showing an example of a lattice pattern in the space division fringe scan. The modulator 2601 has a plurality of initial phase patterns arranged two-dimensionally such that the initial phase ΦF or Φ of FIG. 27 is {0, π/2, π, 3π/2}, respectively. The image division unit 2602 divides the output image of the image sensor 103 into area images corresponding to the pattern arrangement of the modulator 2601, and sequentially transmits the area images to the image processing unit 2203. In the example of FIG. 26, the image sensor output is divided into 2×2 areas. Since the fringe scan based on the equation (20) requires four phases, the modulator 2601 has a 2×2 pattern arrangement. Since the fringe scan based on the equation (22) can be realized in two phases, the modulator 2601 can be realized in a 1×2 pattern arrangement, and the image sensor output is also divided into 1×2 regions accordingly. The subsequent processing of the image processing unit 2203 is the same as the processing of FIG. 22 which is a time-division fringe scan, and thus the description thereof is omitted.

この空間分割フリンジスキャンを用いれば、時分割フリンジスキャンの変調器2201のように電気的に格子パターンを切り替える必要がなく、安価に変調器を作製することができる。しかし、空間分割フリンジスキャンを用いると画像を分割するため解像度が実効的に低下する。よって、解像度を上げる必要がある場合には時分割フリンジスキャンが適している。 By using this space division fringe scan, it is not necessary to electrically switch the grid pattern unlike the time division fringe scan modulator 2201, and the modulator can be manufactured at low cost. However, when the space division fringe scan is used, the image is divided and the resolution is effectively reduced. Therefore, when it is necessary to increase the resolution, the time division fringe scan is suitable.

<歪み補正原理>
更にここで、第1の格子パターン104が厚みを持ち、かつその屈折率nが1ではない場合を考える。図28は、被写体からの光線が光学部の厚みと屈折率、被写体位置によってずれて画像センサ上に投影される様子を説明する図である。図28では、格子パターン104が厚みlの光学部2801、lの光学部2802で挟み込まれている。また、近距離にある物体を構成するある点からの光の主軸は、格子パターン中心を通り画像センサ103に到達する。
<Distortion correction principle>
Further, let us consider a case where the first grating pattern 104 has a thickness and the refractive index n thereof is not 1. FIG. 28 is a diagram for explaining how a light beam from a subject is projected on an image sensor with a shift depending on the thickness and refractive index of the optical section and the subject position. In FIG. 28, the lattice pattern 104 is sandwiched between the optical units 2801 and 282 having a thickness l 1 and l 2 . Further, the principal axis of light from a certain point that constitutes an object at a short distance reaches the image sensor 103 through the center of the lattice pattern.

物体を構成する点2803が格子パターン104の中心直上にある場合、その光線は光学部2801の厚みl、光学部2802の厚みl、屈折率に関わらず画像センサの同一箇所に到達する。その一方で、格子パターン104の中心からずれた位置にある物体を構成する点2804からの光線はその点の位置、光学部2801の厚みl、光学部2802の厚みl、屈折率によって画像センサに到達する位置が異なる。仮に物体を構成する点の2804の位置をx,yとすると到達位置のずれ量δrは If 2803 points constituting the object is directly above the center of the grating pattern 104, the beam thickness l 1 of the optical portion 2801, the thickness l 2 of the optical portion 2802, and reaches the same position of the image sensor regardless of the refractive index. On the other hand, the beam position of the point from 2804 points constituting an object in a position shifted from the center of the grating pattern 104, the thickness l 1 of the optical portion 2801, the thickness l 2 of the optical portion 2802, an image by the refractive index The position to reach the sensor is different. Assuming that the positions 2804 of the points forming the object are x and y, the deviation amount δr of the arrival position is

Figure 2020098963
となる。このずれが含まれた状態で被写体の撮影を行うと表示画像は歪むことになる。仮に画像センサと格子パターンの中心が一致していた場合、δrの値はx,yが大きいほど、つまり中心から遠い箇所ほど大きく歪んだ画像として表示される。
Figure 2020098963
Becomes If the subject is photographed in a state where this shift is included, the display image will be distorted. If the center of the image sensor and the center of the grid pattern are coincident with each other, the larger the x and y values of δr, that is, the farther from the center, the more distorted the image is displayed.

図29は、撮影される被写体の歪みの発生の一例を示す図である。図29に示すような格子模様を被写体とした場合、屈折率が1であるか、または光学部2801、光学部2802の厚みがともに0であれば、歪みなく撮影され図29右上に示すように同一の画像が撮像され、表示される。一方で、屈折率が1より大きく、かつ光学部2801の厚みl、光学部2802の厚みlが0より大きい場合、図29右下に示すように歪んだ画像が表示される。 FIG. 29 is a diagram showing an example of occurrence of distortion of a subject to be photographed. When the lattice pattern as shown in FIG. 29 is used as a subject, if the refractive index is 1 or the thicknesses of the optical units 2801 and 2802 are both 0, the image is taken without distortion and as shown in the upper right of FIG. The same image is captured and displayed. On the other hand, the refractive index is greater than 1, and when the thickness l 1 of the optical portion 2801, the thickness l 2 of the optical portion 2802 is larger than 0, a distorted image as shown in the lower right Figure 29 is displayed.

そこで、式(25)から計算されるδrを利用し、歪みを補正する方法を考える。図30は、画像歪み補正により画像の歪みを補正した状態で被写体を撮影することを実現する撮像装置の構成例を示す図である。具体的には、撮像装置101は、画像歪み補正部3201を含んでいる。基本的な撮影原理は図1で示したものと同一であるが、画像表示前に画像歪み補正部3201によって画像歪みを除去する補正を行う。この補正では、画像歪み補正部3201は、式(25)から計算されるδrを用いる。その計算に必要なパラメータを入力する為に、画像歪み補正部3201は、画像歪み補正設定値入力部3202を使用する。ここで画像歪み補正設定値入力部3202が入力を受け付ける設定値は、光学部2801の厚みl及び屈折率、光学部2802の厚みl及び屈折率、光学部2801表面から被写体までの距離dである。この補正の処理によって、画像表示部107で表示される画像は歪みが除去され、被写体を正しく表示することが可能となる。 Therefore, a method of correcting the distortion by using δr calculated from Expression (25) will be considered. FIG. 30 is a diagram illustrating a configuration example of an image pickup apparatus that realizes shooting of a subject in a state where image distortion is corrected by image distortion correction. Specifically, the image pickup apparatus 101 includes an image distortion correction unit 3201. Although the basic photographing principle is the same as that shown in FIG. 1, the image distortion correction unit 3201 performs correction to remove the image distortion before displaying the image. In this correction, the image distortion correction unit 3201 uses δr calculated from Expression (25). The image distortion correction unit 3201 uses the image distortion correction setting value input unit 3202 to input the parameters necessary for the calculation. Here, the set values that the image distortion correction set value input unit 3202 accepts are the thickness l 1 and the refractive index of the optical unit 2801, the thickness l 2 and the refractive index of the optical unit 2802, and the distance d from the surface of the optical unit 2801 to the subject. Is. By this correction process, the distortion of the image displayed on the image display unit 107 is removed, and the subject can be displayed correctly.

ここで、画像歪み補正設定値入力部3202に入力する値は、撮像装置101の設計値でも良いが、装置毎に必要な設定値を測定しても良い。例えば距離dが既知の点光源を被写体として撮影すれば光学部2801の厚みl及び光学部2802の厚みlを逆算することが可能となる。これによって装置製造時の個体差を除去することが可能となる。 Here, the value input to the image distortion correction set value input unit 3202 may be a design value of the image pickup apparatus 101, or a necessary set value may be measured for each apparatus. For example the distance d becomes possible to back calculate the thickness l 1 and thickness l 2 of the optical unit 2802 of the optical portion 2801 if capturing a known point source as the subject. This makes it possible to eliminate individual differences when manufacturing the device.

また、本実施形態では、例として格子パターン104の前後に接触する形で各光学部2801、2802が配置された例を示したが、これに限られず、各光学部2801、2802は、格子パターン104と接触せず離れていても良いし、その数はいくつであっても構わない。これによって、例えば画像センサ103にカバーガラスが付随している場合でもその影響を除去することが可能となり、より精度の良い歪み補正が可能となる。 Further, in the present embodiment, as an example, the respective optical units 2801 and 2802 are arranged in contact with the front and rear of the lattice pattern 104, but the present invention is not limited to this, and the respective optical units 2801 and 2802 are arranged in the lattice pattern. They may be separated from each other without contacting 104, and the number thereof may be any number. As a result, even if the image sensor 103 is provided with a cover glass, the influence thereof can be removed, and more accurate distortion correction can be performed.

[第二実施形態]
<接写における問題>
上記の実施形態では、撮像装置から被写体が一定距離以上離れている場合を想定して説明した。第二の実施形態では、被写体を接写撮影する場合の問題点について説明する。まず初めに画角について再定義する。これまでの説明では、入射角θの光線のモアレ縞の空間周波数スペクトルのピーク位置u(式(9))が、画像センサ103のピクセルピッチによって決定される上限周波数N/(2S)よりも大きい場合で、画角θmaxを定義(式(13))していた。一方で、βが小さい、または画像センサ103のピクセルピッチ(S/N)が小さく、ピーク位置uが上限周波数よりも小さい場合には、画角の定義が異なる。
図31は、その画角θmax2を説明する図である。第1の格子パターン104を構成する同心円状の格子パターンの基準座標と、画像センサ103の端とを通る直線の傾きであるθmax2が、現像できる最大の画角となる。よって、画角θmax2は、第1の格子パターンからdだけ離れた距離の撮像において、画像センサ103の大きさSと変調器の厚さtを用いて、
[Second embodiment]
<Problems with close-up photography>
The above embodiment has been described on the assumption that the subject is distant from the imaging device by a certain distance or more. In the second embodiment, problems in the case of taking a close-up image of a subject will be described. First, the angle of view is redefined. In the description so far, the peak position u (equation (9)) of the spatial frequency spectrum of the moire fringes of the light ray having the incident angle θ is larger than the upper limit frequency N/(2S) determined by the pixel pitch of the image sensor 103. In some cases, the angle of view θ max was defined (equation (13)). On the other hand, when β is small or the pixel pitch (S/N) of the image sensor 103 is small and the peak position u is smaller than the upper limit frequency, the definition of the angle of view is different.
FIG. 31 is a diagram for explaining the angle of view θ max2 . Θ max2 , which is the inclination of a straight line that passes through the reference coordinates of the concentric circular grid pattern that constitutes the first grid pattern 104 and the end of the image sensor 103, is the maximum field angle that can be developed. Therefore, the angle of view θ max2 is calculated by using the size S of the image sensor 103 and the thickness t of the modulator in imaging at a distance d from the first lattice pattern.

Figure 2020098963
のように表せる。また、視野の直径Aは、θmax2を用いて、
Figure 2020098963
Can be expressed as Further, the diameter A of the visual field is θ max2 ,

Figure 2020098963
となる。
Figure 2020098963
Becomes

ここで、接写時には、撮像する物体からの散乱角や、画像センサのCRA(Chief Ray Angle)特性によって視野が狭まることが問題となる。 Here, at the time of close-up photography, there is a problem that the field of view is narrowed due to the scattering angle from the object to be imaged and the CRA (Chief Ray Angle) characteristic of the image sensor.

まず、撮像する物体からの散乱角による視野の制限について説明する。図32は、物体が近距離にある場合に物体を構成するある点からの光が照射する格子パターンの範囲と視野を説明する図である。図32は、物体のある点からの光の拡がり角(散乱角)θを示している。物体を構成する点3401乃至点3403からの散乱光が第1の格子パターン104を照射する場合、第1の格子パターン104における照射領域の直径Bは、散乱角θを用いて、 First, the limitation of the visual field due to the scattering angle from the object to be imaged will be described. FIG. 32 is a diagram for explaining a range and a field of view of a lattice pattern irradiated by light from a certain point that constitutes the object when the object is at a short distance. FIG. 32 shows the spread angle (scattering angle) θ s of light from a certain point on the object. When the scattered light from the points 3401 to 3403 forming the object irradiates the first grating pattern 104, the diameter B of the irradiation region in the first grating pattern 104 is calculated by using the scattering angle θ s .

Figure 2020098963
となる。このように、接写時には第1の格子パターン104のうち照射領域しか使用することができない。なお、現実には散乱光強度は散乱角が大きくなるに従い徐々に減衰するものであるが、図32では簡単化のため、照射領域のみ散乱光が到達しているとしている。
Figure 2020098963
Becomes As described above, only the irradiation area of the first grid pattern 104 can be used during close-up photography. In reality, the scattered light intensity gradually attenuates as the scattering angle increases, but in FIG. 32, the scattered light reaches only the irradiation region for simplification.

上述したように、入射光が第1の格子パターン104を構成する同心円状の格子パターンの基準座標を通る場合に撮像が可能となる。そのため、散乱光が基準座標を通る点3401や点3402の撮像はできる一方で、基準座標を通らない点3403などの撮像はできない。図32のように、θ≦θmax2となる場合には、画角は散乱角θで決定され、視野の直径Aは、 As described above, imaging can be performed when the incident light passes through the reference coordinates of the concentric lattice pattern forming the first lattice pattern 104. Therefore, the points 3401 and 3402 through which the scattered light passes the reference coordinates can be captured, but the points 3403 and the like that do not pass the reference coordinates cannot be captured. When θ s ≦θ max2 as shown in FIG. 32, the angle of view is determined by the scattering angle θ s , and the diameter A s of the visual field is

Figure 2020098963
となる。
Figure 2020098963
Becomes

次に、画像センサのCRA特性による視野の制限について説明する。受光素子の表面または背面にある配線等の配置や受光素子の通常前面に配置するマイクロレンズアレイの設計によって、画像センサの受光光量には、CRA特性とよばれる角度依存性がみられる。そこで、CRA特性に基づいて、入射光が入射角θまで受光できるとすると、θ≦θmax2となるような画像センサを用いた撮像では、画角はθで決定され、視野Aは、 Next, the limitation of the visual field due to the CRA characteristic of the image sensor will be described. Depending on the layout of the wiring or the like on the front surface or the back surface of the light receiving element or the design of the microlens array normally arranged on the front surface of the light receiving element, the amount of light received by the image sensor has an angle dependency called CRA characteristic. Therefore, if it is assumed that the incident light can be received up to the incident angle θ i based on the CRA characteristics, the angle of view is determined by θ i and the field of view A i is determined in imaging using an image sensor that satisfies θ i ≦θ max2. Is

Figure 2020098963
となる。ただし、θ≦θの場合の視野は式(29)となる。
Figure 2020098963
Becomes However, the field of view in the case of θ s ≦θ i is given by equation (29).

なお、入射角θはCRA特性の半値半幅となる角度で決定するのがよいが、これに限
定するものではなく、半値半幅より小さい角度に設計すれば周辺光量減衰が起き難く、半値半幅より大きい角度に設計すれば視野が大きくなる。
Note that the incident angle θ i is preferably determined by an angle that is the half-width at half maximum of the CRA characteristic, but is not limited to this, and if the angle is designed to be smaller than the half-width at half maximum, peripheral light amount attenuation is less likely to occur, and the half-width at half maximum is less. The larger the angle, the larger the field of view.

<接写時の視野拡大方法>
そこで、接写時に視野を拡大する方法について説明する。
<Field of view expansion method for close-up photography>
Therefore, a method of expanding the field of view during close-up will be described.

図33は、複眼の格子パターンと複数の画像センサの組み合わせによる広視野化を実現する撮像装置の構成例を示す図である。この撮像装置101は、図19と異なり、複眼格子パターン3503が形成された変調器301と、複眼画像センサ3004と、画像合成部3506と、画像処理部106とを有する。複眼格子パターン3503は、中心から端へ向かうほど縞のピッチが狭くなる同心円状の格子パターンからなる基本パターン(基本格子パターン)3502を複数配列することで構成される。複眼画像センサ3004は、画像センサ3505を複数配列することで構成される。 FIG. 33 is a diagram showing a configuration example of an imaging device that realizes a wide field of view by combining a compound eye lattice pattern and a plurality of image sensors. Unlike the configuration shown in FIG. 19, the image pickup apparatus 101 includes a modulator 301 in which a compound eye lattice pattern 3503 is formed, a compound eye image sensor 3004, an image combining unit 3506, and an image processing unit 106. The compound-eye lattice pattern 3503 is configured by arranging a plurality of basic patterns (basic lattice patterns) 3502, each of which is a concentric lattice pattern in which the pitch of stripes becomes narrower from the center toward the edge. The compound eye image sensor 3004 is configured by arranging a plurality of image sensors 3505.

図34は、複眼の格子パターンの一例を示す図である。この例では、基本パターン3502を3×3に互いに重なることなく配列することで複眼格子パターン3503を実現している。この場合、各画像センサ3505は、各基本パターン3502と対応するように3×3で配置される。 FIG. 34 is a diagram showing an example of a compound eye lattice pattern. In this example, the compound eye grid pattern 3503 is realized by arranging the basic patterns 3502 in 3×3 without overlapping each other. In this case, the image sensors 3505 are arranged in 3×3 so as to correspond to the basic patterns 3502.

図35は、図33に示す複眼の格子パターンと複数の画像センサによる視野を説明する図である。複数の基本パターン3502と複数の画像センサ3505のうち、n番目の基本パターン3502とn番目の画像センサ3505の組み合わせによるn番目の視野をA、画角をθ、n番目とn+1番目の基本パターン3502の中心間距離をq、複数の基本パターン3502と複数の画像センサ3505の一次元方向の個数をNとする。なお、各基本パターンの視野Aは、互いに異なっている。このとき、合成視野Aは、 FIG. 35 is a diagram for explaining the compound eye grid pattern shown in FIG. 33 and the field of view by a plurality of image sensors. Of the plurality of basic patterns 3502 and the plurality of image sensors 3505, the n-th field of view by the combination of the n-th basic pattern 3502 and the n-th image sensor 3505 is A n , the angle of view is θ n , and the n-th and n+1-th fields. It is assumed that the center-to-center distance of the basic pattern 3502 is q n , and the number of the basic patterns 3502 and the image sensors 3505 in the one-dimensional direction is N. The visual fields A n of the respective basic patterns are different from each other. At this time, the synthetic visual field A N is

Figure 2020098963
となる。つまり、基本パターン3502と画像センサ3505の一対一の組み合わせ(基本ユニットともいう)を複数用いることで、それぞれの組み合わせで撮像できる視野を合成し拡大することができる。
Figure 2020098963
Becomes That is, by using a plurality of one-to-one combinations (also referred to as basic units) of the basic pattern 3502 and the image sensor 3505, it is possible to combine and expand the fields of view that can be imaged by each combination.

ただし、複眼格子パターン3503から撮像対象までの距離dが短いと、各基本パターン3502の視野が小さくなり、合成視野Aに隙間ができる。隙間が生じない連続した視野を得るためには、Aがq以上であれば良く、A=2d・tanθ≧qを満たすようなdとqを設定すれば良い。 However, when the distance d from the compound-eye lattice pattern 3503 to the imaging target is short, the visual field of each basic pattern 3502 becomes small, and a gap is formed in the synthetic visual field A N. To obtain a field of view continuous gap does not occur, A n is as long or q n, may be set to d and q n which satisfies A n = 2d · tanθ n ≧ q n.

続いて、上述の複眼画像センサ3004及び複眼格子パターン3503を使った撮像の画像処理について、図36〜40を用いて説明する。 Subsequently, image processing of image pickup using the above-described compound eye image sensor 3004 and compound eye lattice pattern 3503 will be described with reference to FIGS.

図36は、画像歪み補正処理の一例を示すフローチャートである。図21のフローチャートと異なるところは、ステップ504とステップ505の間に追加されたステップ3801およびステップ3802の処理である。なお、画像処理部106は、ステップ2101〜ステップ504の処理を、複数の画像センサ3505の出力するセンサ画像それぞれについて行う。 FIG. 36 is a flowchart showing an example of the image distortion correction processing. The difference from the flowchart of FIG. 21 is the processing of step 3801 and step 3802 added between step 504 and step 505. The image processing unit 106 performs the processes of steps 2101 to 504 on each of the sensor images output by the plurality of image sensors 3505.

画像歪み補正部3201は、ステップ3801にて画像歪み補正設定値入力部3202からの入力値に従って各画像センサ3505の出力画像に対して画像歪み補正を行う。続いて、画像合成部3506は、ステップ3802にて、各画像センサ3505の配列に従ってステップ3801の出力画像を並び替え、これらを合成する。ここで、ステップ3801において画像歪み補正を行っているために、ステップ3802において正しく画像の合成を行うことが可能となる。 The image distortion correction unit 3201 performs image distortion correction on the output image of each image sensor 3505 according to the input value from the image distortion correction setting value input unit 3202 in step 3801. Subsequently, in step 3802, the image combining unit 3506 rearranges the output images in step 3801 according to the arrangement of the image sensors 3505 and combines these. Here, since the image distortion correction is performed in step 3801, it is possible to correctly combine the images in step 3802.

ステップ3801において画像歪み補正に用いる設定値は画像歪み補正設定値入力部3202を介して入力された光学部2801の厚みl及び屈折率、光学部2802の厚みl2及び屈折率、光学部2801表面から被写体までの距離dである。 The setting values used for image distortion correction in step 3801 are the thickness l 1 and the refractive index of the optical unit 2801, the thickness l 2 and the refractive index of the optical unit 2802, and the optical unit 2801 which are input via the image distortion correction setting value input unit 3202. The distance d from the surface to the subject.

ここで、画像歪み補正設定値入力部3202が入力される値は、撮像装置101の設計値でも良いが、装置の個体毎に必要な設定値を測定しても良い。例えば、基本格子パターン3502の直上にそれぞれ距離dが既知の点光源を被写体として撮影すれば、光学部2801及び光学部2802の厚みであるl1,2を逆算で求めることが可能となる。これによって装置製造時の個体差を除去することが可能となる。 Here, the value input to the image distortion correction set value input unit 3202 may be a design value of the image pickup apparatus 101, or a necessary set value may be measured for each individual apparatus. For example, if a point light source with a known distance d is photographed as an object directly above the basic lattice pattern 3502, the thicknesses l 1 and l 2 of the optical units 2801 and 2802 can be obtained by back calculation. This makes it possible to eliminate individual differences when manufacturing the device.

図37は、合成方法の一例を説明する図である。また、図38は、合成画像を説明する図である。図37と図38は、ともに、ステップ3802の合成方法の一例を説明する図である。図37におけるAは、図35における合成視野Aであり、AとAn+1は、図35におけるn番目とn+1番目の基本パターン3502による視野Aと視野An+1である。また、図36のステップ3801の出力画像を、出力画像3901と出力画像3902として表している。 FIG. 37 is a diagram illustrating an example of a synthesizing method. In addition, FIG. 38 is a diagram illustrating a composite image. 37 and 38 are diagrams illustrating an example of the combining method in step 3802. In FIG. 37, A N is the combined visual field A N in FIG. 35, and A n and A n+1 are the visual field A n and visual field A n+1 by the nth and n+1th basic patterns 3502 in FIG. Also, the output images of step 3801 in FIG. 36 are represented as output images 3901 and 3902.

図38では、出力画像3901と出力画像3902の合成画像が示されている。ステップ3802では、n番目とn+1番目の基本パターン3502の中心間距離qに相当するピクセル数だけ、出力画像3901及び出力画像3902の少なくとも一方をずらして足し合わせることで一枚の合成画像が得られる。 In FIG. 38, a composite image of the output image 3901 and the output image 3902 is shown. In Step 3802, one composite image is obtained by shifting and adding at least one of the output image 3901 and the output image 3902 by the number of pixels corresponding to the center-to-center distance q n of the nth and n+1th basic patterns 3502. To be

次に、図38を用いて、合成後の輝度補正について説明する。重複領域4001は、出力画像3901と出力画像3902の視野Aと視野An+1が重なる領域を示している。合成後の重複領域4001の輝度は、出力画像3901と出力画像3902の足し合わせとなる。そのため、重複領域4001と視野の重なっていないその他の領域との輝度差を無くし、滑らかな輝度分布とするためには、重複領域4001の輝度補正が必要である。出力画像3901の重複領域4001に相当する領域の輝度と、出力画像3902の重複領域4001に相当する領域の輝度と、が一致する場合には、合成後の重複領域4001の輝度を1/2にすることで容易に補正できる。 Next, the luminance correction after the combination will be described with reference to FIG. An overlapping area 4001 indicates an area where the visual fields A n and A n+1 of the output image 3901 and the output image 3902 overlap. The brightness of the overlapping area 4001 after the combination is the sum of the output image 3901 and the output image 3902. Therefore, in order to eliminate the difference in brightness between the overlapping area 4001 and other areas where the fields of view do not overlap and to obtain a smooth brightness distribution, it is necessary to correct the brightness of the overlapping area 4001. When the luminance of the area corresponding to the overlapping area 4001 of the output image 3901 and the luminance of the area corresponding to the overlapping area 4001 of the output image 3902 match, the luminance of the overlapping area 4001 after combining is halved. By doing so, it can be easily corrected.

しかしながら、実際の輝度は、CRA等の影響によって、中心から端になるほど減衰する分布を持つため、出力画像3901の重複領域4001に相当する領域の輝度と出力画像3902の重複領域4001に相当する領域の輝度とが一致せず、合成後の輝度を1/2としても輝度差を補正することができないことが多い。そこで、出力画像3901または出力画像3902のいずれかの画像のうち、視野Aと視野An+1が重なる重複領域4001に相当する領域のいずれか一方を採用して合成する、または、両方の画像を端からq/2に対応するピクセル数だけ切り取って重なり部分を無くした画像を足し合わせる。これらのいずれかの方法により、輝度補正をすることなく、輝度差を低減することができる。 However, since the actual luminance has a distribution that is attenuated from the center to the edge due to the influence of CRA or the like, the luminance of the area corresponding to the overlapping area 4001 of the output image 3901 and the area corresponding to the overlapping area 4001 of the output image 3902. In many cases, the brightness does not match, and the brightness difference cannot be corrected even if the brightness after synthesis is halved. Therefore, of either the output image 3901 or the output image 3902, either one of the regions corresponding to the overlapping region 4001 in which the visual field A n and the visual field A n+1 overlap is adopted, or both images are combined. Images are cut out from the edge by the number of pixels corresponding to q n /2 and the overlapping portions are eliminated, and the images are added together. By any of these methods, the brightness difference can be reduced without performing brightness correction.

なお、本実施例では画像センサ3505を複数使用する説明をしたが、複眼格子パターン3503に対して画像センサ3505が十分大きい場合には一枚の画像センサ3505で使用しても構わない。その場合、画像センサ3505から出力される画像を基本パターン3502の個数に応じて分割すれば、画像センサ3505を複数用いた場合と同等の処理が可能である。 It should be noted that in the present embodiment, a plurality of image sensors 3505 are used, but one image sensor 3505 may be used when the image sensor 3505 is sufficiently larger than the compound eye lattice pattern 3503. In that case, if the image output from the image sensor 3505 is divided according to the number of the basic patterns 3502, the same processing as when using a plurality of image sensors 3505 is possible.

また、図35などでは基本パターン3502と画像センサ3505の一次元方向の配列に着目して説明したが、この構成は、同様に直交する方向にも拡張することにより二次元配列についても適用可能である。 Further, although the basic pattern 3502 and the image sensor 3505 have been described focusing on the one-dimensional array in FIG. 35 and the like, this configuration is also applicable to a two-dimensional array by expanding in the orthogonal direction as well. is there.

また、基本パターン3502の個数も、図示したものに限定されるものではない。基本パターン3502の個数によって視野が決定するため、撮像対象の大きさに合わせて適宜変更されるものであってもよい。 Further, the number of basic patterns 3502 is not limited to that shown in the figure. Since the field of view is determined by the number of basic patterns 3502, it may be appropriately changed according to the size of the imaging target.

また、基本パターン3502から撮像対象までの距離を離す(大きくする)と視野は広くなる。このようにすれば、同一の広さの視野を得るのに必要な基本パターン3502の個数を減らすことができる。 Further, if the distance from the basic pattern 3502 to the imaging target is increased (increased), the visual field becomes wider. By doing so, it is possible to reduce the number of basic patterns 3502 required to obtain the same field of view.

図39は、画像センサの配置例を説明する図である。図39では、各画像センサ3505の向き(配線の向き)を揃えた(同一方向に向けた)配置を示している。一般的な画像センサは、信号を伝送するための配線が受光面の横から出ている。複数の画像センサ3505を配置するには、配線同士の干渉や受光面4101への配線の重なりが発生しないように画像センサ3505同士の間隔を空ける必要があり、受光面同士を一定距離以内に近づけられない場合がある。 FIG. 39 is a diagram illustrating an arrangement example of image sensors. FIG. 39 shows an arrangement in which the directions of the image sensors 3505 (the directions of the wirings) are aligned (in the same direction). In a general image sensor, wiring for transmitting a signal extends from the side of the light receiving surface. When arranging the plurality of image sensors 3505, it is necessary to space the image sensors 3505 so that interference between wirings and overlapping of wirings on the light receiving surface 4101 do not occur, and the light receiving surfaces are brought close to each other within a certain distance. You may not be able to.

図40は、画像センサの他の配置例を説明する図である。図40では、各画像センサ3505の向き(配線の向き)が画像センサ3505の外側を向くようにした配置を示している。配線の位置は画像センサの種類によって異なるが、少なくとも一部の画像センサ3505の向きを他の画像センサ3505の向きと異ならせて配置することで、配線による受光面間の距離の制約(一定距離以内に近づけられない制約)を回避することができる。 FIG. 40 is a diagram illustrating another arrangement example of the image sensor. FIG. 40 shows an arrangement in which the orientation of each image sensor 3505 (wiring orientation) faces the outside of the image sensor 3505. Although the position of the wiring differs depending on the type of the image sensor, by arranging at least some of the image sensors 3505 so as to be different from the directions of other image sensors 3505, the distance between the light receiving surfaces due to the wiring is restricted (a fixed distance). It is possible to avoid the restriction that cannot be approached within.

以上の方法及び構成に依れば、画像センサ3505と基本パターン3502の組み合わせを複数用いることで、それぞれで撮像できる視野を合成し拡大することができる。本実施形態によれば、簡易な構成で、薄型であり、かつ、歪みが補正され接写時の視野が拡大された撮像装置を提供することができる。 According to the above method and configuration, by using a plurality of combinations of the image sensor 3505 and the basic pattern 3502, it is possible to combine and expand the fields of view that can be imaged by each. According to the present embodiment, it is possible to provide an image pickup apparatus having a simple configuration, a thin shape, a distortion corrected, and a field of view enlarged at the time of close-up photography.

[第三実施形態]
<注視方向の設計>
第三の実施形態を用いて、複眼格子パターン3503を用いた撮像における注視方向について説明する。
[Third embodiment]
<Gaze direction design>
The gaze direction in imaging using the compound-eye lattice pattern 3503 will be described using the third embodiment.

図41は、注視方向の一例を説明する図である。とくに、図41は、複眼格子パターン3503による撮像の注視方向の一例を説明する図である。Aは、式(26)により画角が決定される場合に、n番目の基本パターン4301によって取得できる視野を示している。また、ここでは、基本パターン4301を構成する同心円状の格子パターンの基準座標と画像センサ3505の受光面の中心座標は一致していない。なお、画像センサ3505の受光面の中心座標は、受光面の四隅を結ぶ対角線の交点とする。 FIG. 41 is a diagram illustrating an example of a gaze direction. In particular, FIG. 41 is a diagram for explaining an example of the gaze direction of imaging by the compound-eye lattice pattern 3503. A n, when the angle of view by the equation (26) is determined, which indicates the field of view can be obtained by the n-th basic pattern 4301. Further, here, the reference coordinates of the concentric lattice pattern forming the basic pattern 4301 and the center coordinates of the light receiving surface of the image sensor 3505 do not match. The center coordinates of the light receiving surface of the image sensor 3505 are the intersections of the diagonal lines that connect the four corners of the light receiving surface.

第1実施形態でも説明したとおり、式(26)で決定される画角は、画像センサ3505の受光面の端と基本パターン4301を構成する同心円状の格子パターンの基準座標とを通る直線の傾きにより特定される。従って、注視方向は、基本パターン4301を構成する同心円状の格子パターンの基準座標と視野Aの中心との2点を結んだベクトルとなる。つまり、基本パターン4301を構成する同心円状の格子パターンの基準座標と画像センサ3505の受光面の中心座標の位置の設計時の設定によって、注視方向を変えることができるといえる。 As described in the first embodiment, the angle of view determined by the equation (26) is the inclination of a straight line passing through the edge of the light receiving surface of the image sensor 3505 and the reference coordinates of the concentric circular grid pattern forming the basic pattern 4301. Specified by Thus, gaze direction is the vector connecting the two points and the center of the reference coordinates and the field A n of concentric grating pattern constituting the basic pattern 4301. That is, it can be said that the gaze direction can be changed by designing the positions of the reference coordinates of the concentric lattice pattern forming the basic pattern 4301 and the center coordinates of the light receiving surface of the image sensor 3505.

図42は、注視方向の他の例を説明する図である。この例は、複数設けられる基本パターンが、互いに注視方向を変えるための構成例を示している。図41の構成と図42の構成の異なるところは、基本パターン4401と基本パターン4402を構成する各同心円状の格子パターンの基準座標の位置である。図42では、これらの基準座標は、基本パターン4401と基本パターン4402の同心円状の格子パターンの中心間距離lが近づく向きに寄せられている。このように同心円状の格子パターンの中心座標を基本パターンごとに変えることによって、それぞれの基本パターンによる撮像の注視方向を変えることができる。 FIG. 42 is a diagram illustrating another example of the gaze direction. This example shows a configuration example in which a plurality of provided basic patterns mutually change the gaze direction. The difference between the configuration of FIG. 41 and the configuration of FIG. 42 is the position of the reference coordinate of each concentric lattice pattern forming the basic pattern 4401 and the basic pattern 4402. In FIG. 42, these reference coordinates are arranged so that the center-to-center distance l of the concentric lattice patterns of the basic pattern 4401 and the basic pattern 4402 approaches. In this way, by changing the center coordinates of the concentric circular grid pattern for each basic pattern, it is possible to change the gaze direction of imaging by each basic pattern.

画像センサ3505の種類によっては、受光面から出ている配線の配置などの理由によって、隣接する画像センサ3505の受光面の中心座標を近づけられない場合もある。そのような場合にも、基本パターン3502の基準座標の位置を変えることによって、撮像対象に視野Aを合わせることができ、連続した視野Aを得ることができる。 Depending on the type of the image sensor 3505, the center coordinates of the light receiving surfaces of the adjacent image sensors 3505 may not be close to each other due to the arrangement of the wirings protruding from the light receiving surface. Even in such a case, by changing the position of the reference coordinates of the basic pattern 3502, it is possible to match the visual field A N with the imaging target and obtain a continuous visual field A N.

以上のように基本パターン4301を構成する同心円上の格子パターンの中心座標と画像センサ3505の中心座標が一致していない(格子パターンの平面中心と画像センサの中心とが平面上でいずれかの方向にオフセットしている)場合、画像の歪み量を計算する式(25)において用いるx、yの値にその中心座標のずれ量(オフセット量)を反映する必要がある。実施例1で示したような格子パターンに一つの基本パターンしか含まれない場合には設定する中心座標のずれ量δcを一つ画像歪み補正設定値入力部3202に設定すれば良く、実施例3で説明したような格子パターンに複数の基本パターンが含まれる場合には、基本パターンごとに中心座標のずれ量δcを設定することで、全基本パターンの歪みを正しく補正することが可能である。 As described above, the central coordinates of the concentric lattice pattern forming the basic pattern 4301 and the central coordinates of the image sensor 3505 do not match (the plane center of the lattice pattern and the center of the image sensor are in any direction on the plane). Offset), it is necessary to reflect the shift amount (offset amount) of the center coordinates in the x and y values used in the equation (25) for calculating the image distortion amount. In the case where the grid pattern as shown in the first embodiment includes only one basic pattern, one shift amount δc of the center coordinates to be set may be set in the image distortion correction set value input unit 3202. When a plurality of basic patterns are included in the lattice pattern as described above, it is possible to correctly correct the distortion of all basic patterns by setting the shift amount δc of the center coordinates for each basic pattern.

この場合、δcの値を用いてx、yの値を補正し、補正後の値を特定し、それぞれx´、y´とする。そして、式(25)のx、yの値をx´、y´として演算し、x、yにおけるδを特定する。 In this case, the values of δc are used to correct the values of x and y, and the corrected values are specified as x′ and y′. Then, the values of x and y in the equation (25) are calculated as x′ and y′ to specify δ r in x and y.

以上の方法・構成によれば、基本パターン3502を構成する同心円状の格子パターンの基準座標の設定によって注視方向を変えることができ、画像センサ3505の配置方法に制約がある場合にも、撮像対象に視野を向けることが可能である。 According to the method and configuration described above, the gaze direction can be changed by setting the reference coordinates of the concentric lattice pattern that forms the basic pattern 3502, and the imaging target can be changed even when the arrangement method of the image sensor 3505 is restricted. It is possible to turn the field of view to.

[第四実施形態]
上述の第一の実施形態から第三の実施形態では、撮像装置101の外部に存在する画像歪み補正設定値入力部3202が画像歪み補正部3201で用いる設定値を入力する方法を説明した。本実施形態では、撮像装置101の内部に、画像歪み補正部3201で用いる設定値が内包される構成について説明する。
[Fourth Embodiment]
In the first to third embodiments described above, the method in which the image distortion correction setting value input unit 3202 existing outside the image pickup apparatus 101 inputs the setting value used in the image distortion correction unit 3201 has been described. In the present embodiment, a configuration in which a setting value used in the image distortion correction unit 3201 is included inside the imaging device 101 will be described.

図43は、画像歪み補正部内に画像歪み補正設定値を記憶する構成例を示す図である。この構成例では、外部から歪み補正用の設定値を与える必要が無くなり、操作性を簡便に出来る。この場合、画像歪み補正設定値記憶部4501に記憶させる設定値は撮像装置101固有のものとなり、用途に応じて製造時にその設定値を検査し記憶させる必要がある。設定値として必要になるものは上述の通り、光学部2801の厚みl及び屈折率、光学部2802の厚みl2及び屈折率、光学部2801表面から被写体までの距離dである。また、第三の実施形態のように注視方向を設ける場合には、格子パターンと画像センサの中心位置座標のずれ量δcが画像歪み補正設定値記憶部4501に予め記憶させられている。 FIG. 43 is a diagram illustrating a configuration example in which the image distortion correction setting value is stored in the image distortion correction unit. In this configuration example, it is not necessary to give a set value for distortion correction from the outside, and the operability can be simplified. In this case, the set value stored in the image distortion correction set value storage unit 4501 is unique to the image pickup apparatus 101, and it is necessary to inspect and store the set value at the time of manufacturing according to the application. What is required as set values is the thickness l 1 and the refractive index of the optical portion 2801, the thickness l 2 and the refractive index of the optical portion 2802, and the distance d from the surface of the optical portion 2801 to the subject, as described above. Further, when the gaze direction is provided as in the third embodiment, the shift amount δc between the lattice pattern and the center position coordinates of the image sensor is stored in advance in the image distortion correction set value storage unit 4501.

また、第四の実施形態では、最初に設定した被写体距離以外で使用する場合、外的要因によって格子パターンと画像センサの中心位置座標、または格子パターンの厚み、屈折率が変動した場合には再度画像歪み補正設定値記憶部4501に記憶させる設定値を更新する(与えられる)必要がある。 In addition, in the fourth embodiment, when the object distance other than the initially set object distance is used, the center position coordinates of the grating pattern and the image sensor, or the thickness and the refractive index of the grating pattern are changed due to an external factor, and then again. The setting value stored in the image distortion correction setting value storage unit 4501 needs to be updated (given).

[第五実施形態]
第一の実施形態から第四の実施形態では、格子パターンから被写体までの距離、画像センサから被写体の間に存在する屈折率1以外の光学部の厚みおよび屈折率、被写体の2次元位置情報によって計算された歪み量に基づき歪み補正を行うものである。画像処理部106によって得られた画像から画像歪み補正設定値記憶部4501に記憶する設定値を学習する構成について説明する。図44は、撮像装置101の中に画像歪み補正設定値学習部4601が内包された場合の構成図である。画像処理部106から出力された画像は画像歪み補正設定値学習部4601に送られる。この時、撮影対象となる被写体は既知のパターンであることが望ましく、例えば格子模様等の既知の明確で均等なパターンであれば尚学習が容易である。
[Fifth Embodiment]
In the first to fourth embodiments, the distance from the lattice pattern to the subject, the thickness and the refractive index of the optical part other than the refractive index 1 existing between the image sensor and the subject, and the two-dimensional position information of the subject are used. The distortion is corrected based on the calculated distortion amount. A configuration for learning the setting value stored in the image distortion correction setting value storage unit 4501 from the image obtained by the image processing unit 106 will be described. FIG. 44 is a configuration diagram when the image distortion correction setting value learning unit 4601 is included in the image pickup apparatus 101. The image output from the image processing unit 106 is sent to the image distortion correction setting value learning unit 4601. At this time, it is desirable that the subject to be photographed has a known pattern, and if it is a known clear and uniform pattern such as a lattice pattern, the learning is still easy.

なお、画像処理部106からの出力画像は、撮影の都度、画像歪み補正設定値学習部4601に送られて再学習に用いられてもよいし、特定の条件によって画像歪み補正設定値を学習する場合のみ出力画像が画像歪み補正設定値学習部4601に送られても構わない。この場合、特定の条件には、例えば被写体が事前に登録されている場合、歪み補正設定値を学習するモードに画像処理部106の動作モードが切り替えられた場合、等が考えられる。また、この学習にはさまざまな方法による学習が含まれ、ルールベースの学習処理であってもよいし、機械学習やニューラルネットワークにおける学習済みモデルに基づく学習処理であってもよい。 Note that the output image from the image processing unit 106 may be sent to the image distortion correction setting value learning unit 4601 and used for re-learning each time shooting is performed, or the image distortion correction setting value may be learned according to specific conditions. Only in this case, the output image may be sent to the image distortion correction setting value learning unit 4601. In this case, the specific condition may be, for example, the case where the subject is registered in advance, the case where the operation mode of the image processing unit 106 is switched to the mode for learning the distortion correction setting value, or the like. Further, this learning includes learning by various methods and may be rule-based learning processing or machine learning or learning processing based on a learned model in a neural network.

このように、第五の実施形態に係る撮像装置101によれば、実際に被写体を撮影した結果から歪み補正を行うため画像歪み補正部3201で用いる設定値の幅を拡げることが可能となる。例えば格子状のパターンを撮影した場合、各格子の交点の位置情報のずれ(理想パターンとのズレ量、ズレ方向、あるいは交点間の距離の差)を特定し歪み補正を行なってもよい。これによってより撮像装置101の状態を反映した歪み補正を行うことが可能となる。 As described above, according to the imaging apparatus 101 according to the fifth embodiment, it is possible to widen the range of setting values used by the image distortion correction unit 3201 because distortion correction is performed based on the result of actually photographing a subject. For example, when a lattice-shaped pattern is photographed, distortion correction may be performed by specifying the deviation of the positional information of the intersections of each lattice (the amount of deviation from the ideal pattern, the direction of deviation, or the difference in the distance between the intersections). This makes it possible to perform distortion correction that reflects the state of the imaging device 101.

[第六実施形態]
第一の実施形態から第五の実施形態は、撮像装置101の中で画像処理、歪み補正、画像合成の処理を行うものである。第六の実施形態では、画像センサ3505で取得した画像および画像処理に必要な設定値、画像歪み補正に必要な設定に並びに画像合成に必要な設定値をサーバー装置やパーソナルコンピュータ、スマートフォン、タブレット等の外部装置に出力し、それ以降の現像処理を外部装置側で行う構成について説明する。
[Sixth Embodiment]
The first to fifth embodiments perform image processing, distortion correction, and image composition processing in the image pickup apparatus 101. In the sixth embodiment, a server device, a personal computer, a smartphone, a tablet, etc. are provided with the setting values necessary for the image acquired by the image sensor 3505 and the image processing, the setting necessary for the image distortion correction, and the image combining. The configuration will be described in which the output is output to the external device and subsequent development processing is performed on the external device side.

図45は、撮像装置からセンサ画像と必要設定値の情報を外部に出力し、外部で情報を受信し画像処理、画像歪み補正、画像合成を行う構成を示す図である。つまり、撮像装置101の中には、画像処理設定値記憶部4701と、画像歪み補正設定値記憶部4501と、画像合成設定値記憶部4702及び情報送信部4703とが内包されている。そして、情報送信部4703は、ネットワークや通信線、あるいは無線通信路を経由して外部装置に画像センサ3505の出力と、画像処理設定値記憶部4701に格納された情報と、画像歪み補正設定値記憶部4501に格納された情報と、画像合成設定値記憶部4702に格納された情報とを全て含めた形で送信する。 FIG. 45 is a diagram showing a configuration in which a sensor image and information about necessary setting values are output from the image pickup apparatus to the outside, and the information is received outside to perform image processing, image distortion correction, and image combination. That is, the image pickup apparatus 101 includes an image processing set value storage unit 4701, an image distortion correction set value storage unit 4501, an image combination set value storage unit 4702, and an information transmission unit 4703. Then, the information transmission unit 4703 outputs the output of the image sensor 3505 to the external device via the network, the communication line, or the wireless communication path, the information stored in the image processing setting value storage unit 4701, and the image distortion correction setting value. The information stored in the storage unit 4501 and the information stored in the image synthesis setting value storage unit 4702 are all transmitted in a form including them.

そして、送信された情報は情報受信部4704を介して受信され、画像処理装置4705に入力される。画像処理装置4705には、情報受信部4704と、画像処理部106と、画像歪み補正部3201と、画像合成部3506と、が含まれ、上述の実施形態と同様に画像処理、画像歪み補正処理、画像合成の処理を行い、画像表示部107に送る。 Then, the transmitted information is received via the information receiving unit 4704 and input to the image processing device 4705. The image processing device 4705 includes an information receiving unit 4704, the image processing unit 106, an image distortion correction unit 3201, and an image synthesizing unit 3506, and performs image processing and image distortion correction processing as in the above-described embodiment. , Performs image composition processing, and sends it to the image display unit 107.

画像表示部107は、合成された画像を用いて画面等を構成し、ディスプレイ装置に表示させる。 The image display unit 107 configures a screen or the like using the combined image and displays it on the display device.

このような構成とすることで、画像処理、画像歪み補正、画像合成を撮像装置101において行う必要が無くなり、撮像装置101の演算量を大幅に低減できる。そのため、撮像装置101のハードウェア要求水準を下げることが可能となり、撮像装置101の単価を抑制できる。このようにネットワークを介した他の装置、例えば遠隔地にあるサーバー装置と連携することも可能となると、利便性が向上する。 With such a configuration, it is not necessary to perform image processing, image distortion correction, and image composition in the image pickup apparatus 101, and the amount of calculation of the image pickup apparatus 101 can be significantly reduced. Therefore, it becomes possible to reduce the hardware requirement level of the image pickup apparatus 101, and the unit price of the image pickup apparatus 101 can be suppressed. In this way, if it becomes possible to cooperate with another device via a network, for example, a server device in a remote place, convenience is improved.

以上、本発明について複数の実施形態を用いて説明した。もちろん、本発明は上記の実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 The present invention has been described above using a plurality of embodiments. Of course, the present invention is not limited to the above-mentioned embodiment, and various modifications are included. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described.

また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add/delete/replace other configurations with respect to a part of the configurations of the respective embodiments.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD(Digital Versatile Disc)等の記録媒体に置くことができる。 Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be realized in hardware by designing a part or all of them with, for example, an integrated circuit. Further, the above-described respective configurations, functions and the like may be realized by software by the processor interpreting and executing a program for realizing each function. Information such as programs, tables, and files that realize each function is stored in a memory, a hard disk, a recording device such as SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, and a DVD (Digital Versatile Disc). Can be placed.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 In addition, the control lines and information lines shown are those that are considered necessary for explanation, and not all the control lines and information lines in the product are necessarily shown. In practice, it may be considered that almost all configurations are connected to each other.

本発明は、撮像装置、及び撮像方法に限られず、撮像システム、現像方法、コンピュータ読み取り可能なプログラム、画像処理回路、指静脈認証装置、指静脈撮像装置、指静脈認証方法などの様々な態様で提供できる。 The present invention is not limited to the image capturing apparatus and the image capturing method, and may be implemented in various modes such as an image capturing system, a developing method, a computer-readable program, an image processing circuit, a finger vein authentication device, a finger vein imaging device, and a finger vein authentication method. Can be provided.

101…撮像装置、102…変調器、102a…格子基板、102b…支持部材、103…画像センサ、103a…画素、104…第1の格子パターン、105…第2の格子パターン、106…画像処理部、107…画像表示部、401…被写体、3201…画像歪み補正部、3202…画像歪み補正設定値入力部、3506…画像合成部、4501…画像歪み補正設定値記憶部、4601…画像歪み補正設定値学習部、4701…画像処理設定値記憶部、4702…画像合成設定値記憶部、4703…情報送信部、4704…情報受信部、4705…画像処理装置 Reference numeral 101... Imaging device, 102... Modulator, 102a... Lattice substrate, 102b... Support member, 103... Image sensor, 103a... Pixel, 104... First lattice pattern, 105... Second lattice pattern, 106... Image processing unit , 107... Image display section, 401... Subject, 3201,... Image distortion correction section, 3202... Image distortion correction set value input section, 3506... Image combining section, 4501... Image distortion correction set value storage section, 4601... Image distortion correction setting Value learning unit, 4701... Image processing set value storage unit, 4702... Image combination set value storage unit, 4703... Information transmitting unit, 4704... Information receiving unit, 4705... Image processing apparatus

Claims (13)

撮像面にアレイ状に配列された複数の画素に取り込まれた光学像を画像信号に変換して出力する画像センサと、
前記画像センサの受光面に設けられ、格子パターンを用いて光の強度を変調する変調部と、
前記画像センサより出力された出力画像に対して所定の画像処理を施す画像処理部と、
前記画像処理部から出力された画像に対して歪み補正を行う画像歪み補正部と、
前記画像歪み補正部に画像歪み補正用の設定値を受け渡す画像歪み補正設定値入力部と、
を備えることを特徴とする撮像装置。
An image sensor that converts an optical image captured by a plurality of pixels arranged in an array on the imaging surface into an image signal and outputs the image signal.
A modulator provided on the light-receiving surface of the image sensor for modulating the intensity of light using a lattice pattern,
An image processing unit that performs predetermined image processing on the output image output from the image sensor,
An image distortion correction unit that performs distortion correction on the image output from the image processing unit,
An image distortion correction setting value input unit that transfers setting values for image distortion correction to the image distortion correction unit,
An imaging device comprising:
請求項1に記載の撮像装置であって、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有する、
ことを特徴とする撮像装置。
The imaging device according to claim 1, wherein
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has different fields of view,
An imaging device characterized by the above.
請求項1に記載の撮像装置であって、
前記画像センサを複数備え、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、前記画像センサと一対一に対応付けられた基本ユニットを構成し、
前記基本ユニットのそれぞれは、互いに異なる視野を有する、
ことを特徴とする撮像装置。
The imaging device according to claim 1, wherein
A plurality of the image sensors,
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has different fields of view,
The basic lattice pattern constitutes a basic unit that is associated with the image sensor in a one-to-one correspondence,
Each of the basic units has a different field of view,
An imaging device characterized by the above.
請求項1に記載の撮像装置であって、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記基本格子パターンは、所定の厚みを有し前記画像センサの受光面と略平行な平面上に設けられ、該平面上の二次元方向の中心位置と、前記画像センサの前記受光面の中心位置とが前記平面上のいずれかの方向にオフセットされており、
前記画像歪み補正設定値入力部は、該オフセットの量または前記基本格子パターンの前記平面上の中心位置を前記設定値として用いる、
ことを特徴とする撮像装置。
The imaging device according to claim 1, wherein
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
The basic lattice pattern is provided on a plane that has a predetermined thickness and is substantially parallel to the light receiving surface of the image sensor, and the center position of the two-dimensional direction on the plane and the center position of the light receiving surface of the image sensor. And are offset in either direction on the plane,
The image distortion correction set value input unit uses the amount of the offset or the center position of the basic lattice pattern on the plane as the set value.
An imaging device characterized by the above.
請求項1に記載の撮像装置であって、
前記画像センサを複数備え、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、前記画像センサと一対一に対応付けられた基本ユニットを構成し、
前記基本ユニットのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、所定の厚みを有し前記画像センサの受光面と略平行な平面上に設けられ、該平面上の二次元方向の中心位置と、前記画像センサの前記受光面の中心位置とが前記平面上のいずれかの方向にオフセットして配置されており、
前記画像歪み補正部は、該オフセットの量または前記基本格子パターンの前記平面上の中心位置を前記設定値として用いる、
ことを特徴とする撮像装置。
The imaging device according to claim 1, wherein
A plurality of the image sensors,
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has different fields of view,
The basic lattice pattern constitutes a basic unit that is associated with the image sensor in a one-to-one correspondence,
Each of the basic units has a different field of view,
The basic lattice pattern is provided on a plane that has a predetermined thickness and is substantially parallel to the light receiving surface of the image sensor, and the center position of the two-dimensional direction on the plane and the center position of the light receiving surface of the image sensor. And are arranged offset in any direction on the plane,
The image distortion correction unit uses the amount of the offset or the center position of the basic lattice pattern on the plane as the set value.
An imaging device characterized by the above.
請求項1に記載の撮像装置であって、
前記画像歪み補正設定値入力部は、前記画像歪み補正部または前記画像処理部の少なくともいずれかに設けられる、
ことを特徴とする撮像装置。
The imaging device according to claim 1, wherein
The image distortion correction setting value input unit is provided in at least one of the image distortion correction unit and the image processing unit,
An imaging device characterized by the above.
請求項3または請求項6に記載の撮像装置であって、
前記画像歪み補正部の前記設定値を、所定の既知のパターンを撮像した結果を用いて所定の方法で学習する歪み補正設定値学習部を備える、
ことを特徴とする撮像装置。
The imaging device according to claim 3 or 6, wherein
A distortion correction setting value learning unit that learns the setting value of the image distortion correction unit by a predetermined method using a result of capturing a predetermined known pattern,
An imaging device characterized by the above.
撮像面にアレイ状に配列された複数の画素に取り込まれた光学像を画像信号に変換して出力する画像センサと、
前記画像センサの受光面に設けられ、格子パターンを用いて光の強度を変調する変調部と、
前記画像センサより出力された前記画像信号を処理する為の設定値を記憶する画像処理設定値記憶部と、
前記画像センサより出力された前記画像信号を歪み補正する為の設定値を記憶する画像歪み補正設定値記憶部と、
前記画像センサより出力された前記画像信号を合成する為の設定値を記憶する画像合成設定値記憶部と、
前記画像センサより出力された前記画像信号と、前記画像処理設定値記憶部に記憶された設定値と、前記画像歪み補正設定値記憶部に記憶された設定値と、前記画像合成設定値記憶部に記憶された設定値とを、所定の外部の装置に送信する情報送信部と、
を備えることを特徴とする撮像装置。
An image sensor that converts an optical image captured by a plurality of pixels arranged in an array on the imaging surface into an image signal and outputs the image signal.
A modulator provided on the light-receiving surface of the image sensor for modulating the intensity of light using a lattice pattern,
An image processing setting value storage unit that stores setting values for processing the image signal output from the image sensor,
An image distortion correction setting value storage unit that stores a setting value for correcting distortion of the image signal output from the image sensor,
An image combination set value storage unit that stores a set value for combining the image signals output from the image sensor,
The image signal output from the image sensor, the set value stored in the image processing set value storage unit, the set value stored in the image distortion correction set value storage unit, and the image composition set value storage unit. The setting value stored in, an information transmitting unit for transmitting to a predetermined external device,
An imaging device comprising:
請求項8に記載の撮像装置であって、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有する、
ことを特徴とする撮像装置。
The imaging device according to claim 8, wherein
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has different fields of view,
An imaging device characterized by the above.
請求項8に記載の撮像装置であって、
前記画像センサを複数備え、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、前記画像センサと一対一に対応付けられた基本ユニットを構成し、
前記基本ユニットのそれぞれは、互いに異なる視野を有する、
ことを特徴とする撮像装置。
The imaging device according to claim 8, wherein
A plurality of the image sensors,
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has different fields of view,
The basic lattice pattern constitutes a basic unit that is associated with the image sensor in a one-to-one correspondence,
Each of the basic units has a different field of view,
An imaging device characterized by the above.
請求項8に記載の撮像装置であって、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記基本格子パターンは、所定の厚みを有し前記画像センサの受光面と略平行な平面上に設けられ、該平面上の二次元方向の中心位置と、前記画像センサの前記受光面の中心位置とが前記平面上のいずれかの方向にオフセットして配置されており、
前記画像歪み補正設定値記憶部は、該オフセットの量または前記基本格子パターンの前記平面上の中心位置を前記設定値として記憶する、
ことを特徴とする撮像装置。
The imaging device according to claim 8, wherein
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
The basic lattice pattern is provided on a plane having a predetermined thickness and substantially parallel to the light receiving surface of the image sensor, and the center position of the two-dimensional direction on the plane and the center position of the light receiving surface of the image sensor. And are arranged offset in any direction on the plane,
The image distortion correction set value storage unit stores the amount of the offset or the center position of the basic lattice pattern on the plane as the set value.
An imaging device characterized by the above.
請求項10に記載の撮像装置であって、
前記画像センサを複数備え、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、前記画像センサと一対一に対応付けられた基本ユニットを構成し、
前記基本ユニットのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、所定の厚みを有し前記画像センサの受光面と略平行な平面上に設けられ、該平面上の二次元方向の中心位置と、前記画像センサの前記受光面の中心位置とが前記平面上のいずれかの方向にオフセットして配置されており、
前記画像歪み補正設定値記憶部は、該オフセットの量または前記基本格子パターンの前記平面上の中心位置を前記設定値として記憶する、
ことを特徴とする撮像装置。
The imaging device according to claim 10, wherein
A plurality of the image sensors,
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has different fields of view,
The basic lattice pattern constitutes a basic unit that is associated with the image sensor in a one-to-one correspondence,
Each of the basic units has a different field of view,
The basic lattice pattern is provided on a plane that has a predetermined thickness and is substantially parallel to the light receiving surface of the image sensor, and the center position of the two-dimensional direction on the plane and the center position of the light receiving surface of the image sensor. And are arranged offset in any direction on the plane,
The image distortion correction set value storage unit stores the amount of the offset or the center position of the basic lattice pattern on the plane as the set value.
An imaging device characterized by the above.
請求項8に記載の撮像装置であって、
前記画像センサを複数備え、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、前記画像センサと一対一に対応付けられた基本ユニットを構成し、
前記基本ユニットのそれぞれは、互いに異なる視野を有し、
前記画像歪み補正部の前記設定値を、所定の既知のパターンを撮像した結果を用いて所定の方法で学習する歪み補正設定値学習部を備える、
ことを特徴とする撮像装置。
The imaging device according to claim 8, wherein
A plurality of the image sensors,
The lattice pattern is a plurality of lattice patterns having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has a different field of view,
The basic lattice pattern constitutes a basic unit that is associated with the image sensor in a one-to-one correspondence,
Each of the basic units has a different field of view,
A distortion correction setting value learning unit that learns the setting value of the image distortion correction unit by a predetermined method using the result of capturing a predetermined known pattern,
An imaging device characterized by the above.
JP2018235411A 2018-12-17 2018-12-17 Imaging device Pending JP2020098963A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018235411A JP2020098963A (en) 2018-12-17 2018-12-17 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018235411A JP2020098963A (en) 2018-12-17 2018-12-17 Imaging device

Publications (1)

Publication Number Publication Date
JP2020098963A true JP2020098963A (en) 2020-06-25

Family

ID=71106929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018235411A Pending JP2020098963A (en) 2018-12-17 2018-12-17 Imaging device

Country Status (1)

Country Link
JP (1) JP2020098963A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012507250A (en) * 2009-10-14 2012-03-22 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Optical image apparatus, optical image processing apparatus, and optical image forming method
US20160241799A1 (en) * 2015-02-12 2016-08-18 Rambus Inc. Systems and Methods for Lensless Image Acquisition
WO2016203573A1 (en) * 2015-06-17 2016-12-22 日立マクセル株式会社 Image capture device
JP2018098758A (en) * 2017-05-31 2018-06-21 株式会社日立製作所 Imaging device
WO2018123318A1 (en) * 2016-12-27 2018-07-05 富士フイルム株式会社 Imaging device and imaging module

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012507250A (en) * 2009-10-14 2012-03-22 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Optical image apparatus, optical image processing apparatus, and optical image forming method
US20160241799A1 (en) * 2015-02-12 2016-08-18 Rambus Inc. Systems and Methods for Lensless Image Acquisition
WO2016203573A1 (en) * 2015-06-17 2016-12-22 日立マクセル株式会社 Image capture device
WO2018123318A1 (en) * 2016-12-27 2018-07-05 富士フイルム株式会社 Imaging device and imaging module
JP2018098758A (en) * 2017-05-31 2018-06-21 株式会社日立製作所 Imaging device

Similar Documents

Publication Publication Date Title
JP6685887B2 (en) Imaging device
US11747641B2 (en) Imaging apparatus with cylindrical lenses
JP6820908B2 (en) Imaging device
JP6721698B2 (en) Imaging device
JP6646619B2 (en) Imaging device
JP6864604B2 (en) Imaging device
JP7389195B2 (en) Image generation method
JP7097787B2 (en) Imaging device and imaging method
JP6947891B2 (en) Mobile information terminal
JP6770164B2 (en) Imaging device
JP2020098963A (en) Imaging device
JP6636663B2 (en) Imaging device and image generation method
JP2021064000A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221213