JP2020098963A - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP2020098963A JP2020098963A JP2018235411A JP2018235411A JP2020098963A JP 2020098963 A JP2020098963 A JP 2020098963A JP 2018235411 A JP2018235411 A JP 2018235411A JP 2018235411 A JP2018235411 A JP 2018235411A JP 2020098963 A JP2020098963 A JP 2020098963A
- Authority
- JP
- Japan
- Prior art keywords
- image
- basic
- lattice pattern
- imaging device
- distortion correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Transforming Light Signals Into Electric Signals (AREA)
Abstract
【課題】簡易な構成で、薄型であり、かつ、歪みのない状態で接写時の視野を拡大した撮像装置を提供する。【解決手段】撮像装置は、撮像面にアレイ状に配列された複数の画素に取り込まれた光学像を画像信号に変換して出力する画像センサと、画像センサの受光面に設けられ、格子パターンを用いて光の強度を変調する変調部と、画像センサより出力された出力画像に対して所定の画像処理を施す画像処理部と、画像処理部から出力された画像に対して歪み補正を行う画像歪み補正部と、画像歪み補正部に画像歪み補正用の設定値を受け渡す画像歪み補正設定値入力部と、を備える。【選択図】図30Provided is an imaging device having a simple configuration, a thin shape, and a wide field of view at the time of close-up photography without distortion. An image pickup device includes an image sensor that converts an optical image captured by a plurality of pixels arranged in an array on an image pickup surface into an image signal and outputs the image signal, and a light receiving surface of the image sensor. A modulation unit that modulates the intensity of light using the image processing unit, an image processing unit that performs predetermined image processing on the output image output from the image sensor, and distortion correction on the image output from the image processing unit. An image distortion correction unit and an image distortion correction setting value input unit that transfers setting values for image distortion correction to the image distortion correction unit are provided. [Selection diagram] Fig. 30
Description
本発明は、撮像装置に関する。 The present invention relates to an imaging device.
IoT(Internet of things)デバイスやウェアラブルデバイスなどのデバイスに搭載する撮像装置は、限られたスペースへ組み込むために薄型化と低コスト化が求められる。そこで、例えば特許文献1のようにレンズを用いることなく物体像を得ることができる撮像方式が提案されている。また、例えば特許文献2では、マイクロレンズアレイを用いた「携帯用情報機器に設置することが可能な厚さの小さい指認証装置を可能にする撮像装置」が提案されている。
An imaging device mounted on a device such as an IoT (Internet of things) device or a wearable device is required to be thin and low in cost in order to be incorporated in a limited space. Therefore, for example, as in
上述の特許文献1は、画像センサ前に特殊な格子パターンを配置し、画像センサで受光する格子パターンの斜影パターンを用いて信号処理により逆問題を解くことで物体の像を得る撮像方式である。この撮像方式は、撮像装置の薄型化を可能とするが、像を得るための演算が複雑になるという問題がある。
The above-mentioned
また、上述の特許文献2は、「前段のマイクロレンズアレイと絞りアレイとを対向させ、前段のマイクロレンズアレイの被写体からの光の焦点近傍に絞りアレイの絞りを設けて、更に後段のマイクロレンズアレイによって光の集束も同時に行う」ことで、「指静脈認証装置に用いる光学系を小さくし、小型・薄型の指静脈認証装置を実現することができる」撮像方式である。この撮像方式は、特に、接写可能な撮像装置の薄型化を可能とするが、レンズによる集光に距離が必要である点と、2つのレンズアレイを配置する空間が必要である点で、薄型化の限界となっている。 In addition, Japanese Patent Laid-Open No. 2004-242242 discloses that "a microlens array in the front stage and a diaphragm array are opposed to each other, a diaphragm of the diaphragm array is provided in the vicinity of the focal point of light from a subject in the microlens array in the front stage, and a microlens in the rear stage is further provided. This is an imaging method in which the optical system used for the finger vein authentication device can be made small and a small and thin finger vein authentication device can be realized by "focusing light at the same time by the array". This imaging method enables a thin imaging device capable of close-up photography, but is thin because it requires a distance for condensing by a lens and a space for arranging two lens arrays. Has become the limit.
本発明の目的は、簡易な構成で、薄型であり、かつ、歪みのない状態で接写時の視野を拡大した撮像装置を提供することを目的とする。 It is an object of the present invention to provide an image pickup apparatus having a simple structure, a thin shape, and a wide field of view at the time of close-up photography without distortion.
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。 The present application includes a plurality of means for solving at least a part of the above problems, and examples thereof are as follows.
本発明の一態様は、撮像装置であって、撮像面にアレイ状に配列された複数の画素に取り込まれた光学像を画像信号に変換して出力する画像センサと、上記画像センサの受光面に設けられ、格子パターンを用いて光の強度を変調する変調部と、上記画像センサより出力された出力画像に対して所定の画像処理を施す画像処理部と、上記画像処理部から出力された画像に対して歪み補正を行う画像歪み補正部と、上記画像歪み補正部に画像歪み補正用の設定値を受け渡す画像歪み補正設定値入力部と、を備える。 One embodiment of the present invention is an imaging device, which includes an image sensor that converts an optical image captured by a plurality of pixels arranged in an array on the imaging surface into an image signal and outputs the image signal, and a light-receiving surface of the image sensor. A modulation unit that modulates the intensity of light using a lattice pattern, an image processing unit that performs predetermined image processing on the output image output from the image sensor, and an output from the image processing unit. An image distortion correction unit that performs distortion correction on an image, and an image distortion correction set value input unit that transfers a set value for image distortion correction to the image distortion correction unit are provided.
本発明によれば、簡易な構成で、薄型であり、かつ、歪みのない状態で接写時の視野を拡大した撮像装置を提供することができる。 According to the present invention, it is possible to provide an image pickup apparatus having a simple structure, a thin shape, and a wide field of view at the time of close-up photography without distortion.
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.
以下の実施形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。 In the following embodiments, when there is a need for convenience, the description will be divided into a plurality of sections or embodiments, but unless otherwise specified, they are not unrelated to each other, and one is not There are some or all of the modifications, details, supplementary explanations, and the like.
また、以下の実施形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。 In addition, in the following embodiments, unless otherwise specified, such as the number of elements (including the number, numerical value, amount, range, etc.), unless otherwise explicitly stated and in principle limited to a specific number, etc. However, the number is not limited to the specific number, and may be a specific number or more or less.
さらに、以下の実施形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。 Further, in the following embodiments, it is needless to say that the constituent elements (including element steps and the like) are not necessarily essential unless otherwise specified or in principle considered to be essential. Yes.
同様に、以下の実施形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。 Similarly, in the following embodiments, when referring to the shapes and positional relationships of constituent elements and the like, the shapes and the like of the constituent elements are substantially the same, unless otherwise specified or when it is considered that the principle is not clear. And the like, etc. are included. This also applies to the above numerical values and ranges.
また、実施形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。以下、本発明の各実施形態について図面を用いて説明する。 In addition, in all the drawings for explaining the embodiments, the same members are denoted by the same reference symbols in principle and their repeated description is omitted. Hereinafter, each embodiment of the present invention will be described with reference to the drawings.
[第一実施形態]
<無限遠物体の撮影原理>
図1は、第一実施形態に係る撮像装置の構成例を示す図である。撮像装置101は、通常のカメラが備えるような結像させるためのレンズを用いることなく、外界の物体の画像を取得するものであり、変調器102、画像センサ103、および画像処理部106から構成されている。
[First embodiment]
<Principle of shooting objects at infinity>
FIG. 1 is a diagram showing a configuration example of an image pickup apparatus according to the first embodiment. The
図2は、変調器の構成例を示す図である。変調器102は、画像センサ103の受光面に密着して固定されており(図1)、格子基板102aと、格子基板102aの上下面に形成された第1の格子パターン104及び第2の格子パターン105とを含んで構成される。格子基板102aは、例えばガラスやプラスティックなどの透明な材料からなる。以降、格子基板102aの画像センサ103側を裏面と呼び、対向する面すなわち撮影対象側を表面と呼ぶ。
FIG. 2 is a diagram showing a configuration example of the modulator. The
これらの格子パターン104,105は、外側に向かうほど中心からの半径に反比例して格子パターンの間隔、すなわちピッチが狭くなる同心円状の格子パターンからなる。格子パターン104,105は、例えば半導体プロセスに用いられるスパッタリング法などによってアルミニウム、クロムなどの金属を蒸着することによって形成される。金属が蒸着されたパターンと蒸着されていないパターンによって濃淡がつけられる。
These
格子パターン104,105の形成は、蒸着に限定されるものでなく、例えばインクジェットプリンタなどによる印刷などによって濃淡をつけて形成してもよい。さらに、ここでは可視光を例に説明したが、例えば遠赤外線での撮影の場合、格子基板102aは、例えばゲルマニウム、シリコン、カルコゲナイドなどの遠赤外線に対して透明な材料からなる。すなわち、格子基板102aには、撮影対象となる波長に対して透明な材料を用いることができ、格子パターン104,105には、撮影対象となる波長を遮断する金属等の材料を用いることができる。
The formation of the
なお、ここでは変調器102を実現するために、格子パターン104,105を格子基板102aに形成する方法について述べたが、これに限定されない。図3は、変調器102の他の構成例を示す図である。格子パターン104,105を薄膜に形成し、これらを格子基板102aの替わりに設けた支持部材102bにより保持する構成などによっても、変調器102を実現することができる。
Although the method of forming the
画像センサ103は、例えばCCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどからなる。画像センサ103の表面には、受光素子である画素103aが格子状に規則的に配置されている。格子パターン104,105を透過する光は、それらの格子パターンによって光の強度が変調され、画像センサ103にて受光される。画像センサ103は、画素103aが受光した光画像を電気信号である画像信号に変換する。画像センサ103から出力された画像信号(「画像データ」とも呼ぶ)は、画像処理部106によって画像処理されて画像表示部107などに出力される。画像処理部106は、処理した画像データを、撮像装置101の備える記憶装置(図示せず)に格納したり、外部のホストコンピュータや記録媒体に出力したりしてもよい。
The
なお、撮像装置101は、例えば、プロセッサ、メモリ、通信装置、処理回路等を備えることができる。また、撮像装置101は、例えばUSB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)等の、外部装置と接続する入出力インターフェイスを備えてもよい。画像処理部106は、例えば、専用画像処理回路によって実現されてもよいし、プログラムを実行するプロセッサによって実現されてもよい。
The
図4は、図1の撮像装置101を用いて外界の物体を撮影する様子を示す図である。図4では、被写体401が撮像装置101によって撮影されて画像表示部107に表示されている例を示している。被写体401を撮影する際には、変調器102における表面、具体的には第1の格子パターン104が形成されている格子基板102aの面が、被写体401に対して正対するようにして撮影が行われる。
FIG. 4 is a diagram showing a state in which an object in the external world is photographed using the
続いて、画像処理部106による画像処理の概略について説明する。図5は、画像処理部106の画像処理の一例を示すフローチャートである。
Next, an outline of image processing by the
まず、画像処理部106は、画像センサ103から出力されるモアレ縞画像に対して、カラーのRGB(Red Green Blue)成分ごとに高速フーリエ変換(FFT:Fast Fourier Transform)などの2次元フーリエ変換演算による現像処理で周波数スペクトルを求める(501)。続いて、画像処理部106は、ステップ501の処理による周波数スペクトルのうち必要な周波数領域のデータを切り出した後(502)、該周波数スペクトルの強度計算を行う(503)ことによって画像を取得する。そして、画像処理部106は、得られた画像に対してノイズ除去処理を行い(504)、続いてコントラスト強調処理(505)などを行う。その後、画像処理部106は、画像のカラーバランスを調整して(506)撮影画像として出力する。以上により、画像処理部106による画像処理が終了となる。
First, the
続いて、撮像装置101における撮影原理について説明する。
Next, the shooting principle of the
まず、中心からの半径に対して反比例してピッチが細かくなる同心円状の格子パターン104,105は、以下のように定義する。レーザ干渉計などにおいて、平面波に近い球面波と参照光として用いる平面波とを干渉させる場合を想定する。同心円の中心である基準座標からの半径をrとし、そこでの球面波の位相をΦ(r)とするとき、球面波は、波面の曲がりの大きさを決める係数βを用いて、
First, the
球面波にもかかわらず、半径rの2乗で表されているのは、平面波に近い球面波のため、展開の最低次のみで近似できるからである。この位相分布を持った光に平面波を干渉させると、 Despite the spherical wave, it is represented by the square of the radius r because it is a spherical wave close to a plane wave and can be approximated only by the lowest order of expansion. When a plane wave is caused to interfere with light having this phase distribution,
図6は、斜め入射平行光による格子基板表面から裏面への射影像が面内ずれを生じることを説明する図である。格子パターン104,105が両面に形成された厚さtの変調器102に、角度θ0で平行光が入射したとする。変調器102中の屈折角をθとして、幾何光学的には、表面の格子の透過率が乗じられた光が、δ=t・tanθだけずれて裏面に入射し、仮に2つの同心円格子の中心がそろえて形成されていたとすると、裏面の格子の透過率がδだけずれて掛け合わされることになる。このとき、
FIG. 6 is a diagram for explaining that the projection image from the front surface to the back surface of the grating substrate due to the obliquely incident parallel light causes an in-plane shift. It is assumed that collimated light is incident on the
ここで、式(5)から鋭いピークを持つ成分のみを、 Here, only the component having a sharp peak from equation (5) is
図7は、格子基板両面の格子の軸がそろった場合のモアレ縞の生成と周波数スペクトルを説明する図である。図7において、左から右にかけて、光線と変調器102の配置図、モアレ縞、および空間周波数スペクトルの模式図を、それぞれ示している。図7の(a)は、垂直入射、図7の(b)は、左側から角度θで光線が入射する場合、図7の(c)は、右側から角度θで光線が入射する場合を、それぞれ示している。
FIG. 7 is a diagram for explaining the generation of moire fringes and the frequency spectrum when the axes of the gratings on both sides of the grating substrate are aligned. In FIG. 7, from left to right, a schematic view of the arrangement of the light beam and the
変調器102の表面側に形成された第1の格子パターン104と裏面側に形成された第2の格子パターン105とは、軸がそろっている。図7の(a)では、第1の格子パターン104と第2の格子パターン105との影が一致するのでモアレ縞は生じない。
The
図7の(b)および図7の(c)では、第1の格子パターン104と第2の格子パターン105とのずれが等しいために同じモアレが生じ、空間周波数スペクトルのピーク位置も一致して、空間周波数スペクトルからは、光線の入射角が図7の(b)の場合なのか図7の(c)の場合なのかを判別することができなくなる。これを避ける方法の例を、図8に示す。
In FIGS. 7B and 7C, the same moiré occurs because the first
図8は、表面格子と裏面格子の軸をずらして配置した格子基板の一例を示す図である。図8に示すように、変調器102に垂直に入射する光線に対しても2つの格子パターンの影がずれて重なるよう予め2つの格子パターン104,105を光軸に対して相対的にずらしておくことが必要である。軸上の垂直入射平面波に対して2つの格子の影の相対的なずれをδ0とするとき、入射角θの平面波によって生じるずれδは、
FIG. 8 is a diagram showing an example of a grating substrate in which the axes of the front surface grid and the back surface grid are offset from each other. As shown in FIG. 8, the two
図9は、格子基板両面の格子をずらして配置する場合のモアレ縞の生成と周波数スペクトルを説明する図である。図7と同様にして、左から右にかけて、光線と変調器102の配置図、モアレ縞、および空間周波数スペクトルの模式図を、それぞれ示す。図9の(a)は、光線が垂直入射の場合、図9の(b)は、光線が左側から角度θで入射する場合、図9の(c)は、光線が右側から角度θで入射する場合を、それぞれ示している。
FIG. 9 is a diagram for explaining the generation of moire fringes and the frequency spectrum when the gratings on both sides of the grating substrate are arranged in a shifted manner. Similar to FIG. 7, schematic views of the arrangement of the light beam and the
第1の格子パターン104と第2の格子パターン105とは、予めδ0だけずらして配置されている。そのため、図9の(a)でもモアレ縞が生じ、空間周波数スペクトルにピークが現れる。そのずらし量δ0は、上記したとおり、ピーク位置が原点から片側のスペクトル範囲の中央に現れるように設定されている。このとき図9の(b)では、ずれδがさらに大きくなる方向、図9の(c)では、ずれδが小さくなる方向となっているため、図7と異なり、図9の(b)と図9の(c)との違いがスペクトルのピーク位置から判別できる。このピークのスペクトル像がすなわち無限遠の光束を示す輝点であり、図1の撮像装置101による撮影像にほかならない。
The
受光できる平行光の入射角の最大角度をθmaxとすると、 If the maximum angle of incidence of parallel light that can be received is θ max ,
一般的なレンズを用いた結像との類推から、画角θmaxの平行光を画像センサの端で焦点を結んで受光すると考えると、レンズを用いない撮像装置101の実効的な焦点距離は、
From the analogy with the image formation using a general lens, considering that parallel light with an angle of view θ max is focused and received at the end of the image sensor, the effective focal length of the
ここで、式(13)および式(14)より、画角は変調器102の厚さt、および画像センサ103の大きさSによって変更可能であることが判る。よって、例えば変調器102が図3の構成であり支持部材102bの長さを変更可能な機能(例えば機械構造)を有していれば、撮影時に画角を変更して撮影することも可能となる。
Here, it can be understood from the expressions (13) and (14) that the angle of view can be changed by the thickness t of the
なお、モアレ縞から空間周波数スペクトルを算出する方法として高速フーリエ変換を例に説明したが、これに限定されるものではなく、離散コサイン変換(DCT:Discrete Cosine Transform)などを使用しても実現可能であり、さらに演算量を削減することも可能である。 Although the fast Fourier transform has been described as an example of the method for calculating the spatial frequency spectrum from the moire fringes, the method is not limited to this, and it can be realized by using a discrete cosine transform (DCT) or the like. Therefore, it is possible to further reduce the calculation amount.
また、格子パターン104,105の透過率分布は、式(2)で示したように正弦波的な特性があることを想定して説明したが、格子パターンの基本周波数成分としてそのような成分を含んでいればよい。例えば図10(格子パターンの一例を示す図)に示すように格子パターンの透過率を2値化することも可能であり、さらに図11(格子パターンの他の例を示す図)のように透過率が高い格子領域と低い領域のdutyを変えて、透過率の高い領域の幅を広げて透過率を高めることも可能である。これにより、格子パターンからの回折を抑圧するなどの効果も得られ、撮影像の劣化を低減可能である。
Further, the transmittance distributions of the
また、格子パターン104,105は透過率変調でなく、位相変調で実現してもよい。例えば図12(格子パターンのさらに他の例を示す図)に示すように、格子基板102aをシリンドリカルレンズ1201で構成することにより、画像センサ103上に図に示すような強度変調パターンを生じさせることができるため、今までの議論と同様に撮像が可能となる。これにより格子パターン104の遮蔽部による光量損失を低減でき、光利用効率を向上させることができる上、格子パターンからの回折を抑圧する効果も得られる。図12ではレンズで実現したが、同等の効果を持つ位相変調素子で実現することも可能である。
The
以上の説明では、いずれも入射光線が同時には1つの入射角度で入射する場合であったが、実際に撮像装置101がカメラとして作用するためには、複数の入射角度の光が同時に入射する場合を想定しなければならない。このような複数の入射角の光は、裏面側の格子パターンに入射する時点ですでに複数の表側格子の像を重なり合わせることになる。もし、これらの像が相互にモアレ縞を生じると、このモアレ縞が、信号成分である第2の格子パターン105とのモアレ縞の検出を阻害するノイズとなることが懸念される。しかし、実際は、第1の格子パターン104の像どうしの重なりはモアレ像のピークを生じず、ピークを生じさせるのは裏面側の第2の格子パターン105との重なりだけになる。その理由について以下に説明する。
In the above description, the incident light beams are incident at one incident angle at the same time. However, in order for the
まず、複数の入射角の光線による表面側の第1の格子パターン104の影どうしの重なりは、積ではなく和であることが大きな違いである。1つの入射角の光による第1の格子パターン104の影と第2の格子パターン105との重なりについては、第1の格子パターン104の影である光の強度分布に、第2の格子パターン105の透過率を乗算することで、裏面側の第2の格子パターン105を透過したあとの光強度分布が得られる。
First, the major difference is that the overlap of the shadows of the first
これに対して、表面側の第1の格子パターン104に複数入射する角度の異なる光による影どうしの重なりは、光の重なり合いなので、積ではなく、和になるのである。和の場合は、
On the other hand, the overlapping of the shadows due to the lights incident on the first
ここで、これまで検出することを説明してきた平行光と、実際の物体からの光との対応について図13を用いて模式的に説明する。 Here, the correspondence between the parallel light which has been described so far to be detected and the light from the actual object will be schematically described with reference to FIG.
図13は、物体を構成する各点からの光が画像センサに対してなす角を説明する図である。被写体401を構成する各点からの光は、厳密には点光源からの球面波として、図1の撮像装置101の変調器102および画像センサ103(以下、図13では格子センサ一体基板1301という)に入射する。このとき、被写体401に対して格子センサ一体基板1301が十分に小さい場合や十分に遠い場合には、各点から格子センサ一体基板1301を照明する光の入射角は、同じとみなすことができる。
FIG. 13 is a diagram illustrating an angle formed by light from each point forming an object with respect to the image sensor. Strictly speaking, the light from each point constituting the subject 401 is a spherical wave from a point light source, and the
式(9)から求められる微小角度変位Δθに対するモアレの空間周波数変位Δuが、画像センサの空間周波数の最小解像度である1/S以下となる関係から、Δθが平行光とみなせる条件は、 Since the spatial frequency displacement Δu of the moire with respect to the minute angular displacement Δθ obtained from the equation (9) is 1/S or less which is the minimum resolution of the spatial frequency of the image sensor, the condition that Δθ can be regarded as parallel light is as follows.
<有限距離物体の撮影原理>
ここで、これまで述べた無限遠の物体に対する撮像について再度説明する。図14は、物体が無限距離にある場合に表側格子パターンが投影されることを説明する図である。図14は、表面側の第1の格子パターン104の裏面への射影の様子を示している。無限遠の物体を構成する点1401からの球面波は、十分に長い距離を伝搬する間に平面波となり表面側の第1の格子パターン104を照射し、その投影像1402が下の面に投影される。この場合、その投影像は第1の格子パターン104とほぼ同じ形状である。結果、投影像1402に対して、裏面側の格子パターン(図2の第2の格子パターン105に相当)の透過率分布を乗じることにより、図15(物体が無限距離にある場合に生成されるモアレ縞の例を示す図)に示すような等間隔な直線状のモアレ縞を得ることができる。
<Principle of photographing a finite object>
Here, the imaging of the object at infinity described so far will be described again. FIG. 14 is a diagram illustrating that the front side lattice pattern is projected when the object is at an infinite distance. FIG. 14 shows how the
一方、有限距離の物体に対する撮像について説明する。図16は、物体が有限距離にある場合に表側格子パターンが拡大されることを説明する図である。図16は、表面側の第1の格子パターン104の裏面への射影の様子を示している。物体を構成する点1601からの球面波は表面側の第1の格子パターン104を照射し、その投影像1602が下の面に投影される。この場合、その投影像はほぼ一様に拡大される。なお、この拡大率αは、第1の格子パターン104から点1601までの距離dを用いて、
On the other hand, imaging of an object with a finite distance will be described. FIG. 16 is a diagram illustrating that the front side lattice pattern is enlarged when the object is at a finite distance. FIG. 16 shows how the
そのため、平行光に対して設計された裏面側の格子パターンの透過率分布をそのまま乗じたのでは、図17(物体が有限距離にある場合に生成されるモアレ縞の例を示す図)に示すように、等間隔な直線状のモアレ縞は生じなくなる。しかし、一様に拡大された表面側の第1の格子パターン104の影に合わせて、第2の格子パターン105を拡大するならば、拡大された投影像1602に対して再び、図18(物体が有限距離にある場合に裏側格子パターンを補正したモアレ縞の例を示す図)に示すように、等間隔な直線状のモアレ縞を生じさせることができる。このためには、第2の格子パターン105の係数βをβ/α2とすることで補正が可能である。
Therefore, if the transmittance distribution of the designed back side grating pattern is multiplied as it is for parallel light, it is shown in FIG. 17 (a diagram showing an example of moire fringes generated when an object is at a finite distance). As described above, the linear moire fringes at equal intervals are not generated. However, if the
これにより、必ずしも無限遠でない距離の点1601からの光を選択的に現像することができる。これによって、任意の位置に焦点合わせて撮影を行うことができる。
Thereby, the light from the
<簡略化構成>
次に、上述の変調器102の構成を簡略化する方法について説明する。変調器102では、格子基板102aの表面および裏面にそれぞれ同一形状の第1の格子パターン104および第2の格子パターン105を互いにずらして形成している。そして、画像処理によって入射する平行光の角度をモアレ縞の空間周波数スペクトルから検知して像を現像している。この裏面側の第2の格子パターン105は、画像センサ103に密着して入射する光の強度を変調する光学素子であり、入射光に依らず同じ格子パターンである。そこで、次のように撮像装置101の構成を変更してもよい。図1と異なる点を中心に説明する。
<Simplified configuration>
Next, a method of simplifying the configuration of the
図19は、裏側格子パターンを画像処理で実現する撮像装置101の構成例を示す図である。この撮像装置101は、第2の格子パターン105を省略した変調器1901と、第2の格子パターン105に相当する処理を行う強度変調部1903を含む画像処理部1902とを備える。
FIG. 19 is a diagram showing a configuration example of the
図20は、変調器1901の構成例を示す図である。変調器1901は、格子基板102aと、格子基板102aの表面に形成された第1の格子パターン104とから構成される。図2と比較して、格子基板102aに形成する格子パターンを1面減らすことができる。これにより、変調器の製造コストを低減することができ、さらに光利用効率を向上させることもできる。
FIG. 20 is a diagram showing a configuration example of the
図21は、画像処理部1902の画像処理の一例を示すフローチャートである。図5のフローチャートと異なるところは、ステップ501の前のステップ2101の処理である。ステップ501〜506の処理は、図5の対応する処理と同様であるので、ここでは説明を省略する。
FIG. 21 is a flowchart showing an example of image processing of the
ステップ2101の処理では、前述した強度変調部1903は、画像センサ103から出力される画像に対して、裏面側の格子パターン105を透過したことに相当するモアレ縞画像を生成する。具体的には、式(5)に相当する演算が行われればよいので、強度変調部1903は、裏面側の格子パターン105を生成し、画像センサ103の画像に対して乗算する。さらに、裏面側の格子パターン105が図10又は図11に示すような2値化したパターンであれば、強度変調部1903が黒に相当する領域の画像センサ103の値を0に設定するだけでよい。これにより、乗算演算の計算負荷や乗算回路の規模を抑圧することが可能である。
In the process of
なお、この場合、画像センサ103が有する画素103a(図20)のピッチは、第1の格子パターン104のピッチを十分再現できる程度に細かいか、あるいは第1の格子パターン104のピッチは、画素103aのピッチにて再現できる程度に粗い必要がある。格子パターンを格子基板102aの両面に形成する場合は、必ずしも格子パターンのピッチが画像センサ103の画素103aにて解像できる必要はなく、そのモアレ像だけが解像できればよい。しかし、画像処理により格子パターンを再現する場合は、格子パターンと画像センサ103の解像度は同等である必要がある。
Note that in this case, the pitch of the pixels 103a (FIG. 20) included in the
また、以上は強度変調部1903により第2の格子パターン105に相当する処理を実現した。しかし、これに限定されず、第2の格子パターン105はセンサに密着して入射する光の強度を変調する光学素子であるため、センサの感度を実効的に第2の格子パターン105の透過率を加味して設定することによっても実現できる。
In addition, the processing corresponding to the
<ノイズキャンセル>
これまでの説明では、式(5)から鋭いピークを持つ成分のみを取り出した式(6)に着目して話を進めたが、実際には式(5)の第4項以外の項がノイズとなる。そこで、フリンジスキャンに基づくノイズキャンセルが効果的である。
<Noise cancellation>
In the above description, the discussion was focused on Equation (6) in which only the component having a sharp peak is extracted from Equation (5), but in reality, terms other than the fourth term in Equation (5) are noise. Becomes Therefore, noise cancellation based on fringe scanning is effective.
まず、式(2)の干渉縞強度分布において、第1の格子パターン104の初期位相をΦF、第2の格子パターン105の初期位相をΦBとすると、式(5)は、
First, in the interference fringe intensity distribution of Expression (2), when the initial phase of the first
ここで式(19)は積分の形で示しているが、実際にはΦF、ΦBの組合せの総和を計算することによっても同様の効果が得られる。ΦF、ΦBは0〜2πの間の角度を等分するように設定すればよく、{0、π/2、π、3π/2}のように4等分、{0、π/3、2π/3}のように3等分してもよい。 Here, the formula (19) is shown in the form of integration, but actually, the same effect can be obtained by calculating the total sum of the combinations of Φ F and Φ B. Φ F and Φ B may be set so as to equally divide an angle between 0 and 2π, and {0, π/2, π, 3π/2} are equally divided into four, {0, π/3. , 2π/3} may be equally divided.
さらに、式(19)は簡略化できる。式(19)では、ΦF、ΦBを独立して変えられるように計算したが、ΦF=ΦBすなわち格子パターン104と105の初期位相に同じ位相を適用してもノイズ項をキャンセルできる。式(19)においてΦF=ΦB=Φとすれば、
Furthermore, equation (19) can be simplified. In Expression (19), Φ F and Φ B are calculated so that they can be changed independently, but Φ F =Φ B, that is, even if the same phase is applied to the initial phases of the
また、等分せずとも、{0、π/2}の直交した位相を使用してもノイズ項をキャンセルでき、さらに簡略化できる。まず、図19の構成のように第2の格子パターン105を画像処理部1902で実施すれば、格子パターン105に負値を扱えるため、式(18)は、
Further, the noise term can be canceled by using the orthogonal phases of {0, π/2} without even division, and the simplification can be further achieved. First, if the
また、前述のように第1の格子パターン104と第2の格子パターン105とは、あらかじめδ0ずらすことで空間周波数空間に生じる2つの現像画像を分離していた。しかし、この方法では現像画像の画素数が半分になる問題点がある。そこで、δ0ずらさなくとも現像画像の重複を回避する方法について説明する。式(19)のフリンジスキャンにおいて、cosの代わりに、
Further, as described above, the
以上のフリンジスキャンに基づくノイズキャンセル方法を行うための構成について、図22〜27を用いて説明する。フリンジスキャンでは、少なくとも格子パターン104として初期位相の異なる複数のパターンを使用する必要がある。これを実現するには、時分割でパターンを切り替える方法(図22〜25)と、空間分割でパターンを切り替える方法(図26〜27)がある。
A configuration for performing the above-described fringe scan-based noise canceling method will be described with reference to FIGS. In the fringe scan, it is necessary to use at least a plurality of patterns having different initial phases as the
図22は、時分割フリンジスキャンを実現する撮像装置101の構成例を示す図である。この撮像装置101は、図1の変調器102に替えて、変調器2201を有する。また、この撮像装置101は、変調器制御部2202と画像処理部2203を有する。
FIG. 22 is a diagram showing a configuration example of the
図23は、時分割フリンジスキャンにおける格子パターンの例を示す図である。変調器2201は、例えば電気的に図23に示す複数の初期位相を切り替えて表示することが可能(すなわち格子パターンを変更可能)な液晶表示素子などで構成される。図23の各パターンは、初期位相ΦFもしくは位相差Φがそれぞれ{0、π/2、π、3π/2}である。これを実現する変調器2201の液晶表示素子における電極配置の例を図24に示す。
FIG. 23 is a diagram showing an example of a lattice pattern in the time division fringe scan. The
図24は、時分割フリンジスキャンを実現する変調器2201の構成例を示す図である。変調器2201には、格子パターンの1周期を4分割するように同心円状電極が設けられており、内側から4本おきに電極が結線され、外周部から駆動端子として4本の電極が引き出されている。変調器制御部2202によってこれら4つの電極に印加する電圧状態を“0”と“1”の2つの状態で時間的に切り替えることで、格子パターンの初期位相ΦFもしくはΦを図24のように{0、π/2、π、3π/2}と切り替えることが可能となる。なお、図24において、網掛けで示した“1”を印加した電極が光を遮蔽し、白で示した“0”を印加した電極が光を透過させることに対応している。
FIG. 24 is a diagram showing a configuration example of the
図25は、時分割フリンジスキャンを実現する画像処理部2203の画像処理の一例を示すフローチャートである。図21のフローチャートと異なるところは、ステップ501より前のステップ2501〜2504の処理である。ステップ501〜506の処理は、図21の対応する処理と同様であるので、ここでは説明を省略する。
FIG. 25 is a flowchart showing an example of the image processing of the
まず、画像処理部2203は、フリンジスキャン演算の初めに加算結果をリセットする(2501)。次に、式(20)に対応する場合には、画像処理部2203は、撮影に使用された格子パターン104と同じ初期位相を設定し(2502)、その初期位相を持つ格子パターン105を生成し、画像センサ103の出力画像に対して乗算する(2101)。画像処理部2203は、この乗算結果を各初期位相のパターン毎に加算する(2503)。画像処理部2203は、以上のステップ2502〜2503の処理を全ての初期位相のパターン数繰り返す(2504でNO)。全ての位相について処理が終了した場合(2504でYES)、画像処理部2203は、処理をステップ501に進める。なお、上記フローチャートは式(20)を例に説明したが、式(19)、式(22)、式(23)にも同様に適用することが可能である。
First, the
図26は、空間分割フリンジスキャンを実現する撮像装置101の構成例を示す図である。この撮像装置101は、図1の変調器102に替えて、変調器2601を有する。また、この撮像装置101は、画像分割部2602と画像処理部2203を有する。
FIG. 26 is a diagram showing a configuration example of the
図27は、空間分割フリンジスキャンにおける格子パターンの例を示す図である。変調器2601は、例えば図27の初期位相ΦFもしくはΦがそれぞれ{0、π/2、π、3π/2}のパターンように、2次元的に配列した複数の初期位相のパターンを有する。画像分割部2602は、画像センサ103の出力画像を変調器2601のパターン配置に対応した領域画像に分割し、画像処理部2203に順次伝送する。図26の例では、画像センサ出力は、2×2の領域に分割される。式(20)に基づくフリンジスキャンでは4位相必要であるため、変調器2601は2×2のパターン配置を有する。式(22)に基づくフリンジスキャンは2位相で実現できるため、変調器2601は1×2のパターン配置で実現可能であり、それに応じて画像センサ出力も1×2の領域に分割される。以降の画像処理部2203の処理は、時分割フリンジスキャンである図22の処理と同等であるため、説明を省略する。
FIG. 27 is a diagram showing an example of a lattice pattern in the space division fringe scan. The modulator 2601 has a plurality of initial phase patterns arranged two-dimensionally such that the initial phase ΦF or Φ of FIG. 27 is {0, π/2, π, 3π/2}, respectively. The
この空間分割フリンジスキャンを用いれば、時分割フリンジスキャンの変調器2201のように電気的に格子パターンを切り替える必要がなく、安価に変調器を作製することができる。しかし、空間分割フリンジスキャンを用いると画像を分割するため解像度が実効的に低下する。よって、解像度を上げる必要がある場合には時分割フリンジスキャンが適している。
By using this space division fringe scan, it is not necessary to electrically switch the grid pattern unlike the time division
<歪み補正原理>
更にここで、第1の格子パターン104が厚みを持ち、かつその屈折率nが1ではない場合を考える。図28は、被写体からの光線が光学部の厚みと屈折率、被写体位置によってずれて画像センサ上に投影される様子を説明する図である。図28では、格子パターン104が厚みl1の光学部2801、l2の光学部2802で挟み込まれている。また、近距離にある物体を構成するある点からの光の主軸は、格子パターン中心を通り画像センサ103に到達する。
<Distortion correction principle>
Further, let us consider a case where the first
物体を構成する点2803が格子パターン104の中心直上にある場合、その光線は光学部2801の厚みl1、光学部2802の厚みl2、屈折率に関わらず画像センサの同一箇所に到達する。その一方で、格子パターン104の中心からずれた位置にある物体を構成する点2804からの光線はその点の位置、光学部2801の厚みl1、光学部2802の厚みl2、屈折率によって画像センサに到達する位置が異なる。仮に物体を構成する点の2804の位置をx,yとすると到達位置のずれ量δrは
If 2803 points constituting the object is directly above the center of the
図29は、撮影される被写体の歪みの発生の一例を示す図である。図29に示すような格子模様を被写体とした場合、屈折率が1であるか、または光学部2801、光学部2802の厚みがともに0であれば、歪みなく撮影され図29右上に示すように同一の画像が撮像され、表示される。一方で、屈折率が1より大きく、かつ光学部2801の厚みl1、光学部2802の厚みl2が0より大きい場合、図29右下に示すように歪んだ画像が表示される。
FIG. 29 is a diagram showing an example of occurrence of distortion of a subject to be photographed. When the lattice pattern as shown in FIG. 29 is used as a subject, if the refractive index is 1 or the thicknesses of the
そこで、式(25)から計算されるδrを利用し、歪みを補正する方法を考える。図30は、画像歪み補正により画像の歪みを補正した状態で被写体を撮影することを実現する撮像装置の構成例を示す図である。具体的には、撮像装置101は、画像歪み補正部3201を含んでいる。基本的な撮影原理は図1で示したものと同一であるが、画像表示前に画像歪み補正部3201によって画像歪みを除去する補正を行う。この補正では、画像歪み補正部3201は、式(25)から計算されるδrを用いる。その計算に必要なパラメータを入力する為に、画像歪み補正部3201は、画像歪み補正設定値入力部3202を使用する。ここで画像歪み補正設定値入力部3202が入力を受け付ける設定値は、光学部2801の厚みl1及び屈折率、光学部2802の厚みl2及び屈折率、光学部2801表面から被写体までの距離dである。この補正の処理によって、画像表示部107で表示される画像は歪みが除去され、被写体を正しく表示することが可能となる。
Therefore, a method of correcting the distortion by using δr calculated from Expression (25) will be considered. FIG. 30 is a diagram illustrating a configuration example of an image pickup apparatus that realizes shooting of a subject in a state where image distortion is corrected by image distortion correction. Specifically, the
ここで、画像歪み補正設定値入力部3202に入力する値は、撮像装置101の設計値でも良いが、装置毎に必要な設定値を測定しても良い。例えば距離dが既知の点光源を被写体として撮影すれば光学部2801の厚みl1及び光学部2802の厚みl2を逆算することが可能となる。これによって装置製造時の個体差を除去することが可能となる。
Here, the value input to the image distortion correction set
また、本実施形態では、例として格子パターン104の前後に接触する形で各光学部2801、2802が配置された例を示したが、これに限られず、各光学部2801、2802は、格子パターン104と接触せず離れていても良いし、その数はいくつであっても構わない。これによって、例えば画像センサ103にカバーガラスが付随している場合でもその影響を除去することが可能となり、より精度の良い歪み補正が可能となる。
Further, in the present embodiment, as an example, the respective
[第二実施形態]
<接写における問題>
上記の実施形態では、撮像装置から被写体が一定距離以上離れている場合を想定して説明した。第二の実施形態では、被写体を接写撮影する場合の問題点について説明する。まず初めに画角について再定義する。これまでの説明では、入射角θの光線のモアレ縞の空間周波数スペクトルのピーク位置u(式(9))が、画像センサ103のピクセルピッチによって決定される上限周波数N/(2S)よりも大きい場合で、画角θmaxを定義(式(13))していた。一方で、βが小さい、または画像センサ103のピクセルピッチ(S/N)が小さく、ピーク位置uが上限周波数よりも小さい場合には、画角の定義が異なる。
図31は、その画角θmax2を説明する図である。第1の格子パターン104を構成する同心円状の格子パターンの基準座標と、画像センサ103の端とを通る直線の傾きであるθmax2が、現像できる最大の画角となる。よって、画角θmax2は、第1の格子パターンからdだけ離れた距離の撮像において、画像センサ103の大きさSと変調器の厚さtを用いて、
[Second embodiment]
<Problems with close-up photography>
The above embodiment has been described on the assumption that the subject is distant from the imaging device by a certain distance or more. In the second embodiment, problems in the case of taking a close-up image of a subject will be described. First, the angle of view is redefined. In the description so far, the peak position u (equation (9)) of the spatial frequency spectrum of the moire fringes of the light ray having the incident angle θ is larger than the upper limit frequency N/(2S) determined by the pixel pitch of the
FIG. 31 is a diagram for explaining the angle of view θ max2 . Θ max2 , which is the inclination of a straight line that passes through the reference coordinates of the concentric circular grid pattern that constitutes the
ここで、接写時には、撮像する物体からの散乱角や、画像センサのCRA(Chief Ray Angle)特性によって視野が狭まることが問題となる。 Here, at the time of close-up photography, there is a problem that the field of view is narrowed due to the scattering angle from the object to be imaged and the CRA (Chief Ray Angle) characteristic of the image sensor.
まず、撮像する物体からの散乱角による視野の制限について説明する。図32は、物体が近距離にある場合に物体を構成するある点からの光が照射する格子パターンの範囲と視野を説明する図である。図32は、物体のある点からの光の拡がり角(散乱角)θsを示している。物体を構成する点3401乃至点3403からの散乱光が第1の格子パターン104を照射する場合、第1の格子パターン104における照射領域の直径Bは、散乱角θsを用いて、
First, the limitation of the visual field due to the scattering angle from the object to be imaged will be described. FIG. 32 is a diagram for explaining a range and a field of view of a lattice pattern irradiated by light from a certain point that constitutes the object when the object is at a short distance. FIG. 32 shows the spread angle (scattering angle) θ s of light from a certain point on the object. When the scattered light from the
上述したように、入射光が第1の格子パターン104を構成する同心円状の格子パターンの基準座標を通る場合に撮像が可能となる。そのため、散乱光が基準座標を通る点3401や点3402の撮像はできる一方で、基準座標を通らない点3403などの撮像はできない。図32のように、θs≦θmax2となる場合には、画角は散乱角θsで決定され、視野の直径Asは、
As described above, imaging can be performed when the incident light passes through the reference coordinates of the concentric lattice pattern forming the
次に、画像センサのCRA特性による視野の制限について説明する。受光素子の表面または背面にある配線等の配置や受光素子の通常前面に配置するマイクロレンズアレイの設計によって、画像センサの受光光量には、CRA特性とよばれる角度依存性がみられる。そこで、CRA特性に基づいて、入射光が入射角θiまで受光できるとすると、θi≦θmax2となるような画像センサを用いた撮像では、画角はθiで決定され、視野Aiは、 Next, the limitation of the visual field due to the CRA characteristic of the image sensor will be described. Depending on the layout of the wiring or the like on the front surface or the back surface of the light receiving element or the design of the microlens array normally arranged on the front surface of the light receiving element, the amount of light received by the image sensor has an angle dependency called CRA characteristic. Therefore, if it is assumed that the incident light can be received up to the incident angle θ i based on the CRA characteristics, the angle of view is determined by θ i and the field of view A i is determined in imaging using an image sensor that satisfies θ i ≦θ max2. Is
なお、入射角θiはCRA特性の半値半幅となる角度で決定するのがよいが、これに限
定するものではなく、半値半幅より小さい角度に設計すれば周辺光量減衰が起き難く、半値半幅より大きい角度に設計すれば視野が大きくなる。
Note that the incident angle θ i is preferably determined by an angle that is the half-width at half maximum of the CRA characteristic, but is not limited to this, and if the angle is designed to be smaller than the half-width at half maximum, peripheral light amount attenuation is less likely to occur, and the half-width at half maximum is less. The larger the angle, the larger the field of view.
<接写時の視野拡大方法>
そこで、接写時に視野を拡大する方法について説明する。
<Field of view expansion method for close-up photography>
Therefore, a method of expanding the field of view during close-up will be described.
図33は、複眼の格子パターンと複数の画像センサの組み合わせによる広視野化を実現する撮像装置の構成例を示す図である。この撮像装置101は、図19と異なり、複眼格子パターン3503が形成された変調器301と、複眼画像センサ3004と、画像合成部3506と、画像処理部106とを有する。複眼格子パターン3503は、中心から端へ向かうほど縞のピッチが狭くなる同心円状の格子パターンからなる基本パターン(基本格子パターン)3502を複数配列することで構成される。複眼画像センサ3004は、画像センサ3505を複数配列することで構成される。
FIG. 33 is a diagram showing a configuration example of an imaging device that realizes a wide field of view by combining a compound eye lattice pattern and a plurality of image sensors. Unlike the configuration shown in FIG. 19, the
図34は、複眼の格子パターンの一例を示す図である。この例では、基本パターン3502を3×3に互いに重なることなく配列することで複眼格子パターン3503を実現している。この場合、各画像センサ3505は、各基本パターン3502と対応するように3×3で配置される。
FIG. 34 is a diagram showing an example of a compound eye lattice pattern. In this example, the compound
図35は、図33に示す複眼の格子パターンと複数の画像センサによる視野を説明する図である。複数の基本パターン3502と複数の画像センサ3505のうち、n番目の基本パターン3502とn番目の画像センサ3505の組み合わせによるn番目の視野をAn、画角をθn、n番目とn+1番目の基本パターン3502の中心間距離をqn、複数の基本パターン3502と複数の画像センサ3505の一次元方向の個数をNとする。なお、各基本パターンの視野Anは、互いに異なっている。このとき、合成視野ANは、
FIG. 35 is a diagram for explaining the compound eye grid pattern shown in FIG. 33 and the field of view by a plurality of image sensors. Of the plurality of
ただし、複眼格子パターン3503から撮像対象までの距離dが短いと、各基本パターン3502の視野が小さくなり、合成視野ANに隙間ができる。隙間が生じない連続した視野を得るためには、Anがqn以上であれば良く、An=2d・tanθn≧qnを満たすようなdとqnを設定すれば良い。
However, when the distance d from the compound-
続いて、上述の複眼画像センサ3004及び複眼格子パターン3503を使った撮像の画像処理について、図36〜40を用いて説明する。
Subsequently, image processing of image pickup using the above-described compound
図36は、画像歪み補正処理の一例を示すフローチャートである。図21のフローチャートと異なるところは、ステップ504とステップ505の間に追加されたステップ3801およびステップ3802の処理である。なお、画像処理部106は、ステップ2101〜ステップ504の処理を、複数の画像センサ3505の出力するセンサ画像それぞれについて行う。
FIG. 36 is a flowchart showing an example of the image distortion correction processing. The difference from the flowchart of FIG. 21 is the processing of
画像歪み補正部3201は、ステップ3801にて画像歪み補正設定値入力部3202からの入力値に従って各画像センサ3505の出力画像に対して画像歪み補正を行う。続いて、画像合成部3506は、ステップ3802にて、各画像センサ3505の配列に従ってステップ3801の出力画像を並び替え、これらを合成する。ここで、ステップ3801において画像歪み補正を行っているために、ステップ3802において正しく画像の合成を行うことが可能となる。
The image
ステップ3801において画像歪み補正に用いる設定値は画像歪み補正設定値入力部3202を介して入力された光学部2801の厚みl1及び屈折率、光学部2802の厚みl2及び屈折率、光学部2801表面から被写体までの距離dである。
The setting values used for image distortion correction in
ここで、画像歪み補正設定値入力部3202が入力される値は、撮像装置101の設計値でも良いが、装置の個体毎に必要な設定値を測定しても良い。例えば、基本格子パターン3502の直上にそれぞれ距離dが既知の点光源を被写体として撮影すれば、光学部2801及び光学部2802の厚みであるl1,l2を逆算で求めることが可能となる。これによって装置製造時の個体差を除去することが可能となる。
Here, the value input to the image distortion correction set
図37は、合成方法の一例を説明する図である。また、図38は、合成画像を説明する図である。図37と図38は、ともに、ステップ3802の合成方法の一例を説明する図である。図37におけるANは、図35における合成視野ANであり、AnとAn+1は、図35におけるn番目とn+1番目の基本パターン3502による視野Anと視野An+1である。また、図36のステップ3801の出力画像を、出力画像3901と出力画像3902として表している。
FIG. 37 is a diagram illustrating an example of a synthesizing method. In addition, FIG. 38 is a diagram illustrating a composite image. 37 and 38 are diagrams illustrating an example of the combining method in step 3802. In FIG. 37, A N is the combined visual field A N in FIG. 35, and A n and A n+1 are the visual field A n and visual field A n+1 by the nth and n+1th
図38では、出力画像3901と出力画像3902の合成画像が示されている。ステップ3802では、n番目とn+1番目の基本パターン3502の中心間距離qnに相当するピクセル数だけ、出力画像3901及び出力画像3902の少なくとも一方をずらして足し合わせることで一枚の合成画像が得られる。
In FIG. 38, a composite image of the
次に、図38を用いて、合成後の輝度補正について説明する。重複領域4001は、出力画像3901と出力画像3902の視野Anと視野An+1が重なる領域を示している。合成後の重複領域4001の輝度は、出力画像3901と出力画像3902の足し合わせとなる。そのため、重複領域4001と視野の重なっていないその他の領域との輝度差を無くし、滑らかな輝度分布とするためには、重複領域4001の輝度補正が必要である。出力画像3901の重複領域4001に相当する領域の輝度と、出力画像3902の重複領域4001に相当する領域の輝度と、が一致する場合には、合成後の重複領域4001の輝度を1/2にすることで容易に補正できる。
Next, the luminance correction after the combination will be described with reference to FIG. An overlapping
しかしながら、実際の輝度は、CRA等の影響によって、中心から端になるほど減衰する分布を持つため、出力画像3901の重複領域4001に相当する領域の輝度と出力画像3902の重複領域4001に相当する領域の輝度とが一致せず、合成後の輝度を1/2としても輝度差を補正することができないことが多い。そこで、出力画像3901または出力画像3902のいずれかの画像のうち、視野Anと視野An+1が重なる重複領域4001に相当する領域のいずれか一方を採用して合成する、または、両方の画像を端からqn/2に対応するピクセル数だけ切り取って重なり部分を無くした画像を足し合わせる。これらのいずれかの方法により、輝度補正をすることなく、輝度差を低減することができる。
However, since the actual luminance has a distribution that is attenuated from the center to the edge due to the influence of CRA or the like, the luminance of the area corresponding to the overlapping
なお、本実施例では画像センサ3505を複数使用する説明をしたが、複眼格子パターン3503に対して画像センサ3505が十分大きい場合には一枚の画像センサ3505で使用しても構わない。その場合、画像センサ3505から出力される画像を基本パターン3502の個数に応じて分割すれば、画像センサ3505を複数用いた場合と同等の処理が可能である。
It should be noted that in the present embodiment, a plurality of
また、図35などでは基本パターン3502と画像センサ3505の一次元方向の配列に着目して説明したが、この構成は、同様に直交する方向にも拡張することにより二次元配列についても適用可能である。
Further, although the
また、基本パターン3502の個数も、図示したものに限定されるものではない。基本パターン3502の個数によって視野が決定するため、撮像対象の大きさに合わせて適宜変更されるものであってもよい。
Further, the number of
また、基本パターン3502から撮像対象までの距離を離す(大きくする)と視野は広くなる。このようにすれば、同一の広さの視野を得るのに必要な基本パターン3502の個数を減らすことができる。
Further, if the distance from the
図39は、画像センサの配置例を説明する図である。図39では、各画像センサ3505の向き(配線の向き)を揃えた(同一方向に向けた)配置を示している。一般的な画像センサは、信号を伝送するための配線が受光面の横から出ている。複数の画像センサ3505を配置するには、配線同士の干渉や受光面4101への配線の重なりが発生しないように画像センサ3505同士の間隔を空ける必要があり、受光面同士を一定距離以内に近づけられない場合がある。
FIG. 39 is a diagram illustrating an arrangement example of image sensors. FIG. 39 shows an arrangement in which the directions of the image sensors 3505 (the directions of the wirings) are aligned (in the same direction). In a general image sensor, wiring for transmitting a signal extends from the side of the light receiving surface. When arranging the plurality of
図40は、画像センサの他の配置例を説明する図である。図40では、各画像センサ3505の向き(配線の向き)が画像センサ3505の外側を向くようにした配置を示している。配線の位置は画像センサの種類によって異なるが、少なくとも一部の画像センサ3505の向きを他の画像センサ3505の向きと異ならせて配置することで、配線による受光面間の距離の制約(一定距離以内に近づけられない制約)を回避することができる。
FIG. 40 is a diagram illustrating another arrangement example of the image sensor. FIG. 40 shows an arrangement in which the orientation of each image sensor 3505 (wiring orientation) faces the outside of the
以上の方法及び構成に依れば、画像センサ3505と基本パターン3502の組み合わせを複数用いることで、それぞれで撮像できる視野を合成し拡大することができる。本実施形態によれば、簡易な構成で、薄型であり、かつ、歪みが補正され接写時の視野が拡大された撮像装置を提供することができる。
According to the above method and configuration, by using a plurality of combinations of the
[第三実施形態]
<注視方向の設計>
第三の実施形態を用いて、複眼格子パターン3503を用いた撮像における注視方向について説明する。
[Third embodiment]
<Gaze direction design>
The gaze direction in imaging using the compound-
図41は、注視方向の一例を説明する図である。とくに、図41は、複眼格子パターン3503による撮像の注視方向の一例を説明する図である。Anは、式(26)により画角が決定される場合に、n番目の基本パターン4301によって取得できる視野を示している。また、ここでは、基本パターン4301を構成する同心円状の格子パターンの基準座標と画像センサ3505の受光面の中心座標は一致していない。なお、画像センサ3505の受光面の中心座標は、受光面の四隅を結ぶ対角線の交点とする。
FIG. 41 is a diagram illustrating an example of a gaze direction. In particular, FIG. 41 is a diagram for explaining an example of the gaze direction of imaging by the compound-
第1実施形態でも説明したとおり、式(26)で決定される画角は、画像センサ3505の受光面の端と基本パターン4301を構成する同心円状の格子パターンの基準座標とを通る直線の傾きにより特定される。従って、注視方向は、基本パターン4301を構成する同心円状の格子パターンの基準座標と視野Anの中心との2点を結んだベクトルとなる。つまり、基本パターン4301を構成する同心円状の格子パターンの基準座標と画像センサ3505の受光面の中心座標の位置の設計時の設定によって、注視方向を変えることができるといえる。
As described in the first embodiment, the angle of view determined by the equation (26) is the inclination of a straight line passing through the edge of the light receiving surface of the
図42は、注視方向の他の例を説明する図である。この例は、複数設けられる基本パターンが、互いに注視方向を変えるための構成例を示している。図41の構成と図42の構成の異なるところは、基本パターン4401と基本パターン4402を構成する各同心円状の格子パターンの基準座標の位置である。図42では、これらの基準座標は、基本パターン4401と基本パターン4402の同心円状の格子パターンの中心間距離lが近づく向きに寄せられている。このように同心円状の格子パターンの中心座標を基本パターンごとに変えることによって、それぞれの基本パターンによる撮像の注視方向を変えることができる。
FIG. 42 is a diagram illustrating another example of the gaze direction. This example shows a configuration example in which a plurality of provided basic patterns mutually change the gaze direction. The difference between the configuration of FIG. 41 and the configuration of FIG. 42 is the position of the reference coordinate of each concentric lattice pattern forming the
画像センサ3505の種類によっては、受光面から出ている配線の配置などの理由によって、隣接する画像センサ3505の受光面の中心座標を近づけられない場合もある。そのような場合にも、基本パターン3502の基準座標の位置を変えることによって、撮像対象に視野ANを合わせることができ、連続した視野ANを得ることができる。
Depending on the type of the
以上のように基本パターン4301を構成する同心円上の格子パターンの中心座標と画像センサ3505の中心座標が一致していない(格子パターンの平面中心と画像センサの中心とが平面上でいずれかの方向にオフセットしている)場合、画像の歪み量を計算する式(25)において用いるx、yの値にその中心座標のずれ量(オフセット量)を反映する必要がある。実施例1で示したような格子パターンに一つの基本パターンしか含まれない場合には設定する中心座標のずれ量δcを一つ画像歪み補正設定値入力部3202に設定すれば良く、実施例3で説明したような格子パターンに複数の基本パターンが含まれる場合には、基本パターンごとに中心座標のずれ量δcを設定することで、全基本パターンの歪みを正しく補正することが可能である。
As described above, the central coordinates of the concentric lattice pattern forming the basic pattern 4301 and the central coordinates of the
この場合、δcの値を用いてx、yの値を補正し、補正後の値を特定し、それぞれx´、y´とする。そして、式(25)のx、yの値をx´、y´として演算し、x、yにおけるδrを特定する。 In this case, the values of δc are used to correct the values of x and y, and the corrected values are specified as x′ and y′. Then, the values of x and y in the equation (25) are calculated as x′ and y′ to specify δ r in x and y.
以上の方法・構成によれば、基本パターン3502を構成する同心円状の格子パターンの基準座標の設定によって注視方向を変えることができ、画像センサ3505の配置方法に制約がある場合にも、撮像対象に視野を向けることが可能である。
According to the method and configuration described above, the gaze direction can be changed by setting the reference coordinates of the concentric lattice pattern that forms the
[第四実施形態]
上述の第一の実施形態から第三の実施形態では、撮像装置101の外部に存在する画像歪み補正設定値入力部3202が画像歪み補正部3201で用いる設定値を入力する方法を説明した。本実施形態では、撮像装置101の内部に、画像歪み補正部3201で用いる設定値が内包される構成について説明する。
[Fourth Embodiment]
In the first to third embodiments described above, the method in which the image distortion correction setting
図43は、画像歪み補正部内に画像歪み補正設定値を記憶する構成例を示す図である。この構成例では、外部から歪み補正用の設定値を与える必要が無くなり、操作性を簡便に出来る。この場合、画像歪み補正設定値記憶部4501に記憶させる設定値は撮像装置101固有のものとなり、用途に応じて製造時にその設定値を検査し記憶させる必要がある。設定値として必要になるものは上述の通り、光学部2801の厚みl1及び屈折率、光学部2802の厚みl2及び屈折率、光学部2801表面から被写体までの距離dである。また、第三の実施形態のように注視方向を設ける場合には、格子パターンと画像センサの中心位置座標のずれ量δcが画像歪み補正設定値記憶部4501に予め記憶させられている。
FIG. 43 is a diagram illustrating a configuration example in which the image distortion correction setting value is stored in the image distortion correction unit. In this configuration example, it is not necessary to give a set value for distortion correction from the outside, and the operability can be simplified. In this case, the set value stored in the image distortion correction set
また、第四の実施形態では、最初に設定した被写体距離以外で使用する場合、外的要因によって格子パターンと画像センサの中心位置座標、または格子パターンの厚み、屈折率が変動した場合には再度画像歪み補正設定値記憶部4501に記憶させる設定値を更新する(与えられる)必要がある。
In addition, in the fourth embodiment, when the object distance other than the initially set object distance is used, the center position coordinates of the grating pattern and the image sensor, or the thickness and the refractive index of the grating pattern are changed due to an external factor, and then again. The setting value stored in the image distortion correction setting
[第五実施形態]
第一の実施形態から第四の実施形態では、格子パターンから被写体までの距離、画像センサから被写体の間に存在する屈折率1以外の光学部の厚みおよび屈折率、被写体の2次元位置情報によって計算された歪み量に基づき歪み補正を行うものである。画像処理部106によって得られた画像から画像歪み補正設定値記憶部4501に記憶する設定値を学習する構成について説明する。図44は、撮像装置101の中に画像歪み補正設定値学習部4601が内包された場合の構成図である。画像処理部106から出力された画像は画像歪み補正設定値学習部4601に送られる。この時、撮影対象となる被写体は既知のパターンであることが望ましく、例えば格子模様等の既知の明確で均等なパターンであれば尚学習が容易である。
[Fifth Embodiment]
In the first to fourth embodiments, the distance from the lattice pattern to the subject, the thickness and the refractive index of the optical part other than the
なお、画像処理部106からの出力画像は、撮影の都度、画像歪み補正設定値学習部4601に送られて再学習に用いられてもよいし、特定の条件によって画像歪み補正設定値を学習する場合のみ出力画像が画像歪み補正設定値学習部4601に送られても構わない。この場合、特定の条件には、例えば被写体が事前に登録されている場合、歪み補正設定値を学習するモードに画像処理部106の動作モードが切り替えられた場合、等が考えられる。また、この学習にはさまざまな方法による学習が含まれ、ルールベースの学習処理であってもよいし、機械学習やニューラルネットワークにおける学習済みモデルに基づく学習処理であってもよい。
Note that the output image from the
このように、第五の実施形態に係る撮像装置101によれば、実際に被写体を撮影した結果から歪み補正を行うため画像歪み補正部3201で用いる設定値の幅を拡げることが可能となる。例えば格子状のパターンを撮影した場合、各格子の交点の位置情報のずれ(理想パターンとのズレ量、ズレ方向、あるいは交点間の距離の差)を特定し歪み補正を行なってもよい。これによってより撮像装置101の状態を反映した歪み補正を行うことが可能となる。
As described above, according to the
[第六実施形態]
第一の実施形態から第五の実施形態は、撮像装置101の中で画像処理、歪み補正、画像合成の処理を行うものである。第六の実施形態では、画像センサ3505で取得した画像および画像処理に必要な設定値、画像歪み補正に必要な設定に並びに画像合成に必要な設定値をサーバー装置やパーソナルコンピュータ、スマートフォン、タブレット等の外部装置に出力し、それ以降の現像処理を外部装置側で行う構成について説明する。
[Sixth Embodiment]
The first to fifth embodiments perform image processing, distortion correction, and image composition processing in the
図45は、撮像装置からセンサ画像と必要設定値の情報を外部に出力し、外部で情報を受信し画像処理、画像歪み補正、画像合成を行う構成を示す図である。つまり、撮像装置101の中には、画像処理設定値記憶部4701と、画像歪み補正設定値記憶部4501と、画像合成設定値記憶部4702及び情報送信部4703とが内包されている。そして、情報送信部4703は、ネットワークや通信線、あるいは無線通信路を経由して外部装置に画像センサ3505の出力と、画像処理設定値記憶部4701に格納された情報と、画像歪み補正設定値記憶部4501に格納された情報と、画像合成設定値記憶部4702に格納された情報とを全て含めた形で送信する。
FIG. 45 is a diagram showing a configuration in which a sensor image and information about necessary setting values are output from the image pickup apparatus to the outside, and the information is received outside to perform image processing, image distortion correction, and image combination. That is, the
そして、送信された情報は情報受信部4704を介して受信され、画像処理装置4705に入力される。画像処理装置4705には、情報受信部4704と、画像処理部106と、画像歪み補正部3201と、画像合成部3506と、が含まれ、上述の実施形態と同様に画像処理、画像歪み補正処理、画像合成の処理を行い、画像表示部107に送る。
Then, the transmitted information is received via the
画像表示部107は、合成された画像を用いて画面等を構成し、ディスプレイ装置に表示させる。
The
このような構成とすることで、画像処理、画像歪み補正、画像合成を撮像装置101において行う必要が無くなり、撮像装置101の演算量を大幅に低減できる。そのため、撮像装置101のハードウェア要求水準を下げることが可能となり、撮像装置101の単価を抑制できる。このようにネットワークを介した他の装置、例えば遠隔地にあるサーバー装置と連携することも可能となると、利便性が向上する。
With such a configuration, it is not necessary to perform image processing, image distortion correction, and image composition in the
以上、本発明について複数の実施形態を用いて説明した。もちろん、本発明は上記の実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 The present invention has been described above using a plurality of embodiments. Of course, the present invention is not limited to the above-mentioned embodiment, and various modifications are included. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described.
また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add/delete/replace other configurations with respect to a part of the configurations of the respective embodiments.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD(Digital Versatile Disc)等の記録媒体に置くことができる。 Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be realized in hardware by designing a part or all of them with, for example, an integrated circuit. Further, the above-described respective configurations, functions and the like may be realized by software by the processor interpreting and executing a program for realizing each function. Information such as programs, tables, and files that realize each function is stored in a memory, a hard disk, a recording device such as SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, and a DVD (Digital Versatile Disc). Can be placed.
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 In addition, the control lines and information lines shown are those that are considered necessary for explanation, and not all the control lines and information lines in the product are necessarily shown. In practice, it may be considered that almost all configurations are connected to each other.
本発明は、撮像装置、及び撮像方法に限られず、撮像システム、現像方法、コンピュータ読み取り可能なプログラム、画像処理回路、指静脈認証装置、指静脈撮像装置、指静脈認証方法などの様々な態様で提供できる。 The present invention is not limited to the image capturing apparatus and the image capturing method, and may be implemented in various modes such as an image capturing system, a developing method, a computer-readable program, an image processing circuit, a finger vein authentication device, a finger vein imaging device, and a finger vein authentication method. Can be provided.
101…撮像装置、102…変調器、102a…格子基板、102b…支持部材、103…画像センサ、103a…画素、104…第1の格子パターン、105…第2の格子パターン、106…画像処理部、107…画像表示部、401…被写体、3201…画像歪み補正部、3202…画像歪み補正設定値入力部、3506…画像合成部、4501…画像歪み補正設定値記憶部、4601…画像歪み補正設定値学習部、4701…画像処理設定値記憶部、4702…画像合成設定値記憶部、4703…情報送信部、4704…情報受信部、4705…画像処理装置
Claims (13)
前記画像センサの受光面に設けられ、格子パターンを用いて光の強度を変調する変調部と、
前記画像センサより出力された出力画像に対して所定の画像処理を施す画像処理部と、
前記画像処理部から出力された画像に対して歪み補正を行う画像歪み補正部と、
前記画像歪み補正部に画像歪み補正用の設定値を受け渡す画像歪み補正設定値入力部と、
を備えることを特徴とする撮像装置。 An image sensor that converts an optical image captured by a plurality of pixels arranged in an array on the imaging surface into an image signal and outputs the image signal.
A modulator provided on the light-receiving surface of the image sensor for modulating the intensity of light using a lattice pattern,
An image processing unit that performs predetermined image processing on the output image output from the image sensor,
An image distortion correction unit that performs distortion correction on the image output from the image processing unit,
An image distortion correction setting value input unit that transfers setting values for image distortion correction to the image distortion correction unit,
An imaging device comprising:
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有する、
ことを特徴とする撮像装置。 The imaging device according to claim 1, wherein
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has different fields of view,
An imaging device characterized by the above.
前記画像センサを複数備え、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、前記画像センサと一対一に対応付けられた基本ユニットを構成し、
前記基本ユニットのそれぞれは、互いに異なる視野を有する、
ことを特徴とする撮像装置。 The imaging device according to claim 1, wherein
A plurality of the image sensors,
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has different fields of view,
The basic lattice pattern constitutes a basic unit that is associated with the image sensor in a one-to-one correspondence,
Each of the basic units has a different field of view,
An imaging device characterized by the above.
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記基本格子パターンは、所定の厚みを有し前記画像センサの受光面と略平行な平面上に設けられ、該平面上の二次元方向の中心位置と、前記画像センサの前記受光面の中心位置とが前記平面上のいずれかの方向にオフセットされており、
前記画像歪み補正設定値入力部は、該オフセットの量または前記基本格子パターンの前記平面上の中心位置を前記設定値として用いる、
ことを特徴とする撮像装置。 The imaging device according to claim 1, wherein
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
The basic lattice pattern is provided on a plane that has a predetermined thickness and is substantially parallel to the light receiving surface of the image sensor, and the center position of the two-dimensional direction on the plane and the center position of the light receiving surface of the image sensor. And are offset in either direction on the plane,
The image distortion correction set value input unit uses the amount of the offset or the center position of the basic lattice pattern on the plane as the set value.
An imaging device characterized by the above.
前記画像センサを複数備え、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、前記画像センサと一対一に対応付けられた基本ユニットを構成し、
前記基本ユニットのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、所定の厚みを有し前記画像センサの受光面と略平行な平面上に設けられ、該平面上の二次元方向の中心位置と、前記画像センサの前記受光面の中心位置とが前記平面上のいずれかの方向にオフセットして配置されており、
前記画像歪み補正部は、該オフセットの量または前記基本格子パターンの前記平面上の中心位置を前記設定値として用いる、
ことを特徴とする撮像装置。 The imaging device according to claim 1, wherein
A plurality of the image sensors,
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has different fields of view,
The basic lattice pattern constitutes a basic unit that is associated with the image sensor in a one-to-one correspondence,
Each of the basic units has a different field of view,
The basic lattice pattern is provided on a plane that has a predetermined thickness and is substantially parallel to the light receiving surface of the image sensor, and the center position of the two-dimensional direction on the plane and the center position of the light receiving surface of the image sensor. And are arranged offset in any direction on the plane,
The image distortion correction unit uses the amount of the offset or the center position of the basic lattice pattern on the plane as the set value.
An imaging device characterized by the above.
前記画像歪み補正設定値入力部は、前記画像歪み補正部または前記画像処理部の少なくともいずれかに設けられる、
ことを特徴とする撮像装置。 The imaging device according to claim 1, wherein
The image distortion correction setting value input unit is provided in at least one of the image distortion correction unit and the image processing unit,
An imaging device characterized by the above.
前記画像歪み補正部の前記設定値を、所定の既知のパターンを撮像した結果を用いて所定の方法で学習する歪み補正設定値学習部を備える、
ことを特徴とする撮像装置。 The imaging device according to claim 3 or 6, wherein
A distortion correction setting value learning unit that learns the setting value of the image distortion correction unit by a predetermined method using a result of capturing a predetermined known pattern,
An imaging device characterized by the above.
前記画像センサの受光面に設けられ、格子パターンを用いて光の強度を変調する変調部と、
前記画像センサより出力された前記画像信号を処理する為の設定値を記憶する画像処理設定値記憶部と、
前記画像センサより出力された前記画像信号を歪み補正する為の設定値を記憶する画像歪み補正設定値記憶部と、
前記画像センサより出力された前記画像信号を合成する為の設定値を記憶する画像合成設定値記憶部と、
前記画像センサより出力された前記画像信号と、前記画像処理設定値記憶部に記憶された設定値と、前記画像歪み補正設定値記憶部に記憶された設定値と、前記画像合成設定値記憶部に記憶された設定値とを、所定の外部の装置に送信する情報送信部と、
を備えることを特徴とする撮像装置。 An image sensor that converts an optical image captured by a plurality of pixels arranged in an array on the imaging surface into an image signal and outputs the image signal.
A modulator provided on the light-receiving surface of the image sensor for modulating the intensity of light using a lattice pattern,
An image processing setting value storage unit that stores setting values for processing the image signal output from the image sensor,
An image distortion correction setting value storage unit that stores a setting value for correcting distortion of the image signal output from the image sensor,
An image combination set value storage unit that stores a set value for combining the image signals output from the image sensor,
The image signal output from the image sensor, the set value stored in the image processing set value storage unit, the set value stored in the image distortion correction set value storage unit, and the image composition set value storage unit. The setting value stored in, an information transmitting unit for transmitting to a predetermined external device,
An imaging device comprising:
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有する、
ことを特徴とする撮像装置。 The imaging device according to claim 8, wherein
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has different fields of view,
An imaging device characterized by the above.
前記画像センサを複数備え、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、前記画像センサと一対一に対応付けられた基本ユニットを構成し、
前記基本ユニットのそれぞれは、互いに異なる視野を有する、
ことを特徴とする撮像装置。 The imaging device according to claim 8, wherein
A plurality of the image sensors,
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has different fields of view,
The basic lattice pattern constitutes a basic unit that is associated with the image sensor in a one-to-one correspondence,
Each of the basic units has a different field of view,
An imaging device characterized by the above.
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記基本格子パターンは、所定の厚みを有し前記画像センサの受光面と略平行な平面上に設けられ、該平面上の二次元方向の中心位置と、前記画像センサの前記受光面の中心位置とが前記平面上のいずれかの方向にオフセットして配置されており、
前記画像歪み補正設定値記憶部は、該オフセットの量または前記基本格子パターンの前記平面上の中心位置を前記設定値として記憶する、
ことを特徴とする撮像装置。 The imaging device according to claim 8, wherein
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
The basic lattice pattern is provided on a plane having a predetermined thickness and substantially parallel to the light receiving surface of the image sensor, and the center position of the two-dimensional direction on the plane and the center position of the light receiving surface of the image sensor. And are arranged offset in any direction on the plane,
The image distortion correction set value storage unit stores the amount of the offset or the center position of the basic lattice pattern on the plane as the set value.
An imaging device characterized by the above.
前記画像センサを複数備え、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、前記画像センサと一対一に対応付けられた基本ユニットを構成し、
前記基本ユニットのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、所定の厚みを有し前記画像センサの受光面と略平行な平面上に設けられ、該平面上の二次元方向の中心位置と、前記画像センサの前記受光面の中心位置とが前記平面上のいずれかの方向にオフセットして配置されており、
前記画像歪み補正設定値記憶部は、該オフセットの量または前記基本格子パターンの前記平面上の中心位置を前記設定値として記憶する、
ことを特徴とする撮像装置。 The imaging device according to claim 10, wherein
A plurality of the image sensors,
The lattice pattern is a multiple lattice pattern having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has different fields of view,
The basic lattice pattern constitutes a basic unit that is associated with the image sensor in a one-to-one correspondence,
Each of the basic units has a different field of view,
The basic lattice pattern is provided on a plane that has a predetermined thickness and is substantially parallel to the light receiving surface of the image sensor, and the center position of the two-dimensional direction on the plane and the center position of the light receiving surface of the image sensor. And are arranged offset in any direction on the plane,
The image distortion correction set value storage unit stores the amount of the offset or the center position of the basic lattice pattern on the plane as the set value.
An imaging device characterized by the above.
前記画像センサを複数備え、
前記格子パターンは、複数の基本格子パターンを有する複数格子パターンであって、
前記複数の基本格子パターンのそれぞれは、互いに異なる視野を有し、
前記基本格子パターンは、前記画像センサと一対一に対応付けられた基本ユニットを構成し、
前記基本ユニットのそれぞれは、互いに異なる視野を有し、
前記画像歪み補正部の前記設定値を、所定の既知のパターンを撮像した結果を用いて所定の方法で学習する歪み補正設定値学習部を備える、
ことを特徴とする撮像装置。 The imaging device according to claim 8, wherein
A plurality of the image sensors,
The lattice pattern is a plurality of lattice patterns having a plurality of basic lattice patterns,
Each of the plurality of basic lattice patterns has a different field of view,
The basic lattice pattern constitutes a basic unit that is associated with the image sensor in a one-to-one correspondence,
Each of the basic units has a different field of view,
A distortion correction setting value learning unit that learns the setting value of the image distortion correction unit by a predetermined method using the result of capturing a predetermined known pattern,
An imaging device characterized by the above.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018235411A JP2020098963A (en) | 2018-12-17 | 2018-12-17 | Imaging device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018235411A JP2020098963A (en) | 2018-12-17 | 2018-12-17 | Imaging device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2020098963A true JP2020098963A (en) | 2020-06-25 |
Family
ID=71106929
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018235411A Pending JP2020098963A (en) | 2018-12-17 | 2018-12-17 | Imaging device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2020098963A (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012507250A (en) * | 2009-10-14 | 2012-03-22 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | Optical image apparatus, optical image processing apparatus, and optical image forming method |
| US20160241799A1 (en) * | 2015-02-12 | 2016-08-18 | Rambus Inc. | Systems and Methods for Lensless Image Acquisition |
| WO2016203573A1 (en) * | 2015-06-17 | 2016-12-22 | 日立マクセル株式会社 | Image capture device |
| JP2018098758A (en) * | 2017-05-31 | 2018-06-21 | 株式会社日立製作所 | Imaging device |
| WO2018123318A1 (en) * | 2016-12-27 | 2018-07-05 | 富士フイルム株式会社 | Imaging device and imaging module |
-
2018
- 2018-12-17 JP JP2018235411A patent/JP2020098963A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012507250A (en) * | 2009-10-14 | 2012-03-22 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | Optical image apparatus, optical image processing apparatus, and optical image forming method |
| US20160241799A1 (en) * | 2015-02-12 | 2016-08-18 | Rambus Inc. | Systems and Methods for Lensless Image Acquisition |
| WO2016203573A1 (en) * | 2015-06-17 | 2016-12-22 | 日立マクセル株式会社 | Image capture device |
| WO2018123318A1 (en) * | 2016-12-27 | 2018-07-05 | 富士フイルム株式会社 | Imaging device and imaging module |
| JP2018098758A (en) * | 2017-05-31 | 2018-06-21 | 株式会社日立製作所 | Imaging device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6685887B2 (en) | Imaging device | |
| US11747641B2 (en) | Imaging apparatus with cylindrical lenses | |
| JP6820908B2 (en) | Imaging device | |
| JP6721698B2 (en) | Imaging device | |
| JP6646619B2 (en) | Imaging device | |
| JP6864604B2 (en) | Imaging device | |
| JP7389195B2 (en) | Image generation method | |
| JP7097787B2 (en) | Imaging device and imaging method | |
| JP6947891B2 (en) | Mobile information terminal | |
| JP6770164B2 (en) | Imaging device | |
| JP2020098963A (en) | Imaging device | |
| JP6636663B2 (en) | Imaging device and image generation method | |
| JP2021064000A (en) | Imaging device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210323 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211228 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220316 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221213 |