JP2001194114A - Image processing apparatus, image processing method, and program providing medium - Google Patents
Image processing apparatus, image processing method, and program providing mediumInfo
- Publication number
- JP2001194114A JP2001194114A JP2000010127A JP2000010127A JP2001194114A JP 2001194114 A JP2001194114 A JP 2001194114A JP 2000010127 A JP2000010127 A JP 2000010127A JP 2000010127 A JP2000010127 A JP 2000010127A JP 2001194114 A JP2001194114 A JP 2001194114A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pattern
- capturing
- data
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
(57)【要約】
【課題】 距離画像生成用のパターン画像と、パターン
の取り除かれたテクスチャ画像を同時に撮り込み可能な
画像処理装置および方法を提供する。
【解決手段】 計測対象を撮影する撮像素子に2つの異
なる特性を持つフィルタを各画素に対応させて配置し
た。赤外光によりパターン光を計測対象に照射し、計測
対象画像を撮り込む撮像素子の画素の約1/2に赤外光
カットフィルタを配置し、残りの1/2に可視光カット
フィルタを配置した。赤外光カットフィルタを配置した
画素にはパターン光が撮り込まれずテクスチャ画像とし
て使用され、可視光カットフィルタを配置した画素には
パターン光が撮り込まれ、この画像を用いて距離画像を
生成する。テクスチャ画像、パターン付き画像の同時撮
り込みが可能となり高精度な三次元画像が生成される。
(57) [Problem] To provide an image processing apparatus and method capable of simultaneously capturing a pattern image for generating a distance image and a texture image from which a pattern has been removed. SOLUTION: A filter having two different characteristics is arranged in an image sensor for photographing a measurement object in correspondence with each pixel. Irradiate the pattern light with the infrared light to the measurement target, place an infrared light cut filter in about half of the pixels of the image sensor that captures the measurement target image, and place a visible light cut filter in the other half. did. The pixels on which the infrared light cut filter is arranged do not capture the pattern light and are used as a texture image, and the pixels on which the visible light cut filter is arranged capture the pattern light and generate a distance image using this image. . A texture image and an image with a pattern can be simultaneously captured, and a high-precision three-dimensional image is generated.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、物体の三次元形状
を求め、距離画像を生成する画像処理装置および画像処
理方法、並びにプログラム提供媒体に関する。特に三次
元空間上である距離範囲に存在する物体を複数の異なる
位置から撮影した画像を用いて被写体表面の三次元形状
を計測して距離画像を生成するステレオ画像法において
好適な画像処理装置および画像処理方法、並びにプログ
ラム提供媒体に関する。The present invention relates to an image processing apparatus and an image processing method for obtaining a three-dimensional shape of an object and generating a distance image, and a program providing medium. In particular, an image processing apparatus suitable for a stereo image method of generating a distance image by measuring a three-dimensional shape of a subject surface using images captured from a plurality of different positions of an object present in a distance range on a three-dimensional space and The present invention relates to an image processing method and a program providing medium.
【0002】[0002]
【従来の技術】物体の三次元形状を求める従来手法とし
て、大きく分けて能動的手法(アクティブ手法)と受動
的手法(パッシブ手法)がある。能動的手法としては、
光を投射して、その光が反射して帰ってくるまでの時間
を測定することで各計測対象物体までの距離を求める方
法や、計測対象にスリット状のパターン光をあてて計測
対象に投影されたパターン光の形状を調べることによっ
て三次元形状を計測する光切断法といった方法がある。2. Description of the Related Art Conventional methods for obtaining a three-dimensional shape of an object are roughly classified into an active method (active method) and a passive method (passive method). As an active method,
A method of calculating the distance to each measurement object by projecting light and measuring the time until the light is reflected back, or applying a slit-shaped pattern light to the measurement object and projecting it on the measurement object There is a method such as a light-section method for measuring a three-dimensional shape by examining the shape of a given pattern light.
【0003】また、受動的手法として代表的なものは、
三角測量の原理を利用したステレオ法であり、これは2
台以上のカメラを使って、その画像間での各画素の対応
点を見つけることで、その位置関係(視差)を求め、計
測対象までの距離を計測する方法である。[0003] A typical passive method is as follows.
This is a stereo method using the principle of triangulation.
This is a method in which a positional relationship (parallax) is obtained by finding a corresponding point of each pixel between the images using more than one camera, and a distance to a measurement target is measured.
【0004】ステレオ法について、その原理を簡単に説
明する。ステレオ法は複数のカメラを用いて2つ以上の
視点(異なる視線方向)から同一対象物を撮影して得ら
れる複数の画像における画素同士を対応づけることで計
測対象物の三次元空間における位置を求めようとするも
のである。例えば基準カメラと検出カメラにより異なる
視点から同一対象物を撮影して、それぞれの画像内の計
測対象物の距離を三角測量の原理により測定する。[0004] The principle of the stereo method will be briefly described. The stereo method associates pixels in a plurality of images obtained by photographing the same object from two or more viewpoints (different line-of-sight directions) using a plurality of cameras, and thereby positions a measurement object in a three-dimensional space. It is what we seek. For example, the same object is photographed from different viewpoints by the reference camera and the detection camera, and the distance between the measurement objects in each image is measured based on the principle of triangulation.
【0005】図1は、ステレオ法の原理を説明する図で
ある。基準カメラ(Camera1)と検出カメラ(C
amera 2)は異なる視点から同一対象物を撮影す
る。基準カメラによって撮影された画像中の「mb」と
いうポイントの奥行きを求めることを考える。FIG. 1 is a diagram for explaining the principle of the stereo method. Reference camera (Camera 1) and detection camera (C
amera 2) captures the same object from different viewpoints. Consider obtaining the depth of a point “mb” in an image captured by a reference camera.
【0006】基準カメラによる撮影画像中のポイント
「mb」に見える物体は、異なる視点から同一物体を撮
影している検出カメラによって撮影された画像におい
て、「m1」、「m2」、「m3」のようにある直線上
に展開されることになる。この直線をエピポーラライン
(Epipolar line)Lpと呼ぶ。[0006] Objects that appear at the point "mb" in the image captured by the reference camera are identified by "m1,""m2," and "m3" in the images captured by the detection cameras capturing the same object from different viewpoints. Will be developed on a straight line. This straight line is referred to as an epipolar line Lp.
【0007】基準カメラにおけるポイント「mb」の位
置は、検出カメラによる画像中では「エピポーラ・ライ
ン」と呼ばれる直線上に現れる。撮像対象となる点P
(P1,P2,P3を含む直線上に存在する点)は、基
準カメラの視線上に存在する限り、奥行きすなわち基準
カメラとの距離の大小に拘らず、基準画像上では同じ観
察点「mb」に現れる。これに対し、検出カメラによる
撮影画像上における点Pは、エピポーラ・ライン上に基
準カメラと観察点Pとの距離の大小に応じた位置にあら
われる。[0007] The position of the point "mb" in the reference camera appears on a straight line called "epipolar line" in the image obtained by the detection camera. Point P to be imaged
(Points existing on a straight line including P1, P2, and P3) are the same observation point “mb” on the reference image regardless of the depth, that is, the distance from the reference camera, as long as they are on the line of sight of the reference camera. Appears in On the other hand, the point P on the image captured by the detection camera appears on the epipolar line at a position corresponding to the magnitude of the distance between the reference camera and the observation point P.
【0008】図1には、エピポーラ・ラインと、検出カ
メラ画像中における観察点「mb」の対応を図解してい
る。同図に示すように、観察点Pの位置がP1,P2,
P3へと変化するに従って、検出カメラ画像中の観察点
は「m1」、「m2」、「m3」へとシフトする。FIG. 1 illustrates a correspondence between an epipolar line and an observation point “mb” in a detected camera image. As shown in the figure, the position of the observation point P is P1, P2,
As the position changes to P3, the observation point in the detected camera image shifts to “m1,” “m2,” and “m3”.
【0009】以上の幾何光学的性質を利用して、観察点
「mb」をエピポーラ・ライン上で探索することによ
り、点Pの距離を同定することができる。これが「ステ
レオ法」の基本的原理である。このような方法で画面上
のすべての画素についての三次元情報を取得する。取得
した三次元情報は画素ごとに対応した画素属性データと
して使用することが可能となる。By using the above geometrical optical properties to search for the observation point "mb" on the epipolar line, the distance of the point P can be identified. This is the basic principle of the “stereo method”. In this way, three-dimensional information on all pixels on the screen is obtained. The acquired three-dimensional information can be used as pixel attribute data corresponding to each pixel.
【0010】上述のステレオ画像法は1台の基準カメラ
と1台の検出カメラとを用いた構成としたが、検出カメ
ラを複数用いたマルチベースラインステレオ(Mult
iBaseline Stereo)法によって評価値
を求めて、該評価値に基づいて画素ごとの三次元情報を
取得するように構成してもよい。マルチベースラインス
テレオ画像法は、1つの基準カメラと複数の検出カメラ
によって撮影される画像を用い、複数の検出カメラ画像
それぞれについて基準カメラ画像との相関を表す評価値
を求め、それぞれの評価値を加算し、その加算値を最終
的な評価値とするものである。このマルチベースライン
ステレオ画像法の詳細は、例えば「複数の基線長を利用
したステレオマッチング」、電子情報通信学会論文誌D
−11Vol.J75−D−II No.8 pp.1
317−1327 1992年8月、に記載されてい
る。Although the above-described stereo image method uses one reference camera and one detection camera, a multi-baseline stereo (Multi) using a plurality of detection cameras is used.
An evaluation value may be obtained by an iBaseline Stereo) method, and three-dimensional information for each pixel may be obtained based on the evaluation value. The multi-baseline stereo image method uses an image captured by one reference camera and a plurality of detection cameras, obtains an evaluation value representing a correlation between the plurality of detection camera images and the reference camera image, and calculates each evaluation value. The sum is added and the sum is used as a final evaluation value. For details of the multi-baseline stereo image method, see, for example, “Stereo matching using a plurality of baseline lengths”, IEICE Transactions D
-11Vol. J75-D-II No. 8 pp. 1
317-1327, August 1992.
【0011】上述のように、ステレオ法は、複数のカメ
ラを用いて2つ以上の視点(異なる視線方向)から同一
対象物を撮影して得られる複数の画像における画素同士
を対応づけること、すなわち「対応点付け(マッチン
グ)」を実施することで計測対象物の三次元空間におけ
る位置を求めようとするものである。[0011] As described above, the stereo method associates pixels in a plurality of images obtained by photographing the same object from two or more viewpoints (different line-of-sight directions) using a plurality of cameras, that is, By performing "corresponding scoring (matching)", the position of the measurement target in the three-dimensional space is obtained.
【0012】従来から、よく使われている「対応点付
け」の手法は、Pixel−basedマッチング、A
rea−basedマッチングとFeature−ba
sedマッチングに大別される。Pixel−base
dマッチングとは、一方の画像における点の対応を、他
方の画像でそのまま探索する方法である(C.Lawr
ence Zitnick and Jon A. W
ebb: Multi−baseline Stere
o Using Surface Extractio
n, Technical Report, CMU−
CS−96−196, (1996)参照)。Conventionally, the method of “corresponding scoring” that is often used is pixel-based matching, A
Area-based matching and Feature-ba
It is roughly classified into sed matching. Pixel-base
The d-matching is a method of searching for the correspondence of points in one image as it is in the other image (C. Lawr.
ence Znickick and Jon A. W
ebb: Multi-baseline Stereo
o Using Surface Extraction
n, Technical Report, CMU-
CS-96-196, (1996)).
【0013】Area−basedマッチングとは、一
方の画像における点の対応を、他方の画像で探す時、そ
の点の周りの局所的な画像パターンを用いて探索する方
法である(奥富、金出: 複数の基線長を利用したステ
レオマッチング、電子情報通信学会論文誌D−II、V
ol.J75−DII, No.8, pp.1317
−1327, (1992)、横山、三輪、芦ヶ原、小
柳津、林、後: Stereo Camera Sys
tem and Its Application、
SRF’97、(1997)、金出、木村: ビデオレ
ート・ステレオマシン、日本ロボット学会誌、Vol.
13, No.3, pp.322〜326, (19
95)、金出、蚊野、木村、川村、吉田、織田: ビデ
オレートステレオマシンの開発、日本ロボット学会誌、
Vol.15, No.2, pp.261〜267,
(1997)、山口、高地、井口: 適応ウィンドウ
法を用いた石像計測のためのステレオ対応付け、人文科
学とコンピュータ、Vol.32, No.10, p
p.55〜60, (1996)、横矢: 最近の信号
処理総合特集号 コンピュータビジョンの最近の話題、
システム/制御/情報、Vol.38, No.8,
pp.436〜441, (1994)参照)。Area-based matching is a method of searching for the correspondence of a point in one image by using a local image pattern around the point when searching for the other image (Okutomi, Kinide: Stereo matching using multiple baseline lengths, IEICE Transactions D-II, V
ol. J75-DII, No. 8, pp. 1317
-1327, (1992), Yokoyama, Miwa, Ashigahara, Koyanatsu, Hayashi, later: Stereo Camera Sys
tem and Its Application,
SRF '97, (1997), Kanade, Kimura: Video rate stereo machine, Journal of the Robotics Society of Japan, Vol.
13, No. 3, pp. 322 to 326, (19
95), Kinade, Mosquito Field, Kimura, Kawamura, Yoshida, Oda: Development of Video Rate Stereo Machine, Journal of the Robotics Society of Japan,
Vol. 15, No. 2, pp. 261-267,
(1997), Yamaguchi, Takachi, Iguchi: Stereo matching for stone image measurement using the adaptive window method, Humanities and Computers, Vol. 32, no. 10, p
p. 55-60, (1996), Yokoya: Recent Special Issue on Signal Processing Recent topics on computer vision,
System / Control / Information, Vol. 38, no. 8,
pp. 436-441, (1994)).
【0014】Feature−basedマッチングと
は、画像から濃淡エッジなどの特徴を抽出し、画像間の
特徴だけを用いて対応付けを行う方法である(H.H.
Baker and T.O.Binford: De
pth from edgeand intensit
y based stereo, In Proc.
IJCAI’81, (1981)、石山、角保、河
井、植芝、富田: セグメントベーストステレオにおけ
る対応候補探索、信学技報、Vol.96,No.13
6, (1997)、W.E.L.Grimson:
Computational experiments
with a feature based ste
reo algorithm, IEEE Tran
s. PAMI, Vol.7, No.1, pp.
17〜34, (1985))。The feature-based matching is a method of extracting features such as dark and light edges from images and associating them using only features between images (HH.
Baker and T.M. O. Binford: De
pth from edgeand intensit
y based stereo, In Proc.
IJCAI'81, (1981), Ishiyama, Kakuho, Kawai, Ueshiba, Tomita: Search for Correspondence Candidates in Segment-Based Stereo, IEICE Technical Report, Vol. 96, No. 13
6, (1997); E. FIG. L. Grimson:
Computational experiments
with a feature based ste
reo algorithm, IEEE Tran
s. PAMI, Vol. 7, No. 1 pp.
17-34, (1985)).
【0015】上記の各手法の特徴を整理すると、次のよ
うになる。 (1)Pixel−basedマッチングとArea−
basedマッチングは各々の画素に対して、対応点を
探索するので、求められた距離画像は密である。一方、
Feature−basedマッチングは、特徴点だけ
に対して、対応付けを行うので、得られた距離画像は疎
である。The characteristics of each of the above methods are summarized as follows. (1) Pixel-based matching and Area-
In the based matching, a corresponding point is searched for each pixel, so that the obtained distance image is dense. on the other hand,
Since the feature-based matching associates only feature points, the obtained distance image is sparse.
【0016】(2)Area−basedマッチング
は、一種の相関演算を行うため、Pixel−base
dマッチングとFeature−basedマッチング
に比べて、計算コストがかかるが、アルゴリズムの高速
化によって、必ずしも解決できない問題ではない。(2) In the Area-based matching, a kind of correlation operation is performed.
Although computational cost is higher than d-matching and Feature-based matching, it is not necessarily a problem that cannot be solved by speeding up the algorithm.
【0017】(3)Pixel−basedマッチング
は、画素間の対応付けだけを行うため、計算速度がかな
り速いが、左右カメラ間の特性の違いによって、画素間
の濃淡値を用いる対応付けが容易ではない。(3) Pixel-based matching only performs the correspondence between pixels, so that the calculation speed is considerably high. However, due to the difference in characteristics between the right and left cameras, it is not easy to perform the correspondence using the gray value between pixels. Absent.
【0018】上述の特徴から、一般的に、高精度で対象
の3次元形状(または奥行き)を画素毎に求めるための
手法としてArea−basedマッチングは有効であ
り、よく使われている。From the above-described characteristics, Area-based matching is generally effective and widely used as a method for obtaining a three-dimensional shape (or depth) of an object with high accuracy for each pixel.
【0019】一般的なArea−basedマッチング
によるステレオ視の対応点の求め方について図2を用い
て説明する。図2(a)は、基準カメラの観測画像であ
り、図2(b)は検出カメラによる観測画像である。基
準カメラによる観測画像上の点mbの周辺の小領域Wを
テンプレートとして、検出カメラ画像のエピポーラライ
ン上の数点における画像相関値を求める。この図に示す
例の場合は、距離分解能はm1〜m6の6点で、この距
離番号1〜6が例えば撮影した基準カメラから1m、2
m、3m、4m、5m、6mの距離に対応しているとす
る。A method of obtaining a corresponding point in stereo vision by general area-based matching will be described with reference to FIG. FIG. 2A is an observation image of the reference camera, and FIG. 2B is an observation image of the detection camera. Using the small area W around the point mb on the image observed by the reference camera as a template, image correlation values at several points on the epipolar line of the detected camera image are obtained. In the case of the example shown in this figure, the distance resolution is six points of m1 to m6, and the distance numbers 1 to 6 are, for example, 1 m, 2 m
m, 3 m, 4 m, 5 m, and 6 m.
【0020】各点の画像相関値は、例えば以下に示す式
(1)を用いて求める評価値を用いることができる。な
お、以下に示す式中のI(x)は基準カメラで撮影した
基準画像における輝度値、I’(x’)は検出カメラで
撮影した検出カメラ画像の輝度値を示している。As the image correlation value of each point, for example, an evaluation value obtained by using the following equation (1) can be used. In the following equations, I (x) indicates a luminance value in a reference image captured by the reference camera, and I ′ (x ′) indicates a luminance value of a detected camera image captured by the detection camera.
【0021】[0021]
【数1】 (Equation 1)
【0022】上記式を用いて得られる図2のm1〜m6
の6点での評価値中、最も低いところを対応点とする。
これを示したのが図2の下段のグラフである。図2の例
の場合は、m3の位置、すなわちカメラから3mの位置
を距離データとする。なお、さらにサンプリングデータ
間の補間処理を実行してサンプルデータ以外の部分にお
いて最も低い点を求めることも可能である。この補間処
理を行なった場合、図2のグラフのm3とm4の間にあ
る点が最小の評価値であり、この場合、計測対象はカメ
ラから約3.3mの距離であるとされる。なお、エピポ
ーラライン、およびエピポーラライン上の位置と物体と
の距離との関係は、予めキャリブレーションによって求
めておく。例えば基準カメラ画像上のすべての画素に対
して、各距離に応じた検出カメラ画像上の対応点の座標
をテーブルにして保持しておく。M1 to m6 in FIG. 2 obtained by using the above equation
Among the evaluation values at the six points, the lowest point is defined as the corresponding point.
This is shown in the lower graph of FIG. In the case of the example of FIG. 2, the position of m3, that is, the position of 3 m from the camera is set as distance data. In addition, it is also possible to obtain the lowest point in a portion other than the sample data by executing an interpolation process between the sampling data. When this interpolation processing is performed, the point between m3 and m4 in the graph of FIG. 2 is the minimum evaluation value, and in this case, the measurement target is assumed to be a distance of about 3.3 m from the camera. Note that the relationship between the epipolar line and the position on the epipolar line and the distance to the object is determined in advance by calibration. For example, for all pixels on the reference camera image, the coordinates of corresponding points on the detected camera image corresponding to each distance are stored in a table.
【0023】このように、基準カメラ画像と検出カメラ
画像とのマッチング処理を各測定点の画素について繰り
返し実行することにより、全ての画素に対する三次元形
状データを得ることができる。As described above, by repeatedly executing the matching process between the reference camera image and the detected camera image for the pixels at each measurement point, three-dimensional shape data can be obtained for all the pixels.
【0024】[0024]
【発明が解決しようとする課題】しかしながら、実際に
は、基準カメラ画像と検出カメラ画像から全ての画素の
対応付け処理を正確に行なうことは困難である。白い壁
や人間の顔などの特徴(濃淡、形状、色等)のほとんど
ない対象におけるマッチング処理においては、対応付け
が困難になるからである。However, in practice, it is difficult to accurately associate all pixels from the reference camera image and the detected camera image. This is because it becomes difficult to perform matching in a matching process for an object having almost no features (shade, shape, color, and the like) such as a white wall and a human face.
【0025】画像間の対応点は、各画素の周辺の小領域
の画像を用いて探索されるので物体表面に模様のなく、
基準カメラと検出カメラで撮り込んだ画像の各画素の輝
度値に変化の少ない場合は対応点を求めるのが困難にな
る。これを解決する方法として非周期的なランダムパタ
ーンを計測対象に照射してパターンとともに計測対象を
撮り込む方法がある。このパターン照射方法によれば、
ランダムパターンのついた画像を撮り込んでパターンに
基づく画像間の対応付け処理をすることができる。この
ように、距離画像の生成には、ランダムパターンを照射
した画像を用いることが有効である。Since the corresponding points between the images are searched using the image of the small area around each pixel, there is no pattern on the object surface,
If there is little change in the luminance value of each pixel of an image captured by the reference camera and the detection camera, it becomes difficult to find a corresponding point. As a method of solving this, there is a method of irradiating a non-periodic random pattern to the measurement target and capturing the measurement target together with the pattern. According to this pattern irradiation method,
It is possible to take an image with a random pattern and perform a process of associating the images based on the pattern. As described above, it is effective to use an image irradiated with a random pattern to generate a distance image.
【0026】一方、上述の手法によって求められた三次
元形状(たとえばポリゴン)に実際の測定対象の色(テ
クスチャと呼ばれる)を貼り付けるためには、計測対象
である物体を例えば可視光で撮影した画像が必要とな
る。しかし、上述のランダムパターンを照射して得られ
る画像は、物体表面にランダムパターンが投影されてお
り、物体本来の色あるいは模様とは異なるパターンが付
与されているので、距離画像生成用の撮影画像そのもの
を物体の色として扱うことはできない。On the other hand, in order to paste the color of the actual measurement target (called a texture) on the three-dimensional shape (for example, a polygon) obtained by the above-described method, the object to be measured is photographed with, for example, visible light. You need an image. However, the image obtained by irradiating the above random pattern has a random pattern projected on the surface of the object, and is provided with a pattern different from the original color or pattern of the object. It cannot be treated as the color of an object.
【0027】物体の本来の色、すなわちテクスチャ画像
を得るための手法としては、例えばランダムパターンの
投影された物体を撮り込んで得られるパターン付き画像
に画像処理を施してパターンを消去する方法があるが、
この画像処理は煩雑であり、また、完全に物体の色を再
現することは困難である。As a method for obtaining an original color of an object, that is, a texture image, there is a method of performing image processing on a pattern-added image obtained by capturing an object on which a random pattern is projected and deleting the pattern. But,
This image processing is complicated, and it is difficult to completely reproduce the color of the object.
【0028】本発明は、上述の従来技術の問題点に鑑み
てなされたものであり、上述のような画像処理を施すこ
となく、テクスチャ画像を得ることを可能とした画像処
理装置および画像処理方法、並びにプログラム提供媒体
を提供するものである。The present invention has been made in view of the above-mentioned problems of the prior art, and has an image processing apparatus and an image processing method capable of obtaining a texture image without performing the above-described image processing. , And a program providing medium.
【0029】[0029]
【課題を解決するための手段】本発明は、上記課題を参
酌してなされたものであり、その第1の側面は、計測対
象にパターン光を照射してパターン光を投影した画像に
基づいて計測対象の距離データを生成する画像処理装置
において、計測対象にパターン光を投影するパターン投
光手段と、計測対象の画像を画素単位で撮り込み、各画
素毎に画像の輝度データを格納する撮像素子と、前記撮
像素子を構成する複数画素の一部画素において前記パタ
ーン光を投影したパターン付き画像を撮り込み、前記撮
像素子を構成する他の画素において前記パターン光を取
り除いたテクスチャ画像を撮り込むように構成した光学
フィルタと、前記撮像素子に格納された画像データを、
前記パターン付き画像を撮り込んだパターン画像撮り込
み画素データと、前記テクスチャ画像を撮り込んだテク
スチャ画像撮り込み画素データとに分離して出力するデ
ータ選択手段と、前記データ選択手段において分離出力
された前記パターン付き画像に基づいて前記計測対象の
距離データを算出する距離画像生成手段と、を有するこ
とを特徴とする画像処理装置にある。SUMMARY OF THE INVENTION The present invention has been made in consideration of the above problems, and a first aspect of the present invention is based on an image obtained by irradiating a measurement target with pattern light and projecting the pattern light. In an image processing apparatus that generates distance data of a measurement target, a pattern projection unit that projects pattern light onto the measurement target, and an imaging that captures an image of the measurement target in pixel units and stores luminance data of the image for each pixel An image of the element and a plurality of pixels constituting the image sensor are captured with the pattern light projected on some of the pixels, and a texture image with the pattern light removed is captured on the other pixels constituting the image sensor. Optical filter configured as described above, the image data stored in the image sensor,
A data selecting unit that separates and outputs the pattern image capturing pixel data obtained by capturing the pattern-added image and a texture image capturing pixel data that captures the texture image; A distance image generating unit that calculates distance data of the measurement target based on the pattern-added image.
【0030】さらに、本発明の画像処理装置の一実施態
様において、前記光学フィルタは、前記撮像素子におい
てパターン付き画像を撮り込む画素と、テクスチャ画像
を撮り込む画素各々に対応させて異なる光透過特性を有
する光学フィルタを配置した構成であることを特徴とす
る。Further, in one embodiment of the image processing apparatus according to the present invention, the optical filter has different light transmission characteristics corresponding to each of a pixel for taking a pattern image and a pixel for taking a texture image in the image sensor. Characterized in that an optical filter having the following is arranged.
【0031】さらに、本発明の画像処理装置の一実施態
様において、前記光学フィルタは、異なる2つの波長帯
域の光をカットする2つの異なる種類の帯域カットフィ
ルタを前記撮像素子のパターン付き画像撮り込み画素
と、テクスチャ画像撮り込み画素の各々に対応させて配
置したことを特徴とする。Further, in one embodiment of the image processing apparatus according to the present invention, the optical filter includes two different types of band cut filters for cutting light of two different wavelength bands for capturing an image with a pattern of the image sensor. It is characterized in that pixels and texture image capturing pixels are arranged in correspondence with each other.
【0032】さらに、本発明の画像処理装置の一実施態
様において、前記光学フィルタは、前記撮像素子のパタ
ーン付き画像撮り込み画素と、テクスチャ画像撮り込み
画素の各々に対応させてそれぞれ異なる光透過特性を有
する異なる種類の光学フィルタを配置した構成であり、
前記光学フィルタの少なくとも一方を偏光板によって構
成したことを特徴とする。Further, in one embodiment of the image processing apparatus of the present invention, the optical filter has different light transmission characteristics corresponding to each of the image capturing pixel with a pattern and the texture image capturing pixel of the image sensor. It is a configuration in which different types of optical filters having
At least one of the optical filters is constituted by a polarizing plate.
【0033】さらに、本発明の画像処理装置の一実施態
様において、前記光学フィルタは、前記撮像素子のパタ
ーン付き画像撮り込み画素と、テクスチャ画像撮り込み
画素の各々に対応させてそれぞれ異なる光透過特性を有
する異なる種類の光学フィルタを配置した構成であり、
前記光学フィルタの少なくとも一方が光強度を低減させ
る光強度低減フィルタによって構成したことを特徴とす
る。Further, in one embodiment of the image processing apparatus according to the present invention, the optical filter has different light transmission characteristics corresponding to each of the image capturing pixel with pattern and the texture image capturing pixel of the image sensor. It is a configuration in which different types of optical filters having
At least one of the optical filters is constituted by a light intensity reduction filter for reducing light intensity.
【0034】さらに、本発明の画像処理装置の一実施態
様において、前記パターン投光手段は、赤外光によるパ
ターン光を前記計測対象に投影する構成を有し、前記光
学フィルタは、前記撮像素子におけるテクスチャ画像を
撮り込む画素に対応して赤外光カットフィルタを配置し
た構成を有することを特徴とする。Further, in one embodiment of the image processing apparatus according to the present invention, the pattern light projecting means has a structure for projecting pattern light of infrared light onto the object to be measured, and the optical filter includes the image pickup device. Characterized in that it has a configuration in which an infrared light cut filter is arranged corresponding to a pixel for taking a texture image.
【0035】さらに、本発明の画像処理装置の一実施態
様において、前記光学フィルタは、前記撮像素子におけ
るパターン付き画像を撮り込む画素に対応して可視光カ
ットフィルタを配置した構成を有することを特徴とす
る。Further, in one embodiment of the image processing apparatus according to the present invention, the optical filter has a configuration in which a visible light cut filter is arranged corresponding to a pixel of the image pickup device for taking an image with a pattern. And
【0036】さらに、本発明の画像処理装置の一実施態
様において、前記光学フィルタは、前記撮像素子のパタ
ーン付き画像撮り込み画素と、テクスチャ画像撮り込み
画素の各々に対応させてそれぞれ異なる光透過特性を有
する異なる種類の光学フィルタを配置した構成であり、
前記撮像素子の隣接画素において異なる光学フィルタが
配置光学フィルタを配置した構成を有することを特徴と
する。Further, in one embodiment of the image processing apparatus of the present invention, the optical filter has different light transmission characteristics corresponding to each of the image capturing pixel with pattern and the texture image capturing pixel of the image sensor. It is a configuration in which different types of optical filters having
It is characterized in that different optical filters are arranged in adjacent pixels of the image pickup device and arranged optical filters are arranged.
【0037】さらに、本発明の画像処理装置の一実施態
様において、前記光学フィルタは、前記撮像素子のパタ
ーン付き画像撮り込み画素と、テクスチャ画像撮り込み
画素の各々に対応させてそれぞれ異なる光透過特性を有
する異なる種類の光学フィルタを配置した構成であり、
前記撮像素子を構成する画素数の約1/2をパターン付
き画像撮り込み画素とし、残り約1/2の画素をテクス
チャ画像撮り込み画素とするように異なる光学フィルタ
を配置した構成を有することを特徴とする。Further, in one embodiment of the image processing apparatus according to the present invention, the optical filter has a different light transmission characteristic corresponding to each of the image capturing pixel with a pattern and the texture image capturing pixel of the image sensor. It is a configuration in which different types of optical filters having
A configuration in which different optical filters are arranged so that about one-half of the number of pixels constituting the image pickup device is a pixel for capturing an image with a pattern and the remaining one-half of the pixels are pixels for capturing a texture image. Features.
【0038】さらに、本発明の画像処理装置の一実施態
様において、前記画像処理装置は、計測対象を異なる方
向から撮影した画像を用いて前記計測対象の三次元形状
を計測しステレオ法を適用して距離画像を生成する画像
処理装置であり、前記計測対象の画像を撮り込む第1カ
メラと、前記第1カメラと異なる方向から前記計測対象
の画像を撮り込む第2カメラと、前記第1カメラによっ
て撮り込まれた第1画像と、前記第2カメラによって撮
り込まれた第2画像との画像間対応付け処理により視差
データを生成して、該視差データに基づいて距離画像を
生成する距離画像生成手段とを有し、前記第1カメラ、
および前記第2カメラの少なくとも一方は、前記計測対
象の画像を画素単位で撮り込み、各画素毎に画像の輝度
データを格納する撮像素子と、前記撮像素子を構成する
複数画素の一部画素において前記パターン光を投影した
パターン付き画像を撮り込み、前記撮像素子を構成する
他の画素において前記パターン光を取り除いたテクスチ
ャ画像を撮り込むように構成した光学フィルタとを有し
た構成であることを特徴とする。Further, in one embodiment of the image processing apparatus of the present invention, the image processing apparatus measures a three-dimensional shape of the measurement object using images obtained by photographing the measurement object from different directions, and applies a stereo method. An image processing apparatus that generates a distance image by using a first camera that captures an image of the measurement target, a second camera that captures an image of the measurement target from a direction different from the first camera, and the first camera. Distance image that generates parallax data by an image-to-image association process between a first image captured by the second camera and a second image captured by the second camera, and generates a distance image based on the parallax data Generating means, the first camera;
And at least one of the second camera captures an image of the measurement target in pixel units, and an image sensor that stores luminance data of an image for each pixel, and a partial pixel of a plurality of pixels forming the image sensor. An optical filter configured to capture an image with a pattern by projecting the pattern light, and capture a texture image from which the pattern light has been removed at another pixel configuring the image sensor. And
【0039】さらに、本発明の第2の側面は、計測対象
にパターン光を照射してパターン光を投影した画像に基
づいて計測対象の距離データを生成する画像処理方法に
おいて、計測対象を撮像素子によって撮り込むステップ
であり、前記撮像素子を構成する複数画素の一部画素に
おいてパターン光を投影したパターン付き画像を撮り込
み、前記撮像素子を構成する他の画素において前記パタ
ーン光を取り除いたテクスチャ画像を撮り込む画像撮り
込みステップと、前記撮像素子に格納された画像データ
を、前記パターン付き画像を撮り込んだパターン画像撮
り込み画素データと、前記テクスチャ画像を撮り込んだ
テクスチャ画像撮り込み画素データとに分離して出力す
る画像データ分離ステップと、前記画像データ分離ステ
ップにおいて分離出力された前記パターン付き画像に基
づいて前記計測対象の距離データを算出する距離画像生
成ステップと、を有することを特徴とする画像処理方法
にある。Further, according to a second aspect of the present invention, there is provided an image processing method for irradiating pattern light on a measurement object and generating distance data of the measurement object based on an image obtained by projecting the pattern light. A texture image obtained by capturing an image with a pattern by projecting pattern light at a part of a plurality of pixels constituting the image sensor, and removing the pattern light at other pixels constituting the image sensor. Image capturing step for capturing the image data, the image data stored in the image sensor, the pattern image capturing pixel data capturing the pattern-added image, and the texture image capturing pixel data capturing the texture image. Image data separating step of separating and outputting the image data, and separating in the image data separating step. In the image processing method characterized by comprising: a distance image generation step of calculating the distance data of the measurement target on the basis of the force has been the patterned image.
【0040】さらに、本発明の画像処理方法の一実施態
様において、前記光学フィルタは、前記撮像素子におい
てパターン付き画像を撮り込む画素と、テクスチャ画像
を撮り込む画素各々に対応させて異なる光透過特性を有
する光学フィルタを配置した構成であり、前記画像撮り
込みステップは、異なる光透過特性を有する光学フィル
タを介してパターン付き画像とテクスチャ画像とを同時
に撮り込むことを特徴とする。Further, in one embodiment of the image processing method according to the present invention, the optical filter has different light transmission characteristics corresponding to each of a pixel for taking a pattern image and a pixel for taking a texture image in the image sensor. Wherein the image capturing step captures a patterned image and a texture image simultaneously via optical filters having different light transmission characteristics.
【0041】さらに、本発明の画像処理方法の一実施態
様は、計測対象を異なる方向から撮影した画像を用いて
前記計測対象の三次元形状を計測しステレオ法を適用し
て距離画像を生成する画像処理方法であり、計測対象の
画像を第1カメラと、前記第1カメラと異なる方向に配
置した第2カメラによって同時に撮り込む画像撮り込み
ステップであり、前記第1カメラおよび前記第2カメラ
に構成された撮像素子を構成する複数画素の一部画素に
おいてパターン光を投影したパターン付き画像を撮り込
み、前記撮像素子を構成する他の画素において前記パタ
ーン光を取り除いたテクスチャ画像を、それぞれ各カメ
ラにおいて撮り込む画像撮り込みステップと、前記第1
カメラおよび第2カメラの撮像素子に格納された画像デ
ータについて、前記パターン付き画像を撮り込んだパタ
ーン画像撮り込み画素データと、前記テクスチャ画像を
撮り込んだテクスチャ画像撮り込み画素データとに分離
して出力する画像データ分離ステップと、前記画像デー
タ分離ステップにおいて分離出力された前記第1カメラ
の撮り込んだ第1パターン付き画像と、前記第2カメラ
の撮り込んだ第2パターン付き画像とに基づいて前記計
測対象の距離データを算出する距離画像生成ステップ
と、を有することを特徴とする。Further, in one embodiment of the image processing method of the present invention, a three-dimensional shape of the object to be measured is measured by using images of the object to be measured from different directions, and a distance image is generated by applying a stereo method. An image processing method, wherein an image to be measured is simultaneously captured by a first camera and a second camera arranged in a different direction from the first camera, and the image is captured by the first camera and the second camera. Each of the cameras captures a textured image obtained by projecting a pattern image at a part of a plurality of pixels constituting the configured imaging device and removing the pattern light at other pixels constituting the imaging device. An image capturing step for capturing at
The image data stored in the image sensor of the camera and the second camera is separated into pattern image capturing pixel data capturing the pattern-added image and texture image capturing pixel data capturing the texture image. An image data separating step to be output, a first pattern-attached image captured by the first camera, which is separated and output in the image data separating step, and a second pattern-attached image captured by the second camera. A distance image generating step of calculating the distance data of the measurement target.
【0042】さらに、本発明の第3の側面は、計測対象
にパターン光を照射してパターン光を投影した画像に基
づいて計測対象の距離データを生成する画像処理をコン
ピュータ・システム上で実行せしめるコンピュータ・プ
ログラムを提供するプログラム提供媒体であって、前記
コンピュータ・プログラムは、計測対象を撮像素子によ
って撮り込むステップであり、前記撮像素子を構成する
複数画素の一部画素においてパターン光を投影したパタ
ーン付き画像を撮り込み、前記撮像素子を構成する他の
画素において前記パターン光を取り除いたテクスチャ画
像を撮り込む画像撮り込みステップと、前記撮像素子に
格納された画像データを、前記パターン付き画像を撮り
込んだパターン画像撮り込み画素データと、前記テクス
チャ画像を撮り込んだテクスチャ画像撮り込み画素デー
タとに分離して出力する画像データ分離ステップと、前
記画像データ分離ステップにおいて分離出力された前記
パターン付き画像に基づいて前記計測対象の距離データ
を算出する距離画像生成ステップと、を有することを特
徴とするプログラム提供媒体にある。Further, according to a third aspect of the present invention, a computer system executes image processing for irradiating pattern light on a measurement target and generating distance data of the measurement target based on an image obtained by projecting the pattern light. A program providing medium for providing a computer program, wherein the computer program is a step of capturing an object to be measured by an image sensor, and a pattern in which pattern light is projected on some of a plurality of pixels constituting the image sensor. Capturing an image with the image, capturing an image of the texture with the pattern light removed at the other pixels constituting the image sensor, and capturing the image with the pattern using the image data stored in the image sensor. The captured pixel data and the texture image Image data separating step of separating and outputting the texture image capturing pixel data, and a distance image generating step of calculating the distance data of the measurement target based on the patterned image separated and output in the image data separating step. And a program providing medium characterized by having:
【0043】本発明の第3の側面に係るプログラム提供
媒体は、例えば、様々なプログラム・コードを実行可能
な汎用コンピュータ・システムに対して、コンピュータ
・プログラムをコンピュータ可読な形式で提供する媒体
である。媒体は、CDやFD、MOなどの記憶媒体、あ
るいは、ネットワークなどの伝送媒体など、その形態は
特に限定されない。The program providing medium according to the third aspect of the present invention is, for example, a medium for providing a computer program in a computer-readable format to a general-purpose computer system capable of executing various program codes. . The form of the medium is not particularly limited, such as a storage medium such as a CD, an FD, and an MO, and a transmission medium such as a network.
【0044】このようなプログラム提供媒体は、コンピ
ュータ・システム上で所定のコンピュータ・プログラム
の機能を実現するための、コンピュータ・プログラムと
提供媒体との構造上又は機能上の協働的関係を定義した
ものである。換言すれば、該提供媒体を介してコンピュ
ータ・プログラムをコンピュータ・システムにインスト
ールすることによって、コンピュータ・システム上では
協働的作用が発揮され、本発明の他の側面と同様の作用
効果を得ることができるのである。Such a program providing medium defines a structural or functional cooperative relationship between the computer program and the providing medium for realizing the functions of a predetermined computer program on a computer system. Things. In other words, by installing the computer program into the computer system via the providing medium, a cooperative operation is exerted on the computer system, and the same operation and effect as the other aspects of the present invention can be obtained. You can do it.
【0045】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づくより詳
細な説明によって明らかになるであろう。Still other objects, features and advantages of the present invention are:
It will become apparent from the following more detailed description based on the embodiments of the present invention and the accompanying drawings.
【0046】[0046]
【発明の実施の形態】まず、図3に本発明の画像処理装
置の構成ブロック図を示す。図3は、画像パターンの投
光によって計測対象の三次元形状または距離画像の計測
を行なう装置である。例えば投光用画像パターン生成装
置によって、ランダムテクスチャ(例えば二値または濃
淡のランダム点群)からなる画像パターンを生成し、こ
れを投光器によって計測対象に投光する。上述したよう
に計測対象にランダムテクスチャを投光することによ
り、計測対象が白い壁や人間の顔などの特徴(濃淡、形
状、色等)のほとんどない対象である場合も、画像間の
マッチング処理がより正確に実行できる。FIG. 3 is a block diagram showing the configuration of an image processing apparatus according to the present invention. FIG. 3 shows an apparatus for measuring a three-dimensional shape or a distance image of a measurement target by projecting an image pattern. For example, an image pattern composed of random textures (for example, a binary point or a group of light and shade random points) is generated by a light projection image pattern generation device, and the image pattern is projected onto a measurement target by a light projector. By projecting a random texture on the measurement target as described above, even if the measurement target is a target having almost no features (shade, shape, color, etc.) such as a white wall or a human face, matching processing between images is performed. Can be performed more accurately.
【0047】図3に示す画像処理装置の概要について説
明する。画像処理装置は、先に説明したステレオ法を適
用して計測対象の三次元形状を計測するものであり、立
体形状を持つ、例えば人の顔等の被計測対象物に対して
角度の異なる位置に配置した2つのカメラ、いわゆる基
準カメラと検出カメラを用いて画像を撮り込み、これら
2つのカメラの撮影する画像に基づいて図1で説明した
ステレオ法に基づいて被計測対象物の表面形状を計測す
るものである。The outline of the image processing apparatus shown in FIG. 3 will be described. The image processing apparatus measures a three-dimensional shape of a measurement target by applying the stereo method described above, and has a three-dimensional shape, for example, a position at a different angle with respect to a measurement target object such as a human face. An image is captured using two cameras arranged in the camera, a so-called reference camera and a detection camera, and based on the images captured by the two cameras, the surface shape of the object to be measured is determined based on the stereo method described in FIG. It is to measure.
【0048】ランダムパターンは、投光パターン照射手
段311によって照射される。この投光パターンは一様
乱数や正規乱数に基づく非周期的投光パターンである。
投光されるパターンは例えば非周期投光パターンであ
り、例えばドットのサイズ、線の長さ、太さ、位置、濃
度等に周期性を持たないパターンである。The random pattern is irradiated by the light projecting pattern irradiation means 311. This light emitting pattern is an aperiodic light emitting pattern based on a uniform random number or a normal random number.
The pattern to be projected is, for example, an aperiodic light projection pattern, for example, a pattern having no periodicity in dot size, line length, thickness, position, density, and the like.
【0049】非周期的パターンは例えば予めスライド等
に形成され、本実施例では赤外光をスライドを介して照
射することによって計測対象に対してパターンを投影す
る。あるいは、透過型液晶表示素子等を用いて動的にラ
ンダムパターンを生成して、これを赤外光を用いて投影
してもよい。計測対象300の表面に形成された非周期
パターンを計測対象とともに撮像することにより、距離
画像生成時の基準カメラと検出カメラの撮像データの対
応付けを容易にすることができる。The non-periodic pattern is formed in advance on a slide or the like, for example. In this embodiment, the pattern is projected on the object to be measured by irradiating infrared light through the slide. Alternatively, a random pattern may be dynamically generated using a transmissive liquid crystal display element or the like, and the random pattern may be projected using infrared light. By imaging the non-periodic pattern formed on the surface of the measurement target 300 together with the measurement target, it is possible to easily associate the image data of the reference camera and the detection camera when generating the distance image.
【0050】なお、図3の構成のように計測対象300
にランダムテクスチャ投光パターンを照射するのは、計
測対象が例えば壁、人の顔等のように表面の各部を区別
する特徴が少なく、基準カメラ画像と検出カメラ画像の
画像間対応付けが困難である場合に、撮影画像にランダ
ムパターンを付与して画像間対応付け処理を実行しやす
くするためのものである。照射するパターンは、画像間
対応付け処理を実行可能とするパターンであればよく、
計測対象自体が特徴的な構成を持つ場合には、簡単なパ
ターン構成としてもよい。Note that, as shown in FIG.
Irradiating the random texture projection pattern on the object has few features that distinguish each part of the surface, such as a wall or a human face, and it is difficult to associate the reference camera image with the detected camera image. In some cases, a random pattern is added to a captured image to make it easier to execute an image-to-image association process. The pattern to be illuminated may be any pattern that can execute the image-to-image association process,
If the measurement target itself has a characteristic configuration, a simple pattern configuration may be used.
【0051】カメラ1,301とカメラ2,302は、
計測対象300に対して異なる視線方向に配置されて、
各視線方向の画像、すなわちランダムパターンの投影さ
れた計測対象300を撮影する。一方が基準カメラ、他
方が検出カメラに対応する。各カメラによって撮影され
る画像は、同期したタイミングで撮り込まれる。カメラ
1,301から撮り込まれた画像は、パターンの付加さ
れた画像であるパターン付き画像1,303と、パター
ンの付加されていない計測対象300の本来の色を反映
したテクスチャ画像1,304に分離されて撮り込まれ
る。この分離方法については、図4を用いて、後段で説
明する。一方カメラ2,302から撮り込まれた画像
も、パターンの付加された画像であるパターン付き画像
2,305と、パターンの付加されていない計測対象3
00の本来の色を反映したテクスチャ画像2,306に
分離されて撮り込まれる。The cameras 1 and 301 and the cameras 2 and 302
It is arranged in a different gaze direction with respect to the measurement target 300,
An image in each gaze direction, that is, a measurement target 300 on which a random pattern is projected is photographed. One corresponds to the reference camera, and the other corresponds to the detection camera. Images taken by each camera are taken at synchronized timing. The images captured by the cameras 1 and 301 are divided into a pattern-added image 1 and 303, which is an image to which a pattern is added, and a texture image 1 and 304, which reflect the original color of the measurement target 300 to which no pattern is added. It is taken separately. This separation method will be described later with reference to FIG. On the other hand, the images captured by the cameras 2 and 302 also include a pattern-added image 2 and a pattern-added image 2305 and a measurement target 3 to which no pattern is added.
The image is separated and taken into texture images 2 and 306 reflecting the original color of 00.
【0052】画像間対応付け手段307は、カメラ1,
301によって撮り込まれたパターン付き画像1,30
3と、カメラ2,302によって撮り込まれたパターン
付き画像2,305を入力して各投光パターン画像間の
対応付け処理を行なう。すなわち、カメラ1,301の
撮影した画像の各画素に対するカメラ2,302の撮影
した検出画像の画素の対応付け処理を行ない、基準画像
に対する検出画像の視差データを距離画像生成手段30
8に出力する。画像間対応付け手段307における画像
間の対応付け処理においては、各画像の補正値等を設定
したキャリブレーションパラメータを用いて行われる。The image association means 307 includes the cameras 1
Patterned images 1, 30 captured by 301
3 and a pattern-added image 2305 captured by the camera 2302, and associating processing between the respective light-projection pattern images. That is, a process of associating each pixel of the image captured by the cameras 1 and 301 with the pixel of the detected image captured by the camera 2 and 302 is performed, and the parallax data of the detected image with respect to the reference image is stored in the distance image generation unit 30.
8 is output. The process of associating the images in the image associating unit 307 is performed using a calibration parameter in which a correction value or the like of each image is set.
【0053】投光パターン照射手段311の照射する投
光パターンは、先に説明したように非周期的なパターン
であり、各カメラによって撮影した画像の対応付けが比
較的容易に行われる。距離画像生成手段308は、画像
間対応付け手段307の生成した視差データに基づいて
距離画像を生成する。The light projection pattern emitted by the light projection pattern irradiating means 311 is a non-periodic pattern as described above, and it is relatively easy to associate images taken by each camera. The distance image generation unit 308 generates a distance image based on the disparity data generated by the image association unit 307.
【0054】なお、図3に示す構成の各ブロックにおけ
る処理、およびブロック間データ転送制御等は、図示し
ない制御手段によって制御され、所定のメモリ、例えば
RAM,ROM等の半導体メモリ、磁気ディスク、光デ
ィスク等の記憶媒体に記録された制御プログラムによっ
て制御することができる。また、図示しない入力手段に
よってユーザがコマンド、パラメータ等を入力して各制
御態様を変更することが可能である。The processing in each block having the configuration shown in FIG. 3 and the control of data transfer between blocks are controlled by control means (not shown), and predetermined memories, for example, semiconductor memories such as RAM and ROM, magnetic disks, and optical disks And the like can be controlled by a control program recorded in a storage medium such as. Further, the user can input commands, parameters, and the like using input means (not shown) to change each control mode.
【0055】図3の画像処理装置は、パターン光を付与
した計測対象パターン付き画像と、パターン光が取り除
かれた計測対象テクスチャ画像を同時に撮り込むことが
可能な装置である。本構成によれば、パターン光を付与
した計測対象に基づく高精度な距離画像と、パターン光
が取り除かれた計測対象画像であるテクスチャ画像が同
時に得られるので、これら両画像に基づいて高精度な三
次元画像を容易に得ることができる。すなわち、従来の
パターン付与画像からパターンを取り除く画像処理が不
要になる。The image processing apparatus shown in FIG. 3 is an apparatus capable of simultaneously taking an image with a pattern to be measured to which pattern light is applied and a texture image to be measured with the pattern light removed. According to this configuration, a highly accurate distance image based on the measurement target to which the pattern light is added and a texture image that is the measurement target image from which the pattern light has been removed can be obtained at the same time. A three-dimensional image can be easily obtained. That is, the conventional image processing for removing a pattern from a pattern-added image is not required.
【0056】図4に、本発明の画像処理装置におけるカ
メラ部、すなわち図3におけるカメラ1,301とカメ
ラ2,302の内部構成を示す。計測対象の撮影画像は
レンズ401を介して撮像素子402において撮像され
る。撮像素子402は、例えばCCD(Charged
coupled device)、あるいはCMOS
(Complementary metal oxid
e semiconductor)であり、各画素にお
いて光電変換により光が電荷に変換される素子によって
構成される。FIG. 4 shows the internal structure of the camera unit in the image processing apparatus of the present invention, that is, the cameras 1, 301 and 2, 302 in FIG. A captured image of a measurement target is captured by an image sensor 402 via a lens 401. The imaging element 402 is, for example, a CCD (Charged
coupled device) or CMOS
(Complementary metal oxidid
and each pixel is constituted by an element in which light is converted into electric charge by photoelectric conversion in each pixel.
【0057】撮像素子402の前面、すなわちレンズ4
01側には、光学フィルタ403が撮像素子402の各
画素に対応して形成されている。すなわち、撮像素子4
02は、光学フィルタ403を介して撮影画像を撮り込
む構成となっている。光学フィルタ403は、2つの種
類のフィルタ、光学フィルタAと光学フィルタBを各画
素毎に対応付けた構成を持つ。例えば光学フィルタAは
可視光カットフィルタであり、光学フィルタBは赤外光
カットフイルタである。The front surface of the image sensor 402, that is, the lens 4
On the 01 side, an optical filter 403 is formed corresponding to each pixel of the image sensor 402. That is, the image sensor 4
Reference numeral 02 denotes a configuration for capturing a captured image via the optical filter 403. The optical filter 403 has a configuration in which two types of filters, an optical filter A and an optical filter B, are associated with each pixel. For example, the optical filter A is a visible light cut filter, and the optical filter B is an infrared light cut filter.
【0058】図5に光学フィルタ403の例を2つ示
す。図5(1)、(2)において、1つの四角形が撮像
素子402の1画素に対応する。図5(1)の例は、隣
合う画素が異なるフィルタを持つように構成した例であ
る。また、図5(2)は、4画素を1組として同一フィ
ルタを対応させた例である。なお、これらの図は、光学
フィルタ403の配列の一部を示すものであり、実際
は、撮像素子402の全画素に対応して、図5に示す配
列と同様のパターンが配置されているものである。FIG. 5 shows two examples of the optical filter 403. 5A and 5B, one square corresponds to one pixel of the image sensor 402. The example of FIG. 5A is an example in which adjacent pixels have different filters. FIG. 5B shows an example in which four pixels are set as one set and correspond to the same filter. Note that these drawings show a part of the arrangement of the optical filter 403. Actually, a pattern similar to the arrangement shown in FIG. 5 is arranged corresponding to all the pixels of the image sensor 402. is there.
【0059】さらに、光学フィルタ403の異なる例を
2つ図6に示す。図6(3)、(4)において、1つの
枠が撮像素子402の1画素に対応する。図6(3)の
例は、列方向に同一フィルタを配列し隣り合う列におけ
る画素が異なるフィルタを持つように構成した例であ
る。また、図6(4)は、行方向に同一フィルタを配列
し隣り合う行における画素が異なるフィルタを持つよう
に構成した例である。FIG. 6 shows two different examples of the optical filter 403. 6 (3) and (4), one frame corresponds to one pixel of the image sensor 402. The example of FIG. 6 (3) is an example in which the same filter is arranged in the column direction and pixels in adjacent columns have different filters. FIG. 6D shows an example in which the same filter is arranged in the row direction and pixels in adjacent rows have different filters.
【0060】図5または図6に示すような光学フィルタ
403を介して撮像素子402に撮り込まれた画像は、
図4に示す読み出し部404によって読み出される。読
み出し部404は、撮像素子402の各画素の電荷を電
圧に変換して読み出し、A/D変換部405に出力す
る。A/D変換部は各画素の電圧信号を、各画素の輝度
を示すデジタルデータに変換して、フレームメモリ40
6に格納する。The image captured by the image sensor 402 via the optical filter 403 as shown in FIG. 5 or FIG.
It is read by the reading unit 404 shown in FIG. The reading unit 404 converts the electric charge of each pixel of the image sensor 402 into a voltage, reads the voltage, and outputs the voltage to the A / D conversion unit 405. The A / D converter converts the voltage signal of each pixel into digital data indicating the luminance of each pixel,
6 is stored.
【0061】フレームメモリ406に格納された輝度デ
ータは、各画素ごとに順次、輝度データ選択部407に
出力され、光学フィルタAが対応づけられた画素の輝度
データと、光学フィルタBが対応づけられた画素の輝度
データを分離してそれぞれ出力する。輝度データ選択部
407は、図5に示す光学フィルタ403の構成データ
を有し、この構成データに基づいて各画素の位置データ
を保持して、各画素の輝度データを分離して出力する。The luminance data stored in the frame memory 406 is sequentially output to the luminance data selecting section 407 for each pixel, and the luminance data of the pixel to which the optical filter A is associated and the optical filter B are associated. And separates the luminance data of the pixels. The luminance data selection unit 407 has the configuration data of the optical filter 403 shown in FIG. 5, holds the position data of each pixel based on this configuration data, and separates and outputs the luminance data of each pixel.
【0062】分離出力された輝度データの例を図7に示
す。図7は、図5(1)の光学フィルタを用いた場合に
得られる分離された出力データを示したものである。FIG. 7 shows an example of luminance data separated and output. FIG. 7 shows separated output data obtained when the optical filter of FIG. 5A is used.
【0063】図7(1)は、光学フィルタA(可視光カ
ットフィルタ)が対応付けられた画素の輝度データを集
積したデータである。各画素中(A)が示されている部
分が輝度データを有する画素であり、(−)が示されて
いる部分は輝度データを持たない画素である。(A)が
示されている画素は光学フィルタA(可視光カットフィ
ルタ)によってフィルタリングされた画像に基づく輝度
データを有する。すなわち赤外光によって照射されたパ
ターン光を撮り込んだ画像であるパターン付き画像が図
7(1)の(A)部分に撮り込まれている。FIG. 7A shows data in which luminance data of pixels associated with an optical filter A (visible light cut filter) is integrated. In each pixel, the portion indicated by (A) is a pixel having luminance data, and the portion indicated by (-) is a pixel having no luminance data. The pixel indicated by (A) has luminance data based on the image filtered by the optical filter A (visible light cut filter). That is, an image with a pattern, which is an image obtained by capturing the pattern light irradiated by the infrared light, is captured in a portion (A) of FIG.
【0064】一方、図7(2)は、光学フィルタB(赤
外光カットフィルタ)が対応付けられた画素の輝度デー
タを集積したデータである。各画素中(B)が示されて
いる部分が輝度データを有する画素であり、(−)が示
されている部分は輝度データを持たない画素である。
(B)が示されている画素は光学フィルタB(赤外光カ
ットフィルタ)によってフィルタリングされた画像に基
づく輝度データを有する。すなわち赤外光によって照射
されたパターンはフィルタBによってカットされ、計測
対象の本来の色データを反映したテクスチャ画像を撮り
込んだ画像であるテクスチャ画像が図7(2)の(B)
の部分に撮り込まれている。On the other hand, FIG. 7B shows data in which luminance data of pixels associated with an optical filter B (infrared light cut filter) is integrated. In each pixel, a portion indicated by (B) is a pixel having luminance data, and a portion indicated by (-) is a pixel having no luminance data.
The pixel indicated by (B) has luminance data based on the image filtered by the optical filter B (infrared light cut filter). That is, the pattern irradiated by the infrared light is cut by the filter B, and the texture image, which is an image obtained by capturing the texture image reflecting the original color data of the measurement target, is shown in FIG.
The part is taken.
【0065】図4に示す輝度データ選択部407は、こ
の図7に示す2つの分離画素データをそれぞれ出力す
る。図4に示す構成は、図3に示す少なくともカメラ1
に構成されており、図7(1)に示す輝度データがパタ
ーン付き画像1,303として出力され、図7(2)に
示す輝度データがテクスチャ画像1,304として出力
されることになる。The luminance data selector 407 shown in FIG. 4 outputs the two separated pixel data shown in FIG. 7, respectively. 4 has at least the camera 1 shown in FIG.
The luminance data shown in FIG. 7A is output as a pattern-added image 1,303, and the luminance data shown in FIG. 7B is output as a texture image 1,304.
【0066】一方、カメラ2,302はカメラ1と同様
の構成として距離画像生成用のパターン付き画像とテク
スチャ画像を得る構成としてもよく、あるいは距離画像
生成用のパターン付き画像のみを得る構成としてもよ
い。On the other hand, the cameras 2 and 302 may be configured to obtain a pattern-added image for generating a distance image and a texture image as the same configuration as the camera 1, or may be configured to obtain only a pattern-added image for generating a distance image. Good.
【0067】カメラ2,302をカメラ1と同様、距離
画像生成用のパターン付き画像とテクスチャ画像を得る
構成とした場合は、図7(1)に示すと同様の輝度デー
タをパターン付き画像2,305として出力し、図7
(2)に示すと同様の輝度データをテクスチャ画像2,
306として出力する。カメラ2,302によって撮り
込まれたパターン付き画像2,305は距離画像生成用
データとして画像間対応付け手段307に出力され、カ
メラ2,302によって撮り込まれたテクスチャ画像
2,306は、カメラ1,301によって撮り込まれた
テクスチャ画像1,304の補間用データとして用いる
ことができる。If the cameras 2 and 302 are configured to obtain a pattern-added image for generating a distance image and a texture image in the same manner as the camera 1, the same luminance data as shown in FIG. FIG. 7
The luminance data similar to that shown in (2)
Output as 306. Patterned images 2 and 305 captured by cameras 2 and 302 are output to image-to-image associating means 307 as distance image generation data, and texture images 2 and 306 captured by cameras 2 and 302 are output by camera 1. , 301 can be used as interpolation data for the texture images 1 and 304 captured by the camera.
【0068】なお、テクスチャ画像はカメラ1,301
によって撮り込まれており、カメラ2,306によって
テクスチャ画像を撮り込む必要がない場合は、カメラ2
は距離画像を生成するためのパターン付き画像のみを得
る構成としてもよい。その場合は、カメラ2,302は
図4に示す2つの種類の光学フィルタを画素毎に対応さ
せた構成を持つ必要がなく、可視光カットフィルタを撮
像素子の全画素に対応付けた構成とすることができる。Note that the texture images are stored in the cameras 1 and 301.
Camera 2306 if it is not necessary to capture a texture image
May be configured to obtain only an image with a pattern for generating a distance image. In this case, the cameras 2 and 302 need not have a configuration in which the two types of optical filters shown in FIG. 4 are associated with each pixel, and have a configuration in which a visible light cut filter is associated with all pixels of the image sensor. be able to.
【0069】図3に示す画像間対応付け手段307は、
カメラ1,301によって撮り込まれたパターン付き画
像1,303と、カメラ2,302によって撮り込まれ
たパターン付き画像2,305を入力する。これらのパ
ターン付き画像は、図7(1)に示す画像データであ
り、全画素についてのデータを保有するものではない
が、画像間対応付け手段307における画像間対応付け
処理は、これらの画素データのみに基づいて行なうこと
が可能である。なお、必要であれば、輝度データを持た
ない画素について、周辺画素の輝度データに基づく補間
処理を実行してもよい。あるいは、輝度データのない画
素について、隣接のX軸方向、あるいはY軸方向にシフ
トした輝度データを使用することも可能である。この処
理を行なうと、画像間対応付け処理において1画素ずれ
た異なった点を対応点とする可能性があるが、画像全体
をマクロ的に観察する場合には、このミクロ的な誤差は
問題とならない。The image-to-image associating means 307 shown in FIG.
A pattern-added image 1,303 taken by the camera 1,301 and a pattern-added image 2,305 taken by the camera 2,302 are input. These pattern-added images are the image data shown in FIG. 7A and do not hold the data for all the pixels. It is possible to do so only on the basis of: If necessary, an interpolation process may be performed on a pixel having no luminance data based on luminance data of peripheral pixels. Alternatively, it is also possible to use luminance data shifted in the adjacent X-axis direction or Y-axis direction for a pixel having no luminance data. When this processing is performed, there is a possibility that a different point shifted by one pixel is set as a corresponding point in the inter-image association processing. However, when the entire image is observed macroscopically, this micro error is a problem. No.
【0070】また、カメラ1,301によって得られる
テクスチャ画像1,304についても、距離画像生成用
画像と同様、図7(2)に示すように、全画素について
のデータを保有するものとはならないが、これらの画素
データに基づいて得られる画像をテクスチャ画像として
もマクロ的には問題となることはない。必要であれば、
データを持たない画素について、周辺画素のデータに基
づく補間処理を実行してもよい。また、カメラ2,30
2から得られるテクスチャ画像2,306を用いて補間
処理を行なってもよい。Also, the texture images 1 and 304 obtained by the cameras 1 and 301 do not hold data on all pixels as shown in FIG. 7B, similarly to the distance image generation image. However, even if an image obtained based on these pixel data is used as a texture image, there is no macro problem. If necessary,
For pixels having no data, an interpolation process based on data of peripheral pixels may be performed. In addition, cameras 2, 30
Interpolation processing may be performed using the texture images 2 and 306 obtained from Step 2.
【0071】なお、図4に示す構成は、カメラ部構成と
して説明したが、これらの構成のすべての構成要素をカ
メラ内の構成とする必要はなく、例えばフレームメモリ
406、輝度データ選択部407等の構成をカメラ外に
構成してカメラからデータ転送を行なうようにしてもよ
い。また、フレームメモリ406を介さずにA/D変換
部405から直接輝度データを輝度データ選択部407
に出力する構成としてもよい。この構成例を図8に示
す。Although the configuration shown in FIG. 4 has been described as the configuration of the camera unit, it is not necessary that all the components of these configurations be configured in the camera. For example, the frame memory 406, the luminance data selection unit 407, etc. May be configured outside the camera to transfer data from the camera. Also, the luminance data is directly transmitted from the A / D converter 405 without passing through the frame memory 406 to the luminance data selector 407.
May be output. FIG. 8 shows an example of this configuration.
【0072】次に、本発明の画像処理装置を使用した具
体的な画像処理例を図9を用いて説明する。図9におい
て、計測対象901はカップであり、計測対象901に
対してパターン投光手段900から赤外光を用いてラン
ダムパターンが照射される。このパターンは、画像間対
応付け手段による画像間対応付け処理を精度よく実行可
能とするためのパターンであり、例えば非周期的なパタ
ーンからなるランダムドットパターンが用いられる。Next, a specific example of image processing using the image processing apparatus of the present invention will be described with reference to FIG. In FIG. 9, a measurement target 901 is a cup, and the measurement target 901 is irradiated with a random pattern from the pattern light emitting unit 900 using infrared light. This pattern is a pattern for enabling the image-to-image associating process by the image-to-image associating means to be executed with high accuracy.
【0073】カメラ1,902と、カメラ2,903に
よってパターンの照射された計測対象901の画像を異
なる方向から撮り込む。カメラ1,902と、カメラ
2,903は、それぞれ位置が固定されており、距離を
求めるために必要なパラメータはキャリブレーションに
よって予め算出されている。Images of the object to be measured 901 illuminated with the pattern by the cameras 1 and 902 and the cameras 2 and 903 are taken from different directions. The positions of the cameras 1 and 902 and the cameras 2 and 903 are fixed, and parameters necessary for obtaining the distance are calculated in advance by calibration.
【0074】カメラ1,902と、カメラ2,903
は、図5で説明したように、2つの異なる光学フィルタ
A,Bが画素毎に対応付けられた撮像素子を有するもの
であり、赤外光カットフィルタと可視光カットフィルタ
とが画素毎に対応付けられたフィルタを介して画像を撮
り込む。なお、光学フィルタA,Bの組合わせは、可視
光カットフィルタと赤外光カットフィルタとに限らな
い。Camera 1 902 and camera 2 903
Has an image sensor in which two different optical filters A and B are associated with each pixel as described in FIG. 5, and an infrared light cut filter and a visible light cut filter correspond to each pixel. Capture an image through the attached filter. The combination of the optical filters A and B is not limited to the visible light cut filter and the infrared light cut filter.
【0075】例えば、光学フィルタAとして赤外光のみ
を通過させ可視光のみならず例えば紫外線等の他の波長
の光もカットする帯域カットフィルタを用いてパターン
画像を撮り込み、光学フィルタBとして赤外光カットフ
ィルタを用いてテクスチャ画像を撮り込む構成としても
よい。あるいは、光学フィルタBとして赤外光カットフ
ィルタを用いてテクスチャ画像を撮り込み、光学フィル
タAの部分にはフィルタを取り付けない構成としてパタ
ーン画像を撮り込む構成としてもよい。For example, a pattern image is captured using a band cut filter that passes only infrared light as the optical filter A and cuts not only visible light but also light of another wavelength such as ultraviolet light. A configuration may be adopted in which a texture image is captured using an external light cut filter. Alternatively, a configuration may be adopted in which a texture image is captured using an infrared light cut filter as the optical filter B, and a pattern image is captured as a configuration in which no filter is attached to the optical filter A portion.
【0076】このような構成とすることにより、カメラ
1,902から、照射パターンの取り除かれたテクスチ
ャ画像1,904と、照射パターン付き画像1,906
が撮り込まれ、カメラ2,903から、照射パターンの
取り除かれたテクスチャ画像2,905と、照射パター
ン付き画像2,907が撮り込まれる。With such a configuration, the texture images 1 and 904 from which the irradiation patterns are removed and the images 1 and 906 with the irradiation patterns are removed from the cameras 1 and 902.
Are captured, and the texture images 2 and 905 from which the irradiation pattern is removed and the images 2 and 907 with the irradiation pattern are captured from the cameras 2 and 903.
【0077】距離画像生成部908は、カメラ1,90
2の撮影した照射パターン付き画像1,906と、カメ
ラ2,903の撮影した照射パターン付き画像2,90
7を入力して、予め実行されたキャリブレーションによ
って算出済みのパラメータを用いて画像間対応付け処理
を実行して視差データを取得し距離画像を生成する。距
離画像生成部908は、計測対象901にランダムパタ
ーンが投影された画像を用いて画像間対応付け処理を実
行できるので、高精度な距離画像909を生成すること
が可能となる。The distance image generation unit 908 includes the cameras 1 and 90
2 and the images 2 and 90 with the irradiation pattern taken by the cameras 2 and 903, respectively.
7 is input, parallax data is acquired by using the parameters calculated by the previously executed calibration to obtain parallax data, and a distance image is generated. The distance image generation unit 908 can execute the image-to-image association process using the image in which the random pattern is projected on the measurement target 901, so that it is possible to generate the high-accuracy distance image 909.
【0078】また、パターンの投影されていないテクス
チャ画像は、カメラ1,902の撮影したテクスチャ画
像1,904と、カメラ2,903の撮影したテクスチ
ャ画像2,905がパターン付き画像と同時に撮り込ま
れる。距離画像生成部908において生成された距離画
像データとテクスチャ画像1,904により高精度な三
次元画像データを生成することが可能となる。なお、カ
メラ1,902の撮影したテクスチャ画像1,904に
ついて、カメラ2,903の撮影したテクスチャ画像
2,905を用いて補間処理を実行してもよい。As texture images on which no pattern is projected, texture images 1 and 904 photographed by cameras 1 and 902 and texture images 2 and 905 photographed by cameras 2 and 903 are photographed simultaneously with a pattern-added image. . High-precision three-dimensional image data can be generated based on the distance image data generated by the distance image generation unit 908 and the texture images 1 and 904. Note that interpolation processing may be performed on the texture images 1 and 904 captured by the cameras 1 and 902 using the texture images 2 and 905 captured by the cameras 2 and 903, respectively.
【0079】図10に本発明の画像処理装置における距
離画像生成処理フローを示す。図10のフローの各ステ
ップについて説明する。FIG. 10 shows a flow of the distance image generation processing in the image processing apparatus of the present invention. Each step of the flow in FIG. 10 will be described.
【0080】ステップS1001は、計測対象である物
体に赤外光パターンを照射し、異なる方向に設置したカ
メラ1,カメラ2によって同時に計測対象の像を撮り込
むステップである。Step S1001 is a step of irradiating an object to be measured with an infrared light pattern and simultaneously capturing images of the measurement object by cameras 1 and 2 installed in different directions.
【0081】ステップS1002は、カメラ1からテク
スチャ画像1と、パタン付き画像1を取得し、カメラ2
からテクスチャ画像2と、パタン付き画像2を取得する
ステップである。これは、先に説明した図4、または図
8に示す構成によって実行されるステップである。In step S1002, the texture image 1 and the pattern-added image 1 are acquired from the camera 1,
Is a step of acquiring a texture image 2 and a pattern-attached image 2 from. This is a step executed by the configuration shown in FIG. 4 or FIG. 8 described above.
【0082】ステップS1003は距離画像生成部にお
いて、カメラ1の撮影した照射パターン付き画像1と、
カメラ2の撮影した照射パターン付き画像2を入力し
て、キャリブレーション・パラメータを用いて画像間対
応付け処理を実行して視差データを取得し距離画像を生
成するステップである。In step S1003, in the distance image generation unit, the image 1 with the irradiation pattern
This is a step of inputting the image 2 with the irradiation pattern captured by the camera 2 and executing an image-to-image association process using calibration parameters to acquire parallax data and generate a distance image.
【0083】なお、上述の実施例においては、パターン
照射光を赤外光を用いて計測対象に照射して、カメラの
フィルタとして赤外光カットフィルタを設けた構成によ
り、パターンを取り除いたテクスチャ画像を撮り込む構
成について説明したが、例えばパターン照射光を紫外光
を用いて計測対象に照射して、カメラのフィルタとして
紫外光カットフィルタを用いて、紫外光カットフィルタ
を対応させた画素の撮り込み画像に基づいてテクスチャ
画像を得る構成としてもよい。In the above-described embodiment, the pattern irradiating light is applied to the object to be measured using infrared light, and the texture image from which the pattern is removed is provided by the configuration in which the infrared light cut filter is provided as a filter of the camera. Although the configuration for capturing an image was described, for example, pattern irradiation light was applied to the measurement target using ultraviolet light, and an ultraviolet light cut filter was used as a camera filter, and a pixel corresponding to the ultraviolet light cut filter was captured. A configuration in which a texture image is obtained based on an image may be adopted.
【0084】さらに、赤外光、紫外光のように波長帯域
によって可視光と分離する手法のみならず、例えば、パ
ターン照射を一定の偏波光として照射する構成とすると
ともに、撮像素子に設ける光学フィルタに偏光板を適用
して、偏光板を通過した画素部分にはパターン光を入力
させない構成としてもよい。Further, in addition to the method of separating the light from visible light by a wavelength band such as infrared light and ultraviolet light, for example, a structure is adopted in which pattern irradiation is performed as a fixed polarized light, and an optical filter provided in an image sensor is provided. It is also possible to adopt a configuration in which a polarizing plate is applied so that pattern light is not input to a pixel portion that has passed through the polarizing plate.
【0085】あるいは、パターン光を光強度(輝度)の
弱い照射光によって計測対象に照射する構成とするとと
もに、撮像素子に光強度を低減させる光強度低減フィル
タを設けることにより、フィルタを通過した画素部分に
はパターン光を入力させない、あるいはパターン光を目
立たなくする構成としてもよい。Alternatively, the pattern light is irradiated onto the object to be measured by irradiation light having a low light intensity (brightness), and a light intensity reduction filter for reducing the light intensity is provided in the image pickup device, so that the pixels passing through the filter can be obtained. The configuration may be such that the pattern light is not input to the portion or the pattern light is made inconspicuous.
【0086】このように、パターン光を照射する光特性
に応じて撮像素子のフィルタ構成をパターン光入力画素
と、パターン光非入力画素との組合わせ構成とし、パタ
ーン付き画像とテクスチャ画像とを同時に撮り込み、こ
れら2つの種類の画像データを各画像データを取り込ん
だ画素に応じて分離し、パターン光を撮り込んだ画素デ
ータを距離画像生成用画像として用い、パターン光を撮
り込まない画素データをテクスチャ画像として用いるこ
とで、従来のようなパターン光が写し込まれた画像から
パターンを取り除くといった煩雑な画像処理が不要とな
る。As described above, the filter configuration of the image sensor is set to a combination of the pattern light input pixel and the pattern light non-input pixel according to the light characteristic of irradiating the pattern light. Capture, separate these two types of image data according to the pixels that have captured each image data, use the pixel data that captures the pattern light as an image for distance image generation, and use the pixel data that does not capture the pattern light Use as a texture image eliminates the need for complicated image processing such as removing a pattern from an image in which pattern light is projected as in the related art.
【0087】なお、上述の実施例では、画像撮り込みを
行なうカメラを2台として、2つの投光パターン画像か
ら距離画像を求める構成について説明したが、さらに3
台以上のカメラを用いたマルチベースラインステレオシ
ステムにおいて本発明を適用することも可能である。さ
らに、本発明の構成は上述したステレオ法に基づく距離
計測のみならず、パターン光を投影することによって距
離計測を行なう光切断法や、空間コード(2次元コード
化パターン)法による距離計測においても応用可能であ
る。In the above-described embodiment, the configuration in which the distance image is obtained from the two light projection pattern images by using two cameras for capturing images has been described.
The present invention can be applied to a multi-baseline stereo system using more than one camera. Furthermore, the configuration of the present invention can be applied not only to the distance measurement based on the stereo method described above, but also to a light cutting method for performing distance measurement by projecting pattern light and a distance measurement by a space code (two-dimensional coded pattern) method. Applicable.
【0088】以上、特定の実施例を参照しながら、本発
明について詳解してきた。しかしながら、本発明の要旨
を逸脱しない範囲で当業者が該実施例の修正や代用を成
し得ることは自明である。すなわち、例示という形態で
本発明を開示してきたのであり、限定的に解釈されるべ
きではない。また、上述の実施例を適宜組み合わせて構
成したものも、本発明の範囲に含まれるものであり、本
発明の要旨を判断するためには、冒頭に記載した特許請
求の範囲の欄を参酌すべきである。The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the spirit of the present invention. That is, the present invention has been disclosed by way of example, and should not be construed as limiting. Further, what is configured by appropriately combining the above-described embodiments is also included in the scope of the present invention, and in order to determine the gist of the present invention, refer to the claims section described at the beginning. Should.
【0089】[0089]
【発明の効果】以上、詳記したように、本発明の画像処
理装置および画像処理方法によれば、距離画像を生成す
る計測対象を撮影する撮像素子に2つの異なる画像を撮
り込むためのフィルタを設け、撮像素子の一部の画素を
パターン光入力画素とし、他の画素をパターン光非入力
画素とする構成としたので、距離画像生成用のパターン
画像と、パターンの取り除かれたテクスチャ画像の2つ
の画像を同時に撮り込むことが可能となり、パターン画
像を用いた高精度な距離画像が生成可能となるととも
に、生成した距離画像に基づく距離データとテクスチャ
画像に基づいて容易に高精度な三次元画像データを生成
することが可能となる。As described above in detail, according to the image processing apparatus and the image processing method of the present invention, a filter for capturing two different images on an image sensor for capturing a measurement object for generating a distance image. And a configuration in which some pixels of the image sensor are used as pattern light input pixels and other pixels are used as pattern light non-input pixels, so that a pattern image for generating a distance image and a texture image from which a pattern has been removed are provided. Two images can be captured at the same time, and a high-accuracy distance image using a pattern image can be generated. In addition, a high-accuracy three-dimensional image can be easily obtained based on distance data based on the generated distance image and a texture image. Image data can be generated.
【図1】本発明において使用される三次元情報取得構成
として適用可能なステレオ法について説明した図であ
る。FIG. 1 is a diagram illustrating a stereo method applicable as a three-dimensional information acquisition configuration used in the present invention.
【図2】ステレオ法を適用した距離画像生成において行
われる画像間対応付け処理について説明する図である。FIG. 2 is a diagram illustrating an image-to-image association process performed in generation of a distance image to which a stereo method is applied.
【図3】本発明の画像処理装置の構成を示す図である。FIG. 3 is a diagram illustrating a configuration of an image processing apparatus according to the present invention.
【図4】本発明の画像処理装置におけるカメラ部の構成
を示す図である。FIG. 4 is a diagram illustrating a configuration of a camera unit in the image processing apparatus according to the present invention.
【図5】本発明の画像処理装置において適用される光学
フィルタの構成例(その1)を示す図である。FIG. 5 is a diagram showing a configuration example (part 1) of an optical filter applied in the image processing apparatus of the present invention.
【図6】本発明の画像処理装置において適用される光学
フィルタの構成例(その2)を示す図である。FIG. 6 is a diagram showing a configuration example (part 2) of an optical filter applied in the image processing apparatus of the present invention.
【図7】本発明の画像処理装置において得られるパター
ン付き画像と、テクスチャ画像のデータ取得画素構成に
ついて説明する図である。FIG. 7 is a diagram for explaining a pattern-added image obtained by the image processing apparatus of the present invention and a data acquisition pixel configuration of a texture image.
【図8】本発明の画像処理装置におけるカメラ部の構成
(例2)を示す図である。FIG. 8 is a diagram illustrating a configuration (example 2) of a camera unit in the image processing apparatus according to the present invention.
【図9】本発明の画像処理装置における画像処理の具体
的実施例を説明する図である。FIG. 9 is a diagram illustrating a specific example of image processing in the image processing apparatus according to the present invention.
【図10】本発明の画像処理装置における像撮り込みお
よび距離画像生成処理フローを説明する図である。FIG. 10 is a diagram illustrating a flow of a process of capturing an image and generating a distance image in the image processing apparatus of the present invention.
300 計測対象 301 カメラ1 302 カメラ2 303 パターン付き画像1 304 テクスチャ画像1 305 パターン付き画像2 306 テクスチャ画像2 307 画像間対応付け手段 308 距離画像生成手段 311 投光パターン照射手段 401 レンズ 402 撮像素子 403 光学フィルタ 404 読み出し部 405 A/D変換部 406 輝度データ選択部 900 投光パターン照射手段 901 計測対象 902 カメラ1 903 カメラ2 904 テクスチャ画像1 905 テクスチャ画像2 906 パターン付き画像1 907 パターン付き画像2 908 距離画像生成部 909 距離画像 300 Measurement object 301 Camera 1 302 Camera 2 303 Patterned image 1 304 Texture image 1 305 Patterned image 2 306 Texture image 2 307 Image-to-image association means 308 Distance image generation means 311 Light projection pattern irradiation means 401 Lens 402 Imaging element 403 Optical filter 404 Readout unit 405 A / D conversion unit 406 Luminance data selection unit 900 Light emission pattern irradiation unit 901 Measurement target 902 Camera 1 903 Camera 2 904 Texture image 1 905 Texture image 2 906 Patterned image 1 907 Patterned image 2 908 Distance image generator 909 Distance image
フロントページの続き Fターム(参考) 2F065 AA04 AA06 AA53 FF05 FF49 HH00 HH07 LL22 LL24 LL26 LL32 QQ03 QQ24 QQ25 QQ31 2H059 AA10 AA18 CA01 5B057 BA02 BA15 CA08 CA12 CA16 CB08 CB13 CB16 DA07 DA20 DB03 DB09 DC32 DC36 5C076 AA11 AA19 Continued on the front page F term (reference) 2F065 AA04 AA06 AA53 FF05 FF49 HH00 HH07 LL22 LL24 LL26 LL32 QQ03 QQ24 QQ25 QQ31 2H059 AA10 AA18 CA01 5B057 BA02 BA15 CA08 CA12 CA16 CB08 CB20 DC13 A07
Claims (14)
光を投影した画像に基づいて計測対象の距離データを生
成する画像処理装置において、 計測対象にパターン光を投影するパターン投光手段と、 計測対象の画像を画素単位で撮り込み、各画素毎に画像
の輝度データを格納する撮像素子と、 前記撮像素子を構成する複数画素の一部画素において前
記パターン光を投影したパターン付き画像を撮り込み、
前記撮像素子を構成する他の画素において前記パターン
光を取り除いたテクスチャ画像を撮り込むように構成し
た光学フィルタと、 前記撮像素子に格納された画像データを、前記パターン
付き画像を撮り込んだパターン画像撮り込み画素データ
と、前記テクスチャ画像を撮り込んだテクスチャ画像撮
り込み画素データとに分離して出力するデータ選択手段
と、 前記データ選択手段において分離出力された前記パター
ン付き画像に基づいて前記計測対象の距離データを算出
する距離画像生成手段と、 を有することを特徴とする画像処理装置。An image processing apparatus for irradiating pattern light on a measurement target and generating distance data of the measurement target based on an image obtained by projecting the pattern light, comprising: a pattern light projecting means for projecting the pattern light on the measurement target; An image of a measurement target is captured in pixel units, and an image sensor that stores luminance data of the image for each pixel, and an image with a pattern obtained by projecting the pattern light at a part of a plurality of pixels constituting the image sensor. Including
An optical filter configured to capture a texture image from which the pattern light has been removed at another pixel configuring the image sensor, and image data stored in the image sensor, a pattern image capturing the image with the pattern. Data selection means for separating and outputting the captured pixel data and the texture image captured pixel data obtained by capturing the texture image; and the measurement object based on the pattern-added image separated and output by the data selection means. An image processing apparatus comprising: a distance image generating unit that calculates distance data of:
てパターン付き画像を撮り込む画素と、テクスチャ画像
を撮り込む画素各々に対応させて異なる光透過特性を有
する光学フィルタを配置した構成であることを特徴とす
る請求項1に記載の画像処理装置。2. The optical filter according to claim 1, wherein the image sensor has a configuration in which pixels for capturing a pattern image and optical filters having different light transmission characteristics are arranged in correspondence with the pixels for capturing a texture image. The image processing apparatus according to claim 1, wherein:
域の光をカットする2つの異なる種類の帯域カットフィ
ルタを前記撮像素子のパターン付き画像撮り込み画素
と、テクスチャ画像撮り込み画素の各々に対応させて配
置したことを特徴とする請求項1に記載の画像処理装
置。3. The optical filter according to claim 1, wherein two different types of band cut filters for cutting light in two different wavelength bands correspond to each of the image capturing pixel with pattern and the texture image capturing pixel of the image sensor. The image processing apparatus according to claim 1, wherein the image processing apparatus is arranged so as to be disposed.
ーン付き画像撮り込み画素と、テクスチャ画像撮り込み
画素の各々に対応させてそれぞれ異なる光透過特性を有
する異なる種類の光学フィルタを配置した構成であり、
前記光学フィルタの少なくとも一方を偏光板によって構
成したことを特徴とする請求項1に記載の画像処理装
置。4. The optical filter according to claim 1, wherein different types of optical filters having different light transmission characteristics are arranged corresponding to each of the image capturing pixels with a pattern of the image sensor and the texture image capturing pixels. Yes,
2. The image processing apparatus according to claim 1, wherein at least one of the optical filters is formed of a polarizing plate.
ーン付き画像撮り込み画素と、テクスチャ画像撮り込み
画素の各々に対応させてそれぞれ異なる光透過特性を有
する異なる種類の光学フィルタを配置した構成であり、
前記光学フィルタの少なくとも一方が光強度を低減させ
る光強度低減フィルタによって構成したことを特徴とす
る請求項1に記載の画像処理装置。5. The optical filter according to claim 1, wherein different types of optical filters having different light transmission characteristics are arranged corresponding to each of the image capturing pixels with a pattern of the image sensor and the texture image capturing pixels. Yes,
2. The image processing apparatus according to claim 1, wherein at least one of the optical filters includes a light intensity reduction filter that reduces light intensity.
ターン光を前記計測対象に投影する構成を有し、 前記光学フィルタは、前記撮像素子におけるテクスチャ
画像を撮り込む画素に対応して赤外光カットフィルタを
配置した構成を有することを特徴とする請求項1に記載
の画像処理装置。6. The pattern light projecting means has a structure for projecting pattern light of infrared light onto the object to be measured, and the optical filter has a red color corresponding to a pixel of the image sensor for taking a texture image. The image processing apparatus according to claim 1, further comprising a configuration in which an external light cut filter is arranged.
るパターン付き画像を撮り込む画素に対応して可視光カ
ットフィルタを配置した構成を有することを特徴とする
請求項1に記載の画像処理装置。7. The image processing apparatus according to claim 1, wherein the optical filter has a configuration in which a visible light cut filter is arranged corresponding to a pixel of the image pickup device that captures an image with a pattern.
ーン付き画像撮り込み画素と、テクスチャ画像撮り込み
画素の各々に対応させてそれぞれ異なる光透過特性を有
する異なる種類の光学フィルタを配置した構成であり、
前記撮像素子の隣接画素において異なる光学フィルタを
配置した構成を有することを特徴とする請求項1に記載
の画像処理装置。8. The optical filter according to claim 1, wherein a plurality of types of optical filters having different light transmission characteristics are arranged corresponding to each of the image capturing pixels with a pattern of the image sensor and the texture image capturing pixels. Yes,
The image processing apparatus according to claim 1, wherein a different optical filter is arranged in a pixel adjacent to the image sensor.
ーン付き画像撮り込み画素と、テクスチャ画像撮り込み
画素の各々に対応させてそれぞれ異なる光透過特性を有
する異なる種類の光学フィルタを配置した構成であり、
前記撮像素子を構成する画素数の約1/2をパターン付
き画像撮り込み画素とし、残り約1/2の画素をテクス
チャ画像撮り込み画素とするように異なる光学フィルタ
を配置した構成を有することを特徴とする請求項1に記
載の画像処理装置。9. The optical filter according to claim 1, wherein different types of optical filters having different light transmission characteristics are arranged in correspondence with each of the image capturing pixels with a pattern of the image sensor and the texture image capturing pixels. Yes,
A configuration in which different optical filters are arranged so that about one-half of the number of pixels constituting the image pickup device is a pixel for capturing an image with a pattern and the remaining one-half of the pixels are pixels for capturing a texture image. The image processing apparatus according to claim 1, wherein:
方向から撮影した画像を用いて前記計測対象の三次元形
状を計測しステレオ法を適用して距離画像を生成する画
像処理装置であり、 前記計測対象の画像を撮り込む第1カメラと、 前記第1カメラと異なる方向から前記計測対象の画像を
撮り込む第2カメラと、 前記第1カメラによって撮り込まれた第1画像と、前記
第2カメラによって撮り込まれた第2画像との画像間対
応付け処理により視差データを生成して、該視差データ
に基づいて距離画像を生成する距離画像生成手段とを有
し、 前記第1カメラ、および前記第2カメラの少なくとも一
方は、 前記計測対象の画像を画素単位で撮り込み、各画素毎に
画像の輝度データを格納する撮像素子と、 前記撮像素子を構成する複数画素の一部画素において前
記パターン光を投影したパターン付き画像を撮り込み、
前記撮像素子を構成する他の画素において前記パターン
光を取り除いたテクスチャ画像を撮り込むように構成し
た光学フィルタと、 を有した構成であることを特徴とする請求項1に記載の
画像処理装置。10. The image processing apparatus according to claim 1, wherein the image processing apparatus measures a three-dimensional shape of the measurement object using images captured from different directions and generates a distance image by applying a stereo method. A first camera that captures an image of the measurement target; a second camera that captures an image of the measurement target from a different direction from the first camera; a first image captured by the first camera; Distance image generation means for generating disparity data by an image-to-image association process with a second image captured by the two cameras, and generating a distance image based on the disparity data; And at least one of the second camera captures an image of the measurement target in pixel units, stores an image sensor that stores luminance data of the image for each pixel, and a plurality of pixels forming the image sensor. In Part pixels uptake a patterned image projected with the pattern light,
The image processing apparatus according to claim 1, further comprising: an optical filter configured to capture a texture image from which the pattern light has been removed in another pixel included in the imaging element.
ン光を投影した画像に基づいて計測対象の距離データを
生成する画像処理方法において、 計測対象を撮像素子によって撮り込むステップであり、
前記撮像素子を構成する複数画素の一部画素においてパ
ターン光を投影したパターン付き画像を撮り込み、前記
撮像素子を構成する他の画素において前記パターン光を
取り除いたテクスチャ画像を撮り込む画像撮り込みステ
ップと、 前記撮像素子に格納された画像データを、前記パターン
付き画像を撮り込んだパターン画像撮り込み画素データ
と、前記テクスチャ画像を撮り込んだテクスチャ画像撮
り込み画素データとに分離して出力する画像データ分離
ステップと、 前記画像データ分離ステップにおいて分離出力された前
記パターン付き画像に基づいて前記計測対象の距離デー
タを算出する距離画像生成ステップと、 を有することを特徴とする画像処理方法。11. An image processing method for generating distance data of a measurement target based on an image obtained by irradiating the measurement target with the pattern light and projecting the pattern light, comprising:
An image capturing step of capturing an image with a pattern by projecting pattern light at a part of a plurality of pixels constituting the image sensor, and capturing a texture image with the pattern light removed at another pixel constituting the image sensor; An image to be output by separating the image data stored in the image sensor into pattern image capturing pixel data capturing the pattern-added image and texture image capturing pixel data capturing the texture image. An image processing method, comprising: a data separation step; and a distance image generation step of calculating distance data of the measurement target based on the pattern-attached image separated and output in the image data separation step.
いてパターン付き画像を撮り込む画素と、テクスチャ画
像を撮り込む画素各々に対応させて異なる光透過特性を
有する光学フィルタを配置した構成であり、前記画像撮
り込みステップは、異なる光透過特性を有する光学フィ
ルタを介してパターン付き画像とテクスチャ画像とを同
時に撮り込むことを特徴とする請求項11に記載の画像
処理方法。12. The optical filter according to claim 1, wherein the image sensor has optical filters having different light transmission characteristics corresponding to pixels for capturing a pattern image and pixels for capturing a texture image, respectively. The image processing method according to claim 11, wherein in the image capturing step, the image with the pattern and the texture image are captured simultaneously through optical filters having different light transmission characteristics.
方向から撮影した画像を用いて前記計測対象の三次元形
状を計測しステレオ法を適用して距離画像を生成する画
像処理方法であり、 計測対象の画像を第1カメラと、前記第1カメラと異な
る方向に配置した第2カメラによって同時に撮り込む画
像撮り込みステップであり、前記第1カメラおよび前記
第2カメラに構成された撮像素子を構成する複数画素の
一部画素においてパターン光を投影したパターン付き画
像を撮り込み、前記撮像素子を構成する他の画素におい
て前記パターン光を取り除いたテクスチャ画像を、それ
ぞれ各カメラにおいて撮り込む画像撮り込みステップ
と、 前記第1カメラおよび第2カメラの撮像素子に格納され
た画像データについて、前記パターン付き画像を撮り込
んだパターン画像撮り込み画素データと、前記テクスチ
ャ画像を撮り込んだテクスチャ画像撮り込み画素データ
とに分離して出力する画像データ分離ステップと、 前記画像データ分離ステップにおいて分離出力された前
記第1カメラの撮り込んだ第1パターン付き画像と、前
記第2カメラの撮り込んだ第2パターン付き画像とに基
づいて前記計測対象の距離データを算出する距離画像生
成ステップと、 を有することを特徴とする請求項11に記載の画像処理
方法。13. The image processing method according to claim 1, wherein a three-dimensional shape of the measurement target is measured using images obtained by photographing the measurement target from different directions, and a distance image is generated by applying a stereo method. An image capturing step of simultaneously capturing an image of a measurement target by a first camera and a second camera arranged in a direction different from that of the first camera, wherein an image sensor configured by the first camera and the second camera is Image capturing in which a pattern image is captured by projecting pattern light at a part of a plurality of pixels constituting the image, and a texture image from which the pattern light is removed at other pixels configuring the image sensor is captured by each camera. And, for the image data stored in the image sensors of the first camera and the second camera, An image data separating step of separating and outputting the captured pattern image capturing pixel data and the texture image capturing pixel data capturing the texture image, and the first data separated and output in the image data separating step. A distance image generating step of calculating distance data of the measurement target based on an image with a first pattern captured by a camera and an image with a second pattern captured by the second camera. The image processing method according to claim 11.
ン光を投影した画像に基づいて計測対象の距離データを
生成する画像処理をコンピュータ・システム上で実行せ
しめるコンピュータ・プログラムを提供するプログラム
提供媒体であって、前記コンピュータ・プログラムは、 計測対象を撮像素子によって撮り込むステップであり、
前記撮像素子を構成する複数画素の一部画素においてパ
ターン光を投影したパターン付き画像を撮り込み、前記
撮像素子を構成する他の画素において前記パターン光を
取り除いたテクスチャ画像を撮り込む画像撮り込みステ
ップと、 前記撮像素子に格納された画像データを、前記パターン
付き画像を撮り込んだパターン画像撮り込み画素データ
と、前記テクスチャ画像を撮り込んだテクスチャ画像撮
り込み画素データとに分離して出力する画像データ分離
ステップと、 前記画像データ分離ステップにおいて分離出力された前
記パターン付き画像に基づいて前記計測対象の距離デー
タを算出する距離画像生成ステップと、 を有することを特徴とするプログラム提供媒体。14. A program providing medium for providing a computer program for causing a computer system to execute image processing for generating distance data of a measurement target based on an image obtained by projecting the pattern light onto the measurement target and projecting the pattern light. Wherein the computer program is a step of capturing an object to be measured by an image sensor,
An image capturing step of capturing an image with a pattern by projecting pattern light at a partial pixel of the plurality of pixels constituting the image sensor, and capturing a texture image from which the pattern light has been removed at another pixel constituting the image sensor; And an image for separating and outputting the image data stored in the imaging device into pattern image capturing pixel data capturing the pattern-added image and texture image capturing pixel data capturing the texture image. A program providing medium, comprising: a data separation step; and a distance image generation step of calculating distance data of the measurement target based on the pattern-attached image separated and output in the image data separation step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000010127A JP2001194114A (en) | 2000-01-14 | 2000-01-14 | Image processing apparatus, image processing method, and program providing medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000010127A JP2001194114A (en) | 2000-01-14 | 2000-01-14 | Image processing apparatus, image processing method, and program providing medium |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2001194114A true JP2001194114A (en) | 2001-07-19 |
Family
ID=18538176
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000010127A Pending JP2001194114A (en) | 2000-01-14 | 2000-01-14 | Image processing apparatus, image processing method, and program providing medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2001194114A (en) |
Cited By (75)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009243921A (en) * | 2008-03-28 | 2009-10-22 | Yamatake Corp | Imaging device and three-dimensional shape measuring device |
| US7911496B2 (en) | 2006-11-02 | 2011-03-22 | Fujifilm Corporation | Method of generating range images and apparatus therefor |
| KR20110084029A (en) * | 2010-01-15 | 2011-07-21 | 삼성전자주식회사 | 3D image acquisition device and method |
| JP2013507601A (en) * | 2009-10-07 | 2013-03-04 | エイ.トロンスリーディー ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method for taking 3D images |
| JP2013540999A (en) * | 2010-09-13 | 2013-11-07 | マイクロ‐エプシロン オプトロニク ゲーエムベーハー | Distance measuring system |
| JP2015017921A (en) * | 2013-07-12 | 2015-01-29 | 株式会社明電舎 | Slider shape measurement apparatus |
| JP2015118583A (en) * | 2013-12-19 | 2015-06-25 | ソニー株式会社 | Information processor, information processing method and program |
| US9374516B2 (en) | 2014-04-04 | 2016-06-21 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
| US9383550B2 (en) | 2014-04-04 | 2016-07-05 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
| US9386222B2 (en) | 2014-06-20 | 2016-07-05 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax artifacts |
| US9398264B2 (en) | 2012-10-19 | 2016-07-19 | Qualcomm Incorporated | Multi-camera system using folded optics |
| US9438889B2 (en) | 2011-09-21 | 2016-09-06 | Qualcomm Incorporated | System and method for improving methods of manufacturing stereoscopic image sensors |
| US9485495B2 (en) | 2010-08-09 | 2016-11-01 | Qualcomm Incorporated | Autofocus for stereo images |
| US9541740B2 (en) | 2014-06-20 | 2017-01-10 | Qualcomm Incorporated | Folded optic array camera using refractive prisms |
| US9549107B2 (en) | 2014-06-20 | 2017-01-17 | Qualcomm Incorporated | Autofocus for folded optic array cameras |
| US20170256069A1 (en) * | 2016-03-01 | 2017-09-07 | Magic Leap, Inc. | Depth sensing systems and methods |
| US9774831B2 (en) | 2013-02-24 | 2017-09-26 | Fotonation Cayman Limited | Thin form factor computational array cameras and modular array cameras |
| US9774789B2 (en) | 2013-03-08 | 2017-09-26 | Fotonation Cayman Limited | Systems and methods for high dynamic range imaging using array cameras |
| US9787911B2 (en) | 2013-03-14 | 2017-10-10 | Fotonation Cayman Limited | Systems and methods for photometric normalization in array cameras |
| US9794476B2 (en) | 2011-09-19 | 2017-10-17 | Fotonation Cayman Limited | Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures |
| US9800856B2 (en) | 2013-03-13 | 2017-10-24 | Fotonation Cayman Limited | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
| US9800859B2 (en) | 2013-03-15 | 2017-10-24 | Fotonation Cayman Limited | Systems and methods for estimating depth using stereo array cameras |
| US9807382B2 (en) | 2012-06-28 | 2017-10-31 | Fotonation Cayman Limited | Systems and methods for detecting defective camera arrays and optic arrays |
| US9813617B2 (en) | 2013-11-26 | 2017-11-07 | Fotonation Cayman Limited | Array camera configurations incorporating constituent array cameras and constituent cameras |
| US9813616B2 (en) | 2012-08-23 | 2017-11-07 | Fotonation Cayman Limited | Feature based high resolution motion estimation from low resolution images captured using an array source |
| US9811753B2 (en) | 2011-09-28 | 2017-11-07 | Fotonation Cayman Limited | Systems and methods for encoding light field image files |
| US9819863B2 (en) | 2014-06-20 | 2017-11-14 | Qualcomm Incorporated | Wide field of view array camera for hemispheric and spherical imaging |
| US9832381B2 (en) | 2014-10-31 | 2017-11-28 | Qualcomm Incorporated | Optical image stabilization for thin cameras |
| US9858673B2 (en) | 2012-08-21 | 2018-01-02 | Fotonation Cayman Limited | Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints |
| US9866739B2 (en) | 2011-05-11 | 2018-01-09 | Fotonation Cayman Limited | Systems and methods for transmitting and receiving array camera image data |
| US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
| US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
| US9924092B2 (en) | 2013-11-07 | 2018-03-20 | Fotonation Cayman Limited | Array cameras incorporating independently aligned lens stacks |
| US9936148B2 (en) | 2010-05-12 | 2018-04-03 | Fotonation Cayman Limited | Imager array interfaces |
| US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
| US9955070B2 (en) | 2013-03-15 | 2018-04-24 | Fotonation Cayman Limited | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
| US9986224B2 (en) | 2013-03-10 | 2018-05-29 | Fotonation Cayman Limited | System and methods for calibration of an array camera |
| US10009538B2 (en) | 2013-02-21 | 2018-06-26 | Fotonation Cayman Limited | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
| US10013764B2 (en) | 2014-06-19 | 2018-07-03 | Qualcomm Incorporated | Local adaptive histogram equalization |
| US10027901B2 (en) | 2008-05-20 | 2018-07-17 | Fotonation Cayman Limited | Systems and methods for generating depth maps using a camera arrays incorporating monochrome and color cameras |
| US10084958B2 (en) | 2014-06-20 | 2018-09-25 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax and tilt artifacts |
| US10089740B2 (en) | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
| US10091405B2 (en) | 2013-03-14 | 2018-10-02 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
| US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
| US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
| US10127682B2 (en) | 2013-03-13 | 2018-11-13 | Fotonation Limited | System and methods for calibration of an array camera |
| US10142560B2 (en) | 2008-05-20 | 2018-11-27 | Fotonation Limited | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| US10178373B2 (en) | 2013-08-16 | 2019-01-08 | Qualcomm Incorporated | Stereo yaw correction using autofocus feedback |
| US10182216B2 (en) | 2013-03-15 | 2019-01-15 | Fotonation Limited | Extended color processing on pelican array cameras |
| US10250871B2 (en) | 2014-09-29 | 2019-04-02 | Fotonation Limited | Systems and methods for dynamic calibration of array cameras |
| US10261219B2 (en) | 2012-06-30 | 2019-04-16 | Fotonation Limited | Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors |
| US10306120B2 (en) | 2009-11-20 | 2019-05-28 | Fotonation Limited | Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps |
| US10311649B2 (en) | 2012-02-21 | 2019-06-04 | Fotonation Limited | Systems and method for performing depth based image editing |
| US10366472B2 (en) | 2010-12-14 | 2019-07-30 | Fotonation Limited | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
| US10390005B2 (en) | 2012-09-28 | 2019-08-20 | Fotonation Limited | Generating images from light fields utilizing virtual viewpoints |
| US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
| US10805589B2 (en) | 2015-04-19 | 2020-10-13 | Fotonation Limited | Multi-baseline camera array system architectures for depth augmentation in VR/AR applications |
| US11270110B2 (en) | 2019-09-17 | 2022-03-08 | Boston Polarimetrics, Inc. | Systems and methods for surface modeling using polarization cues |
| US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
| US11302012B2 (en) | 2019-11-30 | 2022-04-12 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
| US11525906B2 (en) | 2019-10-07 | 2022-12-13 | Intrinsic Innovation Llc | Systems and methods for augmentation of sensor systems and imaging systems with polarization |
| US11580667B2 (en) | 2020-01-29 | 2023-02-14 | Intrinsic Innovation Llc | Systems and methods for characterizing object pose detection and measurement systems |
| US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
| JPWO2023145556A1 (en) * | 2022-01-25 | 2023-08-03 | ||
| US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| US11797863B2 (en) | 2020-01-30 | 2023-10-24 | Intrinsic Innovation Llc | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
| US11953700B2 (en) | 2020-05-27 | 2024-04-09 | Intrinsic Innovation Llc | Multi-aperture polarization optical systems using beam splitters |
| US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
| US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
| US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
| US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
| US12175741B2 (en) | 2021-06-22 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for a vision guided end effector |
| US12172310B2 (en) | 2021-06-29 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for picking objects using 3-D geometry and segmentation |
| US12293535B2 (en) | 2021-08-03 | 2025-05-06 | Intrinsic Innovation Llc | Systems and methods for training pose estimators in computer vision |
| US12340538B2 (en) | 2021-06-25 | 2025-06-24 | Intrinsic Innovation Llc | Systems and methods for generating and using visual datasets for training computer vision models |
-
2000
- 2000-01-14 JP JP2000010127A patent/JP2001194114A/en active Pending
Cited By (140)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7911496B2 (en) | 2006-11-02 | 2011-03-22 | Fujifilm Corporation | Method of generating range images and apparatus therefor |
| JP2009243921A (en) * | 2008-03-28 | 2009-10-22 | Yamatake Corp | Imaging device and three-dimensional shape measuring device |
| US10027901B2 (en) | 2008-05-20 | 2018-07-17 | Fotonation Cayman Limited | Systems and methods for generating depth maps using a camera arrays incorporating monochrome and color cameras |
| US10142560B2 (en) | 2008-05-20 | 2018-11-27 | Fotonation Limited | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| US12022207B2 (en) | 2008-05-20 | 2024-06-25 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| US11412158B2 (en) | 2008-05-20 | 2022-08-09 | Fotonation Limited | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
| JP2013507601A (en) * | 2009-10-07 | 2013-03-04 | エイ.トロンスリーディー ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method for taking 3D images |
| US9050158B2 (en) | 2009-10-07 | 2015-06-09 | A. Tron3D Gmbh | Method for acquiring three-dimensional images |
| US10306120B2 (en) | 2009-11-20 | 2019-05-28 | Fotonation Limited | Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps |
| KR101652393B1 (en) * | 2010-01-15 | 2016-08-31 | 삼성전자주식회사 | Apparatus and Method for obtaining 3D image |
| KR20110084029A (en) * | 2010-01-15 | 2011-07-21 | 삼성전자주식회사 | 3D image acquisition device and method |
| US10455168B2 (en) | 2010-05-12 | 2019-10-22 | Fotonation Limited | Imager array interfaces |
| US9936148B2 (en) | 2010-05-12 | 2018-04-03 | Fotonation Cayman Limited | Imager array interfaces |
| US9485495B2 (en) | 2010-08-09 | 2016-11-01 | Qualcomm Incorporated | Autofocus for stereo images |
| JP2013540999A (en) * | 2010-09-13 | 2013-11-07 | マイクロ‐エプシロン オプトロニク ゲーエムベーハー | Distance measuring system |
| US11423513B2 (en) | 2010-12-14 | 2022-08-23 | Fotonation Limited | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
| US12243190B2 (en) | 2010-12-14 | 2025-03-04 | Adeia Imaging Llc | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
| US10366472B2 (en) | 2010-12-14 | 2019-07-30 | Fotonation Limited | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
| US11875475B2 (en) | 2010-12-14 | 2024-01-16 | Adeia Imaging Llc | Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers |
| US10742861B2 (en) | 2011-05-11 | 2020-08-11 | Fotonation Limited | Systems and methods for transmitting and receiving array camera image data |
| US9866739B2 (en) | 2011-05-11 | 2018-01-09 | Fotonation Cayman Limited | Systems and methods for transmitting and receiving array camera image data |
| US10218889B2 (en) | 2011-05-11 | 2019-02-26 | Fotonation Limited | Systems and methods for transmitting and receiving array camera image data |
| US9794476B2 (en) | 2011-09-19 | 2017-10-17 | Fotonation Cayman Limited | Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures |
| US10375302B2 (en) | 2011-09-19 | 2019-08-06 | Fotonation Limited | Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures |
| US9438889B2 (en) | 2011-09-21 | 2016-09-06 | Qualcomm Incorporated | System and method for improving methods of manufacturing stereoscopic image sensors |
| US10984276B2 (en) | 2011-09-28 | 2021-04-20 | Fotonation Limited | Systems and methods for encoding image files containing depth maps stored as metadata |
| US9811753B2 (en) | 2011-09-28 | 2017-11-07 | Fotonation Cayman Limited | Systems and methods for encoding light field image files |
| US20180197035A1 (en) | 2011-09-28 | 2018-07-12 | Fotonation Cayman Limited | Systems and Methods for Encoding Image Files Containing Depth Maps Stored as Metadata |
| US10275676B2 (en) | 2011-09-28 | 2019-04-30 | Fotonation Limited | Systems and methods for encoding image files containing depth maps stored as metadata |
| US10430682B2 (en) | 2011-09-28 | 2019-10-01 | Fotonation Limited | Systems and methods for decoding image files containing depth maps stored as metadata |
| US9864921B2 (en) | 2011-09-28 | 2018-01-09 | Fotonation Cayman Limited | Systems and methods for encoding image files containing depth maps stored as metadata |
| US12052409B2 (en) | 2011-09-28 | 2024-07-30 | Adela Imaging LLC | Systems and methods for encoding image files containing depth maps stored as metadata |
| US10019816B2 (en) | 2011-09-28 | 2018-07-10 | Fotonation Cayman Limited | Systems and methods for decoding image files containing depth maps stored as metadata |
| US11729365B2 (en) | 2011-09-28 | 2023-08-15 | Adela Imaging LLC | Systems and methods for encoding image files containing depth maps stored as metadata |
| US10311649B2 (en) | 2012-02-21 | 2019-06-04 | Fotonation Limited | Systems and method for performing depth based image editing |
| US9807382B2 (en) | 2012-06-28 | 2017-10-31 | Fotonation Cayman Limited | Systems and methods for detecting defective camera arrays and optic arrays |
| US10334241B2 (en) | 2012-06-28 | 2019-06-25 | Fotonation Limited | Systems and methods for detecting defective camera arrays and optic arrays |
| US10261219B2 (en) | 2012-06-30 | 2019-04-16 | Fotonation Limited | Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors |
| US11022725B2 (en) | 2012-06-30 | 2021-06-01 | Fotonation Limited | Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors |
| US9858673B2 (en) | 2012-08-21 | 2018-01-02 | Fotonation Cayman Limited | Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints |
| US12002233B2 (en) | 2012-08-21 | 2024-06-04 | Adeia Imaging Llc | Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints |
| US12437432B2 (en) | 2012-08-21 | 2025-10-07 | Adeia Imaging Llc | Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints |
| US10380752B2 (en) | 2012-08-21 | 2019-08-13 | Fotonation Limited | Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints |
| US9813616B2 (en) | 2012-08-23 | 2017-11-07 | Fotonation Cayman Limited | Feature based high resolution motion estimation from low resolution images captured using an array source |
| US10462362B2 (en) | 2012-08-23 | 2019-10-29 | Fotonation Limited | Feature based high resolution motion estimation from low resolution images captured using an array source |
| US10390005B2 (en) | 2012-09-28 | 2019-08-20 | Fotonation Limited | Generating images from light fields utilizing virtual viewpoints |
| US9838601B2 (en) | 2012-10-19 | 2017-12-05 | Qualcomm Incorporated | Multi-camera system using folded optics |
| US9398264B2 (en) | 2012-10-19 | 2016-07-19 | Qualcomm Incorporated | Multi-camera system using folded optics |
| US10165183B2 (en) | 2012-10-19 | 2018-12-25 | Qualcomm Incorporated | Multi-camera system using folded optics |
| US10009538B2 (en) | 2013-02-21 | 2018-06-26 | Fotonation Cayman Limited | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
| US9774831B2 (en) | 2013-02-24 | 2017-09-26 | Fotonation Cayman Limited | Thin form factor computational array cameras and modular array cameras |
| US9917998B2 (en) | 2013-03-08 | 2018-03-13 | Fotonation Cayman Limited | Systems and methods for measuring scene information while capturing images using array cameras |
| US9774789B2 (en) | 2013-03-08 | 2017-09-26 | Fotonation Cayman Limited | Systems and methods for high dynamic range imaging using array cameras |
| US11272161B2 (en) | 2013-03-10 | 2022-03-08 | Fotonation Limited | System and methods for calibration of an array camera |
| US11985293B2 (en) | 2013-03-10 | 2024-05-14 | Adeia Imaging Llc | System and methods for calibration of an array camera |
| US10958892B2 (en) | 2013-03-10 | 2021-03-23 | Fotonation Limited | System and methods for calibration of an array camera |
| US10225543B2 (en) | 2013-03-10 | 2019-03-05 | Fotonation Limited | System and methods for calibration of an array camera |
| US9986224B2 (en) | 2013-03-10 | 2018-05-29 | Fotonation Cayman Limited | System and methods for calibration of an array camera |
| US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
| US10127682B2 (en) | 2013-03-13 | 2018-11-13 | Fotonation Limited | System and methods for calibration of an array camera |
| US9800856B2 (en) | 2013-03-13 | 2017-10-24 | Fotonation Cayman Limited | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
| US10091405B2 (en) | 2013-03-14 | 2018-10-02 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
| US10412314B2 (en) | 2013-03-14 | 2019-09-10 | Fotonation Limited | Systems and methods for photometric normalization in array cameras |
| US9787911B2 (en) | 2013-03-14 | 2017-10-10 | Fotonation Cayman Limited | Systems and methods for photometric normalization in array cameras |
| US10547772B2 (en) | 2013-03-14 | 2020-01-28 | Fotonation Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
| US9800859B2 (en) | 2013-03-15 | 2017-10-24 | Fotonation Cayman Limited | Systems and methods for estimating depth using stereo array cameras |
| US10455218B2 (en) | 2013-03-15 | 2019-10-22 | Fotonation Limited | Systems and methods for estimating depth using stereo array cameras |
| US10674138B2 (en) | 2013-03-15 | 2020-06-02 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
| US10638099B2 (en) | 2013-03-15 | 2020-04-28 | Fotonation Limited | Extended color processing on pelican array cameras |
| US10542208B2 (en) | 2013-03-15 | 2020-01-21 | Fotonation Limited | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
| US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
| US9955070B2 (en) | 2013-03-15 | 2018-04-24 | Fotonation Cayman Limited | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
| US10182216B2 (en) | 2013-03-15 | 2019-01-15 | Fotonation Limited | Extended color processing on pelican array cameras |
| JP2015017921A (en) * | 2013-07-12 | 2015-01-29 | 株式会社明電舎 | Slider shape measurement apparatus |
| US10178373B2 (en) | 2013-08-16 | 2019-01-08 | Qualcomm Incorporated | Stereo yaw correction using autofocus feedback |
| US10540806B2 (en) | 2013-09-27 | 2020-01-21 | Fotonation Limited | Systems and methods for depth-assisted perspective distortion correction |
| US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
| US9924092B2 (en) | 2013-11-07 | 2018-03-20 | Fotonation Cayman Limited | Array cameras incorporating independently aligned lens stacks |
| US10767981B2 (en) | 2013-11-18 | 2020-09-08 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
| US11486698B2 (en) | 2013-11-18 | 2022-11-01 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
| US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
| US10708492B2 (en) | 2013-11-26 | 2020-07-07 | Fotonation Limited | Array camera configurations incorporating constituent array cameras and constituent cameras |
| US9813617B2 (en) | 2013-11-26 | 2017-11-07 | Fotonation Cayman Limited | Array camera configurations incorporating constituent array cameras and constituent cameras |
| JP2015118583A (en) * | 2013-12-19 | 2015-06-25 | ソニー株式会社 | Information processor, information processing method and program |
| US10089740B2 (en) | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
| US10574905B2 (en) | 2014-03-07 | 2020-02-25 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
| US9374516B2 (en) | 2014-04-04 | 2016-06-21 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
| US9860434B2 (en) | 2014-04-04 | 2018-01-02 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
| US9383550B2 (en) | 2014-04-04 | 2016-07-05 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
| US9973680B2 (en) | 2014-04-04 | 2018-05-15 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
| US10013764B2 (en) | 2014-06-19 | 2018-07-03 | Qualcomm Incorporated | Local adaptive histogram equalization |
| US10084958B2 (en) | 2014-06-20 | 2018-09-25 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax and tilt artifacts |
| US9819863B2 (en) | 2014-06-20 | 2017-11-14 | Qualcomm Incorporated | Wide field of view array camera for hemispheric and spherical imaging |
| US9854182B2 (en) | 2014-06-20 | 2017-12-26 | Qualcomm Incorporated | Folded optic array camera using refractive prisms |
| US9386222B2 (en) | 2014-06-20 | 2016-07-05 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax artifacts |
| US9733458B2 (en) | 2014-06-20 | 2017-08-15 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax artifacts |
| US9843723B2 (en) | 2014-06-20 | 2017-12-12 | Qualcomm Incorporated | Parallax free multi-camera system capable of capturing full spherical images |
| US9549107B2 (en) | 2014-06-20 | 2017-01-17 | Qualcomm Incorporated | Autofocus for folded optic array cameras |
| US9541740B2 (en) | 2014-06-20 | 2017-01-10 | Qualcomm Incorporated | Folded optic array camera using refractive prisms |
| US10250871B2 (en) | 2014-09-29 | 2019-04-02 | Fotonation Limited | Systems and methods for dynamic calibration of array cameras |
| US11546576B2 (en) | 2014-09-29 | 2023-01-03 | Adeia Imaging Llc | Systems and methods for dynamic calibration of array cameras |
| US12501023B2 (en) | 2014-09-29 | 2025-12-16 | Adeia Imaging Llc | Systems and methods for dynamic calibration of array cameras |
| US9832381B2 (en) | 2014-10-31 | 2017-11-28 | Qualcomm Incorporated | Optical image stabilization for thin cameras |
| US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
| US12081721B2 (en) | 2015-04-19 | 2024-09-03 | Adeia Imaging Llc | Multi-baseline camera array system architectures for depth augmentation in VR/AR applications |
| US11368662B2 (en) | 2015-04-19 | 2022-06-21 | Fotonation Limited | Multi-baseline camera array system architectures for depth augmentation in VR/AR applications |
| US10805589B2 (en) | 2015-04-19 | 2020-10-13 | Fotonation Limited | Multi-baseline camera array system architectures for depth augmentation in VR/AR applications |
| US11475583B2 (en) | 2016-03-01 | 2022-10-18 | Magic Leap, Inc. | Depth sensing systems and methods |
| US10565717B2 (en) * | 2016-03-01 | 2020-02-18 | Magic Leap, Inc. | Depth sensing systems and methods |
| US10964039B2 (en) | 2016-03-01 | 2021-03-30 | Magic Leap, Inc. | Depth sensing systems and methods |
| US20170256069A1 (en) * | 2016-03-01 | 2017-09-07 | Magic Leap, Inc. | Depth sensing systems and methods |
| US10818026B2 (en) | 2017-08-21 | 2020-10-27 | Fotonation Limited | Systems and methods for hybrid depth regularization |
| US11983893B2 (en) | 2017-08-21 | 2024-05-14 | Adeia Imaging Llc | Systems and methods for hybrid depth regularization |
| US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
| US11562498B2 (en) | 2017-08-21 | 2023-01-24 | Adela Imaging LLC | Systems and methods for hybrid depth regularization |
| US11270110B2 (en) | 2019-09-17 | 2022-03-08 | Boston Polarimetrics, Inc. | Systems and methods for surface modeling using polarization cues |
| US11699273B2 (en) | 2019-09-17 | 2023-07-11 | Intrinsic Innovation Llc | Systems and methods for surface modeling using polarization cues |
| US11525906B2 (en) | 2019-10-07 | 2022-12-13 | Intrinsic Innovation Llc | Systems and methods for augmentation of sensor systems and imaging systems with polarization |
| US12099148B2 (en) | 2019-10-07 | 2024-09-24 | Intrinsic Innovation Llc | Systems and methods for surface normals sensing with polarization |
| US11982775B2 (en) | 2019-10-07 | 2024-05-14 | Intrinsic Innovation Llc | Systems and methods for augmentation of sensor systems and imaging systems with polarization |
| US11842495B2 (en) | 2019-11-30 | 2023-12-12 | Intrinsic Innovation Llc | Systems and methods for transparent object segmentation using polarization cues |
| US11302012B2 (en) | 2019-11-30 | 2022-04-12 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
| US12380568B2 (en) | 2019-11-30 | 2025-08-05 | Intrinsic Innovation Llc | Systems and methods for transparent object segmentation using polarization cues |
| US11580667B2 (en) | 2020-01-29 | 2023-02-14 | Intrinsic Innovation Llc | Systems and methods for characterizing object pose detection and measurement systems |
| US11797863B2 (en) | 2020-01-30 | 2023-10-24 | Intrinsic Innovation Llc | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
| US11953700B2 (en) | 2020-05-27 | 2024-04-09 | Intrinsic Innovation Llc | Multi-aperture polarization optical systems using beam splitters |
| US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
| US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
| US11683594B2 (en) | 2021-04-15 | 2023-06-20 | Intrinsic Innovation Llc | Systems and methods for camera exposure control |
| US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
| US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
| US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
| US12175741B2 (en) | 2021-06-22 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for a vision guided end effector |
| US12340538B2 (en) | 2021-06-25 | 2025-06-24 | Intrinsic Innovation Llc | Systems and methods for generating and using visual datasets for training computer vision models |
| US12172310B2 (en) | 2021-06-29 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for picking objects using 3-D geometry and segmentation |
| US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
| US12293535B2 (en) | 2021-08-03 | 2025-05-06 | Intrinsic Innovation Llc | Systems and methods for training pose estimators in computer vision |
| WO2023145556A1 (en) * | 2022-01-25 | 2023-08-03 | パナソニックIpマネジメント株式会社 | Distance measuring device |
| JPWO2023145556A1 (en) * | 2022-01-25 | 2023-08-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2001194114A (en) | Image processing apparatus, image processing method, and program providing medium | |
| KR102674646B1 (en) | Apparatus and method for obtaining distance information from a view | |
| JP4915859B2 (en) | Object distance deriving device | |
| US20120242795A1 (en) | Digital 3d camera using periodic illumination | |
| WO2019007180A1 (en) | Handheld large-scale three-dimensional measurement scanner system simultaneously having photography measurement and three-dimensional scanning functions | |
| JP6304244B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
| JP2001008235A (en) | Image input method for reconfiguring three-dimensional data and multiple-lens data input device | |
| TWI672937B (en) | Apparatus and method for processing three dimensional images | |
| WO2017214735A1 (en) | Systems and methods for obtaining a structured light reconstruction of a 3d surface | |
| JP2012058076A (en) | Three-dimensional measurement device and three-dimensional measurement method | |
| CN107463659B (en) | Object searching method and device | |
| CN107517346B (en) | Photographing method, device and mobile device based on structured light | |
| JP4110501B2 (en) | Random pattern generation apparatus and method, distance image generation apparatus and method, and program providing medium | |
| WO2019125427A1 (en) | System and method for hybrid depth estimation | |
| Benveniste et al. | Nary coded structured light-based range scanners using color invariants | |
| JP2013044597A (en) | Image processing device and method, and program | |
| JP4337203B2 (en) | Distance image generating apparatus, distance image generating method, and program providing medium | |
| JP2011095131A (en) | Image processing method | |
| JP2015019346A (en) | Parallax image generation device | |
| JP6409769B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
| CN107370952A (en) | Image capturing method and device | |
| JP2024092691A (en) | Three-dimensional information processing device and three-dimensional information processing method | |
| JP2001338280A (en) | 3D spatial information input device | |
| CN112750157B (en) | Depth image generation method and device | |
| CN117880479A (en) | Computing unit and method for estimating depth map from digital hologram, encoding method of video sequence, computer program |