JP2018004581A - Image processing device, image processing method, program and system - Google Patents
Image processing device, image processing method, program and system Download PDFInfo
- Publication number
- JP2018004581A JP2018004581A JP2016135671A JP2016135671A JP2018004581A JP 2018004581 A JP2018004581 A JP 2018004581A JP 2016135671 A JP2016135671 A JP 2016135671A JP 2016135671 A JP2016135671 A JP 2016135671A JP 2018004581 A JP2018004581 A JP 2018004581A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- unit
- region
- image
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Studio Devices (AREA)
Abstract
【課題】撮影画像に含まれる画素の深度を、計算量を抑えて精度よく計算することができる画像処理装置等を提供する。【解決手段】画像処理装置Aは可視光画像を撮影する第1撮影部2と、可視光画像と重複する領域を含む赤外画像を撮影する第2撮影部3及び赤外光照射部8を備える。第1深度決定部12は重複領域に含まれる画素の深度を決定する。部分領域生成部13は赤外画像における重複領域から複数の部分領域を生成する。クラスタリング部15は複数の部分領域を複数のクラスタに分類する。関数決定部16は第1深度決定部が決定した画素の深度に基づいて、複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定する。第2深度決定部19は関数決定部が決定した関数を用いて第2撮影部が新たに撮影した赤外画像が含む画素の深度を決定する。【選択図】図2An image processing apparatus and the like capable of accurately calculating the depth of pixels included in a captured image with a reduced amount of calculation. An image processing apparatus (A) includes a first imaging unit (2) that captures a visible light image, a second imaging unit (3) that captures an infrared image including a region overlapping the visible light image, and an infrared light irradiation unit (8). Prepare. A first depth determination unit 12 determines the depth of pixels included in the overlap region. A partial region generation unit 13 generates a plurality of partial regions from overlapping regions in the infrared image. A clustering unit 15 classifies a plurality of partial regions into a plurality of clusters. The function determining unit 16 determines a function representing the relationship between pixel brightness and depth for each of the plurality of clusters, based on the pixel depth determined by the first depth determining unit. The second depth determination unit 19 uses the function determined by the function determination unit to determine the depth of pixels included in the infrared image newly captured by the second imaging unit. [Selection drawing] Fig. 2
Description
本発明は、撮影画像の深度を決定する画像処理装置、画像処理方法、プログラム及びシステムに関する。 The present invention relates to an image processing apparatus, an image processing method, a program, and a system that determine the depth of a captured image.
従来、ステレオカメラを用いて撮影対象を撮影することによって視差画像を生成し、奥行きを感じさせる立体画像を表示する技術が知られている。特許文献1には、異なる周波数の光を物体に3つの方向から照射し、三次元物体の深度マップを生成する技術が開示されている。
2. Description of the Related Art Conventionally, a technique for generating a parallax image by photographing a subject to be photographed using a stereo camera and displaying a stereoscopic image that gives a feeling of depth is known.
ところで、撮影した視差画像に基づいて撮影画像の深度を精度良く計算する場合、大きな計算能力を要する。そのため、視差画像に基づいて撮影動画の深度を精度良く計算するには、高性能なプロセッサが必要であり多大な費用がかかるという問題が生じていた。 By the way, when calculating the depth of a captured image with high accuracy based on a captured parallax image, a large calculation capability is required. Therefore, in order to accurately calculate the depth of the captured moving image based on the parallax image, there is a problem that a high-performance processor is necessary and a great deal of cost is required.
そこで、本発明はこれらの点に鑑みてなされたものであり、撮影画像に含まれる画素の深度を、計算量を抑えて精度よく計算することを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to accurately calculate the depth of pixels included in a captured image while suppressing the amount of calculation.
本発明の第1の態様においては、画像を撮影する第1撮影部と、前記第1撮影部が撮影する領域と重複する重複領域を含む赤外画像を撮影する第2撮影部と、少なくとも前記重複領域を含む領域に赤外光を照射する赤外光照射部と、前記重複領域に含まれる画素の深度を決定する第1深度決定部と、前記赤外画像における前記重複領域から複数の部分領域を生成する部分領域生成部と、前記複数の部分領域を複数のクラスタに分類するクラスタリング部と、前記第1深度決定部が決定した画素の深度に基づいて、前記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定する関数決定部と、前記関数を用いて前記第2撮影部が新たに撮影した赤外画像が含む画素の深度を決定する第2深度決定部と、を備える画像処理装置を提供する。 In the first aspect of the present invention, a first imaging unit that captures an image, a second imaging unit that captures an infrared image including an overlapping area that overlaps an area captured by the first imaging unit, and at least the An infrared light irradiating unit that irradiates an area including an overlapping region with infrared light, a first depth determining unit that determines a depth of a pixel included in the overlapping region, and a plurality of portions from the overlapping region in the infrared image A pixel for each of the plurality of clusters based on the depth of the pixels determined by the partial region generation unit that generates a region, a clustering unit that classifies the plurality of partial regions into a plurality of clusters, and the first depth determination unit A function determining unit that determines a function representing the relationship between the brightness and the depth of the image, and a second depth determining unit that determines the depth of a pixel included in the infrared image newly captured by the second imaging unit using the function; An image processing device comprising To provide.
前記複数の部分領域の特徴量を算出する特徴量算出部を更に備え、前記クラスタリング部は、前記特徴量に更に基づいて前記複数の部分領域を前記複数のクラスタに分類してもよい。 The image processing apparatus may further include a feature amount calculation unit that calculates feature amounts of the plurality of partial regions, and the clustering unit may further classify the plurality of partial regions into the plurality of clusters based on the feature amount.
前記関数決定部は前記関数を更新し、前記第2深度決定部は、前記関数決定部が前記関数を更新した場合、更新された新しい関数を用いて前記第2撮影部が撮影した赤外画像が含む画素の深度を決定してもよい。 The function determining unit updates the function, and the second depth determining unit, when the function determining unit updates the function, an infrared image captured by the second imaging unit using the updated new function. You may determine the depth of the pixel which contains.
前記部分領域生成部は、1つの部分領域と別の1つの部分領域とが同一の画素を含むように前記複数の部分領域を生成してもよい。 The partial region generation unit may generate the plurality of partial regions so that one partial region and another partial region include the same pixel.
本発明の第2の態様においては、画像を撮影するステップと、前記撮影する領域と重複する重複領域を含む赤外画像を撮影するステップと、少なくとも前記重複領域を含む領域に赤外光を照射するステップと、前記重複領域に含まれる画素の深度を決定するステップと、前記赤外画像における前記重複領域から複数の部分領域を生成するステップと、前記複数の部分領域の各々に含まれる前記画素の深度と輝度とに少なくとも基づいて、前記複数の部分領域を複数のクラスタに分類するステップと、前記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定するステップと、前記関数を用いて前記赤外画像が含む画素の深度を決定するステップと、を備える画像処理方法を提供する。 In the second aspect of the present invention, the step of capturing an image, the step of capturing an infrared image including an overlapping region that overlaps the region to be captured, and irradiating at least the region including the overlapping region with infrared light Determining a depth of pixels included in the overlapping region; generating a plurality of partial regions from the overlapping region in the infrared image; and the pixels included in each of the plurality of partial regions Classifying the plurality of partial regions into a plurality of clusters based on at least the depth and the luminance of the plurality of clusters, determining a function representing a relationship between the luminance and the depth of a pixel for each of the plurality of clusters, Determining a depth of a pixel included in the infrared image using a function, and providing an image processing method.
本発明の第3の態様においては、画像を撮影するステップと、前記撮影する領域と重複する重複領域を含む赤外画像を撮影するステップと、少なくとも前記重複領域を含む領域に赤外光を照射するステップと、前記重複領域に含まれる画素の深度を決定するステップと、前記赤外画像における前記重複領域から複数の部分領域を生成するステップと、前記複数の部分領域の各々に含まれる前記画素の深度と輝度とに少なくとも基づいて、前記複数の部分領域を複数のクラスタに分類するステップと、前記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定するステップと、前記関数を用いて前記赤外画像が含む画素の深度を決定するステップと、を含むコンピュータが実行するプログラムを提供する。 In the third aspect of the present invention, the step of capturing an image, the step of capturing an infrared image including an overlapping region that overlaps the region to be captured, and irradiating at least the region including the overlapping region with infrared light Determining a depth of pixels included in the overlapping region; generating a plurality of partial regions from the overlapping region in the infrared image; and the pixels included in each of the plurality of partial regions Classifying the plurality of partial regions into a plurality of clusters based on at least the depth and the luminance of the plurality of clusters, determining a function representing a relationship between the luminance and the depth of a pixel for each of the plurality of clusters, Determining a depth of a pixel included in the infrared image using a function, and providing a program executed by the computer.
本発明の第4の態様においては、前記画像処理装置を複数設置し、前記画像処理装置の各々が計測した撮影対象の深度データに基づいて前記撮影対象を3次元構築するシステムを提供する。 In a fourth aspect of the present invention, there is provided a system in which a plurality of the image processing devices are installed, and the shooting target is three-dimensionally constructed based on the shooting target depth data measured by each of the image processing devices.
本発明によれば、撮影画像に含まれる画素の深度を、計算量を抑えて精度よく計算することができるという効果を奏する。 According to the present invention, there is an effect that the depth of pixels included in a captured image can be accurately calculated with a reduced calculation amount.
[概要]
従来、ステレオカメラで画像を撮影し、視差画像に基づいて撮影画像の各画素の深度を決定する技術がある。視差画像に基づいて撮影画像の各画素の深度を決定する場合、視差を求めるために2枚の画像において重複して写っている対象のパターンマッチングを行う。そのため、リアルタイムで撮影動画の深度を精度良く計算するには、高い計算能力を必要とする。
[Overview]
Conventionally, there is a technique for capturing an image with a stereo camera and determining the depth of each pixel of the captured image based on a parallax image. When determining the depth of each pixel of the captured image based on the parallax image, pattern matching is performed on the objects that are duplicated in the two images in order to obtain the parallax. Therefore, in order to accurately calculate the depth of the captured moving image in real time, high calculation capability is required.
実施の形態に係る画像処理装置は、可視光カメラと赤外線カメラとで撮影対象を撮影する。画像処理装置は、撮影して得られた視差画像に基づいて赤外画像の各画素の深度を決定する。画像処理装置は、各画素の深度が決定された赤外画像を複数の部分領域に分割し、当該複数の分割領域をクラスタリングする。画像処理装置は、複数のクラスタの各々について赤外画像に含まれる画素の輝度と深度との関係を表す関数を決定することによって、以降に撮影される撮影画像については、赤外画像のみから画素の深度を決定する。画像処理装置は、例えば、1秒間に撮影する赤外画像の10フレームの内、始めの1フレームのみ可視光画像を利用して深度マップを生成し、残りの9フレームについては、決定済みの関数を利用して深度マップを生成する。 The image processing apparatus according to the embodiment photographs an object to be photographed with a visible light camera and an infrared camera. The image processing apparatus determines the depth of each pixel of the infrared image based on the parallax image obtained by photographing. The image processing apparatus divides an infrared image in which the depth of each pixel is determined into a plurality of partial areas, and clusters the plurality of divided areas. The image processing apparatus determines a function representing the relationship between the luminance and depth of the pixels included in the infrared image for each of the plurality of clusters, so that the captured image captured thereafter is a pixel from only the infrared image. Determine the depth of the. For example, the image processing apparatus generates a depth map by using a visible light image for only the first frame out of 10 frames of an infrared image captured in one second, and has determined functions for the remaining nine frames. Generate a depth map using.
上記のとおり、実施の形態に係る画像処理装置では、可視光画像と赤外画像とのパターンマッチングをする作業を大幅に減少することができるため、高い計算能力を必要とせずに、例えば、動画像の深度マップを生成することができる。以下に、図面を参照しながら実施の形態に係る画像処理装置について説明する。 As described above, the image processing apparatus according to the embodiment can significantly reduce the work of pattern matching between a visible light image and an infrared image, and therefore, for example, a moving image without requiring high calculation capability. An image depth map can be generated. Hereinafter, an image processing apparatus according to an embodiment will be described with reference to the drawings.
[撮像装置の構成]
図1は、実施の形態に係る画像処理装置を備える撮像装置1の正面図である。撮像装置1の正面には、第1撮影部2、第2撮影部3、バンドパスフィルタ4、マイク5、スピーカ6、スリット7及び赤外光照射部8が配置されている。第1撮影部2は、例えば、可視光カメラである。第2撮影部3は、例えば、赤外線カメラである。赤外光照射部8は、例えば、スリット7内に平行に設けられ、撮影対象に赤外光がなるべく平行に照射されるように第2撮影部3のすぐ横に配置されている。バンドパスフィルタ4は、第2撮影部3のレンズと重なるように設けられ、例えば、波長940nm付近の赤外光のみを通過させる。第2撮影部3は、撮影対象の赤外画像を撮影する際は、赤外光照射部8を発光させ撮影対象に赤外光を照射させる。また、第2撮影部3が撮影する赤外画像の画素数は、例えば、500万画素程度である。
[Configuration of imaging device]
FIG. 1 is a front view of an
撮像装置1の正面に配置された上記各モジュールは、画像処理装置が有する制御部によって制御される。撮像装置1は、マイク5を用いて録音することができる。また、撮像装置1は、スピーカ6を用いて音を出力することができる。また、撮像装置1は、第1撮影部2と第2撮影部3とを同期して撮影対象を撮影することができる。例えば、撮像装置1は、図示した正面の反対側がプラグ形状であり、天井に配置された電球のソケットに差込んで使用することができる。撮像装置1は、例えばRaspberry Pi(登録商標)等のコンピュータを用いて実現される。以下に、図2を参照しながら画像処理装置の構成について説明する。
Each of the modules arranged in front of the
[画像処理装置の構成]
図2は、実施の形態に係る画像処理装置Aの構成を示す図である。画像処理装置Aは、記憶部9、制御部10、第1撮影部2、第2撮影部3及び赤外光照射部8を備える。図2は、実施の形態に係る画像処理装置Aを実現するための機能構成を示しており、他の構成は省略している。図2の各部は、ハードウェア的には撮像装置1のCPU(Central Processing Unit)、メインメモリ、その他のLSI(Large Scale Integration)で構成することができる。また、ソフトウェア的には、撮像装置1のメインメモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、又はそれらの組み合わせによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
[Configuration of image processing apparatus]
FIG. 2 is a diagram illustrating a configuration of the image processing apparatus A according to the embodiment. The image processing apparatus A includes a storage unit 9, a
記憶部9は、例えば、制御部10が実行するプログラムが記録されたROM(Read Only Memory)と一時的にデータを保存するRAM(Random Access Memory)とを備える。RAMには、第1撮影部2が撮影した可視光画像と第2撮影部3が撮影した赤外画像とが記録される。また、RAMには、可視光画像と赤外画像とに基づいて決定される深度マップが記録される。深度マップとは、可視光画像と赤外画像との重複領域の各画素と深度との対応が記録されたデータのことを称する。また、RAMには、赤外画像を部分領域に分割した際の、各部分領域に関する特徴量が記録される。RAMには、上記部分領域を分類するクラスタが記録される。RAMには、クラスタ毎に決定される輝度と深度との関数が記録される。
The storage unit 9 includes, for example, a ROM (Read Only Memory) in which a program executed by the
制御部10は、記憶部9に記録されたプログラムを実行することによって、重複領域決定部11、第1深度決定部12、部分領域生成部13、特徴量算出部14、クラスタリング部15、関数決定部16、部分領域決定部17、クラスタ決定部18及び第2深度決定部19としても機能する。また、制御部10は、第1撮影部2及び第2撮影部3を制御して撮影対象の可視光画像及び赤外画像を撮影する。制御部10は、例えば、第1撮影部2と第2撮影部3とを同期させて撮影し、撮影対象の視差画像を記憶部9に記録する。重複領域決定部11は、可視光画像と赤外画像との重複領域を決定する。以下に、図3を参照して可視光画像と赤外画像との重複領域Rについて説明する。
The
図3は、可視光画像と赤外画像との重複領域Rについて説明するための図である。第1撮影部2と第2撮影部3とは、例えば、互いに2cm程度離れて設置されているため、撮影する領域が若干異なる。図3において、可視光画像と赤外画像との重複領域Rは、太線で囲まれた枠内となる。
図3においては、重複領域Rに長方形31を付け加えた領域が第1撮影部2によって撮影された可視光画像であり、重複領域Rに長方形32を付け加えた領域が第2撮影部3によって撮影された赤外画像である。重複領域決定部11は、重複領域Rを決定した後、第1深度決定部12及び部分領域生成部13に通知する。以下に、図3を参照しながら第1深度決定部12が重複領域Rに含まれる画素の深度を決定する方法を説明する。
FIG. 3 is a diagram for explaining an overlapping region R between the visible light image and the infrared image. The
In FIG. 3, a region obtained by adding the
第1深度決定部12は、重複領域Rに含まれる画素の深度を決定する。図3において、重複領域Rの中央付近には被写体が写っている。可視光画像においては、被写体は中央より右寄りに位置し、赤外画像においては、被写体は中央より左寄りに位置する。第1深度決定部12は、第1撮影部2及び第2撮影部3の距離と、可視光画像及び赤外画像における被写体の位置のずれと、に基づいて重複領域Rに含まれる画素の深度を決定することができる。第1深度決定部12は、既知の技術を用いて重複領域Rに含まれる画素の深度を決定してもよい。なお、第1深度決定部12が重複領域Rの深度を決定する際は、例えば、重複領域Rを320ピクセル×240ピクセルの解像度に落としてもよい。これにより、第1深度決定部12は重複領域Rの深度の計算量を減らすことができる。
The first
部分領域生成部13は、赤外画像における上記重複領域Rから複数の部分領域を生成する。部分領域とは、画像処理装置Aが赤外画像のみから画素の深度を決定する際の処理の単位であり、例えば、上記重複領域Rに含まれる画素数が9×9の矩形領域である。部分領域生成部13は、1つの部分領域と別の1つの部分領域とが同一の画素を含むように複数の部分領域を生成してもよい。即ち、異なる2つの部分領域は、上記重複領域Rにおいて重なっていてもよい。こうすると、重複領域Rから生成しうる部分領域の数が増え、画像処理装置Aはより滑らかな深度マップを作成することができる。部分領域は、例えば、60000から70000程度生成し、生成した複数の部分領域から10000をランダムに注出する。
The partial
特徴量算出部14は、上記複数の部分領域の特徴量を算出する。部分領域の特徴量は、例えば、輝度情報及びエッジ情報等に基づいて既知の手法によって算出する。
The feature
クラスタリング部15は、上記複数の部分領域を複数のクラスタに分類する。具体的には、クラスタリング部15は、例えば、特徴量算出部14が算出した上記特徴量に更に基づいて複数の部分領域を複数のクラスタに分類する。以下に、図4を参照しながらクラスタリング部15が複数の部分領域を複数のクラスタに分類する方法について説明する。
The
図4は、特徴量空間におけるクラスタの分類について説明するための図である。図4においては、複数の部分領域R1、R2及びR3が、それぞれ、特徴量空間において複数のクラスタC1、C2及びC3に分類された様子が示されている。特徴量空間は、輝度の次元を表すI軸と、重複領域Rにおける部分領域の位置を示すp軸と、その他の特徴量の次元を表すf軸とを有する。特徴量空間は、輝度と中心座標も特徴量の一つである多次元空間である。また、重複領域Rにおける部分領域の位置とは、例えば、部分領域の中心に位置する画素の座標である。クラスタリング部15は、例えば、k−means法によって複数の部分領域をN個の複数のクラスタ(例えばN=32)に分類する。クラスタリング部15は、分類したクラスタの情報を記憶部9に記録する。クラスタリング部15は、例えば、特徴量空間におけるクラスタの重心座標を記憶部9に記録する。
FIG. 4 is a diagram for explaining cluster classification in the feature amount space. FIG. 4 shows a state in which a plurality of partial regions R1, R2, and R3 are classified into a plurality of clusters C1, C2, and C3 in the feature amount space, respectively. The feature amount space has an I axis that represents the luminance dimension, a p axis that represents the position of the partial region in the overlapping region R, and an f axis that represents the other feature amount dimension. The feature amount space is a multidimensional space in which luminance and center coordinates are also one of feature amounts. Moreover, the position of the partial area in the overlapping area R is, for example, the coordinates of the pixel located at the center of the partial area. For example, the
関数決定部16は、第1深度決定部12が決定した画素の深度に基づいて、上記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定する。以下に、図5を参照しながら関数決定部16が決定する関数について説明する。
Based on the pixel depth determined by the first
図5は、あるクラスタに含まれる部分領域に含まれる画素の輝度と深度とを示す点が複数プロットされた図である。図5に示されているとおり、画素の深度は、概ね輝度の平方根に反比例する。関数決定部16は、クラスタに属する部分領域に含まれる各画素の輝度と深度との統計情報に基づいて、例えば、回帰分析によって関数を決定する。関数決定部16は、決定した各クラスタの関数を記憶部9に記録する。
FIG. 5 is a diagram in which a plurality of points indicating the luminance and depth of pixels included in a partial region included in a certain cluster are plotted. As shown in FIG. 5, the depth of the pixel is approximately inversely proportional to the square root of the luminance. The
具体的には、画素の輝度Iと画素の深度dとの関係を示す関数は、例えば、未知の定数Acを用いてd=Ac/√Iと表せる。ここでAc(c=1,・・・,N)であり、クラスタ毎に定まる定数である。関数決定部16は、複数のクラスタそれぞれについて、最小二乗法に関する既知の反復解法を用いることによってAcを求める。これにより、関数決定部16は、クラスタ毎に画素の輝度Iと画素の深度dとの関係を示す関数を決定することができる。なお、画素の輝度Iと画素の深度dとの関係を示す関数の形は上記に限られない。この他にも、深度dを輝度Iの多項式で表したり、他の輝度Iに関する線形又は非線形の関数の組み合わせによって上記の関数を表現してもよい。
Specifically, a function indicating the relationship between the pixel luminance I and the pixel depth d can be expressed as d = Ac / √I using an unknown constant Ac, for example. Here, Ac (c = 1,..., N) is a constant determined for each cluster. The
部分領域決定部17は、第2撮影部3が撮影した赤外画像に含まれる各画素に対応する部分領域を決定する。部分領域決定部17は、例えば、赤外画像の各画素に当該画素を中心とする画素数9×9の矩形領域を部分領域として決定する。なお、画素数9×9の矩形領域が赤外画像において決定できない画素については、部分領域を決定する画素の対象としない。
The partial
クラスタ決定部18は、第2撮影部3が撮影した赤外画像から生成された部分領域が、クラスタリング部15が分類したどのクラスタに属するかを決定する。具体的には、クラスタ決定部18は、記憶部9に記録された特徴量空間における各クラスタの重心座標を取得し、部分領域がどのクラスタの座標と最も近いかを計算し、部分領域が属するクラスタを決定する。
The
第2深度決定部19は、記憶部9に記録された関数を用いて第2撮影部3が新たに撮影した赤外画像に含まれる画素の深度を決定する。具体的には、第2深度決定部19は、部分領域が属するクラスタに対応する関数を取得し、部分領域に含まれる画素の輝度情報から当該画素の深度を決定する。これにより、画像処理装置Aは少ない計算量で撮影画像に含まれる画素の深度を決定できる。
The second
[画像処理装置Aの処理フロー]
上で説明したとおり、画像処理装置Aは、赤外画像から生成される複数の部分領域を複数のクラスタに分類し、関数を決定した後は、以降に撮影される赤外画像に含まれる画素の深度を可視光画像とのパターンマッチングをすることなく決定することができる。画像処理装置Aは、例えば1秒間に10フレームの赤外画像を撮影し、1秒間は同一の関数を用いて、赤外画像に含まれる画素の深度を決定する。画像処理装置Aは、例えば、新しく撮影された可視光画像と赤外画像とを用いて、クラスタと関数とを1秒毎に更新する。以下に、図6を参照しながら、画像処理装置Aの処理フローについて説明する。
[Processing flow of image processing apparatus A]
As described above, the image processing apparatus A classifies the plurality of partial regions generated from the infrared image into a plurality of clusters, and after determining the function, the pixels included in the infrared image captured thereafter Can be determined without pattern matching with a visible light image. For example, the image processing apparatus A captures an infrared image of 10 frames per second, and determines the depth of pixels included in the infrared image using the same function for one second. For example, the image processing apparatus A updates a cluster and a function every second using a newly captured visible light image and infrared image. The processing flow of the image processing apparatus A will be described below with reference to FIG.
図6は、画像処理装置Aの処理のフローチャートである。先ず、第1撮影部2及び第2撮影部3が一対の視差画像を撮影するところから開始する(S601)。続いて、重複領域決定部11が視差画像の重複領域Rを決定する(S602)。続いて、第1深度決定部12が重複領域Rに含まれる画素の深度を決定する(S603)。続いて、部分領域生成部13が赤外画像の部分領域を生成する(S604)。続いて、特徴量算出部14が部分領域の特徴量を算出する(S605)。続いて、クラスタリング部15が、輝度及び深度を少なくとも含む特徴量に基づいて部分領域をクラスタに分類する(S606)。続いて、関数決定部16がクラスタ毎に輝度と深度との関数を決定する(S607)。
FIG. 6 is a flowchart of processing of the image processing apparatus A. First, the process starts from where the first photographing
続いて、第2撮影部3が再度赤外画像を撮影する(S608)。部分領域決定部17は赤外画像に含まれる画素毎に部分領域を決定し、クラスタ決定部18は当該部分領域が属するクラスタを決定する。画素が属するクラスタに対応する関数を決定した後、クラスタ決定部18は赤外画像の画素の輝度情報から当該画素の深度を決定する(S609)。クラスタ及び関数を再度学習する場合(S610においてYES)、即ち、可視光画像と赤外画像とからクラスタ及び関数の決定をする場合、S601に戻る。
Subsequently, the
クラスタ及び関数を再度学習しない場合(S610においてNO)、画像処理装置Aは処理を終了するかどうか決める(S611)。画像処理装置Aは処理を終了しない場合(S611においてNO)、S608に戻る。画像処理装置Aは、処理を終了する場合(S611においてYES)、処理を終了する。 When the cluster and the function are not learned again (NO in S610), the image processing apparatus A determines whether to end the process (S611). If the image processing apparatus A does not terminate the process (NO in S611), the process returns to S608. When the image processing apparatus A ends the process (YES in S611), the image processing apparatus A ends the process.
[画像処理装置Aが奏する効果]
上記のとおり、実施の形態に係る画像処理装置Aは、可視光画像と赤外画像との視差画像に基づいて、赤外画像に含まれる各画素の深度を決定する。画像処理装置Aは、赤外画像の部分領域を複数生成し、各部分領域を分類する複数のクラスタを決定する。画像処理装置Aは、各クラスタに輝度と深度とを対応付ける関数を決定する。画像処理装置Aは、赤外画像の各画素に部分領域を対応させ、当該部分領域が属するクラスタを決定することによって、画素の輝度情報から画素の深度を決定することができる。こうすることによって、画像処理装置Aは、赤外画像に含まれる画素の深度を、一対の視差画像を用いなくとも赤外画像のみで決定することができる。したがって、画像処理装置Aは少ない計算量で撮影画像に含まれる画素の深度を決定できるため、精度が高い深度マップを低いコストで素早く生成できる。
[Effects of image processing apparatus A]
As described above, the image processing apparatus A according to the embodiment determines the depth of each pixel included in the infrared image based on the parallax image between the visible light image and the infrared image. The image processing apparatus A generates a plurality of partial regions of the infrared image and determines a plurality of clusters for classifying each partial region. The image processing apparatus A determines a function that associates brightness and depth with each cluster. The image processing apparatus A can determine the pixel depth from the luminance information of the pixel by associating the partial region with each pixel of the infrared image and determining the cluster to which the partial region belongs. By doing so, the image processing apparatus A can determine the depth of the pixels included in the infrared image using only the infrared image without using a pair of parallax images. Accordingly, since the image processing apparatus A can determine the depth of the pixels included in the captured image with a small amount of calculation, a depth map with high accuracy can be quickly generated at a low cost.
[撮像装置1を複数備えるシステム]
上で説明したとおり、画像処理装置Aは、赤外光を照射することによって、撮影対象から反射される赤外光の輝度情報に基づいて撮影画像の深度を決定した。画像処理装置Aは、他の撮像装置1が投射する赤外光が対象に重なっている場合、そのことを前提に輝度と深度との関数を決定する。そのため、Structured−light法のような、何らかのパターンを対象に投射しパターンの変形から深度を計算する方法と異なり、画像処理装置Aを複数台同時に使用しても互いに干渉して機能しなくなるということがない。
[System provided with a plurality of imaging devices 1]
As described above, the image processing apparatus A determines the depth of the captured image based on the luminance information of the infrared light reflected from the imaging target by irradiating the infrared light. The image processing apparatus A determines a function of brightness and depth on the assumption that infrared light projected by another
上記の有利な効果により、画像処理装置Aを複数設置し、複数の画像処理装置Aの各々が計測した撮影対象の深度データに基づいて撮影対象を3次元構築するシステムを設計することができる。 Due to the above advantageous effects, it is possible to design a system in which a plurality of image processing apparatuses A are installed and a shooting target is three-dimensionally constructed based on the depth data of the shooting targets measured by each of the plurality of image processing apparatuses A.
図7は、撮像装置1を複数設置したシステムについて説明するための図である。システムは、画像処理装置Aが内蔵された撮像装置1を複数備え、対象Hを3つの異なる方向から撮影する。上記システムでは、例えば、対象Hである犬を、真上、正面及び背面から撮影する。
FIG. 7 is a diagram for explaining a system in which a plurality of
図7に示したシステムを利用すると、複数の撮像装置1で撮影範囲が重なった領域に関しては、深度データをより正確に計算することができる。また、対象Hの正面方向からの深度データと背面方向からの深度データとを合算することによって、対象Hの3次元データを得ることができる。
When the system shown in FIG. 7 is used, the depth data can be calculated more accurately with respect to the region where the imaging ranges overlap in the plurality of
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
A・・・画像処理装置
H・・・対象
R・・・重複領域
1・・・撮像装置
2・・・第1撮影部
3・・・第2撮影部
4・・・バンドパスフィルタ
5・・・マイク
6・・・スピーカ
7・・・スリット
8・・・赤外光照射部
9・・・記憶部
10・・・制御部
11・・・重複領域決定部
12・・・第1深度決定部
13・・・部分領域生成部
14・・・特徴量算出部
15・・・クラスタリング部
16・・・関数決定部
17・・・部分領域決定部
18・・・クラスタ決定部
19・・・第2深度決定部
A ... Image processing device H ... Target R ...
Claims (7)
前記第1撮影部が撮影する領域と重複する重複領域を含む赤外画像を撮影する第2撮影部と、
少なくとも前記重複領域を含む領域に赤外光を照射する赤外光照射部と、
前記重複領域に含まれる画素の深度を決定する第1深度決定部と、
前記赤外画像における前記重複領域から複数の部分領域を生成する部分領域生成部と、
前記複数の部分領域を複数のクラスタに分類するクラスタリング部と、
前記第1深度決定部が決定した画素の深度に基づいて、前記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定する関数決定部と、
前記関数を用いて前記第2撮影部が新たに撮影した赤外画像が含む画素の深度を決定する第2深度決定部と、
を備える画像処理装置。 A first photographing unit for photographing an image;
A second imaging unit that captures an infrared image including an overlapping area that overlaps an area captured by the first imaging unit;
An infrared light irradiation unit that irradiates infrared light to a region including at least the overlapping region;
A first depth determination unit that determines the depth of pixels included in the overlapping region;
A partial region generation unit that generates a plurality of partial regions from the overlapping region in the infrared image;
A clustering unit for classifying the plurality of partial regions into a plurality of clusters;
A function determining unit that determines a function representing a relationship between a luminance and a depth of a pixel for each of the plurality of clusters based on the depth of the pixel determined by the first depth determining unit;
A second depth determination unit that determines a depth of a pixel included in an infrared image newly captured by the second imaging unit using the function;
An image processing apparatus comprising:
前記クラスタリング部は、前記特徴量に更に基づいて前記複数の部分領域を前記複数のクラスタに分類する、
請求項1に記載の画像処理装置。 A feature amount calculating unit for calculating the feature amounts of the plurality of partial areas;
The clustering unit further classifies the plurality of partial regions into the plurality of clusters based on the feature amount;
The image processing apparatus according to claim 1.
前記第2深度決定部は、前記関数決定部が前記関数を更新した場合、更新された新しい関数を用いて前記第2撮影部が撮影した赤外画像が含む画素の深度を決定する、
請求項1又は2に記載の画像処理装置。 The function determination unit updates the function,
The second depth determination unit determines a depth of a pixel included in an infrared image captured by the second imaging unit using the updated new function when the function determination unit updates the function.
The image processing apparatus according to claim 1.
請求項1乃至3の何れか1項に記載の画像処理装置。 The partial region generation unit generates the plurality of partial regions so that one partial region and another partial region include the same pixel.
The image processing apparatus according to claim 1.
前記撮影する領域と重複する重複領域を含む赤外画像を撮影するステップと、
少なくとも前記重複領域を含む領域に赤外光を照射するステップと、
前記重複領域に含まれる画素の深度を決定するステップと、
前記赤外画像における前記重複領域から複数の部分領域を生成するステップと、
前記複数の部分領域の各々に含まれる前記画素の深度と輝度とに少なくとも基づいて、前記複数の部分領域を複数のクラスタに分類するステップと、
前記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定するステップと、
前記関数を用いて前記赤外画像が含む画素の深度を決定するステップと、
を備える画像処理方法。 Taking a picture, and
Photographing an infrared image including an overlapping region overlapping the region to be photographed;
Irradiating the region including at least the overlapping region with infrared light;
Determining the depth of pixels included in the overlap region;
Generating a plurality of partial regions from the overlapping region in the infrared image;
Classifying the plurality of partial regions into a plurality of clusters based at least on the depth and brightness of the pixels included in each of the plurality of partial regions;
Determining a function representing a relationship between pixel brightness and depth for each of the plurality of clusters;
Determining the depth of pixels that the infrared image comprises using the function;
An image processing method comprising:
前記撮影する領域と重複する重複領域を含む赤外画像を撮影するステップと、
少なくとも前記重複領域を含む領域に赤外光を照射するステップと、
前記重複領域に含まれる画素の深度を決定するステップと、
前記赤外画像における前記重複領域から複数の部分領域を生成するステップと、
前記複数の部分領域の各々に含まれる前記画素の深度と輝度とに少なくとも基づいて、前記複数の部分領域を複数のクラスタに分類するステップと、
前記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定するステップと、
前記関数を用いて前記赤外画像が含む画素の深度を決定するステップと、
を含むコンピュータが実行するプログラム。 Taking a picture, and
Photographing an infrared image including an overlapping region overlapping the region to be photographed;
Irradiating the region including at least the overlapping region with infrared light;
Determining the depth of pixels included in the overlap region;
Generating a plurality of partial regions from the overlapping region in the infrared image;
Classifying the plurality of partial regions into a plurality of clusters based at least on the depth and brightness of the pixels included in each of the plurality of partial regions;
Determining a function representing a relationship between pixel brightness and depth for each of the plurality of clusters;
Determining the depth of pixels that the infrared image comprises using the function;
A program executed by a computer including
A system in which a plurality of image processing apparatuses according to any one of claims 1 to 4 are installed, and the imaging target is three-dimensionally constructed based on depth data of the imaging target measured by each of the image processing apparatuses.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016135671A JP6216842B1 (en) | 2016-07-08 | 2016-07-08 | Image processing apparatus, image processing method, program, and system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016135671A JP6216842B1 (en) | 2016-07-08 | 2016-07-08 | Image processing apparatus, image processing method, program, and system |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017183467A Division JP2018007274A (en) | 2017-09-25 | 2017-09-25 | Image processing device, image processing method, program and system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP6216842B1 JP6216842B1 (en) | 2017-10-18 |
| JP2018004581A true JP2018004581A (en) | 2018-01-11 |
Family
ID=60096163
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016135671A Active JP6216842B1 (en) | 2016-07-08 | 2016-07-08 | Image processing apparatus, image processing method, program, and system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6216842B1 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102457891B1 (en) * | 2017-10-30 | 2022-10-25 | 삼성전자주식회사 | Method and apparatus for image processing |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000029110A (en) * | 1998-07-08 | 2000-01-28 | Olympus Optical Co Ltd | Camera |
| JP2013024653A (en) * | 2011-07-19 | 2013-02-04 | Toyota Central R&D Labs Inc | Distance measuring apparatus and program |
| US20150248764A1 (en) * | 2014-02-28 | 2015-09-03 | Microsoft Corporation | Depth sensing using an infrared camera |
| JP2016065718A (en) * | 2013-02-08 | 2016-04-28 | 三洋電機株式会社 | Information acquisition device and object detection device |
-
2016
- 2016-07-08 JP JP2016135671A patent/JP6216842B1/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000029110A (en) * | 1998-07-08 | 2000-01-28 | Olympus Optical Co Ltd | Camera |
| JP2013024653A (en) * | 2011-07-19 | 2013-02-04 | Toyota Central R&D Labs Inc | Distance measuring apparatus and program |
| JP2016065718A (en) * | 2013-02-08 | 2016-04-28 | 三洋電機株式会社 | Information acquisition device and object detection device |
| US20150248764A1 (en) * | 2014-02-28 | 2015-09-03 | Microsoft Corporation | Depth sensing using an infrared camera |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6216842B1 (en) | 2017-10-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN106256122B (en) | Image processing equipment and image processing method | |
| US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
| EP2869263A1 (en) | Method and apparatus for generating depth map of a scene | |
| TWI716874B (en) | Image processing apparatus, image processing method, and image processing program | |
| JP2008537190A (en) | Generation of three-dimensional image of object by irradiating with infrared pattern | |
| CN107577058A (en) | Image display device | |
| JP7479729B2 (en) | Three-dimensional representation method and device | |
| WO2019082797A1 (en) | Reconfiguration method and reconfiguration device | |
| JP6541920B1 (en) | INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD | |
| CN111028341B (en) | A three-dimensional model generation method | |
| CN113424194B (en) | Detecting projected infrared patterns using Gaussian difference and blob detection | |
| WO2018028152A1 (en) | Image acquisition device and virtual reality device | |
| JP6674643B2 (en) | Image processing apparatus and image processing method | |
| JP2015104107A (en) | Ip stereoscopic video estimation device and program therefor | |
| WO2016175043A1 (en) | Image processing device and image processing method | |
| CN111489384A (en) | Occlusion assessment method, device, equipment, system and medium based on mutual view | |
| WO2023135891A1 (en) | Calculation method and calculation device | |
| JP6285686B2 (en) | Parallax image generation device | |
| JP2020004219A5 (en) | ||
| CN107534730B (en) | Image processing apparatus and image processing method | |
| JP6216842B1 (en) | Image processing apparatus, image processing method, program, and system | |
| Tamboli et al. | A high-angular-resolution turntable data-set for experiments on light field visualization quality | |
| CN110632769B (en) | A light spot projection device | |
| JP2018007274A (en) | Image processing device, image processing method, program and system | |
| JP2017073710A (en) | Element image group generation device and program therefor |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170724 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170905 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170925 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6216842 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |