[go: up one dir, main page]

JP2018004581A - Image processing device, image processing method, program and system - Google Patents

Image processing device, image processing method, program and system Download PDF

Info

Publication number
JP2018004581A
JP2018004581A JP2016135671A JP2016135671A JP2018004581A JP 2018004581 A JP2018004581 A JP 2018004581A JP 2016135671 A JP2016135671 A JP 2016135671A JP 2016135671 A JP2016135671 A JP 2016135671A JP 2018004581 A JP2018004581 A JP 2018004581A
Authority
JP
Japan
Prior art keywords
depth
unit
region
image
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016135671A
Other languages
Japanese (ja)
Other versions
JP6216842B1 (en
Inventor
晃一 中村
Koichi Nakamura
晃一 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idein Inc
Original Assignee
Idein Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Idein Inc filed Critical Idein Inc
Priority to JP2016135671A priority Critical patent/JP6216842B1/en
Application granted granted Critical
Publication of JP6216842B1 publication Critical patent/JP6216842B1/en
Publication of JP2018004581A publication Critical patent/JP2018004581A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮影画像に含まれる画素の深度を、計算量を抑えて精度よく計算することができる画像処理装置等を提供する。【解決手段】画像処理装置Aは可視光画像を撮影する第1撮影部2と、可視光画像と重複する領域を含む赤外画像を撮影する第2撮影部3及び赤外光照射部8を備える。第1深度決定部12は重複領域に含まれる画素の深度を決定する。部分領域生成部13は赤外画像における重複領域から複数の部分領域を生成する。クラスタリング部15は複数の部分領域を複数のクラスタに分類する。関数決定部16は第1深度決定部が決定した画素の深度に基づいて、複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定する。第2深度決定部19は関数決定部が決定した関数を用いて第2撮影部が新たに撮影した赤外画像が含む画素の深度を決定する。【選択図】図2An image processing apparatus and the like capable of accurately calculating the depth of pixels included in a captured image with a reduced amount of calculation. An image processing apparatus (A) includes a first imaging unit (2) that captures a visible light image, a second imaging unit (3) that captures an infrared image including a region overlapping the visible light image, and an infrared light irradiation unit (8). Prepare. A first depth determination unit 12 determines the depth of pixels included in the overlap region. A partial region generation unit 13 generates a plurality of partial regions from overlapping regions in the infrared image. A clustering unit 15 classifies a plurality of partial regions into a plurality of clusters. The function determining unit 16 determines a function representing the relationship between pixel brightness and depth for each of the plurality of clusters, based on the pixel depth determined by the first depth determining unit. The second depth determination unit 19 uses the function determined by the function determination unit to determine the depth of pixels included in the infrared image newly captured by the second imaging unit. [Selection drawing] Fig. 2

Description

本発明は、撮影画像の深度を決定する画像処理装置、画像処理方法、プログラム及びシステムに関する。   The present invention relates to an image processing apparatus, an image processing method, a program, and a system that determine the depth of a captured image.

従来、ステレオカメラを用いて撮影対象を撮影することによって視差画像を生成し、奥行きを感じさせる立体画像を表示する技術が知られている。特許文献1には、異なる周波数の光を物体に3つの方向から照射し、三次元物体の深度マップを生成する技術が開示されている。   2. Description of the Related Art Conventionally, a technique for generating a parallax image by photographing a subject to be photographed using a stereo camera and displaying a stereoscopic image that gives a feeling of depth is known. Patent Document 1 discloses a technique for generating a depth map of a three-dimensional object by irradiating an object with light of different frequencies from three directions.

特開2009−81853号公報JP 2009-81853 A

ところで、撮影した視差画像に基づいて撮影画像の深度を精度良く計算する場合、大きな計算能力を要する。そのため、視差画像に基づいて撮影動画の深度を精度良く計算するには、高性能なプロセッサが必要であり多大な費用がかかるという問題が生じていた。   By the way, when calculating the depth of a captured image with high accuracy based on a captured parallax image, a large calculation capability is required. Therefore, in order to accurately calculate the depth of the captured moving image based on the parallax image, there is a problem that a high-performance processor is necessary and a great deal of cost is required.

そこで、本発明はこれらの点に鑑みてなされたものであり、撮影画像に含まれる画素の深度を、計算量を抑えて精度よく計算することを目的とする。   Therefore, the present invention has been made in view of these points, and an object of the present invention is to accurately calculate the depth of pixels included in a captured image while suppressing the amount of calculation.

本発明の第1の態様においては、画像を撮影する第1撮影部と、前記第1撮影部が撮影する領域と重複する重複領域を含む赤外画像を撮影する第2撮影部と、少なくとも前記重複領域を含む領域に赤外光を照射する赤外光照射部と、前記重複領域に含まれる画素の深度を決定する第1深度決定部と、前記赤外画像における前記重複領域から複数の部分領域を生成する部分領域生成部と、前記複数の部分領域を複数のクラスタに分類するクラスタリング部と、前記第1深度決定部が決定した画素の深度に基づいて、前記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定する関数決定部と、前記関数を用いて前記第2撮影部が新たに撮影した赤外画像が含む画素の深度を決定する第2深度決定部と、を備える画像処理装置を提供する。   In the first aspect of the present invention, a first imaging unit that captures an image, a second imaging unit that captures an infrared image including an overlapping area that overlaps an area captured by the first imaging unit, and at least the An infrared light irradiating unit that irradiates an area including an overlapping region with infrared light, a first depth determining unit that determines a depth of a pixel included in the overlapping region, and a plurality of portions from the overlapping region in the infrared image A pixel for each of the plurality of clusters based on the depth of the pixels determined by the partial region generation unit that generates a region, a clustering unit that classifies the plurality of partial regions into a plurality of clusters, and the first depth determination unit A function determining unit that determines a function representing the relationship between the brightness and the depth of the image, and a second depth determining unit that determines the depth of a pixel included in the infrared image newly captured by the second imaging unit using the function; An image processing device comprising To provide.

前記複数の部分領域の特徴量を算出する特徴量算出部を更に備え、前記クラスタリング部は、前記特徴量に更に基づいて前記複数の部分領域を前記複数のクラスタに分類してもよい。   The image processing apparatus may further include a feature amount calculation unit that calculates feature amounts of the plurality of partial regions, and the clustering unit may further classify the plurality of partial regions into the plurality of clusters based on the feature amount.

前記関数決定部は前記関数を更新し、前記第2深度決定部は、前記関数決定部が前記関数を更新した場合、更新された新しい関数を用いて前記第2撮影部が撮影した赤外画像が含む画素の深度を決定してもよい。   The function determining unit updates the function, and the second depth determining unit, when the function determining unit updates the function, an infrared image captured by the second imaging unit using the updated new function. You may determine the depth of the pixel which contains.

前記部分領域生成部は、1つの部分領域と別の1つの部分領域とが同一の画素を含むように前記複数の部分領域を生成してもよい。   The partial region generation unit may generate the plurality of partial regions so that one partial region and another partial region include the same pixel.

本発明の第2の態様においては、画像を撮影するステップと、前記撮影する領域と重複する重複領域を含む赤外画像を撮影するステップと、少なくとも前記重複領域を含む領域に赤外光を照射するステップと、前記重複領域に含まれる画素の深度を決定するステップと、前記赤外画像における前記重複領域から複数の部分領域を生成するステップと、前記複数の部分領域の各々に含まれる前記画素の深度と輝度とに少なくとも基づいて、前記複数の部分領域を複数のクラスタに分類するステップと、前記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定するステップと、前記関数を用いて前記赤外画像が含む画素の深度を決定するステップと、を備える画像処理方法を提供する。   In the second aspect of the present invention, the step of capturing an image, the step of capturing an infrared image including an overlapping region that overlaps the region to be captured, and irradiating at least the region including the overlapping region with infrared light Determining a depth of pixels included in the overlapping region; generating a plurality of partial regions from the overlapping region in the infrared image; and the pixels included in each of the plurality of partial regions Classifying the plurality of partial regions into a plurality of clusters based on at least the depth and the luminance of the plurality of clusters, determining a function representing a relationship between the luminance and the depth of a pixel for each of the plurality of clusters, Determining a depth of a pixel included in the infrared image using a function, and providing an image processing method.

本発明の第3の態様においては、画像を撮影するステップと、前記撮影する領域と重複する重複領域を含む赤外画像を撮影するステップと、少なくとも前記重複領域を含む領域に赤外光を照射するステップと、前記重複領域に含まれる画素の深度を決定するステップと、前記赤外画像における前記重複領域から複数の部分領域を生成するステップと、前記複数の部分領域の各々に含まれる前記画素の深度と輝度とに少なくとも基づいて、前記複数の部分領域を複数のクラスタに分類するステップと、前記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定するステップと、前記関数を用いて前記赤外画像が含む画素の深度を決定するステップと、を含むコンピュータが実行するプログラムを提供する。   In the third aspect of the present invention, the step of capturing an image, the step of capturing an infrared image including an overlapping region that overlaps the region to be captured, and irradiating at least the region including the overlapping region with infrared light Determining a depth of pixels included in the overlapping region; generating a plurality of partial regions from the overlapping region in the infrared image; and the pixels included in each of the plurality of partial regions Classifying the plurality of partial regions into a plurality of clusters based on at least the depth and the luminance of the plurality of clusters, determining a function representing a relationship between the luminance and the depth of a pixel for each of the plurality of clusters, Determining a depth of a pixel included in the infrared image using a function, and providing a program executed by the computer.

本発明の第4の態様においては、前記画像処理装置を複数設置し、前記画像処理装置の各々が計測した撮影対象の深度データに基づいて前記撮影対象を3次元構築するシステムを提供する。   In a fourth aspect of the present invention, there is provided a system in which a plurality of the image processing devices are installed, and the shooting target is three-dimensionally constructed based on the shooting target depth data measured by each of the image processing devices.

本発明によれば、撮影画像に含まれる画素の深度を、計算量を抑えて精度よく計算することができるという効果を奏する。   According to the present invention, there is an effect that the depth of pixels included in a captured image can be accurately calculated with a reduced calculation amount.

実施の形態に係る画像処理装置を備える撮像装置の正面図である。It is a front view of an imaging device provided with the image processing device concerning an embodiment. 実施の形態に係る画像処理装置の構成を示す図である。It is a figure which shows the structure of the image processing apparatus which concerns on embodiment. 可視光画像と赤外画像との重複領域について説明するための図である。It is a figure for demonstrating the overlapping area | region of a visible light image and an infrared image. 特徴量空間におけるクラスタの分類について説明するための図である。It is a figure for demonstrating classification | category of the cluster in feature-value space. 部分領域に含まれる画素の輝度と深度とを示す点が複数プロットされた図である。It is the figure by which the point which shows the brightness | luminance and the depth of the pixel contained in a partial area was plotted in multiple numbers. 画像処理装置の処理のフローチャートである。It is a flowchart of a process of an image processing apparatus. 撮像装置を複数設置したシステムについて説明するための図である。It is a figure for demonstrating the system which installed multiple imaging devices.

[概要]
従来、ステレオカメラで画像を撮影し、視差画像に基づいて撮影画像の各画素の深度を決定する技術がある。視差画像に基づいて撮影画像の各画素の深度を決定する場合、視差を求めるために2枚の画像において重複して写っている対象のパターンマッチングを行う。そのため、リアルタイムで撮影動画の深度を精度良く計算するには、高い計算能力を必要とする。
[Overview]
Conventionally, there is a technique for capturing an image with a stereo camera and determining the depth of each pixel of the captured image based on a parallax image. When determining the depth of each pixel of the captured image based on the parallax image, pattern matching is performed on the objects that are duplicated in the two images in order to obtain the parallax. Therefore, in order to accurately calculate the depth of the captured moving image in real time, high calculation capability is required.

実施の形態に係る画像処理装置は、可視光カメラと赤外線カメラとで撮影対象を撮影する。画像処理装置は、撮影して得られた視差画像に基づいて赤外画像の各画素の深度を決定する。画像処理装置は、各画素の深度が決定された赤外画像を複数の部分領域に分割し、当該複数の分割領域をクラスタリングする。画像処理装置は、複数のクラスタの各々について赤外画像に含まれる画素の輝度と深度との関係を表す関数を決定することによって、以降に撮影される撮影画像については、赤外画像のみから画素の深度を決定する。画像処理装置は、例えば、1秒間に撮影する赤外画像の10フレームの内、始めの1フレームのみ可視光画像を利用して深度マップを生成し、残りの9フレームについては、決定済みの関数を利用して深度マップを生成する。   The image processing apparatus according to the embodiment photographs an object to be photographed with a visible light camera and an infrared camera. The image processing apparatus determines the depth of each pixel of the infrared image based on the parallax image obtained by photographing. The image processing apparatus divides an infrared image in which the depth of each pixel is determined into a plurality of partial areas, and clusters the plurality of divided areas. The image processing apparatus determines a function representing the relationship between the luminance and depth of the pixels included in the infrared image for each of the plurality of clusters, so that the captured image captured thereafter is a pixel from only the infrared image. Determine the depth of the. For example, the image processing apparatus generates a depth map by using a visible light image for only the first frame out of 10 frames of an infrared image captured in one second, and has determined functions for the remaining nine frames. Generate a depth map using.

上記のとおり、実施の形態に係る画像処理装置では、可視光画像と赤外画像とのパターンマッチングをする作業を大幅に減少することができるため、高い計算能力を必要とせずに、例えば、動画像の深度マップを生成することができる。以下に、図面を参照しながら実施の形態に係る画像処理装置について説明する。   As described above, the image processing apparatus according to the embodiment can significantly reduce the work of pattern matching between a visible light image and an infrared image, and therefore, for example, a moving image without requiring high calculation capability. An image depth map can be generated. Hereinafter, an image processing apparatus according to an embodiment will be described with reference to the drawings.

[撮像装置の構成]
図1は、実施の形態に係る画像処理装置を備える撮像装置1の正面図である。撮像装置1の正面には、第1撮影部2、第2撮影部3、バンドパスフィルタ4、マイク5、スピーカ6、スリット7及び赤外光照射部8が配置されている。第1撮影部2は、例えば、可視光カメラである。第2撮影部3は、例えば、赤外線カメラである。赤外光照射部8は、例えば、スリット7内に平行に設けられ、撮影対象に赤外光がなるべく平行に照射されるように第2撮影部3のすぐ横に配置されている。バンドパスフィルタ4は、第2撮影部3のレンズと重なるように設けられ、例えば、波長940nm付近の赤外光のみを通過させる。第2撮影部3は、撮影対象の赤外画像を撮影する際は、赤外光照射部8を発光させ撮影対象に赤外光を照射させる。また、第2撮影部3が撮影する赤外画像の画素数は、例えば、500万画素程度である。
[Configuration of imaging device]
FIG. 1 is a front view of an imaging apparatus 1 including an image processing apparatus according to an embodiment. On the front surface of the imaging apparatus 1, a first photographing unit 2, a second photographing unit 3, a bandpass filter 4, a microphone 5, a speaker 6, a slit 7, and an infrared light irradiation unit 8 are arranged. The first imaging unit 2 is, for example, a visible light camera. The second photographing unit 3 is, for example, an infrared camera. For example, the infrared light irradiation unit 8 is provided in parallel in the slit 7, and is disposed immediately next to the second imaging unit 3 so that infrared light is irradiated onto the imaging target in parallel as much as possible. The band-pass filter 4 is provided so as to overlap with the lens of the second imaging unit 3 and, for example, allows only infrared light having a wavelength near 940 nm to pass therethrough. The second imaging unit 3 emits the infrared light irradiation unit 8 to irradiate the imaging target with infrared light when capturing an infrared image of the imaging target. Further, the number of pixels of the infrared image captured by the second imaging unit 3 is, for example, about 5 million pixels.

撮像装置1の正面に配置された上記各モジュールは、画像処理装置が有する制御部によって制御される。撮像装置1は、マイク5を用いて録音することができる。また、撮像装置1は、スピーカ6を用いて音を出力することができる。また、撮像装置1は、第1撮影部2と第2撮影部3とを同期して撮影対象を撮影することができる。例えば、撮像装置1は、図示した正面の反対側がプラグ形状であり、天井に配置された電球のソケットに差込んで使用することができる。撮像装置1は、例えばRaspberry Pi(登録商標)等のコンピュータを用いて実現される。以下に、図2を参照しながら画像処理装置の構成について説明する。   Each of the modules arranged in front of the imaging apparatus 1 is controlled by a control unit included in the image processing apparatus. The imaging device 1 can record using the microphone 5. Further, the imaging device 1 can output sound using the speaker 6. In addition, the imaging apparatus 1 can capture an image of an imaging target by synchronizing the first imaging unit 2 and the second imaging unit 3. For example, the imaging device 1 has a plug shape on the opposite side of the illustrated front, and can be used by being inserted into a socket of a light bulb arranged on the ceiling. The imaging device 1 is realized using a computer such as Raspberry Pi (registered trademark). The configuration of the image processing apparatus will be described below with reference to FIG.

[画像処理装置の構成]
図2は、実施の形態に係る画像処理装置Aの構成を示す図である。画像処理装置Aは、記憶部9、制御部10、第1撮影部2、第2撮影部3及び赤外光照射部8を備える。図2は、実施の形態に係る画像処理装置Aを実現するための機能構成を示しており、他の構成は省略している。図2の各部は、ハードウェア的には撮像装置1のCPU(Central Processing Unit)、メインメモリ、その他のLSI(Large Scale Integration)で構成することができる。また、ソフトウェア的には、撮像装置1のメインメモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、又はそれらの組み合わせによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
[Configuration of image processing apparatus]
FIG. 2 is a diagram illustrating a configuration of the image processing apparatus A according to the embodiment. The image processing apparatus A includes a storage unit 9, a control unit 10, a first imaging unit 2, a second imaging unit 3, and an infrared light irradiation unit 8. FIG. 2 shows a functional configuration for realizing the image processing apparatus A according to the embodiment, and other configurations are omitted. Each part of FIG. 2 can be configured by a CPU (Central Processing Unit), a main memory, and other LSI (Large Scale Integration) of the imaging apparatus 1 in hardware. The software is realized by a program loaded in the main memory of the imaging apparatus 1. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

記憶部9は、例えば、制御部10が実行するプログラムが記録されたROM(Read Only Memory)と一時的にデータを保存するRAM(Random Access Memory)とを備える。RAMには、第1撮影部2が撮影した可視光画像と第2撮影部3が撮影した赤外画像とが記録される。また、RAMには、可視光画像と赤外画像とに基づいて決定される深度マップが記録される。深度マップとは、可視光画像と赤外画像との重複領域の各画素と深度との対応が記録されたデータのことを称する。また、RAMには、赤外画像を部分領域に分割した際の、各部分領域に関する特徴量が記録される。RAMには、上記部分領域を分類するクラスタが記録される。RAMには、クラスタ毎に決定される輝度と深度との関数が記録される。   The storage unit 9 includes, for example, a ROM (Read Only Memory) in which a program executed by the control unit 10 is recorded and a RAM (Random Access Memory) that temporarily stores data. The visible light image photographed by the first photographing unit 2 and the infrared image photographed by the second photographing unit 3 are recorded in the RAM. In addition, a depth map determined based on the visible light image and the infrared image is recorded in the RAM. The depth map refers to data in which the correspondence between each pixel and the depth of the overlapping region between the visible light image and the infrared image is recorded. In addition, the RAM stores a feature amount related to each partial area when the infrared image is divided into partial areas. In the RAM, clusters for classifying the partial areas are recorded. A function of brightness and depth determined for each cluster is recorded in the RAM.

制御部10は、記憶部9に記録されたプログラムを実行することによって、重複領域決定部11、第1深度決定部12、部分領域生成部13、特徴量算出部14、クラスタリング部15、関数決定部16、部分領域決定部17、クラスタ決定部18及び第2深度決定部19としても機能する。また、制御部10は、第1撮影部2及び第2撮影部3を制御して撮影対象の可視光画像及び赤外画像を撮影する。制御部10は、例えば、第1撮影部2と第2撮影部3とを同期させて撮影し、撮影対象の視差画像を記憶部9に記録する。重複領域決定部11は、可視光画像と赤外画像との重複領域を決定する。以下に、図3を参照して可視光画像と赤外画像との重複領域Rについて説明する。   The control unit 10 executes the program recorded in the storage unit 9 to thereby perform an overlapping region determination unit 11, a first depth determination unit 12, a partial region generation unit 13, a feature amount calculation unit 14, a clustering unit 15, and a function determination. It also functions as the unit 16, the partial region determination unit 17, the cluster determination unit 18, and the second depth determination unit 19. Further, the control unit 10 controls the first photographing unit 2 and the second photographing unit 3 to photograph a visible light image and an infrared image to be photographed. For example, the control unit 10 shoots the first photographing unit 2 and the second photographing unit 3 in synchronization, and records a parallax image to be photographed in the storage unit 9. The overlapping area determination unit 11 determines an overlapping area between the visible light image and the infrared image. Hereinafter, the overlapping region R between the visible light image and the infrared image will be described with reference to FIG.

図3は、可視光画像と赤外画像との重複領域Rについて説明するための図である。第1撮影部2と第2撮影部3とは、例えば、互いに2cm程度離れて設置されているため、撮影する領域が若干異なる。図3において、可視光画像と赤外画像との重複領域Rは、太線で囲まれた枠内となる。
図3においては、重複領域Rに長方形31を付け加えた領域が第1撮影部2によって撮影された可視光画像であり、重複領域Rに長方形32を付け加えた領域が第2撮影部3によって撮影された赤外画像である。重複領域決定部11は、重複領域Rを決定した後、第1深度決定部12及び部分領域生成部13に通知する。以下に、図3を参照しながら第1深度決定部12が重複領域Rに含まれる画素の深度を決定する方法を説明する。
FIG. 3 is a diagram for explaining an overlapping region R between the visible light image and the infrared image. The first imaging unit 2 and the second imaging unit 3 are installed, for example, at a distance of about 2 cm from each other. In FIG. 3, an overlapping region R between the visible light image and the infrared image is within a frame surrounded by a thick line.
In FIG. 3, a region obtained by adding the rectangle 31 to the overlapping region R is a visible light image photographed by the first photographing unit 2, and a region obtained by adding the rectangle 32 to the overlapping region R is photographed by the second photographing unit 3. Infrared image. After determining the overlapping region R, the overlapping region determining unit 11 notifies the first depth determining unit 12 and the partial region generating unit 13. Hereinafter, a method in which the first depth determination unit 12 determines the depth of the pixels included in the overlapping region R will be described with reference to FIG.

第1深度決定部12は、重複領域Rに含まれる画素の深度を決定する。図3において、重複領域Rの中央付近には被写体が写っている。可視光画像においては、被写体は中央より右寄りに位置し、赤外画像においては、被写体は中央より左寄りに位置する。第1深度決定部12は、第1撮影部2及び第2撮影部3の距離と、可視光画像及び赤外画像における被写体の位置のずれと、に基づいて重複領域Rに含まれる画素の深度を決定することができる。第1深度決定部12は、既知の技術を用いて重複領域Rに含まれる画素の深度を決定してもよい。なお、第1深度決定部12が重複領域Rの深度を決定する際は、例えば、重複領域Rを320ピクセル×240ピクセルの解像度に落としてもよい。これにより、第1深度決定部12は重複領域Rの深度の計算量を減らすことができる。   The first depth determination unit 12 determines the depth of the pixels included in the overlapping region R. In FIG. 3, the subject is shown near the center of the overlapping region R. In the visible light image, the subject is located to the right of the center, and in the infrared image, the subject is located to the left of the center. The first depth determination unit 12 determines the depth of the pixels included in the overlapping region R based on the distance between the first imaging unit 2 and the second imaging unit 3 and the displacement of the subject position in the visible light image and the infrared image. Can be determined. The 1st depth determination part 12 may determine the depth of the pixel contained in the duplication area | region R using a known technique. When the first depth determination unit 12 determines the depth of the overlapping region R, for example, the overlapping region R may be reduced to a resolution of 320 pixels × 240 pixels. Thereby, the first depth determination unit 12 can reduce the amount of calculation of the depth of the overlapping region R.

部分領域生成部13は、赤外画像における上記重複領域Rから複数の部分領域を生成する。部分領域とは、画像処理装置Aが赤外画像のみから画素の深度を決定する際の処理の単位であり、例えば、上記重複領域Rに含まれる画素数が9×9の矩形領域である。部分領域生成部13は、1つの部分領域と別の1つの部分領域とが同一の画素を含むように複数の部分領域を生成してもよい。即ち、異なる2つの部分領域は、上記重複領域Rにおいて重なっていてもよい。こうすると、重複領域Rから生成しうる部分領域の数が増え、画像処理装置Aはより滑らかな深度マップを作成することができる。部分領域は、例えば、60000から70000程度生成し、生成した複数の部分領域から10000をランダムに注出する。   The partial region generation unit 13 generates a plurality of partial regions from the overlapping region R in the infrared image. The partial area is a unit of processing when the image processing apparatus A determines the pixel depth from only the infrared image, and is, for example, a rectangular area having 9 × 9 pixels included in the overlapping area R. The partial region generation unit 13 may generate a plurality of partial regions so that one partial region and another partial region include the same pixel. That is, two different partial regions may overlap in the overlapping region R. This increases the number of partial areas that can be generated from the overlapping area R, and the image processing apparatus A can create a smoother depth map. For example, about 60000 to 70000 are generated as the partial areas, and 10000 is randomly extracted from the generated partial areas.

特徴量算出部14は、上記複数の部分領域の特徴量を算出する。部分領域の特徴量は、例えば、輝度情報及びエッジ情報等に基づいて既知の手法によって算出する。   The feature amount calculation unit 14 calculates feature amounts of the plurality of partial areas. The feature amount of the partial area is calculated by a known method based on, for example, luminance information and edge information.

クラスタリング部15は、上記複数の部分領域を複数のクラスタに分類する。具体的には、クラスタリング部15は、例えば、特徴量算出部14が算出した上記特徴量に更に基づいて複数の部分領域を複数のクラスタに分類する。以下に、図4を参照しながらクラスタリング部15が複数の部分領域を複数のクラスタに分類する方法について説明する。   The clustering unit 15 classifies the plurality of partial areas into a plurality of clusters. Specifically, the clustering unit 15 classifies the plurality of partial areas into a plurality of clusters based on the feature amount calculated by the feature amount calculation unit 14, for example. Hereinafter, a method in which the clustering unit 15 classifies a plurality of partial areas into a plurality of clusters will be described with reference to FIG.

図4は、特徴量空間におけるクラスタの分類について説明するための図である。図4においては、複数の部分領域R1、R2及びR3が、それぞれ、特徴量空間において複数のクラスタC1、C2及びC3に分類された様子が示されている。特徴量空間は、輝度の次元を表すI軸と、重複領域Rにおける部分領域の位置を示すp軸と、その他の特徴量の次元を表すf軸とを有する。特徴量空間は、輝度と中心座標も特徴量の一つである多次元空間である。また、重複領域Rにおける部分領域の位置とは、例えば、部分領域の中心に位置する画素の座標である。クラスタリング部15は、例えば、k−means法によって複数の部分領域をN個の複数のクラスタ(例えばN=32)に分類する。クラスタリング部15は、分類したクラスタの情報を記憶部9に記録する。クラスタリング部15は、例えば、特徴量空間におけるクラスタの重心座標を記憶部9に記録する。   FIG. 4 is a diagram for explaining cluster classification in the feature amount space. FIG. 4 shows a state in which a plurality of partial regions R1, R2, and R3 are classified into a plurality of clusters C1, C2, and C3 in the feature amount space, respectively. The feature amount space has an I axis that represents the luminance dimension, a p axis that represents the position of the partial region in the overlapping region R, and an f axis that represents the other feature amount dimension. The feature amount space is a multidimensional space in which luminance and center coordinates are also one of feature amounts. Moreover, the position of the partial area in the overlapping area R is, for example, the coordinates of the pixel located at the center of the partial area. For example, the clustering unit 15 classifies the plurality of partial regions into a plurality of N clusters (for example, N = 32) by the k-means method. The clustering unit 15 records the classified cluster information in the storage unit 9. For example, the clustering unit 15 records the centroid coordinates of the clusters in the feature amount space in the storage unit 9.

関数決定部16は、第1深度決定部12が決定した画素の深度に基づいて、上記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定する。以下に、図5を参照しながら関数決定部16が決定する関数について説明する。   Based on the pixel depth determined by the first depth determination unit 12, the function determination unit 16 determines a function representing the relationship between the luminance and depth of the pixel for each of the plurality of clusters. The function determined by the function determination unit 16 will be described below with reference to FIG.

図5は、あるクラスタに含まれる部分領域に含まれる画素の輝度と深度とを示す点が複数プロットされた図である。図5に示されているとおり、画素の深度は、概ね輝度の平方根に反比例する。関数決定部16は、クラスタに属する部分領域に含まれる各画素の輝度と深度との統計情報に基づいて、例えば、回帰分析によって関数を決定する。関数決定部16は、決定した各クラスタの関数を記憶部9に記録する。   FIG. 5 is a diagram in which a plurality of points indicating the luminance and depth of pixels included in a partial region included in a certain cluster are plotted. As shown in FIG. 5, the depth of the pixel is approximately inversely proportional to the square root of the luminance. The function determination unit 16 determines a function by, for example, regression analysis based on statistical information on the luminance and depth of each pixel included in the partial region belonging to the cluster. The function determination unit 16 records the determined function of each cluster in the storage unit 9.

具体的には、画素の輝度Iと画素の深度dとの関係を示す関数は、例えば、未知の定数Acを用いてd=Ac/√Iと表せる。ここでAc(c=1,・・・,N)であり、クラスタ毎に定まる定数である。関数決定部16は、複数のクラスタそれぞれについて、最小二乗法に関する既知の反復解法を用いることによってAcを求める。これにより、関数決定部16は、クラスタ毎に画素の輝度Iと画素の深度dとの関係を示す関数を決定することができる。なお、画素の輝度Iと画素の深度dとの関係を示す関数の形は上記に限られない。この他にも、深度dを輝度Iの多項式で表したり、他の輝度Iに関する線形又は非線形の関数の組み合わせによって上記の関数を表現してもよい。   Specifically, a function indicating the relationship between the pixel luminance I and the pixel depth d can be expressed as d = Ac / √I using an unknown constant Ac, for example. Here, Ac (c = 1,..., N) is a constant determined for each cluster. The function determination unit 16 obtains Ac for each of the plurality of clusters by using a known iterative solution related to the least square method. Thereby, the function determination part 16 can determine the function which shows the relationship between the brightness | luminance I of a pixel and the depth d of a pixel for every cluster. The form of the function indicating the relationship between the pixel luminance I and the pixel depth d is not limited to the above. In addition to this, the depth d may be expressed by a polynomial of luminance I, or the above function may be expressed by a combination of linear or nonlinear functions related to other luminance I.

部分領域決定部17は、第2撮影部3が撮影した赤外画像に含まれる各画素に対応する部分領域を決定する。部分領域決定部17は、例えば、赤外画像の各画素に当該画素を中心とする画素数9×9の矩形領域を部分領域として決定する。なお、画素数9×9の矩形領域が赤外画像において決定できない画素については、部分領域を決定する画素の対象としない。   The partial area determination unit 17 determines a partial area corresponding to each pixel included in the infrared image captured by the second imaging unit 3. The partial region determination unit 17 determines, for example, a rectangular region having 9 × 9 pixels centered on the pixel as a partial region for each pixel of the infrared image. Note that a pixel in which a rectangular area having 9 × 9 pixels cannot be determined in an infrared image is not a pixel that determines a partial area.

クラスタ決定部18は、第2撮影部3が撮影した赤外画像から生成された部分領域が、クラスタリング部15が分類したどのクラスタに属するかを決定する。具体的には、クラスタ決定部18は、記憶部9に記録された特徴量空間における各クラスタの重心座標を取得し、部分領域がどのクラスタの座標と最も近いかを計算し、部分領域が属するクラスタを決定する。   The cluster determination unit 18 determines to which cluster the partial region generated from the infrared image captured by the second imaging unit 3 belongs belongs. Specifically, the cluster determination unit 18 acquires the center-of-gravity coordinates of each cluster in the feature amount space recorded in the storage unit 9, calculates which cluster the partial region is closest to, and the partial region belongs to Determine the cluster.

第2深度決定部19は、記憶部9に記録された関数を用いて第2撮影部3が新たに撮影した赤外画像に含まれる画素の深度を決定する。具体的には、第2深度決定部19は、部分領域が属するクラスタに対応する関数を取得し、部分領域に含まれる画素の輝度情報から当該画素の深度を決定する。これにより、画像処理装置Aは少ない計算量で撮影画像に含まれる画素の深度を決定できる。   The second depth determination unit 19 determines the depth of the pixels included in the infrared image newly captured by the second imaging unit 3 using the function recorded in the storage unit 9. Specifically, the second depth determination unit 19 acquires a function corresponding to the cluster to which the partial region belongs, and determines the depth of the pixel from the luminance information of the pixel included in the partial region. Thereby, the image processing apparatus A can determine the depth of the pixels included in the captured image with a small amount of calculation.

[画像処理装置Aの処理フロー]
上で説明したとおり、画像処理装置Aは、赤外画像から生成される複数の部分領域を複数のクラスタに分類し、関数を決定した後は、以降に撮影される赤外画像に含まれる画素の深度を可視光画像とのパターンマッチングをすることなく決定することができる。画像処理装置Aは、例えば1秒間に10フレームの赤外画像を撮影し、1秒間は同一の関数を用いて、赤外画像に含まれる画素の深度を決定する。画像処理装置Aは、例えば、新しく撮影された可視光画像と赤外画像とを用いて、クラスタと関数とを1秒毎に更新する。以下に、図6を参照しながら、画像処理装置Aの処理フローについて説明する。
[Processing flow of image processing apparatus A]
As described above, the image processing apparatus A classifies the plurality of partial regions generated from the infrared image into a plurality of clusters, and after determining the function, the pixels included in the infrared image captured thereafter Can be determined without pattern matching with a visible light image. For example, the image processing apparatus A captures an infrared image of 10 frames per second, and determines the depth of pixels included in the infrared image using the same function for one second. For example, the image processing apparatus A updates a cluster and a function every second using a newly captured visible light image and infrared image. The processing flow of the image processing apparatus A will be described below with reference to FIG.

図6は、画像処理装置Aの処理のフローチャートである。先ず、第1撮影部2及び第2撮影部3が一対の視差画像を撮影するところから開始する(S601)。続いて、重複領域決定部11が視差画像の重複領域Rを決定する(S602)。続いて、第1深度決定部12が重複領域Rに含まれる画素の深度を決定する(S603)。続いて、部分領域生成部13が赤外画像の部分領域を生成する(S604)。続いて、特徴量算出部14が部分領域の特徴量を算出する(S605)。続いて、クラスタリング部15が、輝度及び深度を少なくとも含む特徴量に基づいて部分領域をクラスタに分類する(S606)。続いて、関数決定部16がクラスタ毎に輝度と深度との関数を決定する(S607)。   FIG. 6 is a flowchart of processing of the image processing apparatus A. First, the process starts from where the first photographing unit 2 and the second photographing unit 3 photograph a pair of parallax images (S601). Subsequently, the overlapping area determination unit 11 determines the overlapping area R of the parallax images (S602). Subsequently, the first depth determination unit 12 determines the depth of the pixels included in the overlapping region R (S603). Subsequently, the partial region generation unit 13 generates a partial region of the infrared image (S604). Subsequently, the feature amount calculation unit 14 calculates the feature amount of the partial region (S605). Subsequently, the clustering unit 15 classifies the partial regions into clusters based on the feature amount including at least the luminance and the depth (S606). Subsequently, the function determination unit 16 determines a function of brightness and depth for each cluster (S607).

続いて、第2撮影部3が再度赤外画像を撮影する(S608)。部分領域決定部17は赤外画像に含まれる画素毎に部分領域を決定し、クラスタ決定部18は当該部分領域が属するクラスタを決定する。画素が属するクラスタに対応する関数を決定した後、クラスタ決定部18は赤外画像の画素の輝度情報から当該画素の深度を決定する(S609)。クラスタ及び関数を再度学習する場合(S610においてYES)、即ち、可視光画像と赤外画像とからクラスタ及び関数の決定をする場合、S601に戻る。   Subsequently, the second imaging unit 3 captures an infrared image again (S608). The partial region determination unit 17 determines a partial region for each pixel included in the infrared image, and the cluster determination unit 18 determines a cluster to which the partial region belongs. After determining the function corresponding to the cluster to which the pixel belongs, the cluster determining unit 18 determines the depth of the pixel from the luminance information of the pixel of the infrared image (S609). When the cluster and the function are learned again (YES in S610), that is, when the cluster and the function are determined from the visible light image and the infrared image, the process returns to S601.

クラスタ及び関数を再度学習しない場合(S610においてNO)、画像処理装置Aは処理を終了するかどうか決める(S611)。画像処理装置Aは処理を終了しない場合(S611においてNO)、S608に戻る。画像処理装置Aは、処理を終了する場合(S611においてYES)、処理を終了する。   When the cluster and the function are not learned again (NO in S610), the image processing apparatus A determines whether to end the process (S611). If the image processing apparatus A does not terminate the process (NO in S611), the process returns to S608. When the image processing apparatus A ends the process (YES in S611), the image processing apparatus A ends the process.

[画像処理装置Aが奏する効果]
上記のとおり、実施の形態に係る画像処理装置Aは、可視光画像と赤外画像との視差画像に基づいて、赤外画像に含まれる各画素の深度を決定する。画像処理装置Aは、赤外画像の部分領域を複数生成し、各部分領域を分類する複数のクラスタを決定する。画像処理装置Aは、各クラスタに輝度と深度とを対応付ける関数を決定する。画像処理装置Aは、赤外画像の各画素に部分領域を対応させ、当該部分領域が属するクラスタを決定することによって、画素の輝度情報から画素の深度を決定することができる。こうすることによって、画像処理装置Aは、赤外画像に含まれる画素の深度を、一対の視差画像を用いなくとも赤外画像のみで決定することができる。したがって、画像処理装置Aは少ない計算量で撮影画像に含まれる画素の深度を決定できるため、精度が高い深度マップを低いコストで素早く生成できる。
[Effects of image processing apparatus A]
As described above, the image processing apparatus A according to the embodiment determines the depth of each pixel included in the infrared image based on the parallax image between the visible light image and the infrared image. The image processing apparatus A generates a plurality of partial regions of the infrared image and determines a plurality of clusters for classifying each partial region. The image processing apparatus A determines a function that associates brightness and depth with each cluster. The image processing apparatus A can determine the pixel depth from the luminance information of the pixel by associating the partial region with each pixel of the infrared image and determining the cluster to which the partial region belongs. By doing so, the image processing apparatus A can determine the depth of the pixels included in the infrared image using only the infrared image without using a pair of parallax images. Accordingly, since the image processing apparatus A can determine the depth of the pixels included in the captured image with a small amount of calculation, a depth map with high accuracy can be quickly generated at a low cost.

[撮像装置1を複数備えるシステム]
上で説明したとおり、画像処理装置Aは、赤外光を照射することによって、撮影対象から反射される赤外光の輝度情報に基づいて撮影画像の深度を決定した。画像処理装置Aは、他の撮像装置1が投射する赤外光が対象に重なっている場合、そのことを前提に輝度と深度との関数を決定する。そのため、Structured−light法のような、何らかのパターンを対象に投射しパターンの変形から深度を計算する方法と異なり、画像処理装置Aを複数台同時に使用しても互いに干渉して機能しなくなるということがない。
[System provided with a plurality of imaging devices 1]
As described above, the image processing apparatus A determines the depth of the captured image based on the luminance information of the infrared light reflected from the imaging target by irradiating the infrared light. The image processing apparatus A determines a function of brightness and depth on the assumption that infrared light projected by another imaging apparatus 1 overlaps the target. Therefore, unlike the method of projecting some pattern to the target and calculating the depth from the deformation of the pattern, such as the structured-light method, even if a plurality of image processing apparatuses A are used simultaneously, they interfere with each other and do not function. There is no.

上記の有利な効果により、画像処理装置Aを複数設置し、複数の画像処理装置Aの各々が計測した撮影対象の深度データに基づいて撮影対象を3次元構築するシステムを設計することができる。   Due to the above advantageous effects, it is possible to design a system in which a plurality of image processing apparatuses A are installed and a shooting target is three-dimensionally constructed based on the depth data of the shooting targets measured by each of the plurality of image processing apparatuses A.

図7は、撮像装置1を複数設置したシステムについて説明するための図である。システムは、画像処理装置Aが内蔵された撮像装置1を複数備え、対象Hを3つの異なる方向から撮影する。上記システムでは、例えば、対象Hである犬を、真上、正面及び背面から撮影する。   FIG. 7 is a diagram for explaining a system in which a plurality of imaging apparatuses 1 are installed. The system includes a plurality of imaging devices 1 each including an image processing device A, and images the target H from three different directions. In the above system, for example, the dog that is the subject H is photographed from directly above, from the front, and from the back.

図7に示したシステムを利用すると、複数の撮像装置1で撮影範囲が重なった領域に関しては、深度データをより正確に計算することができる。また、対象Hの正面方向からの深度データと背面方向からの深度データとを合算することによって、対象Hの3次元データを得ることができる。   When the system shown in FIG. 7 is used, the depth data can be calculated more accurately with respect to the region where the imaging ranges overlap in the plurality of imaging devices 1. Further, the three-dimensional data of the target H can be obtained by adding the depth data from the front direction of the target H and the depth data from the back direction.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

A・・・画像処理装置
H・・・対象
R・・・重複領域
1・・・撮像装置
2・・・第1撮影部
3・・・第2撮影部
4・・・バンドパスフィルタ
5・・・マイク
6・・・スピーカ
7・・・スリット
8・・・赤外光照射部
9・・・記憶部
10・・・制御部
11・・・重複領域決定部
12・・・第1深度決定部
13・・・部分領域生成部
14・・・特徴量算出部
15・・・クラスタリング部
16・・・関数決定部
17・・・部分領域決定部
18・・・クラスタ決定部
19・・・第2深度決定部
A ... Image processing device H ... Target R ... Overlapping region 1 ... Imaging device 2 ... First imaging unit 3 ... Second imaging unit 4 ... Band pass filter 5 ... -Microphone 6 ... Speaker 7 ... Slit 8 ... Infrared light irradiation unit 9 ... Storage unit 10 ... Control unit 11 ... Overlapping region determination unit 12 ... First depth determination unit 13 ... Partial region generation unit 14 ... Feature quantity calculation unit 15 ... Clustering unit 16 ... Function determination unit 17 ... Partial region determination unit 18 ... Cluster determination unit 19 ... Second Depth determination unit

Claims (7)

画像を撮影する第1撮影部と、
前記第1撮影部が撮影する領域と重複する重複領域を含む赤外画像を撮影する第2撮影部と、
少なくとも前記重複領域を含む領域に赤外光を照射する赤外光照射部と、
前記重複領域に含まれる画素の深度を決定する第1深度決定部と、
前記赤外画像における前記重複領域から複数の部分領域を生成する部分領域生成部と、
前記複数の部分領域を複数のクラスタに分類するクラスタリング部と、
前記第1深度決定部が決定した画素の深度に基づいて、前記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定する関数決定部と、
前記関数を用いて前記第2撮影部が新たに撮影した赤外画像が含む画素の深度を決定する第2深度決定部と、
を備える画像処理装置。
A first photographing unit for photographing an image;
A second imaging unit that captures an infrared image including an overlapping area that overlaps an area captured by the first imaging unit;
An infrared light irradiation unit that irradiates infrared light to a region including at least the overlapping region;
A first depth determination unit that determines the depth of pixels included in the overlapping region;
A partial region generation unit that generates a plurality of partial regions from the overlapping region in the infrared image;
A clustering unit for classifying the plurality of partial regions into a plurality of clusters;
A function determining unit that determines a function representing a relationship between a luminance and a depth of a pixel for each of the plurality of clusters based on the depth of the pixel determined by the first depth determining unit;
A second depth determination unit that determines a depth of a pixel included in an infrared image newly captured by the second imaging unit using the function;
An image processing apparatus comprising:
前記複数の部分領域の特徴量を算出する特徴量算出部を更に備え、
前記クラスタリング部は、前記特徴量に更に基づいて前記複数の部分領域を前記複数のクラスタに分類する、
請求項1に記載の画像処理装置。
A feature amount calculating unit for calculating the feature amounts of the plurality of partial areas;
The clustering unit further classifies the plurality of partial regions into the plurality of clusters based on the feature amount;
The image processing apparatus according to claim 1.
前記関数決定部は前記関数を更新し、
前記第2深度決定部は、前記関数決定部が前記関数を更新した場合、更新された新しい関数を用いて前記第2撮影部が撮影した赤外画像が含む画素の深度を決定する、
請求項1又は2に記載の画像処理装置。
The function determination unit updates the function,
The second depth determination unit determines a depth of a pixel included in an infrared image captured by the second imaging unit using the updated new function when the function determination unit updates the function.
The image processing apparatus according to claim 1.
前記部分領域生成部は、1つの部分領域と別の1つの部分領域とが同一の画素を含むように前記複数の部分領域を生成する、
請求項1乃至3の何れか1項に記載の画像処理装置。
The partial region generation unit generates the plurality of partial regions so that one partial region and another partial region include the same pixel.
The image processing apparatus according to claim 1.
画像を撮影するステップと、
前記撮影する領域と重複する重複領域を含む赤外画像を撮影するステップと、
少なくとも前記重複領域を含む領域に赤外光を照射するステップと、
前記重複領域に含まれる画素の深度を決定するステップと、
前記赤外画像における前記重複領域から複数の部分領域を生成するステップと、
前記複数の部分領域の各々に含まれる前記画素の深度と輝度とに少なくとも基づいて、前記複数の部分領域を複数のクラスタに分類するステップと、
前記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定するステップと、
前記関数を用いて前記赤外画像が含む画素の深度を決定するステップと、
を備える画像処理方法。
Taking a picture, and
Photographing an infrared image including an overlapping region overlapping the region to be photographed;
Irradiating the region including at least the overlapping region with infrared light;
Determining the depth of pixels included in the overlap region;
Generating a plurality of partial regions from the overlapping region in the infrared image;
Classifying the plurality of partial regions into a plurality of clusters based at least on the depth and brightness of the pixels included in each of the plurality of partial regions;
Determining a function representing a relationship between pixel brightness and depth for each of the plurality of clusters;
Determining the depth of pixels that the infrared image comprises using the function;
An image processing method comprising:
画像を撮影するステップと、
前記撮影する領域と重複する重複領域を含む赤外画像を撮影するステップと、
少なくとも前記重複領域を含む領域に赤外光を照射するステップと、
前記重複領域に含まれる画素の深度を決定するステップと、
前記赤外画像における前記重複領域から複数の部分領域を生成するステップと、
前記複数の部分領域の各々に含まれる前記画素の深度と輝度とに少なくとも基づいて、前記複数の部分領域を複数のクラスタに分類するステップと、
前記複数のクラスタの各々について画素の輝度と深度との関係を表す関数を決定するステップと、
前記関数を用いて前記赤外画像が含む画素の深度を決定するステップと、
を含むコンピュータが実行するプログラム。
Taking a picture, and
Photographing an infrared image including an overlapping region overlapping the region to be photographed;
Irradiating the region including at least the overlapping region with infrared light;
Determining the depth of pixels included in the overlap region;
Generating a plurality of partial regions from the overlapping region in the infrared image;
Classifying the plurality of partial regions into a plurality of clusters based at least on the depth and brightness of the pixels included in each of the plurality of partial regions;
Determining a function representing a relationship between pixel brightness and depth for each of the plurality of clusters;
Determining the depth of pixels that the infrared image comprises using the function;
A program executed by a computer including
請求項1乃至4の何れか一項に記載された画像処理装置を複数設置し、前記画像処理装置の各々が計測した撮影対象の深度データに基づいて前記撮影対象を3次元構築するシステム。
A system in which a plurality of image processing apparatuses according to any one of claims 1 to 4 are installed, and the imaging target is three-dimensionally constructed based on depth data of the imaging target measured by each of the image processing apparatuses.
JP2016135671A 2016-07-08 2016-07-08 Image processing apparatus, image processing method, program, and system Active JP6216842B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016135671A JP6216842B1 (en) 2016-07-08 2016-07-08 Image processing apparatus, image processing method, program, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016135671A JP6216842B1 (en) 2016-07-08 2016-07-08 Image processing apparatus, image processing method, program, and system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017183467A Division JP2018007274A (en) 2017-09-25 2017-09-25 Image processing device, image processing method, program and system

Publications (2)

Publication Number Publication Date
JP6216842B1 JP6216842B1 (en) 2017-10-18
JP2018004581A true JP2018004581A (en) 2018-01-11

Family

ID=60096163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016135671A Active JP6216842B1 (en) 2016-07-08 2016-07-08 Image processing apparatus, image processing method, program, and system

Country Status (1)

Country Link
JP (1) JP6216842B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102457891B1 (en) * 2017-10-30 2022-10-25 삼성전자주식회사 Method and apparatus for image processing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029110A (en) * 1998-07-08 2000-01-28 Olympus Optical Co Ltd Camera
JP2013024653A (en) * 2011-07-19 2013-02-04 Toyota Central R&D Labs Inc Distance measuring apparatus and program
US20150248764A1 (en) * 2014-02-28 2015-09-03 Microsoft Corporation Depth sensing using an infrared camera
JP2016065718A (en) * 2013-02-08 2016-04-28 三洋電機株式会社 Information acquisition device and object detection device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029110A (en) * 1998-07-08 2000-01-28 Olympus Optical Co Ltd Camera
JP2013024653A (en) * 2011-07-19 2013-02-04 Toyota Central R&D Labs Inc Distance measuring apparatus and program
JP2016065718A (en) * 2013-02-08 2016-04-28 三洋電機株式会社 Information acquisition device and object detection device
US20150248764A1 (en) * 2014-02-28 2015-09-03 Microsoft Corporation Depth sensing using an infrared camera

Also Published As

Publication number Publication date
JP6216842B1 (en) 2017-10-18

Similar Documents

Publication Publication Date Title
CN106256122B (en) Image processing equipment and image processing method
US20130335535A1 (en) Digital 3d camera using periodic illumination
EP2869263A1 (en) Method and apparatus for generating depth map of a scene
TWI716874B (en) Image processing apparatus, image processing method, and image processing program
JP2008537190A (en) Generation of three-dimensional image of object by irradiating with infrared pattern
CN107577058A (en) Image display device
JP7479729B2 (en) Three-dimensional representation method and device
WO2019082797A1 (en) Reconfiguration method and reconfiguration device
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
CN111028341B (en) A three-dimensional model generation method
CN113424194B (en) Detecting projected infrared patterns using Gaussian difference and blob detection
WO2018028152A1 (en) Image acquisition device and virtual reality device
JP6674643B2 (en) Image processing apparatus and image processing method
JP2015104107A (en) Ip stereoscopic video estimation device and program therefor
WO2016175043A1 (en) Image processing device and image processing method
CN111489384A (en) Occlusion assessment method, device, equipment, system and medium based on mutual view
WO2023135891A1 (en) Calculation method and calculation device
JP6285686B2 (en) Parallax image generation device
JP2020004219A5 (en)
CN107534730B (en) Image processing apparatus and image processing method
JP6216842B1 (en) Image processing apparatus, image processing method, program, and system
Tamboli et al. A high-angular-resolution turntable data-set for experiments on light field visualization quality
CN110632769B (en) A light spot projection device
JP2018007274A (en) Image processing device, image processing method, program and system
JP2017073710A (en) Element image group generation device and program therefor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170925

R150 Certificate of patent or registration of utility model

Ref document number: 6216842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350