[go: up one dir, main page]

JP2014235615A - Image processing apparatus, image processing circuit, image processing program, and image processing method - Google Patents

Image processing apparatus, image processing circuit, image processing program, and image processing method Download PDF

Info

Publication number
JP2014235615A
JP2014235615A JP2013117364A JP2013117364A JP2014235615A JP 2014235615 A JP2014235615 A JP 2014235615A JP 2013117364 A JP2013117364 A JP 2013117364A JP 2013117364 A JP2013117364 A JP 2013117364A JP 2014235615 A JP2014235615 A JP 2014235615A
Authority
JP
Japan
Prior art keywords
image
distance image
block
distance
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013117364A
Other languages
Japanese (ja)
Inventor
壽成 木村
Hisashige Kimura
壽成 木村
剛 水田
Takeshi Mizuta
剛 水田
今城 主税
Chikara Imashiro
主税 今城
大田 恭士
Takashi Ota
恭士 大田
一木 篤史
Atsushi Ichiki
篤史 一木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013117364A priority Critical patent/JP2014235615A/en
Publication of JP2014235615A publication Critical patent/JP2014235615A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】距離画像の形成の演算量を削減すること。【解決手段】画像処理装置10において、 左側距離画像形成部11は、左側画像を基準画像、右側画像を参照画像とし、ブロックマッチングを用いて左側距離画像を形成し、右側距離画像形成部12は、左側距離画像形成部11で形成された左側距離画像を構成する複数のブロックの各々を、各ブロックの視差値に応じた距離だけ移動させ、移動後の各ブロックから、右側距離画像を形成する。【選択図】図1A calculation amount for forming a distance image is reduced. In an image processing apparatus, a left distance image forming unit 11 uses a left image as a reference image and a right image as a reference image, forms a left distance image using block matching, and a right distance image forming unit 12 Each of the plurality of blocks constituting the left distance image formed by the left distance image forming unit 11 is moved by a distance corresponding to the parallax value of each block, and a right distance image is formed from each moved block. . [Selection] Figure 1

Description

本発明は、画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法に関する。   The present invention relates to an image processing apparatus, an image processing circuit, an image processing program, and an image processing method.

人が3D(three dimensions)画像を見たときに、違和感または不快感を覚えることがある。実空間で人が物体を見る場合、その人の焦点は、中心視野に在る物体近傍に合っている。このため、その中心視野から外れたところの物体はピントがずれた状態で認識される。すなわち、実空間において、人からの距離が大きく異なる複数の物体を同程度で認識することは少ない。このため、画像内で深さ(つまり、視点からの距離)が大きく異なる複数の物体を見る場合、輻輳と調節との矛盾の程度が大きいため、観察者は疲労感を感じる。   When a person sees a 3D (three dimensions) image, the person may feel uncomfortable or uncomfortable. When a person views an object in real space, the person's focus is in the vicinity of the object in the central field of view. For this reason, an object outside the central visual field is recognized in a state of being out of focus. In other words, in a real space, it is rare to recognize a plurality of objects having greatly different distances from a person at the same level. For this reason, when a plurality of objects having greatly different depths (that is, distances from the viewpoint) are viewed in the image, the observer feels tired because the degree of contradiction between convergence and adjustment is large.

そこで、この状況において輻輳と調節との矛盾の程度を小さく抑えるために、一般的にフィルタリング処理が行われる。このフィルタリング処理では、距離画像が用いられる。距離画像は、2つの視点から撮影された2つの画像、すなわち、左側の視点から撮影された画像である「左側画像」と、右側の視点から撮影された画像である「右側画像」とから求められる。例えば、左側画像の原点と右側画像の原点とを合わせ、左側画像の基準点の座標と、当該基準点に対応する右側画像の対応点の座標との差(つまり、視差)を、基準点の値とした画像が、「左側距離画像」である。逆に、左側画像の原点と右側画像の原点とを合わせ、右側画像の基準点の座標と、当該基準点に対応する左側画像の対応点の座標との差(つまり、視差)を、基準点の値とした画像が、「右側距離画像」である。つまり、左側距離画像を求める場合、左側画像が基準画像となり、右側画像が参照画像となる。逆に、右側距離画像を求める場合、右側画像が基準画像となり、左側画像が参照画像となる。そして、3D画像に対してフィルタリング処理を行う場合には、左側画像及び右側画像のそれぞれに対しフィルタリング処理を行う。すなわち、左側画像に対しては左側距離画像を用いてフィルタリング処理を行い、右側画像に対しては右側距離画像を用いてフィルタリング処理を行う。つまり、3D画像に対してフィルタリング処理を行う場合には、左側距離画像及び右側距離画像の2つの距離画像を求める。   Therefore, in order to suppress the degree of contradiction between congestion and adjustment in this situation, a filtering process is generally performed. In this filtering process, a distance image is used. The distance image is obtained from two images taken from two viewpoints, that is, a “left image” taken from the left viewpoint and a “right image” taken from the right viewpoint. It is done. For example, the origin of the left image and the origin of the right image are matched, and the difference (that is, parallax) between the coordinates of the reference point of the left image and the coordinates of the corresponding point of the right image corresponding to the reference point is calculated as the reference point. The image as the value is the “left-side distance image”. Conversely, the origin of the left image is aligned with the origin of the right image, and the difference (that is, parallax) between the coordinates of the reference point of the right image and the coordinates of the corresponding point of the left image corresponding to the reference point is determined as the reference point. The image with the value of “is the right distance image”. That is, when obtaining the left distance image, the left image is the reference image and the right image is the reference image. Conversely, when obtaining the right distance image, the right image is the reference image, and the left image is the reference image. When the filtering process is performed on the 3D image, the filtering process is performed on each of the left image and the right image. That is, the filtering process is performed on the left image using the left distance image, and the filtering process is performed on the right image using the right distance image. That is, when the filtering process is performed on the 3D image, two distance images of the left distance image and the right distance image are obtained.

ここで、距離画像の形成に用いられる従来技術として「ブロックマッチング」がある。ブロックマッチングとは、基準画像を、複数の小面積の領域、つまり、複数のブロックに分割し、各ブロックの画像と参照画像の全領域とを比較し、参照画像上において各ブロックと対応する位置を探す技術である。以下では、基準画像の複数のブロックのうち距離算出の対象とするブロックを「対象ブロック」と呼ぶことがある。ブロックマッチングでは、参照画像上の対応する位置として、対象ブロックと最も類似する画像の位置(つまり、最も誤差が小さい画像の位置)を探す。そして、対象ブロックと、参照画像上で探し出された画像の位置との間の距離の値を、視差値として対象ブロックに書き込む。視点からの距離が遠い物体では視差が小さくなり、視点からの距離が近い物体では視差が大きくなる。つまり、視点からの距離がより近い物体ほど、視差値はより大きくなる。   Here, there is “block matching” as a conventional technique used for forming a distance image. Block matching is a method of dividing the reference image into a plurality of small area areas, that is, a plurality of blocks, comparing the image of each block with the entire area of the reference image, and the position corresponding to each block on the reference image. It is a technique to search for. Hereinafter, a block that is a target of distance calculation among a plurality of blocks of the reference image may be referred to as a “target block”. In block matching, the position of the image most similar to the target block (that is, the position of the image with the smallest error) is searched for as the corresponding position on the reference image. Then, the value of the distance between the target block and the position of the image found on the reference image is written in the target block as a parallax value. The parallax is small for an object that is far from the viewpoint, and the parallax is large for an object that is close to the viewpoint. In other words, the closer the distance from the viewpoint, the larger the parallax value.

特開平11−102438号公報JP-A-11-102438 特開2000−215311号公報JP 2000-215311 A 特開2001−256482号公報JP 2001-256482 A 特開2011−060216号公報JP 2011-060216 A

ブロックマッチングは、基準画像上で対象ブロックを順次シフトさせながら、基準画像の全ブロックの各々について参照画像の全領域に渡って行われる。このため、ブロックマッチングの演算量は大きい。よって、距離画像の形成にブロックマッチングを用いると、距離画像の形成の演算量が大きくなり、距離画像の形成に多くの時間がかかってしまう。特に、3D画像に対してフィルタリング処理を行う場合には、左側画像を基準画像として左側距離画像を求めるブロックマッチングと、右側画像を基準画像として右側距離画像を求めるブロックマッチングとが行われるため、距離画像の形成の演算量がさらに大きくなる。   Block matching is performed over the entire area of the reference image for each of all blocks of the base image while sequentially shifting the target block on the base image. For this reason, the calculation amount of block matching is large. Therefore, if block matching is used for forming a distance image, the amount of calculation for forming the distance image increases, and it takes much time to form the distance image. In particular, when filtering processing is performed on a 3D image, block matching for obtaining a left distance image using the left image as a reference image and block matching for obtaining a right distance image using the right image as a reference image are performed. The amount of calculation for image formation is further increased.

開示の技術は、上記に鑑みてなされたものであって、距離画像の形成の演算量を削減することができる、画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法を提供することを目的とする。   The disclosed technology has been made in view of the above, and provides an image processing device, an image processing circuit, an image processing program, and an image processing method capable of reducing the amount of calculation for forming a distance image. With the goal.

開示の態様では、第1距離画像を構成する複数のブロックの各々を、各ブロックの視差値に応じた距離だけ移動させ、移動後の前記複数のブロックから、前記第1距離画像と視点が異なる第2距離画像を形成する。   In the disclosed aspect, each of the plurality of blocks constituting the first distance image is moved by a distance corresponding to the parallax value of each block, and the viewpoint of the first distance image is different from the plurality of blocks after the movement. A second distance image is formed.

開示の態様によれば、距離画像の形成の演算量を削減することができる。   According to the disclosed aspect, it is possible to reduce the amount of calculation for forming a distance image.

図1は、実施例1の画像処理装置の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of an image processing apparatus according to the first embodiment. 図2は、実施例1のブロック分割の一例を示す図である。FIG. 2 is a diagram illustrating an example of block division according to the first embodiment. 図3は、実施例1の右側距離画像の形成の説明に供する図である。FIG. 3 is a diagram for explaining the formation of the right distance image according to the first embodiment. 図4は、実施例1の画像処理装置の処理の説明に供するフローチャートである。FIG. 4 is a flowchart for explaining processing of the image processing apparatus according to the first embodiment. 図5は、実施例1の左側距離画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of a left-side distance image according to the first embodiment. 図6Aは、実施例1の右側距離画像の形成例の説明に供する図である。FIG. 6A is a diagram for explaining an example of forming a right distance image according to the first embodiment. 図6Bは、実施例1の右側距離画像の形成例の説明に供する図である。FIG. 6B is a diagram for explaining an example of forming the right distance image according to the first embodiment. 図6Cは、実施例1の右側距離画像の形成例の説明に供する図である。FIG. 6C is a diagram for explaining an example of forming the right distance image according to the first embodiment. 図6Dは、実施例1の右側距離画像の形成例の説明に供する図である。FIG. 6D is a diagram for explaining an example of forming the right distance image according to the first embodiment. 図7は、実施例1の左側画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of the left image according to the first embodiment. 図8は、実施例1の右側画像の一例を示す図である。FIG. 8 is a diagram illustrating an example of a right image according to the first embodiment. 図9は、実施例1の左側距離画像の一例を示す図である。FIG. 9 is a diagram illustrating an example of a left-side distance image according to the first embodiment. 図10は、実施例1の右側距離画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of the right distance image according to the first embodiment. 図11は、実施例2の画像処理装置の一例を示すブロック図である。FIG. 11 is a block diagram illustrating an example of an image processing apparatus according to the second embodiment. 図12は、実施例2の画像処理装置の処理の説明に供するフローチャートである。FIG. 12 is a flowchart for explaining processing of the image processing apparatus according to the second embodiment. 図13Aは、実施例2のオクルージョン領域マップの更新例の説明に供する図である。FIG. 13A is a diagram for explaining an example of updating the occlusion area map according to the second embodiment. 図13Bは、実施例2のオクルージョン領域マップの更新例の説明に供する図である。FIG. 13B is a diagram for explaining an example of updating the occlusion area map according to the second embodiment. 図13Cは、実施例2のオクルージョン領域マップの更新例の説明に供する図である。FIG. 13C is a diagram for explaining an update example of the occlusion area map according to the second embodiment. 図13Dは、実施例2のオクルージョン領域マップの更新例の説明に供する図である。FIG. 13D is a diagram for explaining an example of updating the occlusion area map according to the second embodiment. 図14は、実施例3の画像処理装置の一例を示すブロック図である。FIG. 14 is a block diagram illustrating an example of an image processing apparatus according to the third embodiment. 図15は、実施例3の画像処理装置の処理の説明に供するフローチャートである。FIG. 15 is a flowchart for explaining processing of the image processing apparatus according to the third embodiment. 図16Aは、実施例3のオクルージョン領域の補完例の説明に供する図である。FIG. 16A is a diagram for explaining an example of complementation of the occlusion area according to the third embodiment. 図16Bは、実施例3のオクルージョン領域の補完例の説明に供する図である。FIG. 16B is a diagram for explaining an example of complementing the occlusion area according to the third embodiment. 図17は、画像処理装置のハードウェア構成例を示す図である。FIG. 17 is a diagram illustrating a hardware configuration example of the image processing apparatus.

以下に、本願の開示する画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法の実施例を図面に基づいて説明する。なお、以下の実施例により本願の開示する画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法が限定されるものではない。また、各実施例において同一の機能を有する構成、または、同一の処理を行うステップには同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of an image processing device, an image processing circuit, an image processing program, and an image processing method disclosed in the present application will be described with reference to the drawings. The image processing apparatus, the image processing circuit, the image processing program, and the image processing method disclosed in the present application are not limited by the following embodiments. Moreover, the same code | symbol is attached | subjected to the structure which has the same function in each Example, or the step which performs the same process, and the overlapping description is abbreviate | omitted.

また、以下では一例として、左側距離画像から右側距離画像を形成する場合について説明する。しかし、以下の実施例の「左」を「右」に、「右」を「左」に読み替えることにより、以下の実施例と同様にして、右側距離画像から左側距離画像を形成することもできる。左側距離画像から右側距離画像を形成する場合は、左側距離画像が第1の距離画像に、右側距離画像が、第1の距離画像と視点が異なる第2の距離画像に相当する。逆に、右側距離画像から左側距離画像を形成する場合は、右側距離画像が第1の距離画像に、左側距離画像が、第1の距離画像と視点が異なる第2の距離画像に相当する。   In the following, as an example, a case where a right distance image is formed from a left distance image will be described. However, by replacing “left” with “right” and “right” with “left” in the following embodiments, a left-side distance image can be formed from a right-side distance image in the same manner as in the following embodiments. . When a right distance image is formed from a left distance image, the left distance image corresponds to a first distance image, and the right distance image corresponds to a second distance image having a different viewpoint from the first distance image. Conversely, when forming the left distance image from the right distance image, the right distance image corresponds to the first distance image, and the left distance image corresponds to the second distance image having a different viewpoint from the first distance image.

[実施例1]
<画像処理装置の構成例>
図1は、実施例1の画像処理装置の一例を示すブロック図である。図1において、画像処理装置10は、左側距離画像形成部11と、右側距離画像形成部12とを有する。
[Example 1]
<Configuration example of image processing apparatus>
FIG. 1 is a block diagram illustrating an example of an image processing apparatus according to the first embodiment. In FIG. 1, the image processing apparatus 10 includes a left-side distance image forming unit 11 and a right-side distance image forming unit 12.

左側距離画像形成部11には、左側画像と右側画像とが入力される。左側距離画像形成部11は、左側画像を基準画像、右側画像を参照画像とし、ブロックマッチングを用いて左側距離画像を形成する。   The left-side image and the right-side image are input to the left-side distance image forming unit 11. The left distance image forming unit 11 uses the left image as a standard image and the right image as a reference image, and forms a left distance image using block matching.

すなわち、左側距離画像形成部11は、図2に示すように、左側画像をx軸でMブロック、y軸でNブロックの合計M×Nの複数のブロックに分割する。図2は、実施例1のブロック分割の一例を示す図である。M×Nブロックにおいて、原点のブロックを左上端のブロック(0,0)とし、任意の対象ブロックをブロック(m,n)とすると、右下端のブロックはブロック(M−1,N−1)となる。つまり、mは0〜M−1の何れかの値をとり、nは0〜N−1の何れかの値をとる。また、1ブロックのx軸方向の長さをXとし、y軸方向の長さをYとする。また、ブロック(m,n)の右上端の画素位置を(bx,by)とする。   That is, as shown in FIG. 2, the left-side distance image forming unit 11 divides the left-side image into a plurality of M × N blocks including M blocks on the x axis and N blocks on the y axis. FIG. 2 is a diagram illustrating an example of block division according to the first embodiment. In the M × N block, if the origin block is the upper left block (0,0) and any target block is the block (m, n), the lower right block is the block (M-1, N-1). It becomes. That is, m takes any value from 0 to M-1, and n takes any value from 0 to N-1. The length of one block in the x-axis direction is X, and the length in the y-axis direction is Y. Further, the pixel position at the upper right end of the block (m, n) is (bx, by).

左側距離画像形成部11は、左側画像を基準画像、右側画像を参照画像とし、対象ブロック(m,n)をブロック(0,0)からブロック(M−1,N−1)まで1ブロックずつシフトさせながら、M×Nブロックの全ブロックについてブロックマッチングを行う。すなわち、左側距離画像形成部11は、右側画像の全領域において、対象ブロック(m,n)の画像と最も類似する画像の位置(つまり、最も誤差が小さい画像の位置)を探す。ここで、左側画像及び右側画像の双方に存在する同一物体は、左側画像では、右側画像での撮影位置よりも相対的に右側にずれて撮影される。よって、図2に示すように、右方向をx軸の正方向、下方向をy軸の正方向とした場合、左側距離画像形成部11は、右側画像上で探し出した画像の位置から、対象ブロック(m,n)までの距離の値(xmn,ymn)を、視差値として対象ブロック(m,n)に書き込む。   The left distance image forming unit 11 uses the left image as a base image and the right image as a reference image, and the target block (m, n) is one block at a time from block (0, 0) to block (M-1, N-1). While shifting, block matching is performed on all blocks of M × N blocks. That is, the left distance image forming unit 11 searches for the position of the image most similar to the image of the target block (m, n) (that is, the position of the image with the smallest error) in the entire area of the right image. Here, the same object that exists in both the left image and the right image is photographed in the left image that is shifted to the right relative to the photographing position in the right image. Therefore, as shown in FIG. 2, when the right direction is the positive direction of the x-axis and the downward direction is the positive direction of the y-axis, the left-side distance image forming unit 11 determines the target from the position of the image found on the right-side image. The value (xmn, ymn) of the distance to the block (m, n) is written in the target block (m, n) as a parallax value.

ここで、類似度の評価には、例えば、SAD(Sum of Absolute Difference)を用いる。ここでは、SADは式(1)により表される。式(1)において、inは基準画像である左側画像、refは参照画像である右側画像を表す。また、in(bx+i,by+j)は、左側画像の座標(bx+i,by+j)での画素の輝度値、ref(bx+i+x,by+j+y)は、右側画像の座標(bx+i+x,by+j+y)での画素の輝度値を表す。

Figure 2014235615
Here, for example, SAD (Sum of Absolute Difference) is used to evaluate the similarity. Here, SAD is represented by the formula (1). In Expression (1), in represents a left image that is a base image, and ref represents a right image that is a reference image. Further, in (bx + i, by + j) is the luminance value of the pixel at the coordinates (bx + i, by + j) of the left image, and ref (bx + i + x, by + j + y) is the luminance value of the pixel at the coordinates (bx + i + x, by + j + y) of the right image. Represent.
Figure 2014235615

左側距離画像形成部11は、対象ブロック(m,n)について、式(1)に従って、SAD(x,y)を右側画像の全領域で求め、右側画像上でSAD(x,y)が最小となる位置、つまり、対象ブロック(m,n)との誤差が最も小さい位置(x,y)を求める。そして、左側距離画像形成部11は、対象ブロック(m,n)上の位置(bx,by)から、右側画像上の位置(x,y)までの距離(xmn,ymn)を求め、距離(xmn,ymn)を対象ブロック(m,n)の視差値として、対象ブロック(m,n)に書き込む。左側距離画像形成部11は、距離の算出及び書き込みを、対象ブロック(m,n)をブロック(0,0)からブロック(M−1,N−1)まで1ブロックずつシフトさせながらM×Nブロックの全ブロックについて行うことにより、左側距離画像を形成する。そして、左側距離画像形成部11は、形成した左側距離画像を出力する。   The left-side distance image forming unit 11 obtains SAD (x, y) for the entire area of the right image according to the equation (1) for the target block (m, n), and SAD (x, y) is minimum on the right image. , That is, a position (x, y) with the smallest error from the target block (m, n). The left-side distance image forming unit 11 obtains a distance (xmn, ymn) from the position (bx, by) on the target block (m, n) to the position (x, y) on the right image, and the distance ( xmn, ymn) is written to the target block (m, n) as the parallax value of the target block (m, n). The left-side distance image forming unit 11 calculates and writes the distance by shifting the target block (m, n) from the block (0, 0) to the block (M-1, N-1) one block at a time. A left-side distance image is formed by performing processing for all blocks. Then, the left distance image forming unit 11 outputs the formed left distance image.

右側距離画像形成部12には、左側距離画像形成部11で形成された左側距離画像が入力される。右側距離画像形成部12は、左側距離画像に基づいて、以下のようにして、右側距離画像を形成する。   The left distance image formed by the left distance image forming unit 11 is input to the right distance image forming unit 12. The right distance image forming unit 12 forms a right distance image based on the left distance image as follows.

図3は、実施例1の右側距離画像の形成の説明に供する図である。上記のブロックマッチングにより左側距離画像において距離(xmn,ymn)を書き込まれた対象ブロック(m,n)は、その対象ブロック(m,n)との誤差が最も小さい右側画像の位置から距離(xmn,ymn)だけ離れた位置に存在する。また、左側画像及び右側画像の双方に存在する同一物体は、右側画像では、左側画像での撮影位置よりも相対的に左側にずれて撮影される。よって、右側画像をM×Nの複数のブロックに分割した場合、左側距離画像の距離(xmn,ymn)を書き込まれた対象ブロック(m,n)との誤差が最も小さいブロック(m’,n’)が右側画像において存在する位置は、式(2)により表される。

Figure 2014235615
FIG. 3 is a diagram for explaining the formation of the right distance image according to the first embodiment. The target block (m, n) in which the distance (xmn, ymn) is written in the left distance image by the above block matching is the distance (xmn) from the position of the right image with the smallest error from the target block (m, n). , ymn). In addition, the same object that exists in both the left image and the right image is photographed in the right image that is shifted to the left relative to the photographing position in the left image. Therefore, when the right image is divided into a plurality of M × N blocks, the block (m ′, n) having the smallest error from the target block (m, n) in which the distance (xmn, ymn) of the left distance image is written. The position where ') is present in the right image is represented by equation (2).
Figure 2014235615

また、左側画像と右側画像との間で誤差が最も小さい2つのブロック間で、一方のブロックから他方のブロックまでの距離と、他方のブロックから一方のブロックまでの距離とは、大きさが同一で、互いに反対方向になる。よって、左側距離画像の距離(xmn,ymn)を書き込まれた対象ブロック(m,n)との誤差が最も小さいブロック(m’,n’)の視差値は(−xmn,−ymn)となる。   Also, between the two blocks with the smallest error between the left image and the right image, the distance from one block to the other block is the same as the distance from the other block to the one block. In opposite directions. Therefore, the disparity value of the block (m ′, n ′) with the smallest error from the target block (m, n) in which the distance (xmn, ymn) of the left distance image is written is (−xmn, −ymn). .

そこで、右側距離画像形成部12は、左側距離画像の各ブロックを、各ブロックの視差値に応じた距離だけ移動させ、移動後の各ブロックから右側距離画像を形成する。すなわち、右側距離画像形成部12は、M×Nブロックにおいて、左側距離画像のブロック(m,n)を、ブロック(m,n)の視差値(xmn,ymn)に応じた距離(xmn,ymn)だけx軸及びy軸の負方向に移動させて右側距離画像のブロック(m’,n’)とする。そして、右側距離画像形成部12は、ブロック(m,n)の視差値(xmn,ymn)の符号を反転させた視差値(−xmn,−ymn)をブロック(m’,n’)の視差値とする。右側距離画像形成部12は、ブロックの移動及び視差値の符号の反転を、左側距離画像においてブロック(m,n)をブロック(0,0)からブロック(M−1,N−1)まで1ブロックずつシフトさせながらM×Nブロックの全ブロックについて行うことにより、右側距離画像を形成する。そして、右側距離画像形成部12は、形成した右側距離画像を出力する。   Therefore, the right distance image forming unit 12 moves each block of the left distance image by a distance corresponding to the parallax value of each block, and forms a right distance image from each block after the movement. That is, in the M × N block, the right distance image forming unit 12 converts the left distance image block (m, n) into a distance (xmn, ymn) corresponding to the parallax value (xmn, ymn) of the block (m, n). ) Is moved in the negative direction of the x-axis and y-axis to form a right distance image block (m ′, n ′). Then, the right distance image forming unit 12 uses the parallax values (−xmn, −ymn) obtained by inverting the sign of the parallax values (xmn, ymn) of the block (m, n) as the parallax of the block (m ′, n ′). Value. The right distance image forming unit 12 moves the block and inverts the sign of the parallax value, and changes the block (m, n) from the block (0, 0) to the block (M-1, N-1) in the left distance image. A right-distance image is formed by performing all blocks of M × N blocks while shifting each block. Then, the right distance image forming unit 12 outputs the formed right distance image.

なお、一般に3D画像において垂直方向(y軸方向)の視差は考慮しないため、上記の各処理において、y軸方向における処理を省くことができる。つまり、ymnを常に0とすることができる。   In general, since parallax in the vertical direction (y-axis direction) is not considered in a 3D image, the processing in the y-axis direction can be omitted in each of the above processes. That is, ymn can always be 0.

<画像処理装置の処理>
図4は、実施例1の画像処理装置の処理の説明に供するフローチャートである。
<Processing of image processing apparatus>
FIG. 4 is a flowchart for explaining processing of the image processing apparatus according to the first embodiment.

まず、右側距離画像形成部12は、左側距離画像のブロック(m,n)を初期位置に設定する(ステップS41)。例えば、初期位置を(m,n)=(0,0)とする。   First, the right distance image forming unit 12 sets the left distance image block (m, n) as an initial position (step S41). For example, the initial position is (m, n) = (0,0).

次いで、右側距離画像形成部12は、ブロック(m,n)の視差値から、式(2)に従って、右側距離画像のブロック位置(m’,n’)を決定する(ステップS42)。   Next, the right distance image forming unit 12 determines the block position (m ′, n ′) of the right distance image from the parallax value of the block (m, n) according to Expression (2) (step S42).

次いで、右側距離画像形成部12は、ブロック(m,n)をブロック位置(m’,n’)に移動させる(ステップS43)。   Next, the right distance image forming unit 12 moves the block (m, n) to the block position (m ′, n ′) (step S43).

次いで、右側距離画像形成部12は、ブロック位置(m’,n’)に移動させたブロック(m,n)の視差値の符号を反転させる(ステップS44)。   Next, the right distance image forming unit 12 inverts the sign of the parallax value of the block (m, n) moved to the block position (m ′, n ′) (step S44).

次いで、右側距離画像形成部12は、左側距離画像の全ブロックの移動が終了したか否か判断する(ステップS45)。例えば、右側距離画像形成部12は、(m,n)=(M−1,N−1)であるときに、左側距離画像の全ブロックの移動が終了したと判断する。左側距離画像の全ブロックの移動が終了したとき(ステップS45:Yes)、右側距離画像形成部12は、右側距離画像を出力して処理を終了する。   Next, the right distance image forming unit 12 determines whether or not the movement of all the blocks of the left distance image has been completed (step S45). For example, the right distance image forming unit 12 determines that the movement of all the blocks of the left distance image is completed when (m, n) = (M−1, N−1). When the movement of all the blocks of the left distance image is completed (step S45: Yes), the right distance image forming unit 12 outputs the right distance image and ends the process.

一方で、左側距離画像の全ブロックの移動が終了していないとき(ステップS45:No)、右側距離画像形成部12は、ブロック(m,n)をx軸方向またはy軸方向に1ブロックシフトさせ(ステップS46)、処理はステップS42に戻る。   On the other hand, when the movement of all the blocks of the left distance image is not completed (step S45: No), the right distance image forming unit 12 shifts the block (m, n) by one block in the x-axis direction or the y-axis direction. (Step S46), and the process returns to Step S42.

<右側距離画像の形成例>
図5は、実施例1の左側距離画像の一例を示す図であり、図6A〜Dは、実施例1の右側距離画像の形成例の説明に供する図である。図5及び図6A〜Dには、M=16,N=8とした場合を一例として示す。
<Example of forming a right distance image>
FIG. 5 is a diagram illustrating an example of the left distance image of the first embodiment, and FIGS. 6A to 6D are diagrams for explaining an example of forming the right distance image of the first embodiment. 5 and 6A to 6D show an example in which M = 16 and N = 8.

左側距離画像形成部11は、図5に示すような左側距離画像を形成する。左側距離画像の各ブロックの濃淡は、各ブロックの視差値の大きさを表す。すなわち、濃いほど視差値が小さくて視点から物体までの距離が遠いことを意味し、薄いほど視差値が大きくて視点から物体までの距離が近いことを意味する。また、ここでは、左側距離画像の各ブロックは0,2,3の何れかの視差値を有するものとする。また、垂直方向(y軸方向)の視差を考慮しない。   The left distance image forming unit 11 forms a left distance image as shown in FIG. The shade of each block of the left distance image represents the magnitude of the parallax value of each block. That is, the darker the value is, the smaller the parallax value is, and the longer the distance from the viewpoint to the object, and the lighter the value, the larger the parallax value, the closer the distance from the viewpoint to the object. Here, it is assumed that each block of the left distance image has a parallax value of 0, 2, or 3. In addition, the parallax in the vertical direction (y-axis direction) is not considered.

一方、右側距離画像形成部12において、M×Nブロックの初期状態は、図6Aに示すように、M×Nブロックの全ブロックがNullである状態である。   On the other hand, in the right distance image forming unit 12, the initial state of the M × N block is a state in which all the blocks of the M × N block are null as shown in FIG. 6A.

ここで、上述したブロック移動は、ブロック(0,0)からブロック(M−1,N−1)までブロックの並び順に行われる。しかし、ここでは、ブロック移動による右側距離画像の形成を分かりやすく説明するために、視差の大きさ順にブロック移動をする。   Here, the block movement described above is performed from the block (0, 0) to the block (M-1, N-1) in the order of the blocks. However, here, in order to explain the formation of the right distance image by the block movement in an easy-to-understand manner, the block movement is performed in the order of the parallax.

すなわち、右側距離画像形成部12は、図6Bに示すように、左側距離画像(図5)における「視差値=0」のブロックを視差値に応じた距離だけ移動、つまり、移動させることなく、右側距離画像のM×Nブロックに書き込む。   That is, as shown in FIG. 6B, the right distance image forming unit 12 moves the block of “parallax value = 0” in the left distance image (FIG. 5) by a distance according to the parallax value, that is, without moving the block. Write to the M × N block of the right distance image.

次いで、右側距離画像形成部12は、図6Cに示すように、左側距離画像(図5)における「視差値=2」のブロックを、x軸の負方向(つまり、左方向)に視差値に応じた距離だけ移動、つまり、2ブロックだけ移動させて右側距離画像のM×Nブロックに書き込む。   Next, as shown in FIG. 6C, the right-side distance image forming unit 12 converts the block of “parallax value = 2” in the left-side distance image (FIG. 5) into a parallax value in the negative x-axis direction (that is, the left direction). The corresponding distance is moved, that is, it is moved by two blocks and written in the M × N block of the right distance image.

次いで、右側距離画像形成部12は、図6Dに示すように、右側距離画像(図5)における「視差値=3」のブロックを、x軸の負方向(つまり、左方向)に視差値に応じた距離だけ移動、つまり、3ブロックだけ移動させて右側距離画像のM×Nブロックに書き込む。   Next, as shown in FIG. 6D, the right distance image forming unit 12 converts the block of “parallax value = 3” in the right distance image (FIG. 5) into a parallax value in the negative x-axis direction (that is, the left direction). The corresponding distance is moved, that is, it is moved by 3 blocks and written in the M × N block of the right distance image.

そして、左側距離画像の全ブロックの右側距離画像への書き込みが終了した図6Dに示す状態において、右側距離画像形成部12は、Nullのまま残ったブロックを除き、各ブロックの視差値の符号を反転させて“−”にする。   Then, in the state shown in FIG. 6D in which writing of all the blocks of the left distance image to the right distance image is completed, the right distance image forming unit 12 adds the sign of the parallax value of each block except for the blocks that remain Null. Invert to "-".

<画像の具体例>
図7は、実施例1の左側画像の一例を示す図であり、図8は、実施例1の右側画像の一例を示す図である。図7及び図8では、視点から近い順に、バス、建物、背景が存在する。左側距離画像形成部11は、左側画像(図7)を基準画像とし、右側画像(図8)を参照画像として、ブロックマッチングにより、図9に示すような左側距離画像を形成する。図9は、実施例1の左側距離画像の一例を示す図である。
<Specific examples of images>
FIG. 7 is a diagram illustrating an example of the left image of the first embodiment, and FIG. 8 is a diagram illustrating an example of the right image of the first embodiment. 7 and 8, there are a bus, a building, and a background in order from the viewpoint. The left distance image forming unit 11 forms a left distance image as shown in FIG. 9 by block matching using the left image (FIG. 7) as a standard image and the right image (FIG. 8) as a reference image. FIG. 9 is a diagram illustrating an example of a left-side distance image according to the first embodiment.

一方で、右側距離画像形成部12は、左側距離画像(図9)を用いて、上述したブロック移動により、図10に示す右側距離画像を形成する。図10は、実施例1の右側距離画像の一例を示す図である。図9,10での濃淡は、視差値の大きさを表す。すなわち、濃いほど視差値が小さくて視点から物体までの距離が遠いことを意味し、薄いほど視差値が大きくて視点から物体までの距離が近いことを意味する。なお、右側距離画像には、図10に示すように、「オクルージョン領域」が存在する。「オクルージョン領域」とは、左側画像及び右側画像のうちの一方には存在するが他方には存在しない画像領域である。   On the other hand, the right distance image forming unit 12 uses the left distance image (FIG. 9) to form the right distance image shown in FIG. 10 by the block movement described above. FIG. 10 is a diagram illustrating an example of the right distance image according to the first embodiment. The shading in FIGS. 9 and 10 represents the magnitude of the parallax value. That is, the darker the value is, the smaller the parallax value is, and the longer the distance from the viewpoint to the object, and the lighter the value, the larger the parallax value, the closer the distance from the viewpoint to the object. In the right distance image, as shown in FIG. 10, an “occlusion region” exists. The “occlusion area” is an image area that exists in one of the left image and the right image but does not exist in the other.

以上のように、本実施例によれば、画像処理装置10において、右側距離画像形成部12は、左側距離画像を構成するM×Nブロックの各々を、各ブロックの視差値に応じた距離だけ移動させ、移動後のM×Nブロックから、左側距離画像と視点が異なる右側距離画像を形成する。   As described above, according to the present embodiment, in the image processing apparatus 10, the right distance image forming unit 12 treats each of the M × N blocks constituting the left distance image by a distance corresponding to the parallax value of each block. A right distance image having a different viewpoint from the left distance image is formed from the moved M × N block.

つまり、右側距離画像形成部12は、ブロックマッチングを行わずに、左側距離画像のブロックを移動させることにより右側距離画像を形成する。ブロック移動の演算量は、ブロックマッチングの演算量に比べ、非常に小さい。また、右側距離画像形成部12は、右側距離画像の形成にあたり、SADの演算を行わない。よって、本実施例によれば、距離画像の形成の演算量を削減することができる。その結果、距離画像の形成を行う画像処理装置10の消費電力を削減することができる。   That is, the right distance image forming unit 12 forms the right distance image by moving the blocks of the left distance image without performing block matching. The calculation amount of block movement is very small compared to the calculation amount of block matching. Further, the right distance image forming unit 12 does not perform SAD calculation when forming the right distance image. Therefore, according to the present embodiment, it is possible to reduce the amount of calculation for forming the distance image. As a result, the power consumption of the image processing apparatus 10 that forms a distance image can be reduced.

[実施例2]
<画像処理装置の構成例>
図11は、実施例2の画像処理装置の一例を示すブロック図である。図11において、画像処理装置20は、オクルージョン領域決定部21を有する。
[Example 2]
<Configuration example of image processing apparatus>
FIG. 11 is a block diagram illustrating an example of an image processing apparatus according to the second embodiment. In FIG. 11, the image processing apparatus 20 includes an occlusion area determination unit 21.

右側距離画像形成部12は、実施例1の処理に加え、左側距離画像のブロック(m,n)を右側距離画像のブロック位置(m’,n’)に移動させる度に、移動後のブロック位置(m’,n’)をオクルージョン領域決定部21に通知する。   In addition to the processing of the first embodiment, the right distance image forming unit 12 moves the left distance image block (m, n) to the block position (m ′, n ′) of the right distance image. The occlusion area determination unit 21 is notified of the position (m ′, n ′).

オクルージョン領域決定部21は、移動後のブロック位置(m’,n’)を通知される度に、オクルージョン領域マップを更新する。そして、左側距離画像の全ブロックの移動が完了した時点で、オクルージョン領域決定部21は、オクルージョン領域マップを参照し、右側距離画像において、左側距離画像からの移動後のブロックが存在しない領域をオクルージョン領域と決定する。そして、オクルージョン領域決定部21は、オクルージョン領域を構成するブロックの位置を示す情報を決定結果として出力する。   The occlusion area determination unit 21 updates the occlusion area map each time the block position (m ′, n ′) after movement is notified. Then, when the movement of all the blocks in the left distance image is completed, the occlusion area determination unit 21 refers to the occlusion area map, and in the right distance image, occludes an area in which no block after movement from the left distance image exists. Determine the area. And the occlusion area | region determination part 21 outputs the information which shows the position of the block which comprises an occlusion area | region as a determination result.

<画像処理装置の処理>
図12は、実施例2の画像処理装置の処理の説明に供するフローチャートである。なお、ステップS41,S42,S44〜S46の処理は図4と同一であるため、説明を省略する。
<Processing of image processing apparatus>
FIG. 12 is a flowchart for explaining processing of the image processing apparatus according to the second embodiment. In addition, since the process of step S41, S42, S44-S46 is the same as FIG. 4, description is abbreviate | omitted.

まず、ステップS51では、オクルージョン領域決定部21は、オクルージョン領域マップを初期化する(ステップS51)。オクルージョン領域マップは、右側距離画像と同様に、M×Nブロックの複数のブロックで構成され、ステップS51での初期化により、全ブロックが“0”に設定される。   First, in step S51, the occlusion area determination unit 21 initializes an occlusion area map (step S51). The occlusion area map is composed of a plurality of M × N blocks as in the right distance image, and all blocks are set to “0” by the initialization in step S51.

ステップS52では、図4のステップS43と同様、右側距離画像形成部12は、ブロック(m,n)をブロック位置(m’,n’)に移動させる。さらに、右側距離画像形成部12は、移動後のブロック位置(m’,n’)をオクルージョン領域決定部21に通知する(ステップS52)。   In step S52, as in step S43 in FIG. 4, the right distance image forming unit 12 moves the block (m, n) to the block position (m ′, n ′). Further, the right distance image forming unit 12 notifies the occlusion region determining unit 21 of the block position (m ′, n ′) after the movement (step S52).

ステップS53では、オクルージョン領域決定部21は、オクルージョン領域マップのM×Nブロックのうち、ステップS52で通知されたブロック位置(m’,n’)に対応するブロックの値を“0”から“1”に更新する(ステップS53)。オクルージョン領域決定部21は、左側距離画像のブロックの移動が行われる度に、ステップS53の処理を行う。   In step S53, the occlusion area determination unit 21 changes the value of the block corresponding to the block position (m ′, n ′) notified in step S52 from “0” to “1” among the M × N blocks of the occlusion area map. To "" (step S53). The occlusion area determination unit 21 performs the process of step S53 every time the left distance image block is moved.

左側距離画像の全ブロックの移動が終了したとき(ステップS45:Yes)、右側距離画像形成部12は、右側距離画像を出力するとともに、左側距離画像の全ブロックの移動が終了したことをオクルージョン領域決定部21に通知する。   When the movement of all the blocks of the left distance image is completed (step S45: Yes), the right distance image forming unit 12 outputs the right distance image and indicates that the movement of all the blocks of the left distance image is completed. Notify the determination unit 21.

そして、左側距離画像の全ブロックの移動が終了した時点で(ステップS45:Yes)、オクルージョン領域決定部21は、オクルージョン領域マップを参照し、値が“0”のままであるブロックにより構成される領域をオクルージョン領域と決定する(ステップS54)。   When the movement of all the blocks in the left distance image is completed (step S45: Yes), the occlusion area determination unit 21 refers to the occlusion area map and is configured by blocks whose values remain “0”. The area is determined as an occlusion area (step S54).

<オクルージョン領域マップの更新例>
図13A〜Dは、実施例2のオクルージョン領域マップの更新例の説明に供する図である。図13A〜Dには、M=16,N=8とした場合を一例として示す。
<Example of updating the occlusion area map>
13A to 13D are diagrams for explaining an example of updating the occlusion area map according to the second embodiment. 13A to 13D show an example where M = 16 and N = 8.

右側距離画像が図6Aに示す初期状態にある場合、オクルージョン領域マップは、図13Aに示す初期状態にある。すなわち、オクルージョン領域マップは、初期状態では、全ブロックの値が“0”である。   When the right distance image is in the initial state shown in FIG. 6A, the occlusion area map is in the initial state shown in FIG. 13A. That is, in the occlusion area map, the values of all blocks are “0” in the initial state.

次いで、右側距離画像が図6Bに示す状態になったとき、オクルージョン領域マップは図13Bに示す状態に更新される。すなわち、オクルージョン領域マップのM×Nブロックのうち、右側距離画像において「視差値=0」のブロックが書き込まれた位置にあるブロックの値が“0”から“1”に更新される。   Next, when the right distance image is in the state shown in FIG. 6B, the occlusion area map is updated to the state shown in FIG. 13B. That is, among the M × N blocks of the occlusion area map, the value of the block at the position where the block of “parallax value = 0” is written in the right distance image is updated from “0” to “1”.

次いで、右側距離画像が図6Cに示す状態になったとき、オクルージョン領域マップは図13Cに示す状態に更新される。すなわち、オクルージョン領域マップのM×Nブロックのうち、右側距離画像において「視差値=2」のブロックが書き込まれた位置にあるブロックの値が“0”から“1”に更新される。   Next, when the right distance image is in the state shown in FIG. 6C, the occlusion area map is updated to the state shown in FIG. 13C. That is, among the M × N blocks of the occlusion area map, the value of the block at the position where the block of “parallax value = 2” is written in the right distance image is updated from “0” to “1”.

次いで、右側距離画像が図6Dに示す状態になったとき、オクルージョン領域マップは図13Dに示す状態に更新される。すなわち、オクルージョン領域マップのM×Nブロックのうち、右側距離画像において「視差値=3」のブロックが書き込まれた位置にあるブロックの値が“0”から“1”に更新される。   Next, when the right distance image is in the state shown in FIG. 6D, the occlusion area map is updated to the state shown in FIG. 13D. That is, among the M × N blocks of the occlusion area map, the value of the block at the position where the block of “parallax value = 3” is written in the right distance image is updated from “0” to “1”.

左側距離画像の全ブロックの右側距離画像への書き込みが終了した時点でオクルージョン領域マップにおいて値が“0”のままであるブロックにより構成される領域は、右側距離画像において、左側距離画像からの移動後のブロックが存在しない領域と一致する。そこで、左側距離画像の全ブロックの右側距離画像への書き込みが終了した図13Dに示す状態において、オクルージョン領域決定部21は、オクルージョン領域マップにおいて値が“0”のままであるブロックにより構成される領域をオクルージョン領域と決定する。つまり、画像処理装置20において、オクルージョン領域決定部21は、右側距離画像において、左側距離画像からの移動後のブロックが存在しない領域をオクルージョン領域と決定する。   An area composed of blocks whose values remain “0” in the occlusion area map when all the blocks in the left distance image have been written to the right distance image is moved from the left distance image in the right distance image. It matches the area where no later block exists. Therefore, in the state shown in FIG. 13D in which writing of all the blocks of the left distance image to the right distance image is completed, the occlusion area determination unit 21 is configured by blocks whose values remain “0” in the occlusion area map. The area is determined as an occlusion area. That is, in the image processing apparatus 20, the occlusion area determination unit 21 determines an area in the right distance image where no block after movement from the left distance image exists as an occlusion area.

これにより、簡易に、かつ、短時間でオクルージョン領域を決定することができる。   Thereby, the occlusion area can be determined easily and in a short time.

[実施例3]
図14は、実施例3の画像処理装置の一例を示すブロック図である。図14において、画像処理装置30は、オクルージョン領域補完部31を有する。
[Example 3]
FIG. 14 is a block diagram illustrating an example of an image processing apparatus according to the third embodiment. In FIG. 14, the image processing apparatus 30 includes an occlusion area complementing unit 31.

オクルージョン領域補完部31には、右側距離画像形成部12から右側距離画像が入力される。また、オクルージョン領域補完部31には、オクルージョン領域決定部21から、決定結果として、オクルージョン領域を構成するブロックの位置を示す情報が入力される。   The right distance image is input from the right distance image forming unit 12 to the occlusion region complementing unit 31. The occlusion area complementing unit 31 receives information indicating the position of the block constituting the occlusion area from the occlusion area determining unit 21 as a determination result.

オクルージョン領域補完部31は、右側距離画像において、オクルージョン領域に隣接する複数のブロックのうち、最小の視差値のブロックによりオクルージョン領域を補完する。そして、オクルージョン領域補完部31は、補完後の右側距離画像を出力する。   The occlusion area complementing unit 31 complements the occlusion area with a block having the smallest parallax value among a plurality of blocks adjacent to the occlusion area in the right distance image. Then, the occlusion region complementing unit 31 outputs the right-side distance image after complementing.

<画像処理装置の処理>
図15は、実施例3の画像処理装置の処理の説明に供するフローチャートである。なお、ステップS41,S42,S44〜S46及びステップS51〜S54の処理は図4,図12と同一であるため、説明を省略する。
<Processing of image processing apparatus>
FIG. 15 is a flowchart for explaining processing of the image processing apparatus according to the third embodiment. In addition, since the process of step S41, S42, S44-S46 and step S51-S54 is the same as FIG. 4, FIG. 12, description is abbreviate | omitted.

オクルージョン領域決定部21によりオクルージョン領域が決定されると(ステップS54)、決定結果に従って、オクルージョン領域補完部31は、右側距離画像のオクルージョン領域を補完する(ステップS61)。   When the occlusion area is determined by the occlusion area determining unit 21 (step S54), the occlusion area complementing unit 31 complements the occlusion area of the right distance image according to the determination result (step S61).

<オクルージョン領域の補完例>
図16A,Bは、実施例3のオクルージョン領域の補完例の説明に供する図である。図16A,Bには、M=16,N=8とした場合を一例として示す。
<Complementary example of occlusion area>
16A and 16B are diagrams for explaining an example of complementing the occlusion area according to the third embodiment. 16A and 16B show an example where M = 16 and N = 8.

図6DにおいてNullのまま残ったブロックにより構成される領域は、左側距離画像の全ブロックの右側距離画像への書き込みが終了した時点でオクルージョン領域マップにおいて値が“0”のままであるブロックにより構成される領域と一致する。つまり、図6DにおいてNullのまま残ったブロックにより構成される領域はオクルージョン領域である。   In FIG. 6D, the area constituted by the blocks remaining as Null is constituted by the blocks whose values remain “0” in the occlusion area map when the writing of all the blocks of the left distance image to the right distance image is completed. Matches the region being That is, the area constituted by the blocks remaining as Null in FIG. 6D is an occlusion area.

よって例えば、図5及び図6A〜Dに示すようにして形成される右側距離画像には、図16Aに示すように、OC1〜OC5の5つの領域に分割されるオクルージョン領域が含まれる。   Therefore, for example, the right distance image formed as shown in FIGS. 5 and 6A to D includes an occlusion area divided into five areas OC1 to OC5 as shown in FIG. 16A.

ここで、オクルージョン領域は、視点からの距離が遠い物体が、視点からの距離が近い物体によって隠されていて見えない領域と推定される。つまり、オクルージョン領域には、視点からの距離が遠い物体が存在すると推定される。また、視点からの距離が遠い物体に対する視差値は、視点からの距離が近い物体に対する視差値よりも小さい。   Here, the occlusion region is estimated to be an invisible region where an object that is far from the viewpoint is hidden by an object that is close to the viewpoint. That is, it is estimated that an object with a long distance from the viewpoint exists in the occlusion area. Also, the parallax value for an object that is far from the viewpoint is smaller than the parallax value for an object that is close to the viewpoint.

そこで、オクルージョン領域補完部31は、右側距離画像において、オクルージョン領域に隣接する複数のブロックのうち、最小の視差値のブロックによりオクルージョン領域を補完する。   Therefore, the occlusion area complementing unit 31 complements the occlusion area with a block having the smallest parallax value among a plurality of blocks adjacent to the occlusion area in the right distance image.

例えば図16Aにおいて、オクルージョン領域OC1,OC2,OC3にはそれぞれ、x軸方向で、視差値=2のブロックと視差値=0のブロックとが隣接している。そこで、オクルージョン領域補完部31は、オクルージョン領域OC1,OC2,OC3のそれぞれを、視差値=0のブロックにより補完する。   For example, in FIG. 16A, a block with a parallax value = 2 and a block with a parallax value = 0 are adjacent to each other in the x-axis direction in the occlusion areas OC1, OC2, and OC3. Therefore, the occlusion area complementing unit 31 complements each of the occlusion areas OC1, OC2, and OC3 with a block having a parallax value = 0.

また、オクルージョン領域OC4,OC5にはそれぞれ、x軸方向で、視差値=3のブロックと視差値=2のブロックとが隣接している。そこで、オクルージョン領域補完部31は、オクルージョン領域OC4,OC5のそれぞれを、視差値=2のブロックにより補完する。   Also, in the x-axis direction, a block with a parallax value = 3 and a block with a parallax value = 2 are adjacent to each other in the occlusion areas OC4 and OC5. Therefore, the occlusion area complementing unit 31 complements each of the occlusion areas OC4 and OC5 with a block having a parallax value = 2.

オクルージョン領域OC1〜OC5が補完された結果、オクルージョン領域補完部31は、図16Bに示すような、補完後の右側距離画像を得る。   As a result of complementing the occlusion areas OC1 to OC5, the occlusion area complementing unit 31 obtains a right-side distance image after complementing as shown in FIG. 16B.

以上のように、本実施例によれば、オクルージョン領域補完部31は、右側距離画像において、オクルージョン領域に隣接する複数のブロックのうち、最小の視差値のブロックによりオクルージョン領域を補完する。   As described above, according to the present embodiment, the occlusion area complementing unit 31 complements the occlusion area with the block having the smallest parallax value among the plurality of blocks adjacent to the occlusion area in the right distance image.

これにより、視点からの距離がより遠い距離画像によりオクルージョン領域を補完することができるので、精度良くオクルージョン領域を補完することができる。また、精度良くオクルージョン領域を補完することができるため、右側距離画像の精度を向上させることができる。   As a result, the occlusion area can be complemented by the distance image that is farther from the viewpoint, so that the occlusion area can be complemented with high accuracy. In addition, since the occlusion region can be complemented with high accuracy, the accuracy of the right distance image can be improved.

[他の実施例]
[1]実施例1〜3で図示した画像処理装置10,20,30は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
[Other embodiments]
[1] The image processing apparatuses 10, 20, and 30 illustrated in the first to third embodiments do not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each unit is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Can be configured.

さらに、画像処理装置10,20,30で行われる各種処理機能は、CPU(Central Processing Unit)(または、MPU(Micro Processing Unit)、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(または、MPU、MCU等のマイクロ・コンピュータ)で解析実行するプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよい。   Furthermore, various processing functions performed in the image processing apparatuses 10, 20, and 30 are performed on a CPU (Central Processing Unit) (or a microcomputer such as an MPU (Micro Processing Unit) or MCU (Micro Controller Unit)). All or any part may be executed. In addition, various processing functions may be executed in whole or in any part on a program that is analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware based on wired logic. Good.

[2]実施例1〜3の画像処理装置10,20,30は、例えば、次のようなハードウェア構成により実現することができる。   [2] The image processing apparatuses 10, 20, and 30 according to the first to third embodiments can be realized by the following hardware configuration, for example.

図17は、画像処理装置のハードウェア構成例を示す図である。図17に示すように、画像処理装置100は、プロセッサ101と、メモリ102と、カメラ103と、表示装置104とを有する。   FIG. 17 is a diagram illustrating a hardware configuration example of the image processing apparatus. As illustrated in FIG. 17, the image processing apparatus 100 includes a processor 101, a memory 102, a camera 103, and a display device 104.

プロセッサ101の一例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)等が挙げられる。また、メモリ102の一例として、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。   Examples of the processor 101 include a central processing unit (CPU), a digital signal processor (DSP), and a field programmable gate array (FPGA). Examples of the memory 102 include a random access memory (RAM) such as a SDRAM (Synchronous Dynamic Random Access Memory), a read only memory (ROM), and a flash memory.

そして、実施例1〜3の画像処理装置10,20,30で行われる各種処理機能は、不揮発性記憶媒体などの各種メモリに格納されたプログラムをプロセッサ101で実行することによって実現してもよい。すなわち、左側距離画像形成部11と、右側距離画像形成部12と、オクルージョン領域決定部21と、オクルージョン領域補完部31とによって実行される各処理に対応するプログラムがメモリ102に記録され、各プログラムがプロセッサ101で実行されてもよい。また、左側画像及び右側画像は、カメラ103で撮影されてもよい。また、左側距離画像及び右側距離画像、並びに、補完された右側距離画像は、表示装置104に表示されてもよい。   Various processing functions performed by the image processing apparatuses 10, 20, and 30 according to the first to third embodiments may be realized by the processor 101 executing programs stored in various memories such as a nonvolatile storage medium. . That is, a program corresponding to each process executed by the left distance image forming unit 11, the right distance image forming unit 12, the occlusion area determining unit 21, and the occlusion area complementing unit 31 is recorded in the memory 102, and each program is recorded. May be executed by the processor 101. Further, the left image and the right image may be taken by the camera 103. Further, the left distance image, the right distance image, and the complemented right distance image may be displayed on the display device 104.

また、プロセッサ101は、1チップの画像処理回路として実現されてもよい。   The processor 101 may be realized as a one-chip image processing circuit.

10,20,30 画像処理装置
11 左側距離画像形成部
12 右側距離画像形成部
21 オクルージョン領域決定部
31 オクルージョン領域補完部
10, 20, 30 Image processing apparatus 11 Left distance image forming unit 12 Right distance image forming unit 21 Occlusion region determining unit 31 Occlusion region complementing unit

Claims (6)

メモリと、前記メモリに接続されたプロセッサと、を具備し、
前記プロセッサは、
第1距離画像を構成する複数のブロックの各々を、各ブロックの視差値に応じた距離だけ移動させ、
移動後の前記複数のブロックから、前記第1距離画像と視点が異なる第2距離画像を形成する、
画像処理装置。
A memory, and a processor connected to the memory,
The processor is
Each of the plurality of blocks constituting the first distance image is moved by a distance according to the parallax value of each block,
Forming a second distance image having a different viewpoint from the first distance image from the plurality of blocks after movement;
Image processing device.
前記プロセッサは、
前記第2距離画像において、移動後の前記複数のブロックが存在しない領域をオクルージョン領域と決定する、
請求項1に記載の画像処理装置。
The processor is
In the second distance image, an area where the plurality of blocks after the movement does not exist is determined as an occlusion area.
The image processing apparatus according to claim 1.
前記プロセッサは、
前記第2距離画像において、前記オクルージョン領域に隣接する複数のブロックのうち、最小の視差値のブロックにより、前記オクルージョン領域を補完する、
請求項2に記載の画像処理装置。
The processor is
In the second distance image, the occlusion area is complemented by a block having a minimum parallax value among a plurality of blocks adjacent to the occlusion area.
The image processing apparatus according to claim 2.
第1距離画像を形成する第1形成部と、
前記第1距離画像を構成する複数のブロックの各々を、各ブロックの視差値に応じた距離だけ移動させ、移動後の前記複数のブロックから、前記第1距離画像と視点が異なる第2距離画像を形成する第2形成部と、
を具備する画像処理回路。
A first forming unit for forming a first distance image;
Each of the plurality of blocks constituting the first distance image is moved by a distance corresponding to the parallax value of each block, and the second distance image having a different viewpoint from the first distance image is moved from the plurality of blocks after the movement. A second forming part for forming
An image processing circuit comprising:
第1距離画像を構成する複数のブロックの各々を、各ブロックの視差値に応じた距離だけ移動させ、
移動後の前記複数のブロックから、前記第1距離画像と視点が異なる第2距離画像を形成する、
処理を、プロセッサに実行させる画像処理プログラム。
Each of the plurality of blocks constituting the first distance image is moved by a distance according to the parallax value of each block,
Forming a second distance image having a different viewpoint from the first distance image from the plurality of blocks after movement;
An image processing program for causing a processor to execute processing.
第1距離画像を構成する複数のブロックの各々を、各ブロックの視差値に応じた距離だけ移動させ、
移動後の前記複数のブロックから、前記第1距離画像と視点が異なる第2距離画像を形成する、
画像処理方法。
Each of the plurality of blocks constituting the first distance image is moved by a distance according to the parallax value of each block,
Forming a second distance image having a different viewpoint from the first distance image from the plurality of blocks after movement;
Image processing method.
JP2013117364A 2013-06-03 2013-06-03 Image processing apparatus, image processing circuit, image processing program, and image processing method Pending JP2014235615A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013117364A JP2014235615A (en) 2013-06-03 2013-06-03 Image processing apparatus, image processing circuit, image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013117364A JP2014235615A (en) 2013-06-03 2013-06-03 Image processing apparatus, image processing circuit, image processing program, and image processing method

Publications (1)

Publication Number Publication Date
JP2014235615A true JP2014235615A (en) 2014-12-15

Family

ID=52138259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013117364A Pending JP2014235615A (en) 2013-06-03 2013-06-03 Image processing apparatus, image processing circuit, image processing program, and image processing method

Country Status (1)

Country Link
JP (1) JP2014235615A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022524683A (en) * 2019-03-18 2022-05-10 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー Systems and methods for rendering real-world objects using depth information

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032840A (en) * 1996-04-05 1998-02-03 Matsushita Electric Ind Co Ltd Multi-view image transmission method and multi-view image display method
WO2013073316A1 (en) * 2011-11-14 2013-05-23 独立行政法人情報通信研究機構 Stereoscopic video coding device, stereoscopic video decoding device, stereoscopic video coding method, stereoscopic video decoding method, stereoscopic video coding program, and stereoscopic video decoding program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032840A (en) * 1996-04-05 1998-02-03 Matsushita Electric Ind Co Ltd Multi-view image transmission method and multi-view image display method
WO2013073316A1 (en) * 2011-11-14 2013-05-23 独立行政法人情報通信研究機構 Stereoscopic video coding device, stereoscopic video decoding device, stereoscopic video coding method, stereoscopic video decoding method, stereoscopic video coding program, and stereoscopic video decoding program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022524683A (en) * 2019-03-18 2022-05-10 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー Systems and methods for rendering real-world objects using depth information

Similar Documents

Publication Publication Date Title
US10950036B2 (en) Method and apparatus for three-dimensional (3D) rendering
US9396590B2 (en) Image processing apparatus and method for three-dimensional image zoom
CN106997453B (en) Event signal processing method and device
KR101502362B1 (en) Image processing apparatus and method
JP6405891B2 (en) Position / attitude estimation apparatus, position / attitude estimation method, and program
US10621446B2 (en) Handling perspective magnification in optical flow processing
US20180098047A1 (en) Imaging system, image processing apparatus, image processing method, and storage medium
JP6253450B2 (en) Image processing apparatus, image processing method, and program
JP6701930B2 (en) Authoring device, authoring method, and authoring program
JP2018513640A5 (en)
JP2019101686A (en) Image processor, method for processing image, and program
CN112562087B (en) Method and apparatus for estimating pose
CN105512637A (en) Image processing method and electric device
JP2018195084A (en) Image processing apparatus, image processing method, program, and storage medium
RU2020103459A (en) DEVICE AND METHOD FOR IMAGE FORMATION
JP2012069090A (en) Image processing apparatus and method
CN109859253A (en) A kind of solid matching method, device and electronic equipment
US10573073B2 (en) Information processing apparatus, information processing method, and storage medium
US10264238B2 (en) Stereoscopic mapping
JPWO2015198592A1 (en) Information processing apparatus, information processing method, and information processing program
JP2014235615A (en) Image processing apparatus, image processing circuit, image processing program, and image processing method
US10949988B2 (en) Information processing apparatus, information processing method, and program
US9454801B2 (en) Image processing apparatus, method for processing image, and program
US20140009493A1 (en) Parallax image generating device and parallax image generating method
JP2016511962A (en) Interpolation method and corresponding apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170808