JP2014235615A - Image processing apparatus, image processing circuit, image processing program, and image processing method - Google Patents
Image processing apparatus, image processing circuit, image processing program, and image processing method Download PDFInfo
- Publication number
- JP2014235615A JP2014235615A JP2013117364A JP2013117364A JP2014235615A JP 2014235615 A JP2014235615 A JP 2014235615A JP 2013117364 A JP2013117364 A JP 2013117364A JP 2013117364 A JP2013117364 A JP 2013117364A JP 2014235615 A JP2014235615 A JP 2014235615A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance image
- block
- distance
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】距離画像の形成の演算量を削減すること。【解決手段】画像処理装置10において、 左側距離画像形成部11は、左側画像を基準画像、右側画像を参照画像とし、ブロックマッチングを用いて左側距離画像を形成し、右側距離画像形成部12は、左側距離画像形成部11で形成された左側距離画像を構成する複数のブロックの各々を、各ブロックの視差値に応じた距離だけ移動させ、移動後の各ブロックから、右側距離画像を形成する。【選択図】図1A calculation amount for forming a distance image is reduced. In an image processing apparatus, a left distance image forming unit 11 uses a left image as a reference image and a right image as a reference image, forms a left distance image using block matching, and a right distance image forming unit 12 Each of the plurality of blocks constituting the left distance image formed by the left distance image forming unit 11 is moved by a distance corresponding to the parallax value of each block, and a right distance image is formed from each moved block. . [Selection] Figure 1
Description
本発明は、画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法に関する。 The present invention relates to an image processing apparatus, an image processing circuit, an image processing program, and an image processing method.
人が3D(three dimensions)画像を見たときに、違和感または不快感を覚えることがある。実空間で人が物体を見る場合、その人の焦点は、中心視野に在る物体近傍に合っている。このため、その中心視野から外れたところの物体はピントがずれた状態で認識される。すなわち、実空間において、人からの距離が大きく異なる複数の物体を同程度で認識することは少ない。このため、画像内で深さ(つまり、視点からの距離)が大きく異なる複数の物体を見る場合、輻輳と調節との矛盾の程度が大きいため、観察者は疲労感を感じる。 When a person sees a 3D (three dimensions) image, the person may feel uncomfortable or uncomfortable. When a person views an object in real space, the person's focus is in the vicinity of the object in the central field of view. For this reason, an object outside the central visual field is recognized in a state of being out of focus. In other words, in a real space, it is rare to recognize a plurality of objects having greatly different distances from a person at the same level. For this reason, when a plurality of objects having greatly different depths (that is, distances from the viewpoint) are viewed in the image, the observer feels tired because the degree of contradiction between convergence and adjustment is large.
そこで、この状況において輻輳と調節との矛盾の程度を小さく抑えるために、一般的にフィルタリング処理が行われる。このフィルタリング処理では、距離画像が用いられる。距離画像は、2つの視点から撮影された2つの画像、すなわち、左側の視点から撮影された画像である「左側画像」と、右側の視点から撮影された画像である「右側画像」とから求められる。例えば、左側画像の原点と右側画像の原点とを合わせ、左側画像の基準点の座標と、当該基準点に対応する右側画像の対応点の座標との差(つまり、視差)を、基準点の値とした画像が、「左側距離画像」である。逆に、左側画像の原点と右側画像の原点とを合わせ、右側画像の基準点の座標と、当該基準点に対応する左側画像の対応点の座標との差(つまり、視差)を、基準点の値とした画像が、「右側距離画像」である。つまり、左側距離画像を求める場合、左側画像が基準画像となり、右側画像が参照画像となる。逆に、右側距離画像を求める場合、右側画像が基準画像となり、左側画像が参照画像となる。そして、3D画像に対してフィルタリング処理を行う場合には、左側画像及び右側画像のそれぞれに対しフィルタリング処理を行う。すなわち、左側画像に対しては左側距離画像を用いてフィルタリング処理を行い、右側画像に対しては右側距離画像を用いてフィルタリング処理を行う。つまり、3D画像に対してフィルタリング処理を行う場合には、左側距離画像及び右側距離画像の2つの距離画像を求める。 Therefore, in order to suppress the degree of contradiction between congestion and adjustment in this situation, a filtering process is generally performed. In this filtering process, a distance image is used. The distance image is obtained from two images taken from two viewpoints, that is, a “left image” taken from the left viewpoint and a “right image” taken from the right viewpoint. It is done. For example, the origin of the left image and the origin of the right image are matched, and the difference (that is, parallax) between the coordinates of the reference point of the left image and the coordinates of the corresponding point of the right image corresponding to the reference point is calculated as the reference point. The image as the value is the “left-side distance image”. Conversely, the origin of the left image is aligned with the origin of the right image, and the difference (that is, parallax) between the coordinates of the reference point of the right image and the coordinates of the corresponding point of the left image corresponding to the reference point is determined as the reference point. The image with the value of “is the right distance image”. That is, when obtaining the left distance image, the left image is the reference image and the right image is the reference image. Conversely, when obtaining the right distance image, the right image is the reference image, and the left image is the reference image. When the filtering process is performed on the 3D image, the filtering process is performed on each of the left image and the right image. That is, the filtering process is performed on the left image using the left distance image, and the filtering process is performed on the right image using the right distance image. That is, when the filtering process is performed on the 3D image, two distance images of the left distance image and the right distance image are obtained.
ここで、距離画像の形成に用いられる従来技術として「ブロックマッチング」がある。ブロックマッチングとは、基準画像を、複数の小面積の領域、つまり、複数のブロックに分割し、各ブロックの画像と参照画像の全領域とを比較し、参照画像上において各ブロックと対応する位置を探す技術である。以下では、基準画像の複数のブロックのうち距離算出の対象とするブロックを「対象ブロック」と呼ぶことがある。ブロックマッチングでは、参照画像上の対応する位置として、対象ブロックと最も類似する画像の位置(つまり、最も誤差が小さい画像の位置)を探す。そして、対象ブロックと、参照画像上で探し出された画像の位置との間の距離の値を、視差値として対象ブロックに書き込む。視点からの距離が遠い物体では視差が小さくなり、視点からの距離が近い物体では視差が大きくなる。つまり、視点からの距離がより近い物体ほど、視差値はより大きくなる。 Here, there is “block matching” as a conventional technique used for forming a distance image. Block matching is a method of dividing the reference image into a plurality of small area areas, that is, a plurality of blocks, comparing the image of each block with the entire area of the reference image, and the position corresponding to each block on the reference image. It is a technique to search for. Hereinafter, a block that is a target of distance calculation among a plurality of blocks of the reference image may be referred to as a “target block”. In block matching, the position of the image most similar to the target block (that is, the position of the image with the smallest error) is searched for as the corresponding position on the reference image. Then, the value of the distance between the target block and the position of the image found on the reference image is written in the target block as a parallax value. The parallax is small for an object that is far from the viewpoint, and the parallax is large for an object that is close to the viewpoint. In other words, the closer the distance from the viewpoint, the larger the parallax value.
ブロックマッチングは、基準画像上で対象ブロックを順次シフトさせながら、基準画像の全ブロックの各々について参照画像の全領域に渡って行われる。このため、ブロックマッチングの演算量は大きい。よって、距離画像の形成にブロックマッチングを用いると、距離画像の形成の演算量が大きくなり、距離画像の形成に多くの時間がかかってしまう。特に、3D画像に対してフィルタリング処理を行う場合には、左側画像を基準画像として左側距離画像を求めるブロックマッチングと、右側画像を基準画像として右側距離画像を求めるブロックマッチングとが行われるため、距離画像の形成の演算量がさらに大きくなる。 Block matching is performed over the entire area of the reference image for each of all blocks of the base image while sequentially shifting the target block on the base image. For this reason, the calculation amount of block matching is large. Therefore, if block matching is used for forming a distance image, the amount of calculation for forming the distance image increases, and it takes much time to form the distance image. In particular, when filtering processing is performed on a 3D image, block matching for obtaining a left distance image using the left image as a reference image and block matching for obtaining a right distance image using the right image as a reference image are performed. The amount of calculation for image formation is further increased.
開示の技術は、上記に鑑みてなされたものであって、距離画像の形成の演算量を削減することができる、画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法を提供することを目的とする。 The disclosed technology has been made in view of the above, and provides an image processing device, an image processing circuit, an image processing program, and an image processing method capable of reducing the amount of calculation for forming a distance image. With the goal.
開示の態様では、第1距離画像を構成する複数のブロックの各々を、各ブロックの視差値に応じた距離だけ移動させ、移動後の前記複数のブロックから、前記第1距離画像と視点が異なる第2距離画像を形成する。 In the disclosed aspect, each of the plurality of blocks constituting the first distance image is moved by a distance corresponding to the parallax value of each block, and the viewpoint of the first distance image is different from the plurality of blocks after the movement. A second distance image is formed.
開示の態様によれば、距離画像の形成の演算量を削減することができる。 According to the disclosed aspect, it is possible to reduce the amount of calculation for forming a distance image.
以下に、本願の開示する画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法の実施例を図面に基づいて説明する。なお、以下の実施例により本願の開示する画像処理装置、画像処理回路、画像処理プログラム、及び画像処理方法が限定されるものではない。また、各実施例において同一の機能を有する構成、または、同一の処理を行うステップには同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of an image processing device, an image processing circuit, an image processing program, and an image processing method disclosed in the present application will be described with reference to the drawings. The image processing apparatus, the image processing circuit, the image processing program, and the image processing method disclosed in the present application are not limited by the following embodiments. Moreover, the same code | symbol is attached | subjected to the structure which has the same function in each Example, or the step which performs the same process, and the overlapping description is abbreviate | omitted.
また、以下では一例として、左側距離画像から右側距離画像を形成する場合について説明する。しかし、以下の実施例の「左」を「右」に、「右」を「左」に読み替えることにより、以下の実施例と同様にして、右側距離画像から左側距離画像を形成することもできる。左側距離画像から右側距離画像を形成する場合は、左側距離画像が第1の距離画像に、右側距離画像が、第1の距離画像と視点が異なる第2の距離画像に相当する。逆に、右側距離画像から左側距離画像を形成する場合は、右側距離画像が第1の距離画像に、左側距離画像が、第1の距離画像と視点が異なる第2の距離画像に相当する。 In the following, as an example, a case where a right distance image is formed from a left distance image will be described. However, by replacing “left” with “right” and “right” with “left” in the following embodiments, a left-side distance image can be formed from a right-side distance image in the same manner as in the following embodiments. . When a right distance image is formed from a left distance image, the left distance image corresponds to a first distance image, and the right distance image corresponds to a second distance image having a different viewpoint from the first distance image. Conversely, when forming the left distance image from the right distance image, the right distance image corresponds to the first distance image, and the left distance image corresponds to the second distance image having a different viewpoint from the first distance image.
[実施例1]
<画像処理装置の構成例>
図1は、実施例1の画像処理装置の一例を示すブロック図である。図1において、画像処理装置10は、左側距離画像形成部11と、右側距離画像形成部12とを有する。
[Example 1]
<Configuration example of image processing apparatus>
FIG. 1 is a block diagram illustrating an example of an image processing apparatus according to the first embodiment. In FIG. 1, the
左側距離画像形成部11には、左側画像と右側画像とが入力される。左側距離画像形成部11は、左側画像を基準画像、右側画像を参照画像とし、ブロックマッチングを用いて左側距離画像を形成する。
The left-side image and the right-side image are input to the left-side distance
すなわち、左側距離画像形成部11は、図2に示すように、左側画像をx軸でMブロック、y軸でNブロックの合計M×Nの複数のブロックに分割する。図2は、実施例1のブロック分割の一例を示す図である。M×Nブロックにおいて、原点のブロックを左上端のブロック(0,0)とし、任意の対象ブロックをブロック(m,n)とすると、右下端のブロックはブロック(M−1,N−1)となる。つまり、mは0〜M−1の何れかの値をとり、nは0〜N−1の何れかの値をとる。また、1ブロックのx軸方向の長さをXとし、y軸方向の長さをYとする。また、ブロック(m,n)の右上端の画素位置を(bx,by)とする。
That is, as shown in FIG. 2, the left-side distance
左側距離画像形成部11は、左側画像を基準画像、右側画像を参照画像とし、対象ブロック(m,n)をブロック(0,0)からブロック(M−1,N−1)まで1ブロックずつシフトさせながら、M×Nブロックの全ブロックについてブロックマッチングを行う。すなわち、左側距離画像形成部11は、右側画像の全領域において、対象ブロック(m,n)の画像と最も類似する画像の位置(つまり、最も誤差が小さい画像の位置)を探す。ここで、左側画像及び右側画像の双方に存在する同一物体は、左側画像では、右側画像での撮影位置よりも相対的に右側にずれて撮影される。よって、図2に示すように、右方向をx軸の正方向、下方向をy軸の正方向とした場合、左側距離画像形成部11は、右側画像上で探し出した画像の位置から、対象ブロック(m,n)までの距離の値(xmn,ymn)を、視差値として対象ブロック(m,n)に書き込む。
The left distance
ここで、類似度の評価には、例えば、SAD(Sum of Absolute Difference)を用いる。ここでは、SADは式(1)により表される。式(1)において、inは基準画像である左側画像、refは参照画像である右側画像を表す。また、in(bx+i,by+j)は、左側画像の座標(bx+i,by+j)での画素の輝度値、ref(bx+i+x,by+j+y)は、右側画像の座標(bx+i+x,by+j+y)での画素の輝度値を表す。
左側距離画像形成部11は、対象ブロック(m,n)について、式(1)に従って、SAD(x,y)を右側画像の全領域で求め、右側画像上でSAD(x,y)が最小となる位置、つまり、対象ブロック(m,n)との誤差が最も小さい位置(x,y)を求める。そして、左側距離画像形成部11は、対象ブロック(m,n)上の位置(bx,by)から、右側画像上の位置(x,y)までの距離(xmn,ymn)を求め、距離(xmn,ymn)を対象ブロック(m,n)の視差値として、対象ブロック(m,n)に書き込む。左側距離画像形成部11は、距離の算出及び書き込みを、対象ブロック(m,n)をブロック(0,0)からブロック(M−1,N−1)まで1ブロックずつシフトさせながらM×Nブロックの全ブロックについて行うことにより、左側距離画像を形成する。そして、左側距離画像形成部11は、形成した左側距離画像を出力する。
The left-side distance
右側距離画像形成部12には、左側距離画像形成部11で形成された左側距離画像が入力される。右側距離画像形成部12は、左側距離画像に基づいて、以下のようにして、右側距離画像を形成する。
The left distance image formed by the left distance
図3は、実施例1の右側距離画像の形成の説明に供する図である。上記のブロックマッチングにより左側距離画像において距離(xmn,ymn)を書き込まれた対象ブロック(m,n)は、その対象ブロック(m,n)との誤差が最も小さい右側画像の位置から距離(xmn,ymn)だけ離れた位置に存在する。また、左側画像及び右側画像の双方に存在する同一物体は、右側画像では、左側画像での撮影位置よりも相対的に左側にずれて撮影される。よって、右側画像をM×Nの複数のブロックに分割した場合、左側距離画像の距離(xmn,ymn)を書き込まれた対象ブロック(m,n)との誤差が最も小さいブロック(m’,n’)が右側画像において存在する位置は、式(2)により表される。
また、左側画像と右側画像との間で誤差が最も小さい2つのブロック間で、一方のブロックから他方のブロックまでの距離と、他方のブロックから一方のブロックまでの距離とは、大きさが同一で、互いに反対方向になる。よって、左側距離画像の距離(xmn,ymn)を書き込まれた対象ブロック(m,n)との誤差が最も小さいブロック(m’,n’)の視差値は(−xmn,−ymn)となる。 Also, between the two blocks with the smallest error between the left image and the right image, the distance from one block to the other block is the same as the distance from the other block to the one block. In opposite directions. Therefore, the disparity value of the block (m ′, n ′) with the smallest error from the target block (m, n) in which the distance (xmn, ymn) of the left distance image is written is (−xmn, −ymn). .
そこで、右側距離画像形成部12は、左側距離画像の各ブロックを、各ブロックの視差値に応じた距離だけ移動させ、移動後の各ブロックから右側距離画像を形成する。すなわち、右側距離画像形成部12は、M×Nブロックにおいて、左側距離画像のブロック(m,n)を、ブロック(m,n)の視差値(xmn,ymn)に応じた距離(xmn,ymn)だけx軸及びy軸の負方向に移動させて右側距離画像のブロック(m’,n’)とする。そして、右側距離画像形成部12は、ブロック(m,n)の視差値(xmn,ymn)の符号を反転させた視差値(−xmn,−ymn)をブロック(m’,n’)の視差値とする。右側距離画像形成部12は、ブロックの移動及び視差値の符号の反転を、左側距離画像においてブロック(m,n)をブロック(0,0)からブロック(M−1,N−1)まで1ブロックずつシフトさせながらM×Nブロックの全ブロックについて行うことにより、右側距離画像を形成する。そして、右側距離画像形成部12は、形成した右側距離画像を出力する。
Therefore, the right distance
なお、一般に3D画像において垂直方向(y軸方向)の視差は考慮しないため、上記の各処理において、y軸方向における処理を省くことができる。つまり、ymnを常に0とすることができる。 In general, since parallax in the vertical direction (y-axis direction) is not considered in a 3D image, the processing in the y-axis direction can be omitted in each of the above processes. That is, ymn can always be 0.
<画像処理装置の処理>
図4は、実施例1の画像処理装置の処理の説明に供するフローチャートである。
<Processing of image processing apparatus>
FIG. 4 is a flowchart for explaining processing of the image processing apparatus according to the first embodiment.
まず、右側距離画像形成部12は、左側距離画像のブロック(m,n)を初期位置に設定する(ステップS41)。例えば、初期位置を(m,n)=(0,0)とする。
First, the right distance
次いで、右側距離画像形成部12は、ブロック(m,n)の視差値から、式(2)に従って、右側距離画像のブロック位置(m’,n’)を決定する(ステップS42)。
Next, the right distance
次いで、右側距離画像形成部12は、ブロック(m,n)をブロック位置(m’,n’)に移動させる(ステップS43)。
Next, the right distance
次いで、右側距離画像形成部12は、ブロック位置(m’,n’)に移動させたブロック(m,n)の視差値の符号を反転させる(ステップS44)。
Next, the right distance
次いで、右側距離画像形成部12は、左側距離画像の全ブロックの移動が終了したか否か判断する(ステップS45)。例えば、右側距離画像形成部12は、(m,n)=(M−1,N−1)であるときに、左側距離画像の全ブロックの移動が終了したと判断する。左側距離画像の全ブロックの移動が終了したとき(ステップS45:Yes)、右側距離画像形成部12は、右側距離画像を出力して処理を終了する。
Next, the right distance
一方で、左側距離画像の全ブロックの移動が終了していないとき(ステップS45:No)、右側距離画像形成部12は、ブロック(m,n)をx軸方向またはy軸方向に1ブロックシフトさせ(ステップS46)、処理はステップS42に戻る。
On the other hand, when the movement of all the blocks of the left distance image is not completed (step S45: No), the right distance
<右側距離画像の形成例>
図5は、実施例1の左側距離画像の一例を示す図であり、図6A〜Dは、実施例1の右側距離画像の形成例の説明に供する図である。図5及び図6A〜Dには、M=16,N=8とした場合を一例として示す。
<Example of forming a right distance image>
FIG. 5 is a diagram illustrating an example of the left distance image of the first embodiment, and FIGS. 6A to 6D are diagrams for explaining an example of forming the right distance image of the first embodiment. 5 and 6A to 6D show an example in which M = 16 and N = 8.
左側距離画像形成部11は、図5に示すような左側距離画像を形成する。左側距離画像の各ブロックの濃淡は、各ブロックの視差値の大きさを表す。すなわち、濃いほど視差値が小さくて視点から物体までの距離が遠いことを意味し、薄いほど視差値が大きくて視点から物体までの距離が近いことを意味する。また、ここでは、左側距離画像の各ブロックは0,2,3の何れかの視差値を有するものとする。また、垂直方向(y軸方向)の視差を考慮しない。
The left distance
一方、右側距離画像形成部12において、M×Nブロックの初期状態は、図6Aに示すように、M×Nブロックの全ブロックがNullである状態である。
On the other hand, in the right distance
ここで、上述したブロック移動は、ブロック(0,0)からブロック(M−1,N−1)までブロックの並び順に行われる。しかし、ここでは、ブロック移動による右側距離画像の形成を分かりやすく説明するために、視差の大きさ順にブロック移動をする。 Here, the block movement described above is performed from the block (0, 0) to the block (M-1, N-1) in the order of the blocks. However, here, in order to explain the formation of the right distance image by the block movement in an easy-to-understand manner, the block movement is performed in the order of the parallax.
すなわち、右側距離画像形成部12は、図6Bに示すように、左側距離画像(図5)における「視差値=0」のブロックを視差値に応じた距離だけ移動、つまり、移動させることなく、右側距離画像のM×Nブロックに書き込む。
That is, as shown in FIG. 6B, the right distance
次いで、右側距離画像形成部12は、図6Cに示すように、左側距離画像(図5)における「視差値=2」のブロックを、x軸の負方向(つまり、左方向)に視差値に応じた距離だけ移動、つまり、2ブロックだけ移動させて右側距離画像のM×Nブロックに書き込む。
Next, as shown in FIG. 6C, the right-side distance
次いで、右側距離画像形成部12は、図6Dに示すように、右側距離画像(図5)における「視差値=3」のブロックを、x軸の負方向(つまり、左方向)に視差値に応じた距離だけ移動、つまり、3ブロックだけ移動させて右側距離画像のM×Nブロックに書き込む。
Next, as shown in FIG. 6D, the right distance
そして、左側距離画像の全ブロックの右側距離画像への書き込みが終了した図6Dに示す状態において、右側距離画像形成部12は、Nullのまま残ったブロックを除き、各ブロックの視差値の符号を反転させて“−”にする。
Then, in the state shown in FIG. 6D in which writing of all the blocks of the left distance image to the right distance image is completed, the right distance
<画像の具体例>
図7は、実施例1の左側画像の一例を示す図であり、図8は、実施例1の右側画像の一例を示す図である。図7及び図8では、視点から近い順に、バス、建物、背景が存在する。左側距離画像形成部11は、左側画像(図7)を基準画像とし、右側画像(図8)を参照画像として、ブロックマッチングにより、図9に示すような左側距離画像を形成する。図9は、実施例1の左側距離画像の一例を示す図である。
<Specific examples of images>
FIG. 7 is a diagram illustrating an example of the left image of the first embodiment, and FIG. 8 is a diagram illustrating an example of the right image of the first embodiment. 7 and 8, there are a bus, a building, and a background in order from the viewpoint. The left distance
一方で、右側距離画像形成部12は、左側距離画像(図9)を用いて、上述したブロック移動により、図10に示す右側距離画像を形成する。図10は、実施例1の右側距離画像の一例を示す図である。図9,10での濃淡は、視差値の大きさを表す。すなわち、濃いほど視差値が小さくて視点から物体までの距離が遠いことを意味し、薄いほど視差値が大きくて視点から物体までの距離が近いことを意味する。なお、右側距離画像には、図10に示すように、「オクルージョン領域」が存在する。「オクルージョン領域」とは、左側画像及び右側画像のうちの一方には存在するが他方には存在しない画像領域である。
On the other hand, the right distance
以上のように、本実施例によれば、画像処理装置10において、右側距離画像形成部12は、左側距離画像を構成するM×Nブロックの各々を、各ブロックの視差値に応じた距離だけ移動させ、移動後のM×Nブロックから、左側距離画像と視点が異なる右側距離画像を形成する。
As described above, according to the present embodiment, in the
つまり、右側距離画像形成部12は、ブロックマッチングを行わずに、左側距離画像のブロックを移動させることにより右側距離画像を形成する。ブロック移動の演算量は、ブロックマッチングの演算量に比べ、非常に小さい。また、右側距離画像形成部12は、右側距離画像の形成にあたり、SADの演算を行わない。よって、本実施例によれば、距離画像の形成の演算量を削減することができる。その結果、距離画像の形成を行う画像処理装置10の消費電力を削減することができる。
That is, the right distance
[実施例2]
<画像処理装置の構成例>
図11は、実施例2の画像処理装置の一例を示すブロック図である。図11において、画像処理装置20は、オクルージョン領域決定部21を有する。
[Example 2]
<Configuration example of image processing apparatus>
FIG. 11 is a block diagram illustrating an example of an image processing apparatus according to the second embodiment. In FIG. 11, the
右側距離画像形成部12は、実施例1の処理に加え、左側距離画像のブロック(m,n)を右側距離画像のブロック位置(m’,n’)に移動させる度に、移動後のブロック位置(m’,n’)をオクルージョン領域決定部21に通知する。
In addition to the processing of the first embodiment, the right distance
オクルージョン領域決定部21は、移動後のブロック位置(m’,n’)を通知される度に、オクルージョン領域マップを更新する。そして、左側距離画像の全ブロックの移動が完了した時点で、オクルージョン領域決定部21は、オクルージョン領域マップを参照し、右側距離画像において、左側距離画像からの移動後のブロックが存在しない領域をオクルージョン領域と決定する。そして、オクルージョン領域決定部21は、オクルージョン領域を構成するブロックの位置を示す情報を決定結果として出力する。 The occlusion area determination unit 21 updates the occlusion area map each time the block position (m ′, n ′) after movement is notified. Then, when the movement of all the blocks in the left distance image is completed, the occlusion area determination unit 21 refers to the occlusion area map, and in the right distance image, occludes an area in which no block after movement from the left distance image exists. Determine the area. And the occlusion area | region determination part 21 outputs the information which shows the position of the block which comprises an occlusion area | region as a determination result.
<画像処理装置の処理>
図12は、実施例2の画像処理装置の処理の説明に供するフローチャートである。なお、ステップS41,S42,S44〜S46の処理は図4と同一であるため、説明を省略する。
<Processing of image processing apparatus>
FIG. 12 is a flowchart for explaining processing of the image processing apparatus according to the second embodiment. In addition, since the process of step S41, S42, S44-S46 is the same as FIG. 4, description is abbreviate | omitted.
まず、ステップS51では、オクルージョン領域決定部21は、オクルージョン領域マップを初期化する(ステップS51)。オクルージョン領域マップは、右側距離画像と同様に、M×Nブロックの複数のブロックで構成され、ステップS51での初期化により、全ブロックが“0”に設定される。 First, in step S51, the occlusion area determination unit 21 initializes an occlusion area map (step S51). The occlusion area map is composed of a plurality of M × N blocks as in the right distance image, and all blocks are set to “0” by the initialization in step S51.
ステップS52では、図4のステップS43と同様、右側距離画像形成部12は、ブロック(m,n)をブロック位置(m’,n’)に移動させる。さらに、右側距離画像形成部12は、移動後のブロック位置(m’,n’)をオクルージョン領域決定部21に通知する(ステップS52)。
In step S52, as in step S43 in FIG. 4, the right distance
ステップS53では、オクルージョン領域決定部21は、オクルージョン領域マップのM×Nブロックのうち、ステップS52で通知されたブロック位置(m’,n’)に対応するブロックの値を“0”から“1”に更新する(ステップS53)。オクルージョン領域決定部21は、左側距離画像のブロックの移動が行われる度に、ステップS53の処理を行う。 In step S53, the occlusion area determination unit 21 changes the value of the block corresponding to the block position (m ′, n ′) notified in step S52 from “0” to “1” among the M × N blocks of the occlusion area map. To "" (step S53). The occlusion area determination unit 21 performs the process of step S53 every time the left distance image block is moved.
左側距離画像の全ブロックの移動が終了したとき(ステップS45:Yes)、右側距離画像形成部12は、右側距離画像を出力するとともに、左側距離画像の全ブロックの移動が終了したことをオクルージョン領域決定部21に通知する。
When the movement of all the blocks of the left distance image is completed (step S45: Yes), the right distance
そして、左側距離画像の全ブロックの移動が終了した時点で(ステップS45:Yes)、オクルージョン領域決定部21は、オクルージョン領域マップを参照し、値が“0”のままであるブロックにより構成される領域をオクルージョン領域と決定する(ステップS54)。 When the movement of all the blocks in the left distance image is completed (step S45: Yes), the occlusion area determination unit 21 refers to the occlusion area map and is configured by blocks whose values remain “0”. The area is determined as an occlusion area (step S54).
<オクルージョン領域マップの更新例>
図13A〜Dは、実施例2のオクルージョン領域マップの更新例の説明に供する図である。図13A〜Dには、M=16,N=8とした場合を一例として示す。
<Example of updating the occlusion area map>
13A to 13D are diagrams for explaining an example of updating the occlusion area map according to the second embodiment. 13A to 13D show an example where M = 16 and N = 8.
右側距離画像が図6Aに示す初期状態にある場合、オクルージョン領域マップは、図13Aに示す初期状態にある。すなわち、オクルージョン領域マップは、初期状態では、全ブロックの値が“0”である。 When the right distance image is in the initial state shown in FIG. 6A, the occlusion area map is in the initial state shown in FIG. 13A. That is, in the occlusion area map, the values of all blocks are “0” in the initial state.
次いで、右側距離画像が図6Bに示す状態になったとき、オクルージョン領域マップは図13Bに示す状態に更新される。すなわち、オクルージョン領域マップのM×Nブロックのうち、右側距離画像において「視差値=0」のブロックが書き込まれた位置にあるブロックの値が“0”から“1”に更新される。 Next, when the right distance image is in the state shown in FIG. 6B, the occlusion area map is updated to the state shown in FIG. 13B. That is, among the M × N blocks of the occlusion area map, the value of the block at the position where the block of “parallax value = 0” is written in the right distance image is updated from “0” to “1”.
次いで、右側距離画像が図6Cに示す状態になったとき、オクルージョン領域マップは図13Cに示す状態に更新される。すなわち、オクルージョン領域マップのM×Nブロックのうち、右側距離画像において「視差値=2」のブロックが書き込まれた位置にあるブロックの値が“0”から“1”に更新される。 Next, when the right distance image is in the state shown in FIG. 6C, the occlusion area map is updated to the state shown in FIG. 13C. That is, among the M × N blocks of the occlusion area map, the value of the block at the position where the block of “parallax value = 2” is written in the right distance image is updated from “0” to “1”.
次いで、右側距離画像が図6Dに示す状態になったとき、オクルージョン領域マップは図13Dに示す状態に更新される。すなわち、オクルージョン領域マップのM×Nブロックのうち、右側距離画像において「視差値=3」のブロックが書き込まれた位置にあるブロックの値が“0”から“1”に更新される。 Next, when the right distance image is in the state shown in FIG. 6D, the occlusion area map is updated to the state shown in FIG. 13D. That is, among the M × N blocks of the occlusion area map, the value of the block at the position where the block of “parallax value = 3” is written in the right distance image is updated from “0” to “1”.
左側距離画像の全ブロックの右側距離画像への書き込みが終了した時点でオクルージョン領域マップにおいて値が“0”のままであるブロックにより構成される領域は、右側距離画像において、左側距離画像からの移動後のブロックが存在しない領域と一致する。そこで、左側距離画像の全ブロックの右側距離画像への書き込みが終了した図13Dに示す状態において、オクルージョン領域決定部21は、オクルージョン領域マップにおいて値が“0”のままであるブロックにより構成される領域をオクルージョン領域と決定する。つまり、画像処理装置20において、オクルージョン領域決定部21は、右側距離画像において、左側距離画像からの移動後のブロックが存在しない領域をオクルージョン領域と決定する。
An area composed of blocks whose values remain “0” in the occlusion area map when all the blocks in the left distance image have been written to the right distance image is moved from the left distance image in the right distance image. It matches the area where no later block exists. Therefore, in the state shown in FIG. 13D in which writing of all the blocks of the left distance image to the right distance image is completed, the occlusion area determination unit 21 is configured by blocks whose values remain “0” in the occlusion area map. The area is determined as an occlusion area. That is, in the
これにより、簡易に、かつ、短時間でオクルージョン領域を決定することができる。 Thereby, the occlusion area can be determined easily and in a short time.
[実施例3]
図14は、実施例3の画像処理装置の一例を示すブロック図である。図14において、画像処理装置30は、オクルージョン領域補完部31を有する。
[Example 3]
FIG. 14 is a block diagram illustrating an example of an image processing apparatus according to the third embodiment. In FIG. 14, the
オクルージョン領域補完部31には、右側距離画像形成部12から右側距離画像が入力される。また、オクルージョン領域補完部31には、オクルージョン領域決定部21から、決定結果として、オクルージョン領域を構成するブロックの位置を示す情報が入力される。
The right distance image is input from the right distance
オクルージョン領域補完部31は、右側距離画像において、オクルージョン領域に隣接する複数のブロックのうち、最小の視差値のブロックによりオクルージョン領域を補完する。そして、オクルージョン領域補完部31は、補完後の右側距離画像を出力する。
The occlusion
<画像処理装置の処理>
図15は、実施例3の画像処理装置の処理の説明に供するフローチャートである。なお、ステップS41,S42,S44〜S46及びステップS51〜S54の処理は図4,図12と同一であるため、説明を省略する。
<Processing of image processing apparatus>
FIG. 15 is a flowchart for explaining processing of the image processing apparatus according to the third embodiment. In addition, since the process of step S41, S42, S44-S46 and step S51-S54 is the same as FIG. 4, FIG. 12, description is abbreviate | omitted.
オクルージョン領域決定部21によりオクルージョン領域が決定されると(ステップS54)、決定結果に従って、オクルージョン領域補完部31は、右側距離画像のオクルージョン領域を補完する(ステップS61)。
When the occlusion area is determined by the occlusion area determining unit 21 (step S54), the occlusion
<オクルージョン領域の補完例>
図16A,Bは、実施例3のオクルージョン領域の補完例の説明に供する図である。図16A,Bには、M=16,N=8とした場合を一例として示す。
<Complementary example of occlusion area>
16A and 16B are diagrams for explaining an example of complementing the occlusion area according to the third embodiment. 16A and 16B show an example where M = 16 and N = 8.
図6DにおいてNullのまま残ったブロックにより構成される領域は、左側距離画像の全ブロックの右側距離画像への書き込みが終了した時点でオクルージョン領域マップにおいて値が“0”のままであるブロックにより構成される領域と一致する。つまり、図6DにおいてNullのまま残ったブロックにより構成される領域はオクルージョン領域である。 In FIG. 6D, the area constituted by the blocks remaining as Null is constituted by the blocks whose values remain “0” in the occlusion area map when the writing of all the blocks of the left distance image to the right distance image is completed. Matches the region being That is, the area constituted by the blocks remaining as Null in FIG. 6D is an occlusion area.
よって例えば、図5及び図6A〜Dに示すようにして形成される右側距離画像には、図16Aに示すように、OC1〜OC5の5つの領域に分割されるオクルージョン領域が含まれる。 Therefore, for example, the right distance image formed as shown in FIGS. 5 and 6A to D includes an occlusion area divided into five areas OC1 to OC5 as shown in FIG. 16A.
ここで、オクルージョン領域は、視点からの距離が遠い物体が、視点からの距離が近い物体によって隠されていて見えない領域と推定される。つまり、オクルージョン領域には、視点からの距離が遠い物体が存在すると推定される。また、視点からの距離が遠い物体に対する視差値は、視点からの距離が近い物体に対する視差値よりも小さい。 Here, the occlusion region is estimated to be an invisible region where an object that is far from the viewpoint is hidden by an object that is close to the viewpoint. That is, it is estimated that an object with a long distance from the viewpoint exists in the occlusion area. Also, the parallax value for an object that is far from the viewpoint is smaller than the parallax value for an object that is close to the viewpoint.
そこで、オクルージョン領域補完部31は、右側距離画像において、オクルージョン領域に隣接する複数のブロックのうち、最小の視差値のブロックによりオクルージョン領域を補完する。
Therefore, the occlusion
例えば図16Aにおいて、オクルージョン領域OC1,OC2,OC3にはそれぞれ、x軸方向で、視差値=2のブロックと視差値=0のブロックとが隣接している。そこで、オクルージョン領域補完部31は、オクルージョン領域OC1,OC2,OC3のそれぞれを、視差値=0のブロックにより補完する。
For example, in FIG. 16A, a block with a parallax value = 2 and a block with a parallax value = 0 are adjacent to each other in the x-axis direction in the occlusion areas OC1, OC2, and OC3. Therefore, the occlusion
また、オクルージョン領域OC4,OC5にはそれぞれ、x軸方向で、視差値=3のブロックと視差値=2のブロックとが隣接している。そこで、オクルージョン領域補完部31は、オクルージョン領域OC4,OC5のそれぞれを、視差値=2のブロックにより補完する。
Also, in the x-axis direction, a block with a parallax value = 3 and a block with a parallax value = 2 are adjacent to each other in the occlusion areas OC4 and OC5. Therefore, the occlusion
オクルージョン領域OC1〜OC5が補完された結果、オクルージョン領域補完部31は、図16Bに示すような、補完後の右側距離画像を得る。
As a result of complementing the occlusion areas OC1 to OC5, the occlusion
以上のように、本実施例によれば、オクルージョン領域補完部31は、右側距離画像において、オクルージョン領域に隣接する複数のブロックのうち、最小の視差値のブロックによりオクルージョン領域を補完する。
As described above, according to the present embodiment, the occlusion
これにより、視点からの距離がより遠い距離画像によりオクルージョン領域を補完することができるので、精度良くオクルージョン領域を補完することができる。また、精度良くオクルージョン領域を補完することができるため、右側距離画像の精度を向上させることができる。 As a result, the occlusion area can be complemented by the distance image that is farther from the viewpoint, so that the occlusion area can be complemented with high accuracy. In addition, since the occlusion region can be complemented with high accuracy, the accuracy of the right distance image can be improved.
[他の実施例]
[1]実施例1〜3で図示した画像処理装置10,20,30は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
[Other embodiments]
[1] The
さらに、画像処理装置10,20,30で行われる各種処理機能は、CPU(Central Processing Unit)(または、MPU(Micro Processing Unit)、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(または、MPU、MCU等のマイクロ・コンピュータ)で解析実行するプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよい。
Furthermore, various processing functions performed in the
[2]実施例1〜3の画像処理装置10,20,30は、例えば、次のようなハードウェア構成により実現することができる。
[2] The
図17は、画像処理装置のハードウェア構成例を示す図である。図17に示すように、画像処理装置100は、プロセッサ101と、メモリ102と、カメラ103と、表示装置104とを有する。
FIG. 17 is a diagram illustrating a hardware configuration example of the image processing apparatus. As illustrated in FIG. 17, the
プロセッサ101の一例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)等が挙げられる。また、メモリ102の一例として、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。
Examples of the processor 101 include a central processing unit (CPU), a digital signal processor (DSP), and a field programmable gate array (FPGA). Examples of the
そして、実施例1〜3の画像処理装置10,20,30で行われる各種処理機能は、不揮発性記憶媒体などの各種メモリに格納されたプログラムをプロセッサ101で実行することによって実現してもよい。すなわち、左側距離画像形成部11と、右側距離画像形成部12と、オクルージョン領域決定部21と、オクルージョン領域補完部31とによって実行される各処理に対応するプログラムがメモリ102に記録され、各プログラムがプロセッサ101で実行されてもよい。また、左側画像及び右側画像は、カメラ103で撮影されてもよい。また、左側距離画像及び右側距離画像、並びに、補完された右側距離画像は、表示装置104に表示されてもよい。
Various processing functions performed by the
また、プロセッサ101は、1チップの画像処理回路として実現されてもよい。 The processor 101 may be realized as a one-chip image processing circuit.
10,20,30 画像処理装置
11 左側距離画像形成部
12 右側距離画像形成部
21 オクルージョン領域決定部
31 オクルージョン領域補完部
10, 20, 30
Claims (6)
前記プロセッサは、
第1距離画像を構成する複数のブロックの各々を、各ブロックの視差値に応じた距離だけ移動させ、
移動後の前記複数のブロックから、前記第1距離画像と視点が異なる第2距離画像を形成する、
画像処理装置。 A memory, and a processor connected to the memory,
The processor is
Each of the plurality of blocks constituting the first distance image is moved by a distance according to the parallax value of each block,
Forming a second distance image having a different viewpoint from the first distance image from the plurality of blocks after movement;
Image processing device.
前記第2距離画像において、移動後の前記複数のブロックが存在しない領域をオクルージョン領域と決定する、
請求項1に記載の画像処理装置。 The processor is
In the second distance image, an area where the plurality of blocks after the movement does not exist is determined as an occlusion area.
The image processing apparatus according to claim 1.
前記第2距離画像において、前記オクルージョン領域に隣接する複数のブロックのうち、最小の視差値のブロックにより、前記オクルージョン領域を補完する、
請求項2に記載の画像処理装置。 The processor is
In the second distance image, the occlusion area is complemented by a block having a minimum parallax value among a plurality of blocks adjacent to the occlusion area.
The image processing apparatus according to claim 2.
前記第1距離画像を構成する複数のブロックの各々を、各ブロックの視差値に応じた距離だけ移動させ、移動後の前記複数のブロックから、前記第1距離画像と視点が異なる第2距離画像を形成する第2形成部と、
を具備する画像処理回路。 A first forming unit for forming a first distance image;
Each of the plurality of blocks constituting the first distance image is moved by a distance corresponding to the parallax value of each block, and the second distance image having a different viewpoint from the first distance image is moved from the plurality of blocks after the movement. A second forming part for forming
An image processing circuit comprising:
移動後の前記複数のブロックから、前記第1距離画像と視点が異なる第2距離画像を形成する、
処理を、プロセッサに実行させる画像処理プログラム。 Each of the plurality of blocks constituting the first distance image is moved by a distance according to the parallax value of each block,
Forming a second distance image having a different viewpoint from the first distance image from the plurality of blocks after movement;
An image processing program for causing a processor to execute processing.
移動後の前記複数のブロックから、前記第1距離画像と視点が異なる第2距離画像を形成する、
画像処理方法。 Each of the plurality of blocks constituting the first distance image is moved by a distance according to the parallax value of each block,
Forming a second distance image having a different viewpoint from the first distance image from the plurality of blocks after movement;
Image processing method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013117364A JP2014235615A (en) | 2013-06-03 | 2013-06-03 | Image processing apparatus, image processing circuit, image processing program, and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013117364A JP2014235615A (en) | 2013-06-03 | 2013-06-03 | Image processing apparatus, image processing circuit, image processing program, and image processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014235615A true JP2014235615A (en) | 2014-12-15 |
Family
ID=52138259
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013117364A Pending JP2014235615A (en) | 2013-06-03 | 2013-06-03 | Image processing apparatus, image processing circuit, image processing program, and image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014235615A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022524683A (en) * | 2019-03-18 | 2022-05-10 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー | Systems and methods for rendering real-world objects using depth information |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1032840A (en) * | 1996-04-05 | 1998-02-03 | Matsushita Electric Ind Co Ltd | Multi-view image transmission method and multi-view image display method |
| WO2013073316A1 (en) * | 2011-11-14 | 2013-05-23 | 独立行政法人情報通信研究機構 | Stereoscopic video coding device, stereoscopic video decoding device, stereoscopic video coding method, stereoscopic video decoding method, stereoscopic video coding program, and stereoscopic video decoding program |
-
2013
- 2013-06-03 JP JP2013117364A patent/JP2014235615A/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1032840A (en) * | 1996-04-05 | 1998-02-03 | Matsushita Electric Ind Co Ltd | Multi-view image transmission method and multi-view image display method |
| WO2013073316A1 (en) * | 2011-11-14 | 2013-05-23 | 独立行政法人情報通信研究機構 | Stereoscopic video coding device, stereoscopic video decoding device, stereoscopic video coding method, stereoscopic video decoding method, stereoscopic video coding program, and stereoscopic video decoding program |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022524683A (en) * | 2019-03-18 | 2022-05-10 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー | Systems and methods for rendering real-world objects using depth information |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10950036B2 (en) | Method and apparatus for three-dimensional (3D) rendering | |
| US9396590B2 (en) | Image processing apparatus and method for three-dimensional image zoom | |
| CN106997453B (en) | Event signal processing method and device | |
| KR101502362B1 (en) | Image processing apparatus and method | |
| JP6405891B2 (en) | Position / attitude estimation apparatus, position / attitude estimation method, and program | |
| US10621446B2 (en) | Handling perspective magnification in optical flow processing | |
| US20180098047A1 (en) | Imaging system, image processing apparatus, image processing method, and storage medium | |
| JP6253450B2 (en) | Image processing apparatus, image processing method, and program | |
| JP6701930B2 (en) | Authoring device, authoring method, and authoring program | |
| JP2018513640A5 (en) | ||
| JP2019101686A (en) | Image processor, method for processing image, and program | |
| CN112562087B (en) | Method and apparatus for estimating pose | |
| CN105512637A (en) | Image processing method and electric device | |
| JP2018195084A (en) | Image processing apparatus, image processing method, program, and storage medium | |
| RU2020103459A (en) | DEVICE AND METHOD FOR IMAGE FORMATION | |
| JP2012069090A (en) | Image processing apparatus and method | |
| CN109859253A (en) | A kind of solid matching method, device and electronic equipment | |
| US10573073B2 (en) | Information processing apparatus, information processing method, and storage medium | |
| US10264238B2 (en) | Stereoscopic mapping | |
| JPWO2015198592A1 (en) | Information processing apparatus, information processing method, and information processing program | |
| JP2014235615A (en) | Image processing apparatus, image processing circuit, image processing program, and image processing method | |
| US10949988B2 (en) | Information processing apparatus, information processing method, and program | |
| US9454801B2 (en) | Image processing apparatus, method for processing image, and program | |
| US20140009493A1 (en) | Parallax image generating device and parallax image generating method | |
| JP2016511962A (en) | Interpolation method and corresponding apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160310 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170126 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170214 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170808 |