[go: up one dir, main page]

JP2017017581A - Virtual viewpoint image generation device and program - Google Patents

Virtual viewpoint image generation device and program Download PDF

Info

Publication number
JP2017017581A
JP2017017581A JP2015133615A JP2015133615A JP2017017581A JP 2017017581 A JP2017017581 A JP 2017017581A JP 2015133615 A JP2015133615 A JP 2015133615A JP 2015133615 A JP2015133615 A JP 2015133615A JP 2017017581 A JP2017017581 A JP 2017017581A
Authority
JP
Japan
Prior art keywords
image
horizontal
input image
virtual viewpoint
vertical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015133615A
Other languages
Japanese (ja)
Other versions
JP6631054B2 (en
Inventor
和仁 迫水
Kazuhito Sakomizu
和仁 迫水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2015133615A priority Critical patent/JP6631054B2/en
Publication of JP2017017581A publication Critical patent/JP2017017581A/en
Application granted granted Critical
Publication of JP6631054B2 publication Critical patent/JP6631054B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a virtual viewpoint image generation device and a program capable of reducing distortion of an interpolation image while suppressing an increase in computation amount.SOLUTION: A virtual viewpoint image generation device includes: a horizontal direction processing part which generates a horizontal direction interpolation image from a first input image, a second input image, and a position of a virtual viewpoint and outputs a horizontal direction parallax vector showing relations between blocks or pixels matching or similar between the first input image and the second input image; a vertical direction processing part which determines a search range in a horizontal direction from at least the horizontal direction parallax vector and generates a vertical direction interpolation image from the vertical image in the virtual viewpoint, the first input image, and/or the second input image; and an interpolation image integration part generating a virtual viewpoint image by integrating the horizontal direction interpolation image with the vertical direction interpolation image.SELECTED DRAWING: Figure 1

Description

本発明は、仮想視点画像生成装置及びプログラムに関し、特に、2以上の視点位置で撮影された複数の画像から、仮想の視点位置で撮影したときに得られるだろう画像を生成する場合に好適なものである。   The present invention relates to a virtual viewpoint image generation apparatus and program, and is particularly suitable for generating an image that would be obtained when shooting at a virtual viewpoint position from a plurality of images shot at two or more viewpoint positions. Is.

近年、視聴者の目の動きに追従して、表示視点を変更する表示装置や、2視点以上の映像を同時に投射する表示装置など、両眼視差や運動視差により、視聴者に立体感のある画像を提供する表示装置が注目を集めている。   In recent years, viewers have a stereoscopic effect due to binocular parallax and motion parallax, such as a display device that changes the display viewpoint following the movement of the viewer's eyes and a display device that projects images of two or more viewpoints simultaneously. Display devices that provide images are attracting attention.

このような表示装置では、撮影する視点間の距離の小ささが主観品質に大きな影響を与える場合が多く、可能な限り視点間の距離を縮めることが求められる。静止画の場合、例えばカメラによる撮影後、カメラを移動させて再度撮影する等の処理を繰り返すことで、2視点以上の位置で撮像した画像を得ることができる。また、少なくとも、このような方法を用いる場合、視点間の距離を縮めるためには、上述したカメラの移動量を少なくすることで実現できる。   In such a display device, the small distance between the viewpoints to be photographed often greatly affects the subjective quality, and it is required to reduce the distance between the viewpoints as much as possible. In the case of a still image, for example, an image captured at a position of two or more viewpoints can be obtained by repeating processing such as moving the camera and shooting again after shooting with the camera. Further, at least when such a method is used, the distance between the viewpoints can be reduced by reducing the amount of movement of the camera described above.

しかし、静止画ではなく動画を撮影する場合、視点間の距離を縮めるために、カメラモジュールの小型化が必要となる。カメラモジュールの小型化には、撮影可能な解像度の低下や、レンズ性能の低下、設計製造コストの増加などのトレードオフが存在する。   However, when shooting a moving image instead of a still image, it is necessary to reduce the size of the camera module in order to reduce the distance between the viewpoints. There are trade-offs in the downsizing of the camera module, such as a reduction in resolution capable of photographing, a reduction in lens performance, and an increase in design and manufacturing costs.

そのため、限られた視点で撮影された画像(以下、実撮影画像とも呼ぶ。)から、例えば、カメラモジュールを設置できないような、実撮影画像に係る複数の視点間の視点(仮想視点)で撮影された画像(以下、仮想視点画像とも呼ぶ。)を推定して生成する技術が求められている。   For this reason, from an image captured from a limited viewpoint (hereinafter also referred to as an actual captured image), for example, captured at a viewpoint (virtual viewpoint) between a plurality of viewpoints related to the actual captured image such that a camera module cannot be installed. There is a need for a technique for estimating and generating a generated image (hereinafter also referred to as a virtual viewpoint image).

特許文献1は、2つの視点で撮影した3枚の画像から、仮想の視点で撮影された画像を生成する技術を提案している。特許文献1の記載技術は、画像間で対応するブロックまたは画素を探索し、そこから内挿ベクトルを求めることで、仮想視点画像としての補間画像を生成する。   Patent Document 1 proposes a technique for generating an image photographed from a virtual viewpoint from three images photographed from two viewpoints. The technique described in Patent Literature 1 searches for a corresponding block or pixel between images and obtains an interpolation vector therefrom, thereby generating an interpolated image as a virtual viewpoint image.

非特許文献1は、フレーム間を補完し、フレームレートを向上させる技術を提案している。非特許文献1の記載技術を視点補間に応用することも想定できる。   Non-Patent Document 1 proposes a technique for complementing between frames and improving the frame rate. It can be assumed that the technique described in Non-Patent Document 1 is applied to viewpoint interpolation.

詳細な処理内容は、特許文献1の記載技術と非特許文献1の記載技術とで異なる。しかし、対応するブロック又は画素の探索と、補間する視点(仮想視点)に対応するベクトルの算出と、ベクトルを用いた補間画像(仮想視点画像)の生成からなる、ということは、特許文献1の記載技術と非特許文献1の記載技術とで共通している。   Detailed processing contents differ between the technology described in Patent Document 1 and the technology described in Non-Patent Document 1. However, the search for the corresponding block or pixel, the calculation of the vector corresponding to the viewpoint to be interpolated (virtual viewpoint), and the generation of an interpolated image (virtual viewpoint image) using the vector are described in Patent Document 1. The description technique and the description technique of Non-Patent Document 1 are common.

図8は、2つの視点で撮影された2枚の画像から仮想視点画像を生成する、上述した共通の記載技術の構成を書き出したブロック図である。図8に示すよう装置(以下、従来の仮想視点画像生成装置と呼ぶ。)の構成は、第1の入力画像PIC1、第2の入力画像PIC2及び仮想視点位置VPVを入力して、補間画像IPPIC0を出力する。   FIG. 8 is a block diagram in which the configuration of the common description technique described above for generating a virtual viewpoint image from two images taken from two viewpoints is shown. As shown in FIG. 8, the apparatus (hereinafter referred to as a conventional virtual viewpoint image generation apparatus) has a configuration in which a first input image PIC1, a second input image PIC2, and a virtual viewpoint position VPV are input and an interpolation image IPPIC0 is input. Is output.

従来の仮想視点画像生成装置10へ入力される第1の入力画像PIC1及び第2の入力画像PIC2は、垂直方向が同じで水平方向が異なる実撮影画像である。第1の入力画像PIC1の視点と、第2の入力画像PIC2との視点を結ぶ線分上に仮想視点位置VPVが指定される。従って、従来の仮想視点画像生成装置10は、図9に示すように、第1の入力画像PIC1及び第2の入力画像PIC2に対し、仮想視点位置VPVに応じて水平方向に補間して補間画像(仮想視点画像)IPPIC0を得る水平方向処理部110から構成されている。   The first input image PIC1 and the second input image PIC2 input to the conventional virtual viewpoint image generation device 10 are actual captured images having the same vertical direction but different horizontal directions. A virtual viewpoint position VPV is designated on a line segment connecting the viewpoint of the first input image PIC1 and the viewpoint of the second input image PIC2. Therefore, as shown in FIG. 9, the conventional virtual viewpoint image generation apparatus 10 interpolates the first input image PIC1 and the second input image PIC2 in the horizontal direction according to the virtual viewpoint position VPV, and performs the interpolation image. (Virtual viewpoint image) The virtual viewpoint image is composed of a horizontal processing unit 110 that obtains IPPIC0.

水平方向処理部110は、第1の入力画像PIC1と第2の入力画像PIC2の間で、一致又は類似する、ブロック(又は画素)を探索し、水平方向視差ベクトルを出力する水平方向一致ブロック探索部111と、水平方向視差ベクトルと仮想視点位置と実撮影画像の視点位置とから内挿ベクトルを求める内挿ベクトル算出部112と、内挿ベクトルと第2の入力画像PIC2とから水平方向補間画像(仮想視点画像)IPPIC0を生成する水平方向補間画像生成部113とを有する(各部111、112、113の詳細な機能については後述する「実施形態」の項に記載している)。   The horizontal direction processing unit 110 searches for a block (or pixel) that matches or resembles between the first input image PIC1 and the second input image PIC2, and outputs a horizontal direction disparity vector. Unit 111, an interpolation vector calculation unit 112 for obtaining an interpolation vector from the horizontal direction parallax vector, the virtual viewpoint position, and the viewpoint position of the actual captured image, and the horizontal direction interpolation image from the interpolation vector and the second input image PIC2. (Virtual viewpoint image) It has a horizontal direction interpolation image generation unit 113 for generating IPPIC0 (detailed functions of the respective units 111, 112, 113 are described in the section “Embodiment” described later).

特開2014−72801号公報JP 2014-72801 A

J.Ascenso,C,Brites,and F.Pereira,“Improving frame interpolation with spatial motion smoothing for pixel domain distributed video coding,”5th EURASIP Conference on,2005.J. et al. Ascenso, C, Brites, and F.M. Pereira, “Improving frame interpolation with spatial motion smoothing for pixel domain distributed video coding,” 5th EURASIP Conference on, 2005.

しかしながら、複数の入力画像の間でブロック(又は画素)ごとの対応付けを行うと、例えば、オクルージョンの存在や、照明の当たり方の違い等の理由で、ブロック(又は画素)ごとの対応づけに誤りが発生し得る。ブロックまたは画素ごとの対応づけの誤りは、生成される補間画像の歪に繋がる。また、オクルージョンが発生している領域については、仮に正しくオクルージョン領域を検出できたとしても、同領域に属する画素値をどのように設定すれば良いかを2視点間から正確に決定することは困難であり、推定誤りが補間画像の歪となって現れてしまう。   However, when a plurality of input images is associated with each block (or pixel), for example, due to the presence of occlusion or a difference in lighting, the correspondence with each block (or pixel) is performed. Errors can occur. An error in correspondence between blocks or pixels leads to distortion of the generated interpolation image. In addition, for an area where occlusion occurs, even if the occlusion area can be detected correctly, it is difficult to accurately determine how to set pixel values belonging to the same area from two viewpoints. Thus, the estimation error appears as distortion of the interpolated image.

そのため、演算量の増加を抑えながら、補間画像の歪を低減することができる仮想視点画像生成装置及びプログラムが求められている。   Therefore, there is a need for a virtual viewpoint image generation apparatus and program that can reduce the distortion of an interpolated image while suppressing an increase in the amount of calculation.

かかる課題を解決するために、第1の本発明に係る仮想視点画像生成装置は、(1)第1の入力画像及び第2の入力画像と仮想視点の位置とから水平方向補間画像を生成するものであって、第1の入力画像と第2の入力画像との間で、一致又は類似するブロック又は画素を探索し、少なくとも、その関係を表す水平方向視差ベクトルを出力する水平方向処理部と、(2)少なくとも、水平方向視差ベクトルから、水平方向の探索範囲を決定し、第1の入力画像及び第2の入力画像に係る両視点を通る直線から、垂直方向にずれた視点から撮影された垂直画像と、第1の入力画像と第2の入力画像とのいずれか又は両方の入力画像とから、垂直方向補間画像を生成する少なくとも1つの垂直方向処理部と、(3)水平方向補間画像と垂直方向補間画像とを統合し、最終的な仮想視点画像を生成する補間画像統合部とを備えることを特徴とする。   In order to solve such a problem, the virtual viewpoint image generation device according to the first aspect of the present invention (1) generates a horizontal interpolation image from the first input image, the second input image, and the position of the virtual viewpoint. A horizontal processing unit that searches for a block or pixel that matches or is similar between the first input image and the second input image and outputs at least a horizontal disparity vector that represents the relationship; (2) At least a horizontal search range is determined from the horizontal direction parallax vector, and is taken from a viewpoint shifted in the vertical direction from a straight line passing through both viewpoints related to the first input image and the second input image. At least one vertical direction processing unit that generates a vertical direction interpolation image from one or both of the first input image and the second input image, and (3) horizontal direction interpolation. Image and vertical complement Integrating the image, characterized in that it comprises an interpolation image integration unit for generating a final virtual viewpoint image.

第2の本発明に係る仮想視点画像生成プログラムは、コンピュータを、81)第1の入力画像及び第2の入力画像と仮想視点の位置とから水平方向補間画像を生成するものであって、第1の入力画像と第2の入力画像との間で、一致又は類似するブロック又は画素を探索し、少なくとも、その関係を表す水平方向視差ベクトルを出力する水平方向処理部と、(2)少なくとも、水平方向視差ベクトルから、水平方向の探索範囲を決定し、第1の入力画像及び第2の入力画像に係る両視点を通る直線から、垂直方向にずれた視点から撮影された垂直画像と、第1の入力画像と第2の入力画像とのいずれか又は両方の入力画像とから、垂直方向補間画像を生成する少なくとも1つの垂直方向処理部と、(3)水平方向補間画像と垂直方向補間画像とを統合し、最終的な仮想視点画像を生成する補間画像統合部として機能させることを特徴とする。   According to a second aspect of the present invention, there is provided a virtual viewpoint image generation program for generating a horizontally interpolated image from a first input image, a second input image, and a position of a virtual viewpoint. A horizontal direction processing unit that searches for a block or pixel that matches or resembles between one input image and a second input image, and outputs at least a horizontal direction disparity vector representing the relationship; (2) at least, A horizontal search range is determined from the horizontal disparity vector, and a vertical image captured from a viewpoint shifted in the vertical direction from straight lines passing through both viewpoints of the first input image and the second input image, and At least one vertical direction processing unit that generates a vertical direction interpolation image from one or both input images of the first input image and the second input image; and (3) a horizontal direction interpolation image and a vertical direction interpolation image. Integrated, characterized in that to function as the interpolation image integration unit for generating a final virtual viewpoint image.

本発明によれば、演算量の増加を抑えながら、補間画像の歪を低減することができる。   According to the present invention, it is possible to reduce distortion of an interpolated image while suppressing an increase in calculation amount.

実施形態の仮想視点画像生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the virtual viewpoint image generation apparatus of embodiment. 実施形態の仮想視点画像生成装置への入力画像の視点と仮想視点との位置関係の説明図である。It is explanatory drawing of the positional relationship of the viewpoint of the input image to the virtual viewpoint image generation apparatus of embodiment, and a virtual viewpoint. 実施形態の仮想視点画像生成装置における垂直方向の補間方法を説明する説明図である。It is explanatory drawing explaining the interpolation method of the vertical direction in the virtual viewpoint image generation apparatus of embodiment. 実施形態の仮想視点画像生成装置における動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement in the virtual viewpoint image generation apparatus of embodiment. 実施形態の仮想視点画像生成装置における水平画像と垂直画像と仮想視点画像との関係を示す説明図である。It is explanatory drawing which shows the relationship between the horizontal image in the virtual viewpoint image generation apparatus of embodiment, a vertical image, and a virtual viewpoint image. 実施形態の仮想視点画像生成装置における水平画像を撮影するカメラと補間したい仮想視点との位置関係を説明する説明図である。It is explanatory drawing explaining the positional relationship of the camera which image | photographs the horizontal image in the virtual viewpoint image generation apparatus of embodiment, and the virtual viewpoint to interpolate. 変形実施形態の仮想視点画像生成装置への入力画像の視点と仮想視点との位置関係の説明図である。It is explanatory drawing of the positional relationship of the viewpoint of the input image to the virtual viewpoint image generation apparatus of deformation | transformation embodiment, and a virtual viewpoint. 従来の仮想視点画像生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the conventional virtual viewpoint image generation apparatus. 従来の仮想視点画像生成装置への入力画像の視点と仮想視点との関係の説明図である。It is explanatory drawing of the relationship between the viewpoint of the input image to the conventional virtual viewpoint image generation apparatus, and a virtual viewpoint.

(A)主たる実施形態
以下では、本発明に係る仮想視点画像生成装置及びプログラムの実施形態を、図面を参照しながら詳細に説明する。
(A) Main Embodiments Hereinafter, embodiments of a virtual viewpoint image generation device and a program according to the present invention will be described in detail with reference to the drawings.

(A−1)実施形態の構成
図1は、実施形態に係る仮想視点画像生成装置の構成を示すブロック図である。なお、図1において、上述した図8との同一、対応部分には同一符号を示している。
(A-1) Configuration of Embodiment FIG. 1 is a block diagram illustrating a configuration of a virtual viewpoint image generation device according to an embodiment. In FIG. 1, the same and corresponding parts as those in FIG.

仮想視点画像生成装置100は、ハードウェア的な各種構成要素を接続して構築されたものであっても良く、また、CPU、ROM、RAM等のプログラムの実行構成を適用して、その機能を実現するように構築されたものであっても良い。いずれも構築方法を適用した場合であっても、仮想視点画像生成装置100の機能的な詳細な構成を、図1で表すことができる。   The virtual viewpoint image generation device 100 may be constructed by connecting various hardware components, and the function of the program is applied by applying an execution configuration of a program such as a CPU, ROM, or RAM. It may be constructed so as to be realized. In any case, the functional detailed configuration of the virtual viewpoint image generation device 100 can be represented in FIG. 1 even when the construction method is applied.

仮想視点画像生成装置100は、水平方向処理部110、第1の垂直方向処理部120、第2の垂直方向処理部130、平均処理部101を有する。   The virtual viewpoint image generation apparatus 100 includes a horizontal direction processing unit 110, a first vertical direction processing unit 120, a second vertical direction processing unit 130, and an average processing unit 101.

水平方向処理部110は、水平方向一致ブロック探索部111、内挿ベクトル算出部112、水平方向補間画像生成部113を有する。   The horizontal direction processing unit 110 includes a horizontal direction matching block search unit 111, an interpolation vector calculation unit 112, and a horizontal direction interpolation image generation unit 113.

第1の垂直方向処理部120は、第1の探索範囲決定部121、第1の垂直方向一致ブロック探索部122、第1のシフトベクトル算出部123、第1の垂直方向補間画像生成部124を有する。同様に、第2の垂直方向処理部130は、第2の探索範囲決定部131、第2の垂直方向一致ブロック探索部132、第2のシフトベクトル算出部133、第2の垂直方向補間画像生成部134を有する。   The first vertical direction processing unit 120 includes a first search range determination unit 121, a first vertical direction matching block search unit 122, a first shift vector calculation unit 123, and a first vertical direction interpolation image generation unit 124. Have. Similarly, the second vertical direction processing unit 130 includes a second search range determination unit 131, a second vertical direction matching block search unit 132, a second shift vector calculation unit 133, and a second vertical direction interpolation image generation. Part 134.

仮想視点画像生成装置100には、それぞれ視点位置が予め定まっている(例えば、カメラモジュールの配置によって予め定まっている)、第1の入力画像(以下、第1の水平画像と呼ぶ)PIC1、第2の入力画像(以下、第2の水平画像と呼ぶ)PIC2及び第3の入力画像(以下、垂直画像と呼ぶ)PIC3が入力される。各入力画像PIC1〜PIC3はそれぞれ、左上を原点とし、原点を通る水平方向であって右側を正とするx座標の値と、原点を通る垂直方向であって下側を正とするy座標の値とで位置を特定する画像となっている(図3参照)。第1の水平画像PIC1に係る視点及び第2の水平画像PIC2に係る視点は垂直方向に同じで水平方向に異なっている。   In the virtual viewpoint image generation device 100, the viewpoint position is predetermined (for example, predetermined by the arrangement of the camera module), the first input image (hereinafter referred to as the first horizontal image) PIC1, the first Two input images (hereinafter referred to as second horizontal images) PIC2 and a third input image (hereinafter referred to as vertical images) PIC3 are input. Each of the input images PIC1 to PIC3 has an x-coordinate value in which the upper left is the origin, the horizontal direction passing through the origin and the right side is positive, and the y coordinate in the vertical direction passing through the origin and the lower side is positive. It is an image for specifying the position by the value (see FIG. 3). The viewpoint relating to the first horizontal image PIC1 and the viewpoint relating to the second horizontal image PIC2 are the same in the vertical direction but different in the horizontal direction.

ここで、仮想視点位置VPVは、図2に示すように、第1の水平画像PIC1及び第2の水平画像PIC2の視点間を結ぶ線分上で指定される。垂直画像PIC3に係る視点(の位置)は、図2に示すように、仮想視点位置VPVと水平方向に同じで垂直方向に異なっている。   Here, as shown in FIG. 2, the virtual viewpoint position VPV is designated on a line segment connecting the viewpoints of the first horizontal image PIC1 and the second horizontal image PIC2. As shown in FIG. 2, the viewpoint (position) of the vertical image PIC3 is the same as the virtual viewpoint position VPV in the horizontal direction but different in the vertical direction.

垂直画像とは、図2に示すように、当該垂直画像の視点と、仮想視点とを通る直線が、第1の水平画像PIC1及び第2の水平画像PIC2に係る両視点を通る直線と直交する位置に、当該垂直画像の視点が設定された画像である。   In the vertical image, as shown in FIG. 2, a straight line passing through the viewpoint of the vertical image and the virtual viewpoint is orthogonal to a straight line passing through both viewpoints related to the first horizontal image PIC1 and the second horizontal image PIC2. This is an image in which the viewpoint of the vertical image is set at a position.

水平方向処理部110には、第1の水平画像PIC1及び第2の水平画像PIC2と、仮想視点位置VPVとが入力される。水平方向処理部110は、第1の水平画像PIC1及び第2の水平画像PIC2から、仮想視点位置VPVから撮影したと仮定した場合の補間画像(以下、水平方向補間画像と呼ぶ)HPICを生成して平均処理部141に与えるものである。水平方向処理部110における各部(111〜113)は以下のように作用する。   The horizontal direction processing unit 110 receives the first horizontal image PIC1 and the second horizontal image PIC2, and the virtual viewpoint position VPV. The horizontal direction processing unit 110 generates an interpolation image (hereinafter referred to as a horizontal direction interpolation image) HPIC when it is assumed that the image is taken from the virtual viewpoint position VPV from the first horizontal image PIC1 and the second horizontal image PIC2. To the average processing unit 141. Each part (111-113) in the horizontal direction processing part 110 acts as follows.

水平方向一致ブロック探索部111は、第1の水平画像PIC1と第2の水平画像PIC2の間で、一致又は類似(以下、「対応」と表現する)のブロック(又は画素)を探索し、水平方向視差ベクトルを得て出力するものである。水平方向視差ベクトルは、例えば、対応するブロック(又は画素)間の水平方向のずれ量(大きさ)を、第2の水平画像PIC2におけるブロック(又は画素)の位置を始点とし、第1の水平画像PIC1における対応するブロック(又は画素)の位置を終点としたベクトルとなっている。   The horizontal direction matching block search unit 111 searches for a block (or pixel) that matches or is similar (hereinafter referred to as “corresponding”) between the first horizontal image PIC1 and the second horizontal image PIC2, and performs horizontal processing. A directional parallax vector is obtained and output. The horizontal disparity vector is, for example, the amount of horizontal displacement (size) between corresponding blocks (or pixels), the position of the block (or pixel) in the second horizontal image PIC2 as the starting point, and the first horizontal disparity vector. This is a vector whose end point is the position of the corresponding block (or pixel) in the image PIC1.

また、水平方向一致ブロック探索部111は、第1の水平画像PIC1と第2の水平画像PIC2との間の一致又は類似するブロック(又は画素)の一致又は類似の程度を示す水平方向方マッチング度を垂直方向処理部120及び130に出力する。ここで、後述するように、垂直方向処理部120、130による探索範囲の決定方法は種々の方法を適用できる。従って、垂直方向処理部120、130が水平方向マッチング度を使用しないで探索範囲を決定する方法を使用する場合、水平方向一致ブロック探索部111は、垂直方向処理部120、130への水平方向マッチング度の出力は不要とすることができる。   Further, the horizontal direction matching block search unit 111 is a horizontal direction matching degree indicating the degree of coincidence between the first horizontal image PIC1 and the second horizontal image PIC2 or the coincidence or similarity of similar blocks (or pixels). Are output to the vertical processing units 120 and 130. Here, as will be described later, various methods can be applied to the search range determination method by the vertical processing units 120 and 130. Therefore, when the vertical direction processing units 120 and 130 use the method of determining the search range without using the horizontal matching degree, the horizontal direction matching block search unit 111 performs the horizontal direction matching to the vertical direction processing units 120 and 130. The degree of output can be unnecessary.

内挿ベクトル算出部112は、各ブロック(又は画素)についての水平方向視差ベクトルに対する按分処理により、各ブロック(又は画素)についての内挿ベクトルを求めるものである。第1の水平画像PIC1の視点と第2の水平画像PIC2の視点との距離をL12とし、仮想視点(仮想視点位置)と第2の水平画像PIC2の視点との距離をLV2とすると、内挿ベクトル算出部112は、水平方向視差ベクトルに、L12/LV2を乗算することにより、内挿ベクトルを求める。 The interpolation vector calculation unit 112 obtains an interpolation vector for each block (or pixel) by a proportional process for the horizontal direction parallax vector for each block (or pixel). When the viewpoint of the first horizontal image PIC1 and the distance between the viewpoint of the second horizontal image PIC2 and L 12, the distance between the virtual viewpoint (virtual viewpoint position) and the viewpoint of the second horizontal image PIC2 and L V2, The interpolation vector calculation unit 112 obtains an interpolation vector by multiplying the horizontal parallax vector by L 12 / L V2 .

水平方向補間画像生成部113は、基準画像としての第2の水平画像PIC2における各ブロック(又は画素)の画像内容を、そのブロック(又は画素)についての内挿ベクトルだけ移動して水平方向補間画像HPICのブロック(又は画素)を生成し、このような移動動作を全てのブロック(又は画素)について実行することにより水平方向補間画像HPICを生成する。   The horizontal direction interpolated image generation unit 113 moves the image content of each block (or pixel) in the second horizontal image PIC2 as the reference image by an interpolation vector for the block (or pixel), thereby moving the horizontal direction interpolated image. A block (or pixel) of HPIC is generated, and a horizontal direction interpolation image HPIC is generated by executing such a movement operation for all the blocks (or pixels).

なお、この実施形態では、基準画像が第2の水平画像PIC2である場合を例示する。しかし、基準画像が、第1の水平画像PIC1であっても良い、また、基準画像が、第1の水平画像PIC1と第2の水平画像PIC2の双方であっても良い。   In this embodiment, a case where the reference image is the second horizontal image PIC2 is illustrated. However, the reference image may be the first horizontal image PIC1, and the reference image may be both the first horizontal image PIC1 and the second horizontal image PIC2.

第1の垂直方向処理部120には、第1の水平画像PIC1及び垂直画像PIC3が入力される。第1の垂直方向処理部120は、第1の水平画像PIC1及び垂直画像PIC3から、仮想視点位置VPVから撮影したと仮定した場合の補間画像(以下、第1の垂直方向補間画像と呼ぶ)VPIC1を生成して平均処理部141に与えるものである。   The first horizontal image processing unit 120 receives the first horizontal image PIC1 and the vertical image PIC3. The first vertical direction processing unit 120 is an interpolation image (hereinafter referred to as a first vertical direction interpolation image) VPIC1 when it is assumed that the first horizontal image PIC1 and the vertical image PIC3 are taken from the virtual viewpoint position VPV. Is generated and given to the average processing unit 141.

以下、第1の垂直方向処理部120における各部(121〜124)の作用を、図3を参照しながら説明する。図3は、第1の水平画像PIC1及び垂直画像PIC3から、第1の垂直方向補間画像VPIC1を生成する方法の説明図である。図3における「三角形」は被写体の画像部分を表している。   Hereinafter, the operation of each unit (121 to 124) in the first vertical processing unit 120 will be described with reference to FIG. FIG. 3 is an explanatory diagram of a method for generating the first vertically interpolated image VPIC1 from the first horizontal image PIC1 and the vertical image PIC3. “Triangle” in FIG. 3 represents the image portion of the subject.

第1の探索範囲決定部121は、水平方向視差ベクトルと水平方向マッチング度とから水平方向の探索範囲を決定し、その探索範囲を垂直方向一致ブロック探索部122に出力する。探索範囲決定部121による水平方向の探索範囲の決定方法の詳細な処理については動作の項で説明する。   The first search range determination unit 121 determines a horizontal search range from the horizontal disparity vector and the horizontal matching degree, and outputs the search range to the vertical matching block search unit 122. Detailed processing of the method of determining the horizontal search range by the search range determination unit 121 will be described in the section of operation.

後述するように、探索範囲決定部121による探索範囲の決定方法が、水平方向マッチング度を使用しない場合、水平方向マッチング度は不要としても良い。また、垂直方向処理部120、130のいずれか一方にのみ、水平方向処理部110から水平方向マッチング度を取得して、いずれかの垂直方向処理部120、130が水平方向マッチング度を用いて探索範囲を決定するようにしても良い。   As will be described later, when the search range determination method by the search range determination unit 121 does not use the horizontal matching degree, the horizontal matching degree may be unnecessary. Further, only one of the vertical processing units 120 and 130 acquires the horizontal matching degree from the horizontal processing unit 110, and any one of the vertical processing units 120 and 130 searches using the horizontal matching degree. The range may be determined.

第1の垂直方向一致ブロック探索部122は、水平方向の探索範囲を第1の探索範囲決定部121により求められた探索範囲に制限し、第1の水平画像PIC1と垂直画像PIC3との間で、対応するブロック(又は画素)を探索し、第1の垂直方向視差ベクトルを出力するものである。第1の垂直方向視差ベクトルは、例えば、ブロックマッチングアルゴリズム等によって求められる。第1の垂直方向視差ベクトルは、対応するブロック(又は画素)間のずれ量(大きさ)を、垂直画像PIC3におけるブロック(又は画素)の位置を始点とし、第1の水平画像PIC1における対応するブロック(又は画素)の位置を終点としたベクトルとなっている。図3におけるブロックBR1は、垂直画像PIC3におけるブロックであり、このブロックBR1に対応する、第1の水平画像PIC1におけるブロックがブロックBR2となっている。そのため、ブロックBR1についての第1の垂直方向視差ベクトルVTR1は、ブロックBR1の中心からブロックBR2の中心を結ぶベクトルとなる。   The first vertical direction matching block search unit 122 limits the horizontal search range to the search range obtained by the first search range determination unit 121, and between the first horizontal image PIC1 and the vertical image PIC3. , Search for a corresponding block (or pixel), and output a first vertical disparity vector. The first vertical disparity vector is obtained by, for example, a block matching algorithm. The first vertical disparity vector corresponds to the shift amount (size) between corresponding blocks (or pixels) in the first horizontal image PIC1 with the position of the block (or pixel) in the vertical image PIC3 as the starting point. It is a vector whose end point is the position of a block (or pixel). A block BR1 in FIG. 3 is a block in the vertical image PIC3, and a block in the first horizontal image PIC1 corresponding to the block BR1 is a block BR2. Therefore, the first vertical disparity vector VTR1 for the block BR1 is a vector that connects the center of the block BR1 to the center of the block BR2.

第1のシフトベクトル算出部123は、各ブロック(又は画素)についての第1の垂直方向視差ベクトルの垂直方向の成分ベクトルを取り出すことにより第1のシフトベクトルを得るものである。図3に示すように、第1の垂直方向視差ベクトルVTR1の成分を(x,y)=(α,β)とすると、第1のシフトベクトルVTR2の成分は(x,y)=(0,β)となる。すなわち、第1のシフトベクトル算出部123は、第1の垂直方向視差ベクトルVTR1のうち、水平成分を「0」としたベクトルを第1のシフトベクトルVTR2として出力する。   The first shift vector calculation unit 123 obtains the first shift vector by extracting the vertical component vector of the first vertical parallax vector for each block (or pixel). As shown in FIG. 3, when the component of the first vertical disparity vector VTR1 is (x, y) = (α, β), the component of the first shift vector VTR2 is (x, y) = (0, β). That is, the first shift vector calculation unit 123 outputs a vector in which the horizontal component is “0” in the first vertical parallax vector VTR1 as the first shift vector VTR2.

第1の垂直方向補間画像生成部124は、垂直画像PIC3における各ブロック(又は画素)の画像内容を、そのブロック(又は画素)についての第1のシフトベクトルVTR2だけ移動して第1の垂直方向補間画像VPIC1におけるブロック(又は画素)を形成し、このような動作を全てのブロック(又は画素)について実行することにより、第1の垂直方向補間画像VPIC1を生成する。図3に示すブロックBR1の画像内容を第1のシフトベクトルVTR2だけ移動したブロックBR3が、第1の垂直方向補間画像VPIC1におけるブロックBR1に対応するブロック(補間ブロック)となっている。   The first vertically interpolated image generation unit 124 moves the image content of each block (or pixel) in the vertical image PIC3 by the first shift vector VTR2 for the block (or pixel) and moves the first vertical direction. A block (or pixel) in the interpolated image VPIC1 is formed, and such an operation is performed for all the blocks (or pixels), thereby generating the first vertical direction interpolated image VPIC1. A block BR3 obtained by moving the image content of the block BR1 shown in FIG. 3 by the first shift vector VTR2 is a block (interpolation block) corresponding to the block BR1 in the first vertical direction interpolation image VPIC1.

第1の垂直方向処理部120は、第1の水平画像PIC1及び垂直画像PIC3から第1の垂直方向補間画像VPIC1を生成するものであったが、第2の垂直方向処理部130は、第2の水平画像PIC2及び垂直画像PIC3から第2の垂直方向補間画像VPIC2を生成するものである。処理に供する一方の入力画像が、第1の垂直方向処理部120と第2の垂直方向処理部130とで異なるが、第2の垂直方向処理部130における各部(131〜134)は、第1の垂直方向処理部120における対応する各部(121〜124)と同様に作用するので、その機能説明は省略する。   The first vertical direction processing unit 120 generates the first vertical direction interpolation image VPIC1 from the first horizontal image PIC1 and the vertical image PIC3, but the second vertical direction processing unit 130 The second vertically interpolated image VPIC2 is generated from the horizontal image PIC2 and the vertical image PIC3. One input image to be processed is different between the first vertical processing unit 120 and the second vertical processing unit 130, but each unit (131 to 134) in the second vertical processing unit 130 is the first Since the operation is the same as the corresponding units (121 to 124) in the vertical direction processing unit 120, the description of the function is omitted.

平均処理部141は、補間画像統合部として設けられたものであり、水平方向補間画像HPIC、第1の垂直方向補間画像VPIC1及び第2の垂直方向補間画像VPIC2を統合して最終的に出力する補間画像(仮想視点画像)IPPICを得るものである。平均処理部141は、統合処理として平均処理を適用することによって、出力補間画像(仮想視点画像)IPPICを得る。第1の実施形態における平均処理は、単純な平均処理である(後述する第2の実施形態は、動的な重み付け係数を適用した重み付け平均である)。平均処理部141が単純な平均処理を適用する場合であれば、平均処理部141は、座標系(図3参照)のある座標における、水平方向補間画像HPICの画素値をP、第1の垂直方向補間画像VPIC1の画素値をQ1、第2の垂直方向補間画像VPIC2の画素値をQ2とすると、出力補間画像IPPICの画素値Rを(1)式に従って算出する。
R=(P+Q1+Q2)/3 …(1)
The average processing unit 141 is provided as an interpolation image integration unit, integrates the horizontal direction interpolation image HPIC, the first vertical direction interpolation image VPIC1, and the second vertical direction interpolation image VPIC2, and finally outputs them. An interpolation image (virtual viewpoint image) IPPIC is obtained. The average processing unit 141 obtains an output interpolated image (virtual viewpoint image) IPPIC by applying the average process as the integration process. The averaging process in the first embodiment is a simple averaging process (the second embodiment described later is a weighted average to which a dynamic weighting coefficient is applied). If the average processing unit 141 applies a simple average process, the average processing unit 141 uses P as the pixel value of the horizontally interpolated image HPIC at a certain coordinate in the coordinate system (see FIG. 3), and the first vertical unit. If the pixel value of the direction interpolation image VPIC1 is Q1, and the pixel value of the second vertical direction interpolation image VPIC2 is Q2, the pixel value R of the output interpolation image IPPIC is calculated according to equation (1).
R = (P + Q1 + Q2) / 3 (1)

(A−2)実施形態の動作
次に、以上のような各部を有する実施形態に係る仮想視点画像生成装置100における仮想視点画像生成処理の処理動作を詳細に説明する。
(A-2) Operation of Embodiment Next, the processing operation of the virtual viewpoint image generation processing in the virtual viewpoint image generation device 100 according to the embodiment having the above-described units will be described in detail.

図4は、実施形態に係る仮想視点画像生成装置100における動作の流れを示すフローチャートである。   FIG. 4 is a flowchart showing a flow of operations in the virtual viewpoint image generation device 100 according to the embodiment.

(A−2−1)全体動作の流れ
まず、水平方向処理部110内の水平方向一致ブロック探索部111において、第1の水平画像PIC1と第2の水平画像PIC2とから、水平方向視差ベクトルが求められる(ステップS101)。次に、内挿ベクトル算出部112において、水平方向視差ベクトルと仮想視点位置とから、内挿ベクトルが求められる(ステップS102)。さらに、水平方向補間画像生成部113において、内挿ベクトルと第2の水平画像PIC2とから、水平方向補間画像HPICが求められる(ステップS103)。
(A-2-1) Flow of Overall Operation First, the horizontal direction disparity vector is calculated from the first horizontal image PIC1 and the second horizontal image PIC2 in the horizontal direction matching block search unit 111 in the horizontal direction processing unit 110. It is obtained (step S101). Next, the interpolation vector calculation unit 112 obtains an interpolation vector from the horizontal parallax vector and the virtual viewpoint position (step S102). Further, the horizontal direction interpolation image generation unit 113 obtains a horizontal direction interpolation image HPIC from the interpolation vector and the second horizontal image PIC2 (step S103).

ここで、垂直方向処理部120、130が水平方向視差ベクトルのみを参照して、垂直方向補間画像を生成する場合、水平方向一致ブロック探索部111は、水平方向マッチング度を出力しない。   Here, when the vertical direction processing units 120 and 130 refer to only the horizontal direction parallax vector to generate the vertical direction interpolation image, the horizontal direction matching block search unit 111 does not output the horizontal direction matching degree.

また、第1の垂直方向処理部120の探索範囲決定部121において、水平方向視差ベクトルと水平方向マッチング度とから探索範囲が求められる(ステップS104)。この探索範囲の決定方法は、複数の決定方法を適用できるため、複数の探索範囲の決定方法については後述する。   In addition, the search range determination unit 121 of the first vertical direction processing unit 120 obtains a search range from the horizontal direction parallax vector and the horizontal direction matching degree (step S104). Since a plurality of determination methods can be applied to this search range determination method, the plurality of search range determination methods will be described later.

第1の垂直方向処理部120内の第1の垂直方向一致ブロック探索部122において、第1の水平画像PIC1と垂直画像PIC3とから、第1の垂直方向視差ベクトルが求められる(ステップS105)。次に、第1のシフトベクトル算出部123において、第1の垂直方向視差ベクトルから、第1のシフトベクトルが求められる(ステップS106)。さらに、第1の垂直方向補間画像生成部124において、第1のシフトベクトルと垂直画像PIC3とから、第1の垂直方向補間画像VPIC1が生成される(ステップS107)。   In the first vertical direction matching block search unit 122 in the first vertical direction processing unit 120, a first vertical direction parallax vector is obtained from the first horizontal image PIC1 and the vertical image PIC3 (step S105). Next, in the first shift vector calculation unit 123, a first shift vector is obtained from the first vertical parallax vector (step S106). Further, the first vertical direction interpolation image generation unit 124 generates the first vertical direction interpolation image VPIC1 from the first shift vector and the vertical image PIC3 (step S107).

第2の垂直方向処理部130においても、第1の垂直方向処理部120と同様な動作が実行され、第2の垂直方向補間画像VPIC2が生成される(ステップS108)。すなわち、第2の探索範囲決定部131において、水平方向視差ベクトルと水平方向マッチング度とから探索範囲が求められる。第2の垂直方向一致ブロック探索部132において、第2の水平画像PIC2と垂直画像PIC3とから、第2の垂直方向視差ベクトルが求められ、次に、第2のシフトベクトル算出部133において、第2の垂直方向視差ベクトルから、第2のシフトベクトルが求められ、さらに、第2の垂直方向補間画像生成部134において、第2のシフトベクトルと垂直画像PIC3とから、第2の垂直方向補間画像VPIC2が生成される。   In the second vertical direction processing unit 130, the same operation as that of the first vertical direction processing unit 120 is executed, and the second vertical direction interpolation image VPIC2 is generated (step S108). That is, in the second search range determination unit 131, the search range is obtained from the horizontal direction parallax vector and the horizontal matching degree. The second vertical direction matching block search unit 132 obtains the second vertical direction parallax vector from the second horizontal image PIC2 and the vertical image PIC3, and then the second shift vector calculation unit 133 determines the second vertical direction parallax vector. The second shift vector is obtained from the two vertical direction parallax vectors, and the second vertical direction interpolation image generation unit 134 further calculates the second vertical direction interpolation image from the second shift vector and the vertical image PIC3. VPIC2 is generated.

最後に、平均処理部141において、水平方向補間画像HPICと、第1の垂直方向補間画像VPIC1と、第2の垂直方向補間画像VPIC2とから、平均処理により、出力補間画像IPPICが求められる(ステップS109)。   Finally, in the average processing unit 141, an output interpolation image IPPIC is obtained by averaging from the horizontal direction interpolation image HPIC, the first vertical direction interpolation image VPIC1, and the second vertical direction interpolation image VPIC2 (step S1). S109).

(A−2−2)探索範囲の決定方法
次に、図4のステップS104で、探索範囲決定部121における、水平方向視差ベクトルと水平方向マッチング度とから探索範囲を求めるときの、探索範囲の決定方法を説明する。
(A-2-2) Search Range Determination Method Next, in step S104 of FIG. 4, the search range when the search range is determined from the horizontal direction parallax vector and the horizontal direction matching degree in the search range determination unit 121. A determination method will be described.

なお、以降では、特に断りがない限り、第1の水平画像PIC1と垂直画像PIC3とから垂直方向視差ベクトルを求めることを例に挙げて説明する。   In the following, description will be given by taking as an example the determination of the vertical direction parallax vector from the first horizontal image PIC1 and the vertical image PIC3 unless otherwise specified.

また、以降において、図5に示すように、着目する入力画像(例えば、第1の水平画像PIC1)から、もう1つの入力画像(例えば、第2の水平画像PIC2)を参照したときの水平方向視差ベクトルを「v」、補間したい仮想視点の位置を表す仮想視点位置パラメータを「c」、符号パラメータを「s」とする。   In the following, as shown in FIG. 5, the horizontal direction when another input image (for example, the second horizontal image PIC2) is referenced from the input image of interest (for example, the first horizontal image PIC1). The disparity vector is “v”, the virtual viewpoint position parameter indicating the position of the virtual viewpoint to be interpolated is “c”, and the code parameter is “s”.

仮想視点位置パラメータcは、範囲が(0.0,1.0)である実数である。また、図6に示すように、着目する入力画像(例えば、第1の水平画像PIC1)を撮影するカメラの位置から見た、もう1つの入力画像(例えば、第2の水平画像PIC2)を撮影するカメラの位置までの距離を「p」、着目する入力画像(例えば、第1の水平画像PIC1)を撮影するカメラの位置から補間したい仮想視点位置までの距離を「q」とすると、(2)式で表すことができる。
c=q/p …(2)
The virtual viewpoint position parameter c is a real number having a range (0.0, 1.0). Further, as shown in FIG. 6, another input image (for example, the second horizontal image PIC2) viewed from the position of the camera that captures the target input image (for example, the first horizontal image PIC1) is captured. If the distance to the camera position is “p” and the distance from the camera position where the target input image (for example, the first horizontal image PIC1) is taken to the virtual viewpoint position to be interpolated is “q”, (2 ) Expression.
c = q / p (2)

補間したい仮想視点位置が、第1の水平画像PIC1を撮影するカメラの位置と第2の水平画像PIC2を撮影するカメラの位置との間のちょうど中間に位置する場合、仮想視点位置パラメータcはc=0.5となる。   When the virtual viewpoint position to be interpolated is located exactly between the position of the camera that captures the first horizontal image PIC1 and the position of the camera that captures the second horizontal image PIC2, the virtual viewpoint position parameter c is c. = 0.5.

また、符号パラメータsは、入力画像のオブジェクトの位置が、垂直画像PIC3のオブジェクトの位置から見ると相対的に左側にくる場合、言い換えると、入力画像を撮影するカメラが補間したい仮想視点位置よりも相対的に右側にくる場合は、s=−1となり、それ以外の場合は、s=1となる。   Also, the sign parameter s is greater than the virtual viewpoint position that the camera that captures the input image wants to interpolate when the position of the object of the input image is relatively left when viewed from the position of the object of the vertical image PIC3. When it is relatively on the right side, s = −1, and in other cases, s = 1.

ここで、探索範囲の決定方法は、大別して2通りある。1つは、水平方向マッチング度を使用しない方法であり、もう1つは水平方向マッチング度を使用する方法である。以下では、これら2種類の探索範囲の決定方法を順番に説明する。   Here, there are roughly two methods for determining the search range. One is a method that does not use the horizontal matching degree, and the other is a method that uses the horizontal matching degree. Hereinafter, these two types of search range determination methods will be described in order.

まず、水平方向マッチング度を使用しない方法を説明する。この水平方向マッチング度を使用しないで探索範囲を求める方法は、2種類ある。   First, a method not using the horizontal matching degree will be described. There are two methods for obtaining the search range without using the horizontal matching degree.

水平方向マッチング度を使用しない1つ目の探索範囲の決定方法は、探索範囲を「α」としたとき、(3)式とする方法である。
α∈[scv−r,scv+r]…(3)
A first search range determination method that does not use the horizontal matching degree is a method of using equation (3) when the search range is “α”.
α∈ [scv−r, scv + r] (3)

すなわち、探索範囲αは、符号パラメータsと仮想視点位置パラメータcと水平方向視差ベクトルvとを乗じた結果scvにパラメータrを減算した値から、結果scvにパラメータrを加算した値までの範囲とする。ここで、パラメータrは、予め定めた0以上のパラメータである。r=0とすると、探索範囲αはα=scvとなり、水平方向の探索は1点になり、事実上、水平方向の探索を行なわない。逆に、パラメータrの値が大きくなると、探索範囲が広がることになる。   That is, the search range α is a range from a value obtained by subtracting the parameter r to the result scv obtained by multiplying the sign parameter s, the virtual viewpoint position parameter c, and the horizontal parallax vector v to a value obtained by adding the parameter r to the result scv. To do. Here, the parameter r is a predetermined parameter of 0 or more. When r = 0, the search range α is α = scv, the horizontal search is one point, and the horizontal search is virtually not performed. Conversely, when the value of the parameter r is increased, the search range is expanded.

パラメータrの値が小さいほど、演算量が少なくなる。しかし、例えば、オクルージョン等が原因で、水平方向視差ベクトルvの品質が悪い場合は、第1の垂直方向処理部120、第2の垂直方向処理部130にも第1の垂直方向補間画像VPIC1、第2の垂直方向補間画像VPIC2の品質が悪化という形で悪影響を与える。   The smaller the value of the parameter r, the smaller the calculation amount. However, for example, when the quality of the horizontal direction parallax vector v is poor due to occlusion or the like, the first vertical direction interpolated image VPIC1, the first vertical direction processing unit 120, the second vertical direction processing unit 130, This adversely affects the quality of the second vertically interpolated image VPIC2 in the form of deterioration.

逆に、パラメータrの値を大きくすると、例えば、オクルージョン等が原因で、水平方向視差ベクトルvの品質が悪くなったとしても、第1の垂直方向処理部120、第2の垂直方向処理部130に悪影響を与える可能性を下がる。しかし、演算量が増えるというデメリットもある。   On the contrary, if the value of the parameter r is increased, even if the quality of the horizontal parallax vector v deteriorates due to, for example, occlusion, the first vertical direction processing unit 120 and the second vertical direction processing unit 130 Reduce the possibility of adverse effects on However, there is a demerit that the amount of calculation increases.

水平方向マッチング度を使用しない2つ目の探索範囲の決定方法は、探索範囲αを(4)式とする方法である。
α∈[scv−r,scv+r]∪[scv−r,scv+r]
∪[scv−r,scv+r]
∪...
∪[scv−r,scv+r]
∪...
∪[scv−r,scv+r]…(4)
A second search range determination method that does not use the horizontal matching degree is a method in which the search range α is set to equation (4).
α∈ [scv−r, scv + r] ∪ [scv 1 −r, scv 1 + r]
∪ [scv 2 −r, scv 2 + r]
∪. . .
∪ [scv k −r, scv k + r]
∪. . .
∪ [scv n −r, scv n + r] (4)

ここで、(4)式において、水平方向視差ベクトルvは注目しているブロック(又は画素)の近隣のブロック(又は画素)の水平方向視差ベクトルである。 Here, in Equation (4), the horizontal direction parallax vector v k is a horizontal direction parallax vector of a block (or pixel) adjacent to the block (or pixel) of interest.

(4)式では、n個の近隣のブロック(又は画素)の水平方向視差ベクトルを計算式に含めているが、何個の近隣のブロック(又は画素)の水平方向視差ベクトルを計算式に含めるかは、予め定めるパラメータである。   In equation (4), the horizontal disparity vectors of n neighboring blocks (or pixels) are included in the calculation formula, but the horizontal disparity vectors of how many neighboring blocks (or pixels) are included in the calculation formula. Is a predetermined parameter.

水平方向マッチング度を使用しない1つ目の探索範囲の決定方法で、発生した「パラメータrを小さくした場合に水平方向視差ベクトルの品質が悪い場合に、垂直方向処理部にも補間画像の品質悪化という形で悪影響を与える」という問題は、オクルージョンや照明の当たり方の違い等が原因で発生することが多い。   In the first search range determination method that does not use the horizontal matching degree, if the quality of the horizontal disparity vector is poor when the parameter r is reduced, the vertical processing unit also deteriorates the quality of the interpolated image. The problem of “having an adverse effect in the form of” is often caused by differences in occlusion and lighting.

これに対して、水平方向マッチング度を使用しない2つ目の探索範囲の決定方法は、自然画像において、(a)オクルージョンや照明の当たり方の違い等により発生する問題は、近隣のブロック(又は画素)では発生していない可能性があること、(b)水平方向視差ベクトルは、空間的に滑らかである、という性質があることを利用して、1つ目の探索範囲の決定方法の問題発生を抑制する方法である。   On the other hand, the second method of determining the search range that does not use the degree of horizontal matching is that, in a natural image, (a) problems that occur due to differences in occlusion, lighting, etc. (Pixel) may not occur, and (b) the problem that the first search range is determined using the fact that the horizontal disparity vector is spatially smooth This is a method of suppressing the occurrence.

このように、2つ目の探索範囲の決定方法を採用する場合、1つ目の探索範囲の決定方法を採用する場合よりも、パラメータrを小さくできるため、第1の垂直方向補間画像VPIC1、第2の垂直方向補間画像VPIC2の画像品質を維持したまま、演算量が抑制されることが期待できる。   In this way, when the second search range determination method is employed, the parameter r can be made smaller than when the first search range determination method is employed, and therefore the first vertical direction interpolation image VPIC1, It can be expected that the calculation amount is suppressed while maintaining the image quality of the second vertically interpolated image VPIC2.

次に、水平方向マッチング度を使用して探索範囲を決定する方法を説明する。水平方向マッチング度を使用する場合、上述した2種類の探索範囲の決定方法を組み合わせた方法で、探索範囲を決定する。   Next, a method for determining the search range using the horizontal matching degree will be described. When the horizontal matching degree is used, the search range is determined by a combination of the above-described two types of search range determination methods.

以降では、水平方向マッチング度Mは0以上の実数である。また、水平方向マッチング度Mの値が小さいほど、第1の水平画像PIC1と第2の水平画像PIC2との間のブロック(又は画素)のマッチング度が高いとする場合を例に説明する。   Thereafter, the horizontal matching degree M is a real number of 0 or more. An example will be described in which the block (or pixel) matching degree between the first horizontal image PIC1 and the second horizontal image PIC2 is higher as the horizontal matching degree M is smaller.

水平方向マッチング度Mの値が、予め定められた閾値Tよりも小さい場合、つまり、マッチング度が高い場合、注目しているブロック(又は画素)の水平方向視差ベクトルvを用いて、探索範囲αは(5)式で求められる。
α∈[scv−r,scv+r] …(5)
When the value of the horizontal matching degree M is smaller than a predetermined threshold T, that is, when the matching degree is high, the search range α is calculated using the horizontal disparity vector v of the block (or pixel) of interest. Is obtained by equation (5).
α∈ [scv−r, scv + r] (5)

水平方向マッチング度Mの値が、予め定められた閾値T以上の場合、つまり、マッチング度が低い場合、注目しているブロック(又は画素)の近隣のブロック(又は画素)の水平方向視差ベクトルを用いて、探索範囲αは(6)式で求められる。   When the value of the horizontal matching degree M is equal to or greater than a predetermined threshold T, that is, when the matching degree is low, the horizontal disparity vector of a block (or pixel) adjacent to the block (or pixel) of interest is calculated. The search range α is obtained by equation (6).

α∈[scv−r,scv+r]∪[scv−r,scv+r]
∪...
∪[scv−r,scv+r]
∪...
∪[scv−r,scv+r]…(6)
水平方向マッチング度Mの値が高い場合は、オクルージョンや照明の当たり方の違い等が起きていない領域であると予測できる。そのため、注目しているブロック(又は画素)の水平方向視差ベクトルを用いて、探索範囲を決定する。
α∈ [scv 1 −r, scv 1 + r] ∪ [scv 2 −r, scv 2 + r]
∪. . .
∪ [scv k −r, scv k + r]
∪. . .
∪ [scv n −r, scv n + r] (6)
When the value of the degree of matching M in the horizontal direction is high, it can be predicted that this is a region where no occlusion or a difference in lighting is occurring. Therefore, the search range is determined using the horizontal disparity vector of the block (or pixel) of interest.

水平方向マッチング度Mの値が低い場合は、注目しているブロック(又は画素)で、オクルージョンや照明の当たり方の違い等が起きている領域であると予測できる。そのため、注目しているブロック(又は画素)の近隣にあるブロック(又は画素)の水平方向視差ベクトルを用いて、探索範囲を決定する。   When the value of the horizontal matching degree M is low, it can be predicted that the block (or pixel) of interest is a region where occlusion, illumination difference, or the like occurs. Therefore, the search range is determined using the horizontal disparity vector of the block (or pixel) in the vicinity of the block (or pixel) of interest.

水平方向マッチング度Mを用いることで、パラメータrの値や、近接のブロック(又は画素)の数nの値を小さくしても、オクルージョンや照明の当たり方の違い等により発生する問題を抑制できるため、品質を維持したまま演算量が抑制されることが期待できる。   By using the degree of matching M in the horizontal direction, even if the value of the parameter r or the number n of adjacent blocks (or pixels) is reduced, problems that occur due to differences in occlusion or lighting, etc. can be suppressed. Therefore, it can be expected that the calculation amount is suppressed while maintaining the quality.

(A−3)実施形態の効果
以上のように、実施形態によれば、仮想視点より垂直方向で撮影された視点の情報(垂直画像)も用いて補間画像を生成することで、オクルージョンの存在や照明の当たり方の違い等が理由で、発生する補間画像の歪が低減される。
(A-3) Effect of Embodiment As described above, according to the embodiment, the existence of occlusion is obtained by generating an interpolated image using viewpoint information (vertical image) captured in the vertical direction from the virtual viewpoint. Further, the distortion of the interpolated image that occurs due to the difference in the way of lighting or lighting is reduced.

なぜならば、第1の水平画像PIC1と第2の水平画像PIC2との間で対応付けできない領域でも、仮想視点より垂直方向であれば対応付けできる可能性は高いからである。   This is because, even in an area that cannot be associated between the first horizontal image PIC1 and the second horizontal image PIC2, there is a high possibility that they can be associated in the vertical direction from the virtual viewpoint.

そして、垂直方向で対応付けできない領域でも、第1の水平画像PIC1と第2の水平画像PIC2とのの間では対応付けできる可能性がある。水平歩行補間画像及び垂直方向補間画像の平均処理により、双方の長所を取り入れることで、オクルージョンの存在や照明の当たり方の違い等が理由で、発生する補間画像の歪が低減される。   Even in a region that cannot be associated in the vertical direction, there is a possibility that association can be made between the first horizontal image PIC1 and the second horizontal image PIC2. By taking advantage of both by averaging the horizontal walking interpolation image and the vertical direction interpolation image, distortion of the interpolation image that occurs due to the presence of occlusion, the difference in the way of lighting, and the like is reduced.

さらに、実施形態によれば、演算量の面でも、水平方向処理部の演算結果を利用することで、垂直方向処理部の演算量を削減しており、演算量の増加を抑えることができる。   Furthermore, according to the embodiment, the calculation amount of the vertical direction processing unit is reduced by using the calculation result of the horizontal direction processing unit in terms of the calculation amount, and an increase in the calculation amount can be suppressed.

(B)他の実施形態
上述した実施形態においても種々の変形実施形態を言及したが、本発明は、以下の変形実施形態にも適用できる。
(B) Other Embodiments Although various modified embodiments have been mentioned in the above-described embodiments, the present invention can also be applied to the following modified embodiments.

(B−1)上述した実施形態では、水平方向一致ブロック探索部111が、垂直方向処理部120に対して、水平方向視差ベクトルと水平方向マッチング度とを出力する場合を例示した。しかし、水平方向一致ブロック探索部111は、垂直方向処理部130に対しても、垂直方向処理部120と同様に、水平方向視差ベクトルと水平方向マッチング度とを出力するようにしても良い。   (B-1) In the above-described embodiment, the case where the horizontal direction matching block search unit 111 outputs the horizontal direction parallax vector and the horizontal direction matching degree to the vertical direction processing unit 120 is exemplified. However, the horizontal direction matching block search unit 111 may output the horizontal direction parallax vector and the horizontal matching degree to the vertical direction processing unit 130 as well as the vertical direction processing unit 120.

(B−2)上述した実施形態では、水平方向処理部110が、第2の水平画像PIC2から水平方向補間画像HPICを生成する場合を示したが、水平方向補間画像HPICの生成方法はこれに限定されるものではない。要は、第1の水平画像PIC1と第2の水平画像PIC2と仮想視点位置VPVとから水平方向補間画像HPICを得られる生成方法であれば良い。例えば、第1の水平画像PIC1から水平方向補間画像HPICを生成するようにしても良く、また、非特許文献1の記載技術のように、第1の水平画像PIC1及び第2の水平画像PIC2の双方から水平方向補間画像HPICを生成するようにしても良い。   (B-2) In the embodiment described above, the case where the horizontal processing unit 110 generates the horizontal interpolation image HPIC from the second horizontal image PIC2 has been described, but the method of generating the horizontal interpolation image HPIC is described here. It is not limited. In short, any generation method may be used as long as the horizontal direction interpolation image HPIC can be obtained from the first horizontal image PIC1, the second horizontal image PIC2, and the virtual viewpoint position VPV. For example, a horizontally interpolated image HPIC may be generated from the first horizontal image PIC1, and the first horizontal image PIC1 and the second horizontal image PIC2 may be generated as described in Non-Patent Document 1. You may make it produce | generate the horizontal direction interpolation image HPIC from both.

(B−3)上記の実施形態では、第1の水平画像PIC1と垂直画像PIC3とから第1の垂直方向補間画像VPIC1を生成すると共に、第2の水平画像PIC2と垂直画像PIC3とから第2の垂直方向補間画像VPIC2を生成し、最終的な出力補間画像IPPICに反映させるものを示したが、演算量削減のために、第1の垂直方向補間画像VPIC1及び第2の垂直方向補間画像VPIC2の一方のみを生成し、最終的な出力補間画像IPPICに反映させるようにしても良い。   (B-3) In the above embodiment, the first vertical direction interpolated image VPIC1 is generated from the first horizontal image PIC1 and the vertical image PIC3, and the second horizontal image PIC2 and the vertical image PIC3 are The vertical interpolation image VPIC2 is generated and reflected in the final output interpolation image IPPIC. However, in order to reduce the amount of calculation, the first vertical interpolation image VPIC1 and the second vertical interpolation image VPIC2 are shown. Only one of them may be generated and reflected in the final output interpolation image IPPIC.

(B−4)上記の実施形態では、第1の水平画像PIC1及び第2の水平画像PIC2の両視点を結ぶ線分より上方にある視点からの垂直画像を適用するものを示した。しかし、上述した線分より下方にある視点からの垂直画像を適用するようにしても良く、また、上述した線分より上方にある視点からの垂直画像及び上述した線分より下方にある視点からの垂直画像の両方を適用するようにしても良い。   (B-4) In the above-described embodiment, an example in which a vertical image from a viewpoint above a line segment connecting both viewpoints of the first horizontal image PIC1 and the second horizontal image PIC2 is applied is shown. However, a vertical image from a viewpoint below the line segment may be applied, and a vertical image from a viewpoint above the line segment and a viewpoint below the line segment may be applied. Both of the vertical images may be applied.

後者の場合から明らかなように、最終的な出力補間画像IPPICに反映される垂直方向補間画像の数は1や2に限定されるものではなく、垂直方向補間画像の数がN(Nは自然数)であっても良い。   As is clear from the latter case, the number of vertically interpolated images reflected in the final output interpolated image IPPIC is not limited to 1 or 2, and the number of vertically interpolated images is N (N is a natural number). ).

(B−5)上記の実施形態では、複数の補間画像(水平方向補間画像及び垂直方向補間画像)の単純な平均で出力補間画像を生成する場合を例示した。しかし、平均処理部は、動的な重み係数を適用した複数の補間画像の重み付け平均で出力補間画像を生成するようにしても良い。また、平均処理部は、固定の重み係数を適用した複数の補間画像の重み付け平均で出力補間画像を生成するようにしても良い。例えば、補間画像を生成する元となった画像(水平方向補間画像であれば第2の水平画像)の視点と仮想視点との距離に応じて、固定の重み係数を定めるようにしても良い。   (B-5) In the above embodiment, the case where an output interpolation image is generated by a simple average of a plurality of interpolation images (horizontal direction interpolation image and vertical direction interpolation image) has been exemplified. However, the average processing unit may generate an output interpolation image by weighted average of a plurality of interpolation images to which a dynamic weighting factor is applied. The average processing unit may generate an output interpolation image by weighted average of a plurality of interpolation images to which a fixed weighting factor is applied. For example, a fixed weighting factor may be determined according to the distance between the viewpoint of the image that has generated the interpolation image (the second horizontal image in the case of a horizontal direction interpolation image) and the virtual viewpoint.

(B−6)上記の実施形態の動作説明では、水平方向処理部110の動作、第1の垂直方向処理部120の動作、第2の垂直方向処理部130の動作がこの順で実行される場合を示した。しかし、動作の順序は、これに限定されるものではない。また、水平方向処理部110の動作、第1の垂直方向処理部120の動作、第2の垂直方向処理部130の動作の2つ以上の動作が、並列処理により実行されるものであっても良い。また例えば、水平方向処理部110において水平方向視差ベクトルを求めた後、第1の垂直方向処理部120において第1の垂直方向視差ベクトルを求め、さらに、第2の垂直方向処理部130において第2の垂直方向視差ベクトルを求め、その後に、内挿ベクトルの算出、第1のシフトベクトルの算出、第2のシフトベクトルの算出をこの順序で実行するように、水平方向処理部110の動作、第1の垂直方向処理部120の動作、第2の垂直方向処理部130の動作を細分化し、時分割で巡回的に実行させるようにしても良い。   (B-6) In the operation description of the above embodiment, the operation of the horizontal processing unit 110, the operation of the first vertical processing unit 120, and the operation of the second vertical processing unit 130 are executed in this order. Showed the case. However, the order of operations is not limited to this. Two or more operations of the horizontal processing unit 110, the first vertical processing unit 120, and the second vertical processing unit 130 may be executed by parallel processing. good. Further, for example, after obtaining the horizontal direction parallax vector in the horizontal direction processing unit 110, the first vertical direction processing unit 120 obtains the first vertical direction parallax vector, and then the second vertical direction processing unit 130 obtains the second Of the horizontal direction processing unit 110 so as to execute the calculation of the interpolation vector, the calculation of the first shift vector, and the calculation of the second shift vector in this order. The operation of one vertical processing unit 120 and the operation of the second vertical processing unit 130 may be subdivided and cyclically executed in a time division manner.

(B−7)上記の実施形態は、仮想視点が1個の場合を示したが、仮想視点が2以上あって、仮想視点画像生成装置が多視点画像生成システムを構成するものであっても良い。例えば、ステレオ画像としての2つの仮想視点画像を生成するようにしても良い。この場合において、第1の水平画像PIC1及び第2の水平画像PIC2の両視点を結ぶ線分より上方にある視点からの第1の垂直画像と上述した線分より下方にある視点からの第2の垂直画像の両方を適用するようにしても良い。図7は、第1の水平画像PIC1及び第2の水平画像PIC2の両視点を結ぶ線分を3等分し、線分上の1/3の位置と2/3の位置に第1及び第2の仮想視点を定め、第1の垂直画像の視点が第1の仮想視点の上方に位置し、第2の垂直画像の視点が第2の仮想視点の下方に位置する例を示している。このように、2つの垂直画像の視点を上下に設定することにより、1/3間隔の補間を、高精度に行なうことができる。   (B-7) The above embodiment shows a case where there is one virtual viewpoint. However, even if there are two or more virtual viewpoints and the virtual viewpoint image generation apparatus constitutes a multi-viewpoint image generation system. good. For example, two virtual viewpoint images as stereo images may be generated. In this case, the first vertical image from the viewpoint above the line segment connecting both viewpoints of the first horizontal image PIC1 and the second horizontal image PIC2 and the second from the viewpoint below the line segment described above. Both of the vertical images may be applied. FIG. 7 shows that a line segment connecting both viewpoints of the first horizontal image PIC1 and the second horizontal image PIC2 is divided into three equal parts, and the first and second positions on the line segment are 1/3 and 2/3. In this example, two virtual viewpoints are defined, the viewpoint of the first vertical image is located above the first virtual viewpoint, and the viewpoint of the second vertical image is located below the second virtual viewpoint. In this way, by setting the viewpoints of two vertical images up and down, interpolation at 1/3 intervals can be performed with high accuracy.

(B−8)上記の実施形態の説明では、ブロック毎に水平方向マッチング度を出力するように説明したが、画素毎にマッチング度を出力するようにしても良い。   (B-8) In the description of the above-described embodiment, the horizontal matching degree is output for each block. However, the matching degree may be output for each pixel.

(B−9)上記の実施形態では、仮想視点が、第1の水平画像PIC1及び第2の水平画像PIC2の両視点を結ぶ線分上にあり、補間(内挿)により水平方向補間画像を生成する場合を示した。しかし、第1の水平画像PIC1及び第2の水平画像PIC2の両視点を結ぶ線分の延長上に仮想視点が位置し、外挿により水平方向の画像を生成する場合にも、本発明の技術思想を適用することができる。用語「補間」は内挿を表す用語であるが、特許請求の範囲における「補間」は内挿及び外挿の双方を意味するものとする。   (B-9) In the above embodiment, the virtual viewpoint is on a line segment connecting both viewpoints of the first horizontal image PIC1 and the second horizontal image PIC2, and the horizontal direction interpolation image is obtained by interpolation (interpolation). The case of generating was shown. However, the technique of the present invention is also applicable when a virtual viewpoint is located on an extension of a line segment connecting both viewpoints of the first horizontal image PIC1 and the second horizontal image PIC2, and a horizontal image is generated by extrapolation. The idea can be applied. The term “interpolation” is a term representing interpolation, but “interpolation” in the claims means both interpolation and extrapolation.

100…仮想視点画像生成装置、
110、…水平方向処理部、111…水平方向一致ブロック探索部、112…内挿ベクトル算出部、113…水平方向補間画像生成部、
120、130…垂直方向処理部、121、131…探索範囲決定部、122、132…垂直方向一致ブロック探索部、123、133…シフトベクトル算出部、124、134…垂直方向補間画像生成部、
141…平均処理部。
100: Virtual viewpoint image generation device,
110, ... Horizontal direction processing unit, 111 ... Horizontal direction matching block search unit, 112 ... Interpolation vector calculation unit, 113 ... Horizontal direction interpolation image generation unit,
120, 130 ... vertical direction processing unit, 121, 131 ... search range determination unit, 122, 132 ... vertical direction matching block search unit, 123, 133 ... shift vector calculation unit, 124, 134 ... vertical direction interpolation image generation unit,
141: Average processing unit.

Claims (11)

第1の入力画像及び第2の入力画像と仮想視点の位置とから水平方向補間画像を生成するものであって、上記第1の入力画像と上記第2の入力画像との間で、一致又は類似するブロック又は画素を探索し、少なくとも、その関係を表す水平方向視差ベクトルを出力する水平方向処理部と、
少なくとも、上記水平方向視差ベクトルから、水平方向の探索範囲を決定し、上記第1の入力画像及び上記第2の入力画像に係る両視点を通る直線から、垂直方向にずれた視点から撮影された垂直画像と、上記第1の入力画像と上記第2の入力画像とのいずれか又は両方の入力画像とから、垂直方向補間画像を生成する少なくとも1つの垂直方向処理部と、
上記水平方向補間画像と上記垂直方向補間画像とを統合し、最終的な仮想視点画像を生成する補間画像統合部と
を備えることを特徴とする仮想視点画像生成装置。
A horizontal direction interpolation image is generated from the first input image and the second input image and the position of the virtual viewpoint, and the first input image and the second input image are identical or A horizontal processing unit that searches for similar blocks or pixels and outputs at least a horizontal disparity vector representing the relationship;
At least a horizontal search range is determined from the horizontal parallax vector, and is taken from a viewpoint shifted in the vertical direction from a straight line passing through both viewpoints related to the first input image and the second input image. At least one vertical direction processing unit that generates a vertical direction interpolation image from a vertical image and either or both of the first input image and the second input image;
A virtual viewpoint image generation apparatus comprising: an interpolation image integration unit that integrates the horizontal direction interpolation image and the vertical direction interpolation image to generate a final virtual viewpoint image.
上記垂直方向処理部が、
少なくとも、上記水平方向視差ベクトルから、水平方向の探索範囲を決定する探索範囲決定部と、
上記水平方向の探索の範囲を当該探索範囲に制限して、上記第1の入力画像又は上記第2の入力画像と垂直画像との間で、一致または類似する、ブロック又は画素を探索し、その関係を表す垂直方向視差ベクトルを出力する垂直方向一致ブロック探索部と、
当該垂直方向視差ベクトルのうち、水平成分を0としたベクトルをシフトベクトルとして出力することを特徴とするシフトベクトル算出部と、
当該シフトベクトルと当該垂直画像とから、上記仮想位置における垂直方向補間画像を生成する垂直方向補間画像生成部と
を備えることを特徴とする請求項1に記載の仮想視点画像生成装置。
The vertical processing unit is
At least a search range determination unit that determines a search range in the horizontal direction from the horizontal disparity vector,
The horizontal search range is limited to the search range, and a search is made for a block or pixel that matches or is similar between the first input image or the second input image and the vertical image. A vertical matching block search unit that outputs a vertical disparity vector representing the relationship;
A shift vector calculation unit characterized in that a vector having a horizontal component of 0 among the vertical direction parallax vectors is output as a shift vector;
The virtual viewpoint image generation apparatus according to claim 1, further comprising: a vertical direction interpolation image generation unit that generates a vertical direction interpolation image at the virtual position from the shift vector and the vertical image.
上記仮想視点の位置は、上記第1の入力画像及び上記第2の入力画像に係る両視点を通る直線上に設定され、
上記垂直画像は、当該垂直画像の視点と上記仮想視点とを通る直線が、上記第1の入力画像及び上記第2の入力画像に係る両視点を通る直線と直交する位置に、当該垂直画像の視点が設定された画像である
ことを特徴とする請求項1又は2に記載の仮想視点画像生成装置。
The position of the virtual viewpoint is set on a straight line passing through both viewpoints related to the first input image and the second input image,
The vertical image has a straight line passing through the viewpoint of the vertical image and the virtual viewpoint at a position orthogonal to a straight line passing through both viewpoints of the first input image and the second input image. The virtual viewpoint image generation apparatus according to claim 1, wherein the viewpoint is an image set.
上記垂直方向処理部として、第1の垂直方向処理部と第2の垂直方向処理部とを備え、
上記第1の垂直方向処理部には上記第1の入力画像が入力され、上記第2の垂直方向処理部には上記第2の入力画像が入力され、
上記補間画像統合部は、上記水平方向補間画像と、上記第1の垂直方向処理部が得た第1の垂直方向補間画像と、上記第2の垂直方向処理部が得た第2の垂直方向補間画像とを統合して最終的な仮想視点画像を生成する
ことを特徴とする請求項1〜3のいずれかに記載の仮想視点画像生成装置。
The vertical processing unit includes a first vertical processing unit and a second vertical processing unit,
The first input image is input to the first vertical processing unit, the second input image is input to the second vertical processing unit,
The interpolated image integration unit includes the horizontal direction interpolated image, the first vertical direction interpolated image obtained by the first vertical direction processing unit, and the second vertical direction obtained by the second vertical direction processing unit. The virtual viewpoint image generation apparatus according to claim 1, wherein the final virtual viewpoint image is generated by integrating the interpolation image.
着目する上記第1の入力画像から上記第2の入力画像を参照したときの水平方向視差ベクトルをv、補間したい視点の位置を表すパラメータをc、予め定める0以上のパラメータをr、上記第1の入力画像のオブジェクトの位置が、上記仮想視点における垂直画像のオブジェクトの位置から見たときの相対的な位置関係を表わす符号パラメータをsとすると、
上記探索範囲決定部が、下記の(A)式に従って上記探索範囲αを算出することを特徴とする請求項2〜4のいずれかに記載の仮想視点画像生成装置。
α∈[scv−r,scv+r] …(A)
When the second input image is referred to from the first input image of interest, the horizontal direction parallax vector is v, the parameter indicating the position of the viewpoint to be interpolated is c, the predetermined parameter of zero or more is r, the first When the sign parameter representing the relative positional relationship when the position of the object of the input image is viewed from the position of the object of the vertical image at the virtual viewpoint is s,
The virtual viewpoint image generation device according to claim 2, wherein the search range determination unit calculates the search range α according to the following equation (A).
α∈ [scv−r, scv + r] (A)
着目する上記第1の入力画像から上記第2の入力画像を参照したときの水平方向視差ベクトルをv、注目しているブロック又は画素の近隣のブロック又は画素の水平方向視差ベクトルをv、近隣のブロック又は画素の数をn、補間したい仮想視点位置を表すパラメータをc、予め定める0以上のパラメータをr、上記第1の入力画像のオブジェクトの位置が、上記仮想視点における垂直画像のオブジェクトの位置から見たときの相対的な位置関係を表わす符号パラメータをsとすると、
上記探索範囲決定部が、下記の(B)式に従って上記探索範囲αを算出することを特徴とする請求項2〜4のいずれかに記載の仮想視点画像生成装置。
α∈[scv−r,scv+r]∪[scv−r,scv+r]
∪[scv−r,scv+r]
∪...
∪[scv−r,scv+r]
∪...
∪[scv−r,scv+r]…(B)
The horizontal disparity vector when the second input image is referred to from the first input image of interest is v, the horizontal disparity vector of the block or pixel adjacent to the block or pixel of interest is v k , the neighborhood N is the number of blocks or pixels, c is a parameter representing the virtual viewpoint position to be interpolated, r is a predetermined parameter of 0 or more, and the object position of the first input image is the object position of the vertical image at the virtual viewpoint. If the sign parameter representing the relative positional relationship when viewed from the position is s,
The virtual viewpoint image generation apparatus according to claim 2, wherein the search range determination unit calculates the search range α according to the following equation (B).
α∈ [scv−r, scv + r] ∪ [scv 1 −r, scv 1 + r]
∪ [scv 2 −r, scv 2 + r]
∪. . .
∪ [scv k −r, scv k + r]
∪. . .
∪ [scv n −r, scv n + r] (B)
上記水平方向処理部が、上記水平方向視差ベクトルと、上記第1の入力画像と上記第2の入力画像との間で、一致又は類似するブロック又は画素を探索し、探索された要素に係る水平方向マッチング度とを出力するものであり、
上記探索範囲決定部が、上記水平方向視差ベクトルと、上記水平方向マッチング度とから、水平方向の探索範囲を決定する
ことを特徴とする請求項2〜4のいずれかに記載の仮想視点画像生成装置。
The horizontal direction processing unit searches for a block or pixel that matches or is similar between the horizontal direction parallax vector, the first input image, and the second input image, and the horizontal direction related to the searched element Output the degree of direction matching,
The virtual viewpoint image generation according to any one of claims 2 to 4, wherein the search range determination unit determines a horizontal search range from the horizontal direction parallax vector and the horizontal direction matching degree. apparatus.
着目する上記第1の入力画像から上記第2の入力画像を参照したときの水平方向視差ベクトルをv、注目しているブロック又は画素の近隣のブロック又は画素の水平方向視差ベクトルをv、近隣のブロック又は画素の数をn、補間したい仮想視点位置を表すパラメータをc、予め定める0以上のパラメータをr、上記第1の入力画像のオブジェクトの位置が、上記仮想視点における垂直画像のオブジェクトの位置から見たときの相対的な位置関係を表わす符号パラメータをsとすると、
上記探索範囲決定部が、
上記水平方向マッチング度が閾値以上の場合、(C)式に従って上記探索範囲αを算出し、上記水平方向マッチング度が閾値未満の場合、(D)式に従って、上記探索範囲αを算出する算出することを特徴とする請求項2〜4いずれかに記載の仮想視点画像生成装置。
α∈[scv−r,scv+r]…(C)
α∈[scv−r,scv+r]∪[scv−r,scv+r]
∪...
∪[scv−r,scv+r]
∪...
∪[scv−r,scv+r]…(D)
The horizontal disparity vector when the second input image is referred to from the first input image of interest is v, the horizontal disparity vector of the block or pixel adjacent to the block or pixel of interest is v k , the neighborhood N is the number of blocks or pixels, c is a parameter representing the virtual viewpoint position to be interpolated, r is a predetermined parameter of 0 or more, and the object position of the first input image is the object position of the vertical image at the virtual viewpoint. If the sign parameter representing the relative positional relationship when viewed from the position is s,
The search range determination unit
When the degree of horizontal matching is greater than or equal to a threshold, the search range α is calculated according to equation (C). When the degree of horizontal matching is less than the threshold, the search range α is calculated according to equation (D). The virtual viewpoint image generation apparatus according to claim 2, wherein the virtual viewpoint image generation apparatus is a virtual viewpoint image generation apparatus.
α∈ [scv−r, scv + r] (C)
α∈ [scv 1 −r, scv 1 + r] ∪ [scv 2 −r, scv 2 + r]
∪. . .
∪ [scv k −r, scv k + r]
∪. . .
∪ [scv n −r, scv n + r] (D)
上記水平方向処理部は、
上記第1の入力画像と上記第2の入力画像との間で、一致または類似する、ブロックまたは画素を探索し、その関係を表す水平方向視差ベクトルを出力する水平方向一致ブロック探索部と、
当該水平方向視差ベクトルと上記仮想視点位置から内挿ベクトルを求める内挿ベクトル算出部と、
当該内挿ベクトルと、上記第1の入力画像と上記第2の入力画像とのいずれか又は両方の入力画像とから、水平方向補間画像を生成する水平方向補間画像生成部と
を備えることを特徴とする請求項1〜8のいずれかに記載の仮想視点画像生成装置。
The horizontal processing unit is
A horizontal direction matching block search unit that searches for a block or pixel that matches or is similar between the first input image and the second input image, and outputs a horizontal direction disparity vector representing the relationship;
An interpolation vector calculation unit for obtaining an interpolation vector from the horizontal parallax vector and the virtual viewpoint position;
A horizontal direction interpolation image generation unit configured to generate a horizontal direction interpolation image from the interpolation vector and the input image of either or both of the first input image and the second input image. The virtual viewpoint image generation device according to claim 1.
仮想視点として、第1の仮想視点と、第2の仮想視点とが設定され、
上記第1の仮想視点についての仮想視点画像を、上記第1の入力画像、上記第2の入力画像及び第1の垂直画像から生成し、
上記第2の仮想視点についての仮想視点画像を、上記第1の入力画像、上記第2の入力画像及び第2の垂直画像から生成し、
上記第1の垂直画像は、その視点が、上記第1の入力画像及び上記第2の入力画像に係る両視点を通る直線より上方に設けられたものであり、
上記第2の垂直画像は、その視点が、上記第1の入力画像及び上記第2の入力画像に係る両視点を通る直線より下方に設けられたものである
ことを特徴とする請求項1〜9のいずれかに記載の仮想視点画像生成装置。
As the virtual viewpoint, a first virtual viewpoint and a second virtual viewpoint are set,
Generating a virtual viewpoint image for the first virtual viewpoint from the first input image, the second input image, and the first vertical image;
Generating a virtual viewpoint image for the second virtual viewpoint from the first input image, the second input image and the second vertical image;
The first vertical image is provided with a viewpoint above a straight line passing through both viewpoints related to the first input image and the second input image,
The second vertical image has a viewpoint that is provided below a straight line passing through both viewpoints of the first input image and the second input image. The virtual viewpoint image generation device according to any one of claims 9 to 9.
コンピュータを、
第1の入力画像及び第2の入力画像と仮想視点の位置とから水平方向補間画像を生成するものであって、上記第1の入力画像と上記第2の入力画像との間で、一致又は類似するブロック又は画素を探索し、少なくとも、その関係を表す水平方向視差ベクトルを出力する水平方向処理部と、
少なくとも、上記水平方向視差ベクトルから、水平方向の探索範囲を決定し、上記第1の入力画像及び上記第2の入力画像に係る両視点を通る直線から、垂直方向にずれた視点から撮影された垂直画像と、上記第1の入力画像と上記第2の入力画像とのいずれか又は両方の入力画像とから、垂直方向補間画像を生成する少なくとも1つの垂直方向処理部と、
上記水平方向補間画像と上記垂直方向補間画像とを統合し、最終的な仮想視点画像を生成する補間画像統合部と
して機能させることを特徴とする仮想視点画像生成プログラム。
Computer
A horizontal direction interpolation image is generated from the first input image and the second input image and the position of the virtual viewpoint, and the first input image and the second input image are identical or A horizontal processing unit that searches for similar blocks or pixels and outputs at least a horizontal disparity vector representing the relationship;
At least a horizontal search range is determined from the horizontal parallax vector, and is taken from a viewpoint shifted in the vertical direction from a straight line passing through both viewpoints related to the first input image and the second input image. At least one vertical direction processing unit that generates a vertical direction interpolation image from a vertical image and either or both of the first input image and the second input image;
A virtual viewpoint image generation program, wherein the horizontal direction interpolation image and the vertical direction interpolation image are integrated to function as an interpolation image integration unit that generates a final virtual viewpoint image.
JP2015133615A 2015-07-02 2015-07-02 Virtual viewpoint image generation device and program Active JP6631054B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015133615A JP6631054B2 (en) 2015-07-02 2015-07-02 Virtual viewpoint image generation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015133615A JP6631054B2 (en) 2015-07-02 2015-07-02 Virtual viewpoint image generation device and program

Publications (2)

Publication Number Publication Date
JP2017017581A true JP2017017581A (en) 2017-01-19
JP6631054B2 JP6631054B2 (en) 2020-01-15

Family

ID=57829342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015133615A Active JP6631054B2 (en) 2015-07-02 2015-07-02 Virtual viewpoint image generation device and program

Country Status (1)

Country Link
JP (1) JP6631054B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107493465A (en) * 2017-09-18 2017-12-19 郑州轻工业学院 A kind of virtual multi-view point video generation method
CN116704020A (en) * 2023-03-03 2023-09-05 中国人民解放军战略支援部队信息工程大学 A visual sensor pose optimization method
CN119110045A (en) * 2024-07-16 2024-12-10 北京邮电大学 Three-dimensional image generation method, device, equipment, storage medium and program product

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334583A (en) * 2006-06-14 2007-12-27 Kddi Corp Free viewpoint image generation method, apparatus and program using multi-viewpoint images
JP2010250452A (en) * 2009-04-14 2010-11-04 Tokyo Univ Of Science Arbitrary viewpoint image synthesizer
WO2014034444A1 (en) * 2012-08-31 2014-03-06 ソニー株式会社 Image processing device, image processing method, and information processing device
JP2014049895A (en) * 2012-08-30 2014-03-17 Canon Inc Image processing method
WO2014196374A1 (en) * 2013-06-05 2014-12-11 ソニー株式会社 Image processing device and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334583A (en) * 2006-06-14 2007-12-27 Kddi Corp Free viewpoint image generation method, apparatus and program using multi-viewpoint images
JP2010250452A (en) * 2009-04-14 2010-11-04 Tokyo Univ Of Science Arbitrary viewpoint image synthesizer
JP2014049895A (en) * 2012-08-30 2014-03-17 Canon Inc Image processing method
WO2014034444A1 (en) * 2012-08-31 2014-03-06 ソニー株式会社 Image processing device, image processing method, and information processing device
WO2014196374A1 (en) * 2013-06-05 2014-12-11 ソニー株式会社 Image processing device and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107493465A (en) * 2017-09-18 2017-12-19 郑州轻工业学院 A kind of virtual multi-view point video generation method
CN107493465B (en) * 2017-09-18 2019-06-07 郑州轻工业学院 A kind of virtual multi-view point video generation method
CN116704020A (en) * 2023-03-03 2023-09-05 中国人民解放军战略支援部队信息工程大学 A visual sensor pose optimization method
CN119110045A (en) * 2024-07-16 2024-12-10 北京邮电大学 Three-dimensional image generation method, device, equipment, storage medium and program product
CN119110045B (en) * 2024-07-16 2025-11-14 北京邮电大学 Three-dimensional image generation methods, apparatus, devices, storage media and program products

Also Published As

Publication number Publication date
JP6631054B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
JP5153940B2 (en) System and method for image depth extraction using motion compensation
JP5561781B2 (en) Method and system for converting 2D image data into stereoscopic image data
US20020106120A1 (en) Method of analyzing in real time the correspondence of image characteristics in corresponding video images
US9313473B2 (en) Depth video filtering method and apparatus
CN105374019A (en) A multi-depth image fusion method and device
US20140003704A1 (en) Imaging system and method
CN102124745A (en) Apparatus and method for converting two-dimensional image signal into three-dimensional image signal
US11348271B2 (en) Image processing device and three-dimensional measuring system
US9158994B2 (en) Apparatus and method for real-time capable disparity estimation for virtual view rendering suitable for multi-threaded execution
US20180189979A1 (en) Method for reducing matching error in disparity image by information in zoom image
WO2020125637A1 (en) Stereo matching method and apparatus, and electronic device
US10142613B2 (en) Image processing apparatus, image processing system, and image processing method
JP5533529B2 (en) Image processing apparatus and image processing system
KR100943635B1 (en) Method and apparatus for generating disparity map using digital camera image
Eichenseer et al. Motion estimation for fisheye video with an application to temporal resolution enhancement
JP2014116012A (en) Method and apparatus for color transfer between images
TWI528783B (en) Methods and systems for generating depth images and related computer products
JP5178538B2 (en) Method for determining depth map from image, apparatus for determining depth map
JP6631054B2 (en) Virtual viewpoint image generation device and program
JP2009530701A5 (en)
KR101804157B1 (en) Disparity map generating method based on enhanced semi global matching
JP2004356747A (en) Image matching method and apparatus
JP2005250994A (en) Stereo image processing device
US20140009493A1 (en) Parallax image generating device and parallax image generating method
US20150350669A1 (en) Method and apparatus for improving estimation of disparity in a stereo image pair using a hybrid recursive matching processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6631054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150