[go: up one dir, main page]

JP2012015674A - Imaging device, operation control method for imaging device, and program for imaging device - Google Patents

Imaging device, operation control method for imaging device, and program for imaging device Download PDF

Info

Publication number
JP2012015674A
JP2012015674A JP2010148534A JP2010148534A JP2012015674A JP 2012015674 A JP2012015674 A JP 2012015674A JP 2010148534 A JP2010148534 A JP 2010148534A JP 2010148534 A JP2010148534 A JP 2010148534A JP 2012015674 A JP2012015674 A JP 2012015674A
Authority
JP
Japan
Prior art keywords
image
imaging
occlusion
area
round
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010148534A
Other languages
Japanese (ja)
Inventor
Itou Cho
貽▲トウ▼ 張
Koichi Tanaka
康一 田中
Koji Endo
恒史 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010148534A priority Critical patent/JP2012015674A/en
Publication of JP2012015674A publication Critical patent/JP2012015674A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】3次元画像モデルの構築に必要な画像データを効率よく取得する。
【解決手段】着目画像に現れておりかつ他の画像に現れていないオクルージョン領域が求められる。ディジタル・スチル・カメラ1による撮像によって得られる動画S4中に,上記着目画像のオクルージョン領域と対応する画像領域が現れていると,そのオクルージョン対応領域ROC42が動画S4中に表示される。3次元画像モデルの構築に不足している画像を動画を通して観察(視認)することができる。
【選択図】図14
Image data required for constructing a three-dimensional image model is efficiently obtained.
An occlusion area that appears in a target image and does not appear in another image is obtained. If an image area corresponding to the occlusion area of the image of interest appears in the moving picture S4 obtained by imaging with the digital still camera 1, the occlusion corresponding area ROC42 is displayed in the moving picture S4. It is possible to observe (view) an image that is lacking in the construction of a three-dimensional image model through a moving image.
[Selection] Figure 14

Description

この発明は,撮像装置,その動作制御方法およびそのプログラムに関する。   The present invention relates to an imaging apparatus, an operation control method thereof, and a program thereof.

対象物の3次元画像を構築するためは,互いに異なる撮像位置(視点)から上記対象物を撮像して得られる複数の画像に共通する画像領域が含まれていることが必要である。   In order to construct a three-dimensional image of an object, it is necessary to include an image area common to a plurality of images obtained by imaging the object from different imaging positions (viewpoints).

特許文献1には,GPSセンサおよび方位センサを用いることによって3次元画像の構築のための撮影位置および方向を算出することが記載されている。GPSセンサおよび方位センサという比較的高価なセンサが必要とされる。   Patent Document 1 describes that a shooting position and direction for constructing a three-dimensional image are calculated by using a GPS sensor and an orientation sensor. Relatively expensive sensors such as a GPS sensor and an orientation sensor are required.

特許文献2には,カメラを直線レール上で移動させつつ対象物を複数回撮影することで視差画像列を生成することが記載されている。3次元画像モデルの構築に必要な新たな画像を撮像すべき位置等の情報を撮影者に提供するものではない。   Patent Document 2 describes that a parallax image sequence is generated by photographing an object a plurality of times while moving a camera on a straight rail. It does not provide the photographer with information such as a position where a new image necessary for constructing a three-dimensional image model should be taken.

特開2008-154027号公報JP 2008-154027 A 特開2006-154800号公報JP 2006-154800 A

3次元画像の構築に不足している画像を表示画面上に表示される動画を通して観察(視認)することができるようにし,3次元画像の構築に必要な画像データを効率よく取得できるようにすることを目的とする。   To make it possible to observe (view) images that are lacking in the construction of a 3D image through a video displayed on the display screen, and to efficiently acquire the image data necessary for the construction of the 3D image. For the purpose.

第1の発明による撮像装置は,対象物を撮像し,撮像によって得られる画像データを出力する撮像手段,上記撮像手段から一定周期で出力される画角決定用の動画データによって表される動画を表示画面上に表示するように表示装置を制御する動画表示制御手段,上記撮像手段によって異なる視点から撮像され,かつ少なくとも一部分が共通する複数の画像のそれぞれについて,他の画像に現れていないオクルージョン領域を検出するオクルージョン領域検出手段,上記複数の画像のうちの一つを着目画像として,上記オクルージョン領域検出手段によって検出された上記着目画像中のオクルージョン領域に対応する画像領域を,上記動画から検出するオクルージョン対応領域検出手段,および上記オクルージョン対応領域検出手段によって検出されたオクルージョン対応領域を上記動画中に表示するように表示装置を制御するオクルージョン対応領域表示制御手段を備える。   An imaging device according to a first aspect of the present invention is an imaging means for imaging an object and outputting image data obtained by imaging, and a moving image represented by moving image data for determining an angle of view that is output from the imaging means at a constant cycle. Moving image display control means for controlling the display device to display on a display screen, an occlusion area that is not captured in other images for each of a plurality of images that are imaged from different viewpoints by the imaging means and that are at least partially in common An occlusion area detecting means for detecting an image, and detecting one of the plurality of images as a target image, and detecting an image area corresponding to the occlusion area in the target image detected by the occlusion area detecting means from the moving image. By the occlusion correspondence area detection means and the above occlusion correspondence area detection means The occlusion corresponding region issued provided with occlusion corresponding region display control means for controlling the display device to display in said video.

第1の発明による撮像装置の動作制御方法は,撮像手段が,対象物を撮像して撮像によって得られる画像データを出力し,動画表示制御手段が,上記撮像手段から一定周期で出力される画角決定用の動画データによって表される動画を表示画面上に表示するように表示装置を制御し,オクルージョン領域検出手段が,上記撮像手段によって異なる視点から撮像され,かつ少なくとも一部分が共通する複数の画像のそれぞれについて,他の画像に現れていないオクルージョン領域を検出し,オクルージョン対応領域検出手段が,上記複数の画像のうちの一つを着目画像とし,上記オクルージョン領域検出手段によって検出された上記着目画像中のオクルージョン領域に対応する画像領域を上記動画から検出し,オクルージョン対応領域表示制御手段が,上記オクルージョン対応領域検出手段によって検出されたオクルージョン対応領域を上記動画中に表示するように表示装置を制御する。   According to a first aspect of the present invention, there is provided an operation control method for an image pickup apparatus, wherein an image pickup means picks up an object and outputs image data obtained by the image pickup, and a moving image display control means outputs an image output from the image pickup means at a constant cycle. The display device is controlled to display the moving image represented by the moving image data for determining the angle on the display screen, and the occlusion area detecting unit is imaged by the imaging unit from different viewpoints, and at least a part is shared For each of the images, an occlusion area that does not appear in another image is detected, and the occlusion corresponding area detection means sets one of the plurality of images as the attention image, and the attention detected by the occlusion area detection means The image area corresponding to the occlusion area in the image is detected from the above video and the occlusion corresponding area display control is performed. Stage, the occlusion corresponding area detected by the occlusion corresponding area detection means controls the display device to display in said video.

第1の発明によると,異なる視点(撮像位置)から撮像されて得られる複数の画像のうちの一つである着目画像についてのオクルージョン領域(着目画像に現れており,かつ他の画像に現れていない画像領域)に対応する画像領域が動画(スルー画)中に存在すると,その画像領域(オクルージョン対応領域)が動画中に表示される。特定色の半透明画像を動画に重合わせて表示することによって上記オクルージョン対応領域を表示してもよい,枠により囲むことによって上記動画中のオクルージョン対応領域を表示していもよい。オクルージョン対応領域が現れている動画が撮影(画像データとして記録)されることによって,それまで上記着目画像についてオクルージョン領域とされていた画像領域が,オクルージョン領域でなくなる(着目画像に現れており,かつ他の画像にも現れている画像領域になる)。オクルージョン対応領域が現れている動画は対象物の3次元画像の構築に不足している画像であると言える。第1の発明によると,動画中に表されるオクルージョン対応領域によって上記対象物の3次元画像の構築に不足している画像を動画を通して観察(視認)することができる。対象物の3次元画像の構築に必要な画像データを効率よく取得することができる。   According to the first invention, an occlusion area (appears in the target image and appears in another image) of the target image that is one of a plurality of images obtained by imaging from different viewpoints (imaging positions). If an image area corresponding to (non-image area) exists in the moving image (through image), the image region (occlusion corresponding region) is displayed in the moving image. The occlusion correspondence area may be displayed by displaying a translucent image of a specific color superimposed on the moving picture, or the occlusion correspondence area in the moving picture may be displayed by surrounding it with a frame. When a moving image in which an occlusion-corresponding region appears is shot (recorded as image data), the image region that has been the occlusion region for the image of interest until now disappears from the occlusion region (appears in the image of interest, and It will be the image area that appears in other images). It can be said that the moving image in which the occlusion correspondence area appears is an image that is insufficient for constructing a three-dimensional image of the object. According to the first invention, it is possible to observe (visually recognize) an image that is insufficient for constructing a three-dimensional image of the object through the moving image by the occlusion corresponding area represented in the moving image. Image data necessary for constructing a three-dimensional image of an object can be efficiently acquired.

一実施態様では,上記撮像装置は上記複数の画像のうちのいずれか一つを上記着目画像として決定する着目画像決定手段を備え,上記オクルージョン領域検出手段は,上記着目画像決定手段によって決定された着目画像についてのオクルージョン領域を検出するものである。決定された着目画像についてのオクルージョン領域が検出され,そのオクルージョン領域に対応するオクルージョン対応領域が,動画中から検出される。   In one embodiment, the imaging apparatus includes a target image determination unit that determines any one of the plurality of images as the target image, and the occlusion area detection unit is determined by the target image determination unit. The occlusion area for the image of interest is detected. An occlusion area for the determined image of interest is detected, and an occlusion corresponding area corresponding to the occlusion area is detected from the moving image.

好ましくは,上記着目画像決定手段は,先に撮像された画像から後に撮像された画像の順番に,上記複数の画像のそれぞれを順次上記着目画像として決定するものである。複数の画像のそれぞれについて,順次,オクルージョン領域が検出され,かつそのオクルージョン領域に対応するオクルージョン対応領域が動画中から検出される。   Preferably, the image-of-interest determination means sequentially determines each of the plurality of images as the image of interest in the order of the image captured first to the image captured later. For each of the plurality of images, an occlusion area is sequentially detected, and an occlusion corresponding area corresponding to the occlusion area is detected from the moving image.

一実施態様では,上記着目画像決定手段は,上記オクルージョン領域検出手段によって上記着目画像中のオクルージョン領域が検出されなかった場合に,上記着目画像とされている画像の次に撮像された画像を,上記着目画像とするものである。異なる視点から撮像される複数の画像のそれぞれについて,順次,上記オクルージョン領域を無くすことができる。   In one embodiment, the image-of-interest determination means, when the occlusion area in the image of interest is not detected by the occlusion area detection means, This is the image of interest. The occlusion area can be eliminated sequentially for each of a plurality of images picked up from different viewpoints.

上記オクルージョン領域検出手段は,上記撮像手段によって一の視点から撮像された画像のみが存在し(撮影が行われてメモリ・カードに記録されている状態),視点を異ならせて撮像される他の画像が存在しない場合には,上記一の視点から撮像された画像の全領域をオクルージョン領域とするものであってもよい。   The occlusion area detecting means has only an image picked up from one viewpoint by the image pickup means (a state in which the image is taken and recorded in the memory card), and other images picked up with different viewpoints. When no image exists, the entire region of the image captured from the one viewpoint may be the occlusion region.

上記オクルージョン領域検出手段は,一実施態様では,上記着目画像とそれ以外の画像のそれぞれとを用いて検出される複数のオクルージョン領域の論理積領域を,上記着目画像についてのオクルージョン領域とする。   In one embodiment, the occlusion area detection means sets a logical product area of a plurality of occlusion areas detected using the image of interest and each of the other images as an occlusion area for the image of interest.

オクルージョン対応領域が大きければ大きいほど,その動画は着目画像のオクルージョン領域を削減するのに有効な画像(対象物の3次元画像の構築に有効な画像)を表す。好ましくは,上記オクルージョン対応領域検出手段によって検出されたオクルージョン対応領域の大きさに応じて算出される評価情報を,上記動画中に表示するように上記表示装置を制御する評価情報表示制御手段を備える。評価情報は,画像(たとえば,バー表示)であっても,数値であってもよい。評価情報によって動画中のオクルージョン対応領域の大きさが分かりやすく表示される。着目画像のオクルージョン領域を効率よく削減することができる撮影位置を,評価情報によって撮影者に分かりやすく示すことができる。   The larger the occlusion-corresponding area, the more the moving image represents an image (an image effective for constructing a three-dimensional image of the object) that is effective in reducing the occlusion area of the image of interest. Preferably, evaluation information display control means for controlling the display device so as to display evaluation information calculated according to the size of the occlusion correspondence area detected by the occlusion correspondence area detection means in the moving image is provided. . The evaluation information may be an image (for example, a bar display) or a numerical value. The size of the occlusion corresponding area in the moving image is displayed in an easy-to-understand manner based on the evaluation information. The photographing position where the occlusion area of the image of interest can be efficiently reduced can be easily shown to the photographer by the evaluation information.

第2の発明による撮像装置は,所定の回り方向に沿う位置移動をしながら被写体を撮像し,一周撮像を終えると所定の高さ方向に高さ位置を移動させて,再びその高さ位置で上記回り方向に沿う位置移動をしながら上記被写体を撮像するものであり,上記被写体を撮像することによって得られる複数の被写体像を表す画像データを出力する撮像手段,上記撮像手段から一定周期で出力される画角決定用の動画データによって表される動画を表示装置の表示画面上に表示する動画表示制御手段,上記回り方向に沿う一周撮像が完了したかどうかを判断する一周撮像完了判断手段,および上記一周撮像完了手段によって一周撮像が完了していないと判断された場合には上記所定の回り方向と逆方向に位置移動させた前駒画像の一部を上記動画上に半透明表示し,一周撮像が完了したと判断された場合には上記所定の高さ方向と逆方向に位置移動させた一周始め画像の一部を上記動画上に半透明表示するアシスト画像表示手段を備えている。   The image pickup apparatus according to the second invention picks up an image of a subject while moving the position along a predetermined rotation direction, moves the height position in a predetermined height direction after completing one round of image pickup, and again at the height position. Imaging the subject while moving the position along the rotation direction, imaging means for outputting image data representing a plurality of subject images obtained by imaging the subject, and outputting from the imaging means at regular intervals A moving image display control means for displaying the moving image represented by the moving image data for determining the angle of view on the display screen of the display device, a one-round imaging completion judging means for judging whether or not the one-round imaging along the rotation direction has been completed, And when the one-round imaging completion means determines that the one-round imaging has not been completed, a part of the previous frame image moved in the direction opposite to the predetermined rotation direction is placed on the moving image. Assist image display means for transparently displaying and semitransparently displaying on the moving image a part of the one-round start image that has been moved in the direction opposite to the predetermined height direction when it is determined that one-round imaging has been completed. I have.

第2の発明による撮像装置の動作制御方法は,所定の回り方向に沿う位置移動をしながら被写体を撮像し,一周撮像を終えると所定の高さ方向に高さ位置を移動させて,再びその高さ位置で上記回り方向に沿う位置移動をしながら上記被写体を撮像する撮像装置の動作制御方法であり,撮像手段が,上記被写体を撮像することによって得られる複数の被写体像を表す画像データを出力し,動画表示制御手段が,上記撮像手段から一定周期で出力される画角決定用の動画データによって表される動画を表示装置の表示画面上に表示し,一周撮像完了判断手段が,上記回り方向に沿う一周撮像が完了したかどうかを判断し,アシスト画像表示手段が,上記一周撮像完了手段によって一周撮像が完了していないと判断された場合には上記所定の回り方向と逆方向に位置移動させた前駒画像の一部を上記動画上に半透明表示し,一周撮像が完了したと判断された場合には上記所定の高さ方向と逆方向に位置移動させた一周始め画像の一部を上記動画上に半透明表示する。   According to a second aspect of the present invention, there is provided a method for controlling the operation of an image pickup apparatus, wherein an object is imaged while moving a position along a predetermined rotation direction, and once a round of imaging is finished, the height position is moved in a predetermined height direction, An operation control method for an imaging apparatus that images the subject while moving the position along the rotation direction at a height position, and image data representing a plurality of subject images obtained by the imaging means capturing the subject. And the moving image display control means displays the moving image represented by the moving image data for determining the angle of view outputted from the imaging means at a fixed cycle on the display screen of the display device. It is determined whether or not the one-round imaging along the rotation direction is completed, and when the assist image display means determines that the one-round imaging is not completed by the one-round imaging completion means, the predetermined rotation is performed. A part of the previous frame image moved in the opposite direction is displayed semi-transparently on the moving image, and when it is determined that one-round imaging has been completed, the position is moved in the direction opposite to the predetermined height direction. A part of the image is displayed semi-transparently on the video.

第2の発明によると,一周撮像が完了していない場合には,所定の回り方向と逆方向(所定の回り方向が右回りであれば左方向,左回りであれば右方向を意味する)に位置移動された前駒画像の一部が,アシスト画像として動画(スルー画)上に半透明表示される。半透明表示されるアシスト画像を用いて所定の回り方向に沿う次回撮像を行うべき位置を決定することができる。一周撮影が完了したと判断されると,所定の高さ方向と逆方向(所定の高さ方向が上方向であれば下方向,下方向であれば上方向を意味する)に位置移動された一周始め画像(一周撮像の最初の撮像により得られた画像)の一部が,アシスト画像として上記動画上に半透明表示される。半透明表示されるアシスト画像を用いて高さ方向に沿う次回撮像を行うべき位置(次の周回撮像の最初の撮像位置)を決定することができる。回り方向および高さ方向に撮像位置(視点)を異ならせながら,被写体の全体を漏れなく撮像することができるので,対象物の3次元画像の構築に有効な画像データを効率よく取得することができる。   According to the second aspect of the present invention, when the round-trip imaging is not completed, the direction is opposite to the predetermined rotation direction (left direction if the predetermined rotation direction is clockwise, and right direction if the rotation is counterclockwise). A part of the previous frame image that has been moved to is displayed as an assist image on a moving image (through image) in a translucent manner. The position where the next imaging along the predetermined rotation direction should be performed can be determined using the assist image displayed semi-transparently. When it was determined that the round-trip shooting was completed, the position was moved in the direction opposite to the predetermined height direction (downward if the predetermined height direction is upward, and upward if it is downward) A part of the first circle starting image (the image obtained by the first imaging of the first round imaging) is displayed semitransparently on the moving image as an assist image. Using the assist image displayed semi-transparently, it is possible to determine the position (first imaging position of the next round imaging) where the next imaging along the height direction is to be performed. Since the entire subject can be imaged without omission while varying the imaging position (viewpoint) in the rotation direction and the height direction, it is possible to efficiently acquire image data effective for constructing a three-dimensional image of the object. it can.

たとえば,上記一周始め画像と一致する動画が撮像されたときに一周撮像の完了が判断される。   For example, the completion of the round imaging is determined when a moving image matching the image at the beginning of the round is taken.

好ましくは,上記撮像装置は,上記一周撮像完了判断手段によって一周撮像の完了が判断された場合に,一周撮像が完了したことを表す一周撮像完了アシスト情報を上記動画上に表示する一周撮像完了アシスト情報表示制御手段を備える。一周撮像が完了したことが表示されるので無駄な撮像が行われてしまうことが防止される。   Preferably, the imaging apparatus displays a one-round imaging completion assist information indicating that one-round imaging has been completed on the moving image when the one-round imaging completion is determined by the one-round imaging completion determining unit. Information display control means is provided. Since it is displayed that the one-round imaging has been completed, useless imaging is prevented from being performed.

他の実施態様では,被写体までの距離または画角が変動したかどうかを判断する変動判断手段,および上記変動判断手段によって上記距離または画角が変動したことが判断された場合に,上記変動を解消する方向への撮像位置の移動を促すアシスト情報を上記動画上に表示する変動アシスト情報表示制御手段がさらに備えられる。ほぼ同じ距離から被写体を複数回撮像することによって得られる,画角がほぼ一致した複数の画像データを取得することができる。   In another embodiment, the variation determination means for determining whether the distance to the subject or the angle of view has changed, and the change when the distance or angle of view is determined to have changed by the variation determination means. Fluctuation assist information display control means for displaying on the moving image assist information for urging the imaging position to move in the canceling direction is further provided. It is possible to acquire a plurality of pieces of image data obtained by imaging a subject a plurality of times from substantially the same distance and having substantially the same angle of view.

この発明は,上記撮像装置の動作制御方法を実施するためのコンピュータ・プログラムも提供している。そのようなプログラムを格納した記録媒体(CD−ROM等)を提供するようにしてもよい。   The present invention also provides a computer program for performing the operation control method of the imaging apparatus. A recording medium (such as a CD-ROM) storing such a program may be provided.

4つの異なる位置から対象物を撮影している様子を示す。A state where an object is photographed from four different positions is shown. (A)〜(D)は撮像位置を異らせて得られた4つの被写体像を示す。(A) to (D) show four subject images obtained by different imaging positions. オクルージョン領域の削減の様子を示す。This shows how the occlusion area is reduced. ディジタル・スチル・カメラの電気的構成を示すブロックである。2 is a block diagram showing an electrical configuration of a digital still camera. オクルージョン削減処理を含むディジタル・スチル・カメラの動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of a digital still camera including an occlusion reduction process. オクルージョン削減処理を含むディジタル・スチル・カメラの動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of a digital still camera including an occlusion reduction process. 動画(スルー画)の一例を示す。An example of a moving image (through image) is shown. 動画の一例を示す。An example of a movie is shown. (A),(B)は,それぞれ被写体像と,そのオクルージョン領域を示す。(A) and (B) show a subject image and its occlusion area, respectively. 動画の一例を示す。An example of a movie is shown. (A),(B)は被写体像を示す。(A) and (B) show subject images. 2つの被写体像からオクルージョン領域が算出される様子を示す。A state in which an occlusion area is calculated from two subject images is shown. 2つのオクルージョン領域の論理積領域が算出される様子を示す。A state in which a logical product area of two occlusion areas is calculated is shown. 動画の一例を示す。An example of a movie is shown. 動画の一例を示す。An example of a movie is shown. (A),(B)は,オクルージョン対応領域の大きさに応じたバー表示を伴う動画を示す。(A) and (B) show a moving image with a bar display corresponding to the size of the occlusion corresponding area. 変形例におけるディジタル・スチル・カメラの動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the digital still camera in a modification. 異なる位置から対象物を撮影している様子を示す。A state in which an object is photographed from a different position is shown. 第2実施例のディジタル・スチル・カメラの動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the digital still camera of 2nd Example. 第2実施例のディジタル・スチル・カメラの動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the digital still camera of 2nd Example. 被写体像の一例を示す。An example of a subject image is shown. 動画の一例を示す。An example of a movie is shown. 動画の一例を示す。An example of a movie is shown. 動画の一例を示す。An example of a movie is shown. 動画の一例を示す。An example of a movie is shown. 動画の一例を示す。An example of a movie is shown.

(第1実施例)
この実施例では,ディジタル・スチル・カメラ1が用いられて対象物が様々な位置から撮像される。図1は互いに異なる4つの撮像位置(視点)I〜IVのそれぞれから,ディジタル・スチル・カメラ1によって2つの対象物OB1,OB2を撮像している様子を示している。図2(A)〜(D)は,図1に示す撮像位置I〜IVのそれぞれから撮像されて取得された画像データによって表される被写体像g1〜g4をそれぞれ示している。
(First embodiment)
In this embodiment, a digital still camera 1 is used to image an object from various positions. FIG. 1 shows a state where two objects OB1 and OB2 are imaged by a digital still camera 1 from each of four different imaging positions (viewpoints) I to IV. 2A to 2D respectively show subject images g1 to g4 represented by image data acquired and acquired from the imaging positions I to IV shown in FIG.

対象物OB1,OB2はいずれも立方体でありそれぞれ6つの面を有している。図1において,対象物OB1の6面(正面,左側面,背面,右側面,上面および底面)がアルファベット符号A〜Fによって示されている。同様に,対象物OB2の6面がアルファベット符号a〜fによって示されている。   The objects OB1 and OB2 are both cubes and each have six faces. In FIG. 1, six surfaces (front, left side, back, right side, top, and bottom) of the object OB1 are indicated by alphabetic signs A to F. Similarly, six surfaces of the object OB2 are indicated by alphabetic symbols a to f.

図2(A)〜(D)に示す被写体像g1〜g4には,対象物OB1,OB2を表す対象画像ob1,ob2および背景Hを表す背景画像hが含まれている。図2(A)〜(D)において,対象画像ob1,ob2には,図1に示す対象物OB1,OB2の特定面を示す上記アルファベット符号と同一符号が示されている。また,図2(A)〜(D)では,分かりやすくするために,対象画像ob1,ob2のそれぞれにおいて異なる面には異なる模様が,同一面には同一模様が描かれている。   The subject images g1 to g4 shown in FIGS. 2A to 2D include target images ob1 and ob2 representing the objects OB1 and OB2 and a background image h representing the background H. 2A to 2D, the target images ob1 and ob2 are denoted by the same reference numerals as the above alphabetical codes indicating the specific surfaces of the objects OB1 and OB2 shown in FIG. Further, in FIGS. 2A to 2D, for easy understanding, different patterns are drawn on different surfaces and the same pattern is drawn on the same surface in each of the target images ob1 and ob2.

被写体像g1〜g4はいずれも互いに異なる視点から対象物OB1,OB2を撮像することで得られたものである。このため,たとえば,第1撮影位置Iからの撮像によって得られた被写体像g1(図2(A))に現れているが,第2撮影位置IIからの撮影によって得られた被写体像g2(図2(B))には現れていない画像部分がある。逆に,被写体像g2に現れているが被写体像g1に現れていない画像部分もある。   The subject images g1 to g4 are all obtained by capturing the objects OB1 and OB2 from different viewpoints. For this reason, for example, although it appears in the subject image g1 (FIG. 2A) obtained by imaging from the first imaging position I, the subject image g2 (FIG. 2A) obtained by imaging from the second imaging position II. 2 (B)) includes an image portion that does not appear. Conversely, there is also an image portion that appears in the subject image g2 but does not appear in the subject image g1.

第1実施例では,異なる視点からの撮像によって得られる複数の画像のうちの一つが着目画像とされ,この着目画像に現れている画像領域と同一の画像領域が上記着目画像と異なる他の画像において現れることになるように,ディジタル・スチル・カメラ1のユーザに対して撮影のアシストを行うものである。   In the first embodiment, one of a plurality of images obtained by imaging from different viewpoints is set as a target image, and the same image region as the image region appearing in the target image is different from the target image. As shown in FIG. 5, the user of the digital still camera 1 is assisted in shooting.

着目画像に現れておりかつ他の画像(着目画像以外の画像(参照画像))に現れていない画像領域を,以下,オクルージョン領域OCと呼ぶ。ディジタル・スチル・カメラ1の位置を異ならせて複数の画像を得ることによって,着目画像のオクルージョン領域を削減しかつ無くすことができる。   An image area that appears in the target image and does not appear in another image (an image other than the target image (reference image)) is hereinafter referred to as an occlusion area OC. By obtaining a plurality of images by changing the position of the digital still camera 1, the occlusion area of the image of interest can be reduced and eliminated.

図3は,第1撮像位置Iからの撮像によって得られた被写体像g1(図2(A))を着目画像としたときの,上記オクルージョン領域の削減の様子を示している。図3の上段に着目画像g1のオクルージョン領域(一点鎖線ハッチングで示す)が削減される様子が示されている。図3の下段は,オクルージョン領域の削減に用いられる他の被写体像g2およびg3を示す。   FIG. 3 shows how the occlusion area is reduced when the subject image g1 (FIG. 2A) obtained by imaging from the first imaging position I is used as the image of interest. The upper part of FIG. 3 shows a state in which the occlusion area (shown by alternate long and short dashed lines) of the image of interest g1 is reduced. The lower part of FIG. 3 shows other subject images g2 and g3 used for reducing the occlusion area.

着目画像g1のみが撮像されており,被写体像g2,g3がまだ撮像されていない状態では,着目画像g1の全領域がオクルージョン領域OC10とされる(図3上段の左に示す着目画像g1)。   When only the target image g1 is captured and the subject images g2 and g3 are not yet captured, the entire region of the target image g1 is the occlusion region OC10 (the target image g1 shown on the left in the upper part of FIG. 3).

第2撮影位置IIからの撮像によって得られた被写体像g2は,着目画像g1に対応する画像領域を含む。すなわち,対象画像ob1の正面Aを表す画像領域(以下,正面領域Aという,他の領域も同じ表現とする),上面領域E,対象画像ob2の正面領域a,上面領域e,および背景領域hは,着目画像g1に現れておりかつ被写体像g2にも現れている。他方,着目画像g1中の対象画像ob1の左側面領域Bおよび対象画像ob2の左側面領域bは,着目画像g1に現れているが,被写体像g2に現れていない。着目画像g1に現れておりかつ被写体像g2にも現れている画像領域はオクルージョン領域ではなくなり,したがってオクルージョン領域OC10から削除される。被写体像g2の撮像によって,着目画像g1中の対象画像ob1の左側面領域Bおよび対象画像ob2の左側面領域bのみが,着目画像g1の新たなオクルージョン領域OC12となる(図3上段の中央に示す着目画像g1)。   The subject image g2 obtained by imaging from the second imaging position II includes an image area corresponding to the target image g1. That is, an image area representing the front A of the target image ob1 (hereinafter referred to as the front area A, other areas are also expressed in the same manner), an upper area E, a front area a, an upper area e, and a background area h of the target image ob2. Appears in the image of interest g1 and also in the subject image g2. On the other hand, the left side region B of the target image ob1 and the left side region b of the target image ob2 in the target image g1 appear in the target image g1, but do not appear in the subject image g2. The image area that appears in the image of interest g1 and also in the subject image g2 is no longer an occlusion area and is therefore deleted from the occlusion area OC10. By capturing the subject image g2, only the left side region B of the target image ob1 and the left side region b of the target image ob2 in the target image g1 become the new occlusion region OC12 of the target image g1 (in the upper center of FIG. 3). The image of interest g1) shown.

第3撮影位置IIIからの撮像によって得られた被写体像g3には,対象画像ob1の左側面領域Bおよび対象画像ob2の左側面領域bが現れている。被写体像g3の撮像によって,オクルージョン領域OC12もオクルージョン領域でなくなる。このようにして,被写体像像g2,g3が撮像されることで,着目画像g1のオクルージョン領域がなくなる(図3上段の右に示す着目画像g1)。   In the subject image g3 obtained by imaging from the third shooting position III, a left side area B of the target image ob1 and a left side area b of the target image ob2 appear. By capturing the subject image g3, the occlusion area OC12 is no longer an occlusion area. In this way, the subject image images g2 and g3 are captured, so that the occlusion area of the target image g1 disappears (target image g1 shown on the right in the upper part of FIG. 3).

後述するように,着目画像と対比される画像(上述の説明では被写体像g2,g3)のそれぞれも着目画像とされ,上述の処理が繰返される。撮像位置(視点)を異ならせて撮像された複数の画像について,オクルージョン領域が存在しないようになる。   As will be described later, each of the images to be compared with the target image (subject images g2 and g3 in the above description) is also set as the target image, and the above-described processing is repeated. An occlusion area does not exist for a plurality of images captured at different imaging positions (viewpoints).

オクルージョン領域の上述した削減処理(消滅処理)は,たとえば,ディジタル・スチル・カメラ1を用いて実行される。図4はディジタル・スチル・カメラ1の電気的構成を示すブロック図である。   The above-described reduction process (annihilation process) of the occlusion area is executed using, for example, the digital still camera 1. FIG. 4 is a block diagram showing an electrical configuration of the digital still camera 1.

ディジタル・スチル・カメラ1の全体的な動作はCPU2によって統括される。   The overall operation of the digital still camera 1 is controlled by the CPU 2.

ディジタル・スチル・カメラ1は固体撮像素子(CCD,CMOSなど)15を備え,固体撮像素子15の前方に撮像レンズ11,絞り12,赤外線カット・フィルタ13および光学的ロウパス・フィルタ(OLPF)14が設けられている。   The digital still camera 1 includes a solid-state imaging device (CCD, CMOS, etc.) 15, and an imaging lens 11, an aperture 12, an infrared cut filter 13 and an optical low-pass filter (OLPF) 14 are disposed in front of the solid-state imaging device 15. Is provided.

ディジタル・スチル・カメラ1は操作器3を備えている。操作器3には電源ボタン,モード設定ダイアル,二段ストローク・タイプのシャッタ・レリーズ・ボタンなどが含まれる。操作器3から出力される操作信号はCPU2に入力する。モード設定ダイアルによって設定されるモードには撮影モード,再生モードなどがある。撮影モードの中にはさらに通常撮影モード,多視点撮影モードなどがある。   The digital still camera 1 includes an operation device 3. The operation unit 3 includes a power button, a mode setting dial, a two-stroke type shutter release button, and the like. An operation signal output from the operation device 3 is input to the CPU 2. The mode set by the mode setting dial includes a shooting mode and a playback mode. The shooting modes further include a normal shooting mode and a multi-view shooting mode.

またディジタル・スチル・カメラ1には,ストロボ撮像のための発光装置4および発光装置4から出射される出射光の反射光を受光するための受光装置5が設けられている。   Further, the digital still camera 1 is provided with a light emitting device 4 for strobe imaging and a light receiving device 5 for receiving reflected light of emitted light emitted from the light emitting device 4.

ディジタル・スチル・カメラ1の電源がオンされ,撮影モードが設定されると,被写体像を表す光線束が,撮像レンズ11,絞り12,赤外線カット・フィルタ13および光学的ロウパス・フィルタ14を介して固体撮像素子15の受光面に入射する。固体撮像素子15の受光面上に被写体像が結像し,被写体像を表すアナログ映像信号が固体撮像素子15から出力する。固体撮像素子15によって一定周期で被写体が撮像され,一定周期で被写体像を表すアナログ映像信号が1フレーム分ずつ出力される。   When the power of the digital still camera 1 is turned on and the photographing mode is set, the light beam representing the subject image is passed through the imaging lens 11, the diaphragm 12, the infrared cut filter 13, and the optical low-pass filter 14. The light enters the light receiving surface of the solid-state image sensor 15. A subject image is formed on the light receiving surface of the solid-state image sensor 15, and an analog video signal representing the subject image is output from the solid-state image sensor 15. A subject is imaged at a constant cycle by the solid-state imaging device 15, and an analog video signal representing the subject image is output frame by frame at a constant cycle.

固体撮像素子15から出力された被写体像を表すアナログ映像信号はアナログ信号処理装置16に入力する。アナログ信号処理装置16は相関二重サンプリング回路,信号増幅器などを含み,ここで相関二重サンプリング,信号増幅などが行われる。アナログ信号処理装置16から出力されたアナログ映像信号はアナログ/ディジタル変換回路17に入力し,ここでディジタル画像データに変換される。ディジタル画像データはデータバス32を介してメモリ制御回路21に与えられる。メモリ制御回路21の制御のもと,ディジタル画像データはメイン・メモリ22に一時的に記録される。   An analog video signal representing the subject image output from the solid-state imaging device 15 is input to the analog signal processing device 16. The analog signal processing device 16 includes a correlated double sampling circuit, a signal amplifier, and the like, where correlated double sampling, signal amplification, and the like are performed. The analog video signal output from the analog signal processing device 16 is input to the analog / digital conversion circuit 17, where it is converted into digital image data. The digital image data is supplied to the memory control circuit 21 via the data bus 32. Under the control of the memory control circuit 21, the digital image data is temporarily recorded in the main memory 22.

ディジタル画像データはメイン・メモリ22から読出され,データバス31または32を介してディジタル信号処理回路23に入力する。ディジタル信号処理回路23では白バランス調整,ガンマ補正などの所定のディジタル信号処理が行われる。ディジタル信号処理回路23においてディジタル信号処理が行われたデータは表示制御回路28に与えられる。表示制御回路28によって表示装置29が制御されることにより表示画面上に被写体像(動画)(スルー画)が表示される。   Digital image data is read from the main memory 22 and input to the digital signal processing circuit 23 via the data bus 31 or 32. The digital signal processing circuit 23 performs predetermined digital signal processing such as white balance adjustment and gamma correction. The data subjected to the digital signal processing in the digital signal processing circuit 23 is given to the display control circuit 28. When the display device 29 is controlled by the display control circuit 28, a subject image (moving image) (through image) is displayed on the display screen.

シャッタ・レリーズ・ボタンの第一段階の押下があると,レンズ駆動回路6によってレンズ11が駆動されて焦点合わせが行われる。メイン・メモリ22から読出される画像データに基づいてディジタル信号処理回路23において輝度データが得られ,輝度データは積算回路25に入力して積算される。積算値を表すデータはCPU2に与えられて露出量が算出される。算出された露出量となるように絞り12の開口が絞り駆動回路7によって制御され,固体撮像素子15のシャッタ速度が撮像素子駆動回路8によって制御される。   When the shutter release button is pressed in the first stage, the lens 11 is driven by the lens driving circuit 6 to perform focusing. Luminance data is obtained in the digital signal processing circuit 23 based on the image data read from the main memory 22, and the luminance data is input to the integrating circuit 25 and integrated. Data representing the integrated value is given to the CPU 2 to calculate the exposure amount. The aperture of the aperture 12 is controlled by the aperture drive circuit 7 so that the calculated exposure amount is obtained, and the shutter speed of the solid-state image sensor 15 is controlled by the image sensor drive circuit 8.

シャッタ・レリーズ・ボタンの第二段階の押下があると,アナログ/ディジタル変換回路17から出力された画像データはメイン・メモリ22に記録される。メイン・メモリ22から読み出された画像データに対し,上述のようにディジタル信号処理回路23において所定のディジタル信号処理が行われる。ディジタル信号処理回路23から出力された画像データは圧縮伸張処理回路24においてデータ圧縮される。圧縮された画像データが外部メモリ制御回路26の制御によってメモリ・カード27に記録される。   When the shutter release button is pressed in the second stage, the image data output from the analog / digital conversion circuit 17 is recorded in the main memory 22. The digital signal processing circuit 23 performs predetermined digital signal processing on the image data read from the main memory 22 as described above. Image data output from the digital signal processing circuit 23 is compressed in the compression / decompression processing circuit 24. The compressed image data is recorded on the memory card 27 under the control of the external memory control circuit 26.

操作器3において再生モードが設定されると,メモリ・カード27に記録されている圧縮画像データが読出される。読出された圧縮画像データは圧縮伸張処理回路24において伸張された後,表示制御回路28に与えられる。表示装置29の表示画面上に再生画像が表示される。   When the reproduction mode is set in the operation device 3, the compressed image data recorded in the memory card 27 is read out. The read compressed image data is expanded in the compression / expansion processing circuit 24 and then supplied to the display control circuit 28. The reproduced image is displayed on the display screen of the display device 29.

図5および図6は,上述したオクルージョン領域の削減処理を含むディジタル・スチル・カメラ1の動作を示すフローチャートであり,上述したモード設定ダイアルによって,多視点撮影モードが設定されたときのディジタル・スチル・カメラ1の動作を示している。以下に説明するディジタル・スチル・カメラ1の処理は,基本的にはCPU2またはディジタル信号処理回路23によって実行される。もちろん,以下に説明するディジタル・スチル・カメラ1による処理を実行する専用のハードウェア,たとえば,オクルージョン領域を検出するオクルージョン検出装置,オクルージョン対応領域を検出するオクルージョン対応領域検出装置等を,ディジタル・スチル・カメラ1に別途設けるようにしてもよい。このことは他の実施例でも同様である。   5 and 6 are flowcharts showing the operation of the digital still camera 1 including the occlusion area reduction processing described above. The digital still camera when the multi-view shooting mode is set by the mode setting dial described above. The operation of the camera 1 is shown. The processing of the digital still camera 1 described below is basically executed by the CPU 2 or the digital signal processing circuit 23. Of course, dedicated hardware for executing processing by the digital still camera 1 described below, for example, an occlusion detection device for detecting an occlusion region, an occlusion correspondence region detection device for detecting an occlusion correspondence region, etc. The camera 1 may be provided separately. The same applies to the other embodiments.

ディジタル・スチル・カメラ1は,上述のように固体撮像素子15を含み,固体撮像素子15からは一定周期で被写体像を表すアナログ映像信号が1フレーム分ずつ出力される。アナログ映像信号はディジタルの画像データに変換され,一定周期の撮像によって得られる画像データによって表される画像が,表示装置29の表示画面上に連続表示される(画角決定用の動画の表示)。   The digital still camera 1 includes the solid-state image sensor 15 as described above, and the solid-state image sensor 15 outputs an analog video signal representing a subject image for each frame at a constant period. The analog video signal is converted into digital image data, and the image represented by the image data obtained by imaging at a fixed period is continuously displayed on the display screen of the display device 29 (displaying a moving image for determining the angle of view). .

図7は,ディジタル・スチル・カメラ1を背面から示すもので,撮像位置I(図1参照)にディジタル・スチル・カメラ1が位置しているときに表示装置29の表示画面に表示される動画S1の例を示している。   FIG. 7 shows the digital still camera 1 from the back, and a moving image displayed on the display screen of the display device 29 when the digital still camera 1 is located at the imaging position I (see FIG. 1). An example of S1 is shown.

表示装置29の表示画面上には,第1撮像位置Iからの撮像によって得られる動画S1(図2(A)に示す被写体像g1と同じとしている)が表示されるとともに,動画S1に重合わされてオクルージョン対応領域ROC10(二点鎖線ハッチングで示す)が表示される。オクルージョン対応領域ROCとは,後述するように,着目画像中のオクルージョン領域に現れておりかつ動画にも現れている上記動画中の画像領域をいう。画像データの取得(撮影)が未だ行われていない状態は着目画像が存在しない状態である。この状態の動画についてはその全体がオクルージョン対応領域ROCとして扱われ,したがって最初(1駒目)の撮影の前の状態において表示される動画S1の全体はオクルージョン対応領域ROC10として扱われる。オクルージョン対応領域ROC10はたとえば特定色(たとえば赤色)の半透明画像によって,動画に重合わされて表示画面上に可視的に表示される。   On the display screen of the display device 29, a moving image S1 obtained by imaging from the first imaging position I (the same as the subject image g1 shown in FIG. 2A) is displayed and superimposed on the moving image S1. The occlusion correspondence area ROC10 (indicated by a two-dot chain line hatching) is displayed. As will be described later, the occlusion-corresponding region ROC refers to an image region in the moving image that appears in the occlusion region in the target image and also appears in the moving image. The state in which the acquisition (shooting) of image data has not yet been performed is a state in which the target image does not exist. The entire moving image in this state is handled as the occlusion corresponding region ROC, and therefore the entire moving image S1 displayed in the state before the first (first frame) shooting is handled as the occlusion corresponding region ROC10. The occlusion corresponding area ROC10 is superimposed on a moving image by a translucent image of a specific color (for example, red), for example, and is visually displayed on the display screen.

図5に戻って,最初の撮影であるかどうか(一駒目画像が未だ得られていない状態かどうか)が判断される(ステップ41)。たとえば,メイン・メモリ22に記憶される撮影済みフラグがオンされているかどうかによって最初の撮影であるかどうかが判断される。撮影済みフラグがオフであれば最初の撮影と判断され,撮影済みフラグがオンであれば最初の撮影ではないと判断される(ステップ41でYES またはNO)。   Returning to FIG. 5, it is determined whether or not it is the first shooting (whether or not the first frame image has not yet been obtained) (step 41). For example, whether or not it is the first shooting is determined based on whether or not the shooting flag stored in the main memory 22 is turned on. If the photographed flag is off, it is determined that the first photographing is performed, and if the photographed flag is on, it is determined that the photographing is not the first photographing (YES or NO in step 41).

シャッタ・レリーズ・ボタンが押下されると最初の撮影が行われる(ステップ42)。上述の撮影済みフラグがオンされる。たとえば,図2(A)に示す被写体像g1を表す画像データが1駒目画像としてメモリ・カード27に記憶される。   When the shutter release button is pressed, the first shooting is performed (step 42). The above-mentioned photographed flag is turned on. For example, the image data representing the subject image g1 shown in FIG. 2A is stored in the memory card 27 as the first frame image.

1駒目画像g1の撮影が行われると,メイン・メモリ22に2つのカウンタiおよびnが用意される。カウンタiは着目画像として扱われるべき画像の駒番号のカウンタであり,カウンタnは撮影駒総数を表すカウンタである。最初の撮影が行われると,カウンタi,nにそれぞれ1が代入される。1駒目画像g1が着目画像iとなる(i=1)。撮影画像総数は1である(n=1)(ステップ43,44,45)。   When the first frame image g1 is shot, two counters i and n are prepared in the main memory 22. The counter i is a counter of the frame number of the image to be treated as the image of interest, and the counter n is a counter representing the total number of shooting frames. When the first shooting is performed, 1 is assigned to each of the counters i and n. The first frame image g1 is the image of interest i (i = 1). The total number of photographed images is 1 (n = 1) (steps 43, 44, 45).

1駒目画像g1が着目画像iとされると,初期状態として1駒目画像g1についてはその全領域がオクルージョン領域とされる(ステップ46)。1駒目画像g1のみが得られている状態では対比されるべき他の画像が存在しないからである。たとえば,1駒目画像g1のすべての画素についてオクルージョン画素であることを表すオクルージョン・フラグが立てられる。これにより,1駒目画像g1の全領域がオクルージョン領域OC10であることが示される。   When the first frame image g1 is set as the target image i, the entire area of the first frame image g1 is set as an occlusion area as an initial state (step 46). This is because there is no other image to be compared in a state where only the first frame image g1 is obtained. For example, an occlusion flag indicating that all pixels of the first frame image g1 are occlusion pixels is set. This indicates that the entire area of the first frame image g1 is the occlusion area OC10.

表示装置29の表示画面に1駒目画像g1を表示させてもよいし,1駒目画像g1に重ね合わせて,オクルージョン領域OC10を示す画像(所定の色の半透明画像)を表示してもよい(図3上段の左に示す被写体像g1を参照)。この場合には,図7に示す動画S1およびオクルージョン対応領域ROC10と同様の表示が,表示装置29の表示画面上に表示される。   The first frame image g1 may be displayed on the display screen of the display device 29, or an image (a translucent image of a predetermined color) showing the occlusion area OC10 may be displayed superimposed on the first frame image g1. Good (see subject image g1 shown on the left in the upper part of FIG. 3). In this case, the same display as the moving image S1 and the occlusion corresponding area ROC10 shown in FIG. 7 is displayed on the display screen of the display device 29.

1駒目画像g1の撮影から所定時間が経過すると,またはシャッタ・レリーズ・ボタンが半押しされると,1駒目画像g1の表示に代えて,動画(スルー画)が表示画面上に再び表示される。   When a predetermined time elapses from the shooting of the first frame image g1 or when the shutter release button is pressed halfway, the moving image (through image) is displayed again on the display screen instead of displaying the first frame image g1. Is done.

ディジタル・スチル・カメラ1が移動させられ,移動後の撮像位置において動画が撮像されると,着目画像iのオクルージョン領域OCに現れており,かつ動画中にも対応して現われている画像領域(対応領域)が求められ,求められた対応領域が動画に重合わされて表示される(ステップ52,53)。   When the digital still camera 1 is moved and a moving image is captured at the imaging position after the movement, an image region (appearing in the occlusion region OC of the image of interest i and correspondingly appearing in the moving image) (Corresponding area) is obtained, and the obtained corresponding area is superimposed on the moving image and displayed (steps 52 and 53).

図8は,第2撮像位置II(図1参照)から撮像されているときの動画S2(図2(B)の被写体像g2と同じとしている)を示すもので,動画S2に重合わされて,着目画像i,ここでは1駒目画像g1のオクルージョン領域OC10(図7参照)中に現れており,かつ動画S2中にも対応して現れている画像領域が表示されている様子を示している。着目画像iのオクルージョン領域中に現れており,かつ動画中にも対応して現れている画像領域が,上述したオクルージョン対応領域ROCである。図8においてオクルージョン対応領域ROC21が二点鎖線ハッチングによって示されている。   FIG. 8 shows a moving image S2 (which is the same as the subject image g2 in FIG. 2B) when being imaged from the second imaging position II (see FIG. 1). It shows a state in which an image area that appears in the image of interest i, here the occlusion area OC10 (see FIG. 7) of the first frame image g1, and also appears in the moving image S2 is displayed. . The image area that appears in the occlusion area of the image of interest i and also appears in the moving image is the above-described occlusion correspondence area ROC. In FIG. 8, the occlusion corresponding region ROC21 is indicated by two-dot chain hatching.

着目画像iが1駒目画像(被写体像g1)(図2(A))でありその全領域がオクルージョン領域OC10であるとする。また,第2撮像位置IIから撮像されている動画S2が図2(B)の被写体像g2と同じであるとする。この場合,図2(A)と図2(B)を対比して,背景領域h,対象画像ob1の上面領域E,対象画像b2の正面領域aおよび上面領域eは,着目画像iのオクルージョン領域OC10(被写体像g1の全体)中に現れており,かつ動画S2にも現れている。図8を参照して,背景領域h,対象画像ob1の上面領域E,対象画像ob2の正面領域aおよび上面領域eが新たなオクルージョン対応領域ROC21とされる。着目画像i中のオクルージョン領域OC10と動画S2とを比較して,動画S2を構成する画素に対応する画素が着目画像中i中のオクルージョン領域OC10にも存在する,そのような画素で表される領域がオクルージョン対応領域ROC21とされる。   Assume that the image of interest i is the first frame image (subject image g1) (FIG. 2A) and the entire area is the occlusion area OC10. Further, it is assumed that the moving image S2 captured from the second imaging position II is the same as the subject image g2 in FIG. In this case, comparing FIG. 2A and FIG. 2B, the background region h, the upper surface region E of the target image ob1, the front region a and the upper surface region e of the target image b2, are the occlusion region of the target image i. It appears in OC10 (the entire subject image g1) and also appears in the moving image S2. Referring to FIG. 8, the background region h, the upper surface region E of the target image ob1, the front region a and the upper surface region e of the target image ob2 are set as new occlusion correspondence regions ROC21. The occlusion area OC10 in the target image i is compared with the moving picture S2, and the pixel corresponding to the pixel constituting the moving picture S2 is also present in the occlusion area OC10 in the target image i. The area is an occlusion corresponding area ROC21.

対象画像ob1の正面領域Aには,着目画像i(被写体像g1)(図2(A))に現れていず,かつ動画S2(被写体像g2)(図2(B))に現れている領域が存在する。この領域(以下,非対応領域という)が,図8において符号N1で示す枠で囲まれて示されている。対象画像ob1の正面領域Aについては,非対応領域N1を除く領域がオクルージョン対応領域ROC21とされる。非対応領域N1は,動画S2において撮像された対象物OB1の正面Aの色のままで表示される。   In the front area A of the target image ob1, the area that does not appear in the target image i (subject image g1) (FIG. 2A) and appears in the moving image S2 (subject image g2) (FIG. 2B) Exists. This region (hereinafter referred to as a non-corresponding region) is shown surrounded by a frame indicated by reference numeral N1 in FIG. Regarding the front area A of the target image ob1, the area excluding the non-corresponding area N1 is set as the occlusion corresponding area ROC21. The non-corresponding area N1 is displayed with the color of the front A of the object OB1 imaged in the moving image S2.

オクルージョン対応領域ROCは,着目画像i中のオクルージョン領域と動画とに共通して現れている画像領域を,上記動画中に示すものである。オクルージョン対応領域ROCが大きいほど,そのときの動画は,着目画像iのオクルージョン領域OCに対応する画像領域を多く含むことが示される。着目画像iのオクルージョン領域OCに対応する画像領域を多く含む画像を撮影することできれば,着目画像iのオクルージョン領域OCの削減効果が高くなる(図3参照)。   The occlusion correspondence area ROC indicates an image area appearing in common in the occlusion area and the moving image in the image of interest i in the moving image. It is indicated that the larger the occlusion correspondence area ROC, the more the image area corresponding to the occlusion area OC of the image of interest i includes. If an image including many image areas corresponding to the occlusion area OC of the image of interest i can be taken, the effect of reducing the occlusion area OC of the image of interest i is enhanced (see FIG. 3).

ユーザは,表示装置29の表示画面中に表示される画角決定用の動画を見ながら,オクルージョン対応領域ROC21が大きく表示される撮像位置から2駒目の画像の取得を試みることになる。   The user tries to acquire the second frame image from the imaging position where the occlusion correspondence area ROC21 is displayed large while viewing the moving image for determining the angle of view displayed on the display screen of the display device 29.

シャッタ・レリーズ・ボタンが押下されると撮影が行われ,画像データがメモリ・カード27に記憶される(ステップ54)。撮影総駒数nがインクリメントされる(ステップ55)。n=2になる。   When the shutter release button is pressed, shooting is performed and image data is stored in the memory card 27 (step 54). The total number of shot frames n is incremented (step 55). n = 2.

着目画像iとn駒目画像(上述のステップ54において撮影された画像)とが用いられて,着目画像iのオクルージョン領域のうち,n駒目画像に現れている画像領域が求められて残りのオクルージョン領域が求められる(ステップ56)。また,n駒目画像のオクルージョン領域が着目画像iを用いて求められる(ステップ57)。   The target image i and the n-th frame image (images taken in step 54 described above) are used to determine the image region appearing in the n-th frame image among the occlusion regions of the target image i, and the remaining An occlusion area is determined (step 56). Further, the occlusion area of the n-th frame image is obtained using the image of interest i (step 57).

図2(A)に示す被写体像g1が着目画像i(1駒目画像)であり,図2(B)に示す被写体像g2が2駒目画像である場合を例にして,ステップ56,57の処理を説明する。   Steps 56 and 57 are exemplified by a case where the subject image g1 shown in FIG. 2A is the image of interest i (first frame image) and the subject image g2 shown in FIG. 2B is the second frame image. The process will be described.

図9(A)は,1駒目画像g1のオクルージョン領域OC10(被写体像g1の全体)のうち,2駒目画像像g2にも現れている画像領域を除く,残りのオクルージョン領域OC12を,1駒目画像g1中に明示して示すものである。   FIG. 9A shows the remaining occlusion area OC12 except for the image area appearing also in the second frame image image g2 in the occlusion area OC10 (the entire subject image g1) of the first frame image g1. This is clearly shown in the frame image g1.

1駒目画像g1のオクルージョン領域OC10に含まれる画像領域のうち,対象画像ob1の左側面領域Bおよび対象画像ob2の左側面領域b以外の領域は,2駒目画像g2中に現れている。図9(A)を参照して,1駒目画像g1のオクルージョン領域OC10に現れており,かつ2駒目画像像g2にも現れている画像領域は,上記オクルージョン領域OC10から除かれる。この結果,対象画像ob1の左側面領域Bおよび対象画像ob2の左側面領域bが,1駒目画像g1の残りオクルージョン領域OC12として把握される(ステップ56)。   Of the image areas included in the occlusion area OC10 of the first frame image g1, areas other than the left side area B of the target image ob1 and the left side area b of the target image ob2 appear in the second frame image g2. Referring to FIG. 9A, the image area appearing in the occlusion area OC10 of the first frame image g1 and also appearing in the second frame image image g2 is excluded from the occlusion area OC10. As a result, the left side area B of the target image ob1 and the left side area b of the target image ob2 are grasped as the remaining occlusion area OC12 of the first frame image g1 (step 56).

図9(B)は,2駒目画像g2のオクルージョン領域を示すもので,1駒目画像g1との関係で求められたオクルージョン領域OC21が,2駒目画像g2中に明示して示されている。   FIG. 9B shows the occlusion area of the second frame image g2, and the occlusion area OC21 obtained in relation to the first frame image g1 is clearly shown in the second frame image g2. Yes.

2駒目画像g2中の対象画像ob1の正面領域Aの一部が,2駒目画像g2に現れている画像領域のうち1駒目画像g1に現れていない画像領域である。図9(B)を参照して,2駒目画像g2中の対象画像ob1の正面領域Aの一部が,2駒目画像g2のオクルージョン領域OC21として求められる(ステップ57)。   A part of the front area A of the target image ob1 in the second frame image g2 is an image area that does not appear in the first frame image g1 among the image areas that appear in the second frame image g2. Referring to FIG. 9B, a part of front area A of target image ob1 in second frame image g2 is obtained as occlusion area OC21 of second frame image g2 (step 57).

ステップ57において求められる,1駒目画像g1と2駒目画像g2を用いることで求められる2駒目画像g2についてのオクルージョン領域OC21(図9(B))は,二駒目画像g2が着目画像とされたときの処理において用いられる(詳しくは,後述する)。   In the occlusion area OC21 (FIG. 9B) for the second frame image g2 obtained by using the first frame image g1 and the second frame image g2 obtained in step 57, the second frame image g2 is the image of interest. It is used in the processing when it is said (details will be described later).

図6に戻って,着目画像iとn駒目画像とを用いた上述の処理を終えると,着目画像iのオクルージョン領域の更新処理が行われる(ステップ58)。オクルージョン領域の更新処理では,着目画像iについてのそれまでのオクルージョン領域が,ステップ56において求められた残りオクルージョン領域に置換する処理が行われる。すなわち,1駒目画像g1の全領域とされていたオクルージョン領域OC10(図7)が,図9(A)に示すオクルージョン領域OC12に置換えられる。   Returning to FIG. 6, when the above-described processing using the image of interest i and the n-th frame image is completed, an update process of the occlusion area of the image of interest i is performed (step 58). In the update process of the occlusion area, a process is performed in which the occlusion area so far for the image of interest i is replaced with the remaining occlusion area obtained in step 56. That is, the occlusion area OC10 (FIG. 7), which was the entire area of the first frame image g1, is replaced with the occlusion area OC12 shown in FIG. 9 (A).

図5に戻って,着目画像i,ここでは1駒目画像g1にオクルージョン領域があるかどうかが判断される(ステップ41でNO,ステップ47)。1駒目画像g1にはオクルージョン領域OC12が存在するので(図9(A)),再び,1駒目画像g1と画角決定用の動画(スルー画)との対応領域(オクルージョン対応領域)が求められる。求められたオクルージョン対応領域が,上記動画に重合わされて表示される(ステップ47でYES ,ステップ52,53)。   Returning to FIG. 5, it is determined whether or not the image of interest i, here the first frame image g1, has an occlusion area (NO in step 41, step 47). Since the first frame image g1 has an occlusion area OC12 (FIG. 9A), there is again a corresponding area (occlusion corresponding area) between the first frame image g1 and a moving image for determining an angle of view (through image). Desired. The obtained occlusion correspondence area is superimposed on the moving image and displayed (YES in step 47, steps 52 and 53).

図10は,ディジタル・スチル・カメラ1が第2撮像位置IIから第3撮像位置III(図1参照)に移動させられて,第3撮像位置IIIから撮像されているときの動画S3(図2(C)の被写体像g3と同じ)を示すもので,動画S3に重合わされて,着目画像i,ここでは1駒目画像g1の現在のオクルージョン領域OC12(図9(A))に現れており,かつ動画S3中にも対応して現れているオクルージョン対応領域ROC31が表示されている様子を示している。着目画像i(1駒目画像g1)の現在のオクルージョン領域OC12は,対象画像ob1の左側面領域Bと対象画像ob2の左側面領域bである(図9(A))。対象画像ob1の左側面領域Bと対象画像ob2の左側面領域bは動画S3中に現れている。動画S3では,対象画像ob1の左側面領域Bと対象画像ob2の左側面領域bがオクルージョン対応領域ROC31として表示される。   FIG. 10 shows a moving image S3 when the digital still camera 1 is moved from the second imaging position II to the third imaging position III (see FIG. 1) and is imaged from the third imaging position III (FIG. 2). (C) is the same as the subject image g3) and is superimposed on the moving image S3 and appears in the current occlusion area OC12 (FIG. 9A) of the target image i, here the first frame image g1. The occlusion correspondence area ROC31 appearing correspondingly in the moving image S3 is displayed. The current occlusion area OC12 of the target image i (first frame image g1) is the left side area B of the target image ob1 and the left side area b of the target image ob2 (FIG. 9A). The left side area B of the target image ob1 and the left side area b of the target image ob2 appear in the moving image S3. In the moving image S3, the left side area B of the target image ob1 and the left side area b of the target image ob2 are displayed as the occlusion corresponding area ROC31.

シャッタ・レリーズ・ボタンが押下されて撮影が行われると,撮影総駒数nがインクリメントされる(ステップ54,55)。ここでは,n=3となる。   When shooting is performed by pressing the shutter release button, the total number of frames n is incremented (steps 54 and 55). Here, n = 3.

上述したように,着目画像iとn駒目画像とが用いられて,着目画像i中のオクルージョン領域のうちn駒目画像にも現れている画像領域が求められて,残りのオクルージョン領域が求められる(ステップ56)。また,n駒目画像のオクルージョン領域が,着目画像iを用いて求められる(ステップ57)。ここでは,1駒目画像(図2(A)の被写体像g1)と3駒目画像(図2(C)の被写体像g3)とが用いられる。   As described above, the target image i and the n-th frame image are used to determine the image region that appears in the n-th frame image among the occlusion regions in the target image i, and the remaining occlusion regions are determined. (Step 56). Further, the occlusion area of the n-th frame image is obtained using the image of interest i (step 57). Here, the first frame image (subject image g1 in FIG. 2A) and the third frame image (subject image g3 in FIG. 2C) are used.

図9(A)を参照して,1駒目画像g1の現在のオクルージョン領域OC12は対象画像ob1の左側面領域Bおよび対象画像ob2の左側面領域bである。ここで,3駒目画像(被写体像g3)(図2(C))には,対象画像ob1の左側面領域Bおよび対象画像ob2の左側面領域bが現れている。したがって,3駒目画像g3の撮影によって,図11(A)に示すように,1駒目画像g1には残りオクルージョン領域が存在しなくなる(ステップ56)。   Referring to FIG. 9A, the current occlusion area OC12 of the first frame image g1 is a left side area B of the target image ob1 and a left side area b of the target image ob2. Here, in the third frame image (subject image g3) (FIG. 2C), a left side region B of the target image ob1 and a left side region b of the target image ob2 appear. Therefore, by photographing the third frame image g3, as shown in FIG. 11A, no remaining occlusion area exists in the first frame image g1 (step 56).

図2(A)および図2(C)を参照して,3駒目画像g3のすべての画像領域は,1駒目画像g1に現れている。このため,1駒目画像g1を用いると,3駒目画像g3にオクルージョン領域はない。図11(B)に示すように,ステップ57において3駒目画像g3についてのオクルージョン領域は無いと判断される。   Referring to FIGS. 2A and 2C, all image areas of the third frame image g3 appear in the first frame image g1. For this reason, when the first frame image g1 is used, the third frame image g3 has no occlusion area. As shown in FIG. 11B, it is determined in step 57 that there is no occlusion area for the third frame image g3.

着目画像iのオクルージョン領域の更新処理(ステップ58)において,着目画像iについてのそれまでのオクルージョン領域が,ステップ56において求められた残りオクルージョン領域と置換される。1駒目画像g1のオクルージョン領域OC12(図9(A))がすべて無くなったことが把握される(図11(A))。   In the process of updating the occlusion area of the image of interest i (step 58), the previous occlusion area of the image of interest i is replaced with the remaining occlusion area obtained in step 56. It can be understood that all the occlusion areas OC12 (FIG. 9A) of the first frame image g1 have disappeared (FIG. 11A).

着目画像iにオクルージョン領域があるかどうかの判断において,1駒目画像g1にオクルージョン領域がないことが判断されると(ステップ47でNO),カウンタiがインクリメントされて,2駒目画像,ここでは,被写体像g2(図2(B))を着目画像とする処理に進む(ステップ48,i=2)。   In determining whether or not the image of interest i has an occlusion area, if it is determined that there is no occlusion area in the first frame image g1 (NO in step 47), the counter i is incremented, and the second frame image, here Then, the process proceeds to the process of using the subject image g2 (FIG. 2B) as the image of interest (step 48, i = 2).

1駒目画像g1に対する上述した処理において,1駒目画像g1,2駒目画像g2および3駒目画像g3が撮影されている。2駒目画像g2を着目画像とする処理では,はじめに,これまでの処理によって既に得られている画像を用いた処理が行われる。   In the above-described processing for the first frame image g1, the first frame image g1, the second frame image g2, and the third frame image g3 are photographed. In the process using the second frame image g2 as the image of interest, first, a process using an image already obtained by the processes so far is performed.

着目画像i,ここでは2駒目画像g2と,i+1〜n駒目画像,ここでは3駒目画像g3(i+1=3,n=3となる)を用いて,着目画像i(2駒目画像g2)のオクルージョン領域が求められる(ステップ50)。   Using the image of interest i, here the second frame image g2, and the images of i + 1 to n frames, here the third frame image g3 (i + 1 = 3, n = 3), the image of interest i (second frame image) The occlusion area of g2) is determined (step 50).

図12は,2駒目画像g2(着目画像i)と3駒目画像g3とを用いて,2駒目画像g2のオクルージョン領域OC23を求める様子を示している。   FIG. 12 shows how the occlusion area OC23 of the second frame image g2 is obtained using the second frame image g2 (target image i) and the third frame image g3.

2駒目画像g2に現れている画像領域のうち,対象画像ob1の正面領域Aと,対象画像ob2の正面領域aは,3駒目画像g3に現れていない。2駒目画像g2中の対象画像ob1の正面領域Aと対象画像ob2の正面領域aが,2駒目画像g2と3駒目画像g3とを比較することによって求められる,2駒目画像g2のオクルージョン領域OC23とされる。4駒目,5駒目等の画像が撮影されているとすれば,2駒目画像g2とそれらの画像とを比較して得られる2駒目画像g2のオクルージョン領域も,ステップ50において求められる。   Of the image areas appearing in the second frame image g2, the front area A of the target image ob1 and the front area a of the target image ob2 do not appear in the third frame image g3. The front area A of the target image ob1 and the front area a of the target image ob2 in the second frame image g2 are obtained by comparing the second frame image g2 and the third frame image g3. The occlusion area OC23. If an image of the fourth frame, the fifth frame, etc. is taken, the occlusion area of the second frame image g2 obtained by comparing the second frame image g2 with these images is also obtained in step 50. .

ステップ50において求められたオクルージョン領域OC23と,対象画像iについて既に求められているオクルージョン領域との論理積がとられ,オクルージョン領域が更新される(ステップ51)。対象画像i,ここでは2駒目画像g2については,上述した1駒目画像g1における処理において,1駒目画像g1との間で,2駒目画像g2のオクルージョン領域OC21が求められている(図9(B))。ステップ50において求められたオクルージョン領域OC23と,既に算出されているオクルージョン領域OC21との論理積がとられる。ステップ50において2駒目画像g2のオクルージョン領域が複数求められていれば,それらのオクルージョン領域OCについても論理積がとられる。   A logical product of the occlusion area OC23 obtained in step 50 and the occlusion area already obtained for the target image i is calculated, and the occlusion area is updated (step 51). With respect to the target image i, here the second frame image g2, the occlusion area OC21 of the second frame image g2 is obtained between the first frame image g1 and the first frame image g1 in the above-described processing in the first frame image g1. FIG. 9B). The logical product of the occlusion area OC23 obtained in step 50 and the already calculated occlusion area OC21 is calculated. If a plurality of occlusion areas of the second frame image g2 are obtained in step 50, the logical product is also taken for these occlusion areas OC.

図13は,2駒目画像g2のオクルージョン領域OC23と,2駒目画像g2のオクルージョン領域OC21との論理積をとる様子を示している。   FIG. 13 shows a state in which a logical product of the occlusion area OC23 of the second frame image g2 and the occlusion area OC21 of the second frame image g2 is obtained.

2駒目画像g2についての2つのオクルージョン領域OC23,21の論理積をとることによって,2つのオクルージョン領域OC23,OC21の両方に共通に現れているオクルージョン領域OC213が,2駒目画像g2についての残りオクルージョン領域となる。2駒目画像g2についてのオクルージョン領域が,オクルージョン領域OC213に更新される(ステップ51)。   By taking the logical product of the two occlusion areas OC23, 21 for the second frame image g2, the occlusion area OC213 appearing in common in both of the two occlusion areas OC23, OC21 is the remaining for the second frame image g2. It becomes an occlusion area. The occlusion area for the second frame image g2 is updated to the occlusion area OC213 (step 51).

着目画像iのオクルージョン領域と,動画との対応領域(オクルージョン対応領域)が求められ,求められたオクルージョン対応領域が表示される(ステップ52)。図14は,上述したオクルージョン領域OC213を有する2駒目画像g2が着目画像iであるときに,第4撮像位置IV(図1参照)から撮像されている動画S4(図2(D)の被写体像g4と同じ)を示すものある。動画S4に重合わされて,着目画像i,ここでは2駒目画像g2のオクルージョン領域OC213(図13参照)に現れておりかつ動画S4にも現れている画像領域(オクルージョン対応領域ROC42)が表示される(ステップ53)。   A corresponding area (occlusion corresponding area) between the occlusion area of the image of interest i and a moving image is obtained, and the obtained occlusion corresponding area is displayed (step 52). FIG. 14 shows the subject of the moving image S4 (FIG. 2D) captured from the fourth imaging position IV (see FIG. 1) when the second frame image g2 having the occlusion area OC213 is the image of interest i. The same as image g4). Overlaid with the moving image S4, the image i of interest (here, the image region (occlusion corresponding region ROC42) that appears in the occlusion region OC213 (see FIG. 13) of the second frame image g2 and also appears in the moving image S4) is displayed. (Step 53).

第4撮像位置IVからの撮影が行われて4駒目画像g4が取得されると,カウンタnがインクリメントされ(n=4となる),着目画像i(ここでは,2駒目画像g2)中のオクルージョン領域OC213が無くなる(ステップ54,55,56,58,ステップ47でNO)。カウンタiがインクリメントされ(i=3となる),3駒目画像g3を着目画像とする処理に進む(ステップ48)。   When shooting from the fourth imaging position IV is performed and the fourth frame image g4 is acquired, the counter n is incremented (n = 4), and in the image of interest i (here, the second frame image g2). The occlusion area OC213 is eliminated (NO in steps 54, 55, 56, 58, and step 47). The counter i is incremented (i = 3), and the process proceeds to processing for setting the third frame image g3 as the image of interest (step 48).

このようにして,撮影されたすべての画像のそれぞれが着目画像とされて,着目画像のオクルージョン領域が次第に削減されて消去される(図3参照)。   In this way, each of all photographed images is set as a target image, and the occlusion area of the target image is gradually reduced and deleted (see FIG. 3).

撮影された画像のすべてについてオクルージョン領域がない状態になると,カウンタiとカウンタnの数が等しくなる(i=n)。これにより,上述した一連の処理が終了する(ステップ49でYES)。   When there is no occlusion area for all of the captured images, the number of counters i and n is equal (i = n). As a result, the above-described series of processing ends (YES in step 49).

オクルージョン領域のない着目画像は,着目画像に現れている画像領域のすべてが,着目画像の撮像位置と異なる撮像位置から取得された他の画像にも現れていることを意味する。対応する画像領域が,互いに撮像位置(視点)が異なる少なくとも2つの画像に含まれている状態となる。そのような複数の画像からは3次元画像の生成を行いやすい。   A focused image without an occlusion area means that all of the image areas appearing in the focused image also appear in other images acquired from an imaging position different from the imaging position of the focused image. Corresponding image areas are included in at least two images having different imaging positions (viewpoints). It is easy to generate a three-dimensional image from such a plurality of images.

上述したように,ディジタル・スチル・カメラ1の表示装置29の表示画面に表示される画角決定用の動画中には,着目画像iのオクルージョン領域OCを削減することができる画像領域がオクルージョン対応領域ROCとして明示的に表示される。表示されるオクルージョン対応領域ROCが大きいほど,着目画像iのオクルージョン領域OCの削減ないし消去に有効であり,3次元画像に必要な画像(3次元画像に不足している画像)と言える。オクルージョン対応領域ROCによって3次元画像の構築に好ましい撮像方向がユーザにアシストされる。現在の撮像方向が妥当である(または妥当でない)ことを,動画中に表されるオクルージョン対応領域ROCによって容易に認識することができる。   As described above, in the moving image for determining the angle of view displayed on the display screen of the display device 29 of the digital still camera 1, an image area that can reduce the occlusion area OC of the image of interest i is occlusion-compatible. It is explicitly displayed as a region ROC. It can be said that the larger the displayed occlusion correspondence area ROC is, the more effective the reduction or erasure of the occlusion area OC of the image of interest i is, and an image necessary for the 3D image (an image lacking in the 3D image). The occlusion-corresponding region ROC assists the user with a preferable imaging direction for constructing a three-dimensional image. It can be easily recognized by the occlusion corresponding area ROC represented in the moving image that the current imaging direction is appropriate (or not valid).

ディジタル・スチル・カメラ1を用いた異なる撮像位置からの複数回の対象物OB1,OB2の撮影において(図1参照),ディジタル・スチル・カメラ1と対象物OB1,OB2との間の距離はほぼ同じであるのが好ましい。ディジタル・スチル・カメラ1と対象物OB1,OB2との間の距離に大きな変動があった場合(たとえば,前駒画像の撮影時に計測された撮影距離から所定距離だけ異なる撮影距離が計測された場合)に,図15に示すように,「カメラを近づけて下さい!」(または「遠ざけて下さい!」)といった距離に関するアシスト情報m1を動画S5に重合わせて表示するようにしてもよい。ディジタル・スチル・カメラ1と対象物OB1,OB2との間の距離(距離変動)は,ディジタル・スチル・カメラ1が備える測距装置(図示略)によって判断してもよいし,被写体像中の対象画像ob1,ob2の大きさに基づいて判断してもよい。   In photographing a plurality of objects OB1 and OB2 from different imaging positions using the digital still camera 1 (see FIG. 1), the distance between the digital still camera 1 and the objects OB1 and OB2 is almost the same. Preferably they are the same. When there is a large variation in the distance between the digital still camera 1 and the objects OB1 and OB2 (for example, when a shooting distance that is different from the shooting distance measured when shooting the previous frame image by a predetermined distance is measured) ), As shown in FIG. 15, the assist information m1 related to the distance such as “Please move the camera closer!” (Or “Please move away!”) May be displayed over the moving image S5. The distance (distance variation) between the digital still camera 1 and the objects OB1 and OB2 may be determined by a distance measuring device (not shown) provided in the digital still camera 1 or in the subject image. The determination may be made based on the sizes of the target images ob1 and ob2.

図16(A),(B)および図17は変形例を示している。   16A, 16B, and 17 show a modification.

図16(A),(B)は,いずれもディジタル・スチル・カメラ1を背面から示すものである。   16A and 16B show the digital still camera 1 from the back.

上述したように,ディジタル・スチル・カメラ1の表示画面には,画角決定用の動画(スルー画)が表示されるとともに,着目画像iのオクルージョン領域OCに対応する動画中の対応領域(オクルージョン対応領域)ROCが求められて,上記動画に重合わされて表示される。この変形例では,動画中のオクルージョン対応領域ROCの面積(大きさ)が求められ,求められた面積に応じた長さを持つ表示バーB1が動画に重合わされて表示される。図16(A),(B)には,オクルージョン領域ROCの面積に応じた長さを持つ表示バーB1が,動画S6,S7に重合わされて表示されている様子がそれぞれ示されている。ディジタル・スチル・カメラ1の位置を異ならせることによってオクルージョン対応領域ROCの面積が変動すると,それに合わせて表示バーB1の長さが変動する。オクルージョン対応領域ROCの面積が大きいほど,長さの長い表示バー1が表示される。オクルージョン対応領域ROCの面積が小さくなると,表示バーB1の長さは短くなる。表示バーB1の長さによってオクルージョン対応領域ROCの大きさを簡単に認識することができ,ディジタル・スチル・カメラ1の位置(視点)を,オクルージョン領域の削減により好ましい位置に調整することができる。   As described above, the moving image for determining the angle of view (through image) is displayed on the display screen of the digital still camera 1, and the corresponding region (occlusion) in the moving image corresponding to the occlusion region OC of the image of interest i. Corresponding region) ROC is obtained and displayed superimposed on the moving image. In this modification, the area (size) of the occlusion corresponding region ROC in the moving image is obtained, and the display bar B1 having a length corresponding to the obtained area is superimposed on the moving image and displayed. FIGS. 16 (A) and 16 (B) show how the display bar B1 having a length corresponding to the area of the occlusion region ROC is superimposed on the moving images S6 and S7. When the area of the occlusion corresponding region ROC varies by changing the position of the digital still camera 1, the length of the display bar B1 varies accordingly. As the area of the occlusion correspondence region ROC is larger, the longer display bar 1 is displayed. When the area of the occlusion correspondence area ROC is reduced, the length of the display bar B1 is reduced. The size of the occlusion corresponding area ROC can be easily recognized by the length of the display bar B1, and the position (viewpoint) of the digital still camera 1 can be adjusted to a preferable position by reducing the occlusion area.

図17は,表示バーB1を表示する場合のディジタル・スチル・カメラ1の処理を示すフローチャートであり,図6に示すフローチャートと対応する。図6に示すフローチャートと同一処理には同一符号を付し,重複説明を避ける。   FIG. 17 is a flowchart showing processing of the digital still camera 1 when displaying the display bar B1, and corresponds to the flowchart shown in FIG. The same processes as those in the flowchart shown in FIG.

はじめに,オクルージョン対応領域表示面積を格納するためのメモリ領域がメイン・メモリ22に設けられ,ここに初期値(0)が格納される(ステップ61)。   First, a memory area for storing the display area corresponding to the occlusion is provided in the main memory 22, and an initial value (0) is stored therein (step 61).

上述したように,着目画像iのオクルージョン領域OCと動画とが用いられてオクルージョン対応領域ROCが求められる(ステップ52)。   As described above, the occlusion area ROC is obtained using the occlusion area OC and the moving image of the image of interest i (step 52).

求められたオクルージョン対応領域ROCの面積(画素数または面積率でもよい)が算出されて上記メモリ領域に格納される。メモリ領域に格納されたオクルージョン対応領域ROCの面積に応じた表示バーB1の長さが算出される(ステップ62)。算出された長さを持つ表示バーB1が,動画S5,S6に重合わされて表示画面上に表示される(ステップ63,図16(A),図16(B))。   The area (or the number of pixels or the area ratio) of the obtained occlusion corresponding area ROC is calculated and stored in the memory area. The length of the display bar B1 corresponding to the area of the occlusion corresponding area ROC stored in the memory area is calculated (step 62). The display bar B1 having the calculated length is superimposed on the moving images S5 and S6 and displayed on the display screen (step 63, FIG. 16 (A), FIG. 16 (B)).

撮影操作(シャッタ・レリーズ・ボタンの押下)があるまで(ステップ64でYES ,ステップ54),動画の表示,オクルージョン対応領域ROCの表示および表示バーB1の表示が繰返される(ステップ64でNO)。   Until there is a photographing operation (pressing the shutter release button) (YES in step 64, step 54), the display of the moving image, the display of the occlusion correspondence area ROC, and the display of the display bar B1 are repeated (NO in step 64).

表示バーB1の表示に代えてまたは加えて,算出された面積の面積率(動画の1フレームの全画素数に対するオクルージョン対応領域ROCを構成する画素数の割合)を表す数値を,上記動画に重合わせて表示してもよい。   In place of or in addition to the display of the display bar B1, a numerical value representing the area ratio of the calculated area (the ratio of the number of pixels constituting the occlusion corresponding region ROC to the total number of pixels of one frame of the moving image) is superimposed on the moving image. You may display together.

(第2実施例)
図18から図26は,第2実施例を示している。
(Second embodiment)
18 to 26 show a second embodiment.

第2実施例は,異なる視点から対象物を撮影するためにディジタル・スチル・カメラ1を移動させるときに,その移動方向および移動距離についてのアシスト情報の表示を行うものである。   In the second embodiment, when the digital still camera 1 is moved in order to photograph an object from different viewpoints, assist information regarding the moving direction and moving distance is displayed.

図18は,ディジタル・スチル・カメラ1を用いて対象物(瓶)OB3を様々な位置p(1)〜p(m)から撮像している様子を示している。   FIG. 18 shows a state in which the object (bottle) OB3 is imaged from various positions p (1) to p (m) using the digital still camera 1.

第2実施例では,ディジタル・スチル・カメラ1を移動させるべき2つの移動方向および移動量があらかじめ設定される。移動量はあらかじめ定められ,2つの移動方向はたとえば操作器3を用いて設定される。設定される2つの移動方向の一つ(第1移動方向)は,対象物OB3を右回り(反時計回り)または左回り(時計回り)のいずれの回り方向で撮影するか(ディジタル・スチル・カメラ1を移動させるか)を規定する。他の一つの移動方向(第2移動方向)は上記第1移動方向に直交する方向であり,第1移動方向(右回りまたは左回り)の一周分の対象物OB3の撮影を終えた後,上方向または下方向のいずれにディジタル・スチル・カメラ1を移動させるかを規定する。第2移動方向の移動の後,再度,第1移動方向にディジタル・スチル・カメラ1を移動させながら複数回の撮影が行われる。図18に示すように,たとえば,ディジタル・スチル・カメラ1が右回りに移動させられて,1駒目,2駒目・・・N駒目の対象物OB3の複数回の撮影が行われる。一周分の撮影が完了するとディジタル・スチル・カメラ1が上方向に移動させられ,その高さ位置で再びN+1駒目から始まる2周目の右回りの撮影が行われる。M駒目の撮影によって視認することができる対象物OB3の全体の撮影の完了が判断されると,ディジタル・スチル・カメラ1による処理が終了する。   In the second embodiment, two moving directions and moving amounts for moving the digital still camera 1 are preset. The amount of movement is determined in advance, and the two movement directions are set using the operation device 3, for example. One of the two movement directions to be set (first movement direction) is whether the object OB3 is photographed clockwise (counterclockwise) or counterclockwise (clockwise) (digital still, Whether to move the camera 1). The other one movement direction (second movement direction) is a direction orthogonal to the first movement direction, and after photographing the object OB3 for one turn in the first movement direction (clockwise or counterclockwise), It defines whether the digital still camera 1 is moved upward or downward. After the movement in the second movement direction, photographing is performed a plurality of times while moving the digital still camera 1 in the first movement direction again. As shown in FIG. 18, for example, the digital still camera 1 is moved clockwise, and the object OB3 of the first frame, the second frame,. When shooting for one round is completed, the digital still camera 1 is moved upward, and right-turn shooting for the second round starting from the (N + 1) th frame is performed again at that height position. When it is determined that the entire object OB3 that can be visually recognized by the M-th frame is completely captured, the processing by the digital still camera 1 ends.

以下の説明では,上記第1移動方向を右回り方向とし,上記第2移動方向を上方向として説明する。   In the following description, the first moving direction will be described as a clockwise direction, and the second moving direction will be described as an upward direction.

図19および図20は,第2実施例のディジタル・スチル・カメラ1の処理を示すフローチャートである。   19 and 20 are flowcharts showing the processing of the digital still camera 1 of the second embodiment.

はじめに,操作器3が用いられてディジタル・スチル・カメラ1を移動させるべき互いに異なる2つの方向(第1移動方向および第2移動方向)が設定される(ステップ71)。ここでは,上述のように,第1移動方向として右回り方向が設定され,第2移動方向として上方向が設定された場合を説明する。   First, the controller 3 is used to set two different directions (first moving direction and second moving direction) in which the digital still camera 1 should be moved (step 71). Here, as described above, a case where the clockwise direction is set as the first movement direction and the upward direction is set as the second movement direction will be described.

最初の撮影(1駒目の撮影)かどうかが判断される(ステップ72)。   It is determined whether or not this is the first shooting (first frame shooting) (step 72).

最初の撮影である場合,特段の処理は行われず,ディジタル・スチル・カメラ1の表示装置29に動画によって表示されている対象画像ob3を含む画像データが,シャッタ・レリーズ・ボタンの押下に応じてメモリ・カード27に記録される(ステップ83)。   In the case of the first shooting, no special processing is performed, and image data including the target image ob3 displayed as a moving image on the display device 29 of the digital still camera 1 is displayed in response to pressing of the shutter release button. It is recorded on the memory card 27 (step 83).

図21はディジタル・スチル・カメラ1を背面から示すもので,撮像位置p(1)から撮像によって得られた1駒目画像n1が,表示装置29の表示画面上に表示されている様子を示している。1駒目画像n1および後述する他の画像は,対象物OB3を表す対象画像ob3を含む。   FIG. 21 shows the digital still camera 1 from the back side, and shows a state in which the first frame image n1 obtained by imaging from the imaging position p (1) is displayed on the display screen of the display device 29. ing. The first frame image n1 and other images to be described later include a target image ob3 representing the target object OB3.

各周回の最初の撮像によって得られる画像は,周始め画像としてメイン・メモリ22に記憶される。1駒目画像n1は1周目の最初の撮像によって得られた画像であるから,周始め画像としてメイン・メモリ22に記録される(ステップ84)。   An image obtained by the first imaging of each lap is stored in the main memory 22 as a lap start image. Since the first frame image n1 is an image obtained by the first imaging of the first round, it is recorded in the main memory 22 as the first picture of the round (step 84).

メイン・メモリ22に一周始めフラグが設定される。初期状態では一周始めフラグはオフされる(ステップ85)。後述するように,一周始めフラグは一周分の撮影が完了したときにオンされる。一周始めフラグを用いた処理の詳細は後述する。   A flag for starting the first round is set in the main memory 22. In the initial state, the first cycle start flag is turned off (step 85). As will be described later, the one-round start flag is turned on when photographing for one round is completed. Details of the process using the one-round start flag will be described later.

撮影完了操作が無ければ(ステップ93でNO),次の駒(2駒目)の処理に進む(ステップ72でNO)。ディジタル・スチル・スチル1が第1移動方向,ここでは右回り方向に移動させられる。図18を参照して撮像位置がp(1)からp(2)となる。   If there is no shooting completion operation (NO in step 93), the process proceeds to the next frame (second frame) (NO in step 72). The digital still still 1 is moved in the first movement direction, here in the clockwise direction. With reference to FIG. 18, the imaging position is changed from p (1) to p (2).

一周始めフラグがオンされているかどうかが判断される(ステップ73)。1駒目画像n1のみが取得されているとき,上述のように一周始めフラグはオフされている(ステップ85)。この場合,ディジタル・スチル・カメラ1の現移動方向は第1移動方向(右回り方向)であると判断される(ステップ73でNO,ステップ75)。   It is determined whether or not the first cycle start flag is turned on (step 73). When only the first frame image n1 has been acquired, the first round start flag is turned off as described above (step 85). In this case, it is determined that the current movement direction of the digital still camera 1 is the first movement direction (clockwise direction) (NO in step 73, step 75).

判断された現移動方向にしたがって位置移動(位置ずらし)が行われた前駒画像が,アシスト画像として,画角決定用の動画(スルー画)上に半透明表示される(ステップ76)。   The previous frame image that has been moved (shifted) according to the determined current moving direction is displayed as an assist image on a moving image for determining the angle of view (through image) in a translucent manner (step 76).

図22は,撮像位置p(2)から2駒目画像n2が取得される前に,表示画面上に表示される動画Sn2を示している。   FIG. 22 shows the moving image Sn2 displayed on the display screen before the second frame image n2 is acquired from the imaging position p (2).

動画Sn2に重合わされて,前駒画像,ここでは1駒目画像n1(図21参照)が左方向に位置移動された状態で半透明表示される。半透明表示される位置移動された前駒画像n1がアシスト画像An1である。   Superimposed on the moving picture Sn2, the previous frame image, here the first frame image n1 (see FIG. 21) is displayed in a semi-transparent manner in a state where the position is moved to the left. The front frame image n1 that has been moved and displayed semi-transparently is the assist image An1.

移動方向が右回りである場合,アシスト画像は,前駒画像を左向きに所定移動量(たとえば,前駒画像の横幅の1/3程度の移動量)だけ位置を移動させ,それを半透明表示としたものである。移動方向が左回りであれば,アシスト画像の位置移動方向は右向きとなる。図22に示すように,アシスト画像としての第1駒目画像An1は動画Sn2中において左方向に位置がずらされて半透明表示される。第1駒目画像n1の一部(第1駒画像の右端から2/3程度)が動画Sn2中に半透明表示される。   When the movement direction is clockwise, the assist image moves the position of the previous frame image to the left by a predetermined amount of movement (for example, a movement amount of about 1/3 of the horizontal width of the previous frame image) and displays it translucently. It is what. If the movement direction is counterclockwise, the position movement direction of the assist image is rightward. As shown in FIG. 22, the first frame image An1 as the assist image is displayed in a semi-transparent manner while being shifted in the left direction in the moving image Sn2. A part of the first frame image n1 (about 2/3 from the right end of the first frame image) is displayed translucently in the moving image Sn2.

動画の位置とアシスト画像の位置とが一致しているかどうかが判断される(ステップ77)。ここでは,動画Sn2の位置が,アシスト画像An1(位置移動後の1駒目画像n1)の位置と一致しているかどうかが判断されることになる。たとえば,半透明表示されているアシスト画像(1駒目画像n1の一部)から得られる複数の特徴点と,動画から得られる上記特徴点に対応する対応点の位置に基づいて,上記動画の位置がアシスト画像の位置と一致しているかどうかが判断される。もちろん,アシスト画像と動画に共通して現れている主要被写体像(たとえば,対象画像ob3)の位置に応じて,動画の位置とアシスト画像の位置の一致を判断してもよい。動画の位置とアシスト画像の位置が一致するかどうかの判断は,前駒画像の一部が動画中に現れており,かつ設定された移動方向および所定移動量に合致する移動後の撮像位置(すなわち,次回撮像位置)からの撮像が行われているかを判断するものである。   It is determined whether the position of the moving image matches the position of the assist image (step 77). Here, it is determined whether or not the position of the moving image Sn2 matches the position of the assist image An1 (first frame image n1 after the position movement). For example, based on a plurality of feature points obtained from a translucently displayed assist image (a part of the first frame image n1) and the positions of corresponding points corresponding to the feature points obtained from the movie, It is determined whether the position matches the position of the assist image. Of course, the match between the position of the moving image and the position of the assist image may be determined according to the position of the main subject image (for example, the target image ob3) appearing in common in the assist image and the moving image. The determination of whether the position of the moving image and the position of the assist image match is made by determining whether or not the image position after movement (a part of the previous frame image appears in the moving image and matches the set moving direction and the predetermined moving amount ( That is, it is determined whether or not imaging from the next imaging position is being performed.

動画Sn2の位置とアシスト画像An1(位置移動後の前駒画像n1)の位置とが一致していない場合,画角および位置を合わせるアシスト情報が表示画面上に表示される(ステップ78でNO,ステップ79)。   If the position of the moving image Sn2 and the position of the assist image An1 (the previous frame image n1 after the position movement) do not match, assist information for matching the angle of view and the position is displayed on the display screen (NO in step 78). Step 79).

図22を参照して,たとえば,アシスト画像An1が左に,動画Sn2が右にずれて表示されている場合,右向矢印r1および「カメラの位置を合わせて下さい」の文字列m2が,アシスト情報として表示されている。動画Sn2の位置ずれの方向および大きさは,上述のように,アシスト画像から得られる複数の特徴点の位置と,動画から得られる上記特徴点に対応する対応点の位置(すなわち,移動ベクトル)から求められる。右向矢印r1にしたがう右方向にディジタル・スチル・カメラ1を移動させると,動画Sn2中の対象画像ob3は相対的に左方向に移動する。アシスト情報(右向矢印r1)にしたがう向きにディジタル・スチル・カメラ1を移動させることによって,動画Sn2の位置とアシスト画像An1の位置が一致するようになる。   Referring to FIG. 22, for example, when the assist image An1 is displayed on the left and the moving image Sn2 is displayed on the right, the right arrow r1 and the character string m2 “Please align the camera position” It is displayed as information. As described above, the direction and magnitude of the position shift of the moving picture Sn2 are the positions of the plurality of feature points obtained from the assist image and the positions of the corresponding points corresponding to the feature points obtained from the moving picture (ie, movement vectors). It is requested from. When the digital still camera 1 is moved in the right direction according to the right-pointing arrow r1, the target image ob3 in the moving picture Sn2 moves relatively in the left direction. By moving the digital still camera 1 in the direction according to the assist information (right arrow r1), the position of the moving image Sn2 and the position of the assist image An1 are matched.

第1実施例で説明したように,ディジタル・スチル・カメラ1と対象物OB3との間の距離に大きな変動があったことが検出された場合には,「カメラを近づけて下さい!」(または「遠ざけて下さい!」)といった距離(画角)に関するアシスト情報m1が,動画Sn2に重合わせて表示される(図15参照)。   As described in the first embodiment, when it is detected that there is a large variation in the distance between the digital still camera 1 and the object OB3, “Please bring the camera closer!” (Or The assist information m1 regarding the distance (view angle) such as “Please keep away!” Is displayed so as to overlap the moving image Sn2 (see FIG. 15).

動画Sn2の位置とアシスト画像An1の位置が一致すると判断されると(ステップ78でYES),図23に示すように,アシスト情報r1,m2が表示画面から消える。そのときに表示画面上に表示されている動画と,メモリ・カード27に記憶されている取得済みの画像データによって表される撮影済み画像のそれぞれが比較されて,表示されている動画が撮影済みであるかどうかが判断される(ステップ80,81)。   If it is determined that the position of the moving image Sn2 matches the position of the assist image An1 (YES in step 78), as shown in FIG. 23, the assist information r1, m2 disappears from the display screen. The movie currently displayed on the display screen is compared with the captured image represented by the acquired image data stored in the memory card 27, and the displayed movie is already captured. Is determined (steps 80 and 81).

1駒目画像n1(図21)のみが撮影済みであり,1駒目画像の撮像位置p(1)と異なる撮像位置p(2)からの撮像によって動画Sn2(図23)が撮像されている場合,動画Sn2は撮影済みでない(未撮影)と判断される(ステップ81でNO)。一周始めフラグがオフされていることを条件にして,対象物OB3の2度目の撮影が行われる(ステップ82でNO,ステップ86)。2駒目画像n2がメモリ・カード27に記憶される。また,一周始めフラグがオンされている場合にはオフされる(ステップ87)。   Only the first frame image n1 (FIG. 21) has been shot, and the moving image Sn2 (FIG. 23) is captured by imaging from the imaging position p (2) different from the imaging position p (1) of the first frame image. In this case, it is determined that the movie Sn2 has not been shot (not shot) (NO in step 81). The second shooting of the object OB3 is performed on the condition that the first cycle start flag is turned off (NO in step 82, step 86). The second frame image n2 is stored in the memory card 27. Further, when the first round start flag is turned on, it is turned off (step 87).

同様にして,対象物OB3の周囲を右回りに移動しながら複数回の撮影が続けられる(図18参照)。   Similarly, a plurality of shootings are continued while moving clockwise around the object OB3 (see FIG. 18).

図24は,1周目の右回りのN回の撮影が行われ,ほぼ最初の撮像位置p(N)に戻ってきたときに表示される動画SnNを示している。   FIG. 24 shows a moving image SnN that is displayed when N times of clockwise rotations in the first round are performed and the first imaging position p (N) is returned.

対象物OB3を中心にして右回りに移動しつつ,ディジタル・スチル・カメラ1がほぼ一周すると,そのときの動画SnNは撮影済み画像(一駒目画像n1)とほぼ一致する。動画SnNは既に撮影ずみであると判断される(ステップ80,ステップ81でYES )。   When the digital still camera 1 makes a round while moving clockwise around the object OB3, the moving picture SnN at that time substantially coincides with the photographed image (first frame image n1). It is determined that the moving image SnN has already been photographed (YES in step 80 and step 81).

動画SnNと,上述したメイン・メモリ22に記憶されている周始め画像,ここでは1駒目画像n1とが一致するかどうかが判断される(ステップ88)。動画SnNと周始め画像(一駒目画像n1)とが一致すると判断されると,一周撮影完了をユーザに示すアシスト情報m3が表示画面上に表示される(図24,ステップ89でYES ,ステップ90)。   It is determined whether or not the moving picture SnN matches the circle start image stored in the main memory 22 described above, here the first frame image n1 (step 88). When it is determined that the moving image SnN and the start-of-round image (first frame image n1) match, assist information m3 indicating completion of the first-round shooting is displayed on the display screen (FIG. 24, YES in step 89, step 90).

一周撮影完了が判断されると,上述した一周始めフラグがオンされる(ステップ91)。一周始めフラグがオンされている場合,次のN+1駒目に対する処理では,現移動方向は第2移動方向,すわなち,上方向であることが認識される(ステップ73でYES ,ステップ74)。   When it is determined that the one-round shooting is completed, the above-mentioned one-round start flag is turned on (step 91). When the first round start flag is turned on, it is recognized that the current movement direction is the second movement direction, that is, the upward direction in the process for the next N + 1 frame (YES in step 73, step 74). .

図25は現移動方向が上方向であると判断されたときの動画Sn(N+1)を示している。   FIG. 25 shows the moving image Sn (N + 1) when it is determined that the current movement direction is the upward direction.

判断された現移動方向が第2移動方向,ここでは上方向と判断されると,前駒画像ではなく,周始め画像(1駒目画像n1)がアシスト画像として動画中に表される(ステップ76)。ここでは,現移動方向が上方向であるから,アシスト画像としての周始め画像AnNは,周始め画像を下向きに所定移動量(たとえば,撮影画像の縦幅の1/3程度)だけ移動させたものとなる。また,ディジタル・スチル・カメラ1の移動方向に関するアシスト情報として上向矢印r2が表示画面上に現れる。   If it is determined that the determined current movement direction is the second movement direction, in this case, the upward direction, not the previous frame image, but the start-of-round image (first frame image n1) is represented in the video as an assist image (step) 76). Here, since the current movement direction is the upward direction, the start-of-round image AnN as the assist image is moved downward by a predetermined amount of movement (for example, about 1/3 of the vertical width of the captured image). It will be a thing. Further, an up arrow r2 appears on the display screen as assist information regarding the moving direction of the digital still camera 1.

上方向に移動させられた後の最初の一駒目の撮影の前の時点では,上述のように,一周始めフラグがオンされている。この場合には,上方向に移動させられて最初の撮影によって得られる画像(二周目の始めの画像である)が,二周目の周始め画像として新たにメイン・メモリ22に記憶される(ステップ82でYES ,ステップ83,84)。二周目の撮影(右回りに移動しながらの複数回の撮影)に進む。   At the time before the first first frame after being moved upward, as described above, the first cycle start flag is turned on. In this case, the image obtained by the first shooting after being moved upward (the first image in the second round) is newly stored in the main memory 22 as the second round-start image. (YES at step 82, steps 83, 84). Proceed to the second round of shooting (shooting multiple times while moving clockwise).

右回りの複数回の撮影,上方向の移動,さらなる右回りの複数回の撮影が繰返されると,対象物OB3の底面を除くすべてが撮影される。一周撮影が完了していないにもかかわらず動画SnMがすでに撮影済みである場合,視認することができる対象物OB3のすべての領域の撮影を終えたことを意味する。この場合,撮影不要である旨をユーザに示すアシスト情報m4が表示画面上に表示され,一連の処理が終了する(ステップ81でYES ,ステップ88,ステップ89でNO,ステップ92,図26)。   When a plurality of clockwise shootings, upward movements, and a plurality of further clockwise shootings are repeated, everything except the bottom surface of the object OB3 is shot. If the moving image SnM has already been photographed even though the one-round photographing has not been completed, it means that photographing of all areas of the object OB3 that can be visually recognized has been finished. In this case, assist information m4 indicating to the user that shooting is not required is displayed on the display screen, and a series of processing ends (YES in step 81, NO in step 88, NO in step 89, step 92, FIG. 26).

アシスト画像An1,An2・・が表示画面上に半透明表示されるので,次に撮影を行うべき位置および移動距離を撮影者は容易に把握することができる。また,ディジタル・スチル・カメラ1を移動させるべき方向を示す矢印A1,A2も表示され,かつ移動を促すアシスト情報m2も表示されるので,移動方向について撮影者に対して分かりやすくアシストが行われる。一周撮影完了時にその旨を表すアシスト情報m2が表示され,さらに全領域の撮影を終えたことを表すアシスト情報m3も表示されるので,無駄な撮影を回避することができる。   Since the assist images An1, An2,... Are translucently displayed on the display screen, the photographer can easily grasp the position and moving distance at which the next photographing should be performed. In addition, arrows A1 and A2 indicating the direction in which the digital still camera 1 should be moved are also displayed, and assist information m2 that prompts the movement is also displayed, so that the photographer can easily assist in the direction of movement. . Assist information m2 indicating that the one-round shooting has been completed is displayed, and assist information m3 indicating that the shooting of all areas has been completed is also displayed, so that unnecessary shooting can be avoided.

上述した第2実施例では,対象物OB3を中心にしてその回りをディジタル・スチル・カメラ1を移動させならがら複数回撮影する例を説明したが,もちろん,ディジタル・スチル・カメラ1を中心してその周囲の景色等を撮影する場合であっても,第2実施例は適用することができる。   In the second embodiment described above, an example has been described in which the digital still camera 1 is moved around the object OB3 while moving around it, but of course the digital still camera 1 is the center. The second embodiment can be applied even when shooting the surrounding scenery.

1 ディジタル・スチル・カメラ
2 CPU
3 操作器
15 固体撮像素子
22 メイン・メモリ
23 ディジタル信号処理回路
27 メモリ・カード
28 表示制御回路
29 表示装置
1 Digital still camera 2 CPU
3 Controller
15 Solid-state image sensor
22 Main memory
23 Digital signal processing circuit
27 Memory card
28 Display control circuit
29 Display device

Claims (15)

対象物を撮像し,撮像によって得られる画像データを出力する撮像手段,
上記撮像手段から一定周期で出力される画角決定用の動画データによって表される動画を表示装置の表示画面上に表示する動画表示制御手段,
上記撮像手段によって異なる視点から撮像され,かつ少なくとも一部分が共通する複数の画像のそれぞれについて,他の画像に現れていないオクルージョン領域を検出するオクルージョン領域検出手段,
上記複数の画像のうちの一つを着目画像として,上記オクルージョン領域検出手段によって検出された上記着目画像中のオクルージョン領域に対応する画像領域を,上記動画から検出するオクルージョン対応領域検出手段,および
上記オクルージョン対応領域検出手段によって検出されたオクルージョン対応領域を,上記動画中に表示するオクルージョン対応領域表示制御手段,
を備える撮像装置。
Imaging means for imaging an object and outputting image data obtained by imaging;
Moving image display control means for displaying a moving image represented by moving image data for determining an angle of view output from the imaging means at a fixed period on a display screen of a display device;
An occlusion area detecting means for detecting an occlusion area not appearing in another image for each of a plurality of images taken from different viewpoints by the imaging means and having at least a part in common;
An occlusion corresponding area detecting means for detecting an image area corresponding to an occlusion area in the noted image detected by the occlusion area detecting means as one of the plurality of images as a noticed image; Occlusion correspondence area display control means for displaying the occlusion correspondence area detected by the occlusion correspondence area detection means in the moving image,
An imaging apparatus comprising:
上記複数の画像のうちのいずれか一つを上記着目画像に決定する着目画像決定手段を備え,
上記オクルージョン領域検出手段は,
上記着目画像決定手段によって決定された着目画像についてのオクルージョン領域を検出するものである,
請求項1に記載の撮像装置。
A focused image determining means for determining any one of the plurality of images as the focused image;
The occlusion area detection means is:
The occlusion area for the target image determined by the target image determination means is detected.
The imaging device according to claim 1.
上記着目画像決定手段は,
先に撮像された画像から後に撮像された画像の順番に,上記複数の画像のそれぞれを順次上記着目画像として決定するものである,
請求項2に記載の撮像装置。
The focused image determining means is
Each of the plurality of images is sequentially determined as the image of interest in the order of an image captured first to an image captured later.
The imaging device according to claim 2.
上記着目画像決定手段は,
上記オクルージョン領域検出手段によって上記着目画像中のオクルージョン領域が検出されなかった場合に,上記着目画像とされている画像の次に撮像された画像を,上記着目画像とするものである,
請求項3に記載の撮像装置。
The focused image determining means is
When the occlusion region in the image of interest is not detected by the occlusion region detection means, the image taken next to the image that is the image of interest is the image of interest.
The imaging device according to claim 3.
上記オクルージョン領域検出手段は,
上記撮像手段によって一の視点から撮像された画像のみが存在し,視点を異ならせて撮像される他の画像が存在しない場合には,上記一の視点から撮像された画像の全領域をオクルージョン領域とするものである,
請求項1に記載の撮像装置。
The occlusion area detection means is:
If there is only an image captured from one viewpoint by the imaging means and there is no other image captured from a different viewpoint, the entire area of the image captured from the one viewpoint is the occlusion area. Is,
The imaging device according to claim 1.
上記オクルージョン領域検出手段は,
上記着目画像とそれ以外の画像のそれぞれとを用いて検出される複数のオクルージョン領域の論理積領域を,上記着目画像についてのオクルージョン領域とするものである,
請求項1から5のいずれか一項に記載の撮像装置。
The occlusion area detection means is:
A logical product area of a plurality of occlusion areas detected using the image of interest and each of the other images is used as an occlusion area for the image of interest.
The imaging device according to any one of claims 1 to 5.
上記オクルージョン対応領域検出手段によって検出されたオクルージョン対応領域の大きさに応じて算出される評価情報を,上記動画中に表示するように上記表示装置を制御する評価情報表示制御手段を備える,
請求項1から6のいずれか一項に記載の撮像装置。
Evaluation information display control means for controlling the display device so as to display the evaluation information calculated according to the size of the occlusion correspondence area detected by the occlusion correspondence area detection means in the moving image,
The imaging device according to any one of claims 1 to 6.
所定の回り方向に沿う位置移動をしながら被写体を撮像し,一周撮像を終えると所定の高さ方向に高さ位置を移動させて,再びその高さ位置で上記回り方向に沿う位置移動をしながら上記被写体を撮像する撮像装置において,
上記被写体を撮像することによって得られる複数の被写体像を表す画像データを出力する撮像手段,
上記撮像手段から一定周期で出力される画角決定用の動画データによって表される動画を表示装置の表示画面上に表示する動画表示制御手段,
上記回り方向に沿う一周撮像が完了したかどうかを判断する一周撮像完了判断手段,および
上記一周撮像完了手段によって一周撮像が完了していないと判断された場合には上記所定の回り方向と逆方向に位置移動させた前駒画像の一部を上記動画上に半透明表示し,一周撮像が完了したと判断された場合には上記所定の高さ方向と逆方向に位置移動させた一周始め画像の一部を上記動画上に半透明表示するアシスト画像表示手段,
を備えた撮像装置。
The subject is imaged while moving the position along a predetermined rotation direction, and once the round-trip imaging is completed, the height position is moved in a predetermined height direction, and the position movement along the rotation direction is performed again at the height position. However, in an imaging device for imaging the subject,
Imaging means for outputting image data representing a plurality of subject images obtained by imaging the subject;
Moving image display control means for displaying a moving image represented by moving image data for determining an angle of view output from the imaging means at a fixed period on a display screen of a display device;
A round-trip imaging completion judging means for judging whether round-trip imaging along the round direction is completed, and a reverse direction to the predetermined round-trip direction when the round-trip imaging completion means judges that round trip imaging is not completed A part of the previous frame image moved to the semi-transparent position is displayed on the moving image, and when it is determined that one-round imaging has been completed, the first circle starting image moved in the direction opposite to the predetermined height direction. Assist image display means for semi-transparently displaying a part of the image on the video,
An imaging apparatus comprising:
上記一周撮像完了判断手段は,上記一周始め画像と一致する動画が撮像されたときに一周撮像の完了を判断するものである,
請求項8に記載の撮像装置。
The one-round imaging completion judging means is for judging completion of one-round imaging when a moving image matching the image at the start of the first round is taken.
The imaging device according to claim 8.
上記一周撮像完了判断手段によって一周撮像の完了が判断された場合に,一周撮像が完了したことを表す一周撮像完了アシスト情報を上記動画上に表示する一周撮像完了アシスト情報表示制御手段を備える,
請求項8または9に記載の撮像装置。
A round-trip imaging completion assist information display control unit for displaying round-trip imaging completion assist information indicating completion of round-trip imaging on the video when the round-trip imaging completion judging section determines completion of round-trip imaging;
The imaging device according to claim 8 or 9.
被写体までの距離または画角が変動したかどうかを判断する変動判断手段,および
上記変動判断手段によって上記距離または画角が変動したことが判断された場合に,上記変動を解消する方向への撮像位置の移動を促すアシスト情報を上記動画上に表示する変動アシスト情報表示制御手段,
を備える請求項8から10のいずれか一項に記載の撮像装置。
Fluctuation determining means for determining whether or not the distance to the subject or the angle of view has changed, and imaging in a direction that eliminates the fluctuation when the distance or angle of view is determined to have changed by the fluctuation determining means Fluctuation assist information display control means for displaying assist information for prompting position movement on the moving image,
The imaging device according to any one of claims 8 to 10.
撮像手段が,対象物を撮像して撮像によって得られる画像データを出力し,
動画表示制御手段が,上記撮像手段から一定周期で出力される画角決定用の動画データによって表される動画を表示画面上に表示するように表示装置を制御し,
オクルージョン領域検出手段は,上記撮像手段によって異なる視点から撮像され,かつ少なくとも一部分が共通する複数の画像のそれぞれについて,他の画像に現れていないオクルージョン領域を検出し,
オクルージョン対応領域検出手段が,上記複数の画像のうちの一つを着目画像とし,上記オクルージョン領域検出手段によって検出された上記着目画像中のオクルージョン領域に対応する画像領域を,上記動画から検出し,
オクルージョン対応領域表示制御手段が,上記オクルージョン対応領域検出手段によって検出されたオクルージョン対応領域を,上記動画中に表示するように表示装置を制御する,
撮像装置の動作制御方法。
The imaging means images the object and outputs image data obtained by imaging,
The moving image display control means controls the display device so as to display the moving image represented by the moving image data for determining the angle of view output from the imaging means at a constant cycle on the display screen
The occlusion area detecting means detects an occlusion area that is not captured in other images for each of a plurality of images that are imaged from different viewpoints by the imaging means and at least partially in common,
An occlusion correspondence area detecting means detects one of the plurality of images as a noticed image, and detects an image area corresponding to the occlusion area in the noticed image detected by the occlusion area detecting means from the moving image;
The occlusion correspondence area display control means controls the display device to display the occlusion correspondence area detected by the occlusion correspondence area detection means in the moving image;
An operation control method for an imaging apparatus.
所定の回り方向に沿う位置移動をしながら被写体を撮像し,一周撮像を終えると所定の高さ方向に高さ位置を移動させて,再びその高さ位置で上記回り方向に沿う位置移動をしながら上記被写体を撮像する撮像装置の動作制御方法において,
撮像手段が,上記被写体を撮像することによって得られる複数の被写体像を表す画像データを出力し,
動画表示制御手段が,上記撮像手段から一定周期で出力される画角決定用の動画データによって表される動画を表示装置の表示画面上に表示し,
一周撮像完了判断手段が,上記回り方向に沿う一周撮像が完了したかどうかを判断し,
アシスト画像表示手段が,上記一周撮像完了手段によって一周撮像が完了していないと判断された場合には上記所定の回り方向と逆方向に位置移動させた前駒画像の一部を上記動画上に半透明表示し,一周撮像が完了したと判断された場合には上記所定の高さ方向と逆方向に位置移動させた一周始め画像の一部を上記動画上に半透明表示する,
撮像装置の動作制御方法。
The subject is imaged while moving the position along a predetermined rotation direction, and once the round-trip imaging is completed, the height position is moved in a predetermined height direction, and the position movement along the rotation direction is performed again at the height position. However, in the operation control method of the imaging device for imaging the subject,
The imaging means outputs image data representing a plurality of subject images obtained by imaging the subject,
The moving image display control means displays on the display screen of the display device a moving image represented by moving image data for determining an angle of view that is output from the imaging means at a constant cycle.
A round-trip imaging completion judging means judges whether round-trip imaging along the rotation direction is completed,
When the assist image display means determines that the round imaging has not been completed by the round imaging completion means, a part of the previous frame image moved in the direction opposite to the predetermined rotation direction is displayed on the moving image. Semi-transparent display is performed, and when it is determined that one-round imaging has been completed, a part of the first image that has been moved in the direction opposite to the predetermined height direction is displayed semi-transparently on the moving image.
An operation control method for an imaging apparatus.
対象物を撮像し,撮像によって得られる画像データを出力する撮像手段,および上記撮像手段から一定周期で出力される画角決定用の動画データによって表される動画を表示装置の表示画面上に表示する動画表示制御手段を備える撮像装置のコンピュータを制御するプログラムであって,
上記撮像手段によって異なる視点から撮像され,かつ少なくとも一部分が共通する複数の画像のそれぞれについて,他の画像に現れていないオクルージョン領域を検出させ,
上記複数の画像のうちの一つを着目画像として,検出された上記着目画像中のオクルージョン領域に対応する画像領域を上記動画から検出させ,
検出された上記オクルージョン対応領域を上記動画中に表示させるように,撮像装置のコンピュータを制御する,プログラム。
An image pickup means for picking up an image of an object and outputting image data obtained by the image pickup, and a moving picture represented by moving picture data for determining an angle of view outputted from the image pickup means at a fixed cycle is displayed on a display screen of a display A program for controlling a computer of an image pickup apparatus including a moving image display control means,
For each of a plurality of images captured from different viewpoints by the imaging means and having at least a part in common, an occlusion region that does not appear in other images is detected,
One of the plurality of images as a target image, and an image region corresponding to the occlusion region in the detected target image is detected from the moving image,
A program for controlling the computer of the imaging apparatus so that the detected occlusion corresponding area is displayed in the moving image.
所定の回り方向に沿う位置移動をしながら被写体を撮像し,一周撮像を終えると所定の高さ方向に高さ位置を移動させて,再びその高さ位置で上記回り方向に沿う位置移動をしながら上記被写体を撮像する撮像装置のコンピュータを制御するプログラムであって,
上記撮像装置は,上記被写体を撮像することによって得られる複数の被写体像を表す画像データを出力する撮像手段,および上記撮像手段から一定周期で出力される画角決定用の動画データによって表される動画を表示装置の表示画面上に表示する動画表示制御手段を備えたものであり,
上記回り方向に沿う一周撮像が完了したかどうかを判断させ,
一周撮像が完了していないと判断された場合には上記所定の回り方向と逆方向に位置移動させた前駒画像の一部を上記動画上に半透明表示し,一周撮像が完了したと判断された場合には上記所定の高さ方向と逆方向に位置移動させた一周始め画像の一部を上記動画上に半透明表示させるように,上記撮像装置のコンピュータを制御するプログラム。
The subject is imaged while moving the position along a predetermined rotation direction, and once the round-trip imaging is completed, the height position is moved in a predetermined height direction, and the position movement along the rotation direction is performed again at the height position. A program for controlling a computer of an imaging apparatus for imaging the subject,
The imaging device is represented by an imaging unit that outputs image data representing a plurality of subject images obtained by imaging the subject, and moving image data for determining an angle of view that is output from the imaging unit at a constant cycle. Provided with a moving image display control means for displaying a moving image on a display screen of a display device;
Determine whether or not the round imaging along the above direction is complete,
If it is determined that the round imaging has not been completed, a part of the previous frame image moved in the direction opposite to the predetermined rotation direction is displayed semi-transparently on the moving image, and it is determined that the round imaging has been completed. A program for controlling the computer of the imaging apparatus so that a part of the first image that has been moved in the direction opposite to the predetermined height direction is displayed semi-transparently on the moving image.
JP2010148534A 2010-06-30 2010-06-30 Imaging device, operation control method for imaging device, and program for imaging device Pending JP2012015674A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010148534A JP2012015674A (en) 2010-06-30 2010-06-30 Imaging device, operation control method for imaging device, and program for imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010148534A JP2012015674A (en) 2010-06-30 2010-06-30 Imaging device, operation control method for imaging device, and program for imaging device

Publications (1)

Publication Number Publication Date
JP2012015674A true JP2012015674A (en) 2012-01-19

Family

ID=45601614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010148534A Pending JP2012015674A (en) 2010-06-30 2010-06-30 Imaging device, operation control method for imaging device, and program for imaging device

Country Status (1)

Country Link
JP (1) JP2012015674A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014055776A (en) * 2012-09-11 2014-03-27 Keyence Corp Measurement microscope device, measurement microscope device operation pogram and computer readable recording medium
WO2014171418A1 (en) * 2013-04-19 2014-10-23 凸版印刷株式会社 Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
WO2014171438A1 (en) * 2013-04-19 2014-10-23 凸版印刷株式会社 Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
JP2017046106A (en) * 2015-08-25 2017-03-02 オリンパス株式会社 Imaging apparatus, imaging method, and imaging program
WO2017126060A1 (en) * 2016-01-20 2017-07-27 三菱電機株式会社 Three-dimensional measurement device and measurement assistance processing method for same
WO2020009948A1 (en) * 2018-07-05 2020-01-09 Fyusion, Inc. Providing recording guidance in generating a multi-view interactive digital media representation
WO2020084894A1 (en) * 2018-10-24 2020-04-30 ソニー株式会社 Multi-camera system, control value calculation method and control device
US10665024B2 (en) 2016-12-12 2020-05-26 Fyusion, Inc. Providing recording guidance in generating a multi-view interactive digital media representation
JP2020088646A (en) * 2018-11-27 2020-06-04 凸版印刷株式会社 Three-dimensional shape model generation support device, three-dimensional shape model generation support method, and program
JP2020113843A (en) * 2019-01-09 2020-07-27 凸版印刷株式会社 Image capturing support apparatus and image capturing support method
JP2020161892A (en) * 2019-03-25 2020-10-01 シャープ株式会社 Electronic device control devices, control methods, and programs.
JP2022068472A (en) * 2020-10-22 2022-05-10 ヤフー株式会社 Information processing program, terminal device, and information processing method
CN118429884A (en) * 2024-04-19 2024-08-02 南京霸罗白园林绿化有限公司 Lighting fixture occlusion status extraction system

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014055776A (en) * 2012-09-11 2014-03-27 Keyence Corp Measurement microscope device, measurement microscope device operation pogram and computer readable recording medium
WO2014171418A1 (en) * 2013-04-19 2014-10-23 凸版印刷株式会社 Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
WO2014171438A1 (en) * 2013-04-19 2014-10-23 凸版印刷株式会社 Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
CN105143816A (en) * 2013-04-19 2015-12-09 凸版印刷株式会社 Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
JPWO2014171438A1 (en) * 2013-04-19 2017-02-23 凸版印刷株式会社 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
US9704255B2 (en) 2013-04-19 2017-07-11 Toppan Printing Co., Ltd. Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
JP2017046106A (en) * 2015-08-25 2017-03-02 オリンパス株式会社 Imaging apparatus, imaging method, and imaging program
JPWO2017126060A1 (en) * 2016-01-20 2018-07-05 三菱電機株式会社 Three-dimensional measuring apparatus and measurement support processing method thereof
WO2017126060A1 (en) * 2016-01-20 2017-07-27 三菱電機株式会社 Three-dimensional measurement device and measurement assistance processing method for same
US10665024B2 (en) 2016-12-12 2020-05-26 Fyusion, Inc. Providing recording guidance in generating a multi-view interactive digital media representation
WO2020009948A1 (en) * 2018-07-05 2020-01-09 Fyusion, Inc. Providing recording guidance in generating a multi-view interactive digital media representation
WO2020084894A1 (en) * 2018-10-24 2020-04-30 ソニー株式会社 Multi-camera system, control value calculation method and control device
JP2020088646A (en) * 2018-11-27 2020-06-04 凸版印刷株式会社 Three-dimensional shape model generation support device, three-dimensional shape model generation support method, and program
JP2020113843A (en) * 2019-01-09 2020-07-27 凸版印刷株式会社 Image capturing support apparatus and image capturing support method
JP7286968B2 (en) 2019-01-09 2023-06-06 凸版印刷株式会社 Imaging support device and imaging support method
JP2020161892A (en) * 2019-03-25 2020-10-01 シャープ株式会社 Electronic device control devices, control methods, and programs.
JP2022068472A (en) * 2020-10-22 2022-05-10 ヤフー株式会社 Information processing program, terminal device, and information processing method
CN118429884A (en) * 2024-04-19 2024-08-02 南京霸罗白园林绿化有限公司 Lighting fixture occlusion status extraction system

Similar Documents

Publication Publication Date Title
JP2012015674A (en) Imaging device, operation control method for imaging device, and program for imaging device
JP5999336B2 (en) Imaging apparatus, imaging processing method, and program
JP4985808B2 (en) Imaging apparatus and program
JP5163676B2 (en) Imaging apparatus, imaging method, and program
JP5377768B2 (en) Image processing method and apparatus
JP5514959B2 (en) Panorama image generation method and imaging apparatus
JP5127787B2 (en) Compound eye photographing apparatus and control method thereof
US20100321470A1 (en) Imaging apparatus and control method therefor
JP5096048B2 (en) Imaging apparatus, stereoscopic image reproduction apparatus, and stereoscopic image reproduction program
JP2013529864A (en) Formation of video with perceived depth
JP2013537728A (en) Video camera providing video with perceived depth
JP4692849B2 (en) Stereoscopic image recording apparatus and stereoscopic image recording method
JP2009225072A (en) Imaging apparatus
WO2012036019A1 (en) Monocular 3d-imaging device, shading correction method for monocular 3d-imaging device, and program for monocular 3d-imaging device
JP5526233B2 (en) Stereoscopic image photographing apparatus and control method thereof
US20120162453A1 (en) Image pickup apparatus
JP4565909B2 (en) camera
JP5655804B2 (en) Imaging apparatus and program
JP5896102B2 (en) Imaging apparatus, imaging control method, and program
JP2010136058A (en) Electronic camera and image processing program
JP2010114577A (en) Imaging apparatus, image processor, control method and image processing method of imaging apparatus
JP6257260B2 (en) Imaging apparatus and control method thereof
JP3858133B2 (en) Imaging method and imaging apparatus
JP2013175805A (en) Display device and image pickup device
JP2014215304A (en) Imaging device