[go: up one dir, main page]

JP2012053113A - Image pickup device, three-dimensional image generation system, and three-dimensional image generation program - Google Patents

Image pickup device, three-dimensional image generation system, and three-dimensional image generation program Download PDF

Info

Publication number
JP2012053113A
JP2012053113A JP2010193394A JP2010193394A JP2012053113A JP 2012053113 A JP2012053113 A JP 2012053113A JP 2010193394 A JP2010193394 A JP 2010193394A JP 2010193394 A JP2010193394 A JP 2010193394A JP 2012053113 A JP2012053113 A JP 2012053113A
Authority
JP
Japan
Prior art keywords
imaging
dimensional image
cooperative
subject
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010193394A
Other languages
Japanese (ja)
Inventor
Takeo Motohashi
武男 本橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010193394A priority Critical patent/JP2012053113A/en
Publication of JP2012053113A publication Critical patent/JP2012053113A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

【課題】手軽に3次元画像の生成を行うことが可能な撮像装置、3次元画像生成システム、及び3次元画像生成プログラムを提供する。
【解決手段】カメラは、協調撮像可能範囲内に他のカメラが位置しているか否かを判定する第1判定手段と、該第1判定手段により他の撮像装置が協調撮像可能範囲内に位置していると判定された場合に、カメラによって撮像された被写体の一つの2次元画像と協調撮像可能範囲内に位置する他のカメラによって撮像された被写体の他の2次元画像とに基づいて被写体の3次元画像が生成可能であるか否かを判定する第2判定手段と、該第2判定手段により被写体の3次元画像が生成可能であると判定された場合に、3次元画像の画像データを生成する画像データ生成手段とを備える。
【選択図】図2
An imaging device, a three-dimensional image generation system, and a three-dimensional image generation program capable of easily generating a three-dimensional image are provided.
A camera includes a first determination unit that determines whether or not another camera is positioned within the cooperative imaging range, and the other imaging device is positioned within the cooperative imaging range by the first determination unit. The subject based on one two-dimensional image of the subject imaged by the camera and another two-dimensional image of the subject imaged by another camera located within the cooperative imaging range Second determination means for determining whether or not a three-dimensional image of the subject can be generated, and image data of the three-dimensional image when the second determination means determines that a three-dimensional image of the subject can be generated. Image data generating means for generating
[Selection] Figure 2

Description

本発明は、撮像装置、3次元画像生成システム、及び3次元画像生成プログラムに関する。   The present invention relates to an imaging device, a three-dimensional image generation system, and a three-dimensional image generation program.

従来、2台のカメラ付き携帯端末で被写体をそれぞれ撮影し、その撮影した画像に基づいて3次元画像を生成する3次元画像生成システムが知られている(例えば、特許文献1参照)。すなわち、特許文献1の3次元画像生成システムでは、3次元画像生成用の台座に2台のカメラ付き携帯端末を設置した状態で被写体の撮影を行い、得られた複数の画像から3次元画像を生成している。   2. Description of the Related Art Conventionally, a three-dimensional image generation system that captures a subject with two portable terminals with cameras and generates a three-dimensional image based on the captured images is known (see, for example, Patent Document 1). That is, in the three-dimensional image generation system of Patent Document 1, a subject is photographed with two camera-equipped mobile terminals installed on a pedestal for generating a three-dimensional image, and a three-dimensional image is obtained from the obtained plurality of images. Is generated.

特開2002−27495号公報JP 2002-27495 A

ところで、特許文献1の3次元画像生成システムでは、3次元画像の生成に用いる画像を得るための被写体の撮影時に、複数のカメラを一定の位置関係に設定する3次元画像生成用の台座を必要としていた。そのため、手軽に3次元画像の生成を行うことができないという問題があった。   By the way, the 3D image generation system of Patent Document 1 requires a 3D image generation pedestal that sets a plurality of cameras in a fixed positional relationship when photographing a subject for obtaining an image used for generating a 3D image. I was trying. For this reason, there is a problem that it is not possible to easily generate a three-dimensional image.

本発明は、このような事情に鑑みてなされたものであり、その目的は、手軽に3次元画像の生成を行うことが可能な撮像装置、3次元画像生成システム、及び3次元画像生成プログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide an imaging device, a three-dimensional image generation system, and a three-dimensional image generation program that can easily generate a three-dimensional image. It is to provide.

上記目的を達成するために、本発明の撮像装置は、他の撮像装置と互いに通信することで協調して被写体を撮像可能な撮像装置であって、前記他の撮像装置との間で協調して前記被写体を撮像可能な範囲である協調撮像可能範囲内に前記他の撮像装置が位置しているか否かを判定する第1判定手段と、該第1判定手段により前記他の撮像装置が前記協調撮像可能範囲内に位置していると判定された場合に、前記撮像装置によって撮像された前記被写体の一つの2次元画像と前記協調撮像可能範囲内に位置する前記他の撮像装置によって撮像された前記被写体の他の2次元画像とに基づいて前記被写体の3次元画像が生成可能であるか否かを判定する第2判定手段と、該第2判定手段により前記被写体の3次元画像が生成可能であると判定された場合に、前記3次元画像の画像データを生成する画像データ生成手段とを備えたことを要旨とする。   In order to achieve the above object, an imaging apparatus of the present invention is an imaging apparatus capable of cooperatively imaging a subject by communicating with another imaging apparatus, and cooperates with the other imaging apparatus. A first determination unit that determines whether or not the other imaging device is located within a cooperative imaging possible range that is a range in which the subject can be imaged, and the first imaging unit causes the other imaging device to When it is determined that the image is located within the cooperative image pickup possible range, the image is picked up by one other two-dimensional image of the subject imaged by the image pickup device and the other image pickup device located within the cooperative image pickup range. A second determination unit that determines whether or not a three-dimensional image of the subject can be generated based on another two-dimensional image of the subject, and the second determination unit generates a three-dimensional image of the subject. Determined to be possible When, and spirit that an image data generation means for generating image data of the three-dimensional image.

また、本発明の撮像装置は、前記他の撮像装置との間で前記協調撮像を行うことが可能であることを示唆する協調撮像可能示唆情報を通信可能な通信手段を備えたことを要旨とする。   Further, the imaging apparatus of the present invention includes a communication unit capable of communicating cooperative imaging possible suggestion information that suggests that the cooperative imaging can be performed with the other imaging apparatus. To do.

また、本発明の撮像装置は、前記他の撮像装置との間で前記協調撮像を行う際に、該他の撮像装置と前記協調撮像のための撮像条件を合わせる撮像条件整合手段を備えたことを要旨とする。   Further, the imaging apparatus of the present invention includes an imaging condition matching unit that matches the imaging conditions for the cooperative imaging with the other imaging apparatus when performing the cooperative imaging with the other imaging apparatus. Is the gist.

また、本発明の撮像装置は、前記他の撮像装置との間で前記協調撮像を行う際に、該他の撮像装置が撮像している前記被写体のスルー画像を表示画面に表示する表示手段を備えたことを要旨とする。   The imaging apparatus according to the present invention further includes display means for displaying a through image of the subject captured by the other imaging apparatus on a display screen when performing the cooperative imaging with the other imaging apparatus. The summary is provided.

また、本発明の撮像装置において、前記表示手段は、前記他の撮像装置との間で前記協調撮像を行う際に、該他の撮像装置との画角のずれ量を前記表示画面に表示することを要旨とする。   In the imaging device of the present invention, the display unit displays the amount of angle of view deviation from the other imaging device on the display screen when performing the cooperative imaging with the other imaging device. This is the gist.

また、本発明の撮像装置において、前記画像データ生成手段は、前記第2判定手段により前記被写体の3次元画像が生成可能でないと判定された場合に、前記一つの2次元画像の画像データと前記他の2次元画像の画像データを生成することを要旨とする。   In the imaging apparatus of the present invention, the image data generation unit may determine the image data of the one two-dimensional image and the image data when the second determination unit determines that the three-dimensional image of the subject cannot be generated. The gist is to generate image data of another two-dimensional image.

本発明の3次元画像生成システムは、互いに通信することで協調して被写体を撮像可能な複数の撮像装置と、前記各撮像装置間で協調して前記被写体を撮像可能な範囲である協調撮像可能範囲内に前記各撮像装置のうちの少なくとも2つが位置しているか否かを判定する第1判定手段と、該第1判定手段により前記各撮像装置のうちの少なくとも2つが前記協調撮像可能範囲内に位置していると判定された場合に、前記協調撮像可能範囲内に位置する各撮像装置によってそれぞれ撮像された前記被写体の各2次元画像に基づいて3次元画像が生成可能であるか否かを判定する第2判定手段と、該第2判定手段により前記3次元画像が生成可能であると判定された場合に、前記3次元画像の画像データを生成する画像データ生成手段とを備えたことを要旨とする。   The three-dimensional image generation system according to the present invention is capable of cooperative imaging in which a plurality of imaging devices capable of imaging a subject in cooperation by communicating with each other and a range in which the subject can be imaged in cooperation between the imaging devices. First determination means for determining whether or not at least two of the imaging devices are located within a range, and at least two of the imaging devices within the cooperative imaging possible range by the first determination means Whether or not a three-dimensional image can be generated based on each two-dimensional image of the subject imaged by each imaging device located within the cooperative imaging possible range. And a second determination unit that determines whether the three-dimensional image can be generated by the second determination unit, and an image data generation unit that generates image data of the three-dimensional image. The gist of the door.

本発明の3次元画像生成プログラムは、コンピュータに、複数の撮像装置間で協調して被写体を撮像可能な範囲である協調撮像可能範囲内に前記各撮像装置のうちの少なくとも2つが位置しているか否かを判定する第1判定手順と、該第1判定手順により前記各撮像装置のうちの少なくとも2つが前記協調撮像可能範囲内に位置していると判定された場合に、前記協調撮像可能範囲内に位置する各撮像装置によってそれぞれ撮像された前記被写体の各2次元画像に基づいて3次元画像が生成可能であるか否かを判定する第2判定手順と、該第2判定手順により前記3次元画像が生成可能であると判定された場合に、前記3次元画像の画像データを生成する画像データ生成手順とを実行させることを要旨とする。   In the three-dimensional image generation program of the present invention, is at least two of the imaging devices positioned in a cooperative imaging range where the subject can be imaged in cooperation with a plurality of imaging devices in the computer? A first determination procedure for determining whether or not, and when it is determined by the first determination procedure that at least two of the imaging devices are located within the cooperative image capture possible range, the cooperative image capture possible range A second determination procedure for determining whether or not a three-dimensional image can be generated based on each two-dimensional image of the subject imaged by each of the imaging devices located inside, The gist is to execute an image data generation procedure for generating image data of the three-dimensional image when it is determined that a three-dimensional image can be generated.

本発明によれば、手軽に3次元画像の生成を行うことができる。   According to the present invention, a three-dimensional image can be easily generated.

実施形態のデジタルスチルカメラの概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of a digital still camera according to an embodiment. 協調撮像処理ルーチンのフローチャート。The flowchart of a cooperative imaging process routine. 協調撮像条件設定ルーチンのフローチャート。The flowchart of a cooperative imaging condition setting routine. 実施形態において、(a)は2台のカメラが互いにそれらの協調撮像可能範囲外に位置している状態を示す模式図、(b)は2台のカメラが互いにそれらの協調撮像可能範囲内に位置している状態を示す模式図。In an embodiment, (a) is a mimetic diagram showing a state where two cameras are mutually located outside their cooperative image pickup possible range, and (b) is a case where two cameras are mutually within their cooperative image pickup possible range. The schematic diagram which shows the state located. 2台のカメラ間で互いのモニタの一部に相手のスルー画像を表示させるときの状態を示す模式図。The schematic diagram which shows a state when displaying the other party's through image on a part of mutual monitor between two cameras. 2台のカメラ間で互いのスルー画像が鉛直方向において重なるときの状態を示す模式図。The schematic diagram which shows a state when a mutual through image overlaps in the vertical direction between two cameras. 2台のカメラで被写体を協調撮像する際において、両カメラから被写体までの距離と両カメラの視差角との関係を示す模式図。FIG. 6 is a schematic diagram illustrating a relationship between a distance from both cameras to the subject and a parallax angle between the two cameras when the subject is cooperatively imaged by two cameras. 変更例において、2台のカメラと外部機器とがデータ通信可能に無線接続されている状態を示す模式図。In the example of a change, the schematic diagram which shows the state in which two cameras and external apparatuses are wirelessly connected so that data communication is possible.

以下、本発明を、3次元画像生成システムを構成する撮像装置としてのデジタルスチルカメラ(以下、「カメラ」という。)に具体化した実施形態を図1〜図7に基づいて説明する。   Hereinafter, an embodiment in which the present invention is embodied in a digital still camera (hereinafter referred to as a “camera”) as an imaging apparatus constituting a three-dimensional image generation system will be described with reference to FIGS.

図1に示すように、カメラ11は、ズームレンズなどの複数のレンズからなる撮像レンズ12(図1では1つのレンズのみ図示)と、該撮像レンズ12を通過した被写体光の光量を調整する絞り13と、その絞り13を通過した被写体光を撮像面となる入射側の受光面14aに結像させる撮像素子14とを有している。そして、撮像素子14の出力側には、AFE(Analog Front End)15と画像処理回路16とが接続されると共に、その画像処理回路16に対してMPU(Micro Processing Unit)17がデータバス18を介して接続されている。   As shown in FIG. 1, the camera 11 includes an imaging lens 12 (only one lens is shown in FIG. 1) composed of a plurality of lenses such as a zoom lens, and an aperture for adjusting the amount of subject light that has passed through the imaging lens 12. 13 and an image sensor 14 that forms an image of subject light that has passed through the aperture 13 on an incident-side light receiving surface 14a that serves as an imaging surface. An AFE (Analog Front End) 15 and an image processing circuit 16 are connected to the output side of the image sensor 14, and an MPU (Micro Processing Unit) 17 connects the data processing circuit 18 to the image processing circuit 16. Connected through.

また、MPU17には、カメラ11における各種の制御プログラムを記憶した不揮発性メモリ19、バッファメモリとして機能するRAM20、被写体のスルー画像などを表示する液晶表示画面としてのモニタ21、及び記憶媒体であるメモリカード22を挿脱可能なカードI/F(Inter-Face)23がデータバス18を介して接続されている。   The MPU 17 also includes a nonvolatile memory 19 that stores various control programs in the camera 11, a RAM 20 that functions as a buffer memory, a monitor 21 that is a liquid crystal display screen that displays a through image of a subject, and a memory that is a storage medium. A card I / F (Inter-Face) 23 into which the card 22 can be inserted and removed is connected via the data bus 18.

また、MPU17には、アンテナ24aを介して他のカメラ11や外部機器等との間で画像データなどの通信を行う通信部24、及びカメラ11と被写体との間の距離を測定する距離測定部25がデータバス18を介して接続されている。さらに、カメラ本体11A(図5参照)には、そのカメラ11の使用者により操作されるモード切り替えボタン26a、レリーズボタン26b、十字ボタン26c等からなる操作部26が、MPU17に対して各々の操作信号(モード切替信号や半押し操作信号など)を出力可能に設けられている。   Further, the MPU 17 includes a communication unit 24 that communicates image data and the like with another camera 11 and an external device via the antenna 24a, and a distance measurement unit that measures the distance between the camera 11 and the subject. 25 are connected via the data bus 18. Further, on the camera body 11A (see FIG. 5), an operation unit 26 including a mode switching button 26a, a release button 26b, a cross button 26c, and the like operated by a user of the camera 11 is operated on the MPU 17 respectively. Signals (such as a mode switching signal and a half-press operation signal) can be output.

撮像素子14は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ、又はCCD(Charge Coupled Device)イメージセンサからなっている。撮像素子14は、電子シャッター機能を有すると共に、その受光面14aには多数の受光素子(図示略)が二次元的に配列されている。そして、撮像素子14は、その受光面14aに結像した被写体の像に対応した信号電荷を蓄積した後、その蓄積した信号電荷を画像データの元となる画素信号と呼ばれるアナログ信号でAFE15に出力する。   The image sensor 14 is composed of a complementary metal oxide semiconductor (CMOS) image sensor or a charge coupled device (CCD) image sensor. The imaging element 14 has an electronic shutter function, and a large number of light receiving elements (not shown) are two-dimensionally arranged on the light receiving surface 14a. The image sensor 14 accumulates signal charges corresponding to the image of the subject formed on the light receiving surface 14a, and then outputs the accumulated signal charges to the AFE 15 as an analog signal called a pixel signal that is the source of the image data. To do.

AFE15は、撮像素子14から入力したアナログ信号の画素信号を所定のタイミングでサンプリング(相関二重サンプリング)するとともに、例えばISO感度に基づく所定信号レベルとなるように増幅する信号処理部(図示略)と、その増幅後の画素信号をデジタル信号に変換するA/D変換部(図示略)とを有している。そして、AFE15は、アナログ信号の画素信号をA/D変換部でデジタル化することにより生成した画像データを画像処理回路16に出力する。   The AFE 15 samples an analog pixel signal input from the image sensor 14 at a predetermined timing (correlated double sampling), and amplifies the signal to a predetermined signal level based on, for example, ISO sensitivity (not shown). And an A / D converter (not shown) for converting the amplified pixel signal into a digital signal. The AFE 15 outputs image data generated by digitizing the pixel signal of the analog signal by the A / D conversion unit to the image processing circuit 16.

画像処理回路16は、AFE15から入力した画像データに対して、MPU17からの制御信号に基づき各種の画像処理を施す。そして、画像処理回路16は、そのように画像処理を施した画像データを、RAM20に一旦記憶させると共に、モニタ21に経時的に変化する動画態様のスルー画像として表示させる。また、レリーズボタン26b(図5参照)が全押し操作された場合は、そのときの画像データと対応する画像をモニタ21に確認用画像として表示させる一方、例えばJPEG圧縮のためのフォーマット処理等の所定の画像処理を施した後に、メモリカード22に画像ファイルとして記憶させる。   The image processing circuit 16 performs various image processing on the image data input from the AFE 15 based on a control signal from the MPU 17. Then, the image processing circuit 16 temporarily stores the image data subjected to the image processing in the RAM 20 and displays it on the monitor 21 as a through image in a moving image mode that changes with time. When the release button 26b (see FIG. 5) is fully pressed, the image corresponding to the image data at that time is displayed on the monitor 21 as a confirmation image, while the format processing for JPEG compression, for example, is performed. After performing predetermined image processing, the image data is stored in the memory card 22 as an image file.

不揮発性メモリ19には、3次元画像生成プログラム等を含む各種の制御プログラムの他に、それらのプログラムの実行に際して使用する各種の数値、例えば3次元画像生成プログラムを実行した場合の判定ステップで使用する判定用の閾値M及び閾値N並びに被写体に対するカメラ11の視差角の設定範囲などが記憶されている。   In addition to various control programs including a three-dimensional image generation program and the like, the nonvolatile memory 19 is used in various numerical values used when executing these programs, for example, a determination step when a three-dimensional image generation program is executed. The threshold value M and threshold value N for determination, the setting range of the parallax angle of the camera 11 with respect to the subject, and the like are stored.

また、本実施形態では、MPU17、不揮発性メモリ19、及びRAM20によって制御プログラムを実行するコンピュータとしての制御部30が構成されている。すなわち、制御部30は、MPU17が不揮発性メモリ19に記憶された制御プログラムを実行することで、RAM20を作業領域としてカメラ11における各種の処理動作(例えば撮像処理等)を統括的に制御する。そして、データバス18は、こうした制御部30の制御に伴う各種データの伝送路として機能する。   In the present embodiment, the MPU 17, the nonvolatile memory 19, and the RAM 20 constitute a control unit 30 as a computer that executes a control program. That is, the control unit 30 performs overall control of various processing operations (for example, imaging processing and the like) in the camera 11 by using the RAM 20 as a work area when the MPU 17 executes a control program stored in the nonvolatile memory 19. The data bus 18 functions as a transmission path for various data accompanying the control of the control unit 30.

また、操作部26におけるモード切り替えボタン26aは、カメラ11の動作モードを切り替える場合、例えば2次元画像を生成する通常撮像モードから3次元画像を生成可能とする協調撮像モードに切り替える場合に操作される。また、レリーズボタン26b(図5参照)は、カメラ11の動作モードが撮像モードである場合において被写体を撮像(撮影)するときに押し下げ操作される。そして、このカメラ11では、操作部26のレリーズボタン26b(図5参照)が半押し操作された段階で被写体に対する焦点合わせのためのAF(Auto Focus)処理と露出調整のためのAE(Auto Exposure)処理、撮像する被写体の色を光の種類に応じて見た目に近い色に補正するAWB(Auto White balance)処理などが実行される。そして、その後において、レリーズボタン26bが全押し操作された段階で、2次元画像及び3次元画像などの画像の生成処理が実行されるようになっている。また、十字ボタン26cは、モニタ21上に表示されるカーソル(図示略)を移動させる場合などに操作される。   The mode switching button 26a in the operation unit 26 is operated when the operation mode of the camera 11 is switched, for example, when switching from the normal imaging mode for generating a 2D image to the cooperative imaging mode capable of generating a 3D image. . Also, the release button 26b (see FIG. 5) is pressed down when the subject is imaged (captured) when the operation mode of the camera 11 is the imaging mode. In the camera 11, when the release button 26b (see FIG. 5) of the operation unit 26 is half-pressed, AF (Auto Focus) processing for focusing on the subject and AE (Auto Exposure) for exposure adjustment are performed. ) Processing, AWB (Auto White balance) processing for correcting the color of the subject to be captured to a color close to the appearance according to the type of light, and the like are executed. Thereafter, when the release button 26b is fully pressed, image generation processing such as a two-dimensional image and a three-dimensional image is executed. The cross button 26c is operated to move a cursor (not shown) displayed on the monitor 21.

なお、本実施形態におけるカメラ11は、動作モードが協調撮像モードである場合、他のカメラ11と互いに画像データ等を送受信(通信)することで、同じ被写体を協調して撮像することが可能となっている。すなわち、協調撮像モードにおいては、制御部30の制御に基づき通信部24が各種の情報(例えば、他のカメラ11との間で協調撮像が可能であることを示唆する協調撮像可能示唆情報や、そのカメラ11で撮像した被写体の画像データなど)を外部機器との間で通信する通信手段として機能するようになっている。   Note that when the operation mode is the cooperative imaging mode, the camera 11 according to the present embodiment can image the same subject in cooperation by transmitting and receiving (communication) image data and the like with the other cameras 11. It has become. That is, in the cooperative imaging mode, based on the control of the control unit 30, the communication unit 24 can provide various types of information (for example, cooperative imaging possible suggestion information that suggests that cooperative imaging with other cameras 11 is possible, The image data of the subject imaged by the camera 11) functions as communication means for communicating with an external device.

また、この場合において、通信部24から発信される各種の情報の信号レベル(すなわち、信号電波としての強弱レベル)は、操作部26(例えば十字ボタン26cなど)の操作を通じてカメラ11の使用者により設定変更可能とされている。ここで、通信部24から発信される情報の信号レベルが相対的に強く設定された場合には、他のカメラ11と通信可能な通信可能範囲が相対的に広くなる。その結果、この通信可能範囲以下の範囲として設定される協調撮像可能範囲、すなわち、他のカメラ11との間で協調して同じ被写体を撮像可能な範囲も、相対的に広くなる。その逆に、通信部24から発信される情報の信号レベルが相対的に弱く設定された場合には、通信可能範囲及び他のカメラ11との協調撮像可能範囲は相対的に狭くなる。なお、この信号レベルの強弱程度は、カメラ11の電池消耗度や互いに通信する画像データの情報量などを勘案して使用者が適宜に設定する。   In this case, the signal level of various information transmitted from the communication unit 24 (that is, the strength level as a signal radio wave) is determined by the user of the camera 11 through the operation of the operation unit 26 (for example, the cross button 26c). The setting can be changed. Here, when the signal level of the information transmitted from the communication unit 24 is set to be relatively strong, the communicable range in which communication with the other camera 11 is possible becomes relatively wide. As a result, the cooperative imaging possible range set as a range below this communicable range, that is, the range in which the same subject can be imaged in cooperation with other cameras 11 is also relatively wide. On the contrary, when the signal level of the information transmitted from the communication unit 24 is set to be relatively weak, the communicable range and the cooperative imaging possible range with the other cameras 11 are relatively narrow. The level of the signal level is appropriately set by the user in consideration of the battery consumption level of the camera 11 and the information amount of image data communicated with each other.

また、距離測定部25は、例えば赤外線測距センサなどを含んで構成され、MPU17の制御に基づきカメラ11(特に撮像レンズ12)と被写体との間の距離を測定し、その測定情報をMPU17に入力する。そして、本実施形態では、上記のように構成された複数のカメラ11によって、3次元画像生成システムが構成されている。   The distance measuring unit 25 includes, for example, an infrared distance measuring sensor, measures the distance between the camera 11 (particularly the imaging lens 12) and the subject based on the control of the MPU 17, and sends the measurement information to the MPU 17. input. And in this embodiment, the three-dimensional image generation system is comprised by the some camera 11 comprised as mentioned above.

次に、上記のように構成されたカメラ11を2台協調させて同じ被写体の撮像(撮影)を行って3次元画像を生成する場合に制御部30が実行する協調撮像処理ルーチン(3次元画像生成プログラム)について、図2のフローチャートを参照しながら以下説明する。なお、説明の前提として、同一の被写体を協調撮像する2台のカメラ(自カメラ11と相手カメラ11)の各MPU17は共に協調撮像処理ルーチンを実行しているものとする。   Next, a cooperative imaging processing routine (three-dimensional image) executed by the control unit 30 when two cameras 11 configured as described above are coordinated to capture (photograph) the same subject and generate a three-dimensional image. The generation program will be described below with reference to the flowchart of FIG. As a premise for explanation, it is assumed that the MPUs 17 of the two cameras (the own camera 11 and the counterpart camera 11) that cooperatively image the same subject are both executing the cooperative imaging processing routine.

さて、制御部30は、カメラ11の動作モードが撮像モードである場合において、操作部26のモード切り替えボタン26aが操作されることにより、撮像モードが通常撮像モードから協調撮像モードに切り替えられると、図2のフローチャートに示す協調撮像処理ルーチンを開始する。また、この協調撮像処理ルーチンの開始に伴い、制御部30は、通信部24のアンテナ24aから協調撮像可能示唆情報の信号(以下、この信号のことを「ペアリング信号」という。)を発信させる。   Now, when the operation mode of the camera 11 is the imaging mode, the control unit 30 operates the mode switching button 26a of the operation unit 26 to switch the imaging mode from the normal imaging mode to the cooperative imaging mode. The cooperative imaging process routine shown in the flowchart of FIG. 2 is started. Further, with the start of this cooperative imaging processing routine, the control unit 30 transmits a signal of cooperative imaging possible suggestion information (hereinafter, this signal is referred to as a “pairing signal”) from the antenna 24 a of the communication unit 24. .

そして、先ずステップS11において、制御部30は、ペアリング信号を受信したか否かを判定する。すなわち、自カメラ11以外の他の撮像装置であって協調撮像機能を有する当該他の撮像装置(この場合、他のカメラとなる相手カメラ11)が動作モードを協調撮像モードに切り替えた状態で自カメラ11と通信可能な範囲内に存在しているか否かを判定する。具体的には、制御部30は、通信部24における相手カメラ11からのペアリング信号の電波受信状況から相手カメラ11が通信可能範囲内に位置しているか否かを判定する。ステップS11の判定結果が否定判定である場合、制御部30は、このステップS11の判定を周期的に繰り返す。そして、このステップS11の判定結果が肯定判定になると、制御部30は、その処理を次のステップS12に移行する。   First, in step S11, the control unit 30 determines whether or not a pairing signal has been received. That is, the other imaging apparatus other than the own camera 11 and having the cooperative imaging function (in this case, the other camera 11 serving as another camera) switches itself to the cooperative imaging mode. It is determined whether or not it exists within a range where communication with the camera 11 is possible. Specifically, the control unit 30 determines whether or not the partner camera 11 is located within the communicable range from the radio wave reception status of the pairing signal from the partner camera 11 in the communication unit 24. When the determination result in step S11 is negative, the control unit 30 periodically repeats the determination in step S11. And if the determination result of this step S11 becomes affirmation determination, the control part 30 will transfer the process to following step S12.

そして、次のステップS12において、制御部30は、通信可能の報知を行う。すなわち、制御部30は、自カメラ11と同様に動作モードを協調撮像モードにした他の撮像装置としての相手カメラ11が通信可能範囲内に位置していることを報知するために、自カメラ11のモニタ21に、「通信可能」という文字を表示させる。そして、このステップS12の処理が終了すると、制御部30は、その処理を次のステップS13に移行する。   Then, in the next step S12, the control unit 30 notifies that communication is possible. That is, in order to notify that the counterpart camera 11 as another imaging apparatus having the operation mode set to the cooperative imaging mode is located within the communicable range in the same manner as the own camera 11, Is displayed on the monitor 21. Then, when the process of step S12 ends, the control unit 30 proceeds to the next step S13.

そして、次のステップS13において、制御部30は、通信部24における他のカメラ11からのペアリング信号の信号レベルは閾値レベル以上あるか否かを判定する。すなわち、ペアリング信号の信号レベルが閾値レベル未満である場合には、画像データを含む情報の受信状況に支障がきたして協調撮像が不可能になる可能性がある。そこで、ペアリング信号の信号レベルが画像データを含む情報の受信状況に支障をきたす虞がない所定の閾値レベル以上であるか否かにより、相手カメラ11が協調撮像範囲内に位置しているか否かを判定するようにしているのである。この点で、制御部30は、協調撮像可能範囲内に他の撮像装置(相手カメラ)が位置しているか否かに関する第1判定手順を実行する第1判定手段として機能する。   In step S13, the control unit 30 determines whether the signal level of the pairing signal from the other camera 11 in the communication unit 24 is equal to or higher than the threshold level. That is, when the signal level of the pairing signal is less than the threshold level, there is a possibility that the reception status of information including image data is hindered and cooperative imaging becomes impossible. Therefore, whether or not the counterpart camera 11 is located within the cooperative imaging range depending on whether or not the signal level of the pairing signal is equal to or higher than a predetermined threshold level that does not cause a problem in the reception status of information including image data. It is determined whether or not. In this respect, the control unit 30 functions as a first determination unit that executes a first determination procedure regarding whether or not another imaging device (an opponent camera) is located within the cooperative imaging possible range.

ここで、図4(a)に示すように、両カメラ11の協調撮像可能範囲をそれぞれS1,S2とすると、両カメラ11の協調撮像可能範囲S1,S2が互いに離間した状態から、両カメラ11が移動されて、図4(b)に示すように、両カメラ11の協調撮像可能範囲S1,S2同士が交わった状態となった場合に、ステップS13の判定は肯定判定となる。   Here, as shown in FIG. 4 (a), when the cooperative image pickup possible ranges of both cameras 11 are S1 and S2, respectively, the two cameras 11 are in a state in which the cooperative image pickup possible ranges S1 and S2 of both cameras 11 are separated from each other. Is moved and, as shown in FIG. 4B, when the cooperative imaging possible ranges S <b> 1 and S <b> 2 of both cameras 11 intersect each other, the determination in step S <b> 13 is affirmative.

なお、本明細書では、両カメラ11のうちの一方のカメラ11の協調撮像可能範囲S1に他方のカメラ11における協調撮像可能範囲S2の少なくとも一部が交わることも、一方のカメラ11の協調撮像可能範囲S1内に他方のカメラ11が位置していることに含むものとする。すなわち、両カメラ11が互いに協調して同じ被写体を撮像するための交信を行うことができる位置に該両カメラ11がそれぞれ位置することは、一方のカメラ11の協調撮像可能範囲S1内に他方のカメラ11が位置していることに含まれるものとする。したがって、図4(b)に示すように、両カメラ11のうちの一方のカメラ11の協調撮像可能範囲S1と他方のカメラ11の協調撮像可能範囲S2とが交わった状態では、これら両カメラ11間で互いに協調して被写体を撮像するための交信が可能な状態になっている。   In this specification, it is also possible that at least a part of the cooperative image pickup possible range S2 of the other camera 11 intersects the cooperative image pickup possible range S1 of one camera 11 of the two cameras 11 It is assumed that the other camera 11 is located within the possible range S1. That is, the fact that both cameras 11 are located at positions where both cameras 11 can communicate with each other in order to capture the same subject means that the other camera 11 is within the cooperative imaging possible range S1 of one camera 11. It is assumed that the camera 11 is included. Therefore, as shown in FIG. 4B, in the state where the cooperative imaging possible range S1 of one of the cameras 11 and the cooperative imaging possible range S2 of the other camera 11 intersect, both the cameras 11 The communication for capturing the subject in cooperation with each other is possible.

ステップS13の判定結果が否定判定である場合、制御部30は、このステップS13の判定を周期的に繰り返す。そして、このステップS13の判定結果が肯定判定になると、制御部30は、その処理を次のステップS14に移行する。そして、次のステップS14において、制御部30は、協調撮像可能の報知を行う。すなわち、制御部30は、通信可能範囲内に位置する相手カメラ11が、協調撮像のための画像データを含む情報の送受信に支障をきたさない協調撮像可能範囲内に位置していることを示すために、カメラ11のモニタ21に「協調撮像可能」という文字を表示させる。そして、このステップS14の処理が終了すると、制御部30は、その処理を次のステップS15に移行する。   When the determination result in step S13 is negative, the control unit 30 periodically repeats the determination in step S13. And if the determination result of this step S13 becomes affirmation determination, the control part 30 will transfer the process to following step S14. In the next step S14, the control unit 30 performs notification that cooperative imaging is possible. That is, the control unit 30 indicates that the counterpart camera 11 positioned within the communicable range is positioned within the cooperative image capturing range that does not hinder transmission / reception of information including image data for cooperative imaging. Then, the characters “capable of cooperative imaging” are displayed on the monitor 21 of the camera 11. Then, when the process of step S14 ends, the control unit 30 proceeds to the next step S15.

そして、次のステップS15において、制御部30は、両カメラ11を協調させて同じ被写体を撮像するための協調撮像条件を設定する。この協調撮像条件の設定は、図3に示す協調撮像条件設定ルーチンを実行することにより設定される。そこで次に、図3を参照しながら、この協調撮像条件設定ルーチンについて詳述する。   Then, in the next step S15, the control unit 30 sets cooperative imaging conditions for imaging the same subject by coordinating both cameras 11. The cooperative imaging condition is set by executing a cooperative imaging condition setting routine shown in FIG. Next, the cooperative imaging condition setting routine will be described in detail with reference to FIG.

さて、協調撮像条件設定ルーチンのステップS31において、制御部30は、距離測定部25から送信される信号に基づいて両カメラ11と被写体との距離をそれぞれ算出する。そして、このステップS31の処理が終了すると、制御部30は、その処理を次のステップS32に移行する。そして、次のステップS32において、制御部30は、前のステップS31で算出した両カメラ11と被写体とのそれぞれの距離の差が閾値M以下であるか否かを判定する。すなわち、制御部30は、両カメラ11のうちの一方のカメラ(自カメラ11)から被写体までの距離と両カメラ11のうちの他方のカメラ(相手カメラ11)から被写体までの距離との差が閾値M以下であるか否かを判定する。   In step S31 of the cooperative imaging condition setting routine, the control unit 30 calculates the distance between both the cameras 11 and the subject based on the signal transmitted from the distance measurement unit 25. Then, when the process of step S31 ends, the control unit 30 proceeds to the next step S32. In the next step S32, the control unit 30 determines whether or not the difference between the distances between the two cameras 11 and the subject calculated in the previous step S31 is equal to or less than the threshold value M. That is, the control unit 30 determines the difference between the distance from one camera (the own camera 11) of the two cameras 11 to the subject and the distance from the other camera (the partner camera 11) of the two cameras 11 to the subject. It is determined whether or not the threshold value is equal to or less than M.

ステップS32の判定結果が否定判定である場合、制御部30は、このステップS32の判定を周期的に繰り返す。そして、このステップS32の判定結果が肯定判定になると、制御部30は、その処理を次のステップS33に移行する。なお、閾値Mは、両カメラ11によって撮像されるそれぞれの2次元画像から3次元画像が適度な品質で生成可能な程度の値(例えば30cmなど)に設定される。   When the determination result in step S32 is negative, the control unit 30 periodically repeats the determination in step S32. And if the determination result of this step S32 becomes affirmation determination, the control part 30 will transfer the process to the following step S33. Note that the threshold value M is set to a value (for example, 30 cm) that can generate a three-dimensional image with appropriate quality from the two-dimensional images captured by both cameras 11.

そして、次のステップS33において、制御部30は、両カメラ11のスルー画像に基づいて被写体までの両カメラ11の視差角(輻輳角)を算出する。そして、このステップS33の処理が終了すると、制御部30は、その処理を次のステップS34に移行する。そして、次のステップS34において、制御部30は、前のステップS33で算出した両カメラ11の視差角が設定範囲内にあるか否かを判定する。この設定範囲は、両カメラ11によって撮像されるそれぞれの2次元画像から3次元画像が最適な状態で生成可能な程度の値に設定される。   Then, in the next step S33, the control unit 30 calculates the parallax angle (convergence angle) of both cameras 11 up to the subject based on the through images of both cameras 11. When the process of step S33 ends, the control unit 30 proceeds to the next step S34. Then, in the next step S34, the control unit 30 determines whether or not the parallax angles of both cameras 11 calculated in the previous step S33 are within the setting range. This setting range is set to such a value that a three-dimensional image can be generated in an optimal state from the two-dimensional images captured by both cameras 11.

ここで、一般には、両カメラ11の撮像レンズ12間の距離を人間の左右両眼間の距離(約7cm)にした場合、立体感を得るのに最適な両カメラ11から被写体までの距離は、1〜4mとされている。したがって、図7に示すように、両カメラ11の撮像レンズ12間の距離Aを7cmにすると、両カメラ11から被写体Hまでの距離Bが1mのときの該両カメラ11の視差角Q1は4度になるとともに、両カメラ11から被写体Hまでの距離Cが4mのときの該両カメラ11の視差角Q2は1度になる。こうした理由から、本実施形態における視差角の設定範囲は1〜4度の角度に設定される。逆に、両カメラ11から被写体Hまでの距離が変化した場合でも、両カメラ11の視差角が1〜4度の範囲内に収まるように該両カメラ11の撮像レンズ12間の距離Aを調整することで、最適な3次元画像を生成可能な2次元画像の撮像を行うことができる。   Here, in general, when the distance between the imaging lenses 12 of both cameras 11 is the distance between the left and right eyes of a human (about 7 cm), the distance from both cameras 11 to the subject that is optimal for obtaining a stereoscopic effect is 1 to 4 m. Therefore, as shown in FIG. 7, when the distance A between the imaging lenses 12 of both cameras 11 is 7 cm, the parallax angle Q1 of both cameras 11 when the distance B from both cameras 11 to the subject H is 1 m is 4 The parallax angle Q2 of both cameras 11 is 1 degree when the distance C from both cameras 11 to the subject H is 4 m. For these reasons, the setting range of the parallax angle in this embodiment is set to an angle of 1 to 4 degrees. Conversely, even when the distance from both cameras 11 to the subject H changes, the distance A between the imaging lenses 12 of both cameras 11 is adjusted so that the parallax angle of both cameras 11 falls within the range of 1 to 4 degrees. By doing so, it is possible to capture a two-dimensional image capable of generating an optimal three-dimensional image.

そして、ステップS34の判定結果が否定判定である場合、制御部30は、このステップS34の判定を周期的に繰り返す。そして、このステップS34の判定結果が肯定判定になると、制御部30は、その処理を次のステップS35に移行する。そして、次のステップS35において、制御部30は、両カメラ11の撮像パラメータ(撮像条件)を撮像環境(明るさや光の種類など)に合わせて互いに一致するように調整する。この点で、制御部30は、協調撮像を行う際に他の撮像装置と撮像条件を合わせる撮像条件整合手段として機能する。   And when the determination result of step S34 is negative determination, the control part 30 repeats determination of this step S34 periodically. And if the determination result of this step S34 becomes affirmation determination, the control part 30 will transfer the process to following step S35. In the next step S35, the control unit 30 adjusts the imaging parameters (imaging conditions) of both cameras 11 so as to match each other according to the imaging environment (brightness, type of light, etc.). In this respect, the control unit 30 functions as an imaging condition matching unit that matches imaging conditions with other imaging devices when performing cooperative imaging.

この場合、撮像パラメータとしては、例えば、AF(Auto Focus)、AE(Auto Exposure)、AWB(Auto White balance)、画角、焦点、シャッター速度、静止画の連写コマ速度、動画のフレームレートなどが挙げられる。なお、このステップS35において、制御部30は、両カメラ11のシャッタータイミングが同期するように設定する。そして、このステップS35の処理が終了すると、制御部30は、協調撮像条件設定ルーチンを終了して再び図2の協調撮像処理ルーチンに戻り、その処理を次のステップS16に移行する。   In this case, as imaging parameters, for example, AF (Auto Focus), AE (Auto Exposure), AWB (Auto White balance), angle of view, focus, shutter speed, still image continuous shooting frame speed, moving image frame rate, etc. Is mentioned. In step S35, the control unit 30 sets the shutter timings of both cameras 11 to be synchronized. When the process of step S35 ends, the control unit 30 ends the cooperative imaging condition setting routine, returns to the cooperative imaging process routine of FIG. 2 again, and proceeds to the next step S16.

そして、次のステップS16において、制御部30は、カメラ11のモニタ21の一部に相手カメラ11のモニタ21に表示されているスルー画像を縮小表示させる。すなわち、制御部30は、図5に示すように、カメラ11のモニタ21における右下の一部分に矩形の縮小モニタ部21aを表示させるとともに、その縮小モニタ部21aに相手カメラ11が撮像している被写体のスルー画像を縮小して表示させる。この点で、制御部30及びモニタ21は、表示手段として機能する。   In the next step S <b> 16, the control unit 30 reduces the through image displayed on the monitor 21 of the counterpart camera 11 on a part of the monitor 21 of the camera 11. That is, as shown in FIG. 5, the control unit 30 displays a rectangular reduction monitor unit 21a on a lower right part of the monitor 21 of the camera 11, and the counterpart camera 11 captures an image on the reduction monitor unit 21a. The through image of the subject is reduced and displayed. In this respect, the control unit 30 and the monitor 21 function as display means.

このとき、制御部30は、図6に示すように、両カメラ11のスルー画像(画角)G1,G2同士の鉛直方向におけるずれ量Zも、そのカメラ11のモニタ21に表示させる。そのため、協調撮像モードになっている自カメラ11と相手カメラ11との間では、その時点で撮像している被写体のスルー画像の画像データが互いに送受信されている。なお、図6におけるKは、両カメラ11のスルー画像(画角)G1,G2同士の鉛直方向における重なり部分を示している。そして、このステップS16の処理が終了すると、制御部30は、その処理を次のステップS17に移行する。   At this time, as shown in FIG. 6, the control unit 30 also displays the shift amount Z in the vertical direction between the through images (view angles) G <b> 1 and G <b> 2 of both cameras 11 on the monitor 21 of the camera 11. Therefore, between the own camera 11 and the counterpart camera 11 that are in the cooperative imaging mode, image data of a through image of the subject that is being captured at that time is transmitted and received. 6 indicates an overlapping portion in the vertical direction between the through images (view angles) G1 and G2 of both cameras 11. When the process of step S16 ends, the control unit 30 proceeds to the next step S17.

そして、次のステップS17において、制御部30は、両カメラ11のスルー画像同士の鉛直方向における重なり度合いが閾値N以上であるか否かを判定する。ステップS17の判定結果が否定判定である場合、制御部30は、このステップS17の判定を周期的に繰り返す。そして、このステップS17の判定結果が肯定判定になると、制御部30は、その処理を次のステップS18に移行する。なお、閾値Nは、両カメラ11によって撮像されるそれぞれの2次元画像から3次元画像が適度な大きさで生成可能な程度の値(例えば80%など)に設定される。   In next step S <b> 17, the control unit 30 determines whether or not the degree of overlap between the through images of both cameras 11 in the vertical direction is equal to or greater than a threshold value N. When the determination result of step S17 is negative determination, the control unit 30 periodically repeats the determination of step S17. And if the determination result of this step S17 becomes affirmation determination, the control part 30 will transfer the process to following step S18. Note that the threshold value N is set to a value (for example, 80%) that allows a three-dimensional image to be generated with an appropriate size from the two-dimensional images captured by both cameras 11.

そして、次のステップS18において、制御部30は、協調撮像準備完了の報知を行う。すなわち、制御部30は、両カメラ11が協調して同じ被写体を撮像するための準備が完了したことを示すために、カメラ11のモニタ21に「協調撮像準備完了」という文字を表示させる。そして、このステップS18の処理が終了すると、制御部30は、その処理を次のステップS19に移行する。そして、次のステップS19において、制御部30は、操作部26のレリーズボタン26bが半押しされたか否かを判定する。ステップS19の判定結果が否定判定である場合、制御部30は、このステップS19の判定を周期的に繰り返す。そして、このステップS19の判定結果が肯定判定になると、制御部30は、その処理を次のステップS20に移行する。   In the next step S18, the control unit 30 notifies the completion of cooperative imaging preparation. That is, the control unit 30 displays the characters “Ready for cooperative imaging” on the monitor 21 of the camera 11 in order to indicate that both cameras 11 have completed preparations for cooperative imaging of the same subject. Then, when the process of step S18 is completed, the control unit 30 proceeds to the next step S19. In the next step S19, the control unit 30 determines whether or not the release button 26b of the operation unit 26 is half-pressed. When the determination result of step S19 is negative, the control unit 30 periodically repeats the determination of step S19. And if the determination result of this step S19 becomes affirmation determination, the control part 30 will transfer the process to following step S20.

そして、次のステップS20において、制御部30は、操作部26のレリーズボタン26bが全押しされたか否かを判定する。ステップS20の判定結果が否定判定である場合、制御部30は、このステップS20の判定を周期的に繰り返す。そして、このステップS20の判定結果が肯定判定になると、制御部30は、撮像素子14に撮像処理を実行させ、その撮像処理に基づき生成された画像データをRAM20に一時保存させると共に、その画像データを含む情報を通信部24から外部(相手カメラ11)に発信させた後、その処理を次のステップS21に移行する。   In the next step S20, the control unit 30 determines whether or not the release button 26b of the operation unit 26 is fully pressed. When the determination result of step S20 is negative, the control unit 30 periodically repeats the determination of step S20. If the determination result in step S20 is affirmative, the control unit 30 causes the image sensor 14 to execute an imaging process, temporarily stores image data generated based on the imaging process in the RAM 20, and the image data. Is transmitted from the communication unit 24 to the outside (the partner camera 11), and the process proceeds to the next step S21.

そして、次のステップS21において、制御部30は、前のステップS20で撮像された両カメラ11の2次元画像の画像データ同士を関連づけてRAM20に一時保存する。すなわち、制御部30は、両カメラ11によって撮像された2つの2次元画像のうち、一方(例えば自カメラ11が撮像した2次元画像)の画像データを右目用画像データとするとともに、他方(例えば相手カメラ11が撮像した2次元画像)の画像データを左目用画像データとしてRAM20に一時保存する。そして、このステップS21の処理が終了すると、制御部30は、その処理を次のステップS22に移行する。   Then, in the next step S21, the control unit 30 temporarily stores in the RAM 20 the image data of the two-dimensional images of both cameras 11 captured in the previous step S20 in association with each other. That is, the control unit 30 sets the image data of one (for example, the two-dimensional image captured by the own camera 11) of the two two-dimensional images captured by both the cameras 11 to the right-eye image data and the other (for example, Image data of the two-dimensional image captured by the counterpart camera 11) is temporarily stored in the RAM 20 as left-eye image data. Then, when the process of step S21 ends, the control unit 30 proceeds to the next step S22.

そして、次のステップS22において、制御部30は、前のステップS21でRAM20に一時保存した2つの2次元画像の画像データに基づき3次元画像の画像データを生成可能であるか否かを判定する。すなわち、制御部30は、上記2つの2次元画像の状態(例えば2つの2次元画像の重なり具合や角度など)から判断して、3次元画像の画像データが生成可能であるか否かを判定する。この点で、制御部30は、協調撮像可能範囲内に位置している複数の撮像装置により撮像された各2次元画像に基づき3次元画像が生成可能か否かに関する第2判定手順を実行する第2判定手段として機能する。ステップS22の判定結果が肯定判定である場合、制御部30は、その処理を次のステップS23に移行する。そして、次のステップS23において、制御部30は、先のステップS21でRAM20に一時保存した2つの2次元画像の画像データに基づき3次元画像の画像データを生成すると共に、これを含む3次元画像の画像ファイルを自カメラ11のメモリカード22に保存する。すなわち、制御部30は、上記2つの2次元画像を関連づけして同一ファイルに一体に保存する記録方式(いわゆるマルチピクチャーフォーマット)で3次元画像としてメモリカード22に保存する。この点で、制御部30は、3次元画像の画像データを生成する画像データ生成手順を実行する画像データ生成手段として機能する。   Then, in the next step S22, the control unit 30 determines whether it is possible to generate the image data of the three-dimensional image based on the image data of the two two-dimensional images temporarily stored in the RAM 20 in the previous step S21. . That is, the control unit 30 determines whether or not the image data of the three-dimensional image can be generated by determining from the state of the two two-dimensional images (for example, the overlapping degree or angle of the two two-dimensional images). To do. In this regard, the control unit 30 executes a second determination procedure regarding whether or not a three-dimensional image can be generated based on each two-dimensional image captured by a plurality of imaging devices located within the cooperative image capturing possible range. It functions as a second determination means. If the determination result of step S22 is affirmative, the control unit 30 proceeds to the next step S23. In the next step S23, the control unit 30 generates image data of the three-dimensional image based on the image data of the two two-dimensional images temporarily stored in the RAM 20 in the previous step S21, and includes the three-dimensional image including the three-dimensional image. Are stored in the memory card 22 of the camera 11. That is, the control unit 30 stores the two two-dimensional images in the memory card 22 as a three-dimensional image by a recording method (so-called multi-picture format) in which the two two-dimensional images are associated and stored in the same file. In this respect, the control unit 30 functions as an image data generation unit that executes an image data generation procedure for generating image data of a three-dimensional image.

そして、このステップS23の処理が終了すると、制御部30は、その処理を次のステップS24に移行する。一方、先のステップS22の判定結果が否定判定であった場合は、ステップS23を経由せずに直接にこのステップS24に移行する。そして、このステップS24において、制御部30は、先のステップS21でRAM20に一時保存した2つの2次元画像の各画像データ(右目用画像データと左目用画像データ)をそれぞれ含む2つの2次元画像の画像ファイルそのまま自カメラ11のメモリカード22にそれぞれ保存した後、協調撮像処理ルーチンを終了する。   Then, when the process of step S23 ends, the control unit 30 proceeds to the next step S24. On the other hand, if the determination result of the previous step S22 is negative, the process proceeds directly to step S24 without going through step S23. In step S24, the control unit 30 includes two two-dimensional images each including the image data (right-eye image data and left-eye image data) of the two two-dimensional images temporarily stored in the RAM 20 in the previous step S21. Are stored in the memory card 22 of the camera 11 as they are, and the cooperative imaging processing routine is terminated.

次に、以上のように構成された本実施形態の2台のカメラ11により協調して被写体を撮像する場合の作用について説明する。
なお、説明の前提として、自動車などの展示会場にて、使用者が異なる2台のカメラ11により協調して自動車を被写体として撮像するものとする。さらに、2台のカメラ11は、操作部26におけるモード切り替えボタン26aが操作されたことにより撮像モードは通常撮像モードから協調撮像モードに切り替えられているものとする。
Next, an operation when the subject is imaged in cooperation with the two cameras 11 of the present embodiment configured as described above will be described.
As a premise for explanation, it is assumed that an automobile is imaged as a subject in cooperation with two cameras 11 with different users at an exhibition hall such as an automobile. Further, it is assumed that the imaging mode of the two cameras 11 is switched from the normal imaging mode to the cooperative imaging mode by operating the mode switching button 26a in the operation unit 26.

さて、以上のような前提の下、両カメラ11のモニタ21に「通信可能」という文字が表示された後、カメラ11の使用者同士が近づくと、両カメラ11のモニタ21に「協調撮像可能」という文字が表示される。両使用者がカメラ11を被写体に向けてそれぞれ構えると、両カメラ11のモニタ21に自カメラ11のスルー画像と共に相手カメラ11のスルー画像も表示される。   Under the premise described above, after the characters “communicable” are displayed on the monitors 21 of both cameras 11, when the users of the cameras 11 approach each other, “the cooperative imaging is possible on the monitors 21 of both cameras 11. "Is displayed. When both users hold the camera 11 toward the subject, the through image of the partner camera 11 is displayed together with the through image of the own camera 11 on the monitors 21 of both cameras 11.

そして、両使用者がそれぞれ自分のカメラ11のモニタ21を見ながら、相手のカメラ11との位置を調整するようにそれぞれのカメラ11の位置態様を変更すると、両カメラ11のモニタ21に「協調撮像準備完了」という文字が表示される。そして、両使用者のうちのいずれか一方が自分のカメラ11のレリーズボタン26bを半押しした後に全押しすると、両カメラ11による被写体の協調撮像が行われる。そして、それぞれのカメラ11に両カメラ11で各々撮像された被写体の2次元画像の画像データが保存される。また、この場合の両2次元画像の画像データが3次元画像の画像データとして保存可能なものであれば、両カメラ11の各2次元画像の画像データに基づき3次元画像の画像データが生成され、それを含む3次元画像の画像ファイルが保存される。   Then, when both users change the position mode of each camera 11 so as to adjust the position with the other camera 11 while looking at the monitor 21 of their own camera 11, the “cooperation” is displayed on the monitors 21 of both cameras 11. The text “Ready for imaging” is displayed. When either one of the two users presses the release button 26b of his / her camera 11 halfway and then fully presses it, the two cameras 11 perform cooperative imaging of the subject. Then, the image data of the two-dimensional image of the subject imaged by both cameras 11 is stored in each camera 11. If the image data of both two-dimensional images in this case can be stored as image data of the three-dimensional image, the image data of the three-dimensional image is generated based on the image data of the two-dimensional images of both cameras 11. , An image file of a three-dimensional image including the image file is stored.

以上のような本実施形態によれば、以下のような効果を得ることができる。
(1)いちいち3次元画像生成用の特別な台座などを使うことなく、2台のカメラ11だけで3次元画像を生成することができる。すなわち、2台のカメラ11で協調して被写体をそれぞれ撮像して得られる2つの2次元画像から3次元画像の画像データを生成することができる。したがって、手軽に3次元画像を生成することができる。
According to the present embodiment as described above, the following effects can be obtained.
(1) A three-dimensional image can be generated by only two cameras 11 without using a special pedestal for generating a three-dimensional image. That is, it is possible to generate image data of a three-dimensional image from two two-dimensional images obtained by imaging the subject in cooperation with the two cameras 11. Therefore, a three-dimensional image can be easily generated.

(2)カメラ11は、他(協調相手)のカメラ11との間で協調撮像を行うことが可能であることを示唆する協調撮像可能示唆情報としてのペアリング信号を送受信することにより、協調撮像のために自カメラ11とデータ通信可能な他の撮像装置(相手カメラ11)の存在を知ることができる。したがって、例えば1人で展示会場に行った際に協調して被写体を撮像して3次元画像を生成したい場合に、一緒に協調して被写体を撮像してくれる相手を容易に探すことができる。   (2) The camera 11 performs cooperative imaging by transmitting and receiving a pairing signal as cooperative imaging possible suggestion information that suggests that it is possible to perform cooperative imaging with another (cooperative partner) camera 11. Therefore, it is possible to know the existence of another imaging device (other camera 11) capable of data communication with the own camera 11. Therefore, for example, when one person goes to the exhibition hall and wants to cooperatively capture a subject and generate a three-dimensional image, it is possible to easily find a partner who cooperates to capture the subject together.

(3)カメラ11は、他のカメラ11との間で協調して被写体の撮像を行う際に、該他のカメラ11と各種の撮像パラメータ(例えば、AE,AF,AWBなど)を合わせることができるので、2つの2次元画像から生成される3次元画像の品質を高めることができる。   (3) When the camera 11 captures a subject in cooperation with another camera 11, the other camera 11 and the various imaging parameters (for example, AE, AF, AWB, etc.) can be matched. Therefore, the quality of a three-dimensional image generated from two two-dimensional images can be improved.

(4)カメラ11は、他のカメラ11との間で協調して被写体の撮像を行う際に、該他のカメラ11が撮像している被写体のスルー画像をモニタ21に表示することができるので、協調撮像時に両カメラ11の使用者同士でお互いの撮像状況を確認し合うことができる。   (4) Since the camera 11 can display a through image of the subject imaged by the other camera 11 on the monitor 21 when imaging the subject in cooperation with the other camera 11. In the cooperative imaging, the users of both cameras 11 can confirm each other's imaging status.

(5)カメラ11は、他のカメラ11との間で協調して被写体の撮像を行う際に、該他のカメラ11との画角のずれ量をモニタ21に表示することができるので、両カメラ11間で画角を容易に合わせることができる。   (5) When the camera 11 captures a subject in cooperation with another camera 11, the camera 11 can display the amount of field angle deviation with the other camera 11 on the monitor 21. The angle of view can be easily adjusted between the cameras 11.

(6)カメラ11は、他のカメラ11と協調して被写体をそれぞれ撮像して得られる2つの2次元画像から3次元画像を生成することができない場合に、3次元画像を生成することなく、それら2つの2次元画像の画像データをそのまま両カメラ11のメモリカード22にそれぞれ保存する。このため、折角撮像した被写体の2次元画像が無駄になることを抑制することができる。   (6) When the camera 11 cannot generate a three-dimensional image from two two-dimensional images obtained by imaging a subject in cooperation with other cameras 11, without generating a three-dimensional image, The image data of these two two-dimensional images are stored in the memory cards 22 of both cameras 11 as they are. For this reason, it can suppress that the two-dimensional image of the to-be-photographed object is wasted.

(変更例)
なお、上記実施形態は以下のような別の実施形態に変更してもよい。
・図8に示すように、両カメラ11をノートパソコンなどの外部機器31とデータ通信可能に無線接続するようにしてもよい。この場合、両カメラ11及び外部機器31のうちの少なくとも1つで3次元画像の画像ファイルの生成処理が行われる。例えば、外部機器31における制御部(図示略)と両カメラ11の制御部30との間で協調撮像のためのデータ通信を行う3次元画像生成システムを構成し、その場合において外部機器31の制御部がシステム全体の動作・処理を統括的に制御するようにしてもよい。
(Example of change)
The above embodiment may be changed to another embodiment as described below.
As shown in FIG. 8, both cameras 11 may be wirelessly connected to an external device 31 such as a laptop computer so that data communication is possible. In this case, at least one of the cameras 11 and the external device 31 generates a 3D image file. For example, a three-dimensional image generation system that performs data communication for cooperative imaging between a control unit (not shown) in the external device 31 and the control unit 30 of both cameras 11 is configured. In that case, the control of the external device 31 is performed. The unit may control the overall operation and processing of the system.

・3つ以上のカメラ11で協調して被写体を撮像するようにしてもよい。
・協調撮像処理ルーチンにおいて、ステップS11及びステップS12を省略してもよい。すなわち、ステップS13から協調撮像処理ルーチンを開始してもよい。
-You may make it image a to-be-photographed object in cooperation with the 3 or more cameras 11. FIG.
In the cooperative imaging processing routine, step S11 and step S12 may be omitted. That is, the cooperative imaging processing routine may be started from step S13.

・協調撮像処理ルーチンのステップS14において、両カメラ11で協調撮像が可能である旨をランプ、メロディ、ブザー、音声などによって該両カメラ11の使用者に報知するようにしてもよい。この場合、両カメラ11に、ランプや、メロディ、ブザー、及び音声などを発するためのスピーカーを設ける必要がある。   In step S14 of the cooperative imaging processing routine, the user of both cameras 11 may be notified by lamps, melody, buzzer, voice, etc. that cooperative imaging is possible with both cameras 11. In this case, it is necessary to provide both cameras 11 with speakers for emitting lamps, melodies, buzzers, and voices.

・協調撮像処理ルーチンにおいて、ステップS16を省略してもよい。
・協調撮像処理ルーチンのステップS22において、両2次元画像の画像データが3次元画像の画像データとして保存できない場合には、両2次元画像の各画像データをメモリカード22に保存することなく協調撮像処理ルーチンを終了するようにしてもよい。
In the cooperative imaging process routine, step S16 may be omitted.
In step S22 of the cooperative imaging processing routine, when the image data of both the two-dimensional images cannot be stored as the image data of the three-dimensional image, the cooperative imaging is performed without storing each image data of the two-dimensional images in the memory card 22. You may make it complete | finish a processing routine.

・協調撮像処理ルーチンにおいて、ステップS22の判定が肯定判定である場合には、カメラ11のモニタ21に3次元画像を一旦表示させて、該カメラ11の使用者がこの3次元画像の出来映えを見てから両2次元画像の画像データに基づいた3次元画像の画像データを含む3次元画像の画像ファイルを生成するか否かを選択できるようにしてもよい。   In the cooperative imaging processing routine, if the determination in step S22 is affirmative, a three-dimensional image is temporarily displayed on the monitor 21 of the camera 11, and the user of the camera 11 sees the result of the three-dimensional image. After that, it may be possible to select whether or not to generate an image file of a 3D image including image data of a 3D image based on the image data of both 2D images.

・協調撮像処理ルーチンにおいて、ステップS24を省略してもよい。
・協調撮像条件設定ルーチンにおいて、ステップS32を省略してもよい。
・協調撮像条件設定ルーチンのステップS35において、両カメラ11間で必ずしも全ての撮像パラメータを一致させなくてもよい。
In the cooperative imaging processing routine, step S24 may be omitted.
In the cooperative imaging condition setting routine, step S32 may be omitted.
In step S35 of the cooperative imaging condition setting routine, it is not always necessary to match all imaging parameters between the two cameras 11.

・3次元画像を生成するべく両カメラ11によって生成する2つの2次元画像は、一方が単写画像で他方が連写画像のうちの1つの画像であってもよいし、双方が連写画像のうちの1つであってもよいし、一方が静止画像で他方が動画の中の1コマの画像であってもよい。   -Two two-dimensional images generated by both cameras 11 to generate a three-dimensional image may be a single-shot image and the other one of continuous-shot images, or both may be continuous-shot images. One of them may be one, or one may be a still image and the other may be a single frame image in a moving image.

・上記実施形態においては、撮像装置をデジタルスチルカメラに具体化したが、例えばデジタルビデオカメラ、カメラ機能付き携帯電話、カメラ機能付き携帯ゲーム機などの他の撮像装置に具体化してもよい。   In the above embodiment, the imaging device is embodied as a digital still camera, but may be embodied in other imaging devices such as a digital video camera, a mobile phone with a camera function, and a portable game machine with a camera function.

11…カメラ(撮像装置)、21…モニタ(表示画面,表示手段)、24…通信部(通信手段)、30…制御部(コンピュータ,表示手段,第1判定手段,第2判定手段,画像データ生成手段,撮像条件整合手段)、H…被写体、G1,G2…スルー画像、S1,S2…協調撮像可能範囲、Z…ずれ量。   DESCRIPTION OF SYMBOLS 11 ... Camera (imaging device), 21 ... Monitor (display screen, display means), 24 ... Communication part (communication means), 30 ... Control part (computer, display means, 1st determination means, 2nd determination means, image data) Generating means, imaging condition matching means), H ... subject, G1, G2 ... through image, S1, S2 ... cooperative imaging possible range, Z ... shift amount.

Claims (8)

他の撮像装置と互いに通信することで協調して被写体を撮像可能な撮像装置であって、
前記他の撮像装置との間で協調して前記被写体を撮像可能な範囲である協調撮像可能範囲内に前記他の撮像装置が位置しているか否かを判定する第1判定手段と、
該第1判定手段により前記他の撮像装置が前記協調撮像可能範囲内に位置していると判定された場合に、前記撮像装置によって撮像された前記被写体の一つの2次元画像と前記協調撮像可能範囲内に位置する前記他の撮像装置によって撮像された前記被写体の他の2次元画像とに基づいて前記被写体の3次元画像が生成可能であるか否かを判定する第2判定手段と、
該第2判定手段により前記被写体の3次元画像が生成可能であると判定された場合に、前記3次元画像の画像データを生成する画像データ生成手段と
を備えたことを特徴とする撮像装置。
An imaging device capable of imaging a subject in cooperation by communicating with other imaging devices,
First determination means for determining whether or not the other imaging device is located within a cooperative imaging possible range that is a range in which the subject can be imaged in cooperation with the other imaging device;
When the first determination unit determines that the other imaging device is located within the cooperative imaging possible range, the two-dimensional image of the subject imaged by the imaging device and the cooperative imaging are possible. Second determination means for determining whether a three-dimensional image of the subject can be generated based on another two-dimensional image of the subject captured by the other imaging device located within a range;
An image pickup apparatus comprising: an image data generation unit configured to generate image data of the three-dimensional image when the second determination unit determines that a three-dimensional image of the subject can be generated.
前記他の撮像装置との間で前記協調撮像を行うことが可能であることを示唆する協調撮像可能示唆情報を通信可能な通信手段を備えたことを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, further comprising communication means capable of communicating cooperative imaging possible suggestion information that suggests that the cooperative imaging can be performed with the other imaging apparatus. . 前記他の撮像装置との間で前記協調撮像を行う際に、該他の撮像装置と前記協調撮像のための撮像条件を合わせる撮像条件整合手段を備えたことを特徴とする請求項1または請求項2に記載の撮像装置。 The imaging condition matching means for adjusting the imaging conditions for the cooperative imaging with the other imaging apparatus when performing the cooperative imaging with the other imaging apparatus. Item 3. The imaging device according to Item 2. 前記他の撮像装置との間で前記協調撮像を行う際に、該他の撮像装置が撮像している前記被写体のスルー画像を表示画面に表示する表示手段を備えたことを特徴とする請求項1〜請求項3のうちいずれか一項に記載の撮像装置。 The display device for displaying a through image of the subject captured by the other imaging device on a display screen when performing the cooperative imaging with the other imaging device. The imaging device according to any one of claims 1 to 3. 前記表示手段は、前記他の撮像装置との間で前記協調撮像を行う際に、該他の撮像装置との画角のずれ量を前記表示画面に表示することを特徴とする請求項4に記載の撮像装置。 5. The display unit according to claim 4, wherein when performing the cooperative imaging with the other imaging device, the display unit displays an amount of deviation of an angle of view with the other imaging device on the display screen. The imaging device described. 前記画像データ生成手段は、前記第2判定手段により前記被写体の3次元画像が生成可能でないと判定された場合に、前記一つの2次元画像の画像データと前記他の2次元画像の画像データを生成することを特徴とする請求項1〜請求項5のうちいずれか一項に記載の撮像装置。 The image data generation unit obtains the image data of the one two-dimensional image and the image data of the other two-dimensional image when the second determination unit determines that the three-dimensional image of the subject cannot be generated. The imaging device according to claim 1, wherein the imaging device is generated. 互いに通信することで協調して被写体を撮像可能な複数の撮像装置と、
前記各撮像装置間で協調して前記被写体を撮像可能な範囲である協調撮像可能範囲内に前記各撮像装置のうちの少なくとも2つが位置しているか否かを判定する第1判定手段と、
該第1判定手段により前記各撮像装置のうちの少なくとも2つが前記協調撮像可能範囲内に位置していると判定された場合に、前記協調撮像可能範囲内に位置する各撮像装置によってそれぞれ撮像された前記被写体の各2次元画像に基づいて3次元画像が生成可能であるか否かを判定する第2判定手段と、
該第2判定手段により前記3次元画像が生成可能であると判定された場合に、前記3次元画像の画像データを生成する画像データ生成手段と
を備えたことを特徴とする3次元画像生成システム。
A plurality of imaging devices capable of imaging a subject in cooperation by communicating with each other;
First determination means for determining whether or not at least two of the imaging devices are located within a cooperative imaging possible range that is a range in which the subject can be imaged in cooperation between the imaging devices;
When it is determined by the first determination means that at least two of the imaging devices are located within the cooperative imaging possible range, the images are respectively captured by the imaging devices located within the cooperative imaging possible range. Second determination means for determining whether a three-dimensional image can be generated based on each two-dimensional image of the subject;
A three-dimensional image generation system comprising: image data generation means for generating image data of the three-dimensional image when the second determination means determines that the three-dimensional image can be generated. .
コンピュータに、
複数の撮像装置間で協調して被写体を撮像可能な範囲である協調撮像可能範囲内に前記各撮像装置のうちの少なくとも2つが位置しているか否かを判定する第1判定手順と、
該第1判定手順により前記各撮像装置のうちの少なくとも2つが前記協調撮像可能範囲内に位置していると判定された場合に、前記協調撮像可能範囲内に位置する各撮像装置によってそれぞれ撮像された前記被写体の各2次元画像に基づいて3次元画像が生成可能であるか否かを判定する第2判定手順と、
該第2判定手順により前記3次元画像が生成可能であると判定された場合に、前記3次元画像の画像データを生成する画像データ生成手順と
を実行させることを特徴とする3次元画像生成プログラム。
On the computer,
A first determination procedure for determining whether or not at least two of the imaging devices are located within a cooperative imaging possible range that is a range in which a subject can be imaged in cooperation between a plurality of imaging devices;
When it is determined by the first determination procedure that at least two of the imaging devices are located within the cooperative imaging possible range, the imaging devices are respectively captured by the imaging devices located within the cooperative imaging possible range. A second determination procedure for determining whether a three-dimensional image can be generated based on each two-dimensional image of the subject;
A three-dimensional image generation program for executing an image data generation procedure for generating image data of the three-dimensional image when it is determined by the second determination procedure that the three-dimensional image can be generated .
JP2010193394A 2010-08-31 2010-08-31 Image pickup device, three-dimensional image generation system, and three-dimensional image generation program Pending JP2012053113A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010193394A JP2012053113A (en) 2010-08-31 2010-08-31 Image pickup device, three-dimensional image generation system, and three-dimensional image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010193394A JP2012053113A (en) 2010-08-31 2010-08-31 Image pickup device, three-dimensional image generation system, and three-dimensional image generation program

Publications (1)

Publication Number Publication Date
JP2012053113A true JP2012053113A (en) 2012-03-15

Family

ID=45906530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010193394A Pending JP2012053113A (en) 2010-08-31 2010-08-31 Image pickup device, three-dimensional image generation system, and three-dimensional image generation program

Country Status (1)

Country Link
JP (1) JP2012053113A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013228478A (en) * 2012-04-24 2013-11-07 Canon Inc Imaging device, control method and control program of the same
US9621873B2 (en) 2012-05-31 2017-04-11 Casio Computer Co., Ltd. Apparatus including function to generate stereoscopic image, and method and storage medium for the same
JP2017199972A (en) * 2016-04-25 2017-11-02 オリンパス株式会社 Terminal device, information acquisition system, information acquisition method, and program
JP2019505048A (en) * 2016-01-26 2019-02-21 パリエンティ, ラウルPARIENTI, Raoul A personal information terminal that can capture images by combining smartphones, keyboards, and tablets.

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013228478A (en) * 2012-04-24 2013-11-07 Canon Inc Imaging device, control method and control program of the same
US9621873B2 (en) 2012-05-31 2017-04-11 Casio Computer Co., Ltd. Apparatus including function to generate stereoscopic image, and method and storage medium for the same
JP2019505048A (en) * 2016-01-26 2019-02-21 パリエンティ, ラウルPARIENTI, Raoul A personal information terminal that can capture images by combining smartphones, keyboards, and tablets.
JP2017199972A (en) * 2016-04-25 2017-11-02 オリンパス株式会社 Terminal device, information acquisition system, information acquisition method, and program
CN107317986A (en) * 2016-04-25 2017-11-03 奥林巴斯株式会社 Terminal installation, information acquiring system and its information acquisition method
CN107317986B (en) * 2016-04-25 2021-12-21 奥林巴斯株式会社 Terminal device, information acquisition system, and information acquisition method

Similar Documents

Publication Publication Date Title
US10455180B2 (en) Electronic apparatus and method for conditionally providing image processing by an external apparatus
US9167224B2 (en) Image processing device, imaging device, and image processing method
US9077976B2 (en) Single-eye stereoscopic image capturing device
EP4195650B1 (en) Photographing method and electronic device
JP5931206B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
CN104885440B (en) Image processing apparatus, camera device and image processing method
JP5753323B2 (en) Imaging apparatus and image display method
JPWO2013183406A1 (en) Imaging apparatus and image display method
US20150201143A1 (en) Image-processing device and method, and image pickup device
KR102375688B1 (en) Imaging device, shooting system and shooting method
JP5923595B2 (en) Image processing apparatus and method, and imaging apparatus
JP2012053113A (en) Image pickup device, three-dimensional image generation system, and three-dimensional image generation program
JP5499754B2 (en) Imaging device
US8773568B2 (en) Imaging apparatus and method for improving manipulation of view finders
KR101799599B1 (en) Photographing apparatus and method for improving controlling of view finder
CN105939459A (en) Display device and image display method
JP2010081261A (en) Imaging apparatus, program therefor, and electronic device
CN100544452C (en) Method for displaying three-dimensional image data of portable terminal
KR101254683B1 (en) Supporter Used in Photographing 3-Dimensional Image and Method for Controlling Photographing 3-Dimensional Image
JP2010056768A (en) Photographing system, and photographing device and operation device constituting the same
JP2004242092A (en) Camera attached mobile phone
TW201330606A (en) Image capturing device and image capturing method thereof
JP2012227625A (en) Stereoscopic image photographing device, portable electronic equipment, stereoscopic image photographing control method, stereoscopic image photographing control program and computer readable recording medium