[go: up one dir, main page]

JP2005229280A - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP2005229280A
JP2005229280A JP2004035071A JP2004035071A JP2005229280A JP 2005229280 A JP2005229280 A JP 2005229280A JP 2004035071 A JP2004035071 A JP 2004035071A JP 2004035071 A JP2004035071 A JP 2004035071A JP 2005229280 A JP2005229280 A JP 2005229280A
Authority
JP
Japan
Prior art keywords
image
images
image data
shooting
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004035071A
Other languages
Japanese (ja)
Inventor
Hisanobu Tsubaki
尚宜 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004035071A priority Critical patent/JP2005229280A/en
Publication of JP2005229280A publication Critical patent/JP2005229280A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make a stereoscopic image easily viewed when it is formed by synthesizing a plurality of images. <P>SOLUTION: Two images for forming a stereoscopic image are photographed by means of a digital camera, and information representing the distance to an object in photographing is described to the tagged information of image data S1 and S2 representing respective images. Distance ratio calculating section 114 of an image processor 110 calculates the ratio L2/L1 of object distance between two image data S1 and S2 based on object distance information and an image scaling section 116 scales the size of an image represented by the image data S1 based on the ratio L2/L1. An image converting section 118 synthesizes image data S1' thus obtained and the image data S2 to form stereoscopic image data G1. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、複数の画像を組み合わせ、視差を利用して立体視を行うことが可能な立体視画像を生成する際に複数の画像に対して画像処理を施す画像処理装置および方法並びに画像処理方法をコンピュータに実行させるためのプログラムに関するものである。   The present invention relates to an image processing apparatus and method, and an image processing method for performing image processing on a plurality of images when a plurality of images are combined and a stereoscopic image that can be stereoscopically viewed using parallax is generated. The present invention relates to a program for causing a computer to execute.

平面的な画像を立体的な映像として表現するための立体視画像を生成する方法は種々知られている。この立体視画像は、右目と左目との間隔によって生じる両目の視差を意図的に生成することにより実現される。すなわち、画像を見る人の左右の目に異なる画像を与えることにより映像が浮き出て見えるような立体感を表現している。具体的には、例えば、裸眼平行法による立体視においては、左右それぞれの目に対応する2つの画像を用意し、2つの画像中における同一物体の位置を左右にずらして配置することにより立体視を実現している。これは、看者の遠くの物体は、左右どちらの目で見た場合にも略同一位置にあるが、近くの物体は左右にずれること、すなわち両目が視差を有することに起因するものである。   Various methods for generating a stereoscopic image for expressing a planar image as a stereoscopic image are known. This stereoscopic image is realized by intentionally generating the parallax of both eyes generated by the interval between the right eye and the left eye. That is, a three-dimensional feeling that expresses a video by giving different images to the left and right eyes of the person viewing the image is expressed. Specifically, for example, in stereoscopic viewing by the naked-eye parallel method, two images corresponding to the left and right eyes are prepared, and the same object in the two images is shifted to the left and right for stereoscopic viewing. Is realized. This is due to the fact that the object far away from the viewer is almost in the same position when viewed with either left or right eye, but the near object is shifted to the left or right, that is, both eyes have parallax. .

また、立体視を行うための3D液晶が搭載された、携帯電話、ノートパソコン、テレビ等の各種装置が知られている。これらの装置においては、右目用の画像および左目用の画像を生成し、これら2つの画像を3D液晶に表示することにより、立体的な画像を表現するものである。   Various devices such as a mobile phone, a notebook computer, and a television equipped with a 3D liquid crystal for stereoscopic viewing are also known. In these apparatuses, a right-eye image and a left-eye image are generated, and these two images are displayed on a 3D liquid crystal to express a three-dimensional image.

一方、立体視画像を生成するためには、同一被写体を複数の異なる視点から撮影する必要がある。このため、立体視画像を生成することを目的として撮影を行うための各種手法が提案されている。例えば、光学系を2種類用いたカメラを使用したり、カメラに立体視画像撮影用のアダプタを装着して、同一被写体を異なる2つの視点から撮影することにより立体視画像を生成するための2つの画像を取得する方法(特許文献1,2参照)が提案されている。   On the other hand, in order to generate a stereoscopic image, it is necessary to photograph the same subject from a plurality of different viewpoints. For this reason, various methods have been proposed for shooting for the purpose of generating a stereoscopic image. For example, 2 for generating a stereoscopic image by using a camera using two types of optical systems or attaching a stereoscopic image capturing adapter to the camera and capturing the same subject from two different viewpoints. A method of acquiring two images (see Patent Documents 1 and 2) has been proposed.

また、複数の画像を並べて合成する際に、撮影時における露光情報等の撮影条件に基づいて、複数の画像における重複部分の濃度レベルを変更することにより、見栄えのよい合成画像を得るようにした手法が提案されている(特許文献3参照)。さらに、複数の画像上における基準点から各画像の輝度情報を求め、これに基づいて各画像の輝度を補正して、各画像の輝度をほぼ同一にする手法も提案されている(特許文献4参照)。
特開平7−134345号公報 特開平10−191395号公報 特開平9−332040号公報 特開平11−242737号公報
In addition, when a plurality of images are combined side by side, a composite image having a good appearance is obtained by changing the density level of overlapping portions in the plurality of images based on shooting conditions such as exposure information at the time of shooting. A technique has been proposed (see Patent Document 3). Further, a method has been proposed in which luminance information of each image is obtained from reference points on a plurality of images, and the luminance of each image is corrected based on the obtained information to make the luminance of each image substantially the same (Patent Document 4). reference).
Japanese Patent Laid-Open No. 7-134345 JP-A-10-191395 Japanese Patent Laid-Open No. 9-332040 Japanese Patent Laid-Open No. 11-242737

しかしながら、同一被写体を複数の視点から撮影する場合に、被写体とカメラとの間の被写体距離を正確に一致させることは困難であり、各撮影毎に被写体と撮影装置との間の距離が異なってしまう場合が多い。このような場合、取得された画像に含まれる被写体のサイズが画像毎に異なってしまうため、取得された複数の画像を並べるように合成して立体視画像を生成しても被写体を立体的に見えるようにすることが困難であった。また、各撮影毎に光源の種類が異なる場合があるが、このような場合には、画像の色味が画像毎に異なるものとなってしまい、その結果、立体視画像が見にくいものとなっていた。   However, when photographing the same subject from a plurality of viewpoints, it is difficult to accurately match the subject distance between the subject and the camera, and the distance between the subject and the photographing device differs for each photographing. It often ends up. In such a case, since the size of the subject included in the acquired image varies from image to image, even if a stereoscopic image is generated by combining a plurality of acquired images, the subject is stereoscopically generated. It was difficult to make it visible. In addition, the type of light source may be different for each shooting, but in such a case, the color of the image differs for each image, and as a result, it is difficult to see the stereoscopic image. It was.

本発明は、上記事情に鑑みなされたものであり、立体視画像を見やすくすることを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to make a stereoscopic image easy to see.

本発明による画像処理装置は、立体視画像を生成するために、同一被写体を複数の視点から撮影することにより取得された、撮影時における撮影情報が付与された複数の画像を取得する画像取得手段と、
前記複数の画像のそれぞれに付与された前記撮影情報に基づいて、前記複数の画像に含まれる前記被写体のサイズおよび/または該複数の画像の画質がほぼ同一となるように、少なくとも1つの前記画像を補正する画像補正手段と、
前記補正された画像およびそれ以外の画像を前記立体視画像に変換する画像変換手段とを備えたことを特徴とするものである。
The image processing apparatus according to the present invention obtains a plurality of images obtained by photographing the same subject from a plurality of viewpoints and provided with photographing information at the time of photographing in order to generate a stereoscopic image. When,
Based on the photographing information given to each of the plurality of images, at least one of the images so that the size of the subject included in the plurality of images and / or the image quality of the plurality of images are substantially the same. Image correcting means for correcting
An image converting means for converting the corrected image and other images into the stereoscopic image is provided.

「画像取得手段」としては、画像が記録された記録媒体から画像を読み出すメディアドライブ等の読み出し手段、ネットワーク経由で送信された画像を受信する手段、プリントやフイルムに記録された画像を読み取るスキャナ等の読み取り手段等、画像を取得することが可能な任意の手段を用いることができる。   "Image acquisition means" include a reading means such as a media drive for reading an image from a recording medium on which an image is recorded, a means for receiving an image transmitted via a network, a scanner for reading an image recorded on a print or film, etc. Any means capable of acquiring an image, such as a reading means, can be used.

「立体視画像に変換する」とは、複数の画像のそれぞれに含まれる被写体の向きを同一にして左右に並べて合成することにより1つの画像を作成することのみならず、3D液晶に表示した際に立体視可能となるように複数の画像を1つの画像に合成すること、並びに複数の画像を含む1つの画像ファイルを生成し、そのヘッダ部分にその画像ファイルが立体視画像生成用の複数の画像を含む旨、および複数の画像の配置位置を表す情報を含め、その画像ファイルを開いたときに複数の画像が左右に並べられて配置された立体視画像を再生できるようにすることをも含む。   “Convert to a stereoscopic image” means not only to create a single image by combining the left and right subjects with the same orientation of the subjects included in each of the plurality of images, but also when displaying them on a 3D liquid crystal. A plurality of images are combined into a single image so as to be stereoscopically viewable, and a single image file including a plurality of images is generated. The header includes a plurality of images for generating a stereoscopic image. Including the fact that the image is included and the information indicating the arrangement position of the plurality of images, it is possible to reproduce a stereoscopic image in which the plurality of images are arranged side by side when the image file is opened. Including.

「画質」としては、画像の色味、明るさ、コントラスト、階調、シャープネス、解像感、ノイズ等を挙げることができる。   Examples of the “image quality” include image color, brightness, contrast, gradation, sharpness, resolution, noise, and the like.

なお、本発明による画像処理装置においては、前記撮影情報が撮影時における被写体距離を表す被写体距離情報を含む場合において、
前記画像補正手段を、前記複数の画像の前記被写体距離情報に基づいて、前記複数の画像のそれぞれに対応する前記被写体距離の比率を算出し、前記複数の画像のそれぞれに含まれる前記被写体のサイズがほぼ同一となるように、少なくとも1つの前記画像を該比率に応じて拡大縮小する手段とし、
前記画像変換手段を、前記拡大縮小された画像およびそれ以外の画像を前記立体視画像に変換する手段としてもよい。
In the image processing apparatus according to the present invention, when the shooting information includes subject distance information indicating a subject distance at the time of shooting,
The image correcting unit calculates a ratio of the subject distance corresponding to each of the plurality of images based on the subject distance information of the plurality of images, and the size of the subject included in each of the plurality of images. And means for enlarging / reducing at least one of the images in accordance with the ratio, so that
The image conversion means may be means for converting the enlarged and reduced images and other images into the stereoscopic image.

「少なくとも1つの画像を比率に応じて拡大縮小する」とは、複数の画像のうちある1つの画像以外の他の画像に含まれる被写体のサイズを1つの画像に含まれる被写体のサイズと同一とすることのみならず、複数の画像のすべてを拡大縮小して複数の画像のすべてについて含まれる被写体のサイズをほぼ同一とすることをも含む。   “Enlarge or reduce at least one image according to a ratio” means that the size of a subject included in another image other than one image among the plurality of images is the same as the size of the subject included in one image. In addition to the above, it includes enlarging and reducing all of the plurality of images so that the sizes of the subjects included in all of the plurality of images are substantially the same.

また、本発明による画像処理装置においては、画質が色味である場合に、さらに、前記撮影情報が撮影時における光源の種類を表す光源情報を含む場合において、
前記画像補正手段を、前記光源情報に基づいて前記少なくとも1つの画像の色味を補正する手段とし、
前記画像変換手段を、前記色味が補正された画像およびそれ以外の画像を前記立体視画像に変換する手段としてもよい。
In the image processing apparatus according to the present invention, when the image quality is tint, and further, when the shooting information includes light source information indicating the type of light source at the time of shooting,
The image correction means is a means for correcting the color of the at least one image based on the light source information,
The image conversion unit may be a unit that converts the color-corrected image and other images into the stereoscopic image.

この場合、前記画像補正手段を、光源の種類が異なる画像同士のホワイトバランスをほぼ同一とするホワイトバランス変換係数を、複数種類の光源のそれぞれについて規定したホワイトバランス変換係数テーブルを参照して、前記複数の画像のそれぞれに対応する光源情報に基づいて、少なくとも1つの前記画像のホワイトバランスを補正することにより色味を補正する手段とし、
前記画像変換手段を、前記ホワイトバランスが補正された画像およびそれ以外の画像を前記立体視画像に変換する手段としてもよい。
In this case, the image correcting unit refers to the white balance conversion coefficient table that defines the white balance conversion coefficient that makes the white balance of images of different types of light sources substantially the same, for each of a plurality of types of light sources. Based on light source information corresponding to each of a plurality of images, as means for correcting the color by correcting the white balance of at least one of the images,
The image conversion means may be means for converting the image with the white balance corrected and other images into the stereoscopic image.

本発明による画像処理方法は、立体視画像を生成するために、同一被写体を複数の視点から撮影することにより取得された、撮影時における撮影情報が付与された複数の画像を取得し、
前記複数の画像のそれぞれに付与された前記撮影情報に基づいて、前記複数の画像に含まれる前記被写体のサイズおよび/または該複数の画像の画質がほぼ同一となるように、少なくとも1つの前記画像を補正し、
前記補正された画像およびそれ以外の画像を前記立体視画像に変換することを特徴とするものである。
The image processing method according to the present invention acquires a plurality of images provided with shooting information at the time of shooting obtained by shooting the same subject from a plurality of viewpoints in order to generate a stereoscopic image.
Based on the photographing information given to each of the plurality of images, at least one of the images so that the size of the subject included in the plurality of images and / or the image quality of the plurality of images are substantially the same. To correct
The corrected image and other images are converted into the stereoscopic image.

なお、本発明による画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。   The image processing method according to the present invention may be provided as a program for causing a computer to execute the image processing method.

本発明によれば、立体視画像を生成するための複数の画像が取得され、複数の画像に付与された撮影情報に基づいて複数の画像に含まれる被写体のサイズおよび/または複数の画像の画質がほぼ同一となるように、少なくとも1つの画像が補正され、補正された画像およびそれ以外の画像が立体視画像に変換される。これにより、複数の画像に含まれる被写体のサイズおよび/または複数の画像の画質をほぼ同一することができるため、立体視画像を見やすいものとすることができる。   According to the present invention, a plurality of images for generating a stereoscopic image are acquired, and the sizes of subjects included in the plurality of images and / or the image quality of the plurality of images based on shooting information given to the plurality of images. Are corrected so that they are substantially the same, and the corrected image and other images are converted into a stereoscopic image. Thereby, since the size of the subject included in the plurality of images and / or the image quality of the plurality of images can be made substantially the same, the stereoscopic image can be easily viewed.

とくに、撮影情報が撮影時における被写体距離を表す被写体距離情報を含む場合において、複数の画像のそれぞれに対応する被写体距離の比率を算出し、複数の画像のそれぞれに含まれる被写体がほぼ同一のサイズとなるように少なくとも1つの画像を、算出した比率に応じて拡大縮小することにより、比較的容易に複数の画像に含まれる被写体のサイズをほぼ同一することができる。   In particular, when the shooting information includes subject distance information representing the subject distance at the time of shooting, the ratio of the subject distance corresponding to each of the plurality of images is calculated, and the subjects included in each of the plurality of images are approximately the same size. By enlarging and reducing at least one image according to the calculated ratio so that the size of the subject included in the plurality of images can be made substantially the same.

また、画質が画像の色味であり、撮影情報が撮影時における光源の種類を表す光源情報を含む場合において、光源情報に基づいて少なくとも1つの画像の色味を補正することにより、複数の画像の色味をほぼ同一とすることができる。   Further, when the image quality is the color of the image and the shooting information includes light source information indicating the type of light source at the time of shooting, a plurality of images are corrected by correcting the color of at least one image based on the light source information. Can be almost the same color.

この場合、光源の種類が異なる画像同士のホワイトバランスをほぼ同一とするホワイトバランス変換係数を、複数種類の光源のそれぞれについて規定した変換係数テーブルを参照して、複数の画像のそれぞれに対応する光源情報に基づいて、少なくとも1つの画像のホワイトバランスを補正することにより、比較的に容易に複数の画像の色味をほぼ同一とすることができる。   In this case, a white balance conversion coefficient that makes the white balance of images of different types of light sources almost the same is referred to a conversion coefficient table that defines each of the plurality of types of light sources, and the light sources corresponding to each of the plurality of images By correcting the white balance of at least one image based on the information, the colors of the plurality of images can be made substantially the same relatively easily.

以下、図面を参照して本発明の実施形態について説明する。まず、本発明の実施形態による画像処理装置により画像処理が施される立体視画像を生成するための画像データを取得するデジタルカメラについて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, a digital camera that acquires image data for generating a stereoscopic image subjected to image processing by an image processing apparatus according to an embodiment of the present invention will be described.

図1はデジタルカメラの構成を示す概略ブロック図である。図1に示すように、デジタルカメラ1を構成する撮影レンズ22は、1枚または複数枚のレンズで構成される。撮影レンズ22は、単一の焦点距離(固定焦点)のレンズでもよいし、ズームレンズや望遠/広角の二焦点切替式レンズのように焦点距離可変のものでもよい。撮影レンズ22を通過した光は、絞り24により光量が調節された後、CCDやCMOS等からなる撮像素子26に入射する。撮像素子26の受光面には、フォトセンサが平面的に配列されており、撮像素子26の受光面に結像された被写体像は、各フォトセンサによって入射光量に応じた量の信号電荷に変換される。こうして蓄積された信号電荷は、撮像素子駆動部28から与えられるパルスに基づいて信号電荷に応じた電圧信号として順次読み出される。   FIG. 1 is a schematic block diagram showing the configuration of a digital camera. As shown in FIG. 1, the photographing lens 22 constituting the digital camera 1 is composed of one or a plurality of lenses. The photographic lens 22 may be a lens having a single focal length (fixed focus) or a variable focal length such as a zoom lens or a telephoto / wide-angle bifocal switching lens. The light that has passed through the photographic lens 22 is incident on an image sensor 26 made up of a CCD, a CMOS, or the like after the amount of light is adjusted by the diaphragm 24. Photosensors are arranged in a plane on the light receiving surface of the image pickup device 26, and the subject image formed on the light receiving surface of the image pickup device 26 is converted into signal charges corresponding to the amount of incident light by each photosensor. Is done. The signal charges accumulated in this way are sequentially read out as voltage signals corresponding to the signal charges based on the pulses supplied from the image sensor driving unit 28.

撮像素子26から出力された画像データは、アナログ信号処理部30に送られる。アナログ信号処理部30は、サンプリングホールド回路、色分離回路、ゲイン調整回路等を含み、このアナログ信号処理部30において、相関二重サンプリング(CDS)処理並びにR,G,Bの各色信号に色分離処理され、各色信号の信号レベルの調整(プリホワイトバランス処理)が行われる。   Image data output from the image sensor 26 is sent to the analog signal processing unit 30. The analog signal processing unit 30 includes a sampling hold circuit, a color separation circuit, a gain adjustment circuit, and the like. The analog signal processing unit 30 performs color separation into correlated double sampling (CDS) processing and R, G, and B color signals. Then, the signal level of each color signal is adjusted (pre-white balance process).

アナログ信号処理部30から出力された画像データは、A/D変換器40によりデジタルのデータに変換された後、メモリ制御部46により制御されるメインメモリ48に格納される。   The image data output from the analog signal processing unit 30 is converted into digital data by the A / D converter 40 and then stored in the main memory 48 controlled by the memory control unit 46.

メインメモリ48に格納された画像データは、バス70を介してデジタル信号処理部50に送られる。デジタル信号処理部50は、輝度・色差信号生成回路、ガンマ補正回路、シャープネス補正回路、コントラスト補正回路、ホワイトバランス補正回路等を含むデジタルシグナルプロセッサ(DSP)で構成された画像処理手段であり、CPU42からのコマンドに従って画像データを処理する。   The image data stored in the main memory 48 is sent to the digital signal processing unit 50 via the bus 70. The digital signal processing unit 50 is an image processing means composed of a digital signal processor (DSP) including a luminance / color difference signal generation circuit, a gamma correction circuit, a sharpness correction circuit, a contrast correction circuit, a white balance correction circuit, and the like. The image data is processed according to the command from

なお、CPU42はレリーズボタンや十字キー等からなる操作部44からデジタルカメラの撮影者による各種操作の入力を受け付け、入力された操作に応じたコマンドを出力する。   The CPU 42 receives input of various operations by the photographer of the digital camera from the operation unit 44 including a release button, a cross key, and the like, and outputs a command corresponding to the input operation.

デジタル信号処理部50に入力された画像データは、輝度信号(Y信号)および色差信号(Cr,Cb 信号)に変換されるとともに、ガンマ補正、ホワイトバランス補正等の所定の画像処理が施された後、メインメモリ48に格納される。   The image data input to the digital signal processing unit 50 is converted into a luminance signal (Y signal) and a color difference signal (Cr, Cb signal) and subjected to predetermined image processing such as gamma correction and white balance correction. Thereafter, it is stored in the main memory 48.

メインメモリ48に格納された画像データは、CPU42の指令に従って読み出され、表示用メモリを備えた表示制御部60に送られる。表示制御部60に送られたデータは、表示用の所定方式の信号(例えば、NTSC方式のカラー複合映像信号)に変換された後、D/A変換されて液晶モニタ等からなる表示部62に出力される。これにより、当該画像データの画像内容が表示部62に再生される。   The image data stored in the main memory 48 is read according to a command from the CPU 42 and sent to a display control unit 60 having a display memory. The data sent to the display control unit 60 is converted into a predetermined display signal (for example, an NTSC color composite video signal) and then D / A converted to a display unit 62 comprising a liquid crystal monitor or the like. Is output. Thereby, the image content of the image data is reproduced on the display unit 62.

撮像素子26から出力される画像データによってメインメモリ48の画像データが定期的に書き換えられ、その画像データが表示部62に供給されることにより、撮像素子26が捉える画像がリアルタイムに表示部62に再生される。撮影者は、表示部62に再生される画像により撮影画角を確認することができる。   The image data in the main memory 48 is periodically rewritten by the image data output from the image sensor 26 and the image data is supplied to the display unit 62, whereby the image captured by the image sensor 26 is displayed on the display unit 62 in real time. Played. The photographer can confirm the shooting angle of view from the image reproduced on the display unit 62.

CPU42は、デジタルカメラの撮影に関する動作を制御する制御部である。CPU42は、ROM42AおよびRAM42B等の記憶手段を備え、ROM42AにはCPU42が処理するプログラムおよび制御に必要な各種データ等が格納され、RAM42BはCPU42が各種の演算処理等を行う際の作業用エリアとして利用される。CPU42は、操作部44からの入力信号に基づき、対応する回路の動作を制御するとともに、表示部62における表示の制御、オートフォーカス(AF)制御および自動露出(AE)制御等を行う。   The CPU 42 is a control unit that controls operations related to photographing of the digital camera. The CPU 42 includes storage means such as a ROM 42A and a RAM 42B. The ROM 42A stores programs processed by the CPU 42 and various data necessary for control. The RAM 42B serves as a work area when the CPU 42 performs various arithmetic processes. Used. The CPU 42 controls the operation of the corresponding circuit based on the input signal from the operation unit 44, and controls display on the display unit 62, autofocus (AF) control, automatic exposure (AE) control, and the like.

AF制御およびAE制御時には、CPU42は、AE/AF演算部54に、測距装置74から出力される被写体距離や撮像素子26から出力される画像データに基づいて、合焦位置の演算およびAE演算等の各種演算を行わせ、その演算結果に基づいてフォーカスモータを含むレンズ駆動部32を制御してレンズを合焦位置に移動させるとともに、アイリスモータを含む絞り駆動部34を制御して適正な絞りに設定し、かつ撮像素子26の電荷蓄積時間を制御する。   During AF control and AE control, the CPU 42 causes the AE / AF calculation unit 54 to calculate the focus position and AE calculation based on the subject distance output from the distance measuring device 74 and the image data output from the image sensor 26. The lens driving unit 32 including the focus motor is controlled based on the calculation result to move the lens to the in-focus position, and the diaphragm driving unit 34 including the iris motor is controlled to perform an appropriate operation. The aperture is set and the charge accumulation time of the image sensor 26 is controlled.

すなわち、撮影時には、操作部44に含まれるレリーズボタンの半押し操作によりCPU42から測距開始指示信号が発せられ、これにより、測距装置駆動部72が測距装置74を駆動する。これにより、発光部76から測距用の赤外線が被写体に向けて発せられ、受光部78が被写体により反射された光を受光する。測距装置74は赤外線が戻ってきた時間や角度から、被写体距離を算出する。そして、この被写体距離を表す情報がCPU42を介してAE/AF演算部54に入力されると、AE/AF演算部54が合焦位置を決定し、これを受けてCPU42が合焦位置に撮影レンズ22を移動させるようにレンズ駆動部32を制御する。   That is, at the time of photographing, a distance measurement start instruction signal is issued from the CPU 42 by a half-press operation of a release button included in the operation unit 44, whereby the distance measuring device driving unit 72 drives the distance measuring device 74. Thereby, infrared rays for ranging are emitted from the light emitting unit 76 toward the subject, and the light receiving unit 78 receives the light reflected by the subject. The distance measuring device 74 calculates the subject distance from the time and angle at which the infrared rays are returned. When the information representing the subject distance is input to the AE / AF calculation unit 54 via the CPU 42, the AE / AF calculation unit 54 determines the in-focus position, and the CPU 42 shoots at the in-focus position in response to this. The lens driving unit 32 is controlled to move the lens 22.

一方、レリーズボタンの半押し操作によりA/D変換器40から出力されたデジタルの画像データは、AE/AF演算部54に送信される。AE/AF演算部54は、画像データを構成するR、G、B信号を積算し、その積算値をCPU42に送信する。CPU42は、入力された積算値に基づいて被写体の平均的な明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影Ev値)を算出する。そして、求めた露出値と所定のプログラム線図に従い、撮影時の絞り値とシャッタースピードを決定し、絞り駆動部34および撮像素子駆動部28を制御する。これにより、レリーズボタンの全押し時に最適な露光量を得ることができる。   On the other hand, digital image data output from the A / D converter 40 by half-pressing the release button is transmitted to the AE / AF calculation unit 54. The AE / AF calculation unit 54 integrates the R, G, and B signals constituting the image data, and transmits the integrated value to the CPU 42. The CPU 42 detects the average brightness of the subject (subject brightness) based on the input integrated value, and calculates an exposure value (shooting Ev value) suitable for shooting. Then, according to the obtained exposure value and a predetermined program diagram, the aperture value and shutter speed at the time of shooting are determined, and the aperture drive unit 34 and the image sensor drive unit 28 are controlled. Thereby, the optimal exposure amount can be obtained when the release button is fully pressed.

さらに、操作部44に含まれるレリーズボタンの全押し操作により記録開始指示信号が発せられ、これにより記録用の画像データの取り込みが開始される。画像データを圧縮して記録するモードが選択されている場合、CPU42は圧縮伸張処理部52にコマンドを送り、これにより圧縮伸張処理部52は、メインメモリ48上の画像データをJPEGその他の所定の形式に従って圧縮する。圧縮された画像データは、メモリ制御部56を介してメモリカード等の記録媒体58に記録される。なお、非圧縮の画像データを記録するモード(非圧縮モード)が選択されている場合には、圧縮伸張処理部52による圧縮処理を実施せずに、非圧縮のまま画像データが記録媒体58に記録される。   Further, when a release button included in the operation unit 44 is fully pressed, a recording start instruction signal is issued, thereby starting to capture image data for recording. When the mode for compressing and recording the image data is selected, the CPU 42 sends a command to the compression / decompression processing unit 52, whereby the compression / decompression processing unit 52 converts the image data on the main memory 48 to JPEG or another predetermined predetermined value. Compress according to format. The compressed image data is recorded on a recording medium 58 such as a memory card via the memory control unit 56. If a mode for recording non-compressed image data (non-compression mode) is selected, the compression / decompression processing unit 52 does not perform compression processing, and the image data remains uncompressed on the recording medium 58. To be recorded.

図2は本実施形態において生成される画像データのファイル構造を示す図である。図2に示すように、画像ファイル100には、ファイル種別等を表すヘッダ部102と、撮影情報等が記述されているタグ情報104と、撮影した画像データのサムネイル画像106と、撮影した画像データに基づいて生成された例えば1600×1200画素のサイズの主画像108とが記録されている。なお、サムネイル画像106は、主画像108の見出し等に利用される160×120画素サイズの画像である。   FIG. 2 is a diagram showing a file structure of image data generated in the present embodiment. As shown in FIG. 2, the image file 100 includes a header portion 102 indicating a file type, tag information 104 describing shooting information, a thumbnail image 106 of shot image data, and shot image data. The main image 108 having a size of, for example, 1600 × 1200 pixels generated based on the image is recorded. Note that the thumbnail image 106 is an image having a size of 160 × 120 pixels used for the heading of the main image 108 and the like.

タグ情報104には、主画像108の画素数、圧縮の種類、撮影日時、撮影時の露出時間、被写体距離情報および光源情報等が記述されている。なお、光源情報は画像データを構成するRGBの色信号に基づいて決定される。   The tag information 104 describes the number of pixels of the main image 108, the type of compression, the shooting date and time, the exposure time at the time of shooting, subject distance information, light source information, and the like. The light source information is determined on the basis of RGB color signals constituting the image data.

実際には、タグ情報104に記述される情報はあらかじめ定められたタグ番号により特定される。例えば回転情報は37382番のタグ番号が割り当てられており、被写体距離の数値がメートルの単位にて記述されている。また、光源情報には37384番のタグ番号が割り当てられており、光源の種類が番号によりあらかじめ設定されている。例えば、「1」が昼光の光源情報を表し、「2」が蛍光灯の光源情報を表す。したがって、タグ情報104の光源情報にはこのような番号が記述される。   Actually, information described in the tag information 104 is specified by a predetermined tag number. For example, the rotation information is assigned with a tag number of 37382, and the numerical value of the subject distance is described in units of meters. Moreover, the 37384th tag number is assigned to the light source information, and the type of the light source is preset by the number. For example, “1” represents daylight light source information, and “2” represents fluorescent light source information. Therefore, such a number is described in the light source information of the tag information 104.

そして、このようなデジタルカメラ1を用いて、撮影者が同一被写体を複数の視点から撮影することにより、立体視画像を生成するための複数の画像を表す画像データが取得され、記録媒体58に記録される。   Then, by using such a digital camera 1, the photographer captures the same subject from a plurality of viewpoints, whereby image data representing a plurality of images for generating a stereoscopic image is acquired and stored in the recording medium 58. To be recorded.

図3は本発明の第1の実施形態による画像処理装置の構成を示す概略ブロック図である。本発明の第1の実施形態による画像処理装置110は、図1に示すデジタルカメラ1により撮影を行うことにより画像データが記録された記録媒体58がセットされ、記録媒体58から立体視画像を生成するための画像データを読み出して読み出した画像データから立体視画像を表す画像データを生成するものである。なお、立体視画像を生成するための画像データは、撮影者が、同一被写体を複数の視点から撮影することにより取得されるものである。   FIG. 3 is a schematic block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention. The image processing apparatus 110 according to the first embodiment of the present invention sets a recording medium 58 on which image data is recorded by shooting with the digital camera 1 shown in FIG. 1 and generates a stereoscopic image from the recording medium 58. Image data representing the stereoscopic image is generated from the read image data. Note that image data for generating a stereoscopic image is acquired by a photographer photographing the same subject from a plurality of viewpoints.

ユーザが画像の一覧の表示指示を操作部128から行うと、メモリ制御部112が記録媒体58からすべての画像データを読み出し、記録媒体58から読み出されたすべての画像データに付与されたサムネイル画像106が圧縮伸張処理部126によって伸張処理され(圧縮されている場合)、さらにその一覧が生成されて表示部130に画像の一覧が表示される。さらに、ユーザが画像の一覧から立体視画像を生成する2つの画像の選択を操作部128を用いて行うと、メモリ制御部112が記録媒体58からユーザが選択した画像を表す画像データを読み出し、記録媒体58から読み出された画像データが圧縮伸張処理部126によって伸張処理され、距離比率計算部114に入力される。   When the user gives an instruction to display a list of images from the operation unit 128, the memory control unit 112 reads out all image data from the recording medium 58, and thumbnail images attached to all the image data read out from the recording medium 58. 106 is decompressed (compressed) by the compression / decompression processing unit 126, and a list thereof is generated and a list of images is displayed on the display unit 130. Furthermore, when the user selects two images for generating a stereoscopic image from a list of images using the operation unit 128, the memory control unit 112 reads image data representing the image selected by the user from the recording medium 58, and The image data read from the recording medium 58 is decompressed by the compression / decompression processor 126 and input to the distance ratio calculator 114.

距離比率計算部114は、2つの画像データ(以下S1,S2とする)のタグ情報104に記述された被写体距離情報を参照して、2つの画像データS1,S2の撮影時における被写体距離L1,L2の比率L1/L2を算出し、比率L1/L2を画像拡縮処理部116に入力する。   The distance ratio calculation unit 114 refers to the subject distance information described in the tag information 104 of the two image data (hereinafter referred to as S1 and S2), and the subject distance L1 when the two image data S1 and S2 are photographed. The ratio L1 / L2 of L2 is calculated, and the ratio L1 / L2 is input to the image enlargement / reduction processing unit 116.

画像拡縮処理部116は、画像データS1により表される画像(以下画像についても参照符号としてS1を用いる、画像データS2により表される画像についても同様)をL1/L2倍に拡大縮小して拡大縮小された画像データS1′を生成する。ここで、拡大縮小について説明する。図4は被写体距離に応じた画像に含まれる被写体のサイズの違いを説明するための図である。被写体である人物に比較的近い被写体距離L1により撮影を行った場合、撮影により取得された画像S1に含まれる人物は大きくなる。一方、被写体距離L1よりも大きい被写体距離L2により撮影を行った場合、撮影により取得された画像S2に含まれる人物は、被写体距離L1の場合と比較して小さくなる。この場合、画像S1,S2に含まれる人物の大きさの比率はL2:L1となる。したがって、画像拡縮処理部116は画像S1,S2に含まれる人物の大きさが同一となるように、画像S1をL1/L2倍に縮小するようにしたものである。   The image enlargement / reduction processing unit 116 enlarges / reduces an image represented by the image data S1 (hereinafter also using S1 as a reference symbol for the image and the same for the image represented by the image data S2) by L1 / L2. Reduced image data S1 'is generated. Here, enlargement / reduction will be described. FIG. 4 is a diagram for explaining a difference in size of a subject included in an image according to a subject distance. When shooting is performed at a subject distance L1 that is relatively close to the person who is the subject, the person included in the image S1 obtained by shooting is larger. On the other hand, when shooting is performed with a subject distance L2 that is greater than the subject distance L1, the person included in the image S2 acquired by shooting is smaller than in the case of the subject distance L1. In this case, the ratio of the size of the person included in the images S1 and S2 is L2: L1. Accordingly, the image enlargement / reduction processing unit 116 reduces the image S1 to L1 / L2 times so that the sizes of the persons included in the images S1, S2 are the same.

なお、画像拡縮処理部116は、L1/L2<0の場合、画像S1のサイズは縮小されるため、縮小された画像S1′内の周囲を、例えば画像S1′の周縁部の画素値を用いて補完して、画像S1′のサイズを画像S2のサイズと同一にする。逆に、L1/L2>0の場合、画像S1のサイズは拡大されるため、拡大された画像S1′内の周囲を削除して、画像S1′のサイズを画像S2のサイズと同一にする。   Note that, when L1 / L2 <0, the image enlargement / reduction processing unit 116 reduces the size of the image S1, and therefore uses, for example, the pixel values at the periphery of the image S1 ′ around the reduced image S1 ′. Thus, the size of the image S1 ′ is made the same as the size of the image S2. On the other hand, when L1 / L2> 0, the size of the image S1 is enlarged. Therefore, the periphery of the enlarged image S1 ′ is deleted so that the size of the image S1 ′ is the same as the size of the image S2.

画像変換処理部118は、図5に示すように画像S1′と画像S2とが左右に並ぶように画像データS1′および画像データS2を合成するよう変換して立体視画像データG1を生成する。なお、生成された立体視画像データG1は圧縮伸張処理部126により圧縮されて記録媒体58に記録される。   As shown in FIG. 5, the image conversion processing unit 118 converts the image data S1 ′ and the image data S2 so that the image S1 ′ and the image S2 are arranged side by side to generate the stereoscopic image data G1. The generated stereoscopic image data G1 is compressed by the compression / decompression processing unit 126 and recorded on the recording medium 58.

なお、画像処理装置110を駆動するためのプログラムはメインメモリ124に記憶されており、CPU120からの指示によりメモリ制御部122がメインメモリ124からプログラムを読み出し、これによりCPU120が立体視画像の生成を含む各種処理を行う。また、メインメモリ124は画像処理装置110が行う処理の作業領域ともなる。   Note that a program for driving the image processing apparatus 110 is stored in the main memory 124, and the memory control unit 122 reads the program from the main memory 124 according to an instruction from the CPU 120, whereby the CPU 120 generates a stereoscopic image. Perform various processes including. The main memory 124 also serves as a work area for processing performed by the image processing apparatus 110.

次いで、第1の実施形態において行われる処理について説明する。図6は第1の実施形態による画像処理装置110において行われる処理を示すフローチャートである。なお、ここでは立体視画像生成用の2つの画像データS1,S2をユーザが選択した後の処理について説明する。ユーザが立体視画像生成用の2つの画像データS1,S2の選択指示を操作部128を用いて行うことにより処理が開始され、CPU120がメモリ制御部112を駆動して記録媒体58に記録されている2つの画像データS1,S2を記録媒体58から読み出す(ステップS1)。そして、圧縮伸張処理部126が画像データS1,S2を伸張し(ステップS2)、伸張された画像データS1,S2を距離比率計算部114に入力し、距離比率計算部114が被写体距離の比率L1/L2を算出する(ステップS3)。そして、画像拡縮処理部116が、画像データS1により表される画像を比率L1/L2により拡大縮小して、拡大縮小済みの画像データS1′を生成する(ステップS4)。次いで、画像変換処理部118が画像データS1′および画像データS2を変換して立体視画像データG1を生成し(ステップS5)、圧縮伸張処理部126が立体視画像データG1を圧縮する(ステップS6)。そしてCPU120が圧縮された立体視画像データG1を記録媒体58に記録し(ステップS7)、処理を終了する。   Next, processing performed in the first embodiment will be described. FIG. 6 is a flowchart showing processing performed in the image processing apparatus 110 according to the first embodiment. Here, a process after the user selects two image data S1 and S2 for generating a stereoscopic image will be described. The process is started when the user issues an instruction to select two image data S1 and S2 for generating a stereoscopic image using the operation unit 128, and the CPU 120 drives the memory control unit 112 to be recorded on the recording medium 58. The two existing image data S1, S2 are read from the recording medium 58 (step S1). Then, the compression / decompression processing unit 126 decompresses the image data S1 and S2 (step S2), inputs the decompressed image data S1 and S2 to the distance ratio calculation unit 114, and the distance ratio calculation unit 114 performs the subject distance ratio L1. / L2 is calculated (step S3). Then, the image enlargement / reduction processing unit 116 enlarges / reduces the image represented by the image data S1 by the ratio L1 / L2 to generate enlarged / reduced image data S1 ′ (step S4). Next, the image conversion processing unit 118 converts the image data S1 ′ and the image data S2 to generate stereoscopic image data G1 (step S5), and the compression / decompression processing unit 126 compresses the stereoscopic image data G1 (step S6). ). Then, the CPU 120 records the compressed stereoscopic image data G1 on the recording medium 58 (step S7), and ends the process.

このように、第1の実施形態においては、立体視画像を生成するための2つの画像データS1,S2のタグ情報104に記述された被写体距離情報から、2つの画像データS1,S2を取得した際の被写体距離L1,L2の比率L1/L2を算出し、この比率L1/L2により画像S1を拡大縮小するようにしたため、画像S1′に含まれる被写体のサイズと画像S2に含まれる被写体のサイズとをほぼ同一とすることができる。したがって、画像データS1′および画像データS2を合成することにより生成された立体視画像データG1により表される立体視画像を用いて立体視を行った際に、立体視画像を見やすいものとすることができる。   As described above, in the first embodiment, the two image data S1 and S2 are acquired from the subject distance information described in the tag information 104 of the two image data S1 and S2 for generating a stereoscopic image. Since the ratio L1 / L2 of the subject distances L1 and L2 is calculated and the image S1 is enlarged / reduced by the ratio L1 / L2, the size of the subject included in the image S1 ′ and the size of the subject included in the image S2 Can be made substantially the same. Therefore, when a stereoscopic view is performed using the stereoscopic image represented by the stereoscopic image data G1 generated by combining the image data S1 ′ and the image data S2, the stereoscopic image is easy to see. Can do.

なお、上記第1の実施形態においては、比率L1/L2を算出して画像S1を比率L1/L2に応じて拡大縮小しているが、比率L2/L1を算出し、画像S2を比率L2/L1に応じて拡大縮小してもよい。また、拡大縮小後の画像S1′および画像S2をさらに所定の拡大率により拡大縮小するようにしてもよい。   In the first embodiment, the ratio L1 / L2 is calculated and the image S1 is scaled according to the ratio L1 / L2. However, the ratio L2 / L1 is calculated and the image S2 is converted into the ratio L2 / L. You may enlarge / reduce according to L1. Further, the enlarged image S1 ′ and the image S2 may be further enlarged / reduced at a predetermined enlargement ratio.

次いで本発明の第2の実施形態について説明する。図7は本発明の第2の実施形態による画像処理装置の構成を示す概略ブロック図である。なお、第2の実施形態において第1の実施形態と同一の構成については同一の参照番号を付し、詳細な説明は省略する。第2の実施形態による画像処理装置140は、第1の実施形態による画像処理装置110の距離比率計算部114および画像拡縮処理部116に代えて、ホワイトバランス変換処理部(以下WB変換処理部とする)132および変換係数格納部134を備えた点が第1の実施形態と異なる。   Next, a second embodiment of the present invention will be described. FIG. 7 is a schematic block diagram showing the configuration of the image processing apparatus according to the second embodiment of the present invention. In the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. An image processing apparatus 140 according to the second embodiment replaces the distance ratio calculation unit 114 and the image enlargement / reduction processing unit 116 of the image processing apparatus 110 according to the first embodiment with a white balance conversion processing unit (hereinafter referred to as a WB conversion processing unit). The second embodiment is different from the first embodiment in that a conversion coefficient storage unit 134 and a conversion coefficient storage unit 134 are provided.

WB変換処理部132は、ユーザが選択した立体視画像を生成する2つの画像データS1,S2のタグ情報104に記述された光源情報K1,K2に基づいて、画像S2のホワイトバランスと画像S1のホワイトバランスとがほぼ同一となるように、変換係数格納部134に格納されたホワイトバランス変換係数テーブルを参照して、画像S2のホワイトバランスを補正してホワイトバランスが補正された画像データS2″を生成する。   The WB conversion processing unit 132, based on the light source information K1 and K2 described in the tag information 104 of the two image data S1 and S2 that generate the stereoscopic image selected by the user, the white balance of the image S2 and the image S1. With reference to the white balance conversion coefficient table stored in the conversion coefficient storage unit 134 so that the white balance is substantially the same, the white balance of the image S2 is corrected by correcting the white balance of the image S2. Generate.

なお、本実施形態において、立体視画像を生成するための2つの画像データS1,S2は、同一被写体を異なる方向から撮影することにより取得されるものであるため、本来であれば撮影時の光源は同一である。しかしながら、撮影時の背景等の影響により2つの画像S1,S2を取得した際の光源が異なるものであると判断された場合、その判断結果に基づいてホワイトバランスが補正されると、2つの画像S1,S2の色味が異なるものとなってしまう場合がある。第2の実施形態はこのような場合に、画像S2のホワイトバランスを補正するものである。   In the present embodiment, since the two image data S1 and S2 for generating a stereoscopic image are acquired by shooting the same subject from different directions, the light source at the time of shooting is originally used. Are the same. However, when it is determined that the light sources when the two images S1 and S2 are acquired are different due to the influence of the background at the time of shooting, if the white balance is corrected based on the determination result, the two images S1 and S2 may have different colors. In such a case, the second embodiment corrects the white balance of the image S2.

図8はホワイトバランス変換係数テーブルの例を示す図である。図8に示すようにホワイトバランス変換係数テーブルWBTは、画像データS1の光源情報K1と画像データS2の光源情報K2とに基づいて、画像データS2のホワイトバランスを画像データS1のホワイトバランスとほぼ同一とするために画像データS2を補正する、より具体的には画像データS2を構成するRGBの各色信号を補正するマトリクスMを記述したものである。具体的には横方向に光源情報K1、縦方向に光源情報K2を定め、縦横方向の光源情報K1,K2が交差する欄におけるマトリクスMを、画像データS2のホワイトバランスを画像データS1のホワイトバランスとほぼ同一とするよう画像データS2を補正するためのマトリクスMとして選択することができるものである。例えば、画像データS1の光源情報K1が昼光、画像データS2の光源情報K2が白熱灯の場合には、画像データS2のホワイトバランスを画像データS1のホワイトバランスとほぼ同一とするよう画像データS2を補正するためのマトリクスMとしてマトリクスM2が選択される。   FIG. 8 is a diagram illustrating an example of a white balance conversion coefficient table. As shown in FIG. 8, the white balance conversion coefficient table WBT has almost the same white balance as that of the image data S1 based on the light source information K1 of the image data S1 and the light source information K2 of the image data S2. The matrix M is described in which the image data S2 is corrected, more specifically, the RGB color signals constituting the image data S2. Specifically, the light source information K1 in the horizontal direction and the light source information K2 in the vertical direction are determined, the matrix M in the column where the light source information K1 and K2 in the vertical and horizontal directions intersect, the white balance of the image data S2, and the white balance of the image data S1. Can be selected as the matrix M for correcting the image data S2. For example, when the light source information K1 of the image data S1 is daylight and the light source information K2 of the image data S2 is an incandescent lamp, the image data S2 is set so that the white balance of the image data S2 is substantially the same as the white balance of the image data S1. The matrix M2 is selected as the matrix M for correcting.

ここで、マトリクスMは3×3の要素を有する。したがって、WB変換処理部132は、画像データS1の光源情報K1および画像データS2の光源情報K2に基づいて、ホワイトバランス変換係数テーブルWBTを参照してマトリクスMを選択し、画像データS2を構成するRGBの各色信号に対して下記の式(1)に示す演算を施すことにより、画像データS2のホワイトバランスを補正してホワイトバランスが補正された画像データS2″を生成する。
R″ R
G″=M・G (1)
B″ B
但し、R″,G″,B″は画像データS2″を構成する色信号
ここで、画像データS1,S2はデジタルカメラ1のデジタル信号処理部50においてすでに光源の種類に応じたホワイトバランス補正処理が施されている。したがって、WB変換処理部132は、デジタルカメラにおいてホワイトバランスが補正された画像データS2のホワイトバランスをさらに補正する処理を行うものである。
Here, the matrix M has 3 × 3 elements. Therefore, the WB conversion processing unit 132 selects the matrix M with reference to the white balance conversion coefficient table WBT based on the light source information K1 of the image data S1 and the light source information K2 of the image data S2, and configures the image data S2. By performing the calculation shown in the following equation (1) for each of the RGB color signals, the white balance of the image data S2 is corrected to generate image data S2 ″ with the white balance corrected.
R ″ R
G ″ = MG (1)
B ″ B
However, R ″, G ″, B ″ are color signals constituting the image data S2 ″. Here, the image data S1, S2 are processed by the digital signal processing unit 50 of the digital camera 1 in accordance with the white balance correction process according to the type of the light source. Is given. Accordingly, the WB conversion processing unit 132 performs processing for further correcting the white balance of the image data S2 whose white balance has been corrected in the digital camera.

次いで、第2の実施形態において行われる処理について説明する。図9は第2の実施形態による画像処理装置140において行われる処理を示すフローチャートである。なお、ここでは立体視画像生成用の2つの画像データS1,S2をユーザが選択した後の処理について説明する。ユーザが立体視画像生成用の2つの画像データS1,S2の選択指示を操作部128を用いて行うことにより処理が開始され、CPU120がメモリ制御部112を駆動して記録媒体58に記録されている2つの画像データS1,S2を記録媒体58から読み出す(ステップS11)。そして、圧縮伸張処理部126が画像データS1,S2を伸張し(ステップS12)、伸張された画像データS1,S2をWB変換処理部132に入力し、WB変換処理部132が、画像データS1のタグ情報104に記述された光源情報K1および画像データS2のタグ情報104に記述された光源情報K2に基づいて変換係数格納部134に格納されたホワイトバランス変換係数テーブルWBTを参照して、画像データS2のホワイトバランスを画像データS1のホワイトバランスとほぼ同一とするよう画像データS2を補正するマトリクスMを選択する(ステップS13)。   Next, processing performed in the second embodiment will be described. FIG. 9 is a flowchart showing processing performed in the image processing apparatus 140 according to the second embodiment. Here, a process after the user selects two image data S1 and S2 for generating a stereoscopic image will be described. The process is started when the user issues an instruction to select two image data S1 and S2 for generating a stereoscopic image using the operation unit 128, and the CPU 120 drives the memory control unit 112 to be recorded on the recording medium 58. The two existing image data S1 and S2 are read from the recording medium 58 (step S11). The compression / decompression processor 126 decompresses the image data S1 and S2 (step S12), inputs the decompressed image data S1 and S2 to the WB conversion processor 132, and the WB conversion processor 132 stores the image data S1. By referring to the white balance conversion coefficient table WBT stored in the conversion coefficient storage unit 134 based on the light source information K1 described in the tag information 104 and the light source information K2 described in the tag information 104 of the image data S2, the image data A matrix M for correcting the image data S2 is selected so that the white balance of S2 is substantially the same as the white balance of the image data S1 (step S13).

そして、WB変換処理部132はマトリクスMを用いて画像データS2のホワイトバランスを補正して、ホワイトバランスが補正された画像データS2″を生成する(ステップS14)。次いで、画像変換処理部118が画像データS1および画像データS2″を変換して立体視画像データ(G2とする)を生成し(ステップS15)、圧縮伸張処理部126が立体視画像データG2を圧縮する(ステップS16)。そしてCPU120が圧縮された立体視画像データG2を記録媒体58に記録し(ステップS17)、処理を終了する。   Then, the WB conversion processing unit 132 corrects the white balance of the image data S2 using the matrix M to generate image data S2 ″ with the white balance corrected (step S14). The image data S1 and the image data S2 ″ are converted to generate stereoscopic image data (referred to as G2) (step S15), and the compression / decompression processor 126 compresses the stereoscopic image data G2 (step S16). Then, the CPU 120 records the compressed stereoscopic image data G2 on the recording medium 58 (step S17), and ends the process.

このように、第2の実施形態においては、立体視画像を生成するための2つの画像データS1,S2のタグ情報104に記述された光源情報K1,K2に基づいて、変換係数格納部134に格納されたホワイトバランス変換係数テーブルWBTを参照して、画像データS2のホワイトバランスを画像データS1のホワイトバランスとほぼ同一とするよう画像データS2を補正するマトリクスMを選択し、このマトリクスにより画像データS2のホワイトバランスを補正するようにしたため、画像S1および画像S2″の色味をほぼ同一とすることができる。したがって、画像データS1′および画像データS2を変換することにより生成された立体視画像データG2により表される立体視画像を用いて立体視を行った際に、立体視画像を見やすいものとすることができる。   As described above, in the second embodiment, the conversion coefficient storage unit 134 stores the light source information K1 and K2 described in the tag information 104 of the two image data S1 and S2 for generating a stereoscopic image. With reference to the stored white balance conversion coefficient table WBT, a matrix M for correcting the image data S2 is selected so that the white balance of the image data S2 is substantially the same as the white balance of the image data S1, and the image data is determined by this matrix. Since the white balance of S2 is corrected, the colors of the image S1 and the image S2 ″ can be made substantially the same. Therefore, the stereoscopic image generated by converting the image data S1 ′ and the image data S2 When stereoscopic viewing is performed using the stereoscopic image represented by the data G2, the stereoscopic image is viewed. It can be a casting.

なお、上記第2の実施形態においては、画像データS2のホワイトバランスを画像データS1のホワイトバランスとほぼ同一とするよう画像データS2を補正するマトリクスMを選択し、このマトリクスMにより画像データS2のホワイトバランスを補正するようにしているが、ホワイトバランス変換係数テーブルWBTを参照して、画像データS1のホワイトバランスを画像データS2のホワイトバランスとほぼ同一とするよう画像データS1を補正するマトリクスMを選択し、このマトリクスMにより画像データS1のホワイトバランスを補正するようにしてもよい。   In the second embodiment, the matrix M for correcting the image data S2 is selected so that the white balance of the image data S2 is substantially the same as the white balance of the image data S1, and the matrix M is used to select the image data S2. Although the white balance is corrected, a matrix M for correcting the image data S1 so that the white balance of the image data S1 is substantially the same as the white balance of the image data S2 with reference to the white balance conversion coefficient table WBT. The matrix M may be selected and the white balance of the image data S1 may be corrected by the matrix M.

また、図10に示す本発明の第3の実施形態による画像処理装置160のように、上記第1の実施形態による画像処理装置110と第2の実施形態による画像処理装置140とを組み合わせ、画像の拡縮処理およびホワイトバランス補正処理の双方を行うことも可能である。この場合、画像データS1,S2の拡大縮小処理と、画像データS1,S2のホワイトバランスの補正処理とはいずれを先に行ってもよい。   Further, like the image processing apparatus 160 according to the third embodiment of the present invention shown in FIG. 10, the image processing apparatus 110 according to the first embodiment and the image processing apparatus 140 according to the second embodiment are combined to generate an image. It is also possible to perform both the enlargement / reduction processing and the white balance correction processing. In this case, either the enlargement / reduction processing of the image data S1, S2 or the white balance correction processing of the image data S1, S2 may be performed first.

また、上記第1から第3の実施形態においては、画像処理装置110,140,160を単独で用いているが、デジタルカメラ1に画像処理装置110,140,160を設け、デジタルカメラ1において立体視画像データG1,G2を生成するようにしてもよい。   In the first to third embodiments, the image processing devices 110, 140, and 160 are used alone. However, the digital camera 1 is provided with the image processing devices 110, 140, and 160, and the digital camera 1 has a stereoscopic image. Visual image data G1, G2 may be generated.

また、上記第1から第3の実施形態においては、立体視画像データG1,G2を生成するための画像データとして2つの画像データS1,S2を用いているが、3以上の画像データを用いて立体視画像データG1,G2を生成することも可能である。   In the first to third embodiments, two image data S1 and S2 are used as image data for generating the stereoscopic image data G1 and G2, but three or more image data are used. It is also possible to generate stereoscopic image data G1, G2.

また、上記第1から第3の実施形態においては、デジタルカメラにより取得した画像データを用いて立体視画像データG1,G2を生成しているが、立体視画像を生成することを目的として同一被写体を撮影することに取得したプリントやネガフイルムに記録された画像をスキャナ等により読み取ることにより取得した画像データを用いて立体視画像データG1,G2を生成することもできる。この場合、プリントやネガフイルムに記録された画像を読み取って得た画像データに被写体距離情報および/または光源情報を付与した後に記録媒体58に記録すればよい。   In the first to third embodiments, the stereoscopic image data G1 and G2 are generated using the image data acquired by the digital camera. However, the same subject is used for the purpose of generating a stereoscopic image. Stereoscopic image data G1 and G2 can be generated using image data acquired by reading an image recorded on a print or a negative film acquired by photographing with a scanner or the like. In this case, subject distance information and / or light source information may be added to image data obtained by reading an image recorded on a print or negative film, and then recorded on the recording medium 58.

また、上記第1から第3の実施形態においては、記録媒体58に記録された画像データS1,S2を読み出して立体視画像を生成しているが、例えば画像処理装置110,140,160を、立体視画像生成用の画像データを保管するサーバとネットワークを介して接続し、ネットワーク経由で画像データS1,S2を画像処理装置110,140,160に読み出して、立体視画像を生成してもよい。   In the first to third embodiments, the image data S1 and S2 recorded on the recording medium 58 are read to generate a stereoscopic image. For example, the image processing devices 110, 140, and 160 are A stereoscopic image may be generated by connecting to a server that stores image data for generating a stereoscopic image via a network and reading the image data S1, S2 to the image processing devices 110, 140, 160 via the network. .

また、上記第1から第3の実施形態においては、画像データS1,S2を左右に並べた立体視画像データG1,G2を生成して、これを記録媒体58に記録しているが、画像データS1,S2を含む1つの画像ファイルを生成し、そのヘッダ部分にその画像ファイルが立体視画像生成用の画像を含む旨、および画像S1,S2の配置位置を表す情報を含め、その画像ファイルを開いたときに画像S1,S2が左右に並べられて配置された立体視画像を再生できるようにしてもよい。また、3D液晶に表示したときに画像を立体視できるように画像データS1,S2を合成して立体視画像データG1,G2を生成してもよい。   In the first to third embodiments, stereoscopic image data G1 and G2 in which the image data S1 and S2 are arranged on the left and right are generated and recorded on the recording medium 58. However, the image data One image file including S1 and S2 is generated, and the header portion includes information indicating that the image file includes an image for generating a stereoscopic image and information indicating the arrangement positions of the images S1 and S2. It may be possible to reproduce a stereoscopic image in which the images S1 and S2 are arranged side by side when opened. Alternatively, the stereoscopic image data G1 and G2 may be generated by combining the image data S1 and S2 so that the image can be stereoscopically viewed when displayed on the 3D liquid crystal.

以上、本発明の実施形態に係る画像処理装置について説明したが、コンピュータを、上記のメモリ制御部112、距離比率計算部114、画像拡縮処理部116、画像変換処理部118、WB変換処理部132および変換係数格納部134に対応する手段として機能させ、図6および図9に示すような処理を行わせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取可能な記録媒体も、本発明の実施形態の1つである。これらの場合において、ホワイトバランス変換係数テーブルWBTは、プログラム内あるいは同一の記録媒体内に含まれているものであってもよいし、外部の装置や別個の媒体から提供されるものであってもよい。   As described above, the image processing apparatus according to the embodiment of the present invention has been described. However, the computer includes the memory control unit 112, the distance ratio calculation unit 114, the image enlargement / reduction processing unit 116, the image conversion processing unit 118, and the WB conversion processing unit 132. A program that functions as means corresponding to the conversion coefficient storage unit 134 and performs processing as shown in FIGS. 6 and 9 is also one embodiment of the present invention. A computer-readable recording medium that records such a program is also one embodiment of the present invention. In these cases, the white balance conversion coefficient table WBT may be included in the program or the same recording medium, or may be provided from an external device or a separate medium. Good.

デジタルカメラの構成を示す概略ブロック図Schematic block diagram showing the configuration of the digital camera 本実施形態において生成される画像データのファイル構造を示す図The figure which shows the file structure of the image data produced | generated in this embodiment 本発明の第1の実施形態による画像処理装置の構成を示す概略ブロック図1 is a schematic block diagram showing the configuration of an image processing apparatus according to a first embodiment of the present invention. 被写体距離に応じた画像に含まれる被写体のサイズの違いを説明するための図The figure for demonstrating the difference in the size of the subject contained in the image according to subject distance 画像の合成を説明するための図Diagram for explaining image composition 第1の実施形態による画像処理装置において行われる処理を示すフローチャート5 is a flowchart showing processing performed in the image processing apparatus according to the first embodiment. 本発明の第2の実施形態による画像処理装置の構成を示す概略ブロック図Schematic block diagram showing a configuration of an image processing apparatus according to a second embodiment of the present invention. ホワイトバランス変換係数テーブルの例を示す図The figure which shows the example of a white balance conversion coefficient table 第2の実施形態による画像処理装置において行われる処理を示すフローチャートThe flowchart which shows the process performed in the image processing apparatus by 2nd Embodiment. 本発明の第3の実施形態による画像処理装置の構成を示す概略ブロック図The schematic block diagram which shows the structure of the image processing apparatus by the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

58 記録媒体
110,140,160 画像処理装置
112 メモリ制御部
114 距離比率計算部
116 画像拡縮処理部
118 画像変換処理部
120 CPU
122 メモリ制御部
124 メインメモリ
126 圧縮伸張処理部
128 操作部
130 表示部
132 WB変換処理部
134 変換係数格納部
58 Recording Medium 110, 140, 160 Image Processing Device 112 Memory Control Unit 114 Distance Ratio Calculation Unit 116 Image Enlargement / Reduction Processing Unit 118 Image Conversion Processing Unit 120 CPU
122 memory control unit 124 main memory 126 compression / decompression processing unit 128 operation unit 130 display unit 132 WB conversion processing unit 134 conversion coefficient storage unit

Claims (7)

立体視画像を生成するために、同一被写体を複数の視点から撮影することにより取得された、撮影時における撮影情報が付与された複数の画像を取得する画像取得手段と、
前記複数の画像のそれぞれに付与された前記撮影情報に基づいて、前記複数の画像に含まれる前記被写体のサイズおよび/または該複数の画像の画質がほぼ同一となるように、少なくとも1つの前記画像を補正する画像補正手段と、
前記補正された画像およびそれ以外の画像を前記立体視画像に変換する画像変換手段とを備えたことを特徴とする画像処理装置。
Image acquisition means for acquiring a plurality of images provided with shooting information at the time of shooting, obtained by shooting the same subject from a plurality of viewpoints in order to generate a stereoscopic image;
Based on the photographing information given to each of the plurality of images, at least one of the images so that the size of the subject included in the plurality of images and / or the image quality of the plurality of images are substantially the same. Image correcting means for correcting
An image processing apparatus comprising: an image conversion unit that converts the corrected image and other images into the stereoscopic image.
前記撮影情報が撮影時における被写体距離を表す被写体距離情報を含む場合において、
前記画像補正手段は、前記複数の画像の前記被写体距離情報に基づいて、前記複数の画像のそれぞれに対応する前記被写体距離の比率を算出し、前記複数の画像のそれぞれに含まれる前記被写体のサイズがほぼ同一となるように、少なくとも1つの前記画像を該比率に応じて拡大縮小する手段であり、
前記画像変換手段は、前記拡大縮小された画像およびそれ以外の画像を前記立体視画像に変換する手段であることを特徴とする請求項1記載の画像処理装置。
In the case where the shooting information includes subject distance information indicating a subject distance at the time of shooting,
The image correcting unit calculates a ratio of the subject distance corresponding to each of the plurality of images based on the subject distance information of the plurality of images, and the size of the subject included in each of the plurality of images. Are means for enlarging or reducing at least one of the images in accordance with the ratio so that they are substantially the same,
The image processing apparatus according to claim 1, wherein the image conversion unit is a unit that converts the scaled image and other images into the stereoscopic image.
前記画質は前記画像の色味であることを特徴とする請求項1または2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image quality is a color of the image. 前記撮影情報が撮影時における光源の種類を表す光源情報を含む場合において、
前記画像補正手段は、前記光源情報に基づいて前記少なくとも1つの画像の色味を補正する手段であり、
前記画像変換手段は、前記色味が補正された画像およびそれ以外の画像を前記立体視画像に変換する手段であることを特徴とする請求項3記載の画像処理装置。
In the case where the shooting information includes light source information indicating the type of light source at the time of shooting,
The image correction means is means for correcting a color of the at least one image based on the light source information,
The image processing apparatus according to claim 3, wherein the image conversion unit is a unit that converts the image whose color is corrected and other images into the stereoscopic image.
前記画像補正手段は、光源の種類が異なる画像同士のホワイトバランスをほぼ同一とするホワイトバランス変換係数を、複数種類の光源のそれぞれについて規定したホワイトバランス変換係数テーブルを参照して、前記複数の画像のそれぞれに対応する光源情報に基づいて、少なくとも1つの前記画像のホワイトバランスを補正することにより色味を補正する手段であり、
前記画像変換手段は、前記ホワイトバランスが補正された画像およびそれ以外の画像を前記立体視画像に変換する手段であることを特徴とする請求項4記載の画像処理装置。
The image correcting means refers to the white balance conversion coefficient table that defines white balance conversion coefficients for each of a plurality of types of light sources so that the white balance of images of different types of light sources is substantially the same. Is a means for correcting the color by correcting the white balance of at least one of the images based on the light source information corresponding to each of
5. The image processing apparatus according to claim 4, wherein the image conversion means is means for converting the image with the white balance corrected and other images into the stereoscopic image.
立体視画像を生成するために、同一被写体を複数の視点から撮影することにより取得された、撮影時における撮影情報が付与された複数の画像を取得し、
前記複数の画像のそれぞれに付与された前記撮影情報に基づいて、前記複数の画像に含まれる前記被写体のサイズおよび/または該複数の画像の画質がほぼ同一となるように、少なくとも1つの前記画像を補正し、
前記補正された画像およびそれ以外の画像を前記立体視画像に変換することを特徴とする画像処理方法。
In order to generate a stereoscopic image, a plurality of images acquired by shooting the same subject from a plurality of viewpoints and provided with shooting information at the time of shooting are acquired,
Based on the photographing information given to each of the plurality of images, at least one of the images so that the size of the subject included in the plurality of images and / or the image quality of the plurality of images are substantially the same. To correct
An image processing method comprising converting the corrected image and other images into the stereoscopic image.
立体視画像を生成するために、同一被写体を複数の視点から撮影することにより取得された、撮影時における撮影情報が付与された複数の画像を取得する手順と、
前記複数の画像のそれぞれに付与された前記撮影情報に基づいて、前記複数の画像に含まれる前記被写体のサイズおよび/または該複数の画像の画質がほぼ同一となるように、少なくとも1つの前記画像を補正する手順と、
前記補正された画像およびそれ以外の画像を前記立体視画像に変換する手順とを有することを特徴とする画像処理方法をコンピュータに実行させるためのプログラム。
In order to generate a stereoscopic image, a procedure for acquiring a plurality of images obtained by capturing the same subject from a plurality of viewpoints and provided with shooting information at the time of shooting;
Based on the photographing information given to each of the plurality of images, at least one of the images so that the size of the subject included in the plurality of images and / or the image quality of the plurality of images are substantially the same. The procedure to correct
A program for causing a computer to execute an image processing method comprising: converting the corrected image and other images into the stereoscopic image.
JP2004035071A 2004-02-12 2004-02-12 Image processing apparatus and method, and program Pending JP2005229280A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004035071A JP2005229280A (en) 2004-02-12 2004-02-12 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004035071A JP2005229280A (en) 2004-02-12 2004-02-12 Image processing apparatus and method, and program

Publications (1)

Publication Number Publication Date
JP2005229280A true JP2005229280A (en) 2005-08-25

Family

ID=35003662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004035071A Pending JP2005229280A (en) 2004-02-12 2004-02-12 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP2005229280A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100753512B1 (en) 2005-09-07 2007-08-31 엘지전자 주식회사 Mobile device having a stereoscopic image display function and a stereoscopic image display method using the same
JP2010510571A (en) * 2006-11-21 2010-04-02 トムソン ライセンシング Method and system for color correction of 3D image
WO2010134665A1 (en) * 2009-05-18 2010-11-25 (주)엘지전자 3d image reproduction device and method capable of selecting 3d mode for 3d image
CN102668572A (en) * 2009-12-22 2012-09-12 汤姆逊许可证公司 Method and apparatus for optimal motion reproduction in stereoscopic digital cinema
CN102879993A (en) * 2011-07-15 2013-01-16 时代光电科技股份有限公司 Object outline detection device and method
JP2013179397A (en) * 2012-02-28 2013-09-09 Canon Inc Image processing apparatus and image processing method
US9508190B2 (en) 2006-06-09 2016-11-29 Thomson Licensing Method and system for color correction using three-dimensional information

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100753512B1 (en) 2005-09-07 2007-08-31 엘지전자 주식회사 Mobile device having a stereoscopic image display function and a stereoscopic image display method using the same
US9508190B2 (en) 2006-06-09 2016-11-29 Thomson Licensing Method and system for color correction using three-dimensional information
US8538144B2 (en) 2006-11-21 2013-09-17 Thomson Licensing Methods and systems for color correction of 3D images
KR101342987B1 (en) 2006-11-21 2013-12-18 톰슨 라이센싱 Methods and systems for color correction of 3d images
JP4945642B2 (en) * 2006-11-21 2012-06-06 トムソン ライセンシング Method and system for color correction of 3D image
JP2010510571A (en) * 2006-11-21 2010-04-02 トムソン ライセンシング Method and system for color correction of 3D image
US9066077B2 (en) 2009-05-18 2015-06-23 Lg Electronics Inc. 3D image reproduction device and method capable of selecting 3D mode for 3D image
WO2010134665A1 (en) * 2009-05-18 2010-11-25 (주)엘지전자 3d image reproduction device and method capable of selecting 3d mode for 3d image
CN102461180A (en) * 2009-05-18 2012-05-16 Lg电子株式会社 Stereoscopic image reproduction device and method capable of 3D mode selection
CN102461180B (en) * 2009-05-18 2016-01-20 Lg电子株式会社 Stereoscopic image reproduction device and method capable of 3D mode selection
US10051257B2 (en) 2009-05-18 2018-08-14 Lg Electronics Inc. 3D image reproduction device and method capable of selecting 3D mode for 3D image
CN102668572B (en) * 2009-12-22 2015-04-29 汤姆逊许可证公司 Method and apparatus for optimal motion reproduction in stereoscopic digital cinema
US9030525B2 (en) 2009-12-22 2015-05-12 Thomson Licensing Method and apparatus for optimal motion reproduction in stereoscopic digital cinema
CN102668572A (en) * 2009-12-22 2012-09-12 汤姆逊许可证公司 Method and apparatus for optimal motion reproduction in stereoscopic digital cinema
CN102879993A (en) * 2011-07-15 2013-01-16 时代光电科技股份有限公司 Object outline detection device and method
JP2013179397A (en) * 2012-02-28 2013-09-09 Canon Inc Image processing apparatus and image processing method

Similar Documents

Publication Publication Date Title
US8633998B2 (en) Imaging apparatus and display apparatus
JP4787180B2 (en) Imaging apparatus and imaging method
JP5595499B2 (en) Monocular stereoscopic imaging device
US20110234881A1 (en) Display apparatus
US8150217B2 (en) Image processing apparatus, method and program
US20110012995A1 (en) Stereoscopic image recording apparatus and method, stereoscopic image outputting apparatus and method, and stereoscopic image recording outputting system
KR101700366B1 (en) Digital photographing apparatus and control method thereof
JP2009053748A (en) Image processing apparatus, image processing program, and camera
KR101737086B1 (en) Digital photographing apparatus and control method thereof
JP4799501B2 (en) Image capturing apparatus, image capturing apparatus control method, and program
JP2011024003A (en) Three-dimensional moving image recording method and apparatus, and moving image file conversion method and apparatus
KR101626002B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium
US20090290041A1 (en) Image processing device and method, and computer readable recording medium containing program
JP2006121229A (en) Stereo camera
CN102177722A (en) Image processing device and method, and image reproduction device, method and program
US7593635B2 (en) Digital imaging apparatus capable of creating panorama image and a creating method thereof
CN103385005B (en) Stereoscopic image processing device and stereoscopic image processing method
JP6049425B2 (en) Imaging apparatus, image processing apparatus, and control method
KR20160137289A (en) Photographing apparatus and method for controlling the same
JP2005229280A (en) Image processing apparatus and method, and program
JP5191864B2 (en) Three-dimensional display device, method and program
JP4668602B2 (en) Stereoscopic image generation apparatus and method, and program
JP2020205528A (en) Image processing equipment and image processing methods, imaging equipment and its control methods, systems, and programs
JP2013115656A (en) Photographing apparatus
JP5191941B2 (en) Imaging apparatus, image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060508

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081224