[go: up one dir, main page]

JP2014160989A - Display device, display method, and program - Google Patents

Display device, display method, and program Download PDF

Info

Publication number
JP2014160989A
JP2014160989A JP2013031464A JP2013031464A JP2014160989A JP 2014160989 A JP2014160989 A JP 2014160989A JP 2013031464 A JP2013031464 A JP 2013031464A JP 2013031464 A JP2013031464 A JP 2013031464A JP 2014160989 A JP2014160989 A JP 2014160989A
Authority
JP
Japan
Prior art keywords
unit
display
image
color
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013031464A
Other languages
Japanese (ja)
Inventor
Takeshi Suzuki
猛士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2013031464A priority Critical patent/JP2014160989A/en
Publication of JP2014160989A publication Critical patent/JP2014160989A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device, a display method, and a program which enables satisfactory visual recognition of a stereoscopic image of an anaglyph system.SOLUTION: An imaging device 1 has a display section 60 which can display a stereoscopic image of an anaglyph system using two pieces of image data having a parallax respectively to a subject. The imaging device 1 has a display control section 72 which controls a display state of the stereoscopic image which the display section 60 displays on the basis of optical characteristics of two filters which transmit light in wavelength bands different from each other which are arranged in glasses of the anaglyph system.

Description

本発明は、アナグリフ方式の3次元画像を表示する表示装置、表示方法およびプログラムに関する。   The present invention relates to a display device, a display method, and a program for displaying an anaglyph three-dimensional image.

従来、同一の被写体に対して視差を有する2つの画像データを取得し、この取得した2つの画像データを用いて立体視画像データ(以下、「3D画像データ」という)を生成する画像処理装置が知られている(特許文献1参照)。この技術では、2つの画像データにそれぞれ対応する2つの画像のうち少なくとも一方を視差方向に応じて回転または移動させることによって、過大な視差を有する不自然な3D画像データを適正な視差を有する3D画像データに補正する。   2. Description of the Related Art Conventionally, an image processing apparatus that acquires two image data having parallax for the same subject and generates stereoscopic image data (hereinafter referred to as “3D image data”) using the acquired two image data. It is known (see Patent Document 1). In this technique, unnatural 3D image data having excessive parallax is converted into 3D having appropriate parallax by rotating or moving at least one of two images corresponding to the two image data according to the parallax direction. Correct to image data.

ところで、近年、立体視画像(以下、「3D画像」という)を表示可能な3Dテレビジョンや3Dモニター等の普及に伴い、立体視撮影機能を搭載した撮像装置が増えてきている。このような立体視撮影機能を搭載する撮像装置に適用可能な再生表示方式としては、フレーム・シーケンシャル方式やアナグリフ方式、視差障壁方式等が考えられる。このうち、フレーム・シーケンシャル方式は、視差が異なる左右の画像を時系列に沿って交互に表示させなければならず、またそれを3D画像として表示するためには専用の電子制御眼鏡が必要となり、標準型の撮像装置に適用することが難しかった。これに対して、アナグリフ方式は、同一の被写体に対して視差を有する2つの画像データをそれぞれ特殊な画像処理を行った上で重ねて再生し、左右にたとえば赤と青のカラーフィルタを有する眼鏡(以下、「アナグリフ眼鏡」という)によって3D画像データに対応する3D画像をユーザに視認させるものであり、標準型の撮像装置に低コスト、かつ簡易な構成で容易に適用することができる。   Incidentally, in recent years, with the spread of 3D televisions, 3D monitors, and the like that can display stereoscopic images (hereinafter referred to as “3D images”), imaging devices equipped with a stereoscopic imaging function are increasing. As a reproduction display method applicable to an image pickup apparatus equipped with such a stereoscopic photographing function, a frame sequential method, an anaglyph method, a parallax barrier method, or the like can be considered. Of these, the frame-sequential method must display left and right images with different parallax alternately in time series, and in order to display them as 3D images, dedicated electronic control glasses are required, It was difficult to apply to a standard imaging device. In contrast, in the anaglyph method, two image data having parallax with respect to the same subject are reproduced by superimposing them after performing special image processing, respectively, and having, for example, red and blue color filters on the left and right (Hereinafter, referred to as “anaglyph glasses”) allows a user to visually recognize a 3D image corresponding to 3D image data, and can be easily applied to a standard imaging apparatus with a low cost and a simple configuration.

特開2010−232911号公報JP 2010-232911 A

ところで、上述したアナグリフ方式は、ユーザに最適な3D画像を視認させるため、両目でそれぞれの画像を視認させることが求められる。しかしながら、アナグリフ眼鏡は、フィルタの光学特性によって画像の色を黒や他の色に変換して透過させる。このため、画像によっては、ユーザが一方の画像を視認できないので立体感を得られず、不自然な3D画像を視認してしまうという問題点があった。   By the way, the above-described anaglyph method requires the user to visually recognize each image with both eyes in order to visually recognize the optimal 3D image. However, the anaglyph glasses convert the color of the image into black or another color according to the optical characteristics of the filter and transmit it. For this reason, there is a problem in that, depending on the image, the user cannot visually recognize one of the images, so that a stereoscopic effect cannot be obtained and an unnatural 3D image is visually recognized.

本発明は、上記に鑑みてなされたものであって、ユーザに自然な3D画像を視認させることができる表示装置、表示方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide a display device, a display method, and a program that allow a user to visually recognize a natural 3D image.

上述した課題を解決し、目的を達成するために、本発明にかかる表示装置は、同じ被写体に対して視差を有する2つの画像データを用いてアナグリフ方式の立体視画像を表示可能な表示部を備えた表示装置であって、アナグリフ方式の眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、前記表示部が表示する前記立体視画像の表示態様を制御する表示制御部を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, a display device according to the present invention includes a display unit capable of displaying an anaglyph stereoscopic image using two image data having parallax with respect to the same subject. A display device provided with an anaglyph-type eyeglass that controls the display mode of the stereoscopic image displayed by the display unit based on optical characteristics of two filters that transmit light in different wavelength bands. A display control unit is provided.

また、本発明にかかる表示装置は、上記発明において、前記表示制御部は、少なくとも前記立体視画像の一部の色または形状を変更することを特徴とする。   In the display device according to the present invention as set forth in the invention described above, the display control unit changes at least part of the color or shape of the stereoscopic image.

また、本発明にかかる表示装置は、上記発明において、前記2つの画像データを取得する画像取得部と、前記画像取得部が取得した前記2つの画像データを用いて、前記アナグリフ方式の立体視画像データを生成する立体視画像生成部と、当該表示装置に関する操作情報を生成する操作情報生成部と、をさらに備え、前記表示制御部は、前記立体視画像生成部が生成した前記立体視画像データに対応する立体視画像を前記表示部に表示させるとともに、前記2つのフィルタで識別可能な色で前記操作情報を前記立体視画像上に重畳して前記表示部に表示させることを特徴とする。   In the display device according to the present invention, the anaglyph stereoscopic image is obtained using the image acquisition unit that acquires the two image data and the two image data acquired by the image acquisition unit. A stereoscopic image generation unit that generates data; and an operation information generation unit that generates operation information related to the display device, wherein the display control unit generates the stereoscopic image data generated by the stereoscopic image generation unit. Is displayed on the display unit, and the operation information is superimposed on the stereoscopic image in a color that can be identified by the two filters, and is displayed on the display unit.

また、本発明にかかる表示装置は、上記発明において、前記立体視画像上に前記操作情報を重畳する表示領域の色を検出する色検出部を備え、前記表示制御部は、前記色検出部が検出した前記表示領域の色と分離可能な色で前記操作情報を前記表示部に表示させることを特徴とする。   The display device according to the present invention further includes a color detection unit that detects a color of a display region in which the operation information is superimposed on the stereoscopic image, and the display control unit includes the color detection unit. The operation information is displayed on the display unit in a color separable from the detected color of the display area.

また、本発明にかかる表示装置は、上記発明において、前記色検出部は、前記表示領域を色毎に複数の色領域に分割し、該複数の色領域のうち面積比と該色領域の視認指数に基づく値が所定値より大きい色領域の色を前記表示領域の色として検出することを特徴とする。   In the display device according to the present invention as set forth in the invention described above, the color detection unit divides the display region into a plurality of color regions for each color, and the area ratio and the visual recognition of the color region among the plurality of color regions. A color of a color area having a value based on an index larger than a predetermined value is detected as a color of the display area.

また、本発明にかかる表示装置は、上記発明において、前記表示部が表示する複数の操作情報のいずれかを選択する指示信号の入力を受け付け可能な操作入力部をさらに備え、前記表示制御部は、前記操作入力部から入力された前記指示信号に応じて選択された操作情報の形状を、他の操作情報と識別可能な形状に変更して前記表示部に表示させることを特徴とする。   The display device according to the present invention further includes an operation input unit capable of receiving an input of an instruction signal for selecting any of the plurality of operation information displayed on the display unit in the above invention, and the display control unit includes: The shape of the operation information selected according to the instruction signal input from the operation input unit is changed to a shape distinguishable from other operation information and displayed on the display unit.

また、本発明にかかる表示装置は、上記発明において、前記形状は、多角形、円形、楕円形、半円を直線でつないだ形状、雲形、星形、角を丸くした多角形のいずれかであることを特徴とする。   In the display device according to the present invention, the shape is any one of a polygon, a circle, an ellipse, a shape formed by connecting semicircles with a straight line, a cloud shape, a star shape, and a polygon having rounded corners. It is characterized by being.

また、本発明にかかる表示装置は、上記発明において、前記操作情報は、当該表示装置に関する注意を示す注意情報、当該表示装置に関する警告を示す警告情報および当該表示装置が実行可能なメニューを示すメニュー情報の少なくともいずれか一つであることを特徴とする。   Further, in the display device according to the present invention, in the above invention, the operation information includes a menu indicating a warning information indicating a warning regarding the display device, a warning information indicating a warning regarding the display device, and a menu executable by the display device. It is at least one of information.

また、本発明にかかる表示装置は、上記発明において、前記2つの画像データを取得する画像取得部と、前記画像取得部が取得した前記2つの画像データそれぞれに対応する2つの画像に含まれる主被写体を検出する主被写体検出部と、前記2つの画像にそれぞれ含まれる背景に対して、前記主被写体検出部が検出した前記主被写体を識別可能に前記2つの画像データの色空間の変数を変更する色空間変更処理を行う色空間変更部と、前記色空間変更部が前記色空間変更処理を行った前記2つの画像データを用いて、前記アナグリフ方式の立体視画像データを生成する立体視画像生成部と、をさらに備え、前記表示制御部は、前記立体視画像生成部が生成した前記立体視画像データに対応する立体視画像を前記表示部に表示させることを特徴とする。   The display device according to the present invention includes an image acquisition unit that acquires the two image data and two images corresponding to the two image data acquired by the image acquisition unit. Change the color space variable of the two image data so that the main subject detected by the main subject detection unit can be identified with respect to the main subject detection unit for detecting the subject and the background included in each of the two images. A color space changing unit that performs the color space changing process, and a stereoscopic image that generates the anaglyph stereoscopic image data using the two image data that the color space changing unit has performed the color space changing process. A generation unit, wherein the display control unit causes the display unit to display a stereoscopic image corresponding to the stereoscopic image data generated by the stereoscopic image generation unit. To.

また、本発明にかかる表示装置は、上記発明において、前記色空間の変数は、輝度であることを特徴とする。   In the display device according to the present invention as set forth in the invention described above, the color space variable is luminance.

また、本発明にかかる表示装置は、上記発明において、前記色空間の変数は、彩度、色相およびホワイトバランスのいずれかであることを特徴とする。   In the display device according to the present invention as set forth in the invention described above, the color space variable is any one of saturation, hue, and white balance.

また、本発明にかかる表示装置は、上記発明において、前記色空間変更部に前記色空間変更処理の実行を指示する指示信号の入力を受け付ける操作入力部をさらに備え、前記色空間変更部は、前記操作入力部から前記指示信号が入力された場合、前記色空間変更処理を実行することを特徴とする。   The display device according to the present invention further includes an operation input unit that receives an input of an instruction signal instructing the color space changing unit to execute the color space changing process, wherein the color space changing unit includes: When the instruction signal is input from the operation input unit, the color space changing process is executed.

また、本発明にかかる表示装置は、上記発明において、前記被写体を撮像し、該被写体からの光線を結像した被写体画像を受光して光電変換を行うことによって画像データを生成する撮像部をさらに備え、前記画像取得部は、前記撮像部が異なる位置でそれぞれ生成した2つの画像データであって、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを前記2つの画像データとして前記撮像部から取得することを特徴とする。   The display device according to the present invention further includes an imaging unit that captures an image of the subject, receives a subject image formed by imaging light from the subject, and performs photoelectric conversion to generate image data. The image acquisition unit includes two pieces of image data generated at different positions by the image pickup unit, and two pieces of image data in which one end in the left-right direction of each field of view overlaps each other. It acquires from the said imaging part.

また、本発明にかかる表示装置は、上記発明において、互いの光軸が平行または所定の角度をなすように並設され、該被写体からの光線を結像した被写体画像を受光して光電変換することによって前記2つの画像データを生成する撮像部をさらに備え、前記画像取得部は、前記撮像部が前記被写体を同時に撮像して生成した前記2つの画像データを前記撮像部から取得することを特徴とする。   In the display device according to the present invention, in the above-described invention, the optical axes of the display devices are arranged in parallel so that their optical axes are parallel or at a predetermined angle, and a subject image formed by imaging a light beam from the subject is received and photoelectrically converted. The image acquisition unit further includes an imaging unit that generates the two image data, and the image acquisition unit acquires the two image data generated by the imaging unit simultaneously imaging the subject from the imaging unit. And

また、本発明にかかる表示装置は、上記発明において、前記撮像部は、当該表示装置に着脱自在であることを特徴とする。   The display device according to the present invention is characterized in that, in the above invention, the imaging unit is detachable from the display device.

また、本発明にかかる表示装置は、上記発明において、前記2つの画像データを記録する記録部をさらに備え、前記画像取得部は、前記記録部から前記2つの画像データを取得することを特徴とする。   The display device according to the present invention further includes a recording unit that records the two image data in the above-described invention, and the image acquisition unit acquires the two image data from the recording unit. To do.

また、本発明にかかる表示装置は、上記発明において、前記2つの画像データを当該表示装置の外部から得る外部入力部をさらに備え、前記画像取得部は、前記外部入力部から前記2つの画像データを取得することを特徴とする。   The display device according to the present invention further includes an external input unit that obtains the two image data from the outside of the display device in the above invention, and the image acquisition unit receives the two image data from the external input unit. It is characterized by acquiring.

また、本発明にかかる表示装置は、上記発明において、前記表示部の表示態様を変更する表示態様変更モードまたは前記2つの画像データそれぞれに対応する2つの画像のうち一方のみを前記表示部に表示させる2次元画像表示モードを指示するモード指示信号の入力を受け付けるモード切替スイッチ部をさらに備え、前記表示制御部は、前記モード切替スイッチ部から入力される前記モード指示信号に応じて、前記表示態様を変更することを特徴とする。   In the display device according to the present invention, only one of the display mode change mode for changing the display mode of the display unit or the two images corresponding to the two image data is displayed on the display unit. A mode changeover switch unit for receiving an input of a mode instruction signal for instructing a two-dimensional image display mode to be performed, and the display control unit is configured to display the display mode according to the mode instruction signal input from the mode changeover switch unit. It is characterized by changing.

また、本発明にかかる表示方法は、同じ被写体に対して視差を有する2つの画像データを用いてアナグリフ方式の立体視画像を表示可能な表示部を備えた表示装置が実行する表示方法であって、アナグリフ方式の眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、前記表示部が表示する前記立体視画像の表示態様を制御する表示制御ステップを含むことを特徴とする。   The display method according to the present invention is a display method executed by a display device including a display unit capable of displaying an anaglyph stereoscopic image using two image data having parallax with respect to the same subject. A display control step of controlling a display mode of the stereoscopic image displayed by the display unit based on optical characteristics of two filters that transmit light of different wavelength bands provided in the anaglyph glasses. It is characterized by.

また、本発明にかかるプログラムは、同じ被写体に対して視差を有する2つの画像データを用いてアナグリフ方式の立体視画像を表示可能な表示部を備えた表示装置に実行させるプログラムであって、アナグリフ方式の眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、前記表示部が表示する前記立体視画像の表示態様を制御する表示制御ステップを実行させることを特徴とする。   A program according to the present invention is a program that is executed by a display device that includes a display unit capable of displaying an anaglyph stereoscopic image using two image data having parallax with respect to the same subject. A display control step for controlling a display mode of the stereoscopic image displayed by the display unit based on optical characteristics of two filters that transmit light of different wavelength bands provided in the glasses of the system. Features.

本発明によれば、表示制御部がアナグリフ方式の眼鏡に設けられた互い異なる波長帯域の光を透過させる2つのフィルタに応じて、表示部の表示態様を変更するこれにより、ユーザは、自然な3Dアナグリフ画像を視認することができるという効果を奏する。   According to the present invention, the display control unit changes the display mode of the display unit according to the two filters that transmit light of different wavelength bands provided in the anaglyph type glasses. The 3D anaglyph image can be visually recognized.

図1は、本発明の実施の形態1にかかる撮像装置の構成を模式的に示すブロック図である。FIG. 1 is a block diagram schematically showing the configuration of the imaging apparatus according to the first embodiment of the present invention. 図2は、本発明の実施の形態1にかかる撮像装置が実行する処理の概要を示すフローチャートである。FIG. 2 is a flowchart illustrating an outline of processing executed by the imaging apparatus according to the first embodiment of the present invention. 図3は、図2の通常再生処理の概要を示すフローチャートである。FIG. 3 is a flowchart showing an outline of the normal reproduction process of FIG. 図4は、本発明の実施の形態1にかかる撮像装置の表示制御部が2D画像上に操作情報を重畳して表示部に表示させた状態に対して、ユーザがアナグリフ眼鏡を介して視認した際に視認可能な画像を模式的に示す図である。FIG. 4 shows a state in which the display control unit of the imaging apparatus according to the first embodiment of the present invention visually recognizes the state where the operation information is superimposed on the 2D image and displayed on the display unit through the anaglyph glasses. It is a figure which shows typically the image visually recognizable at the time. 図5は、本発明の実施の形態1にかかる撮像装置の表示部が表示する色に対して各フィルタを介して視認することができる色の一覧を示す図である。FIG. 5 is a diagram illustrating a list of colors that can be visually recognized through the filters with respect to the colors displayed by the display unit of the imaging apparatus according to the first embodiment of the present invention. 図6は、アナグリフ眼鏡を介して視認することができる色の一覧を示す図である。FIG. 6 is a diagram showing a list of colors that can be visually recognized through the anaglyph glasses. 図7は、図2のアナグリフ対応再生処理の概要を示すフローチャートである。FIG. 7 is a flowchart showing an outline of the anaglyph compatible reproduction process of FIG. 図8は、発明の実施の形態1にかかる撮像装置の表示制御部が3D画像上に操作情報を重畳して表示部に表示させた状態に対して、ユーザがアナグリフ眼鏡を介して視認した際に視認可能な画像を模式的に示す図である。FIG. 8 shows a state in which the display control unit of the imaging apparatus according to the first embodiment of the invention visually recognizes the state where the operation information is superimposed on the 3D image and displayed on the display unit through the anaglyph glasses. It is a figure which shows typically the image visually recognizable. 図9は、発明の実施の形態1にかかる撮像装置の表示制御部がアナグリフ方式の3D画像上に操作情報として通常のアイコンを重畳して表示部に表示させた状態に対して、ユーザがアナグリフ眼鏡を介して視認した際に視認可能な画像を模式的に示す図である。FIG. 9 shows a state in which the display control unit of the imaging apparatus according to the first embodiment of the invention displays an anaglyph on the display unit by superimposing a normal icon as operation information on the anaglyph 3D image. It is a figure which shows typically the image visually recognizable when visually recognizing through spectacles. 図10は、発明の実施の形態1にかかる撮像装置の表示制御部がアナグリフ方式の3D画像上に操作情報として通常のアイコンを重畳して表示部に表示させた状態に対して、ユーザがアナグリフ眼鏡を介して視認した際に視認可能な画像を模式的に示す図である。FIG. 10 shows a state in which the display control unit of the imaging apparatus according to the first embodiment of the invention displays an anaglyph on the display unit by superimposing a normal icon as operation information on the anaglyph 3D image. It is a figure which shows typically the image visually recognizable when visually recognizing through spectacles. 図11は、本発明の実施の形態2にかかる撮像装置の構成を模式的に示すブロック図である。FIG. 11 is a block diagram schematically showing the configuration of the imaging apparatus according to the second embodiment of the present invention. 図12は、背景色と操作情報の色との重なりによる視認性の変化を指数化かした視認指数を示す視認指数テーブルの一例を示す図である。FIG. 12 is a diagram illustrating an example of a visual index table indicating a visual index obtained by indexing a change in visibility due to an overlap between the background color and the color of operation information. 図13は、光の3原色を示す図である。FIG. 13 is a diagram showing the three primary colors of light. 図14Aは、アナグリフ眼鏡の左目を介して視認した際の背景色と操作情報の色との重なりによる視認性の変化を指数化した視認指数を示す視認指数テーブルの一例を示す図である。FIG. 14A is a diagram illustrating an example of a visual index table indicating a visual index obtained by indexing a change in visibility due to an overlap between a background color and an operation information color when viewed through the left eye of anaglyph glasses. 図14Bは、アナグリフ眼鏡の右目を介して視認した際の背景色と操作情報の色との重なりによる視認性の変化を指数化した視認指数を示す視認指数テーブルの一例を示す図である。FIG. 14B is a diagram illustrating an example of a visual index table indicating a visual index obtained by indexing a change in visibility due to an overlap between a background color and an operation information color when viewed through the right eye of anaglyph glasses. 図15は、本発明の実施の形態2にかかる撮像装置が実行するアナグリフ対応再生処理の概要を示すフローチャートである。FIG. 15 is a flowchart illustrating an outline of the anaglyph compatible reproduction process executed by the imaging apparatus according to the second embodiment of the present invention. 図16は、図15の背景画像モデリング処理の概要を示すフローチャートである。FIG. 16 is a flowchart showing an overview of the background image modeling process of FIG. 図17は、本発明の実施の形態2にかかる撮像装置のモデリング部によって3D画像上に重畳する操作情報の表示領域が色毎にモデリング化された状態の一例を示す図である。FIG. 17 is a diagram illustrating an example of a state where the display area of the operation information to be superimposed on the 3D image is modeled for each color by the modeling unit of the imaging apparatus according to the second embodiment of the present invention. 図18は、本発明の実施の形態2にかかる撮像装置の背景色指数算出部および視認指数算出部が視認指数記録部によって記録された視認指数情報を用いて背景指数および視認指数を算出する際の計算の一例を示す図である。FIG. 18 illustrates a case where the background color index calculating unit and the visual index calculating unit of the imaging apparatus according to the second embodiment of the present invention calculate the background index and the visual index using the visual index information recorded by the visual index recording unit. It is a figure which shows an example of calculation of. 図19は、本発明の実施の形態2にかかる撮像装置の表示制御部が通常のアナグリフ方式の3D画像上に操作情報を重畳して表示部に表示させた状態に対して、ユーザがアナグリフ眼鏡を介して視認した際に視認可能な画像を模式的に示す図である。FIG. 19 shows an anaglyph glasses when the display control unit of the imaging apparatus according to the second embodiment of the present invention superimposes operation information on a normal anaglyph 3D image and displays it on the display unit. It is a figure which shows typically the image visually recognizable when visually recognizing via. 図20は、本発明の実施の形態2にかかる撮像装置の表示制御部が3D画像上に、操作情報生成部が生成した操作情報を重畳して表示部に表示させた状態に対して、ユーザがアナグリフ眼鏡を介して視認した際に視認可能な画像を模式的に示す図である。FIG. 20 shows a state in which the display control unit of the imaging apparatus according to the second embodiment of the present invention superimposes the operation information generated by the operation information generation unit on the 3D image and displays it on the display unit. It is a figure which shows typically the image visually recognizable when visually recognizing via anaglyph glasses. 図21は、本発明の実施の形態3にかかる撮像装置の構成を模式的に示すブロック図である。FIG. 21 is a block diagram schematically illustrating the configuration of the imaging apparatus according to the third embodiment of the present invention. 図22は、本発明の実施の形態3にかかる撮像装置が実行するアナグリフ対応再生処理の概要を示すフローチャートである。FIG. 22 is a flowchart showing an outline of an anaglyph compatible reproduction process executed by the imaging apparatus according to the third embodiment of the present invention. 図23は、本発明の実施の形態3にかかる輝度成分補正部が実行する補正方法の概要を模式的に示す図である。FIG. 23 is a diagram schematically illustrating an outline of a correction method executed by the luminance component correction unit according to the third embodiment of the present invention. 図24は、本発明の実施の形態3にかかる輝度成分補正部が実行する補正方法の概要を模式的に示す図である。FIG. 24 is a diagram schematically illustrating an outline of a correction method executed by the luminance component correction unit according to the third embodiment of the present invention. 図25は、本発明の実施の形態3にかかる撮像装置の表示制御部が通常のアナグリフ方式の3D画像を表示部に表示させた状態に対して、ユーザがアナグリフ眼鏡を介して視認した際に視認可能な画像を模式的に示す図である。FIG. 25 shows a state in which the display control unit of the imaging apparatus according to the third embodiment of the present invention visually recognizes a normal anaglyph 3D image on the display unit through the anaglyph glasses. It is a figure which shows typically the image which can be visually recognized. 図26は、本発明の実施の形態3にかかる撮像装置の表示制御部が色空間変更部によって色空間が変換された3D画像を表示部に表示させた状態に対して、ユーザがアナグリフ眼鏡を介して視認した際に視認可能な画像を模式的に示す図である。FIG. 26 shows a state where the display control unit of the imaging apparatus according to the third embodiment of the present invention displays the 3D image whose color space is converted by the color space changing unit on the display unit. It is a figure which shows typically the image visually recognizable when visually recognizing via.

以下、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)を説明する。なお、以下の説明では、本発明の表示装置が搭載された撮像装置を例に説明する。また、この実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付して説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings. In the following description, an imaging apparatus equipped with the display device of the present invention will be described as an example. Further, the present invention is not limited by this embodiment. Further, in the description of the drawings, the same portions will be described with the same reference numerals.

(実施の形態1)
図1は、本発明の実施の形態1にかかる撮像装置の構成を模式的に示すブロック図である。図1に示す撮像装置1は、撮像部10と、外部I/F20と、操作入力部30と、画像処理部40と、記録部50と、表示部60と、制御部70と、を備える。
(Embodiment 1)
FIG. 1 is a block diagram schematically showing the configuration of the imaging apparatus according to the first embodiment of the present invention. The imaging device 1 illustrated in FIG. 1 includes an imaging unit 10, an external I / F 20, an operation input unit 30, an image processing unit 40, a recording unit 50, a display unit 60, and a control unit 70.

撮像部10は、被写体を撮像して被写体の画像データを生成する。撮像部10は、所定の視野領域から光を集光して結像する光学系と、光学系が集光して結像した被写体像を撮像面で受光して光電変換を行うことによって、光を電気信号(アナログ信号)に変換するCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と、撮像素子から出力される電気信号に増幅(ゲイン調整)等の信号処理を施すアナログフロントエンド回路と、アナログフロントエンド回路から出力される電気信号をA/D変換することによってデジタルの画像データに変換するA/D変換回路と、を有する。なお、撮像部10は、被写体を異なる位置から撮像し、互いの視野の左右方向の一端部同士が重なりを有し、2つの画像データを生成可能な2眼式を適用してもよい。   The imaging unit 10 images a subject and generates image data of the subject. The imaging unit 10 collects light from a predetermined field of view and forms an image, and receives an object image focused by the optical system and forms an image on the imaging surface to perform photoelectric conversion. An image sensor such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) that converts the signal into an electrical signal (analog signal) and a signal process such as amplification (gain adjustment) on the electrical signal output from the image sensor An analog front-end circuit; and an A / D conversion circuit that converts an electrical signal output from the analog front-end circuit into digital image data by performing A / D conversion. Note that the imaging unit 10 may apply a binocular system that captures an image of a subject from different positions and has one end in the left-right direction of each field of view overlapping and capable of generating two image data.

外部I/F20は、他の機器と通信を行って画像データを含む各種データが入力される通信インターフェースである。外部I/F20は、所定の無線通信規格に従って、他の機器と無線通信を行って画像データを含む各種データを受信してもよい。   The external I / F 20 is a communication interface through which various data including image data is input by communicating with other devices. The external I / F 20 may receive various data including image data by performing wireless communication with other devices in accordance with a predetermined wireless communication standard.

操作入力部30は、撮像装置1を駆動する指示信号の入力を受け付ける電源スイッチ31と、撮影の指示を与えるレリーズ信号の入力を受け付けるレリーズスイッチ32と、撮像装置1に設定された各種撮影モード切替の指示を与える切替信号の入力を受け付けるモード切替スイッチ33と、撮像装置1の各種パラメータを設定する設定信号の入力を受け付ける設定スイッチ34と、記録部50が記録する画像データを表示部60に再生表示させる指示信号の入力を受け付ける再生スイッチ35と、を有する。   The operation input unit 30 includes a power switch 31 that receives an input of an instruction signal that drives the imaging apparatus 1, a release switch 32 that receives an input of a release signal that gives an instruction to shoot, and various shooting mode switches set in the imaging apparatus 1. Mode switch 33 that accepts an input of a switching signal that gives an instruction for the image, setting switch 34 that accepts an input of a setting signal for setting various parameters of the imaging apparatus 1, and reproduction of image data recorded by the recording unit 50 on the display unit 60 And a reproduction switch 35 for receiving an input of an instruction signal to be displayed.

画像処理部40は、制御部70を介して撮像部10、外部I/F20および記録部50のいずれかから画像データを取得し、取得した画像データに対して各種の画像処理を行う。画像処理部40は、画像取得部41と、3D画像生成部42と、色検出部43と、操作情報生成部44と、を備える。   The image processing unit 40 acquires image data from any of the imaging unit 10, the external I / F 20, and the recording unit 50 via the control unit 70, and performs various types of image processing on the acquired image data. The image processing unit 40 includes an image acquisition unit 41, a 3D image generation unit 42, a color detection unit 43, and an operation information generation unit 44.

画像取得部41は、制御部70を介して撮像部10、外部I/F20および記録部50のいずれかから、同一の被写体に対して互いに視差を有する2つの画像データを取得する。ここで、2つの画像データとは、右目用画像データと左目用画像データである。また、画像取得部41は、制御部70を介して撮像部10、外部I/F20および記録部50のいずれから1つの画像データを取得する。   The image acquisition unit 41 acquires two pieces of image data having parallax with respect to the same subject from any of the imaging unit 10, the external I / F 20, and the recording unit 50 via the control unit 70. Here, the two image data are right-eye image data and left-eye image data. Further, the image acquisition unit 41 acquires one image data from any of the imaging unit 10, the external I / F 20, and the recording unit 50 via the control unit 70.

3D画像生成部42は、画像取得部41が取得した2つの画像データを用いてアナグリフ方式の3D画像データを生成する。具体的には、3D画像生成部42は、左目用画像データからマゼンダ(magenta)の成分および黄(Yellow)の成分をそれぞれ抽出し、この抽出したマゼンダの成分および黄の成分を合成することによってアナグリフ方式の左目用画像データを生成する一方、右目画像用データからシアン(Cyan)の成分を抽出し、この抽出したシアンの成分からアナグリフ方式の右目用画像データを生成する。   The 3D image generation unit 42 generates anaglyph 3D image data using the two image data acquired by the image acquisition unit 41. Specifically, the 3D image generation unit 42 extracts the magenta component and the yellow component from the left-eye image data, respectively, and combines the extracted magenta component and yellow component. While anaglyph-type left-eye image data is generated, a cyan component is extracted from the right-eye image data, and anaglyph-type right-eye image data is generated from the extracted cyan component.

色検出部43は、画像取得部41が取得した2つの画像データそれぞれに対応する2つの画像に含まれる色成分を検出し、この検出結果を操作情報生成部44へ出力する。具体的には、色検出部43は、3D画像上に後述する撮像装置1に関する操作情報を重畳する表示領域の色を検出し、この検出結果を操作情報生成部44へ出力する。また、色検出部43は、3D画像を構成する画素毎に色成分を検出し、この検出結果を操作情報生成部44へ出力してもよい。   The color detection unit 43 detects color components included in two images corresponding to the two image data acquired by the image acquisition unit 41 and outputs the detection result to the operation information generation unit 44. Specifically, the color detection unit 43 detects the color of the display area in which operation information related to the imaging device 1 described later is superimposed on the 3D image, and outputs the detection result to the operation information generation unit 44. The color detection unit 43 may detect a color component for each pixel constituting the 3D image and output the detection result to the operation information generation unit 44.

操作情報生成部44は、操作入力部30から入力される指示信号および色検出部43から入力される検出結果に基づいて、3D画像上に重畳する撮像装置1に関するアナグリフ方式の操作情報(操作データ)を生成し、この生成した操作情報を制御部70へ出力する。ここで、操作情報とは、撮像装置1に関する注意を示す注意情報、撮像装置1に関する警告を示す警告情報、および撮像装置1が実行可能なメニューを示すメニュー情報を含む。また、操作情報生成部44は、表示部60が通常の2D画像を表示する場合、操作入力部30から入力される指示信号に応じた撮像装置1に関する操作情報を生成し、この生成した操作情報を制御部70へ出力する。   Based on the instruction signal input from the operation input unit 30 and the detection result input from the color detection unit 43, the operation information generation unit 44 uses the anaglyph method operation information (operation data) related to the imaging device 1 to be superimposed on the 3D image. ) And the generated operation information is output to the control unit 70. Here, the operation information includes caution information indicating a caution regarding the imaging apparatus 1, warning information indicating a warning regarding the imaging apparatus 1, and menu information indicating a menu executable by the imaging apparatus 1. In addition, when the display unit 60 displays a normal 2D image, the operation information generation unit 44 generates operation information related to the imaging device 1 according to the instruction signal input from the operation input unit 30, and the generated operation information Is output to the control unit 70.

記録部50は、撮像装置1が実行する各種プログラムおよび画像処理部40が実行するプログラムを記録するプログラム記録部51と、撮像部10が撮像した画像データ(たとえばRAWデータやJPEG方式による圧縮データ)、画像処理部40が画像処理を施した3D画像データおよび2D画像データを記録する画像データ記録部52と、を有する。記録部50は、撮像装置1の内部に固定的に設けられるFlashメモリやDRAM(Dynamic Random Access Memory)等の半導体メモリおよび撮像装置1の外部から図示しないI/Fを介して装着されるメモリカードを用いて構成される。   The recording unit 50 includes a program recording unit 51 that records various programs executed by the imaging apparatus 1 and a program executed by the image processing unit 40, and image data captured by the imaging unit 10 (for example, RAW data or compressed data by the JPEG method). The image processing unit 40 includes 3D image data subjected to image processing and an image data recording unit 52 that records 2D image data. The recording unit 50 includes a semiconductor memory such as a flash memory and a DRAM (Dynamic Random Access Memory) that is fixedly provided inside the imaging apparatus 1 and a memory card that is mounted from outside the imaging apparatus 1 via an I / F (not shown). It is configured using.

表示部60は、制御部70の制御のもと、画像データに対応する2D画像または3D画像を表示する。表示部60は、液晶または有機EL(Electro Luminescence)等からなる表示パネルおよび表示駆動ドライバ等を用いて構成される。ここで、画像の表示には、撮影直後の撮影後確認表示(以下、「レックビュー表示」という)、記録部50に記録された画像データを再生する再生表示、および撮像部10が連続的に生成する画像データに対応するライブビュー画像を時系列に沿って順次表示するライブビュー画像表示等が含まれる。ここで、レックビュー表示とは、撮影直後の画像データを所定時間(たとえば3秒)だけ表示するものである。また、表示部60は、制御部70の制御のもと、撮像装置1の操作情報および撮影に関する情報を適宜表示する。   The display unit 60 displays a 2D image or a 3D image corresponding to the image data under the control of the control unit 70. The display unit 60 is configured using a display panel made of liquid crystal or organic EL (Electro Luminescence), a display drive driver, and the like. Here, for image display, a post-shooting confirmation display immediately after shooting (hereinafter referred to as “rec view display”), a playback display for playing back image data recorded in the recording unit 50, and the imaging unit 10 are continuously provided. This includes live view image display that sequentially displays live view images corresponding to the image data to be generated in time series. Here, the REC view display is to display image data immediately after shooting for a predetermined time (for example, 3 seconds). Further, the display unit 60 appropriately displays operation information of the imaging apparatus 1 and information related to photographing under the control of the control unit 70.

制御部70は、撮像装置1を構成する各部に対して制御信号や各種データの転送を行うことにより、撮像装置1の動作を統括的に制御する。制御部70は、CPU(Central Processing Unit)等を用いて構成される。ここで、制御部70の詳細な構成について説明する。制御部70は、撮影制御部71と、表示制御部72と、を有する。   The control unit 70 performs overall control of the operation of the imaging device 1 by transferring control signals and various data to each unit constituting the imaging device 1. The control unit 70 is configured using a CPU (Central Processing Unit) or the like. Here, a detailed configuration of the control unit 70 will be described. The control unit 70 includes a shooting control unit 71 and a display control unit 72.

撮影制御部71は、レリーズスイッチ32を介してレリーズ信号が入力された場合、撮像装置1における撮影動作を開始する制御を行う。ここで、撮像装置1における撮影動作とは、撮像部10を駆動することによって撮像部10が出力した画像データ(RAWデータや)に対して、少なくとも画像処理部40が所定の処理を施す動作をいう。このように処理が施された画像データは、撮影制御部71によって記録部50に記録される。   When a release signal is input via the release switch 32, the shooting control unit 71 performs control to start a shooting operation in the imaging device 1. Here, the imaging operation in the imaging apparatus 1 is an operation in which at least the image processing unit 40 performs predetermined processing on image data (RAW data or the like) output from the imaging unit 10 by driving the imaging unit 10. Say. The image data thus processed is recorded in the recording unit 50 by the imaging control unit 71.

表示制御部72は、画像処理部40から入力される3D画像データに対応する3D画像または立体視画像ではない通常の画像データに対応する画像(以下、「2D画像」という)を表示部60に表示させる制御を行う。具体的には、表示制御部72は、表示部60に3D画像を表示させる場合、画像処理部40によって生成された3D画像データに対応する3D画像を表示部60に表示させる。これに対して、表示制御部72は、表示部60に2D画像を表示させる場合、画像処理部40によって生成された2D画像データに対応する2D画像を表示部60に表示させる。また、表示制御部72は、アナグリフ眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、表示部60が表示する立体画像の表示態様を制御する。さらに、表示制御部72は、表示部60が表示する3D画像上に、操作情報生成部44によって生成されたアナグリフ方式に対応した操作情報を重畳して表示部60に表示させる。   The display control unit 72 displays a 3D image corresponding to 3D image data input from the image processing unit 40 or an image corresponding to normal image data that is not a stereoscopic image (hereinafter referred to as “2D image”) on the display unit 60. Control the display. Specifically, when displaying a 3D image on the display unit 60, the display control unit 72 causes the display unit 60 to display a 3D image corresponding to the 3D image data generated by the image processing unit 40. On the other hand, when displaying a 2D image on the display unit 60, the display control unit 72 displays a 2D image corresponding to the 2D image data generated by the image processing unit 40 on the display unit 60. In addition, the display control unit 72 controls the display mode of the stereoscopic image displayed by the display unit 60 based on the optical characteristics of the two filters that transmit light in different wavelength bands provided in the anaglyph glasses. Further, the display control unit 72 causes the display unit 60 to display the operation information corresponding to the anaglyph method generated by the operation information generation unit 44 on the 3D image displayed by the display unit 60.

以上の構成を有する撮像装置1が実行する処理について説明する。図2は、撮像装置1が実行する処理の概要を示すフローチャートである。   Processing executed by the imaging apparatus 1 having the above configuration will be described. FIG. 2 is a flowchart illustrating an outline of processing executed by the imaging apparatus 1.

図2に示すように、まず、ユーザによって電源スイッチ31が操作されて、撮像装置1の電源がオンになると、制御部70は、撮像装置1の初期化処理を行う(ステップS101)。撮像装置のオートパワーオフ機能を有効にするための動作フラグをクリアする初期化等を行う。   As shown in FIG. 2, first, when the power switch 31 is operated by the user and the power of the imaging apparatus 1 is turned on, the control unit 70 performs initialization processing of the imaging apparatus 1 (step S101). Initialization for clearing an operation flag for enabling the auto power off function of the imaging apparatus is performed.

続いて、撮像装置1が撮影モードに設定されている場合(ステップS102:Yes)、撮影制御部71は、レリーズスイッチ32から入力されるレリーズ信号に応じて、撮像部10を駆動することによって撮像部10に画像データを生成させ、この画像データを画像処理部40に画像処理を施させて記録部50に記録する撮影動作処理を実行する(ステップS103)。   Subsequently, when the imaging device 1 is set to the imaging mode (step S102: Yes), the imaging control unit 71 drives the imaging unit 10 in accordance with the release signal input from the release switch 32 to perform imaging. The image data is generated in the unit 10, and the image processing unit 40 performs image processing on the image processing unit 40 and records it in the recording unit 50 (step S 103).

その後、電源スイッチ31が操作されて、撮像装置1の電源がオフになった場合(ステップS104:Yes)、制御部70は、各フラグを初期状態にする処理や撮像部10を初期状態に戻す終了処理を実行する(ステップS105)。たとえば、制御部70は、撮像部10の光学系を初期位置に移動させる処理を行う。ステップS105の後、撮像装置1は、本処理を終了する。これに対して、電源スイッチ31が操作されず、撮像装置1の電源がオフになっていない場合(ステップS104:No)、撮像装置1は、ステップS102へ戻る。   Thereafter, when the power switch 31 is operated and the power of the imaging apparatus 1 is turned off (step S104: Yes), the control unit 70 returns the processing of setting each flag to the initial state and the imaging unit 10 to the initial state. An end process is executed (step S105). For example, the control unit 70 performs a process of moving the optical system of the imaging unit 10 to the initial position. After step S105, the imaging apparatus 1 ends this process. On the other hand, when the power switch 31 is not operated and the power of the imaging device 1 is not turned off (step S104: No), the imaging device 1 returns to step S102.

ステップS102において、撮像装置1が撮影モードに設定されていない場合(ステップS102:No)において、撮像装置1がアナグリフ再生モードに設定されているとき(ステップS106:Yes)、撮像装置1は、後述するステップS108へ移行する。これに対して、撮像装置1がアナグリフ再生モードに設定されていないとき(ステップS106:No)、撮像装置1は、後述するステップS107へ移行する。   In step S102, when the imaging device 1 is not set to the shooting mode (step S102: No), when the imaging device 1 is set to the anaglyph reproduction mode (step S106: Yes), the imaging device 1 will be described later. The process proceeds to step S108. On the other hand, when the imaging device 1 is not set to the anaglyph playback mode (step S106: No), the imaging device 1 proceeds to step S107 described later.

ステップS107において、撮像装置1は、記録部50の画像データ記録部52に記録された通常の画像データに対応する2D画像を表示部60に表示させる通常再生処理を実行する。なお、通常再生処理の詳細は後述する。ステップS107の後、撮像装置1は、ステップS104へ移行する。   In step S <b> 107, the imaging apparatus 1 executes normal reproduction processing for displaying a 2D image corresponding to normal image data recorded in the image data recording unit 52 of the recording unit 50 on the display unit 60. Details of the normal reproduction process will be described later. After step S107, the imaging apparatus 1 proceeds to step S104.

ステップS108において、撮像装置1は、記録部50の画像データ記録部52に記録された3D画像データに対応する3D画像を表示部60に表示させるアナグリフ対応再生処理を実行する。なお、アナグリフ対応再生処理の詳細は後述する。ステップS108の後、撮像装置1は、ステップS104へ移行する。   In step S <b> 108, the imaging apparatus 1 executes an anaglyph compatible reproduction process in which a 3D image corresponding to the 3D image data recorded in the image data recording unit 52 of the recording unit 50 is displayed on the display unit 60. The details of the anaglyph compatible reproduction process will be described later. After step S108, the imaging apparatus 1 proceeds to step S104.

つぎに、図2のステップS107の通常再生処理について説明する。図3は、通常再生処理の概要を示すフローチャートである。   Next, the normal reproduction process in step S107 in FIG. 2 will be described. FIG. 3 is a flowchart showing an outline of the normal reproduction process.

図3に示すように、画像取得部41は、画像データ記録部52から再生対象の画像ファイルデータを取得する(ステップS201)。たとえば、画像取得部41は、画像データ記録部52に記録された複数の画像ファイルデータの中から最新の画像ファイルデータを再生対象の画像ファイルデータとして取得する。   As shown in FIG. 3, the image acquisition unit 41 acquires image file data to be reproduced from the image data recording unit 52 (step S201). For example, the image acquisition unit 41 acquires the latest image file data from among a plurality of image file data recorded in the image data recording unit 52 as image file data to be reproduced.

続いて、表示制御部72は、画像処理部40が画像処理を施した画像データに対応する2D画像に、操作情報生成部44によって通常の設定(OSD;On Screen Display)設定)を用いて生成された操作情報を重畳して表示部60に表示させる(ステップS202)。   Subsequently, the display control unit 72 generates a 2D image corresponding to the image data subjected to the image processing by the image processing unit 40 by using the normal setting (OSD; On Screen Display) setting by the operation information generation unit 44. The displayed operation information is superimposed and displayed on the display unit 60 (step S202).

図4は、表示制御部72が2D画像W1LR上に操作情報を重畳して表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。図5は、表示部60が表示する色に対して各フィルタを介して視認することができる色の一覧を示す図である。図6は、アナグリフ眼鏡を介して視認することができる色の一覧を示す図である。また、本実施の形態1では、アナグリフ眼鏡として互いに異なる波長帯域の光を透過させる2つのフィルタとして、左目に赤(Red)フィルタ、左目にシアン(Cyan)フィルタを用いた場合を説明する。なお、アナグリフ眼鏡のフィルタとしては、たとえばマゼンダと緑(Green)であってもよく、適宜変更することができる。 FIG. 4 shows an image that can be seen when the user visually recognizes via the anaglyph glasses 100 with respect to the state in which the display control unit 72 displays the operation information superimposed on the 2D image W1 LR on the display unit 60. It is a figure shown typically. FIG. 5 is a diagram illustrating a list of colors that can be visually recognized through the filters with respect to the colors displayed on the display unit 60. FIG. 6 is a diagram showing a list of colors that can be visually recognized through the anaglyph glasses. In the first embodiment, a case where a red filter for the left eye and a cyan filter for the left eye are used as two filters that transmit light in different wavelength bands as anaglyph glasses will be described. The filter of the anaglyph glasses may be magenta and green, for example, and can be changed as appropriate.

図4に示すように、表示制御部72は、画像データに対応する2D画像W1LR上に、撮像装置1に関する操作情報を重畳して表示部60に表示させる。これにより、ユーザは、裸眼の状態であれば、表示部60を介して撮像装置1の操作情報を把握することができる。また、図4に示す状況は、操作入力部30を介して指定した画像ファイルデータに記録された画像データの再生表示ができない旨のメッセージの再生不可を赤色で示す。さらに、図4に示す2D画像W1LRは、背景画像を黒(Black)で表示し、操作情報を赤で表示した状態を示す。このような状況下において、ユーザがアナグリフ眼鏡100を装着して2D画像W1LRを視認したとき、左目では画像W1Lを視認する一方、右目では画像W1Rを視認する。具体的には、図5の視認テーブルT1および図6の視認テーブルT2に示すように、ユーザがアナグリフ眼鏡100を用いて2D画像W1LRを視認した場合、シアンフィルタによって赤が黒に変換され、かつ、背景が黒のため、操作情報が背景に埋もれてしまい、右目においては操作情報を視認することができない。 As illustrated in FIG. 4, the display control unit 72 causes the display unit 60 to display the operation information related to the imaging device 1 on the 2D image W1 LR corresponding to the image data. Thereby, the user can grasp the operation information of the imaging apparatus 1 via the display unit 60 if the user is in the naked eye state. Further, the situation shown in FIG. 4 indicates in red that the message cannot be reproduced indicating that the image data recorded in the image file data designated via the operation input unit 30 cannot be reproduced and displayed. Further, the 2D image W1 LR shown in FIG. 4 shows a state in which the background image is displayed in black and the operation information is displayed in red. Under such circumstances, when the user wears the anaglyph glasses 100 and visually recognizes the 2D image W1 LR , the left eye visually recognizes the image W1 L , while the right eye visually recognizes the image W1 R. Specifically, as shown in the viewing table T1 of FIG. 5 and the viewing table T2 of FIG. 6, when the user visually recognizes the 2D image W1 LR using the anaglyph glasses 100, red is converted to black by the cyan filter, In addition, since the background is black, the operation information is buried in the background, and the operation information cannot be visually recognized by the right eye.

図3に戻り、ステップS203以降の説明を続ける。ステップS203において、制御部70は、操作入力部30から操作情報の表示を変更する指示信号が入力されたか否かを判断する。具体的には、制御部70は、操作入力部30の設定スイッチ34から撮影条件のパラメータ、たとえば、絞り値を変更する指示信号が入力されたか否かを判断する。制御部70が操作入力部30から操作情報の表示を変更する指示信号が入力されたと判断した場合(ステップS203:Yes)、撮像装置1は、ステップS202へ戻る。これに対して、制御部70が操作入力部30から操作情報の表示を変更する指示信号が入力されていないと判断した場合(ステップS203:No)、撮像装置1は、ステップS204へ移行する。   Returning to FIG. 3, the description of step S203 and subsequent steps will be continued. In step S <b> 203, the control unit 70 determines whether or not an instruction signal for changing the display of the operation information is input from the operation input unit 30. Specifically, the control unit 70 determines whether or not an imaging condition parameter, for example, an instruction signal for changing an aperture value is input from the setting switch 34 of the operation input unit 30. When the control unit 70 determines that an instruction signal for changing the display of the operation information is input from the operation input unit 30 (step S203: Yes), the imaging device 1 returns to step S202. On the other hand, when the control unit 70 determines that the instruction signal for changing the display of the operation information is not input from the operation input unit 30 (step S203: No), the imaging apparatus 1 proceeds to step S204.

ステップS204において、操作入力部30から再生画像を変更する指示信号が入力された場合(ステップS204:Yes)、撮像装置1は、ステップS201へ戻る。これに対して、操作入力部30から再生画像を変更する指示信号が入力されていない場合(ステップS204:No)、撮像装置1は、ステップS205へ移行する。   In step S204, when an instruction signal for changing the reproduced image is input from the operation input unit 30 (step S204: Yes), the imaging apparatus 1 returns to step S201. On the other hand, when the instruction signal for changing the reproduced image is not input from the operation input unit 30 (step S204: No), the imaging apparatus 1 proceeds to step S205.

続いて、操作入力部30から再生モードを終了する指示信号が入力された場合(ステップS205:Yes)、撮像装置1は、図2のメインルーチンへ戻る。これに対して、操作入力部30から再生モードを終了する指示信号が入力されていない場合(ステップS205:No)、撮像装置1は、ステップS203へ戻る。   Subsequently, when an instruction signal for ending the reproduction mode is input from the operation input unit 30 (step S205: Yes), the imaging apparatus 1 returns to the main routine of FIG. On the other hand, when the instruction signal for ending the reproduction mode is not input from the operation input unit 30 (step S205: No), the imaging apparatus 1 returns to step S203.

つぎに、図2のステップS108のアナグリフ対応再生処理について説明する。図7は、アナグリフ対応再生処理の概要を示すフローチャートである。   Next, the anaglyph compatible reproduction process in step S108 of FIG. 2 will be described. FIG. 7 is a flowchart showing an outline of an anaglyph compatible reproduction process.

図7に示すように、画像取得部41は、画像データ記録部52から再生対象の画像ファイルデータを取得する(ステップS301)。この際、画像取得部41は、被写体に対して互いに視差を有する2つの画像データが記録された画像ファイルデータを画像データ記録部52から取得する。   As shown in FIG. 7, the image acquisition unit 41 acquires image file data to be reproduced from the image data recording unit 52 (step S301). At this time, the image acquisition unit 41 acquires, from the image data recording unit 52, image file data in which two pieces of image data having parallax with respect to the subject are recorded.

続いて、3D画像生成部42は、画像取得部41が取得した画像ファイルデータに含まれる2つの画像データを用いて、アナグリフ方式の3D画像データを生成する(ステップS302)。   Subsequently, the 3D image generation unit 42 generates anaglyph 3D image data using the two image data included in the image file data acquired by the image acquisition unit 41 (step S302).

その後、色検出部43は、3D画像生成部42が生成した3D画像データに対応する3D画像の色を検出する(ステップS303)。具体的には、色検出部43は、3D画像を構成する画素群で最も用いられた色を検出する。なお、色検出部43は、3D画像上の所定の領域の色を検出してもよい。また、色検出部43は、3D画像上の最も輝度成分が大きい色を検出してもよい。さらに、色検出部43は、3D画像上における主被写体の主被写体領域または背景の背景領域の色を検出してもよい。   Thereafter, the color detection unit 43 detects the color of the 3D image corresponding to the 3D image data generated by the 3D image generation unit 42 (step S303). Specifically, the color detection unit 43 detects the most used color in the pixel group constituting the 3D image. Note that the color detection unit 43 may detect the color of a predetermined region on the 3D image. Further, the color detection unit 43 may detect a color having the largest luminance component on the 3D image. Further, the color detection unit 43 may detect the color of the main subject area of the main subject or the background area of the background on the 3D image.

続いて、操作情報生成部44は、色検出部43が検出した色に応じた操作情報を生成する(ステップS304)。具体的には、操作情報生成部44は、色検出部43が背景を黒と検出した場合、アナグリフ眼鏡100の各フィルタで視認可能な色、たとえば白(White)で操作情報を生成する。   Subsequently, the operation information generation unit 44 generates operation information corresponding to the color detected by the color detection unit 43 (step S304). Specifically, when the color detection unit 43 detects that the background is black, the operation information generation unit 44 generates operation information in a color that can be visually recognized by each filter of the anaglyph glasses 100, for example, white.

その後、表示制御部72は、3D画像生成部42によって生成された3D画像データに対応した3D画像に、操作情報生成部44によって生成された操作情報を重畳して表示部60に表示させる(ステップS305)。   Thereafter, the display controller 72 superimposes the operation information generated by the operation information generator 44 on the 3D image corresponding to the 3D image data generated by the 3D image generator 42 and causes the display 60 to display the information (Step 60). S305).

図8は、表示制御部72が3D画像W2LR上に操作情報を重畳して表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。なお、図8に示す3D画像W2LRは、背景が黒で表示され、操作情報が白で表示された状態を示す。 FIG. 8 shows an image that can be viewed when the user visually recognizes via the anaglyph glasses 100 with respect to the state in which the display control unit 72 displays the operation information superimposed on the 3D image W2 LR on the display unit 60. It is a figure shown typically. Note that the 3D image W2 LR shown in FIG. 8 shows a state in which the background is displayed in black and the operation information is displayed in white.

図8に示すように、表示制御部72は、3D画像W2LRに撮像装置1に関する操作情報、たとえば再生不可を重畳して表示部60に表示させる。このような状況下において、ユーザがアナグリフ眼鏡100を装着して3D画像W2LRを視認したとき、左目では画像W2Lを視認する一方、右目では画像W2Rを視認する。具体的には、ユーザは、左目では操作情報としての再生不可を赤で視認する一方、右目では操作情報としての再生不可をシアンで視認する。この結果、ユーザは、3D画像W2LRを立体的に視認しながら、3D画像W2LR上における撮像装置1に関する操作情報を白で良好に視認することができる。 As illustrated in FIG. 8, the display control unit 72 causes the display unit 60 to display operation information related to the imaging device 1, for example, playback impossibility, on the 3D image W < b > 2 LR . Under such circumstances, when the user wears the anaglyph glasses 100 and visually recognizes the 3D image W2 LR , the left eye visually recognizes the image W2 L , while the right eye visually recognizes the image W2 R. Specifically, the user visually recognizes that reproduction as operation information is not possible with red in the left eye, and visually recognizes reproduction impossibility as operation information in cyan with the right eye. As a result, the user can visually recognize the operation information related to the imaging device 1 on the 3D image W2 LR in white while viewing the 3D image W2 LR stereoscopically.

図7に戻り、ステップS306以降の説明を続ける。ステップS306において、操作入力部30から操作情報の表示を変更する指示信号が入力された場合(ステップS306:Yes)、撮像装置1は、ステップS303へ戻る。これに対して、操作入力部30から操作情報の表示を変更する指示信号が入力されていない場合(ステップS306:No)、撮像装置1は、ステップS307へ移行する。   Returning to FIG. 7, the description from step S306 is continued. In step S306, when an instruction signal for changing the display of the operation information is input from the operation input unit 30 (step S306: Yes), the imaging apparatus 1 returns to step S303. On the other hand, when the instruction signal for changing the display of the operation information is not input from the operation input unit 30 (step S306: No), the imaging device 1 proceeds to step S307.

続いて、操作入力部30から再生画像を変更する指示信号が入力された場合(ステップS307:Yes)、撮像装置1は、ステップS301へ戻る。これに対して、操作入力部30から再生画像を変更する指示信号が入力されていない場合(ステップS307:No)、撮像装置1は、ステップS308へ移行する。   Subsequently, when an instruction signal for changing the reproduced image is input from the operation input unit 30 (step S307: Yes), the imaging apparatus 1 returns to step S301. On the other hand, when the instruction signal for changing the reproduced image is not input from the operation input unit 30 (step S307: No), the imaging apparatus 1 proceeds to step S308.

その後、操作入力部30から再生モードを終了する指示信号が入力された場合(ステップS308:Yes)、撮像装置1は、図2のメインルーチンへ戻る。これに対して、操作入力部30から再生モードを終了する指示信号が入力されていない場合(ステップS308:No)、撮像装置1は、ステップS306へ戻る。   Thereafter, when an instruction signal for ending the reproduction mode is input from the operation input unit 30 (step S308: Yes), the imaging apparatus 1 returns to the main routine of FIG. On the other hand, when the instruction signal for ending the reproduction mode is not input from the operation input unit 30 (step S308: No), the imaging device 1 returns to step S306.

以上説明した本発明の実施の形態1によれば、表示制御部72がアナグリフ眼鏡100に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタに応じて、表示部60の表示態様を変更する。これにより、ユーザは、アナグリフ方式の3D画像を良好な状態で視認することができる。   According to the first embodiment of the present invention described above, the display control unit 72 changes the display mode of the display unit 60 according to the two filters that are provided in the anaglyph glasses 100 and transmit light in different wavelength bands. To do. Accordingly, the user can visually recognize the anaglyph 3D image in a good state.

また、本発明の実施の形態1によれば、表示制御部72がアナグリフ眼鏡100の2つのフィルタで識別可能な色で撮像装置1に関する操作情報を3D画像上に重畳して表示部60に表示させる。これにより、ユーザは、アナグリフ方式の3D画像であっても、撮像装置1に関する操作情報を良好に視認することができる。   Further, according to Embodiment 1 of the present invention, the display control unit 72 displays operation information related to the imaging device 1 in a color that can be identified by the two filters of the anaglyph glasses 100 on the 3D image on the display unit 60. Let Thereby, even if it is a 3D image of an anaglyph system, the user can see the operation information regarding the imaging device 1 satisfactorily.

また、本発明の実施の形態1によれば、表示制御部72が色検出部43によって検出された3D画像上に重畳する操作情報の表示領域の色と分離可能な色で操作情報を表示部60に表示させる。これにより、ユーザは、より良好に操作情報を視認することができる。   Further, according to the first embodiment of the present invention, the display control unit 72 displays the operation information in a color separable from the color of the display area of the operation information superimposed on the 3D image detected by the color detection unit 43. 60. Thereby, the user can visually recognize the operation information better.

(実施の形態1の変形例1)
本実施の形態1では、操作情報生成部44が色検出部43によって検出された3D画像データに対応する3D画像の色成分に応じて操作情報を示すアイコンの形状や色を変更して操作情報を生成してもよい。
(Modification 1 of Embodiment 1)
In the first embodiment, the operation information generation unit 44 changes the shape and color of the icon indicating the operation information in accordance with the color component of the 3D image corresponding to the 3D image data detected by the color detection unit 43, thereby operating information. May be generated.

図9は、表示制御部72がアナグリフ方式の3D画像上に操作情報として通常のアイコンを重畳して表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。図10は、本実施の形態1の変形例1にかかる撮像装置1の表示制御部72がアナグリフ方式の3D画像上に操作情報として通常のアイコンを重畳して表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。   FIG. 9 shows a state in which the display controller 72 visually recognizes an anaglyph type 3D image on the display unit 60 by superimposing a normal icon as operation information on the display unit 60 through the anaglyph glasses 100. It is a figure which shows typically the image which can be visually recognized. FIG. 10 shows a state in which the display control unit 72 of the imaging apparatus 1 according to the first modification of the first embodiment displays a normal icon as operation information on the anaglyph 3D image and displays it on the display unit 60. On the other hand, it is a figure which shows typically the image which can be visually recognized when a user visually recognizes via the anaglyph glasses 100.

図9に示すように、表示部60が3D画像W3LRに操作情報として通常のアイコンA1〜A4を表示している場合において、アイコンA2が選択されているとき、表示制御部72は、選択されたアイコンA2を他のアイコンA1,A3,A4に比して黄で強調(ハイライト表示)して表示部60に表示させる。このような状況下で、図9に示すように、ユーザがアナグリフ眼鏡100を装着して3D画像W3LRを視認した場合、左目では画像W3Lを視認する一方、右目では、画像W3Rを視認する。しかしながら、3D画像W3LRでは、表示部60が選択されたアイコンA2を黄で表示しているとともに、アイコンA3、A4をマゼンダで表示している。この場合、ユーザが裸眼であれば、黄とマゼンダとで識別し易い組み合わせであるが、アナグリフ眼鏡100を装着して視認すると同じ色で視認してしまう。さらに、アイコンA1〜A4の形状が同じ形状である。このため、ユーザは、選択したアイコンを把握することが難しかった。さらに、ユーザは、表示部60が表示する各アイコンの形状が同じのため、どれを選択したか容易に把握することができなかった。 As shown in FIG. 9, when the display unit 60 is displaying the normal icon A1~A4 as operation information to the 3D image W3 LR, when the icon A2 is selected, the display control unit 72 is selected The icon A2 is highlighted (highlighted) in yellow compared to the other icons A1, A3, A4 and displayed on the display unit 60. Under such circumstances, as shown in FIG. 9, when the user wears anaglyph glasses 100 and visually recognizes the 3D image W3 LR , the left eye visually recognizes the image W3 L , while the right eye visually recognizes the image W3 R. To do. However, in the 3D image W3 LR , the display unit 60 displays the selected icon A2 in yellow and the icons A3 and A4 in magenta. In this case, if the user is naked, the combination is easy to distinguish between yellow and magenta, but if the user wears the anaglyph glasses 100 and sees it, the user will see the same color. Further, the icons A1 to A4 have the same shape. For this reason, it was difficult for the user to grasp the selected icon. Furthermore, since the shape of each icon displayed on the display unit 60 is the same, the user cannot easily grasp which one has been selected.

これに対して、図10に示すように、表示部60が3D画像W4LRに操作情報としてアイコンを表示する場合、表示制御部72は、色検出部43が3D画像W4LRから検出した色に応じて操作情報に関するアイコンを他の操作情報のアイコンと識別可能な色に変更して3D画像W4LRに重畳して表示部60に表示させる。さらに、表示制御部72は、操作入力部30から入力された指示信号に応じて選択されたアイコンを他の操作情報としてのアイコンと識別可能な形状に変更して表示部60に表示させる。たとえば、図10に示すように、表示制御部72は、アイコンA2を矩形状から楕円状または半円を直線でつないだ形状に変更して表示部60に表示させる。 On the other hand, as shown in FIG. 10, when the display unit 60 displays an icon as operation information on the 3D image W4 LR , the display control unit 72 uses the color detected by the color detection unit 43 from the 3D image W4 LR. depending on the icon to change the icon distinguishable colors other operation information is superimposed on the 3D image W4 LR is displayed on the display unit 60 on the operation information. Furthermore, the display control unit 72 changes the icon selected in accordance with the instruction signal input from the operation input unit 30 to a shape that can be distinguished from other icons as operation information, and causes the display unit 60 to display the icon. For example, as shown in FIG. 10, the display control unit 72 changes the icon A2 from a rectangular shape to an ellipse shape or a shape in which semicircles are connected by a straight line and causes the display unit 60 to display the icon A2.

以上説明した本発明の実施の形態1の変形例1によれば、表示制御部72が色検出部43によって検出された色および操作入力部30から入力された指示信号に基づいて、選択されたアイコンの色および形状を変更して表示部60に表示させる。これにより、ユーザは、選択した操作情報を他の操作情報と識別した状態で容易に把握することができる。   According to the first modification of the first embodiment of the present invention described above, the display control unit 72 is selected based on the color detected by the color detection unit 43 and the instruction signal input from the operation input unit 30. The icon color and shape are changed and displayed on the display unit 60. Accordingly, the user can easily grasp the selected operation information in a state where the selected operation information is identified from other operation information.

なお、本発明の実施の形態1の変形例1では、表示制御部72が選択された操作情報としてのアイコンの形状を楕円または半円を直線でつないだ形状で表示部60に表示させていたが、たとえば多角形、円形、雲形、星形、角の丸まった多角形等のいずれかであってもよい。さらに、表示制御部72は、操作入力部30を介して選択された操作情報としてのアイコンの枠を他のアイコンに比して強調、たとえば太線や点線にして表示部60に表示させてもよい。この場合、表示制御部72は、線の色を背景と識別可能な色で表示部60に表示させてもよい。   In the first modification of the first embodiment of the present invention, the display control unit 72 displays the icon shape as the selected operation information on the display unit 60 in a shape in which an ellipse or a semicircle is connected by a straight line. However, it may be any one of a polygon, a circle, a cloud, a star, a polygon with rounded corners, and the like. Further, the display control unit 72 may display the icon frame as the operation information selected via the operation input unit 30 on the display unit 60 with emphasis, for example, a thick line or a dotted line, as compared with other icons. . In this case, the display control unit 72 may cause the display unit 60 to display the line color in a color that can be distinguished from the background.

(実施の形態2)
つぎに、本発明の実施の形態2について説明する。本実施の形態2にかかる撮像装置は、上述した実施の形態1にかかる撮像装置と構成が異なるうえ、アナグリフ対応再生処理も異なる。このため、以下においては、本実施の形態2にかかる撮像装置の構成を説明後、本実施の形態2にかかる撮像装置が実行するアナグリフ対応再生処理について説明する。なお、上述した実施の形態1にかかる撮像装置1と同一の構成には同一の符号を付して説明する。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. The imaging apparatus according to the second embodiment has a different configuration from the imaging apparatus according to the first embodiment described above, and also has an anaglyph compatible reproduction process. Therefore, in the following, after describing the configuration of the imaging apparatus according to the second embodiment, an anaglyph compatible reproduction process executed by the imaging apparatus according to the second embodiment will be described. In addition, the same code | symbol is attached | subjected and demonstrated to the structure same as the imaging device 1 concerning Embodiment 1 mentioned above.

図11は、本発明の実施の形態2にかかる撮像装置2の構成を模式的に示すブロック図である。図11に示す撮像装置1は、撮像部10と、外部I/F20と、操作入力部30と、表示部60と、制御部70と、画像処理部200と、記録部210と、を備える。   FIG. 11 is a block diagram schematically showing the configuration of the imaging apparatus 2 according to the second embodiment of the present invention. An imaging apparatus 1 illustrated in FIG. 11 includes an imaging unit 10, an external I / F 20, an operation input unit 30, a display unit 60, a control unit 70, an image processing unit 200, and a recording unit 210.

画像処理部200は、制御部70を介して撮像部10、外部I/F20および記録部210のいずれかから画像データを取得し、取得した画像データに対して各種の画像処理を行う。画像処理部200は、画像取得部41と、3D画像生成部42と、操作情報生成部44と、色検出部201と、を有する。   The image processing unit 200 acquires image data from any of the imaging unit 10, the external I / F 20, and the recording unit 210 via the control unit 70, and performs various types of image processing on the acquired image data. The image processing unit 200 includes an image acquisition unit 41, a 3D image generation unit 42, an operation information generation unit 44, and a color detection unit 201.

色検出部201は、3D画像上に操作情報を重畳する表示領域を色毎に複数の色領域に分割し、この複数の色領域のうち面積が一番大きい色領域の色を表示領域の色として検出する。ここで、色検出部201は、モデリング部201aと、背景色指数算出部201bと、視認指数算出部201cと、色設定部201dと、を有する。   The color detection unit 201 divides a display region in which operation information is superimposed on a 3D image into a plurality of color regions for each color, and the color of the color region having the largest area among the plurality of color regions is the color of the display region. Detect as. Here, the color detection unit 201 includes a modeling unit 201a, a background color index calculation unit 201b, a visual index calculation unit 201c, and a color setting unit 201d.

モデリング部201aは、3D画像上に重畳する撮像装置2に関する操作情報の表示領域を色毎に複数の色領域に分割するモデリング処理を行う。具体的には、モデリング部201aは、3D画像の各画素の輝度成分とRGB成分(赤、緑、青)と、補色成分(マゼンダ、黄、シアン)と、白の成分と、黒の成分とを検出して数値化を行い、この数値を用いて操作情報の表示領域を色毎に複数の色領域に分割する。   The modeling unit 201a performs a modeling process for dividing the display area of the operation information related to the imaging device 2 to be superimposed on the 3D image into a plurality of color areas for each color. Specifically, the modeling unit 201a includes a luminance component, an RGB component (red, green, blue), a complementary color component (magenta, yellow, cyan), a white component, and a black component of each pixel of the 3D image. Is detected and digitized, and the operation information display area is divided into a plurality of color areas for each color using the numerical values.

背景色指数算出部201bは、表示部60が表示する3D画像上に重畳する撮像装置2に関する操作情報の表示領域毎に背景色指数を算出する。   The background color index calculation unit 201b calculates a background color index for each operation information display area related to the imaging device 2 superimposed on the 3D image displayed by the display unit 60.

視認指数算出部201cは、表示部60が表示する3D画像上に重畳する操作情報の表示領域毎に背景指数に対する視認指数を算出する。   The visual index calculation unit 201c calculates a visual index relative to the background index for each display area of the operation information superimposed on the 3D image displayed by the display unit 60.

色設定部201dは、背景色指数算出部201bが算出した背景色指数と視認指数算出部201cが算出した視認指数とに基づいて、操作情報生成部44が生成する撮像装置2に関する操作情報の色を設定する。   The color setting unit 201d is a color of operation information related to the imaging device 2 generated by the operation information generating unit 44 based on the background color index calculated by the background color index calculating unit 201b and the visual index calculated by the visual index calculating unit 201c. Set.

記録部210は、プログラム記録部51と、画像データ記録部52と、視認指数記録部211と、を有する。   The recording unit 210 includes a program recording unit 51, an image data recording unit 52, and a visual index recording unit 211.

視認指数記録部211は、背景色と操作情報の色との重なりによる視認性の変化を指数化した視認指数およびアナグリフ眼鏡100を介して視認した際の背景色と操作情報の色との重なりによる視認性の変化を指数化した視認指数を含む視認指数情報を記録する。   The visibility index recording unit 211 is based on the visibility index obtained by indexing the change in visibility due to the overlap of the background color and the color of the operation information, and the overlap of the background color when visually recognized through the anaglyph glasses 100 and the color of the operation information. The visibility index information including the visibility index obtained by indexing the change in visibility is recorded.

図12は、背景色と操作情報の色との重なりによる視認性の変化を指数化した視認指数を示す視認指数テーブルの一例を示す図である。図13は、光の3原色を示す図である。図14Aは、アナグリフ眼鏡100の左目(赤)を介して視認した際の背景色と操作情報の色との重なりによる視認性の変化を指数化した視認指数を示す視認指数テーブルの一例を示す図である。図14Bは、アナグリフ眼鏡100の右目(シアン)を介して視認した際の背景色と操作情報の色との重なりによる視認性の変化を指数化した視認指数を示す視認指数テーブルの一例を示す図である。   FIG. 12 is a diagram illustrating an example of a visual index table indicating the visual index obtained by indexing the change in the visibility due to the overlap between the background color and the color of the operation information. FIG. 13 is a diagram showing the three primary colors of light. FIG. 14A is a diagram showing an example of a visual index table indicating a visual index obtained by indexing a change in visibility due to an overlap between the background color and the color of the operation information when viewed through the left eye (red) of the anaglyph glasses 100. It is. FIG. 14B is a diagram showing an example of a visual index table indicating a visual index obtained by indexing a change in visibility due to the overlap between the background color and the color of the operation information when viewed through the right eye (cyan) of the anaglyph glasses 100. It is.

図12に示す視認指数は、図13に示す光の3原色によって定義される。具体的には、図13に示すように、視認指数は、RGBの加法混色における同色で視認することができないものを「0」とし、RGBの加法混色における隣接した色を視認することができるものを「0.5」とし、RGBの加法混色における隣接以外の色を視認することができるものを「1」とする。たとえば、視認指数は、背景色が赤の場合において、操作情報の色が赤のとき「0」、操作情報の色がマゼンダまたは黄色のとき「0.5」、操作情報の色が
白、緑、シアン、青および黒のいずれかのとき「1」となる。このように、図12に示す視認指数テーブルT3の値は、光の3原色によって定義される。なお、視認指数は、「0」、「0.5」、「1」に限るものではなく、たとえば「0」、「50」、「100」や「−1」、「0」、「+1」等を用いてもよい。また、視認指数は、光の3原色に変えて、色の3原色によって定義されてもよい。
The visual index shown in FIG. 12 is defined by the three primary colors of light shown in FIG. Specifically, as shown in FIG. 13, the visibility index is “0” when the color cannot be visually recognized with the same color in the RGB additive color mixture, and the adjacent color in the RGB additive color mixture can be visually recognized. Is “0.5”, and “1” is a color that can visually recognize colors other than adjacent colors in the additive color mixture of RGB. For example, when the background color is red and the operation information color is red, the visibility index is “0”, when the operation information color is magenta or yellow, “0.5”, and the operation information color is white or green. "1" for any of cyan, blue and black. Thus, the values in the visual index table T3 shown in FIG. 12 are defined by the three primary colors of light. The visual recognition index is not limited to “0”, “0.5”, “1”, and for example, “0”, “50”, “100”, “−1”, “0”, “+1”. Etc. may be used. Further, the visibility index may be defined by the three primary colors instead of the three primary colors of light.

図14Aおよび図14Bに示す視認指数テーブルT4,T5には、背景色と操作情報の色との重なりによる視認性の変化を指数化した値が記載されている。このように、背景色指数算出部201bおよび視認指数算出部201cは、それぞれ視認指数テーブルT4,T5を用いて指数を算出する。   In the visibility index tables T4 and T5 shown in FIGS. 14A and 14B, values obtained by indexing changes in visibility due to the overlap between the background color and the color of the operation information are described. As described above, the background color index calculating unit 201b and the visual index calculating unit 201c calculate the indexes using the visual index tables T4 and T5, respectively.

以上の構成を有する撮像装置2が実行するアナグリフ対応再生処理について説明する。図15は、撮像装置2が実行するアナグリフ対応再生処理の概要を示すフローチャートである。   An anaglyph compatible reproduction process executed by the imaging apparatus 2 having the above configuration will be described. FIG. 15 is a flowchart illustrating an outline of the anaglyph compatible reproduction process executed by the imaging apparatus 2.

図11に示すように、画像取得部41は、画像データ記録部52から再生対象の画像ファイルデータを取得する(ステップS401)。   As shown in FIG. 11, the image acquisition unit 41 acquires image file data to be reproduced from the image data recording unit 52 (step S401).

続いて、3D画像生成部42は、画像取得部41が取得した画像ファイルデータに記録された2つの画像データを用いて、アナグリフ方式の3D画像データを生成する(ステップS402)。   Subsequently, the 3D image generation unit 42 generates anaglyph 3D image data using the two image data recorded in the image file data acquired by the image acquisition unit 41 (step S402).

その後、色検出部201は、画像取得部41が取得した画像ファイルデータに含まれる2つの画像データそれぞれに対応する2つの画像内における背景画像を色成分毎にモデリングする背景画像モデリング処理を実行する(ステップS403)。   Thereafter, the color detection unit 201 executes background image modeling processing for modeling a background image in two images corresponding to two image data included in the image file data acquired by the image acquisition unit 41 for each color component. (Step S403).

図16は、図15のステップS403の背景画像モデリング処理の概要を示すフローチャートである。   FIG. 16 is a flowchart showing an overview of the background image modeling process in step S403 of FIG.

図16に示すように、モデリング部201aは、背景画像の各画素の輝度成分とRGB成分を検出して0〜255で数値化を行う(ステップS501)。   As illustrated in FIG. 16, the modeling unit 201a detects the luminance component and the RGB component of each pixel of the background image, and digitizes them from 0 to 255 (step S501).

続いて、輝度成分が0〜30である場合(ステップS502:Yes)、モデリング部201aは、対象画素を白として分類して検出する(ステップS503)。ステップS503の後、撮像装置2は、図15のアナグリフ対応再生処理へ戻る。   Subsequently, when the luminance component is 0 to 30 (step S502: Yes), the modeling unit 201a classifies and detects the target pixel as white (step S503). After step S503, the imaging apparatus 2 returns to the anaglyph compatible reproduction process of FIG.

ステップS502において、輝度成分が0〜30でない場合(ステップS502:No)において、輝度成分が215〜255であるとき(ステップS504:Yes)、モデリング部201aは、対象画素を黒として分類して検出する(ステップS505)。ステップS505の後、撮像装置2は、図15のアナグリフ対応再生処理へ戻る。   In step S502, if the luminance component is not 0 to 30 (step S502: No) and the luminance component is 215 to 255 (step S504: Yes), the modeling unit 201a classifies the target pixel as black and detects it. (Step S505). After step S505, the imaging apparatus 2 returns to the anaglyph compatible reproduction process of FIG.

ステップS504において、輝度成分が215〜255でないとき(ステップS504:No)、撮像装置2は、ステップS506へ移行する。   In step S504, when the luminance component is not 215 to 255 (step S504: No), the imaging device 2 proceeds to step S506.

続いて、RGB成分の値差が20以内である場合(ステップS506:Yes)、モデリング部201aは、対象画素を黒として分類して検出する(ステップS507)。ステップS507の後、撮像装置2は、図15のアナグリフ対応再生処理へ戻る。   Subsequently, when the value difference of the RGB components is within 20 (step S506: Yes), the modeling unit 201a classifies the target pixel as black and detects it (step S507). After step S507, the imaging apparatus 2 returns to the anaglyph compatible reproduction process of FIG.

ステップS506において、RGB成分の値差が20以内でない場合(ステップS506:No)において、RGB成分で一番大きな値と2番目の値の差が100以上のとき(ステップS508:Yes)、モデリング部201aは、対象画素を最大値のR(赤)、G(緑)およびB(青)のいずれかであると分類して検出する(ステップS509)。ステップS509の後、撮像装置2は、図15のアナグリフ対応再生処理へ戻る。   If the difference between the RGB component values is not less than 20 in step S506 (step S506: No), and the difference between the largest value and the second value in the RGB components is 100 or more (step S508: Yes), the modeling unit The 201a classifies and detects the target pixel as one of the maximum values of R (red), G (green), and B (blue) (step S509). After step S509, the imaging apparatus 2 returns to the anaglyph compatible reproduction process of FIG.

ステップS508において、RGB成分で一番大きな値と2番目の値の差が100以上でないとき(ステップS508:No)、モデリング部201aは、対象画素を最大値の色と2番目の色を合成したシアン(C)、マゼンダ(M)および黄(Y)のいずれかであると分類して検出する(ステップS510)。その後、撮像装置2は、図15のアナグリフ対応再生処理へ戻る。   In step S508, when the difference between the largest value and the second value in the RGB components is not 100 or more (step S508: No), the modeling unit 201a combines the maximum color and the second color for the target pixel. It is classified and detected as any of cyan (C), magenta (M), and yellow (Y) (step S510). Thereafter, the imaging apparatus 2 returns to the anaglyph compatible reproduction process of FIG.

図15に戻り、ステップS404以降の説明を続ける。ステップS404において、背景色指数算出部201bは、表示部60が表示する3D画像上に重畳する操作情報の表示領域毎に背景色指数を算出する。   Returning to FIG. 15, the description of step S404 and subsequent steps will be continued. In step S404, the background color index calculation unit 201b calculates a background color index for each display area of the operation information to be superimposed on the 3D image displayed by the display unit 60.

続いて、視認指数算出部201cは、表示部60が表示する3D画像上に重畳する操作情報の表示領域毎に背景指数に対する視認指数を算出する(ステップS405)。   Subsequently, the visual recognition index calculation unit 201c calculates a visual recognition index with respect to the background index for each display area of operation information superimposed on the 3D image displayed by the display unit 60 (step S405).

図17は、モデリング部201aによって3D画像上に重畳する操作情報の表示領域が色毎にモデリング化された状態の一例を示す。図18は、背景色指数算出部201bおよび視認指数算出部201cが視認指数記録部211によって記録された視認指数情報を用いて背景指数および視認指数を算出する際の計算の一例を示す図である。   FIG. 17 shows an example of a state where the display area of the operation information superimposed on the 3D image is modeled for each color by the modeling unit 201a. FIG. 18 is a diagram illustrating an example of calculation when the background color index calculating unit 201b and the visual index calculating unit 201c calculate the background index and the visual index using the visual index information recorded by the visual index recording unit 211. .

図17および図18に示すように、背景色指数算出部201bは、視認指数記録部211が記録する視認指数情報テーブルT6を用いて、モデリング部201aがモデリング化した画像W5で操作情報を重畳する表示領域R1における色領域D1〜D3毎に背景色指数を算出する。たとえば、図18に示すように、背景色指数算出部201bは、アナグリフ眼鏡100の左目(赤)の場合において、表示領域R1における緑/黒の色領域D1の面積比が25%、白の色領域D2の面積比が30%、シアン/黒の色領域D3の面積比が45%の場合、各色領域の面積比に対して各色の視認指数を乗じることによって、背景色指数(70、70、30、30、30、70、70、30)を算出する(矢印Aを参照)。同様に背景色指数算出部201bは、アナグリフ眼鏡100の右目(シアン)の場合の背景色指数を算出する(矢印Aを参照)。その後、視認指数算出部201cは、背景色指数算出部201bが算出したアナグリフ眼鏡100の左目および右目それぞれの背景色指数を加算することによって視認指数を算出する。具体的には、図18に示すように、視認指数算出部201cは、白の場合、背景色指数算出部201bが左目で算出した70に、背景色指数算出部201bが右目で算出した12.5を加算することによって、視認指数として82.5を算出する。   As illustrated in FIGS. 17 and 18, the background color index calculation unit 201b uses the visual index information table T6 recorded by the visual index recording unit 211 to superimpose operation information on an image W5 modeled by the modeling unit 201a. A background color index is calculated for each of the color regions D1 to D3 in the display region R1. For example, as shown in FIG. 18, in the case of the left eye (red) of the anaglyph glasses 100, the background color index calculation unit 201b has an area ratio of the green / black color region D1 in the display region R1 of 25% and white color. When the area ratio of the area D2 is 30% and the area ratio of the cyan / black color area D3 is 45%, the background color index (70, 70, 30, 30, 30, 70, 70, 30) (see arrow A). Similarly, the background color index calculation unit 201b calculates a background color index for the right eye (cyan) of the anaglyph glasses 100 (see arrow A). Thereafter, the visual index calculation unit 201c calculates the visual index by adding the background color indexes of the left eye and the right eye of the anaglyph glasses 100 calculated by the background color index calculation unit 201b. Specifically, as shown in FIG. 18, in the case of white, the visual index calculation unit 201c calculates 70 for the background color index calculation unit 201b with the left eye and the background color index calculation unit 201b with the right eye for white. By adding 5, 82.5 is calculated as the visual index.

ステップS406において、色設定部201dは、背景色指数算出部201bが算出した背景色指数と視認指数算出部201cが算出した視認指数とに基づいて、操作情報の色を設定する。具体的には、図18に示すように、色設定部201dは、視認指数算出部201cが色毎に算出した視認指数を示す視認指数テーブルT8を参照して、操作情報の色を設定する。図18に示す状況下では、色設定部201dは、視認指数が最も高い赤を操作情報の色として設定する(矢印Bを参照)。   In step S406, the color setting unit 201d sets the color of the operation information based on the background color index calculated by the background color index calculating unit 201b and the visual index calculated by the visual index calculating unit 201c. Specifically, as illustrated in FIG. 18, the color setting unit 201d sets the color of the operation information with reference to a visual index table T8 indicating the visual index calculated for each color by the visual index calculation unit 201c. Under the situation shown in FIG. 18, the color setting unit 201d sets red having the highest visual index as the color of the operation information (see arrow B).

続いて、操作情報生成部44は、色設定部201dによって設定された色で撮像装置2に関する操作情報を生成する(ステップS407)。   Subsequently, the operation information generation unit 44 generates operation information related to the imaging device 2 with the color set by the color setting unit 201d (step S407).

その後、表示制御部72は、3D画像生成部42が生成した3D画像データに対応する3D画像上に、操作情報生成部44が生成した操作情報を表示領域R1に重畳して表示部60に表示させる(ステップS408)。これにより、ユーザは、表示部60が表示する3D画像が背景画像であっても、撮像装置2に関する操作情報を良好に視認することができる。   Thereafter, the display control unit 72 displays the operation information generated by the operation information generation unit 44 on the display region R1 on the 3D image corresponding to the 3D image data generated by the 3D image generation unit 42 on the display unit R1. (Step S408). Thereby, even if the 3D image which the display part 60 displays is a background image, the user can visually recognize the operation information regarding the imaging device 2 satisfactorily.

図19は、表示制御部72が通常のアナグリフ方式の3D画像上に操作情報を重畳して表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。図20は、表示制御部72が3D画像上に、操作情報生成部44が生成した操作情報を重畳して表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。   FIG. 19 is visible when the user visually recognizes the display unit 60 through the anaglyph glasses 100 with respect to the state in which the display information is displayed on the display unit 60 by superimposing the operation information on the normal anaglyph 3D image. It is a figure which shows a simple image typically. FIG. 20 shows that the display control unit 72 visually recognizes the state where the operation information generated by the operation information generation unit 44 is superimposed on the 3D image and displayed on the display unit 60 via the anaglyph glasses 100. It is a figure which shows typically the image visually recognizable at the time.

図19に示すように、表示部60が背景の3D画像W6LR上に操作情報(たとえば注意の文字)の色を黄で重畳して表示させた場合において、ユーザがアナグリフ眼鏡100を装着して3D画像W6LRを視認したとき、左目では赤フィルタを介するので画像W6Lを視認する一方、右目ではシアンフィルタを介するのでW6Rを視認する。しかしながら、図19に示すように、左目では画像W6Lの操作情報の黄が背景の白に溶け込んでしまい、右目ではW6Rの操作情報黄が背景の緑に溶け込んでしまう。このため、ユーザは、操作情報を良好な状態で視認することができない。 As shown in FIG. 19, when the display unit 60 displays the operation information (for example, a caution character) superimposed on yellow on the background 3D image W6 LR , the user wears the anaglyph glasses 100. When the 3D image W6 LR is viewed, the left eye passes through the red filter and thus the image W6 L is viewed. On the other hand, the right eye passes through the cyan filter and W6 R is viewed. However, as shown in FIG. 19, in the left eye, the operation information yellow of the image W6 L blends into the background white, and in the right eye, the operation information yellow of the W6 R blends into the background green. For this reason, the user cannot visually recognize the operation information in a good state.

これに対して、図20に示すように、表示制御部72が3D画像W7LR上に操作情報生成部44によって生成された操作情報を重畳して表示部60に表示させた場合において、ユーザがアナグリフ眼鏡100を装着して3D画像W7LRを視認したとき、左目では画像W7Lを視認する一方、右目では画像W7Rを視認する。具体的には、図20に示すように、画像W7Rでは、操作情報の赤が3D画像W7LRの背景から分離されて視認する。これにより、ユーザは、3D画像W7LRであっても、操作情報を良好に視認することができる。 On the other hand, as shown in FIG. 20, when the display control unit 72 superimposes the operation information generated by the operation information generation unit 44 on the 3D image W7 LR and displays it on the display unit 60, the user When the anaglyph glasses 100 are worn and the 3D image W7 LR is viewed, the left eye views the image W7 L , while the right eye views the image W7 R. Specifically, as shown in FIG. 20, the image W7 R, a red operation information is visually separated from the background of the 3D image W7 LR. Thereby, even if it is 3D image W7 LR , the user can visually recognize operation information satisfactorily.

ステップS409〜ステップS411は、図7のステップS406〜ステップS408にそれぞれ対応する。   Steps S409 to S411 correspond to steps S406 to S408 in FIG. 7, respectively.

以上説明した本発明の実施の形態2によれば、表示制御部72が色設定部201dによって設定された色に応じて操作情報生成部44が生成した操作情報を3D画像上に重畳して表示部60に表示させる。これにより、ユーザは、良好な操作情報を視認することができる。   According to the second embodiment of the present invention described above, the operation information generated by the operation information generation unit 44 according to the color set by the color setting unit 201d by the display control unit 72 is displayed superimposed on the 3D image. Display on the unit 60. Thereby, the user can visually recognize good operation information.

また、本発明の実施の形態2によれば、色検出部201が表示領域を色毎に複数の色領域に分割し、この複数の色領域のうち面積比と、この色領域の視認指数とに基づく値が一番大きい色を表示領域の色として検出するので、操作情報生成部44はユーザが視認可能な操作情報を確実に生成することができる。   Further, according to the second embodiment of the present invention, the color detection unit 201 divides the display area into a plurality of color areas for each color, and the area ratio of the plurality of color areas, the visual index of the color area, and Since the color having the largest value based on is detected as the color of the display area, the operation information generation unit 44 can reliably generate operation information that can be visually recognized by the user.

(実施の形態3)
つぎに、本発明の実施の形態3について説明する。本実施の形態3は、上述した実施の形態1にかかる撮像装置と構成が異なるうえ、アナグリフ対応再生処理が異なる。このため、以下においては、本実施の形態3にかかる撮像装置の構成を説明後、本実施の形態3にかかる撮像装置が実行するアナグリフ対応再生処理について説明する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. The third embodiment has a different configuration from the imaging apparatus according to the first embodiment described above and an anaglyph compatible reproduction process. Therefore, in the following, after describing the configuration of the imaging apparatus according to the third embodiment, an anaglyph-compatible reproduction process executed by the imaging apparatus according to the third embodiment will be described.

図21は、本実施の形態3にかかる撮像装置の構成を模式的に示すブロック図である。図21に示す撮像装置3は、撮像部10と、外部I/F20と、操作入力部30と、記録部50と、表示部60と、制御部70と、画像処理部300と、を備える。   FIG. 21 is a block diagram schematically illustrating the configuration of the imaging apparatus according to the third embodiment. The imaging device 3 illustrated in FIG. 21 includes an imaging unit 10, an external I / F 20, an operation input unit 30, a recording unit 50, a display unit 60, a control unit 70, and an image processing unit 300.

画像処理部300は、外部から画像データを取得し、取得した画像データに対して所定の画像処理を行って制御部70へ出力する。画像処理部300は、画像取得部41と、3D画像生成部42と、色検出部43と、操作情報生成部44と、主被写体特定部301と、色空間変更部302と、を有する。   The image processing unit 300 acquires image data from the outside, performs predetermined image processing on the acquired image data, and outputs the image data to the control unit 70. The image processing unit 300 includes an image acquisition unit 41, a 3D image generation unit 42, a color detection unit 43, an operation information generation unit 44, a main subject specifying unit 301, and a color space changing unit 302.

主被写体特定部301は、画像取得部41が画像データ記録部52から取得した画像ファイルデータに含まれる撮影情報に基づいて、画像データに対応する画像内における撮影時の主被写体を検出する。具体的には、主被写体特定部301は、Exif(Exchangeable image file format)で記録された画像ファイルデータのメタデータ、たとえば撮像部10の焦点距離を示す焦点距離情報やフォーカスエリア情報等に基づいて、画像内における撮影時の主被写体を検出する。   The main subject specifying unit 301 detects the main subject at the time of shooting in the image corresponding to the image data based on the shooting information included in the image file data acquired by the image acquisition unit 41 from the image data recording unit 52. Specifically, the main subject specifying unit 301 is based on metadata of image file data recorded in Exif (Exchangeable image file format), for example, focal length information indicating the focal length of the imaging unit 10, focus area information, or the like. The main subject at the time of shooting in the image is detected.

色空間変更部302は、画像取得部41が取得した2つの画像データに対応する2つの画像にそれぞれ含まれる背景に対して、主被写体特定部301が検出した主被写体を識別可能に2つの画像データの色空間の変数を変更する。具体的には、色空間変更部302は、色空間の変数として、輝度成分と色相成分を変更する。ここで、色空間変更部302の詳細な構成について説明する。色空間変更部302は、エッジ検出部302aと、色相変換部302bと、Y成分補正部302cと、を有する。   The color space changing unit 302 can identify two main objects detected by the main subject specifying unit 301 with respect to backgrounds included in two images corresponding to the two image data acquired by the image acquiring unit 41, respectively. Change data color space variables. Specifically, the color space changing unit 302 changes the luminance component and the hue component as color space variables. Here, a detailed configuration of the color space changing unit 302 will be described. The color space changing unit 302 includes an edge detection unit 302a, a hue conversion unit 302b, and a Y component correction unit 302c.

エッジ検出部302aは、主被写体特定部301が特定した主被写体に対してエッジ検出処理を実行して主被写体の輪郭を検出する。たとえば、エッジ検出部302aは、画像データに対して2値化処理を行うことによって、主要被写体のエッジ(輪郭)を検出する。   The edge detection unit 302a performs edge detection processing on the main subject specified by the main subject specifying unit 301 to detect the contour of the main subject. For example, the edge detection unit 302a detects the edge (contour) of the main subject by performing binarization processing on the image data.

色相変換部302bは、3D画像データ(RGBデータ)をYCrbデータに変換する。なお、色相変換部302bによる詳細な変換方法は後述する。 Hue conversion unit 302b converts the 3D image data (RGB data) to the YC r C b data. A detailed conversion method by the hue conversion unit 302b will be described later.

Y成分補正部302cは、色相変換部302bが変換したY成分を補正する。具体的には、Y成分補正部302cは、Y成分に所定の係数を乗じることによって、輝度を上げる補正または下げる補正を行う。   The Y component correction unit 302c corrects the Y component converted by the hue conversion unit 302b. Specifically, the Y component correction unit 302c performs correction to increase or decrease luminance by multiplying the Y component by a predetermined coefficient.

以上の構成を有する撮像装置3が実行するアナグリフ対応再生処理について説明する。図22は、撮像装置3が実行するアナグリフ対応再生処理の概要を示すフローチャートである。   An anaglyph compatible reproduction process executed by the imaging apparatus 3 having the above configuration will be described. FIG. 22 is a flowchart illustrating an outline of the anaglyph compatible reproduction process executed by the imaging apparatus 3.

図22に示すように、画像取得部41は、画像データ記録部52から再生対象の画像ファイルデータを取得する(ステップS601)。   As shown in FIG. 22, the image acquisition unit 41 acquires image file data to be reproduced from the image data recording unit 52 (step S601).

続いて、3D画像生成部42は、画像取得部41が取得した画像ファイルデータに記録された2つの画像データを用いて、3D画像データを生成する(ステップS602)。   Subsequently, the 3D image generation unit 42 generates 3D image data by using the two image data recorded in the image file data acquired by the image acquisition unit 41 (step S602).

その後、主被写体特定部301は、画像取得部41が取得した画像ファイルデータのヘッド領域に含まれる焦点距離情報やフォーカスエリア情報等に基づいて、2つの画像データに対応する2つの画像内における主要被写体を特定する(ステップS603)。   Thereafter, the main subject specifying unit 301 selects the main object in the two images corresponding to the two image data based on the focal length information and the focus area information included in the head region of the image file data acquired by the image acquisition unit 41. A subject is specified (step S603).

続いて、エッジ検出部302aは、主被写体特定部301が特定した主被写体に対してエッジ検出処理を実行して主被写体の輪郭を検出する(ステップS604)。この際、エッジ検出部302aは、主被写体に含まれるY成分(輝度成分)およびR成分(赤成分)およびシアン成分(青緑成分)に対してもエッジ検出処理を実行する。   Subsequently, the edge detection unit 302a performs edge detection processing on the main subject specified by the main subject specifying unit 301 to detect the contour of the main subject (step S604). At this time, the edge detection unit 302a also performs edge detection processing on the Y component (luminance component), R component (red component), and cyan component (blue-green component) included in the main subject.

続いて、エッジ検出部302aは、主被写体のY成分の輪郭、R成分の輪郭およびシアン成分の輪郭を比較して異なる点を数値化する(ステップS605)。   Subsequently, the edge detection unit 302a compares the Y component outline, the R component outline, and the cyan component outline of the main subject and quantifies the different points (step S605).

その後、エッジ検出部302aによって数値化された各成分の数値が閾値を超えている場合(ステップS606:Yes)において、3D画像データに対応する3D画像の全体の平均輝度が低いとき(ステップS607:Yes)、色相変換部302bは、3D画像データ(RGBデータ)をYCrbデータに変換する(ステップS608)。具体的には、色相変換部302bは、以下の式(1)〜(3)によって、3D画像データをYCrbデータに変換する。
Y=0.299+0.587G+0.114B ・・・(1)
r=0.500R−0.419G−0.081B ・・・(2)
b=−0.169R−0.332G+0.500B ・・・(3)
なお、Yは輝度成分の値を示し、Cr,Cbは、色差の値を示す。
Thereafter, when the numerical value of each component digitized by the edge detection unit 302a exceeds the threshold value (step S606: Yes), when the overall average luminance of the 3D image corresponding to the 3D image data is low (step S607: yes), color conversion unit 302b converts the 3D image data (RGB data) to the YC r C b data (step S608). Specifically, color conversion unit 302b has the following formula (1) to (3) for converting the 3D image data to YC r C b data.
Y = 0.299 + 0.587G + 0.114B (1)
C r = 0.500R−0.419G−0.081B (2)
C b = −0.169R−0.332G + 0.500B (3)
Y represents the value of the luminance component, and C r and C b represent the color difference values.

続いて、Y成分補正部302cは、色相変換部302bが変換したY成分の輝度を上げる補正を行う(ステップS609)。たとえば、図23に示すように、Y成分補正部302cは、色相変換部302bが変換したY成分に1.5の係数を乗ずる補正を行う(図23(a)→図23(b)→図23(c))。   Subsequently, the Y component correction unit 302c performs correction to increase the luminance of the Y component converted by the hue conversion unit 302b (step S609). For example, as shown in FIG. 23, the Y component correction unit 302c performs correction by multiplying the Y component converted by the hue conversion unit 302b by a coefficient of 1.5 (FIG. 23 (a) → FIG. 23 (b) → FIG. 23 (c)).

その後、色相変換部302bは、Y成分補正部302cがY成分を補正したYCrbデータを3D画像データ(RGBデータ)に変換する(ステップS610)。具体的には、色相変換部302bは、以下の式(4)〜(6)によって、YCrbデータを3D画像データに変換する(図23(c)→図23(d))。
R=Y+1.402Cr ・・・(4)
G=Y−0.714Cr−0.344Cb ・・・(5)
B=Y+1.772Cb ・・・(6)
Then, color conversion unit 302b converts the YC r C b data Y component correcting section 302c has corrected Y component in the 3D image data (RGB data) (step S610). Specifically, color conversion unit 302b is by the following equation (4) to (6), converts the YC r C b data into 3D image data (FIG. 23 (c) → Fig. 23 (d)).
R = Y + 1.402C r (4)
G = Y−0.714C r −0.344C b (5)
B = Y + 1.772C b (6)

ステップS606において、エッジ検出部302aによって数値化された各成分の数値が閾値を超えている場合(ステップS606:Yes)において、3D画像データに対応する3D画像の全体の平均輝度が低くないとき(ステップS607:No)、色相変換部302bは、3D画像データ(RGBデータ)をYCrbデータに変換する(ステップS611)。 In step S606, when the numerical value of each component digitized by the edge detection unit 302a exceeds the threshold value (step S606: Yes), the overall average luminance of the 3D image corresponding to the 3D image data is not low ( step S607: No), color conversion unit 302b converts the 3D image data (RGB data) to the YC r C b data (step S611).

続いて、Y成分補正部302cは、色相変換部302bが変換したY成分の輝度を下げる補正を行う(ステップS612)。たとえば、図24に示すように、Y成分補正部302cは、色相変換部302bが変換したY成分を0.8の係数を乗ずる補正を行う(図24(a)→図24(b)→図24(c)。ステップS612の後、撮像装置3は、ステップS610へ移行する。   Subsequently, the Y component correction unit 302c performs correction to reduce the luminance of the Y component converted by the hue conversion unit 302b (step S612). For example, as shown in FIG. 24, the Y component correction unit 302c performs correction by multiplying the Y component converted by the hue conversion unit 302b by a coefficient of 0.8 (FIG. 24 (a) → FIG. 24 (b) → FIG. 24 (c) After step S612, the imaging device 3 proceeds to step S610.

ステップS613において、表示制御部72は、色相変換部302bが変換した3D画像データに対応する3D画像を表示部60に表示させる。   In step S613, the display control unit 72 causes the display unit 60 to display a 3D image corresponding to the 3D image data converted by the hue conversion unit 302b.

図25は、表示制御部72が通常のアナグリフ方式の3D画像を表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。図26は、表示制御部72が色空間変更部302によって色空間が変換された3D画像を表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。   FIG. 25 schematically illustrates an image that can be visually recognized when the user visually recognizes through the anaglyph glasses 100 with respect to a state in which the display control unit 72 displays the normal anaglyph 3D image on the display unit 60. FIG. FIG. 26 is visible when the user visually recognizes through the anaglyph glasses 100 the display control unit 72 displaying the 3D image whose color space has been converted by the color space changing unit 302 on the display unit 60. It is a figure which shows a simple image typically.

図25に示すように、表示部60が2D画像W8を表示している場合、緑の主被写体P1、青の背景B1および緑の背景B2それぞれを異なる色で明確に識別することができるにも関わらず(図25(a))、表示部60がアナグリフ方式の3D画像W8LRを表示したとき(図25(b))、アナグリフ眼鏡100を装着したユーザは、左目では主被写体P1が背景B1,B2に溶け込んだ画像W8Lを視認する一方、右目では主被写体P1が背景B1、B2から分離した状態の画像W8Rを視認する(図25(c))。しかしながら、図25(c)に示すように、画像W8Lでは、主被写体P1が背景B1、B2に溶け込んでしまう。このため、ユーザは、正確な3D画像を視認することができない。 As shown in FIG. 25, when the display unit 60 displays the 2D image W8, the green main subject P1, the blue background B1, and the green background B2 can be clearly identified with different colors. regardless (Figure 25 (a)), when the display unit 60 displays the 3D image W8 LR of anaglyph method (FIG. 25 (b)), the user wearing the anaglyph glasses 100, the main object P1 in the left eye background B1 while viewing the image W8 L which melted into B2, the right eye main object P1 is the image visible W8 R state separated from the background B1, B2 (FIG. 25 (c)). However, as shown in FIG. 25C, in the image W8 L , the main subject P1 is melted into the backgrounds B1 and B2. For this reason, the user cannot visually recognize an accurate 3D image.

これに対して、図26に示すように、表示制御部72は、色相変換部302bがY成分補正部302cによってY成分が補正されたYCrbデータを変換した3D画像データ(RGBデータ)に対応する3D画像を表示部60に表示させる(図26(a)→図26(b))。これにより、ユーザは、アナグリフ眼鏡100を装着して3D画像W9LRを視認したとき、左目では画像W9Lを視認する一方、右目では画像W9Rを視認する(図26(c))。具体的には、図26(c)に示すように、画像W9Lでは、被写体P1が背景B1,B2から分離されている。これにより、ユーザは、極端な色の変化がない状態で良好な3D画像を視認することができる。ステップS613の後、撮像装置3は、後述するステップS614へ移行する。 In contrast, as shown in FIG. 26, the display control unit 72, 3D image data color conversion unit 302b is to convert the YC r C b data Y component is corrected by the Y component correcting section 302c (RGB data) Is displayed on the display unit 60 (FIG. 26 (a) → FIG. 26 (b)). Thus, when the user wears the anaglyph glasses 100 and visually recognizes the 3D image W9 LR , the user visually recognizes the image W9 L with the left eye and visually recognizes the image W9 R with the right eye (FIG. 26C). Specifically, as shown in FIG. 26C, in the image W9 L , the subject P1 is separated from the backgrounds B1 and B2. Thereby, the user can visually recognize a favorable 3D image in a state where there is no extreme color change. After step S613, the imaging apparatus 3 proceeds to step S614 described later.

続いて、操作入力部30から再生画像を変更する指示信号が入力された場合(ステップS614:Yes)、撮像装置3は、ステップS601へ戻る。これに対して、操作入力部30から再生画像を変更する指示信号が入力されていない場合(ステップS614:No)、撮像装置3は、ステップS615へ移行する。   Subsequently, when an instruction signal for changing the reproduced image is input from the operation input unit 30 (step S614: Yes), the imaging device 3 returns to step S601. On the other hand, when the instruction signal for changing the reproduced image is not input from the operation input unit 30 (step S614: No), the imaging device 3 proceeds to step S615.

その後、操作入力部30から再生モードを終了する指示信号が入力された場合(ステップS615:Yes)、撮像装置3は、図2のメインルーチンへ戻る。これに対して、操作入力部30から再生モードを終了する指示信号が入力されていない場合(ステップS615:No)、撮像装置3は、ステップS613へ戻る。   Thereafter, when an instruction signal for ending the reproduction mode is input from the operation input unit 30 (step S615: Yes), the imaging device 3 returns to the main routine of FIG. On the other hand, when the instruction signal for ending the reproduction mode is not input from the operation input unit 30 (step S615: No), the imaging device 3 returns to step S613.

以上説明した本発明の実施の形態3によれば、表示制御部が72主要被写体を背景から分離させた状態の3D画像を表示部60に表示させているので、正確な3D画像を視認することができる。   According to the third embodiment of the present invention described above, since the display control unit displays the 3D image in the state where 72 main subjects are separated from the background on the display unit 60, an accurate 3D image is visually recognized. Can do.

なお、本実施の形態3では、輝度を上げる際にY成分に乗じる係数として1.5を用いたり、輝度を下げる際にY成分に乗じる係数として0.8を用いたりしたが、これらの係数はこの値に限るものではなく、必要に応じてより大きい値やより小さい値を用いてもよい。   In the third embodiment, 1.5 is used as a coefficient to be multiplied by the Y component when the luminance is increased, or 0.8 is used as a coefficient to be multiplied by the Y component when the luminance is decreased. Is not limited to this value, and a larger or smaller value may be used as necessary.

ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した実施の形態によってのみ限定されるべきものではない。   So far, the embodiment for carrying out the present invention has been described, but the present invention should not be limited only by the embodiment described above.

たとえば、本発明において、表示部とは別に電子ビューファインダを設け、この電子ビューファインダにおいて本発明を適用するようにしてもよい。この場合には、表示部と電子ビューファインダとで3Dアナグリフ画像の見え方が異なるようにすればより好ましい。   For example, in the present invention, an electronic viewfinder may be provided separately from the display unit, and the present invention may be applied to this electronic viewfinder. In this case, it is more preferable that the appearance of the 3D anaglyph image is different between the display unit and the electronic viewfinder.

また、本発明においては、撮像装置の本体部と撮像部とが別体に形成されていてもよい。   In the present invention, the main body of the imaging device and the imaging unit may be formed separately.

また、本発明においては、撮像部を互いの光軸が平行または所定の角度をなすように同一平面上で並設され、被写体を同時に撮像し、この被写体からの光線を結像した被写体画像を受光して光電変換することによって視差を有する2つの画像データを生成する2眼式の撮像部であってもよい。   Further, in the present invention, a subject image in which the imaging units are arranged side by side on the same plane so that their optical axes are parallel or at a predetermined angle, images a subject at the same time, and images light rays from the subject is formed. It may be a twin-lens imaging unit that generates two image data having parallax by receiving light and performing photoelectric conversion.

また、本発明にかかる表示装置を搭載した撮像装置は、デジタル一眼レフカメラ以外にも、たとえばアクセサリ等を装着可能なデジタルカメラ、デジタルビデオカメラおよび撮像機能を有する携帯電話やタブレット型携帯機器等の電子機器にも適用することができる。   In addition to a digital single-lens reflex camera, an imaging device equipped with a display device according to the present invention includes, for example, a digital camera to which accessories can be attached, a digital video camera, a mobile phone having an imaging function, a tablet-type mobile device, and the like. It can also be applied to electronic devices.

また、本発明にかかる表示装置に実行させるプログラムは、インストール可能な形式又は実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   The program to be executed by the display device according to the present invention is file data in an installable format or executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD (Digital Versatile Disk), USB medium. And recorded on a computer-readable recording medium such as a flash memory.

また、本発明にかかる表示装置に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。さらに、本発明にかかる表示装置に実行させるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   The program to be executed by the display device according to the present invention may be configured to be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Furthermore, the program executed by the display device according to the present invention may be provided or distributed via a network such as the Internet.

なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。すなわち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。   In the description of the flowchart in the present specification, the context of the processing between steps is clearly indicated using expressions such as “first”, “after”, “follow”, etc., in order to implement the present invention. The order of processing required is not uniquely determined by their representation. That is, the order of processing in the flowcharts described in this specification can be changed within a consistent range.

このように、本発明は、ここでは記載していない様々な実施の形態を含みうるものであり、特許請求の範囲によって特定される技術的思想の範囲内で種々の設計変更等を行うことが可能である。   As described above, the present invention can include various embodiments not described herein, and various design changes and the like can be made within the scope of the technical idea specified by the claims. Is possible.

1,2,3 撮像装置
10 撮像部
20 外部I/F
30 操作入力部
31 電源スイッチ
32 レリーズスイッチ
33 モード切替スイッチ
34 設定スイッチ
35 再生スイッチ
40,200,300 画像処理部
41 画像取得部
42 3D画像生成部
43,201 色検出部
44 操作情報生成部
50,210 記録部
51 プログラム記録部
52 画像データ記録部
60 表示部
70 制御部
71 撮影制御部
72 表示制御部
100 アナグリフ眼鏡
201a モデリング部
201b 背景色指数算出部
201c 視認指数算出部
201d 色設定部
211 視認指数記録部
301 主被写体特定部
302 色空間変更部
302a エッジ検出部
302b 色相変換部
302c Y成分補正部
1, 2, 3 Imaging device 10 Imaging unit 20 External I / F
DESCRIPTION OF SYMBOLS 30 Operation input part 31 Power switch 32 Release switch 33 Mode change switch 34 Setting switch 35 Playback switch 40,200,300 Image processing part 41 Image acquisition part 42 3D image generation part 43,201 Color detection part 44 Operation information generation part 50, 210 recording unit 51 program recording unit 52 image data recording unit 60 display unit 70 control unit 71 imaging control unit 72 display control unit 100 anaglyph glasses 201a modeling unit 201b background color index calculation unit 201c visual index calculation unit 201d color setting unit 211 visual index Recording unit 301 Main subject specifying unit 302 Color space changing unit 302a Edge detection unit 302b Hue conversion unit 302c Y component correction unit

Claims (20)

同じ被写体に対して視差を有する2つの画像データを用いてアナグリフ方式の立体視画像を表示可能な表示部を備えた表示装置であって、
アナグリフ方式の眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、前記表示部が表示する前記立体視画像の表示態様を制御する表示制御部を備えたことを特徴とする表示装置。
A display device including a display unit capable of displaying an anaglyph stereoscopic image using two image data having parallax with respect to the same subject,
A display control unit configured to control a display mode of the stereoscopic image displayed by the display unit based on optical characteristics of two filters that transmit light of different wavelength bands provided in the anaglyph type glasses; A display device.
前記表示制御部は、少なくとも前記立体視画像の一部の色または形状を変更することを特徴とする請求項1に記載の表示装置。   The display device according to claim 1, wherein the display control unit changes a color or a shape of at least a part of the stereoscopic image. 前記2つの画像データを取得する画像取得部と、
前記画像取得部が取得した前記2つの画像データを用いて、前記アナグリフ方式の立体視画像データを生成する立体視画像生成部と、
当該表示装置に関する操作情報を生成する操作情報生成部と、
をさらに備え、
前記表示制御部は、前記立体視画像生成部が生成した前記立体視画像データに対応する立体視画像を前記表示部に表示させるとともに、前記2つのフィルタで識別可能な色で前記操作情報を前記立体視画像上に重畳して前記表示部に表示させることを特徴とする請求項1または2に記載の表示装置。
An image acquisition unit for acquiring the two image data;
A stereoscopic image generation unit that generates the anaglyph stereoscopic image data using the two image data acquired by the image acquisition unit;
An operation information generation unit for generating operation information related to the display device;
Further comprising
The display control unit displays a stereoscopic image corresponding to the stereoscopic image data generated by the stereoscopic image generation unit on the display unit, and displays the operation information in a color that can be identified by the two filters. The display device according to claim 1, wherein the display device is displayed on the display unit so as to be superimposed on a stereoscopic image.
前記立体視画像上に前記操作情報を重畳する表示領域の色を検出する色検出部を備え、
前記表示制御部は、前記色検出部が検出した前記表示領域の色と分離可能な色で前記操作情報を前記表示部に表示させることを特徴とする請求項3に記載の表示装置。
A color detection unit that detects a color of a display area on which the operation information is superimposed on the stereoscopic image;
The display device according to claim 3, wherein the display control unit displays the operation information on the display unit in a color separable from the color of the display area detected by the color detection unit.
前記色検出部は、前記表示領域を色毎に複数の色領域に分割し、該複数の色領域のうち面積比と該色領域の視認指数に基づく値が所定値より大きい色領域の色を前記表示領域の色として検出することを特徴とする請求項4に記載の表示装置。   The color detection unit divides the display region into a plurality of color regions for each color, and selects a color of a color region having a value based on an area ratio and a visibility index of the color region greater than a predetermined value among the plurality of color regions. The display device according to claim 4, wherein the display device detects the color of the display area. 前記表示部が表示する複数の操作情報のいずれかを選択する指示信号の入力を受け付け可能な操作入力部をさらに備え、
前記表示制御部は、前記操作入力部から入力された前記指示信号に応じて選択された操作情報の形状を、他の操作情報と識別可能な形状に変更して前記表示部に表示させることを特徴とする請求項2〜5のいずれか一つに記載の表示装置。
An operation input unit capable of accepting an input of an instruction signal for selecting any of the plurality of operation information displayed on the display unit;
The display control unit changes the shape of the operation information selected according to the instruction signal input from the operation input unit to a shape distinguishable from other operation information, and causes the display unit to display the shape. The display device according to claim 2, wherein the display device is a display device.
前記形状は、多角形、円形、楕円形、半円を直線でつないだ形状、雲形、星形、角を丸くした多角形のいずれかであることを特徴とする請求項6に記載の表示装置。   The display device according to claim 6, wherein the shape is any one of a polygon, a circle, an ellipse, a shape obtained by connecting semicircles with a straight line, a cloud shape, a star shape, and a polygon with rounded corners. . 前記操作情報は、当該表示装置に関する注意を示す注意情報、当該表示装置に関する警告を示す警告情報および当該表示装置が実行可能なメニューを示すメニュー情報の少なくともいずれか一つであることを特徴とする請求項3〜7のいずれか一つに記載の表示装置。   The operation information is at least one of caution information indicating a caution regarding the display device, warning information indicating a warning regarding the display device, and menu information indicating a menu executable by the display device. The display apparatus as described in any one of Claims 3-7. 前記2つの画像データを取得する画像取得部と、
前記画像取得部が取得した前記2つの画像データそれぞれに対応する2つの画像に含まれる主被写体を検出する主被写体検出部と、
前記2つの画像にそれぞれ含まれる背景に対して、前記主被写体検出部が検出した前記主被写体を識別可能に前記2つの画像データの色空間の変数を変更する色空間変更処理を行う色空間変更部と、
前記色空間変更部が前記色空間変更処理を行った前記2つの画像データを用いて、前記アナグリフ方式の立体視画像データを生成する立体視画像生成部と、
をさらに備え、
前記表示制御部は、前記立体視画像生成部が生成した前記立体視画像データに対応する立体視画像を前記表示部に表示させることを特徴とする請求項1に記載の表示装置。
An image acquisition unit for acquiring the two image data;
A main subject detection unit for detecting a main subject included in two images corresponding to the two image data acquired by the image acquisition unit;
Color space change for performing color space change processing for changing a color space variable of the two image data so that the main subject detected by the main subject detection unit can be identified with respect to backgrounds included in the two images, respectively. And
A stereoscopic image generation unit that generates the anaglyph stereoscopic image data using the two image data on which the color space change unit has performed the color space change process;
Further comprising
The display device according to claim 1, wherein the display control unit causes the display unit to display a stereoscopic image corresponding to the stereoscopic image data generated by the stereoscopic image generation unit.
前記色空間の変数は、輝度であることを特徴とする請求項9に記載の表示装置。   The display device according to claim 9, wherein the color space variable is luminance. 前記色空間の変数は、彩度、色相およびホワイトバランスのいずれかであることを特徴とする請求項9に記載の表示装置。   The display device according to claim 9, wherein the color space variable is one of saturation, hue, and white balance. 前記色空間変更部に前記色空間変更処理の実行を指示する指示信号の入力を受け付ける操作入力部をさらに備え、
前記色空間変更部は、前記操作入力部から前記指示信号が入力された場合、前記色空間変更処理を実行することを特徴とする請求項9〜11のいずれか一つに記載の表示装置。
An operation input unit that receives an input of an instruction signal that instructs the color space change unit to execute the color space change process;
The display device according to claim 9, wherein the color space changing unit executes the color space changing process when the instruction signal is input from the operation input unit.
前記被写体を撮像し、該被写体からの光線を結像した被写体画像を受光して光電変換を行うことによって画像データを生成する撮像部をさらに備え、
前記画像取得部は、前記撮像部が異なる位置でそれぞれ生成した2つの画像データであって、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを前記2つの画像データとして前記撮像部から取得することを特徴とする請求項3〜12のいずれか一つに記載の表示装置。
An image pickup unit that picks up an image of the subject, receives a subject image formed by forming a light beam from the subject, and performs photoelectric conversion to generate image data;
The image acquisition unit includes two pieces of image data generated by the image pickup unit at different positions, and two pieces of image data in which one end in the horizontal direction of each field of view overlaps as the two pieces of image data. It acquires from an imaging part, The display apparatus as described in any one of Claims 3-12 characterized by the above-mentioned.
互いの光軸が平行または所定の角度をなすように並設され、該被写体からの光線を結像した被写体画像を受光して光電変換することによって前記2つの画像データを生成する撮像部をさらに備え、
前記画像取得部は、前記撮像部が前記被写体を同時に撮像して生成した前記2つの画像データを前記撮像部から取得することを特徴とする請求項3〜12のいずれか一つに記載の表示装置。
An imaging unit that generates the two image data by receiving and photoelectrically converting a subject image in which light axes from the subject are formed in parallel so that their optical axes are parallel or at a predetermined angle. Prepared,
The display according to claim 3, wherein the image acquisition unit acquires the two image data generated by the imaging unit imaging the subject at the same time from the imaging unit. apparatus.
前記撮像部は、当該表示装置に着脱自在であることを特徴とする請求項13または14に記載の表示装置。   The display device according to claim 13 or 14, wherein the imaging unit is detachable from the display device. 前記2つの画像データを記録する記録部をさらに備え、
前記画像取得部は、前記記録部から前記2つの画像データを取得することを特徴とする請求項3〜12のいずれか一つに記載の表示装置。
A recording unit for recording the two image data;
The display device according to claim 3, wherein the image acquisition unit acquires the two image data from the recording unit.
前記2つの画像データを当該表示装置の外部から得る外部入力部をさらに備え、
前記画像取得部は、前記外部入力部から前記2つの画像データを取得することを特徴とする請求項3〜12のいずれか一つに記載の表示装置。
An external input unit for obtaining the two image data from the outside of the display device;
The display device according to claim 3, wherein the image acquisition unit acquires the two image data from the external input unit.
前記表示部の表示態様を変更する表示態様変更モードまたは前記2つの画像データそれぞれに対応する2つの画像のうち一方のみを前記表示部に表示させる2次元画像表示モードを指示するモード指示信号の入力を受け付けるモード切替スイッチ部をさらに備え、
前記表示制御部は、前記モード切替スイッチ部から入力される前記モード指示信号に応じて、前記表示態様を変更することを特徴とする請求項1〜17のいずれか一つに記載の表示装置。
Input of a mode instruction signal for instructing a display mode change mode for changing the display mode of the display unit or a two-dimensional image display mode for displaying only one of the two images corresponding to the two image data on the display unit Further comprising a mode changeover switch unit for receiving
The display device according to claim 1, wherein the display control unit changes the display mode in accordance with the mode instruction signal input from the mode changeover switch unit.
同じ被写体に対して視差を有する2つの画像データを用いてアナグリフ方式の立体視画像を表示可能な表示部を備えた表示装置が実行する表示方法であって、
アナグリフ方式の眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、前記表示部が表示する前記立体視画像の表示態様を制御する表示制御ステップを含むことを特徴とする表示方法。
A display method executed by a display device including a display unit capable of displaying an anaglyph stereoscopic image using two image data having parallax with respect to the same subject,
Including a display control step of controlling a display mode of the stereoscopic image displayed by the display unit based on optical characteristics of two filters that transmit light in different wavelength bands provided in the anaglyph glasses. Characteristic display method.
同じ被写体に対して視差を有する2つの画像データを用いてアナグリフ方式の立体視画像を表示可能な表示部を備えた表示装置に実行させるプログラムであって、
アナグリフ方式の眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、前記表示部が表示する前記立体視画像の表示態様を制御する表示制御ステップを実行させることを特徴とするプログラム。
A program to be executed by a display device having a display unit capable of displaying an anaglyph stereoscopic image using two image data having parallax with respect to the same subject,
Executing a display control step for controlling a display mode of the stereoscopic image displayed by the display unit based on optical characteristics of two filters that transmit light of different wavelength bands provided in the anaglyph glasses. A program characterized by
JP2013031464A 2013-02-20 2013-02-20 Display device, display method, and program Pending JP2014160989A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013031464A JP2014160989A (en) 2013-02-20 2013-02-20 Display device, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013031464A JP2014160989A (en) 2013-02-20 2013-02-20 Display device, display method, and program

Publications (1)

Publication Number Publication Date
JP2014160989A true JP2014160989A (en) 2014-09-04

Family

ID=51612387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013031464A Pending JP2014160989A (en) 2013-02-20 2013-02-20 Display device, display method, and program

Country Status (1)

Country Link
JP (1) JP2014160989A (en)

Similar Documents

Publication Publication Date Title
US8736671B2 (en) Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device
US9560341B2 (en) Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device
CN104221370B (en) Image processing apparatus, camera head and image processing method
US20100315517A1 (en) Image recording device and image recording method
JP4661824B2 (en) Image processing apparatus, method, and program
JPWO2017217115A1 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND IMAGE PROCESSING SYSTEM
US9838667B2 (en) Image pickup apparatus, image pickup method, and non-transitory computer-readable medium
JP5160460B2 (en) Stereo imaging device and stereo imaging method
JP5993937B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5486697B2 (en) Stereoscopic video playback device, stereoscopic video playback program and recording medium thereof, stereoscopic display device, stereoscopic imaging device, and stereoscopic video playback method
WO2011136137A1 (en) Stereoscopic image pickup device and control method therefor
JP6036840B2 (en) Imaging apparatus, image processing apparatus, control program for imaging apparatus, and control program for image processing apparatus
US9380290B2 (en) Stereoscopic video processor, recording medium for stereoscopic video processing program, stereoscopic imaging device and stereoscopic video processing method
US8982189B2 (en) 3D video reproduction device, non-transitory recording medium, 3D display device, 3D imaging device, and 3D video reproduction method
JP2012257105A (en) Stereoscopic image obtaining apparatus
JP2014160989A (en) Display device, display method, and program
CN104054333A (en) Image processing device, method and program, and recording medium therefor
JP5825932B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP2012209872A (en) 3d image generating method, 3d image generating program and 3d image generating apparatus
JP4632060B2 (en) Image recording apparatus, method and program
JP2014155126A (en) Display device, display method, and program
JP4995966B2 (en) Image processing apparatus, method, and program
JP2017108194A (en) Image processing apparatus, imaging device and image processing program
JP2015046820A (en) Imaging apparatus and imaging system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423