JP2014160989A - Display device, display method, and program - Google Patents
Display device, display method, and program Download PDFInfo
- Publication number
- JP2014160989A JP2014160989A JP2013031464A JP2013031464A JP2014160989A JP 2014160989 A JP2014160989 A JP 2014160989A JP 2013031464 A JP2013031464 A JP 2013031464A JP 2013031464 A JP2013031464 A JP 2013031464A JP 2014160989 A JP2014160989 A JP 2014160989A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- display
- image
- color
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000003384 imaging method Methods 0.000 claims abstract description 163
- 239000011521 glass Substances 0.000 claims abstract description 49
- 230000003287 optical effect Effects 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims description 44
- 230000008569 process Effects 0.000 claims description 39
- 238000001514 detection method Methods 0.000 claims description 37
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 abstract description 50
- 238000010586 diagram Methods 0.000 description 22
- 238000012937 correction Methods 0.000 description 17
- 239000003086 colorant Substances 0.000 description 16
- 238000003708 edge detection Methods 0.000 description 12
- 239000000203 mixture Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 239000000654 additive Substances 0.000 description 3
- 230000000996 additive effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、アナグリフ方式の3次元画像を表示する表示装置、表示方法およびプログラムに関する。 The present invention relates to a display device, a display method, and a program for displaying an anaglyph three-dimensional image.
従来、同一の被写体に対して視差を有する2つの画像データを取得し、この取得した2つの画像データを用いて立体視画像データ(以下、「3D画像データ」という)を生成する画像処理装置が知られている(特許文献1参照)。この技術では、2つの画像データにそれぞれ対応する2つの画像のうち少なくとも一方を視差方向に応じて回転または移動させることによって、過大な視差を有する不自然な3D画像データを適正な視差を有する3D画像データに補正する。 2. Description of the Related Art Conventionally, an image processing apparatus that acquires two image data having parallax for the same subject and generates stereoscopic image data (hereinafter referred to as “3D image data”) using the acquired two image data. It is known (see Patent Document 1). In this technique, unnatural 3D image data having excessive parallax is converted into 3D having appropriate parallax by rotating or moving at least one of two images corresponding to the two image data according to the parallax direction. Correct to image data.
ところで、近年、立体視画像(以下、「3D画像」という)を表示可能な3Dテレビジョンや3Dモニター等の普及に伴い、立体視撮影機能を搭載した撮像装置が増えてきている。このような立体視撮影機能を搭載する撮像装置に適用可能な再生表示方式としては、フレーム・シーケンシャル方式やアナグリフ方式、視差障壁方式等が考えられる。このうち、フレーム・シーケンシャル方式は、視差が異なる左右の画像を時系列に沿って交互に表示させなければならず、またそれを3D画像として表示するためには専用の電子制御眼鏡が必要となり、標準型の撮像装置に適用することが難しかった。これに対して、アナグリフ方式は、同一の被写体に対して視差を有する2つの画像データをそれぞれ特殊な画像処理を行った上で重ねて再生し、左右にたとえば赤と青のカラーフィルタを有する眼鏡(以下、「アナグリフ眼鏡」という)によって3D画像データに対応する3D画像をユーザに視認させるものであり、標準型の撮像装置に低コスト、かつ簡易な構成で容易に適用することができる。 Incidentally, in recent years, with the spread of 3D televisions, 3D monitors, and the like that can display stereoscopic images (hereinafter referred to as “3D images”), imaging devices equipped with a stereoscopic imaging function are increasing. As a reproduction display method applicable to an image pickup apparatus equipped with such a stereoscopic photographing function, a frame sequential method, an anaglyph method, a parallax barrier method, or the like can be considered. Of these, the frame-sequential method must display left and right images with different parallax alternately in time series, and in order to display them as 3D images, dedicated electronic control glasses are required, It was difficult to apply to a standard imaging device. In contrast, in the anaglyph method, two image data having parallax with respect to the same subject are reproduced by superimposing them after performing special image processing, respectively, and having, for example, red and blue color filters on the left and right (Hereinafter, referred to as “anaglyph glasses”) allows a user to visually recognize a 3D image corresponding to 3D image data, and can be easily applied to a standard imaging apparatus with a low cost and a simple configuration.
ところで、上述したアナグリフ方式は、ユーザに最適な3D画像を視認させるため、両目でそれぞれの画像を視認させることが求められる。しかしながら、アナグリフ眼鏡は、フィルタの光学特性によって画像の色を黒や他の色に変換して透過させる。このため、画像によっては、ユーザが一方の画像を視認できないので立体感を得られず、不自然な3D画像を視認してしまうという問題点があった。 By the way, the above-described anaglyph method requires the user to visually recognize each image with both eyes in order to visually recognize the optimal 3D image. However, the anaglyph glasses convert the color of the image into black or another color according to the optical characteristics of the filter and transmit it. For this reason, there is a problem in that, depending on the image, the user cannot visually recognize one of the images, so that a stereoscopic effect cannot be obtained and an unnatural 3D image is visually recognized.
本発明は、上記に鑑みてなされたものであって、ユーザに自然な3D画像を視認させることができる表示装置、表示方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object thereof is to provide a display device, a display method, and a program that allow a user to visually recognize a natural 3D image.
上述した課題を解決し、目的を達成するために、本発明にかかる表示装置は、同じ被写体に対して視差を有する2つの画像データを用いてアナグリフ方式の立体視画像を表示可能な表示部を備えた表示装置であって、アナグリフ方式の眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、前記表示部が表示する前記立体視画像の表示態様を制御する表示制御部を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, a display device according to the present invention includes a display unit capable of displaying an anaglyph stereoscopic image using two image data having parallax with respect to the same subject. A display device provided with an anaglyph-type eyeglass that controls the display mode of the stereoscopic image displayed by the display unit based on optical characteristics of two filters that transmit light in different wavelength bands. A display control unit is provided.
また、本発明にかかる表示装置は、上記発明において、前記表示制御部は、少なくとも前記立体視画像の一部の色または形状を変更することを特徴とする。 In the display device according to the present invention as set forth in the invention described above, the display control unit changes at least part of the color or shape of the stereoscopic image.
また、本発明にかかる表示装置は、上記発明において、前記2つの画像データを取得する画像取得部と、前記画像取得部が取得した前記2つの画像データを用いて、前記アナグリフ方式の立体視画像データを生成する立体視画像生成部と、当該表示装置に関する操作情報を生成する操作情報生成部と、をさらに備え、前記表示制御部は、前記立体視画像生成部が生成した前記立体視画像データに対応する立体視画像を前記表示部に表示させるとともに、前記2つのフィルタで識別可能な色で前記操作情報を前記立体視画像上に重畳して前記表示部に表示させることを特徴とする。 In the display device according to the present invention, the anaglyph stereoscopic image is obtained using the image acquisition unit that acquires the two image data and the two image data acquired by the image acquisition unit. A stereoscopic image generation unit that generates data; and an operation information generation unit that generates operation information related to the display device, wherein the display control unit generates the stereoscopic image data generated by the stereoscopic image generation unit. Is displayed on the display unit, and the operation information is superimposed on the stereoscopic image in a color that can be identified by the two filters, and is displayed on the display unit.
また、本発明にかかる表示装置は、上記発明において、前記立体視画像上に前記操作情報を重畳する表示領域の色を検出する色検出部を備え、前記表示制御部は、前記色検出部が検出した前記表示領域の色と分離可能な色で前記操作情報を前記表示部に表示させることを特徴とする。 The display device according to the present invention further includes a color detection unit that detects a color of a display region in which the operation information is superimposed on the stereoscopic image, and the display control unit includes the color detection unit. The operation information is displayed on the display unit in a color separable from the detected color of the display area.
また、本発明にかかる表示装置は、上記発明において、前記色検出部は、前記表示領域を色毎に複数の色領域に分割し、該複数の色領域のうち面積比と該色領域の視認指数に基づく値が所定値より大きい色領域の色を前記表示領域の色として検出することを特徴とする。 In the display device according to the present invention as set forth in the invention described above, the color detection unit divides the display region into a plurality of color regions for each color, and the area ratio and the visual recognition of the color region among the plurality of color regions. A color of a color area having a value based on an index larger than a predetermined value is detected as a color of the display area.
また、本発明にかかる表示装置は、上記発明において、前記表示部が表示する複数の操作情報のいずれかを選択する指示信号の入力を受け付け可能な操作入力部をさらに備え、前記表示制御部は、前記操作入力部から入力された前記指示信号に応じて選択された操作情報の形状を、他の操作情報と識別可能な形状に変更して前記表示部に表示させることを特徴とする。 The display device according to the present invention further includes an operation input unit capable of receiving an input of an instruction signal for selecting any of the plurality of operation information displayed on the display unit in the above invention, and the display control unit includes: The shape of the operation information selected according to the instruction signal input from the operation input unit is changed to a shape distinguishable from other operation information and displayed on the display unit.
また、本発明にかかる表示装置は、上記発明において、前記形状は、多角形、円形、楕円形、半円を直線でつないだ形状、雲形、星形、角を丸くした多角形のいずれかであることを特徴とする。 In the display device according to the present invention, the shape is any one of a polygon, a circle, an ellipse, a shape formed by connecting semicircles with a straight line, a cloud shape, a star shape, and a polygon having rounded corners. It is characterized by being.
また、本発明にかかる表示装置は、上記発明において、前記操作情報は、当該表示装置に関する注意を示す注意情報、当該表示装置に関する警告を示す警告情報および当該表示装置が実行可能なメニューを示すメニュー情報の少なくともいずれか一つであることを特徴とする。 Further, in the display device according to the present invention, in the above invention, the operation information includes a menu indicating a warning information indicating a warning regarding the display device, a warning information indicating a warning regarding the display device, and a menu executable by the display device. It is at least one of information.
また、本発明にかかる表示装置は、上記発明において、前記2つの画像データを取得する画像取得部と、前記画像取得部が取得した前記2つの画像データそれぞれに対応する2つの画像に含まれる主被写体を検出する主被写体検出部と、前記2つの画像にそれぞれ含まれる背景に対して、前記主被写体検出部が検出した前記主被写体を識別可能に前記2つの画像データの色空間の変数を変更する色空間変更処理を行う色空間変更部と、前記色空間変更部が前記色空間変更処理を行った前記2つの画像データを用いて、前記アナグリフ方式の立体視画像データを生成する立体視画像生成部と、をさらに備え、前記表示制御部は、前記立体視画像生成部が生成した前記立体視画像データに対応する立体視画像を前記表示部に表示させることを特徴とする。 The display device according to the present invention includes an image acquisition unit that acquires the two image data and two images corresponding to the two image data acquired by the image acquisition unit. Change the color space variable of the two image data so that the main subject detected by the main subject detection unit can be identified with respect to the main subject detection unit for detecting the subject and the background included in each of the two images. A color space changing unit that performs the color space changing process, and a stereoscopic image that generates the anaglyph stereoscopic image data using the two image data that the color space changing unit has performed the color space changing process. A generation unit, wherein the display control unit causes the display unit to display a stereoscopic image corresponding to the stereoscopic image data generated by the stereoscopic image generation unit. To.
また、本発明にかかる表示装置は、上記発明において、前記色空間の変数は、輝度であることを特徴とする。 In the display device according to the present invention as set forth in the invention described above, the color space variable is luminance.
また、本発明にかかる表示装置は、上記発明において、前記色空間の変数は、彩度、色相およびホワイトバランスのいずれかであることを特徴とする。 In the display device according to the present invention as set forth in the invention described above, the color space variable is any one of saturation, hue, and white balance.
また、本発明にかかる表示装置は、上記発明において、前記色空間変更部に前記色空間変更処理の実行を指示する指示信号の入力を受け付ける操作入力部をさらに備え、前記色空間変更部は、前記操作入力部から前記指示信号が入力された場合、前記色空間変更処理を実行することを特徴とする。 The display device according to the present invention further includes an operation input unit that receives an input of an instruction signal instructing the color space changing unit to execute the color space changing process, wherein the color space changing unit includes: When the instruction signal is input from the operation input unit, the color space changing process is executed.
また、本発明にかかる表示装置は、上記発明において、前記被写体を撮像し、該被写体からの光線を結像した被写体画像を受光して光電変換を行うことによって画像データを生成する撮像部をさらに備え、前記画像取得部は、前記撮像部が異なる位置でそれぞれ生成した2つの画像データであって、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを前記2つの画像データとして前記撮像部から取得することを特徴とする。 The display device according to the present invention further includes an imaging unit that captures an image of the subject, receives a subject image formed by imaging light from the subject, and performs photoelectric conversion to generate image data. The image acquisition unit includes two pieces of image data generated at different positions by the image pickup unit, and two pieces of image data in which one end in the left-right direction of each field of view overlaps each other. It acquires from the said imaging part.
また、本発明にかかる表示装置は、上記発明において、互いの光軸が平行または所定の角度をなすように並設され、該被写体からの光線を結像した被写体画像を受光して光電変換することによって前記2つの画像データを生成する撮像部をさらに備え、前記画像取得部は、前記撮像部が前記被写体を同時に撮像して生成した前記2つの画像データを前記撮像部から取得することを特徴とする。 In the display device according to the present invention, in the above-described invention, the optical axes of the display devices are arranged in parallel so that their optical axes are parallel or at a predetermined angle, and a subject image formed by imaging a light beam from the subject is received and photoelectrically converted. The image acquisition unit further includes an imaging unit that generates the two image data, and the image acquisition unit acquires the two image data generated by the imaging unit simultaneously imaging the subject from the imaging unit. And
また、本発明にかかる表示装置は、上記発明において、前記撮像部は、当該表示装置に着脱自在であることを特徴とする。 The display device according to the present invention is characterized in that, in the above invention, the imaging unit is detachable from the display device.
また、本発明にかかる表示装置は、上記発明において、前記2つの画像データを記録する記録部をさらに備え、前記画像取得部は、前記記録部から前記2つの画像データを取得することを特徴とする。 The display device according to the present invention further includes a recording unit that records the two image data in the above-described invention, and the image acquisition unit acquires the two image data from the recording unit. To do.
また、本発明にかかる表示装置は、上記発明において、前記2つの画像データを当該表示装置の外部から得る外部入力部をさらに備え、前記画像取得部は、前記外部入力部から前記2つの画像データを取得することを特徴とする。 The display device according to the present invention further includes an external input unit that obtains the two image data from the outside of the display device in the above invention, and the image acquisition unit receives the two image data from the external input unit. It is characterized by acquiring.
また、本発明にかかる表示装置は、上記発明において、前記表示部の表示態様を変更する表示態様変更モードまたは前記2つの画像データそれぞれに対応する2つの画像のうち一方のみを前記表示部に表示させる2次元画像表示モードを指示するモード指示信号の入力を受け付けるモード切替スイッチ部をさらに備え、前記表示制御部は、前記モード切替スイッチ部から入力される前記モード指示信号に応じて、前記表示態様を変更することを特徴とする。 In the display device according to the present invention, only one of the display mode change mode for changing the display mode of the display unit or the two images corresponding to the two image data is displayed on the display unit. A mode changeover switch unit for receiving an input of a mode instruction signal for instructing a two-dimensional image display mode to be performed, and the display control unit is configured to display the display mode according to the mode instruction signal input from the mode changeover switch unit. It is characterized by changing.
また、本発明にかかる表示方法は、同じ被写体に対して視差を有する2つの画像データを用いてアナグリフ方式の立体視画像を表示可能な表示部を備えた表示装置が実行する表示方法であって、アナグリフ方式の眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、前記表示部が表示する前記立体視画像の表示態様を制御する表示制御ステップを含むことを特徴とする。 The display method according to the present invention is a display method executed by a display device including a display unit capable of displaying an anaglyph stereoscopic image using two image data having parallax with respect to the same subject. A display control step of controlling a display mode of the stereoscopic image displayed by the display unit based on optical characteristics of two filters that transmit light of different wavelength bands provided in the anaglyph glasses. It is characterized by.
また、本発明にかかるプログラムは、同じ被写体に対して視差を有する2つの画像データを用いてアナグリフ方式の立体視画像を表示可能な表示部を備えた表示装置に実行させるプログラムであって、アナグリフ方式の眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、前記表示部が表示する前記立体視画像の表示態様を制御する表示制御ステップを実行させることを特徴とする。 A program according to the present invention is a program that is executed by a display device that includes a display unit capable of displaying an anaglyph stereoscopic image using two image data having parallax with respect to the same subject. A display control step for controlling a display mode of the stereoscopic image displayed by the display unit based on optical characteristics of two filters that transmit light of different wavelength bands provided in the glasses of the system. Features.
本発明によれば、表示制御部がアナグリフ方式の眼鏡に設けられた互い異なる波長帯域の光を透過させる2つのフィルタに応じて、表示部の表示態様を変更するこれにより、ユーザは、自然な3Dアナグリフ画像を視認することができるという効果を奏する。 According to the present invention, the display control unit changes the display mode of the display unit according to the two filters that transmit light of different wavelength bands provided in the anaglyph type glasses. The 3D anaglyph image can be visually recognized.
以下、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)を説明する。なお、以下の説明では、本発明の表示装置が搭載された撮像装置を例に説明する。また、この実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付して説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings. In the following description, an imaging apparatus equipped with the display device of the present invention will be described as an example. Further, the present invention is not limited by this embodiment. Further, in the description of the drawings, the same portions will be described with the same reference numerals.
(実施の形態1)
図1は、本発明の実施の形態1にかかる撮像装置の構成を模式的に示すブロック図である。図1に示す撮像装置1は、撮像部10と、外部I/F20と、操作入力部30と、画像処理部40と、記録部50と、表示部60と、制御部70と、を備える。
(Embodiment 1)
FIG. 1 is a block diagram schematically showing the configuration of the imaging apparatus according to the first embodiment of the present invention. The
撮像部10は、被写体を撮像して被写体の画像データを生成する。撮像部10は、所定の視野領域から光を集光して結像する光学系と、光学系が集光して結像した被写体像を撮像面で受光して光電変換を行うことによって、光を電気信号(アナログ信号)に変換するCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と、撮像素子から出力される電気信号に増幅(ゲイン調整)等の信号処理を施すアナログフロントエンド回路と、アナログフロントエンド回路から出力される電気信号をA/D変換することによってデジタルの画像データに変換するA/D変換回路と、を有する。なお、撮像部10は、被写体を異なる位置から撮像し、互いの視野の左右方向の一端部同士が重なりを有し、2つの画像データを生成可能な2眼式を適用してもよい。
The
外部I/F20は、他の機器と通信を行って画像データを含む各種データが入力される通信インターフェースである。外部I/F20は、所定の無線通信規格に従って、他の機器と無線通信を行って画像データを含む各種データを受信してもよい。
The external I /
操作入力部30は、撮像装置1を駆動する指示信号の入力を受け付ける電源スイッチ31と、撮影の指示を与えるレリーズ信号の入力を受け付けるレリーズスイッチ32と、撮像装置1に設定された各種撮影モード切替の指示を与える切替信号の入力を受け付けるモード切替スイッチ33と、撮像装置1の各種パラメータを設定する設定信号の入力を受け付ける設定スイッチ34と、記録部50が記録する画像データを表示部60に再生表示させる指示信号の入力を受け付ける再生スイッチ35と、を有する。
The
画像処理部40は、制御部70を介して撮像部10、外部I/F20および記録部50のいずれかから画像データを取得し、取得した画像データに対して各種の画像処理を行う。画像処理部40は、画像取得部41と、3D画像生成部42と、色検出部43と、操作情報生成部44と、を備える。
The
画像取得部41は、制御部70を介して撮像部10、外部I/F20および記録部50のいずれかから、同一の被写体に対して互いに視差を有する2つの画像データを取得する。ここで、2つの画像データとは、右目用画像データと左目用画像データである。また、画像取得部41は、制御部70を介して撮像部10、外部I/F20および記録部50のいずれから1つの画像データを取得する。
The image acquisition unit 41 acquires two pieces of image data having parallax with respect to the same subject from any of the
3D画像生成部42は、画像取得部41が取得した2つの画像データを用いてアナグリフ方式の3D画像データを生成する。具体的には、3D画像生成部42は、左目用画像データからマゼンダ(magenta)の成分および黄(Yellow)の成分をそれぞれ抽出し、この抽出したマゼンダの成分および黄の成分を合成することによってアナグリフ方式の左目用画像データを生成する一方、右目画像用データからシアン(Cyan)の成分を抽出し、この抽出したシアンの成分からアナグリフ方式の右目用画像データを生成する。
The 3D image generation unit 42 generates
色検出部43は、画像取得部41が取得した2つの画像データそれぞれに対応する2つの画像に含まれる色成分を検出し、この検出結果を操作情報生成部44へ出力する。具体的には、色検出部43は、3D画像上に後述する撮像装置1に関する操作情報を重畳する表示領域の色を検出し、この検出結果を操作情報生成部44へ出力する。また、色検出部43は、3D画像を構成する画素毎に色成分を検出し、この検出結果を操作情報生成部44へ出力してもよい。
The
操作情報生成部44は、操作入力部30から入力される指示信号および色検出部43から入力される検出結果に基づいて、3D画像上に重畳する撮像装置1に関するアナグリフ方式の操作情報(操作データ)を生成し、この生成した操作情報を制御部70へ出力する。ここで、操作情報とは、撮像装置1に関する注意を示す注意情報、撮像装置1に関する警告を示す警告情報、および撮像装置1が実行可能なメニューを示すメニュー情報を含む。また、操作情報生成部44は、表示部60が通常の2D画像を表示する場合、操作入力部30から入力される指示信号に応じた撮像装置1に関する操作情報を生成し、この生成した操作情報を制御部70へ出力する。
Based on the instruction signal input from the
記録部50は、撮像装置1が実行する各種プログラムおよび画像処理部40が実行するプログラムを記録するプログラム記録部51と、撮像部10が撮像した画像データ(たとえばRAWデータやJPEG方式による圧縮データ)、画像処理部40が画像処理を施した3D画像データおよび2D画像データを記録する画像データ記録部52と、を有する。記録部50は、撮像装置1の内部に固定的に設けられるFlashメモリやDRAM(Dynamic Random Access Memory)等の半導体メモリおよび撮像装置1の外部から図示しないI/Fを介して装着されるメモリカードを用いて構成される。
The
表示部60は、制御部70の制御のもと、画像データに対応する2D画像または3D画像を表示する。表示部60は、液晶または有機EL(Electro Luminescence)等からなる表示パネルおよび表示駆動ドライバ等を用いて構成される。ここで、画像の表示には、撮影直後の撮影後確認表示(以下、「レックビュー表示」という)、記録部50に記録された画像データを再生する再生表示、および撮像部10が連続的に生成する画像データに対応するライブビュー画像を時系列に沿って順次表示するライブビュー画像表示等が含まれる。ここで、レックビュー表示とは、撮影直後の画像データを所定時間(たとえば3秒)だけ表示するものである。また、表示部60は、制御部70の制御のもと、撮像装置1の操作情報および撮影に関する情報を適宜表示する。
The
制御部70は、撮像装置1を構成する各部に対して制御信号や各種データの転送を行うことにより、撮像装置1の動作を統括的に制御する。制御部70は、CPU(Central Processing Unit)等を用いて構成される。ここで、制御部70の詳細な構成について説明する。制御部70は、撮影制御部71と、表示制御部72と、を有する。
The
撮影制御部71は、レリーズスイッチ32を介してレリーズ信号が入力された場合、撮像装置1における撮影動作を開始する制御を行う。ここで、撮像装置1における撮影動作とは、撮像部10を駆動することによって撮像部10が出力した画像データ(RAWデータや)に対して、少なくとも画像処理部40が所定の処理を施す動作をいう。このように処理が施された画像データは、撮影制御部71によって記録部50に記録される。
When a release signal is input via the
表示制御部72は、画像処理部40から入力される3D画像データに対応する3D画像または立体視画像ではない通常の画像データに対応する画像(以下、「2D画像」という)を表示部60に表示させる制御を行う。具体的には、表示制御部72は、表示部60に3D画像を表示させる場合、画像処理部40によって生成された3D画像データに対応する3D画像を表示部60に表示させる。これに対して、表示制御部72は、表示部60に2D画像を表示させる場合、画像処理部40によって生成された2D画像データに対応する2D画像を表示部60に表示させる。また、表示制御部72は、アナグリフ眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、表示部60が表示する立体画像の表示態様を制御する。さらに、表示制御部72は、表示部60が表示する3D画像上に、操作情報生成部44によって生成されたアナグリフ方式に対応した操作情報を重畳して表示部60に表示させる。
The
以上の構成を有する撮像装置1が実行する処理について説明する。図2は、撮像装置1が実行する処理の概要を示すフローチャートである。
Processing executed by the
図2に示すように、まず、ユーザによって電源スイッチ31が操作されて、撮像装置1の電源がオンになると、制御部70は、撮像装置1の初期化処理を行う(ステップS101)。撮像装置のオートパワーオフ機能を有効にするための動作フラグをクリアする初期化等を行う。
As shown in FIG. 2, first, when the power switch 31 is operated by the user and the power of the
続いて、撮像装置1が撮影モードに設定されている場合(ステップS102:Yes)、撮影制御部71は、レリーズスイッチ32から入力されるレリーズ信号に応じて、撮像部10を駆動することによって撮像部10に画像データを生成させ、この画像データを画像処理部40に画像処理を施させて記録部50に記録する撮影動作処理を実行する(ステップS103)。
Subsequently, when the
その後、電源スイッチ31が操作されて、撮像装置1の電源がオフになった場合(ステップS104:Yes)、制御部70は、各フラグを初期状態にする処理や撮像部10を初期状態に戻す終了処理を実行する(ステップS105)。たとえば、制御部70は、撮像部10の光学系を初期位置に移動させる処理を行う。ステップS105の後、撮像装置1は、本処理を終了する。これに対して、電源スイッチ31が操作されず、撮像装置1の電源がオフになっていない場合(ステップS104:No)、撮像装置1は、ステップS102へ戻る。
Thereafter, when the power switch 31 is operated and the power of the
ステップS102において、撮像装置1が撮影モードに設定されていない場合(ステップS102:No)において、撮像装置1がアナグリフ再生モードに設定されているとき(ステップS106:Yes)、撮像装置1は、後述するステップS108へ移行する。これに対して、撮像装置1がアナグリフ再生モードに設定されていないとき(ステップS106:No)、撮像装置1は、後述するステップS107へ移行する。
In step S102, when the
ステップS107において、撮像装置1は、記録部50の画像データ記録部52に記録された通常の画像データに対応する2D画像を表示部60に表示させる通常再生処理を実行する。なお、通常再生処理の詳細は後述する。ステップS107の後、撮像装置1は、ステップS104へ移行する。
In step S <b> 107, the
ステップS108において、撮像装置1は、記録部50の画像データ記録部52に記録された3D画像データに対応する3D画像を表示部60に表示させるアナグリフ対応再生処理を実行する。なお、アナグリフ対応再生処理の詳細は後述する。ステップS108の後、撮像装置1は、ステップS104へ移行する。
In step S <b> 108, the
つぎに、図2のステップS107の通常再生処理について説明する。図3は、通常再生処理の概要を示すフローチャートである。 Next, the normal reproduction process in step S107 in FIG. 2 will be described. FIG. 3 is a flowchart showing an outline of the normal reproduction process.
図3に示すように、画像取得部41は、画像データ記録部52から再生対象の画像ファイルデータを取得する(ステップS201)。たとえば、画像取得部41は、画像データ記録部52に記録された複数の画像ファイルデータの中から最新の画像ファイルデータを再生対象の画像ファイルデータとして取得する。
As shown in FIG. 3, the image acquisition unit 41 acquires image file data to be reproduced from the image data recording unit 52 (step S201). For example, the image acquisition unit 41 acquires the latest image file data from among a plurality of image file data recorded in the image
続いて、表示制御部72は、画像処理部40が画像処理を施した画像データに対応する2D画像に、操作情報生成部44によって通常の設定(OSD;On Screen Display)設定)を用いて生成された操作情報を重畳して表示部60に表示させる(ステップS202)。
Subsequently, the
図4は、表示制御部72が2D画像W1LR上に操作情報を重畳して表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。図5は、表示部60が表示する色に対して各フィルタを介して視認することができる色の一覧を示す図である。図6は、アナグリフ眼鏡を介して視認することができる色の一覧を示す図である。また、本実施の形態1では、アナグリフ眼鏡として互いに異なる波長帯域の光を透過させる2つのフィルタとして、左目に赤(Red)フィルタ、左目にシアン(Cyan)フィルタを用いた場合を説明する。なお、アナグリフ眼鏡のフィルタとしては、たとえばマゼンダと緑(Green)であってもよく、適宜変更することができる。
FIG. 4 shows an image that can be seen when the user visually recognizes via the
図4に示すように、表示制御部72は、画像データに対応する2D画像W1LR上に、撮像装置1に関する操作情報を重畳して表示部60に表示させる。これにより、ユーザは、裸眼の状態であれば、表示部60を介して撮像装置1の操作情報を把握することができる。また、図4に示す状況は、操作入力部30を介して指定した画像ファイルデータに記録された画像データの再生表示ができない旨のメッセージの再生不可を赤色で示す。さらに、図4に示す2D画像W1LRは、背景画像を黒(Black)で表示し、操作情報を赤で表示した状態を示す。このような状況下において、ユーザがアナグリフ眼鏡100を装着して2D画像W1LRを視認したとき、左目では画像W1Lを視認する一方、右目では画像W1Rを視認する。具体的には、図5の視認テーブルT1および図6の視認テーブルT2に示すように、ユーザがアナグリフ眼鏡100を用いて2D画像W1LRを視認した場合、シアンフィルタによって赤が黒に変換され、かつ、背景が黒のため、操作情報が背景に埋もれてしまい、右目においては操作情報を視認することができない。
As illustrated in FIG. 4, the
図3に戻り、ステップS203以降の説明を続ける。ステップS203において、制御部70は、操作入力部30から操作情報の表示を変更する指示信号が入力されたか否かを判断する。具体的には、制御部70は、操作入力部30の設定スイッチ34から撮影条件のパラメータ、たとえば、絞り値を変更する指示信号が入力されたか否かを判断する。制御部70が操作入力部30から操作情報の表示を変更する指示信号が入力されたと判断した場合(ステップS203:Yes)、撮像装置1は、ステップS202へ戻る。これに対して、制御部70が操作入力部30から操作情報の表示を変更する指示信号が入力されていないと判断した場合(ステップS203:No)、撮像装置1は、ステップS204へ移行する。
Returning to FIG. 3, the description of step S203 and subsequent steps will be continued. In step S <b> 203, the
ステップS204において、操作入力部30から再生画像を変更する指示信号が入力された場合(ステップS204:Yes)、撮像装置1は、ステップS201へ戻る。これに対して、操作入力部30から再生画像を変更する指示信号が入力されていない場合(ステップS204:No)、撮像装置1は、ステップS205へ移行する。
In step S204, when an instruction signal for changing the reproduced image is input from the operation input unit 30 (step S204: Yes), the
続いて、操作入力部30から再生モードを終了する指示信号が入力された場合(ステップS205:Yes)、撮像装置1は、図2のメインルーチンへ戻る。これに対して、操作入力部30から再生モードを終了する指示信号が入力されていない場合(ステップS205:No)、撮像装置1は、ステップS203へ戻る。
Subsequently, when an instruction signal for ending the reproduction mode is input from the operation input unit 30 (step S205: Yes), the
つぎに、図2のステップS108のアナグリフ対応再生処理について説明する。図7は、アナグリフ対応再生処理の概要を示すフローチャートである。 Next, the anaglyph compatible reproduction process in step S108 of FIG. 2 will be described. FIG. 7 is a flowchart showing an outline of an anaglyph compatible reproduction process.
図7に示すように、画像取得部41は、画像データ記録部52から再生対象の画像ファイルデータを取得する(ステップS301)。この際、画像取得部41は、被写体に対して互いに視差を有する2つの画像データが記録された画像ファイルデータを画像データ記録部52から取得する。
As shown in FIG. 7, the image acquisition unit 41 acquires image file data to be reproduced from the image data recording unit 52 (step S301). At this time, the image acquisition unit 41 acquires, from the image
続いて、3D画像生成部42は、画像取得部41が取得した画像ファイルデータに含まれる2つの画像データを用いて、アナグリフ方式の3D画像データを生成する(ステップS302)。
Subsequently, the 3D image generation unit 42 generates
その後、色検出部43は、3D画像生成部42が生成した3D画像データに対応する3D画像の色を検出する(ステップS303)。具体的には、色検出部43は、3D画像を構成する画素群で最も用いられた色を検出する。なお、色検出部43は、3D画像上の所定の領域の色を検出してもよい。また、色検出部43は、3D画像上の最も輝度成分が大きい色を検出してもよい。さらに、色検出部43は、3D画像上における主被写体の主被写体領域または背景の背景領域の色を検出してもよい。
Thereafter, the
続いて、操作情報生成部44は、色検出部43が検出した色に応じた操作情報を生成する(ステップS304)。具体的には、操作情報生成部44は、色検出部43が背景を黒と検出した場合、アナグリフ眼鏡100の各フィルタで視認可能な色、たとえば白(White)で操作情報を生成する。
Subsequently, the operation
その後、表示制御部72は、3D画像生成部42によって生成された3D画像データに対応した3D画像に、操作情報生成部44によって生成された操作情報を重畳して表示部60に表示させる(ステップS305)。
Thereafter, the
図8は、表示制御部72が3D画像W2LR上に操作情報を重畳して表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。なお、図8に示す3D画像W2LRは、背景が黒で表示され、操作情報が白で表示された状態を示す。
FIG. 8 shows an image that can be viewed when the user visually recognizes via the
図8に示すように、表示制御部72は、3D画像W2LRに撮像装置1に関する操作情報、たとえば再生不可を重畳して表示部60に表示させる。このような状況下において、ユーザがアナグリフ眼鏡100を装着して3D画像W2LRを視認したとき、左目では画像W2Lを視認する一方、右目では画像W2Rを視認する。具体的には、ユーザは、左目では操作情報としての再生不可を赤で視認する一方、右目では操作情報としての再生不可をシアンで視認する。この結果、ユーザは、3D画像W2LRを立体的に視認しながら、3D画像W2LR上における撮像装置1に関する操作情報を白で良好に視認することができる。
As illustrated in FIG. 8, the
図7に戻り、ステップS306以降の説明を続ける。ステップS306において、操作入力部30から操作情報の表示を変更する指示信号が入力された場合(ステップS306:Yes)、撮像装置1は、ステップS303へ戻る。これに対して、操作入力部30から操作情報の表示を変更する指示信号が入力されていない場合(ステップS306:No)、撮像装置1は、ステップS307へ移行する。
Returning to FIG. 7, the description from step S306 is continued. In step S306, when an instruction signal for changing the display of the operation information is input from the operation input unit 30 (step S306: Yes), the
続いて、操作入力部30から再生画像を変更する指示信号が入力された場合(ステップS307:Yes)、撮像装置1は、ステップS301へ戻る。これに対して、操作入力部30から再生画像を変更する指示信号が入力されていない場合(ステップS307:No)、撮像装置1は、ステップS308へ移行する。
Subsequently, when an instruction signal for changing the reproduced image is input from the operation input unit 30 (step S307: Yes), the
その後、操作入力部30から再生モードを終了する指示信号が入力された場合(ステップS308:Yes)、撮像装置1は、図2のメインルーチンへ戻る。これに対して、操作入力部30から再生モードを終了する指示信号が入力されていない場合(ステップS308:No)、撮像装置1は、ステップS306へ戻る。
Thereafter, when an instruction signal for ending the reproduction mode is input from the operation input unit 30 (step S308: Yes), the
以上説明した本発明の実施の形態1によれば、表示制御部72がアナグリフ眼鏡100に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタに応じて、表示部60の表示態様を変更する。これにより、ユーザは、アナグリフ方式の3D画像を良好な状態で視認することができる。
According to the first embodiment of the present invention described above, the
また、本発明の実施の形態1によれば、表示制御部72がアナグリフ眼鏡100の2つのフィルタで識別可能な色で撮像装置1に関する操作情報を3D画像上に重畳して表示部60に表示させる。これにより、ユーザは、アナグリフ方式の3D画像であっても、撮像装置1に関する操作情報を良好に視認することができる。
Further, according to
また、本発明の実施の形態1によれば、表示制御部72が色検出部43によって検出された3D画像上に重畳する操作情報の表示領域の色と分離可能な色で操作情報を表示部60に表示させる。これにより、ユーザは、より良好に操作情報を視認することができる。
Further, according to the first embodiment of the present invention, the
(実施の形態1の変形例1)
本実施の形態1では、操作情報生成部44が色検出部43によって検出された3D画像データに対応する3D画像の色成分に応じて操作情報を示すアイコンの形状や色を変更して操作情報を生成してもよい。
(
In the first embodiment, the operation
図9は、表示制御部72がアナグリフ方式の3D画像上に操作情報として通常のアイコンを重畳して表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。図10は、本実施の形態1の変形例1にかかる撮像装置1の表示制御部72がアナグリフ方式の3D画像上に操作情報として通常のアイコンを重畳して表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。
FIG. 9 shows a state in which the
図9に示すように、表示部60が3D画像W3LRに操作情報として通常のアイコンA1〜A4を表示している場合において、アイコンA2が選択されているとき、表示制御部72は、選択されたアイコンA2を他のアイコンA1,A3,A4に比して黄で強調(ハイライト表示)して表示部60に表示させる。このような状況下で、図9に示すように、ユーザがアナグリフ眼鏡100を装着して3D画像W3LRを視認した場合、左目では画像W3Lを視認する一方、右目では、画像W3Rを視認する。しかしながら、3D画像W3LRでは、表示部60が選択されたアイコンA2を黄で表示しているとともに、アイコンA3、A4をマゼンダで表示している。この場合、ユーザが裸眼であれば、黄とマゼンダとで識別し易い組み合わせであるが、アナグリフ眼鏡100を装着して視認すると同じ色で視認してしまう。さらに、アイコンA1〜A4の形状が同じ形状である。このため、ユーザは、選択したアイコンを把握することが難しかった。さらに、ユーザは、表示部60が表示する各アイコンの形状が同じのため、どれを選択したか容易に把握することができなかった。
As shown in FIG. 9, when the
これに対して、図10に示すように、表示部60が3D画像W4LRに操作情報としてアイコンを表示する場合、表示制御部72は、色検出部43が3D画像W4LRから検出した色に応じて操作情報に関するアイコンを他の操作情報のアイコンと識別可能な色に変更して3D画像W4LRに重畳して表示部60に表示させる。さらに、表示制御部72は、操作入力部30から入力された指示信号に応じて選択されたアイコンを他の操作情報としてのアイコンと識別可能な形状に変更して表示部60に表示させる。たとえば、図10に示すように、表示制御部72は、アイコンA2を矩形状から楕円状または半円を直線でつないだ形状に変更して表示部60に表示させる。
On the other hand, as shown in FIG. 10, when the
以上説明した本発明の実施の形態1の変形例1によれば、表示制御部72が色検出部43によって検出された色および操作入力部30から入力された指示信号に基づいて、選択されたアイコンの色および形状を変更して表示部60に表示させる。これにより、ユーザは、選択した操作情報を他の操作情報と識別した状態で容易に把握することができる。
According to the first modification of the first embodiment of the present invention described above, the
なお、本発明の実施の形態1の変形例1では、表示制御部72が選択された操作情報としてのアイコンの形状を楕円または半円を直線でつないだ形状で表示部60に表示させていたが、たとえば多角形、円形、雲形、星形、角の丸まった多角形等のいずれかであってもよい。さらに、表示制御部72は、操作入力部30を介して選択された操作情報としてのアイコンの枠を他のアイコンに比して強調、たとえば太線や点線にして表示部60に表示させてもよい。この場合、表示制御部72は、線の色を背景と識別可能な色で表示部60に表示させてもよい。
In the first modification of the first embodiment of the present invention, the
(実施の形態2)
つぎに、本発明の実施の形態2について説明する。本実施の形態2にかかる撮像装置は、上述した実施の形態1にかかる撮像装置と構成が異なるうえ、アナグリフ対応再生処理も異なる。このため、以下においては、本実施の形態2にかかる撮像装置の構成を説明後、本実施の形態2にかかる撮像装置が実行するアナグリフ対応再生処理について説明する。なお、上述した実施の形態1にかかる撮像装置1と同一の構成には同一の符号を付して説明する。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. The imaging apparatus according to the second embodiment has a different configuration from the imaging apparatus according to the first embodiment described above, and also has an anaglyph compatible reproduction process. Therefore, in the following, after describing the configuration of the imaging apparatus according to the second embodiment, an anaglyph compatible reproduction process executed by the imaging apparatus according to the second embodiment will be described. In addition, the same code | symbol is attached | subjected and demonstrated to the structure same as the
図11は、本発明の実施の形態2にかかる撮像装置2の構成を模式的に示すブロック図である。図11に示す撮像装置1は、撮像部10と、外部I/F20と、操作入力部30と、表示部60と、制御部70と、画像処理部200と、記録部210と、を備える。
FIG. 11 is a block diagram schematically showing the configuration of the
画像処理部200は、制御部70を介して撮像部10、外部I/F20および記録部210のいずれかから画像データを取得し、取得した画像データに対して各種の画像処理を行う。画像処理部200は、画像取得部41と、3D画像生成部42と、操作情報生成部44と、色検出部201と、を有する。
The
色検出部201は、3D画像上に操作情報を重畳する表示領域を色毎に複数の色領域に分割し、この複数の色領域のうち面積が一番大きい色領域の色を表示領域の色として検出する。ここで、色検出部201は、モデリング部201aと、背景色指数算出部201bと、視認指数算出部201cと、色設定部201dと、を有する。
The
モデリング部201aは、3D画像上に重畳する撮像装置2に関する操作情報の表示領域を色毎に複数の色領域に分割するモデリング処理を行う。具体的には、モデリング部201aは、3D画像の各画素の輝度成分とRGB成分(赤、緑、青)と、補色成分(マゼンダ、黄、シアン)と、白の成分と、黒の成分とを検出して数値化を行い、この数値を用いて操作情報の表示領域を色毎に複数の色領域に分割する。
The modeling unit 201a performs a modeling process for dividing the display area of the operation information related to the
背景色指数算出部201bは、表示部60が表示する3D画像上に重畳する撮像装置2に関する操作情報の表示領域毎に背景色指数を算出する。
The background color index calculation unit 201b calculates a background color index for each operation information display area related to the
視認指数算出部201cは、表示部60が表示する3D画像上に重畳する操作情報の表示領域毎に背景指数に対する視認指数を算出する。
The visual
色設定部201dは、背景色指数算出部201bが算出した背景色指数と視認指数算出部201cが算出した視認指数とに基づいて、操作情報生成部44が生成する撮像装置2に関する操作情報の色を設定する。
The color setting unit 201d is a color of operation information related to the
記録部210は、プログラム記録部51と、画像データ記録部52と、視認指数記録部211と、を有する。
The
視認指数記録部211は、背景色と操作情報の色との重なりによる視認性の変化を指数化した視認指数およびアナグリフ眼鏡100を介して視認した際の背景色と操作情報の色との重なりによる視認性の変化を指数化した視認指数を含む視認指数情報を記録する。
The visibility
図12は、背景色と操作情報の色との重なりによる視認性の変化を指数化した視認指数を示す視認指数テーブルの一例を示す図である。図13は、光の3原色を示す図である。図14Aは、アナグリフ眼鏡100の左目(赤)を介して視認した際の背景色と操作情報の色との重なりによる視認性の変化を指数化した視認指数を示す視認指数テーブルの一例を示す図である。図14Bは、アナグリフ眼鏡100の右目(シアン)を介して視認した際の背景色と操作情報の色との重なりによる視認性の変化を指数化した視認指数を示す視認指数テーブルの一例を示す図である。
FIG. 12 is a diagram illustrating an example of a visual index table indicating the visual index obtained by indexing the change in the visibility due to the overlap between the background color and the color of the operation information. FIG. 13 is a diagram showing the three primary colors of light. FIG. 14A is a diagram showing an example of a visual index table indicating a visual index obtained by indexing a change in visibility due to an overlap between the background color and the color of the operation information when viewed through the left eye (red) of the
図12に示す視認指数は、図13に示す光の3原色によって定義される。具体的には、図13に示すように、視認指数は、RGBの加法混色における同色で視認することができないものを「0」とし、RGBの加法混色における隣接した色を視認することができるものを「0.5」とし、RGBの加法混色における隣接以外の色を視認することができるものを「1」とする。たとえば、視認指数は、背景色が赤の場合において、操作情報の色が赤のとき「0」、操作情報の色がマゼンダまたは黄色のとき「0.5」、操作情報の色が
白、緑、シアン、青および黒のいずれかのとき「1」となる。このように、図12に示す視認指数テーブルT3の値は、光の3原色によって定義される。なお、視認指数は、「0」、「0.5」、「1」に限るものではなく、たとえば「0」、「50」、「100」や「−1」、「0」、「+1」等を用いてもよい。また、視認指数は、光の3原色に変えて、色の3原色によって定義されてもよい。
The visual index shown in FIG. 12 is defined by the three primary colors of light shown in FIG. Specifically, as shown in FIG. 13, the visibility index is “0” when the color cannot be visually recognized with the same color in the RGB additive color mixture, and the adjacent color in the RGB additive color mixture can be visually recognized. Is “0.5”, and “1” is a color that can visually recognize colors other than adjacent colors in the additive color mixture of RGB. For example, when the background color is red and the operation information color is red, the visibility index is “0”, when the operation information color is magenta or yellow, “0.5”, and the operation information color is white or green. "1" for any of cyan, blue and black. Thus, the values in the visual index table T3 shown in FIG. 12 are defined by the three primary colors of light. The visual recognition index is not limited to “0”, “0.5”, “1”, and for example, “0”, “50”, “100”, “−1”, “0”, “+1”. Etc. may be used. Further, the visibility index may be defined by the three primary colors instead of the three primary colors of light.
図14Aおよび図14Bに示す視認指数テーブルT4,T5には、背景色と操作情報の色との重なりによる視認性の変化を指数化した値が記載されている。このように、背景色指数算出部201bおよび視認指数算出部201cは、それぞれ視認指数テーブルT4,T5を用いて指数を算出する。
In the visibility index tables T4 and T5 shown in FIGS. 14A and 14B, values obtained by indexing changes in visibility due to the overlap between the background color and the color of the operation information are described. As described above, the background color index calculating unit 201b and the visual
以上の構成を有する撮像装置2が実行するアナグリフ対応再生処理について説明する。図15は、撮像装置2が実行するアナグリフ対応再生処理の概要を示すフローチャートである。
An anaglyph compatible reproduction process executed by the
図11に示すように、画像取得部41は、画像データ記録部52から再生対象の画像ファイルデータを取得する(ステップS401)。 As shown in FIG. 11, the image acquisition unit 41 acquires image file data to be reproduced from the image data recording unit 52 (step S401).
続いて、3D画像生成部42は、画像取得部41が取得した画像ファイルデータに記録された2つの画像データを用いて、アナグリフ方式の3D画像データを生成する(ステップS402)。
Subsequently, the 3D image generation unit 42 generates
その後、色検出部201は、画像取得部41が取得した画像ファイルデータに含まれる2つの画像データそれぞれに対応する2つの画像内における背景画像を色成分毎にモデリングする背景画像モデリング処理を実行する(ステップS403)。
Thereafter, the
図16は、図15のステップS403の背景画像モデリング処理の概要を示すフローチャートである。 FIG. 16 is a flowchart showing an overview of the background image modeling process in step S403 of FIG.
図16に示すように、モデリング部201aは、背景画像の各画素の輝度成分とRGB成分を検出して0〜255で数値化を行う(ステップS501)。 As illustrated in FIG. 16, the modeling unit 201a detects the luminance component and the RGB component of each pixel of the background image, and digitizes them from 0 to 255 (step S501).
続いて、輝度成分が0〜30である場合(ステップS502:Yes)、モデリング部201aは、対象画素を白として分類して検出する(ステップS503)。ステップS503の後、撮像装置2は、図15のアナグリフ対応再生処理へ戻る。
Subsequently, when the luminance component is 0 to 30 (step S502: Yes), the modeling unit 201a classifies and detects the target pixel as white (step S503). After step S503, the
ステップS502において、輝度成分が0〜30でない場合(ステップS502:No)において、輝度成分が215〜255であるとき(ステップS504:Yes)、モデリング部201aは、対象画素を黒として分類して検出する(ステップS505)。ステップS505の後、撮像装置2は、図15のアナグリフ対応再生処理へ戻る。
In step S502, if the luminance component is not 0 to 30 (step S502: No) and the luminance component is 215 to 255 (step S504: Yes), the modeling unit 201a classifies the target pixel as black and detects it. (Step S505). After step S505, the
ステップS504において、輝度成分が215〜255でないとき(ステップS504:No)、撮像装置2は、ステップS506へ移行する。
In step S504, when the luminance component is not 215 to 255 (step S504: No), the
続いて、RGB成分の値差が20以内である場合(ステップS506:Yes)、モデリング部201aは、対象画素を黒として分類して検出する(ステップS507)。ステップS507の後、撮像装置2は、図15のアナグリフ対応再生処理へ戻る。
Subsequently, when the value difference of the RGB components is within 20 (step S506: Yes), the modeling unit 201a classifies the target pixel as black and detects it (step S507). After step S507, the
ステップS506において、RGB成分の値差が20以内でない場合(ステップS506:No)において、RGB成分で一番大きな値と2番目の値の差が100以上のとき(ステップS508:Yes)、モデリング部201aは、対象画素を最大値のR(赤)、G(緑)およびB(青)のいずれかであると分類して検出する(ステップS509)。ステップS509の後、撮像装置2は、図15のアナグリフ対応再生処理へ戻る。
If the difference between the RGB component values is not less than 20 in step S506 (step S506: No), and the difference between the largest value and the second value in the RGB components is 100 or more (step S508: Yes), the modeling unit The 201a classifies and detects the target pixel as one of the maximum values of R (red), G (green), and B (blue) (step S509). After step S509, the
ステップS508において、RGB成分で一番大きな値と2番目の値の差が100以上でないとき(ステップS508:No)、モデリング部201aは、対象画素を最大値の色と2番目の色を合成したシアン(C)、マゼンダ(M)および黄(Y)のいずれかであると分類して検出する(ステップS510)。その後、撮像装置2は、図15のアナグリフ対応再生処理へ戻る。
In step S508, when the difference between the largest value and the second value in the RGB components is not 100 or more (step S508: No), the modeling unit 201a combines the maximum color and the second color for the target pixel. It is classified and detected as any of cyan (C), magenta (M), and yellow (Y) (step S510). Thereafter, the
図15に戻り、ステップS404以降の説明を続ける。ステップS404において、背景色指数算出部201bは、表示部60が表示する3D画像上に重畳する操作情報の表示領域毎に背景色指数を算出する。
Returning to FIG. 15, the description of step S404 and subsequent steps will be continued. In step S404, the background color index calculation unit 201b calculates a background color index for each display area of the operation information to be superimposed on the 3D image displayed by the
続いて、視認指数算出部201cは、表示部60が表示する3D画像上に重畳する操作情報の表示領域毎に背景指数に対する視認指数を算出する(ステップS405)。
Subsequently, the visual recognition
図17は、モデリング部201aによって3D画像上に重畳する操作情報の表示領域が色毎にモデリング化された状態の一例を示す。図18は、背景色指数算出部201bおよび視認指数算出部201cが視認指数記録部211によって記録された視認指数情報を用いて背景指数および視認指数を算出する際の計算の一例を示す図である。
FIG. 17 shows an example of a state where the display area of the operation information superimposed on the 3D image is modeled for each color by the modeling unit 201a. FIG. 18 is a diagram illustrating an example of calculation when the background color index calculating unit 201b and the visual
図17および図18に示すように、背景色指数算出部201bは、視認指数記録部211が記録する視認指数情報テーブルT6を用いて、モデリング部201aがモデリング化した画像W5で操作情報を重畳する表示領域R1における色領域D1〜D3毎に背景色指数を算出する。たとえば、図18に示すように、背景色指数算出部201bは、アナグリフ眼鏡100の左目(赤)の場合において、表示領域R1における緑/黒の色領域D1の面積比が25%、白の色領域D2の面積比が30%、シアン/黒の色領域D3の面積比が45%の場合、各色領域の面積比に対して各色の視認指数を乗じることによって、背景色指数(70、70、30、30、30、70、70、30)を算出する(矢印Aを参照)。同様に背景色指数算出部201bは、アナグリフ眼鏡100の右目(シアン)の場合の背景色指数を算出する(矢印Aを参照)。その後、視認指数算出部201cは、背景色指数算出部201bが算出したアナグリフ眼鏡100の左目および右目それぞれの背景色指数を加算することによって視認指数を算出する。具体的には、図18に示すように、視認指数算出部201cは、白の場合、背景色指数算出部201bが左目で算出した70に、背景色指数算出部201bが右目で算出した12.5を加算することによって、視認指数として82.5を算出する。
As illustrated in FIGS. 17 and 18, the background color index calculation unit 201b uses the visual index information table T6 recorded by the visual
ステップS406において、色設定部201dは、背景色指数算出部201bが算出した背景色指数と視認指数算出部201cが算出した視認指数とに基づいて、操作情報の色を設定する。具体的には、図18に示すように、色設定部201dは、視認指数算出部201cが色毎に算出した視認指数を示す視認指数テーブルT8を参照して、操作情報の色を設定する。図18に示す状況下では、色設定部201dは、視認指数が最も高い赤を操作情報の色として設定する(矢印Bを参照)。
In step S406, the color setting unit 201d sets the color of the operation information based on the background color index calculated by the background color index calculating unit 201b and the visual index calculated by the visual
続いて、操作情報生成部44は、色設定部201dによって設定された色で撮像装置2に関する操作情報を生成する(ステップS407)。
Subsequently, the operation
その後、表示制御部72は、3D画像生成部42が生成した3D画像データに対応する3D画像上に、操作情報生成部44が生成した操作情報を表示領域R1に重畳して表示部60に表示させる(ステップS408)。これにより、ユーザは、表示部60が表示する3D画像が背景画像であっても、撮像装置2に関する操作情報を良好に視認することができる。
Thereafter, the
図19は、表示制御部72が通常のアナグリフ方式の3D画像上に操作情報を重畳して表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。図20は、表示制御部72が3D画像上に、操作情報生成部44が生成した操作情報を重畳して表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。
FIG. 19 is visible when the user visually recognizes the
図19に示すように、表示部60が背景の3D画像W6LR上に操作情報(たとえば注意の文字)の色を黄で重畳して表示させた場合において、ユーザがアナグリフ眼鏡100を装着して3D画像W6LRを視認したとき、左目では赤フィルタを介するので画像W6Lを視認する一方、右目ではシアンフィルタを介するのでW6Rを視認する。しかしながら、図19に示すように、左目では画像W6Lの操作情報の黄が背景の白に溶け込んでしまい、右目ではW6Rの操作情報黄が背景の緑に溶け込んでしまう。このため、ユーザは、操作情報を良好な状態で視認することができない。
As shown in FIG. 19, when the
これに対して、図20に示すように、表示制御部72が3D画像W7LR上に操作情報生成部44によって生成された操作情報を重畳して表示部60に表示させた場合において、ユーザがアナグリフ眼鏡100を装着して3D画像W7LRを視認したとき、左目では画像W7Lを視認する一方、右目では画像W7Rを視認する。具体的には、図20に示すように、画像W7Rでは、操作情報の赤が3D画像W7LRの背景から分離されて視認する。これにより、ユーザは、3D画像W7LRであっても、操作情報を良好に視認することができる。
On the other hand, as shown in FIG. 20, when the
ステップS409〜ステップS411は、図7のステップS406〜ステップS408にそれぞれ対応する。 Steps S409 to S411 correspond to steps S406 to S408 in FIG. 7, respectively.
以上説明した本発明の実施の形態2によれば、表示制御部72が色設定部201dによって設定された色に応じて操作情報生成部44が生成した操作情報を3D画像上に重畳して表示部60に表示させる。これにより、ユーザは、良好な操作情報を視認することができる。
According to the second embodiment of the present invention described above, the operation information generated by the operation
また、本発明の実施の形態2によれば、色検出部201が表示領域を色毎に複数の色領域に分割し、この複数の色領域のうち面積比と、この色領域の視認指数とに基づく値が一番大きい色を表示領域の色として検出するので、操作情報生成部44はユーザが視認可能な操作情報を確実に生成することができる。
Further, according to the second embodiment of the present invention, the
(実施の形態3)
つぎに、本発明の実施の形態3について説明する。本実施の形態3は、上述した実施の形態1にかかる撮像装置と構成が異なるうえ、アナグリフ対応再生処理が異なる。このため、以下においては、本実施の形態3にかかる撮像装置の構成を説明後、本実施の形態3にかかる撮像装置が実行するアナグリフ対応再生処理について説明する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. The third embodiment has a different configuration from the imaging apparatus according to the first embodiment described above and an anaglyph compatible reproduction process. Therefore, in the following, after describing the configuration of the imaging apparatus according to the third embodiment, an anaglyph-compatible reproduction process executed by the imaging apparatus according to the third embodiment will be described.
図21は、本実施の形態3にかかる撮像装置の構成を模式的に示すブロック図である。図21に示す撮像装置3は、撮像部10と、外部I/F20と、操作入力部30と、記録部50と、表示部60と、制御部70と、画像処理部300と、を備える。
FIG. 21 is a block diagram schematically illustrating the configuration of the imaging apparatus according to the third embodiment. The
画像処理部300は、外部から画像データを取得し、取得した画像データに対して所定の画像処理を行って制御部70へ出力する。画像処理部300は、画像取得部41と、3D画像生成部42と、色検出部43と、操作情報生成部44と、主被写体特定部301と、色空間変更部302と、を有する。
The image processing unit 300 acquires image data from the outside, performs predetermined image processing on the acquired image data, and outputs the image data to the
主被写体特定部301は、画像取得部41が画像データ記録部52から取得した画像ファイルデータに含まれる撮影情報に基づいて、画像データに対応する画像内における撮影時の主被写体を検出する。具体的には、主被写体特定部301は、Exif(Exchangeable image file format)で記録された画像ファイルデータのメタデータ、たとえば撮像部10の焦点距離を示す焦点距離情報やフォーカスエリア情報等に基づいて、画像内における撮影時の主被写体を検出する。
The main
色空間変更部302は、画像取得部41が取得した2つの画像データに対応する2つの画像にそれぞれ含まれる背景に対して、主被写体特定部301が検出した主被写体を識別可能に2つの画像データの色空間の変数を変更する。具体的には、色空間変更部302は、色空間の変数として、輝度成分と色相成分を変更する。ここで、色空間変更部302の詳細な構成について説明する。色空間変更部302は、エッジ検出部302aと、色相変換部302bと、Y成分補正部302cと、を有する。
The color
エッジ検出部302aは、主被写体特定部301が特定した主被写体に対してエッジ検出処理を実行して主被写体の輪郭を検出する。たとえば、エッジ検出部302aは、画像データに対して2値化処理を行うことによって、主要被写体のエッジ(輪郭)を検出する。
The edge detection unit 302a performs edge detection processing on the main subject specified by the main
色相変換部302bは、3D画像データ(RGBデータ)をYCrCbデータに変換する。なお、色相変換部302bによる詳細な変換方法は後述する。
Y成分補正部302cは、色相変換部302bが変換したY成分を補正する。具体的には、Y成分補正部302cは、Y成分に所定の係数を乗じることによって、輝度を上げる補正または下げる補正を行う。
The Y
以上の構成を有する撮像装置3が実行するアナグリフ対応再生処理について説明する。図22は、撮像装置3が実行するアナグリフ対応再生処理の概要を示すフローチャートである。
An anaglyph compatible reproduction process executed by the
図22に示すように、画像取得部41は、画像データ記録部52から再生対象の画像ファイルデータを取得する(ステップS601)。 As shown in FIG. 22, the image acquisition unit 41 acquires image file data to be reproduced from the image data recording unit 52 (step S601).
続いて、3D画像生成部42は、画像取得部41が取得した画像ファイルデータに記録された2つの画像データを用いて、3D画像データを生成する(ステップS602)。 Subsequently, the 3D image generation unit 42 generates 3D image data by using the two image data recorded in the image file data acquired by the image acquisition unit 41 (step S602).
その後、主被写体特定部301は、画像取得部41が取得した画像ファイルデータのヘッド領域に含まれる焦点距離情報やフォーカスエリア情報等に基づいて、2つの画像データに対応する2つの画像内における主要被写体を特定する(ステップS603)。
Thereafter, the main
続いて、エッジ検出部302aは、主被写体特定部301が特定した主被写体に対してエッジ検出処理を実行して主被写体の輪郭を検出する(ステップS604)。この際、エッジ検出部302aは、主被写体に含まれるY成分(輝度成分)およびR成分(赤成分)およびシアン成分(青緑成分)に対してもエッジ検出処理を実行する。
Subsequently, the edge detection unit 302a performs edge detection processing on the main subject specified by the main
続いて、エッジ検出部302aは、主被写体のY成分の輪郭、R成分の輪郭およびシアン成分の輪郭を比較して異なる点を数値化する(ステップS605)。 Subsequently, the edge detection unit 302a compares the Y component outline, the R component outline, and the cyan component outline of the main subject and quantifies the different points (step S605).
その後、エッジ検出部302aによって数値化された各成分の数値が閾値を超えている場合(ステップS606:Yes)において、3D画像データに対応する3D画像の全体の平均輝度が低いとき(ステップS607:Yes)、色相変換部302bは、3D画像データ(RGBデータ)をYCrCbデータに変換する(ステップS608)。具体的には、色相変換部302bは、以下の式(1)〜(3)によって、3D画像データをYCrCbデータに変換する。
Y=0.299+0.587G+0.114B ・・・(1)
Cr=0.500R−0.419G−0.081B ・・・(2)
Cb=−0.169R−0.332G+0.500B ・・・(3)
なお、Yは輝度成分の値を示し、Cr,Cbは、色差の値を示す。
Thereafter, when the numerical value of each component digitized by the edge detection unit 302a exceeds the threshold value (step S606: Yes), when the overall average luminance of the 3D image corresponding to the 3D image data is low (step S607: yes),
Y = 0.299 + 0.587G + 0.114B (1)
C r = 0.500R−0.419G−0.081B (2)
C b = −0.169R−0.332G + 0.500B (3)
Y represents the value of the luminance component, and C r and C b represent the color difference values.
続いて、Y成分補正部302cは、色相変換部302bが変換したY成分の輝度を上げる補正を行う(ステップS609)。たとえば、図23に示すように、Y成分補正部302cは、色相変換部302bが変換したY成分に1.5の係数を乗ずる補正を行う(図23(a)→図23(b)→図23(c))。
Subsequently, the Y
その後、色相変換部302bは、Y成分補正部302cがY成分を補正したYCrCbデータを3D画像データ(RGBデータ)に変換する(ステップS610)。具体的には、色相変換部302bは、以下の式(4)〜(6)によって、YCrCbデータを3D画像データに変換する(図23(c)→図23(d))。
R=Y+1.402Cr ・・・(4)
G=Y−0.714Cr−0.344Cb ・・・(5)
B=Y+1.772Cb ・・・(6)
Then,
R = Y + 1.402C r (4)
G = Y−0.714C r −0.344C b (5)
B = Y + 1.772C b (6)
ステップS606において、エッジ検出部302aによって数値化された各成分の数値が閾値を超えている場合(ステップS606:Yes)において、3D画像データに対応する3D画像の全体の平均輝度が低くないとき(ステップS607:No)、色相変換部302bは、3D画像データ(RGBデータ)をYCrCbデータに変換する(ステップS611)。
In step S606, when the numerical value of each component digitized by the edge detection unit 302a exceeds the threshold value (step S606: Yes), the overall average luminance of the 3D image corresponding to the 3D image data is not low ( step S607: No),
続いて、Y成分補正部302cは、色相変換部302bが変換したY成分の輝度を下げる補正を行う(ステップS612)。たとえば、図24に示すように、Y成分補正部302cは、色相変換部302bが変換したY成分を0.8の係数を乗ずる補正を行う(図24(a)→図24(b)→図24(c)。ステップS612の後、撮像装置3は、ステップS610へ移行する。
Subsequently, the Y
ステップS613において、表示制御部72は、色相変換部302bが変換した3D画像データに対応する3D画像を表示部60に表示させる。
In step S613, the
図25は、表示制御部72が通常のアナグリフ方式の3D画像を表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。図26は、表示制御部72が色空間変更部302によって色空間が変換された3D画像を表示部60に表示させた状態に対して、ユーザがアナグリフ眼鏡100を介して視認した際に視認可能な画像を模式的に示す図である。
FIG. 25 schematically illustrates an image that can be visually recognized when the user visually recognizes through the
図25に示すように、表示部60が2D画像W8を表示している場合、緑の主被写体P1、青の背景B1および緑の背景B2それぞれを異なる色で明確に識別することができるにも関わらず(図25(a))、表示部60がアナグリフ方式の3D画像W8LRを表示したとき(図25(b))、アナグリフ眼鏡100を装着したユーザは、左目では主被写体P1が背景B1,B2に溶け込んだ画像W8Lを視認する一方、右目では主被写体P1が背景B1、B2から分離した状態の画像W8Rを視認する(図25(c))。しかしながら、図25(c)に示すように、画像W8Lでは、主被写体P1が背景B1、B2に溶け込んでしまう。このため、ユーザは、正確な3D画像を視認することができない。
As shown in FIG. 25, when the
これに対して、図26に示すように、表示制御部72は、色相変換部302bがY成分補正部302cによってY成分が補正されたYCrCbデータを変換した3D画像データ(RGBデータ)に対応する3D画像を表示部60に表示させる(図26(a)→図26(b))。これにより、ユーザは、アナグリフ眼鏡100を装着して3D画像W9LRを視認したとき、左目では画像W9Lを視認する一方、右目では画像W9Rを視認する(図26(c))。具体的には、図26(c)に示すように、画像W9Lでは、被写体P1が背景B1,B2から分離されている。これにより、ユーザは、極端な色の変化がない状態で良好な3D画像を視認することができる。ステップS613の後、撮像装置3は、後述するステップS614へ移行する。
In contrast, as shown in FIG. 26, the
続いて、操作入力部30から再生画像を変更する指示信号が入力された場合(ステップS614:Yes)、撮像装置3は、ステップS601へ戻る。これに対して、操作入力部30から再生画像を変更する指示信号が入力されていない場合(ステップS614:No)、撮像装置3は、ステップS615へ移行する。
Subsequently, when an instruction signal for changing the reproduced image is input from the operation input unit 30 (step S614: Yes), the
その後、操作入力部30から再生モードを終了する指示信号が入力された場合(ステップS615:Yes)、撮像装置3は、図2のメインルーチンへ戻る。これに対して、操作入力部30から再生モードを終了する指示信号が入力されていない場合(ステップS615:No)、撮像装置3は、ステップS613へ戻る。
Thereafter, when an instruction signal for ending the reproduction mode is input from the operation input unit 30 (step S615: Yes), the
以上説明した本発明の実施の形態3によれば、表示制御部が72主要被写体を背景から分離させた状態の3D画像を表示部60に表示させているので、正確な3D画像を視認することができる。
According to the third embodiment of the present invention described above, since the display control unit displays the 3D image in the state where 72 main subjects are separated from the background on the
なお、本実施の形態3では、輝度を上げる際にY成分に乗じる係数として1.5を用いたり、輝度を下げる際にY成分に乗じる係数として0.8を用いたりしたが、これらの係数はこの値に限るものではなく、必要に応じてより大きい値やより小さい値を用いてもよい。 In the third embodiment, 1.5 is used as a coefficient to be multiplied by the Y component when the luminance is increased, or 0.8 is used as a coefficient to be multiplied by the Y component when the luminance is decreased. Is not limited to this value, and a larger or smaller value may be used as necessary.
ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した実施の形態によってのみ限定されるべきものではない。 So far, the embodiment for carrying out the present invention has been described, but the present invention should not be limited only by the embodiment described above.
たとえば、本発明において、表示部とは別に電子ビューファインダを設け、この電子ビューファインダにおいて本発明を適用するようにしてもよい。この場合には、表示部と電子ビューファインダとで3Dアナグリフ画像の見え方が異なるようにすればより好ましい。 For example, in the present invention, an electronic viewfinder may be provided separately from the display unit, and the present invention may be applied to this electronic viewfinder. In this case, it is more preferable that the appearance of the 3D anaglyph image is different between the display unit and the electronic viewfinder.
また、本発明においては、撮像装置の本体部と撮像部とが別体に形成されていてもよい。 In the present invention, the main body of the imaging device and the imaging unit may be formed separately.
また、本発明においては、撮像部を互いの光軸が平行または所定の角度をなすように同一平面上で並設され、被写体を同時に撮像し、この被写体からの光線を結像した被写体画像を受光して光電変換することによって視差を有する2つの画像データを生成する2眼式の撮像部であってもよい。 Further, in the present invention, a subject image in which the imaging units are arranged side by side on the same plane so that their optical axes are parallel or at a predetermined angle, images a subject at the same time, and images light rays from the subject is formed. It may be a twin-lens imaging unit that generates two image data having parallax by receiving light and performing photoelectric conversion.
また、本発明にかかる表示装置を搭載した撮像装置は、デジタル一眼レフカメラ以外にも、たとえばアクセサリ等を装着可能なデジタルカメラ、デジタルビデオカメラおよび撮像機能を有する携帯電話やタブレット型携帯機器等の電子機器にも適用することができる。 In addition to a digital single-lens reflex camera, an imaging device equipped with a display device according to the present invention includes, for example, a digital camera to which accessories can be attached, a digital video camera, a mobile phone having an imaging function, a tablet-type mobile device, and the like. It can also be applied to electronic devices.
また、本発明にかかる表示装置に実行させるプログラムは、インストール可能な形式又は実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 The program to be executed by the display device according to the present invention is file data in an installable format or executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD (Digital Versatile Disk), USB medium. And recorded on a computer-readable recording medium such as a flash memory.
また、本発明にかかる表示装置に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。さらに、本発明にかかる表示装置に実行させるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。 The program to be executed by the display device according to the present invention may be configured to be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Furthermore, the program executed by the display device according to the present invention may be provided or distributed via a network such as the Internet.
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。すなわち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。 In the description of the flowchart in the present specification, the context of the processing between steps is clearly indicated using expressions such as “first”, “after”, “follow”, etc., in order to implement the present invention. The order of processing required is not uniquely determined by their representation. That is, the order of processing in the flowcharts described in this specification can be changed within a consistent range.
このように、本発明は、ここでは記載していない様々な実施の形態を含みうるものであり、特許請求の範囲によって特定される技術的思想の範囲内で種々の設計変更等を行うことが可能である。 As described above, the present invention can include various embodiments not described herein, and various design changes and the like can be made within the scope of the technical idea specified by the claims. Is possible.
1,2,3 撮像装置
10 撮像部
20 外部I/F
30 操作入力部
31 電源スイッチ
32 レリーズスイッチ
33 モード切替スイッチ
34 設定スイッチ
35 再生スイッチ
40,200,300 画像処理部
41 画像取得部
42 3D画像生成部
43,201 色検出部
44 操作情報生成部
50,210 記録部
51 プログラム記録部
52 画像データ記録部
60 表示部
70 制御部
71 撮影制御部
72 表示制御部
100 アナグリフ眼鏡
201a モデリング部
201b 背景色指数算出部
201c 視認指数算出部
201d 色設定部
211 視認指数記録部
301 主被写体特定部
302 色空間変更部
302a エッジ検出部
302b 色相変換部
302c Y成分補正部
1, 2, 3
DESCRIPTION OF
Claims (20)
アナグリフ方式の眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、前記表示部が表示する前記立体視画像の表示態様を制御する表示制御部を備えたことを特徴とする表示装置。 A display device including a display unit capable of displaying an anaglyph stereoscopic image using two image data having parallax with respect to the same subject,
A display control unit configured to control a display mode of the stereoscopic image displayed by the display unit based on optical characteristics of two filters that transmit light of different wavelength bands provided in the anaglyph type glasses; A display device.
前記画像取得部が取得した前記2つの画像データを用いて、前記アナグリフ方式の立体視画像データを生成する立体視画像生成部と、
当該表示装置に関する操作情報を生成する操作情報生成部と、
をさらに備え、
前記表示制御部は、前記立体視画像生成部が生成した前記立体視画像データに対応する立体視画像を前記表示部に表示させるとともに、前記2つのフィルタで識別可能な色で前記操作情報を前記立体視画像上に重畳して前記表示部に表示させることを特徴とする請求項1または2に記載の表示装置。 An image acquisition unit for acquiring the two image data;
A stereoscopic image generation unit that generates the anaglyph stereoscopic image data using the two image data acquired by the image acquisition unit;
An operation information generation unit for generating operation information related to the display device;
Further comprising
The display control unit displays a stereoscopic image corresponding to the stereoscopic image data generated by the stereoscopic image generation unit on the display unit, and displays the operation information in a color that can be identified by the two filters. The display device according to claim 1, wherein the display device is displayed on the display unit so as to be superimposed on a stereoscopic image.
前記表示制御部は、前記色検出部が検出した前記表示領域の色と分離可能な色で前記操作情報を前記表示部に表示させることを特徴とする請求項3に記載の表示装置。 A color detection unit that detects a color of a display area on which the operation information is superimposed on the stereoscopic image;
The display device according to claim 3, wherein the display control unit displays the operation information on the display unit in a color separable from the color of the display area detected by the color detection unit.
前記表示制御部は、前記操作入力部から入力された前記指示信号に応じて選択された操作情報の形状を、他の操作情報と識別可能な形状に変更して前記表示部に表示させることを特徴とする請求項2〜5のいずれか一つに記載の表示装置。 An operation input unit capable of accepting an input of an instruction signal for selecting any of the plurality of operation information displayed on the display unit;
The display control unit changes the shape of the operation information selected according to the instruction signal input from the operation input unit to a shape distinguishable from other operation information, and causes the display unit to display the shape. The display device according to claim 2, wherein the display device is a display device.
前記画像取得部が取得した前記2つの画像データそれぞれに対応する2つの画像に含まれる主被写体を検出する主被写体検出部と、
前記2つの画像にそれぞれ含まれる背景に対して、前記主被写体検出部が検出した前記主被写体を識別可能に前記2つの画像データの色空間の変数を変更する色空間変更処理を行う色空間変更部と、
前記色空間変更部が前記色空間変更処理を行った前記2つの画像データを用いて、前記アナグリフ方式の立体視画像データを生成する立体視画像生成部と、
をさらに備え、
前記表示制御部は、前記立体視画像生成部が生成した前記立体視画像データに対応する立体視画像を前記表示部に表示させることを特徴とする請求項1に記載の表示装置。 An image acquisition unit for acquiring the two image data;
A main subject detection unit for detecting a main subject included in two images corresponding to the two image data acquired by the image acquisition unit;
Color space change for performing color space change processing for changing a color space variable of the two image data so that the main subject detected by the main subject detection unit can be identified with respect to backgrounds included in the two images, respectively. And
A stereoscopic image generation unit that generates the anaglyph stereoscopic image data using the two image data on which the color space change unit has performed the color space change process;
Further comprising
The display device according to claim 1, wherein the display control unit causes the display unit to display a stereoscopic image corresponding to the stereoscopic image data generated by the stereoscopic image generation unit.
前記色空間変更部は、前記操作入力部から前記指示信号が入力された場合、前記色空間変更処理を実行することを特徴とする請求項9〜11のいずれか一つに記載の表示装置。 An operation input unit that receives an input of an instruction signal that instructs the color space change unit to execute the color space change process;
The display device according to claim 9, wherein the color space changing unit executes the color space changing process when the instruction signal is input from the operation input unit.
前記画像取得部は、前記撮像部が異なる位置でそれぞれ生成した2つの画像データであって、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを前記2つの画像データとして前記撮像部から取得することを特徴とする請求項3〜12のいずれか一つに記載の表示装置。 An image pickup unit that picks up an image of the subject, receives a subject image formed by forming a light beam from the subject, and performs photoelectric conversion to generate image data;
The image acquisition unit includes two pieces of image data generated by the image pickup unit at different positions, and two pieces of image data in which one end in the horizontal direction of each field of view overlaps as the two pieces of image data. It acquires from an imaging part, The display apparatus as described in any one of Claims 3-12 characterized by the above-mentioned.
前記画像取得部は、前記撮像部が前記被写体を同時に撮像して生成した前記2つの画像データを前記撮像部から取得することを特徴とする請求項3〜12のいずれか一つに記載の表示装置。 An imaging unit that generates the two image data by receiving and photoelectrically converting a subject image in which light axes from the subject are formed in parallel so that their optical axes are parallel or at a predetermined angle. Prepared,
The display according to claim 3, wherein the image acquisition unit acquires the two image data generated by the imaging unit imaging the subject at the same time from the imaging unit. apparatus.
前記画像取得部は、前記記録部から前記2つの画像データを取得することを特徴とする請求項3〜12のいずれか一つに記載の表示装置。 A recording unit for recording the two image data;
The display device according to claim 3, wherein the image acquisition unit acquires the two image data from the recording unit.
前記画像取得部は、前記外部入力部から前記2つの画像データを取得することを特徴とする請求項3〜12のいずれか一つに記載の表示装置。 An external input unit for obtaining the two image data from the outside of the display device;
The display device according to claim 3, wherein the image acquisition unit acquires the two image data from the external input unit.
前記表示制御部は、前記モード切替スイッチ部から入力される前記モード指示信号に応じて、前記表示態様を変更することを特徴とする請求項1〜17のいずれか一つに記載の表示装置。 Input of a mode instruction signal for instructing a display mode change mode for changing the display mode of the display unit or a two-dimensional image display mode for displaying only one of the two images corresponding to the two image data on the display unit Further comprising a mode changeover switch unit for receiving
The display device according to claim 1, wherein the display control unit changes the display mode in accordance with the mode instruction signal input from the mode changeover switch unit.
アナグリフ方式の眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、前記表示部が表示する前記立体視画像の表示態様を制御する表示制御ステップを含むことを特徴とする表示方法。 A display method executed by a display device including a display unit capable of displaying an anaglyph stereoscopic image using two image data having parallax with respect to the same subject,
Including a display control step of controlling a display mode of the stereoscopic image displayed by the display unit based on optical characteristics of two filters that transmit light in different wavelength bands provided in the anaglyph glasses. Characteristic display method.
アナグリフ方式の眼鏡に設けられた互いに異なる波長帯域の光を透過させる2つのフィルタの光学特性に基づいて、前記表示部が表示する前記立体視画像の表示態様を制御する表示制御ステップを実行させることを特徴とするプログラム。 A program to be executed by a display device having a display unit capable of displaying an anaglyph stereoscopic image using two image data having parallax with respect to the same subject,
Executing a display control step for controlling a display mode of the stereoscopic image displayed by the display unit based on optical characteristics of two filters that transmit light of different wavelength bands provided in the anaglyph glasses. A program characterized by
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013031464A JP2014160989A (en) | 2013-02-20 | 2013-02-20 | Display device, display method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013031464A JP2014160989A (en) | 2013-02-20 | 2013-02-20 | Display device, display method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014160989A true JP2014160989A (en) | 2014-09-04 |
Family
ID=51612387
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013031464A Pending JP2014160989A (en) | 2013-02-20 | 2013-02-20 | Display device, display method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014160989A (en) |
-
2013
- 2013-02-20 JP JP2013031464A patent/JP2014160989A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8736671B2 (en) | Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device | |
| US9560341B2 (en) | Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device | |
| CN104221370B (en) | Image processing apparatus, camera head and image processing method | |
| US20100315517A1 (en) | Image recording device and image recording method | |
| JP4661824B2 (en) | Image processing apparatus, method, and program | |
| JPWO2017217115A1 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND IMAGE PROCESSING SYSTEM | |
| US9838667B2 (en) | Image pickup apparatus, image pickup method, and non-transitory computer-readable medium | |
| JP5160460B2 (en) | Stereo imaging device and stereo imaging method | |
| JP5993937B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| JP5486697B2 (en) | Stereoscopic video playback device, stereoscopic video playback program and recording medium thereof, stereoscopic display device, stereoscopic imaging device, and stereoscopic video playback method | |
| WO2011136137A1 (en) | Stereoscopic image pickup device and control method therefor | |
| JP6036840B2 (en) | Imaging apparatus, image processing apparatus, control program for imaging apparatus, and control program for image processing apparatus | |
| US9380290B2 (en) | Stereoscopic video processor, recording medium for stereoscopic video processing program, stereoscopic imaging device and stereoscopic video processing method | |
| US8982189B2 (en) | 3D video reproduction device, non-transitory recording medium, 3D display device, 3D imaging device, and 3D video reproduction method | |
| JP2012257105A (en) | Stereoscopic image obtaining apparatus | |
| JP2014160989A (en) | Display device, display method, and program | |
| CN104054333A (en) | Image processing device, method and program, and recording medium therefor | |
| JP5825932B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM | |
| JP2012209872A (en) | 3d image generating method, 3d image generating program and 3d image generating apparatus | |
| JP4632060B2 (en) | Image recording apparatus, method and program | |
| JP2014155126A (en) | Display device, display method, and program | |
| JP4995966B2 (en) | Image processing apparatus, method, and program | |
| JP2017108194A (en) | Image processing apparatus, imaging device and image processing program | |
| JP2015046820A (en) | Imaging apparatus and imaging system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20150423 |