[go: up one dir, main page]

JP2012032964A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2012032964A
JP2012032964A JP2010171148A JP2010171148A JP2012032964A JP 2012032964 A JP2012032964 A JP 2012032964A JP 2010171148 A JP2010171148 A JP 2010171148A JP 2010171148 A JP2010171148 A JP 2010171148A JP 2012032964 A JP2012032964 A JP 2012032964A
Authority
JP
Japan
Prior art keywords
unit
image
display
pop
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010171148A
Other languages
Japanese (ja)
Other versions
JP2012032964A5 (en
Inventor
Osamu Nonaka
修 野中
Akira Ugawa
明 鵜川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010171148A priority Critical patent/JP2012032964A/en
Priority to US13/189,895 priority patent/US20120019528A1/en
Publication of JP2012032964A publication Critical patent/JP2012032964A/en
Publication of JP2012032964A5 publication Critical patent/JP2012032964A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device that can be naturally operated by a user while accurately checking change in a 3D image displayed three-dimensionally.SOLUTION: There are provided a display unit 6 that displays a 3D image generated by combining two image data in which one end portions in a right/left direction of a field of view are overlapped with each other, a touch panel 7 that is provided on a display screen of the display unit 6, detects a region and a distance to the display screen of an object approaching from the outside, and receives input of a signal according to a result of the detection, a pop-up setting unit 93 that sets a distance of virtual pop-up of a 3D image in a direction vertical to the display screen in accordance with the signal received in a predetermined region by the touch panel 7 with respect to the 3D image displayed by the display unit 6, and a display control unit 95 that controls the display unit 6 to display the 3D image set by the pop-up setting unit 93.

Description

本発明は、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを用いて3次元画像を表示する表示装置に関する。   The present invention relates to a display device that displays a three-dimensional image using two pieces of image data in which one end in the horizontal direction of each field of view overlaps.

近年、同一の被写体に対して異なる位置から複数のデジタルカメラを用いて撮影することによって複数の画像データを取得し、この取得した複数の画像データに含まれる被写体の視差を利用することにより、ユーザが立体的に見ることができる3次元画像(以下、「3D画像」という)を表示する表示装置が知られている。   In recent years, a plurality of image data is acquired by photographing a same subject from different positions using a plurality of digital cameras, and a user can obtain a plurality of image data by using parallax of the subject included in the acquired plurality of image data. There is known a display device that displays a three-dimensional image (hereinafter referred to as “3D image”) that can be viewed stereoscopically.

このような表示装置において、ユーザが表示モニタの画面上に設けられたタッチパネルを操作することにより、表示モニタが表示する画像を3D画像と2次元画像(以下、「2D画像」という)とに切換えることができる技術が知られている(特許文献1参照)。この技術では、ユーザによってタッチパネルがタッチされた位置に対応する領域の画像を2D画像または3D画像に切換えて表示モニタに表示する。   In such a display device, when a user operates a touch panel provided on the screen of the display monitor, an image displayed on the display monitor is switched between a 3D image and a two-dimensional image (hereinafter referred to as “2D image”). The technique which can do is known (refer patent document 1). In this technique, an image of an area corresponding to a position touched by a touch panel by a user is switched to a 2D image or a 3D image and displayed on a display monitor.

特開2010−108203号公報JP 2010-108203 A

ところで、従来の表示装置が備えるタッチパネルは、表示モニタが3D画像を表示しているにも関わらず、ユーザによってタッチされた位置を平面的(平面座標)に検出するものである。このため、タッチパネルをタッチする位置と表示モニタの画面上から仮想的に飛び出した3D画像に触れる位置との間にずれが生じてしまい、ユーザは3D画像を仮想的にタッチしながら3D画像の飛び出しを調整することができなかった。   By the way, the touch panel with which the conventional display apparatus is equipped detects the position touched by the user planarly (plane coordinate), although the display monitor displays the 3D image. For this reason, a deviation occurs between the position touching the touch panel and the position touching the 3D image virtually popping out from the screen of the display monitor, and the user pops out the 3D image while virtually touching the 3D image. Could not be adjusted.

本発明は、上記に鑑みてなされたものであって、ユーザが3次元で表示された3D画像の変化を正しく確認しながら、自然に操作することができる表示装置を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a display device that allows a user to operate naturally while correctly confirming a change in a 3D image displayed in three dimensions. .

上述した課題を解決し、目的を達成するために、本発明に係る表示装置は、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを組み合わせて生成された3次元画像を表示する表示部と、前記表示部の表示画面上に設けられ、外部から接近してくる物体の領域および該表示画面までの距離を検出するとともに、該検出結果に応じた信号の入力を受け付けるタッチパネルと、前記表示部が表示する前記3次元画像に対し、前記タッチパネルが所定の領域で受け付けた信号に応じて前記3次元画像が前記表示画面と直交する垂直な方向へ仮想的に飛び出す距離を設定する飛び出し設定部と、前記飛び出し設定部が設定した前記3次元画像を前記表示部に表示させる制御を行う表示制御部と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, a display device according to the present invention provides a three-dimensional image generated by combining two pieces of image data in which one end in the left-right direction of each field of view overlaps. A display unit to be displayed, and a touch panel provided on the display screen of the display unit, which detects a region of an object approaching from the outside and a distance to the display screen, and receives a signal input according to the detection result And, for the three-dimensional image displayed by the display unit, a distance at which the three-dimensional image virtually jumps out in a vertical direction orthogonal to the display screen is set according to a signal received by the touch panel in a predetermined area. And a display control unit that controls the display unit to display the three-dimensional image set by the pop-up setting unit.

また、本発明に係る表示装置は、上記発明において、異なる位置から撮影し、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する撮像部と、前記撮像部が生成した前記2つの画像データに対応する2つの画像に対し、所定の縦横比率で切出して前記3次元画像を生成する立体画像生成部と、をさらに備え、前記飛び出し設定部は、前記立体画像生成部による前記2つの画像データの切出し領域を変更することにより、前記3次元画像の前記飛び出す距離を設定し、前記表示制御部は、前記飛び出し設定部が設定した前記2つの画像データに対応する画像を、前記表示画面における水平方向の1画素毎に交互に並べて前記表示部に出力する制御を行うことを特徴とする。   The display device according to the present invention is the display device according to the above invention, wherein the image capturing unit generates two image data that are captured from different positions and in which one end in the horizontal direction of each field of view overlaps, and the image capturing unit generates A stereoscopic image generation unit that generates the three-dimensional image by cutting out the two images corresponding to the two image data with a predetermined aspect ratio, and the pop-out setting unit includes the stereoscopic image generation unit By changing the cut-out area of the two image data according to (2), the pop-out distance of the three-dimensional image is set, and the display control unit displays an image corresponding to the two image data set by the pop-up setting unit. The display screen is alternately arranged for each pixel in the horizontal direction and output to the display unit is performed.

また、本発明に係る表示装置は、上記発明において、前記飛び出し設定部は、前記タッチパネルが受け付けた信号に応じて、前記立体画像生成部による前記2つの画像データの切出す領域を、前記2つの画像データに含まれる被写体の視差を小さくする方向に向けて段階的に変更することを特徴とする。   Further, in the display device according to the present invention, in the above invention, the pop-out setting unit determines the two image data cut-out areas by the stereoscopic image generation unit according to a signal received by the touch panel. A feature is that the parallax of the subject included in the image data is changed stepwise in a direction to reduce the parallax.

また、本発明に係る表示装置は、上記発明において、前記表示部が表示する前記3次元画像に対し、前記タッチパネルが受け付けた信号に応じて前記撮像部の露出を調整する露出調整部をさらに備え、前記表示制御部は、前記露出調整部が調整した前記3次元画像を前記表示部に表示させる制御を行うことを特徴とする。   The display device according to the present invention further includes an exposure adjustment unit that adjusts the exposure of the imaging unit according to a signal received by the touch panel for the three-dimensional image displayed by the display unit. The display control unit controls the display unit to display the three-dimensional image adjusted by the exposure adjustment unit.

また、本発明に係る表示装置は、上記発明において、前記飛び出し設定部が設定した前記3次元画像の飛び出し距離を、前記2つの画像データのヘッダ情報として生成するヘッダ情報生成部と、前記撮像部が生成する複数の画像データと前記ヘッダ情報生成部が生成するヘッダ情報とを対応付けて記憶する記憶部と、をさらに備えたことを特徴とする。   In the display device according to the present invention, in the above invention, a header information generation unit that generates the pop-out distance of the three-dimensional image set by the pop-out setting unit as header information of the two image data, and the imaging unit The image processing apparatus further includes a storage unit that stores the plurality of image data generated by and the header information generated by the header information generation unit in association with each other.

また、本発明に係る表示装置は、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを組み合わせて生成された3次元操作画像を所定の領域に表示する表示部と、前記表示部の表示画面上に設けられ、外部から接近してくる物体の領域および該表示画面までの距離を検出するとともに、該検出結果に応じた信号の入力を受け付けるタッチパネルと、前記表示部が表示する前記3次元操作画像に対し、前記タッチパネルが受け付けた信号によって指定された前記3次元操作画像の前記表示画面と直交する垂直な方向へ仮想的に飛び出す距離を設定する飛び出し設定部と、前記飛び出し設定部が設定した前記3次元操作画像を前記表示部に表示させる制御を行う表示制御部と、前記3次元操作画像の表示変化に応じて、前記表示部が表示する画像の3次元的な表示態様を変更させる制御を行う画像制御部と、を備えたことを特徴とする。   Further, the display device according to the present invention includes a display unit that displays a three-dimensional operation image generated by combining two image data in which one end in the left-right direction of each field of view overlaps in a predetermined area; A touch panel that is provided on the display screen of the display unit, detects a region of an object approaching from the outside and a distance to the display screen, and receives an input of a signal according to the detection result, and the display unit displays A pop-out setting unit configured to set a distance for the three-dimensional operation image to be virtually popped out in a direction perpendicular to the display screen of the three-dimensional operation image designated by a signal received by the touch panel; A display control unit configured to control the display unit to display the three-dimensional operation image set by the setting unit; and the table according to a display change of the three-dimensional operation image. Parts is characterized in that and an image control unit that performs control to change the three-dimensional display mode of the image to be displayed.

また、本発明に係る表示装置は、上記発明において、異なる位置から撮影し、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する撮像部をさらに備え、前記表示制御部は、前記撮像部が撮影した前記2つの画像データに対応する画像を、前記表示画面における水平方向の1画素毎に交互に並べて前記表示部に出力し、前記画像制御部は、前記撮像部が撮影した前記2つの画像データに対応する画像の3次元的な表示態様を変更することを特徴とする。   The display device according to the present invention further includes an imaging unit that captures images from different positions and generates two image data in which one end in the left-right direction of each field of view overlaps in the above-described invention, The unit alternately outputs an image corresponding to the two image data captured by the imaging unit for each pixel in the horizontal direction on the display screen, and outputs the image to the display unit. The three-dimensional display mode of an image corresponding to the two image data taken by is changed.

本発明に係る表示装置によれば、タッチパネルが外部から接近してくる物体の領域および表示画面までの距離を検出するとともに、この検出結果に応じた信号の入力を受け付け、飛び出し設定部が表示部によって表示される3D画像に対し、タッチパネルが受け付けた信号に応じて3D画像が表示部の表示画面と直交する垂直な方向へ仮想的に飛び出す距離を設定し、表示制御部が飛び出し設定部によって設定された3D画像を表示部に表示させる制御を行う。これにより、ユーザが3次元で表示された3D画像の変化を正しく確認しながら、自然に操作することができるという効果を奏する。   According to the display device of the present invention, the touch panel detects the area of the object approaching from the outside and the distance to the display screen, receives an input of a signal according to the detection result, and the pop-out setting unit displays the display unit. For the 3D image displayed by the touch panel, the distance that the 3D image virtually jumps out in the vertical direction orthogonal to the display screen of the display unit is set according to the signal received by the touch panel, and the display control unit sets by the pop-up setting unit Control is performed so that the displayed 3D image is displayed on the display unit. Thereby, there is an effect that the user can operate naturally while correctly confirming the change of the 3D image displayed in three dimensions.

図1は、本発明の一実施の形態に係る表示装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a display device according to an embodiment of the present invention. 図2は、本発明の一実施の形態に係る表示装置が備える表示部の概略構成を示す模式図である。FIG. 2 is a schematic diagram illustrating a schematic configuration of a display unit included in the display device according to the embodiment of the present invention. 図3は、本発明の一実施の形態に係る表示装置が備えるタッチパネルの概略構成を示す模式図である。FIG. 3 is a schematic diagram illustrating a schematic configuration of a touch panel included in the display device according to the embodiment of the present invention. 図4は、本発明の一実施の形態に係る表示装置が備える撮像部が互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する際の状況を示す模式図である。FIG. 4 is a schematic diagram illustrating a situation when the imaging unit included in the display device according to the embodiment of the present invention generates two pieces of image data in which one end in the horizontal direction of each field of view overlaps. . 図5は、図4に示す状況下で撮像部が生成する2つの画像データそれぞれに対応する2つの画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of two images corresponding to two image data generated by the imaging unit under the situation illustrated in FIG. 4. 図6は、図4に示す状況下で撮像部が生成した右目画像と左目画像とを仮想的に重ねた画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of an image in which the right eye image and the left eye image generated by the imaging unit under the situation illustrated in FIG. 4 are virtually overlapped. 図7は、図4に示す状況下で撮像部と被写体との撮影距離の関係を示す図である。FIG. 7 is a diagram illustrating the relationship between the imaging distance between the imaging unit and the subject under the situation illustrated in FIG. 図8は、本発明の一実施の形態に係る表示装置が行う処理の概要を示すフローチャートである。FIG. 8 is a flowchart showing an outline of processing performed by the display device according to the embodiment of the present invention. 図9は、表示部によって表示されるユーザが認識する仮想的な3D画像中に設けられたアイコンを操作する際の模式図である。FIG. 9 is a schematic diagram when an icon provided in a virtual 3D image recognized by the user displayed on the display unit is operated. 図10は、本発明の一実施の形態に係る表示装置が備えるタッチパネルが検出する検出領域を説明する模式図である。FIG. 10 is a schematic diagram illustrating a detection area detected by a touch panel included in the display device according to the embodiment of the present invention. 図11は、本発明の一実施の形態に係る表示装置が備える飛び出し設定部が行う処理の概要を示す模式図である。FIG. 11 is a schematic diagram illustrating an outline of processing performed by the pop-out setting unit included in the display device according to the embodiment of the present invention. 図12は、飛び出し設定部が立体画像生成部の切出し領域を設定した後の右目画像と左目画像とを仮想的に重ねた画像の一例を示す図である。FIG. 12 is a diagram illustrating an example of an image in which the right-eye image and the left-eye image are virtually overlapped after the pop-out setting unit has set the cut-out area of the stereoscopic image generation unit. 図13は、飛び出し設定部によって設定されたユーザが認識する仮想的な3D画像の一例を示す図である。FIG. 13 is a diagram illustrating an example of a virtual 3D image recognized by the user set by the pop-out setting unit. 図14は、露出調整部によって調整されたユーザが認識する仮想的な3D画像の一例を示す図である。FIG. 14 is a diagram illustrating an example of a virtual 3D image recognized by the user adjusted by the exposure adjustment unit. 図15は、図8の再生表示処理の概要を示すフローチャートである。FIG. 15 is a flowchart showing an outline of the reproduction display process of FIG.

以下に、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。また、図面の記載において、同一の部分には同一の符号を付している。   DESCRIPTION OF EMBODIMENTS Hereinafter, modes for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings. The present invention is not limited to the embodiments described below. In the description of the drawings, the same parts are denoted by the same reference numerals.

図1は、本発明の一実施の形態に係る表示装置の構成を示すブロック図である。本実施の形態では、表示装置を搭載したデジタルステレオカメラを例に挙げて説明する。図1に示すように、表示装置1は、異なる位置から撮影し、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する撮像部2と、表示装置1の姿勢を検出する姿勢検出部3と、表示装置1の各種情報の入力を受け付ける操作入力部4と、撮影日時の判定機能やタイマー機能を有する時計5と、2D画像または3D画像を表示する表示部6と、外部から接近してくる物体の領域および表示部6の表示画面までの距離を検出するとともに、この検出結果に応じた信号の入力を受け付けるタッチパネル7と、撮像部2によって生成された画像データを含む各種情報を記憶する記憶部8と、表示装置1の動作を制御する制御部9と、を備える。   FIG. 1 is a block diagram showing a configuration of a display device according to an embodiment of the present invention. In this embodiment, a digital stereo camera equipped with a display device will be described as an example. As shown in FIG. 1, the display device 1 shoots images from different positions and generates two image data in which one end in the left-right direction of each field of view overlaps, and the posture of the display device 1. An attitude detection unit 3 to detect, an operation input unit 4 that receives input of various information of the display device 1, a clock 5 having a shooting date determination function and a timer function, and a display unit 6 that displays a 2D image or a 3D image The touch panel 7 that receives an input of a signal corresponding to the detection result and the image data generated by the imaging unit 2 are detected while detecting the distance to the area of the object approaching from the outside and the display screen of the display unit 6. A storage unit 8 that stores various types of information that is included, and a control unit 9 that controls the operation of the display device 1 are provided.

撮像部2は、第1撮像部21と第2撮像部22とを有する。第1撮像部21および第2撮像部22は、互いの光軸L1,L2が平行または所定の角度をなすように同一平面上に並設される。   The imaging unit 2 includes a first imaging unit 21 and a second imaging unit 22. The first imaging unit 21 and the second imaging unit 22 are arranged side by side on the same plane so that their optical axes L1 and L2 are parallel or have a predetermined angle.

第1撮像部21は、レンズ部21aと、レンズ駆動部21bと、絞り21cと、絞り駆動部21dと、シャッタ21eと、シャッタ駆動部21fと、撮像素子21gと、信号処理部21hとを有する。レンズ部21aは、フォーカスレンズやズームレンズ等によって構成され、所定の視野領域からの光を集光する。レンズ駆動部21bは、DCモータ等によって構成され、レンズ部21aのフォーカスレンズやズームレンズ等を光軸L1上で移動させることにより、レンズ部21aのピント位置や焦点距離の変更を行う。絞り21cは、レンズ部21aが集光した光の入射量を制限することにより露出の調整を行う。絞り駆動部21dは、ステッピングモータ等によって構成され、絞り21cを駆動する。シャッタ21eは、撮像素子21gの状態を露光状態または遮光状態に設定する。シャッタ駆動部21fは、ステッピングモータ等によって構成され、レリーズ信号に応じてシャッタ21eを駆動する。撮像素子21gは、レンズ部21aが集光した光を受光して電気信号(アナログ信号)に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等によって実現され、変換した電気信号を信号処理部21hに出力する。信号処理部21hは、撮像素子21gから出力される電気信号に増幅等の信号処理を施した後、A/D変換を行うことによってデジタルの画像データに変換して制御部9に出力する。   The first imaging unit 21 includes a lens unit 21a, a lens driving unit 21b, a diaphragm 21c, a diaphragm driving unit 21d, a shutter 21e, a shutter driving unit 21f, an imaging element 21g, and a signal processing unit 21h. . The lens unit 21a is configured by a focus lens, a zoom lens, or the like, and collects light from a predetermined visual field region. The lens driving unit 21b is configured by a DC motor or the like, and changes the focus position and focal length of the lens unit 21a by moving the focus lens, the zoom lens, and the like of the lens unit 21a on the optical axis L1. The diaphragm 21c adjusts the exposure by limiting the amount of incident light collected by the lens unit 21a. The aperture drive unit 21d is configured by a stepping motor or the like, and drives the aperture 21c. The shutter 21e sets the state of the image sensor 21g to an exposure state or a light shielding state. The shutter drive unit 21f is configured by a stepping motor or the like, and drives the shutter 21e according to the release signal. The imaging element 21g is realized by a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like that receives the light collected by the lens unit 21a and converts it into an electrical signal (analog signal), and converts the converted electrical signal. It outputs to the signal processor 21h. The signal processing unit 21h performs signal processing such as amplification on the electrical signal output from the image sensor 21g, and then converts the digital signal to digital image data by performing A / D conversion, and outputs the digital image data to the control unit 9.

第2撮像部22は、第1撮像部21と同一の構成によって実現され、レンズ部22aと、レンズ駆動部22bと、絞り22cと、絞り駆動部22dと、シャッタ22eと、シャッタ駆動部22fと、撮像素子22gと、信号処理部22hとを有する。   The second imaging unit 22 is realized by the same configuration as the first imaging unit 21, and includes a lens unit 22a, a lens driving unit 22b, a diaphragm 22c, a diaphragm driving unit 22d, a shutter 22e, and a shutter driving unit 22f. The image sensor 22g and the signal processor 22h are included.

姿勢検出部3は、加速度センサによって構成され、表示装置1の加速度を検出することにより、表示装置1の姿勢状態を検出する。具体的には、姿勢検出部3は、水平面を基準としたときの表示装置1の姿勢を検出する。   The posture detection unit 3 includes an acceleration sensor, and detects the posture state of the display device 1 by detecting the acceleration of the display device 1. Specifically, the posture detection unit 3 detects the posture of the display device 1 with respect to the horizontal plane.

操作入力部4は、表示装置1の電源状態をオン状態またはオフ状態に切換える電源スイッチ41と、静止画撮影の指示を与えるレリーズ信号を入力するレリーズスイッチ42と、表示装置1の各種撮影モードや各種設定を切換える切換スイッチ43と、撮像部2のズーム操作を行うズームスイッチ44とを有する。   The operation input unit 4 includes a power switch 41 that switches the power state of the display device 1 to an on state or an off state, a release switch 42 that inputs a release signal that gives a still image shooting instruction, and various shooting modes of the display device 1. It has a selector switch 43 for switching various settings, and a zoom switch 44 for performing a zoom operation of the imaging unit 2.

時計5は、表示装置1の動作の基準となる時間信号を生成する。これにより、制御部9は、画像データの取得時間や撮像素子21g,22gの露光時間等を設定することができる。   The timepiece 5 generates a time signal that serves as a reference for the operation of the display device 1. Thereby, the control part 9 can set the acquisition time of image data, the exposure time of the image pick-up elements 21g and 22g, etc.

図2は、表示部6の概略構成を示す模式図である。図2に示すように、表示部6は、バックライト61と、表示パネル62と、視差バリア63とを有する。バックライト61は、LED(Light Emitting Diode)等によって構成され、画像を表示するための光を背面から照射する。表示パネル62は、液晶または有機EL(Electro Luminescence)等の表示パネルによって構成される。視差バリア63は、液晶等によって構成され、表示パネル62の上面に積層される。視差バリア63は、表示パネル62の各画素の間隔よりも狭い間隔でスリットが設けられ、ユーザの右目O1と左目O2とにそれぞれ対応した画像を分離する。また、本実施の形態では、視差バリア63は、パララックバリア方式が適用される。なお、本実施の形態では、レンティキュラレンズを積層したレンズシートを視差バリア63に換えて表示パネル62の上面に積層するようにしてもよい。   FIG. 2 is a schematic diagram illustrating a schematic configuration of the display unit 6. As shown in FIG. 2, the display unit 6 includes a backlight 61, a display panel 62, and a parallax barrier 63. The backlight 61 is configured by an LED (Light Emitting Diode) or the like, and irradiates light for displaying an image from the back side. The display panel 62 is configured by a display panel such as liquid crystal or organic EL (Electro Luminescence). The parallax barrier 63 is made of liquid crystal or the like and is stacked on the upper surface of the display panel 62. The parallax barrier 63 is provided with slits at an interval narrower than the interval of each pixel of the display panel 62, and separates images corresponding to the user's right eye O1 and left eye O2, respectively. In the present embodiment, a parallax barrier method is applied to the parallax barrier 63. In the present embodiment, a lens sheet in which lenticular lenses are stacked may be stacked on the upper surface of the display panel 62 instead of the parallax barrier 63.

以上の構成を有する表示部6は、制御部9から3D画像データが入力された場合、制御部9の制御のもと表示パネル62が左端の画素から水平方向に右目画像と左目画像との順で交互に表示し、視差バリア63が表示パネル62の各画素から出た光を分離する。このため、右目画像が右目O1のみ、左目画像が左目O2のみにそれぞれ届く。これにより、ユーザは、表示部6が表示する3D画像を仮想的に立体視することができる。また、表示部6は、表示態様を3D画像から2D画像に切換える場合、視差バリア63に印加される電圧がオン状態からオフ状態になることによって、視差バリア63が遮光状態から透過状態になり、右目画像または左目画像のどちらか一方が表示パネル62に出力されることで2D画像を表示することができる。   In the display unit 6 having the above configuration, when 3D image data is input from the control unit 9, the display panel 62 in the order of the right eye image and the left eye image in the horizontal direction from the leftmost pixel under the control of the control unit 9. The parallax barrier 63 separates the light emitted from each pixel of the display panel 62. Therefore, the right eye image reaches only the right eye O1, and the left eye image reaches only the left eye O2. Thereby, the user can virtually stereoscopically view the 3D image displayed on the display unit 6. Further, when the display unit 6 switches the display mode from the 3D image to the 2D image, the voltage applied to the parallax barrier 63 is changed from the on state to the off state, so that the parallax barrier 63 is changed from the light shielding state to the transmissive state. Either the right-eye image or the left-eye image is output to the display panel 62, so that a 2D image can be displayed.

図3は、タッチパネル7の概略構成を示す模式図である。図3に示すように、タッチパネル7は、フロントパネル71と、駆動部72と、駆動電極73と、受信電極74と、検出部75とを有する。フロントパネル71は、所定の厚みを有し、平面的に見て矩形状に形成されたガラスまたはPET(Polyethylene Terephthalate)で構成される。駆動部72は、駆動電極73に駆動パルス(たとえば印加電圧5V)を出力し、駆動電極73と受信電極74との間で静電容量を形成させる。駆動電極73および受信電極74は、ITO(Indium Tin Oxide)電極によって構成され、フロントパネル71の下面に対して5mmピッチで交互に設けられる。検出部75は、静電容量センサによって構成され、ユーザの指O3が電界E1に接近することにより、駆動電極73と受信電極74との間で形成された静電容量の微細な変化量、たとえば指O3がフロントパネル71に接触(タッチ)したときの変化量として1pF程度の値を検出する。この検出部75は、たとえば米国特許7148704号明細書に開示されている。この技術を用いることにより、検出部75は、指O3がフロントパネル71に触れる前から駆動電極73と受信電極74との間で形成された静電容量の微細な変化を検出することができる。具体的には、検出部75は、図3に示すように、距離h1(たとえば0.5cm)の位置と距離h2(たとえば1cm)の位置とに指O3があるときのように、微小な距離しか離れていない2箇所を移動する場合の駆動電極73と受信電極74との間で形成された静電容量の変化を検出することができる。   FIG. 3 is a schematic diagram showing a schematic configuration of the touch panel 7. As illustrated in FIG. 3, the touch panel 7 includes a front panel 71, a drive unit 72, a drive electrode 73, a reception electrode 74, and a detection unit 75. The front panel 71 is made of glass or PET (Polyethylene Terephthalate) which has a predetermined thickness and is formed in a rectangular shape when seen in a plan view. The drive unit 72 outputs a drive pulse (for example, an applied voltage of 5 V) to the drive electrode 73 to form a capacitance between the drive electrode 73 and the reception electrode 74. The drive electrodes 73 and the reception electrodes 74 are composed of ITO (Indium Tin Oxide) electrodes, and are alternately provided at a pitch of 5 mm with respect to the lower surface of the front panel 71. The detection unit 75 is configured by a capacitance sensor, and a minute change amount of the capacitance formed between the drive electrode 73 and the reception electrode 74 when the user's finger O3 approaches the electric field E1, for example, A value of about 1 pF is detected as the amount of change when the finger O3 contacts (touches) the front panel 71. This detector 75 is disclosed in, for example, US Pat. No. 7,148,704. By using this technique, the detection unit 75 can detect a minute change in the capacitance formed between the drive electrode 73 and the reception electrode 74 before the finger O3 touches the front panel 71. Specifically, as shown in FIG. 3, the detection unit 75 has a minute distance as when the finger O3 is located at a distance h1 (for example, 0.5 cm) and a distance h2 (for example, 1 cm). It is possible to detect a change in capacitance formed between the drive electrode 73 and the reception electrode 74 when moving at two locations that are far away from each other.

以上の構成を有するタッチパネル7は、表示部6の表示画面上に設けられ、外部から接近してくる物体の領域および表示部6の表示画面までの距離を検出するとともに、この検出結果に応じた信号の入力を受け付ける。具体的には、タッチパネル7は、表示部6で表示される2D画像または3D画像に基づいて、ユーザがタッチパネル7の画面に触れる前から表示画面の周辺に形成された電界E1が変化することで生じる静電容量の変化領域および静電容量の変化量に対応する距離を検出し、この変化領域および距離に応じた操作信号の入力を受け付ける。また、本実施の形態では、タッチパネル7は、静電容量方式のタッチパネルを例に説明したが、たとえば光学容量方式や赤外線方式のタッチパネル等であってもよい。   The touch panel 7 having the above-described configuration is provided on the display screen of the display unit 6 and detects the distance of the object area approaching from the outside and the display screen of the display unit 6 and responds to the detection result. Accepts signal input. Specifically, the touch panel 7 changes the electric field E1 formed around the display screen before the user touches the screen of the touch panel 7 based on the 2D image or 3D image displayed on the display unit 6. A distance corresponding to the generated capacitance change region and the amount of capacitance change is detected, and input of an operation signal corresponding to the change region and the distance is received. Further, in the present embodiment, the touch panel 7 is described as an example of a capacitive touch panel, but may be, for example, an optical capacitive touch panel or an infrared touch panel.

記憶部8は、撮像部2が撮影した画像データを記憶する画像データ記憶部81と、表示装置1が実行する各種プログラムを記憶するプログラム記憶部82とを有する。記憶部8は、表示装置1の内部に固定的に設けられるフラッシュメモリやRAM(Random Access Memory)等の半導体メモリを用いて実現される。なお、記憶部8に対し、外部から装着されるメモリカード等の記憶媒体に対して情報を記憶する一方、記憶媒体が記憶する情報を読み出す記録媒体インターフェースとしての機能を具備させてもよい。   The storage unit 8 includes an image data storage unit 81 that stores image data captured by the imaging unit 2 and a program storage unit 82 that stores various programs executed by the display device 1. The storage unit 8 is realized by using a semiconductor memory such as a flash memory or a RAM (Random Access Memory) fixedly provided inside the display device 1. The storage unit 8 may be provided with a function as a recording medium interface that reads information stored in the storage medium while storing information in a storage medium such as a memory card mounted from the outside.

制御部9は、CPU(Central Processing Unit)等によって実現される。制御部9は、操作入力部4およびタッチパネル7からの操作信号等に応じて記憶部8のプログラム記憶部82からプログラムを読み出して実行し、表示装置1を構成する各部に対する指示やデータの転送等を行って表示装置1の動作を統括的に制御する。制御部9は、画像処理部91と、立体画像生成部92と、飛び出し設定部93と、露出調整部94と、表示制御部95と、ヘッダ情報生成部97とを有する。   The control unit 9 is realized by a CPU (Central Processing Unit) or the like. The control unit 9 reads out and executes a program from the program storage unit 82 of the storage unit 8 in accordance with operation signals from the operation input unit 4 and the touch panel 7, and transfers instructions and data to each unit constituting the display device 1. To control the operation of the display device 1 in an integrated manner. The control unit 9 includes an image processing unit 91, a stereoscopic image generation unit 92, a pop-out setting unit 93, an exposure adjustment unit 94, a display control unit 95, and a header information generation unit 97.

画像処理部91は、信号処理部21h,22hからそれぞれ出力された左目画像データおよび右目画像データに対して各種の画像処理を施して記憶部8の画像データ記憶部81に出力する。具体的には、画像処理部91は、信号処理部21h,22hからそれぞれ出力された左目画像データおよび右目画像データに対してエッジ強調、色補正およびγ補正等の処理を施す。   The image processing unit 91 performs various types of image processing on the left-eye image data and right-eye image data output from the signal processing units 21 h and 22 h and outputs the processed image data to the image data storage unit 81 of the storage unit 8. Specifically, the image processing unit 91 performs processing such as edge enhancement, color correction, and γ correction on the left-eye image data and the right-eye image data output from the signal processing units 21h and 22h, respectively.

立体画像生成部92は、画像処理部91によって画像処理された左目画像データおよび右目画像データそれぞれに対し、所定の縦横比率、たとえばアスペクト比3:4で切出すことによって3D画像を生成する。なお、立体画像生成部92が左目画像データおよび右目画像データそれぞれから切出す縦横比率は、切換スイッチ43で設定するようにしてもよい。   The stereoscopic image generation unit 92 generates a 3D image by cutting out each of the left eye image data and right eye image data subjected to image processing by the image processing unit 91 with a predetermined aspect ratio, for example, an aspect ratio of 3: 4. Note that the aspect ratio that the stereoscopic image generation unit 92 cuts out from each of the left-eye image data and the right-eye image data may be set by the changeover switch 43.

飛び出し設定部93は、表示部6が表示する3D画像に対し、タッチパネル7が所定の領域で受け付けた信号に応じて、3D画像が表示部6の表示画面と直交する垂直な方向へ仮想的に飛び出す距離(以下、「飛び出し距離」という)を設定する。具体的には、飛び出し設定部93は、タッチパネル7が所定の領域で受け付けた信号に応じて、立体画像生成部92が左目画像データおよび右目画像データからそれぞれ切出す領域を変更することにより、3D画像の飛び出し距離を設定する。さらに、飛び出し設定部93は、タッチパネル7が所定の領域で受け付けた信号に応じて、立体画像生成部92が左目画像データおよび右目画像データからそれぞれ切出す領域を、左目画像データおよび右目画像データそれぞれに含まれる被写体の視差を小さくする方向に向けて段階的に変更することにより、3D画像の飛び出し距離を設定する。さらにまた、飛び出し設定部93は、表示部6が表示する複数の3次元操作画像に対し、タッチパネル7が受け付けた信号によって指定された3次元操作画像(以下、「3D操作画像」という)の飛び出し距離を設定する。なお、本実施の形態では、飛び出し設定部93は、タッチパネル7が所定の領域で受け付けた信号に応じて、3D画像が表示部6の表示画面と直交する垂直な方向へ仮想的に引っ込む引っ込み距離(奥行き方向の距離)を調整するようにしてもよい。   The pop-out setting unit 93 virtually performs a 3D image in a vertical direction orthogonal to the display screen of the display unit 6 in response to a signal received by the touch panel 7 in a predetermined area with respect to the 3D image displayed by the display unit 6. Set the distance to jump out (hereinafter referred to as “jump distance”). Specifically, the pop-out setting unit 93 changes the regions cut out from the left-eye image data and the right-eye image data by the stereoscopic image generation unit 92 according to a signal received by the touch panel 7 in a predetermined region. Set the pop-up distance of the image. Further, the pop-out setting unit 93 determines the regions that the stereoscopic image generation unit 92 cuts out from the left-eye image data and the right-eye image data according to the signal received by the touch panel 7 in a predetermined region, respectively. The jump distance of the 3D image is set by changing the parallax of the subject included in the image in a stepwise manner in the direction of decreasing the parallax. Furthermore, the pop-out setting unit 93 pops out a three-dimensional operation image (hereinafter referred to as “3D operation image”) designated by a signal received by the touch panel 7 with respect to a plurality of three-dimensional operation images displayed on the display unit 6. Set the distance. In the present embodiment, the pop-out setting unit 93 virtually retracts the 3D image in a vertical direction orthogonal to the display screen of the display unit 6 in accordance with a signal received by the touch panel 7 in a predetermined area. (Distance in the depth direction) may be adjusted.

露出調整部94は、表示部6が表示する3D画像に対し、タッチパネル7が受け付けた信号に応じて撮像部2の露出を調整する。具体的には、露出調整部94は、タッチパネル7が受け付けた信号に応じて、絞り駆動部21d,22dを駆動して絞り21c,22cの設定値を調整することにより撮像部2の露出調整を行う。   The exposure adjustment unit 94 adjusts the exposure of the imaging unit 2 according to the signal received by the touch panel 7 for the 3D image displayed by the display unit 6. Specifically, the exposure adjusting unit 94 adjusts the exposure of the imaging unit 2 by driving the aperture driving units 21d and 22d and adjusting the setting values of the apertures 21c and 22c in accordance with the signal received by the touch panel 7. Do.

表示制御部95は、3D画像または2D画像を表示部6に表示させる制御を行う。具体的には、表示制御部95は、表示部6に3D画像を表示させる場合、立体画像生成部92が生成した3D画像の左目画像と右目画像とを表示部6の表示画面における水平方向の1画素毎に交互に並べた3D画像を表示部6に出力する制御を行う。これに対して、表示制御部95は、表示部6に2D画像を表示させる場合、表示部6の視差バリア63を遮光状態から透過状態にするため、視差バリア63に印加する電源をオン状態からオフ状態にするとともに、左目画像または右目画像どちらか一方のみを表示パネル62に出力する制御を行う。さらに、表示制御部95は、飛び出し設定部93が設定した3D画像および/または3D操作画像を表示部6に表示させる制御を行う。また、表示制御部95は、露出調整部94が調整した3D画像を表示部6に表示させる制御を行う。   The display control unit 95 performs control to display a 3D image or a 2D image on the display unit 6. Specifically, when displaying the 3D image on the display unit 6, the display control unit 95 displays the left eye image and the right eye image of the 3D image generated by the stereoscopic image generation unit 92 in the horizontal direction on the display screen of the display unit 6. Control is performed to output 3D images alternately arranged for each pixel to the display unit 6. On the other hand, when displaying the 2D image on the display unit 6, the display control unit 95 switches the power applied to the parallax barrier 63 from the on state in order to change the parallax barrier 63 of the display unit 6 from the light shielding state to the transmission state. While turning off, control is performed to output only one of the left-eye image and the right-eye image to the display panel 62. Further, the display control unit 95 performs control to display the 3D image and / or 3D operation image set by the pop-out setting unit 93 on the display unit 6. The display control unit 95 performs control to display the 3D image adjusted by the exposure adjustment unit 94 on the display unit 6.

画像制御部96は、3D操作画像の表示変化に応じて、表示部6が表示する画像の3次元的な表示態様を変更させる制御を行う。具体的には、画像制御部96は、表示部6が所定の領域に表示する3D操作画像に対し、タッチパネル7が受け付けた信号に応じて飛び出し距離が変化する3D操作画像に対応させて3D画像の飛び出し距離を変更する制御を行う。   The image control unit 96 performs control to change the three-dimensional display mode of the image displayed on the display unit 6 in accordance with the display change of the 3D operation image. Specifically, the image control unit 96 performs a 3D image corresponding to a 3D operation image in which the pop-out distance changes according to a signal received by the touch panel 7 with respect to a 3D operation image displayed on a predetermined area by the display unit 6. Control to change the pop-up distance.

ヘッダ情報生成部97は、飛び出し設定部93が設定した3D画像の飛び出し距離をヘッダ情報として生成し、このヘッダ情報を撮像部2が生成する画像データに対応付けて画像データ記憶部81に記憶させる。   The header information generating unit 97 generates the 3D image pop-out distance set by the pop-out setting unit 93 as header information, and stores this header information in the image data storage unit 81 in association with the image data generated by the imaging unit 2. .

以上の構成を有する表示装置1において、撮像部2が互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する際の状況について説明する。図4は、撮像部2が、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する際の状況を示す模式図である。図5は、図4に示す状況下で撮像部2が生成する2つの画像データそれぞれに対応する2つの画像の一例を示す図である。図5において、図5の画像WR1が、立体画像生成部92が第1撮像部21によって生成された右目画像データに対応する画像から切出して生成した右目画像であり、図5の画像WL1が、立体画像生成部92が第2撮像部22によって生成された左目画像データに対応する画像から切出して生成した左目画像である。図6は、図4に示す状況下で立体画像生成部92が生成した右目画像と左目画像とを仮想的に重ねた画像の一例を示す図である。図7は、図4に示す状況下で撮像部2と被写体との撮影距離の関係を示す図である。図7では、横軸が左端を原点としたときの画像W1内の被写体位置であり、縦軸が撮像部2と被写体との距離である。なお、図5および図6において、破線および一点鎖線が第1撮像部21および第2撮像部22がそれぞれ生成する画像データに対応する画像領域を示す。   In the display device 1 having the above configuration, a situation when the imaging unit 2 generates two pieces of image data in which one end in the left-right direction of each field of view overlaps will be described. FIG. 4 is a schematic diagram illustrating a situation when the imaging unit 2 generates two image data in which one end in the horizontal direction of each field of view overlaps. FIG. 5 is a diagram illustrating an example of two images corresponding to two image data generated by the imaging unit 2 under the situation illustrated in FIG. 4. 5, the image WR1 in FIG. 5 is a right-eye image generated by the stereoscopic image generation unit 92 cut out from an image corresponding to the right-eye image data generated by the first imaging unit 21, and the image WL1 in FIG. The stereoscopic image generation unit 92 is a left-eye image generated by cutting out an image corresponding to the left-eye image data generated by the second imaging unit 22. FIG. 6 is a diagram illustrating an example of an image obtained by virtually superimposing the right eye image and the left eye image generated by the stereoscopic image generation unit 92 under the situation illustrated in FIG. FIG. 7 is a diagram illustrating the relationship between the imaging distances between the imaging unit 2 and the subject under the situation illustrated in FIG. In FIG. 7, the horizontal axis is the subject position in the image W1 when the left end is the origin, and the vertical axis is the distance between the imaging unit 2 and the subject. 5 and 6, the broken line and the alternate long and short dash line indicate image areas corresponding to the image data generated by the first imaging unit 21 and the second imaging unit 22, respectively.

図4に示すように、撮像部2は、撮像部2からの距離が異なる被写体A1(距離d1)および被写体A2(距離d2)に対して、距離B1離れて並設された第1撮像部21および第2撮像部22で撮影することにより、右目画像データと左目画像データとを生成する。その後、立体画像生成部92が、画像処理部91によって画像処理された右目画像データおよび左目画像データそれぞれを所定の縦横比率で切出して右目画像WR1および左目画像WL1を生成する(図5を参照)。図7に示すように、撮像部2と被写体A2との距離は、撮像部2と被写体A1との距離より大きい。このため、被写体A2の領域がほぼ重なる。具体的には、図6に示すように、画像W1内では、被写体A2の領域がほぼ重なる。これに対して、被写体A1の領域が重ならず、被写体A1に対して視差a1を有する。このように、右目画像WR1および左目画像WL1では、撮像部2からの距離が近い被写体(被写体A1)ほど3D画像内での視差が大きく、撮像部2からの距離が遠い被写体(被写体A2)ほど3D画像内での視差が小さい。   As illustrated in FIG. 4, the imaging unit 2 includes a first imaging unit 21 arranged in parallel at a distance B1 with respect to a subject A1 (distance d1) and a subject A2 (distance d2) having different distances from the imaging unit 2. Then, the right eye image data and the left eye image data are generated by photographing with the second imaging unit 22. After that, the stereoscopic image generation unit 92 generates the right eye image WR1 and the left eye image WL1 by cutting out the right eye image data and the left eye image data processed by the image processing unit 91 at a predetermined aspect ratio (see FIG. 5). . As shown in FIG. 7, the distance between the imaging unit 2 and the subject A2 is larger than the distance between the imaging unit 2 and the subject A1. For this reason, the area of the subject A2 almost overlaps. Specifically, as shown in FIG. 6, the area of the subject A2 almost overlaps in the image W1. On the other hand, the area of the subject A1 does not overlap and has a parallax a1 with respect to the subject A1. Thus, in the right-eye image WR1 and the left-eye image WL1, the subject (subject A1) that is closer to the imaging unit 2 has a larger parallax in the 3D image and the subject that is farther from the imaging unit 2 (subject A2). The parallax in the 3D image is small.

つぎに、本実施の形態に係る表示装置1が行う処理について説明する。図8は、表示装置1が行う処理の概要を示すフローチャートである。   Next, processing performed by the display device 1 according to the present embodiment will be described. FIG. 8 is a flowchart illustrating an outline of processing performed by the display device 1.

図8において、まず、制御部9は、表示装置1の電源がオンになっているか否かを判断する(ステップS101)。表示装置1の電源がオンになっている場合(ステップS101:Yes)、表示装置1はステップS102に移行する。一方、表示装置1の電源がオンになっていない場合(ステップS101:No)、表示装置1は本処理を終了する。   In FIG. 8, first, the control unit 9 determines whether or not the display device 1 is turned on (step S <b> 101). When the power of the display device 1 is on (step S101: Yes), the display device 1 proceeds to step S102. On the other hand, when the display device 1 is not turned on (step S101: No), the display device 1 ends this process.

続いて、制御部9は、表示装置1が撮影モードに設定されているか否かを判断する(ステップS102)。表示装置1が撮影モードに設定されている場合(ステップS102:Yes)、表示装置1は後述するステップS103に移行する。一方、表示装置1が撮像モードに設定されていない場合(ステップS102:No)、表示装置1は後述するステップS119に移行する。   Subsequently, the control unit 9 determines whether or not the display device 1 is set to the shooting mode (step S102). When the display device 1 is set to the shooting mode (step S102: Yes), the display device 1 proceeds to step S103 described later. On the other hand, when the display device 1 is not set to the imaging mode (step S102: No), the display device 1 proceeds to step S119 described later.

まず、表示装置1が撮影モードに設定されている場合(ステップS102:Yes)について説明する。この場合、表示制御部95は、撮像部2が一定の微小な時間間隔で連続的に生成する画像データに対応する3D画像のスルー画を表示部6に表示させる(ステップS103)。   First, the case where the display device 1 is set to the shooting mode (step S102: Yes) will be described. In this case, the display control unit 95 causes the display unit 6 to display a through image of a 3D image corresponding to the image data continuously generated by the imaging unit 2 at a constant minute time interval (step S103).

続いて、制御部9は、ユーザによってレリーズスイッチ42が操作されて撮影を指示するレリーズ信号が入力されたか否かを判断する(ステップS104)。撮影を指示するレリーズ信号が入力された場合(ステップS104:Yes)、表示装置1は後述するステップS116に移行する。一方、撮影を指示するレリーズ信号が入力されていない場合(ステップS104:No)、表示装置1は後述するステップS105に移行する。   Subsequently, the control unit 9 determines whether or not a release signal for instructing photographing is input by operating the release switch 42 by the user (step S104). When a release signal instructing photographing is input (step S104: Yes), the display device 1 proceeds to step S116 described later. On the other hand, when the release signal instructing photographing is not input (step S104: No), the display device 1 proceeds to step S105 described later.

まず、撮影を指示するレリーズ信号が入力されていない場合(ステップS104:No)について説明する。この場合、制御部9は、奥行アイコンQ1が操作されたか否かを判断する(ステップS105)。奥行アイコンQ1が操作された場合(ステップS105:Yes)、表示装置1は後述するステップS106に移行する。一方、奥行アイコンQ1が操作されていない場合(ステップS105:No)、表示装置1は後述するステップS112に移行する。   First, a case where a release signal instructing shooting is not input (step S104: No) will be described. In this case, the control unit 9 determines whether or not the depth icon Q1 has been operated (step S105). When the depth icon Q1 is operated (step S105: Yes), the display device 1 proceeds to step S106 described later. On the other hand, when the depth icon Q1 is not operated (step S105: No), the display device 1 proceeds to step S112 described later.

図9は、表示部6によって表示されるユーザが認識する仮想的な3D画像中に設けられたアイコンを操作する際の模式図である。図9に示すように、制御部9は、表示部6が表示する画像W2の中に設けられ、3D画像の飛び出し距離の設定を指示する指示信号を入力する奥行アイコンQ1が操作されたか否かを判断する。この場合、タッチパネル7は、外部から接近してくるユーザの指O3の領域および表示部6の表示画面と指O3との距離を検出するとともに、この検出結果に応じた信号の入力を受け付けて制御部9に出力する(図9(a)→(b))。また、図10(a)に示すように、ユーザが表示部6によって表示される3D画像を操作する場合、たとえば表示部6とユーザの右目O1との間に指O3が入り込み、ユーザが3D画像を認識しにくくなり、所望の操作ができない場合がある。このように、両目に入るそれぞれの画像からユーザが3D画像を知覚する3次元表示の場合、一方の画像のみが遮られたりすると、ユーザは正しい立体の知覚がなされなくなってしまう。すなわち、図10(a)に示す状態では、ユーザは3次元で表示された3D画像の変化を正しく確認しながら、自然に操作することができなかった。このため、本実施の形態では、図10(b)に示すように、タッチパネル7は、3D画像、たとえば奥行アイコンQ1の飛び出し距離ΔZに基づいて、検出する検出領域をΔx(Δx=ΔZ/tanθ)だけ右側または左側に広げて検出する。これにより、ユーザは、3D画像である奥行アイコンQ1を仮想的にタッチしながら3D画像の変化を確認しながら自然に調整することができる。   FIG. 9 is a schematic diagram when an icon provided in a virtual 3D image recognized by the user displayed on the display unit 6 is operated. As illustrated in FIG. 9, the control unit 9 determines whether or not the depth icon Q1 provided in the image W2 displayed on the display unit 6 and for inputting an instruction signal for instructing the setting of the pop-out distance of the 3D image is operated. Judging. In this case, the touch panel 7 detects the area of the user's finger O3 approaching from the outside and the distance between the display screen of the display unit 6 and the finger O3, and receives and controls input of a signal corresponding to the detection result. It outputs to the part 9 (FIG. 9 (a)-> (b)). Further, as shown in FIG. 10A, when the user operates the 3D image displayed on the display unit 6, for example, the finger O3 enters between the display unit 6 and the user's right eye O1, and the user performs the 3D image. May be difficult to recognize and may not be able to perform a desired operation. Thus, in the case of the three-dimensional display in which the user perceives a 3D image from each image entering both eyes, if only one of the images is blocked, the user cannot perceive a correct three-dimensional image. That is, in the state shown in FIG. 10A, the user cannot operate naturally while correctly confirming the change of the 3D image displayed in three dimensions. For this reason, in the present embodiment, as shown in FIG. 10B, the touch panel 7 detects the detection region to be detected based on the 3D image, for example, the jump distance ΔZ of the depth icon Q1, by Δx (Δx = ΔZ / tan θ). ) Widen the detection to the right or left. Thereby, the user can adjust naturally while confirming the change of the 3D image while virtually touching the depth icon Q1 which is a 3D image.

ステップS106において、制御部9は、その時点で表示部6によって表示されている3D画像の引っ込み距離が限界であるか否かを判断する。具体的には、制御部9は、図6に示すように、右目画像WR1と左目画像WL1とを仮想的に重ねた画像W1に含まれる被写体A1の視差a1がない状態を3D画像の引っ込み距離が限界であると判断する。3D画像の引っ込み距離が限界である場合(ステップS106:Yes)、表示装置1はステップ101に戻る。一方、3D画像の引っ込み距離が限界でない場合(ステップS106:No)、表示装置1はステップS107に移行する。   In step S106, the control unit 9 determines whether or not the retraction distance of the 3D image currently displayed by the display unit 6 is the limit. Specifically, as illustrated in FIG. 6, the control unit 9 sets a state in which the parallax a1 of the subject A1 included in the image W1 virtually overlapping the right-eye image WR1 and the left-eye image WL1 is not included in the 3D image retraction distance. Is determined to be the limit. When the retraction distance of the 3D image is the limit (step S106: Yes), the display device 1 returns to step 101. On the other hand, when the retraction distance of the 3D image is not the limit (step S106: No), the display device 1 proceeds to step S107.

続いて、制御部9は、タッチパネル7が検出した静電容量の変化量に対応する距離が第1の閾値以下であるか否かを判断する(ステップS107)。具体的には、タッチパネル7が検出した静電容量の変化量が0.2pF以下であるか否かを判断する。タッチパネル7が検出した静電容量の変化量に対応する距離が第1の閾値以下である場合(ステップS107:Yes)、飛び出し設定部93は、立体画像生成部92が右目画像データから切出す領域を1/100移動させる変更を行い(ステップS108)、表示装置1はステップS101に戻る。   Subsequently, the control unit 9 determines whether or not the distance corresponding to the change amount of the capacitance detected by the touch panel 7 is equal to or less than the first threshold (step S107). Specifically, it is determined whether or not the amount of change in capacitance detected by the touch panel 7 is 0.2 pF or less. When the distance corresponding to the amount of change in capacitance detected by the touch panel 7 is equal to or less than the first threshold (step S107: Yes), the pop-out setting unit 93 is an area that the stereoscopic image generation unit 92 cuts out from the right-eye image data Is moved 1/100 (step S108), and the display device 1 returns to step S101.

図11は、飛び出し設定部93が行う処理の概要を示す模式図である。図11において、図11(a)の画像WR21および図11(b)の画像WR22が、立体画像生成部92が第1撮像部21によって生成された右目画像データから所定の縦横比率で切出した右目画像である。また、図11(a)の画像WL21および図11(b)の画像WL22が、立体画像生成部92が第2撮像部22によって生成された左目画像データから所定の縦横比率で切出した左目画像である。図12の画像W3が、飛び出し設定部93が立体画像生成部92の切出し領域を設定した後の右目画像と左目画像とを仮想的に重ねた画像の一例である。図13は、飛び出し設定部93によって設定されたユーザが認識する仮想的な3D画像の一例を示す図である。図13において、図13(a)の画像W4が、飛び出し設定部93による設定前の3D画像であり、図13(b)の画像W5が、飛び出し設定部93による設定後の3D画像である。なお、図11および図12において、破線および一点鎖線が第1撮像部21および第2撮像部22がそれぞれ生成する画像データに対応する画像領域を示す。   FIG. 11 is a schematic diagram illustrating an outline of processing performed by the pop-out setting unit 93. In FIG. 11, the right eye in which the image WR21 in FIG. 11A and the image WR22 in FIG. 11B are extracted from the right-eye image data generated by the first imaging unit 21 by the stereoscopic image generation unit 92 at a predetermined aspect ratio. It is an image. In addition, the image WL21 in FIG. 11A and the image WL22 in FIG. 11B are left-eye images that the stereoscopic image generation unit 92 extracts from the left-eye image data generated by the second imaging unit 22 at a predetermined aspect ratio. is there. An image W3 in FIG. 12 is an example of an image obtained by virtually overlapping the right eye image and the left eye image after the pop-out setting unit 93 sets the cut-out area of the stereoscopic image generation unit 92. FIG. 13 is a diagram illustrating an example of a virtual 3D image recognized by the user set by the pop-out setting unit 93. In FIG. 13, an image W <b> 4 in FIG. 13A is a 3D image before setting by the pop-out setting unit 93, and an image W <b> 5 in FIG. 13B is a 3D image after setting by the pop-out setting unit 93. In FIG. 11 and FIG. 12, broken lines and alternate long and short dash lines indicate image regions corresponding to image data generated by the first imaging unit 21 and the second imaging unit 22, respectively.

図11に示すように、飛び出し設定部93は、表示部6が表示する3D画像に対し、タッチパネル7が奥行アイコンQ1の領域で受け付けた信号に応じて、立体画像生成部92が右目画像データおよび左目画像データからそれぞれ切出して生成する右目画像および左目画像の切出し領域を変更して3D画像の飛び出し距離を設定する。具体的には、飛び出し設定部93は、表示部6の表示画面と直交する垂直な方向に仮想的に飛び出した被写体A1を表示部6の表示画面側に引っ込ませる場合、立体画像生成部92による右目画像データの切出し領域を1/100移動させて変更し(図11(a)→図11(b))、右目画像WR22と左目画像WL22とに含まる被写体A1の視差(領域の重なり具合)を小さくすることにより(図12の画像W3を参照)、被写体A1の飛び出し距離を設定する(図13(a)→(図13(b))。さらに、飛び出し設定部93は、表示部6が表示する奥行アイコンQ1(3D操作画像)に対し、タッチパネル7が受け付けた信号に応じて奥行アイコンQ1の飛び出し距離を設定する(図13(a)→(図13(b))。具体的には、ユーザが仮想的に奥行アイコンQ1を押し込んだ量(距離)に応じて奥行アイコンQ1の飛び出し距離を設定する。   As illustrated in FIG. 11, the pop-out setting unit 93 causes the stereoscopic image generation unit 92 to output the right-eye image data and the 3D image displayed on the display unit 6 according to a signal received by the touch panel 7 in the region of the depth icon Q1. The pop-out distance of the 3D image is set by changing the cut-out areas of the right-eye image and the left-eye image that are generated by cutting out from the left-eye image data. Specifically, when the pop-out setting unit 93 causes the subject A1 that has virtually popped out in the vertical direction orthogonal to the display screen of the display unit 6 to be retracted to the display screen side of the display unit 6, the pop-up setting unit 93 The cut-out area of the right-eye image data is changed by moving 1/100 (FIG. 11 (a) → FIG. 11 (b)), and the parallax of the subject A1 included in the right-eye image WR22 and the left-eye image WL22 (area overlap) (Refer to the image W3 in FIG. 12), the pop-out distance of the subject A1 is set (FIG. 13 (a) → (FIG. 13 (b)). For the depth icon Q1 (3D operation image) to be displayed, the pop-out distance of the depth icon Q1 is set according to the signal received by the touch panel 7 (FIG. 13 (a) → (FIG. 13 (b)). Yu The sets the pop-out distance of depth icon Q1 depending on the amount pushed the virtually depth icon Q1 (distance).

このように、飛び出し設定部93は、タッチパネル7が奥行アイコンQ1の領域で受け付けた信号に応じて、立体画像生成部92が右目画像データおよび左目画像データからそれぞれ切出して生成する右目画像および左目画像の切出す領域を変更して3D画像の飛び出し距離を設定する。その後、表示制御部95は、飛び出し設定部93が設定した3D画像および/または3D操作画像を表示部6に表示させる制御を行う。これにより、ユーザは、表示部6が表示する3D画像の中に設けられた奥行アイコンQ1を仮想的にタッチしながら3D画像の飛び出し距離の変化を確認しながら自然に調整することができる。なお、図11では、飛び出し設定部93は、右目画像の切出し領域のみ移動させて変更しているが、右目画像および左目画像それぞれ同期させながら、右目画像および左目画像それぞれの切出し領域を移動させて変更し、3D画像の飛び出し距離を設定してもよい。また、飛び出し設定部93は、左目画像の切出し領域のみ移動させて変更し、3D画像の飛び出し距離を設定してもよい。   As described above, the pop-out setting unit 93 generates the right-eye image and the left-eye image that the stereoscopic image generation unit 92 generates by cutting out from the right-eye image data and the left-eye image data according to the signal received by the touch panel 7 in the area of the depth icon Q1. The pop-out distance of the 3D image is set by changing the area to be cut out. Thereafter, the display control unit 95 performs control to display the 3D image and / or 3D operation image set by the pop-out setting unit 93 on the display unit 6. Thereby, the user can adjust naturally while confirming the change of the pop-out distance of the 3D image while virtually touching the depth icon Q1 provided in the 3D image displayed on the display unit 6. In FIG. 11, the pop-out setting unit 93 moves and changes only the cut-out area of the right-eye image, but moves the cut-out areas of the right-eye image and the left-eye image while synchronizing the right-eye image and the left-eye image. It is possible to change and set the jump distance of the 3D image. Further, the pop-out setting unit 93 may move and change only the cut-out area of the left eye image to set the pop-out distance of the 3D image.

ここで、図8に戻り、ステップS107において、タッチパネル7が検出した静電容量の変化量に対応する距離が第1の閾値以下でない場合(ステップS107:No)について説明する。この場合、制御部9は、タッチパネル7が検出した静電容量の変化量に対応する距離が第2の閾値以下であるか否かを判断する(ステップS109)。具体的には、タッチパネル7が検出した静電容量の変化量が0.5pF以下であるか否かを判断する。タッチパネル7が検出した静電容量の変化量に対応する距離が第2の閾値以下である場合(ステップS109:Yes)、飛び出し設定部93は、立体画像生成部92が右目画像データから切出す領域を1/20移動させる変更を行い(ステップS110)、表示装置1はステップS101に戻る。   Here, returning to FIG. 8, the case where the distance corresponding to the change amount of the capacitance detected by the touch panel 7 is not less than or equal to the first threshold value in step S107 (step S107: No) will be described. In this case, the control unit 9 determines whether or not the distance corresponding to the amount of change in capacitance detected by the touch panel 7 is equal to or smaller than the second threshold (step S109). Specifically, it is determined whether or not the amount of change in capacitance detected by the touch panel 7 is 0.5 pF or less. When the distance corresponding to the amount of change in capacitance detected by the touch panel 7 is equal to or smaller than the second threshold (step S109: Yes), the pop-out setting unit 93 is an area that the stereoscopic image generation unit 92 cuts out from the right-eye image data Is moved 1/20 (step S110), and the display device 1 returns to step S101.

これに対して、タッチパネル7が検出した静電容量の変化量に対応する距離が第2の閾値以下でない場合(ステップS109:No)、飛び出し設定部93は、立体画像生成部92が右目画像データから切出す領域を1/10移動させる変更を行い(ステップS111)、表示装置1はステップS101に戻る。   On the other hand, when the distance corresponding to the amount of change in the capacitance detected by the touch panel 7 is not equal to or less than the second threshold (step S109: No), the pop-out setting unit 93 causes the stereoscopic image generation unit 92 to execute the right-eye image data. The display apparatus 1 returns to step S101 after changing the area to be cut out from 1/10 (step S111).

つぎに、ステップS105において、奥行アイコンQ1が操作されていない場合(ステップS105:No)について説明する。この場合、制御部9は、戻しアイコンQ2が操作されたか否かを判断する(ステップS112)。具体的には、図9に示すように、制御部9は、表示部6が表示する画像W2の中に設けられ、3D画像の飛び出し距離を初期状態に戻す指示信号を入力する戻すアイコンQ2が操作されたか否かを判断する。この場合、制御部9は、タッチパネル7が検出する静電容量が変化した場合、戻すアイコンQ2が操作されたと判断する。ここで、初期位置とは、3D画像の飛び出し距離が最大になる右目画像および左目画像それぞれの切出し領域の位置である。具体的には、立体画像生成部92が生成する右目画像および左目画像それぞれに含まれる被写体A1の視差が最大になる切出し領域の位置である(図6を参照)。戻すアイコンQ2が操作された場合(ステップS112:Yes)、飛び出し設定部93は、立体画像生成部92が右目画像データから切出す領域を初期位置に戻し(ステップS113)、表示装置1はステップS101に戻る。   Next, a case where the depth icon Q1 is not operated in step S105 (step S105: No) will be described. In this case, the control unit 9 determines whether or not the return icon Q2 has been operated (step S112). Specifically, as illustrated in FIG. 9, the control unit 9 includes a return icon Q2 that is provided in the image W2 displayed on the display unit 6 and that inputs an instruction signal for returning the pop-up distance of the 3D image to the initial state. It is determined whether or not an operation has been performed. In this case, the control unit 9 determines that the return icon Q2 is operated when the capacitance detected by the touch panel 7 changes. Here, the initial position is the position of the cut-out area of each of the right-eye image and the left-eye image where the pop-out distance of the 3D image is maximized. Specifically, it is the position of the cutout region where the parallax of the subject A1 included in each of the right eye image and the left eye image generated by the stereoscopic image generation unit 92 is maximized (see FIG. 6). When the return icon Q2 is operated (step S112: Yes), the pop-out setting unit 93 returns the region cut out from the right-eye image data by the stereoscopic image generation unit 92 to the initial position (step S113), and the display device 1 performs step S101. Return to.

つぎに、ステップS112において、戻しアイコンQ2が操作されていない場合(ステップS112:No)について説明する。この場合、制御部9は、EV(露出)アイコンQ3が操作されたか否かを判断する(ステップS114)。具体的には、図9に示すように、制御部9は、表示部6が表示する画像W2の中に設けられ、撮像部2の露出を調整する指示信号を入力するEVアイコンQ3が操作されたか否かを判断する。EVアイコンQ3が操作されていない場合(ステップS114:No)、表示装置1はステップS101に戻る。一方、EVアイコンQ3が操作された場合(ステップS114:Yes)、露出調整部94は、タッチパネル7が検出した静電容量の変化量に対応する距離に応じて撮像部2の露出を調整し(ステップS115)、表示装置1はステップS101に戻る。具体的には、露出調整部94は、図14に示すように、タッチパネル7が検出する静電容量の変化量に対応する距離に応じて、撮像部2の露出を調整する(図14(a)→図14(b))。この際、図14に示すように、表示制御部95は、表示部6の画面上に絞り値F1(+0.3)を表示するようにしてもよい。これにより、ユーザは、3D画像であるEVアイコンQ3を仮想的にタッチしながら変化させた際の変化量を容易に知ることができる。   Next, a case where the return icon Q2 is not operated in step S112 (step S112: No) will be described. In this case, the control unit 9 determines whether or not the EV (exposure) icon Q3 has been operated (step S114). Specifically, as shown in FIG. 9, the control unit 9 is provided in an image W2 displayed on the display unit 6, and an EV icon Q3 for inputting an instruction signal for adjusting the exposure of the imaging unit 2 is operated. It is determined whether or not. When the EV icon Q3 is not operated (step S114: No), the display device 1 returns to step S101. On the other hand, when the EV icon Q3 is operated (step S114: Yes), the exposure adjustment unit 94 adjusts the exposure of the imaging unit 2 according to the distance corresponding to the amount of change in capacitance detected by the touch panel 7 ( In step S115), the display device 1 returns to step S101. Specifically, as illustrated in FIG. 14, the exposure adjustment unit 94 adjusts the exposure of the imaging unit 2 according to the distance corresponding to the amount of change in capacitance detected by the touch panel 7 (FIG. ) → FIG. 14B). At this time, as shown in FIG. 14, the display control unit 95 may display the aperture value F <b> 1 (+0.3) on the screen of the display unit 6. Thereby, the user can easily know the amount of change when the EV icon Q3, which is a 3D image, is changed while being virtually touched.

つぎに、ステップS104において、ユーザによってレリーズスイッチ42が操作されて撮影を指示するレリーズ信号が入力された場合(ステップS104:Yes)について説明する。この場合、撮像部2は、表示部6が現在表示している画像に対して撮影を行い、撮像した画像データを記憶部8の画像データ記憶部81に記憶する(ステップS116)。   Next, a case will be described in which a release signal instructing photographing is input by the user operating the release switch 42 in step S104 (step S104: Yes). In this case, the imaging unit 2 captures an image currently displayed on the display unit 6 and stores the captured image data in the image data storage unit 81 of the storage unit 8 (step S116).

続いて、表示制御部95は、撮像部2が撮影した画像データに対応する3D画像を表示部6にレックビュー表示させる(ステップS117)。これにより、ユーザは、撮影した画像の奥行き感を確認することができる。   Subsequently, the display control unit 95 displays a 3D image corresponding to the image data captured by the imaging unit 2 on the display unit 6 in a rec view (step S117). Thereby, the user can confirm the sense of depth of the captured image.

その後、制御部9は、表示部6による3D画像のレックビュー表示を行ってから所定時間経過したか否かを判断する(ステップS118)。具体的には、表示部6による3D画像のレックビュー表示を行ってから1分間経過したか否かを判断する。制御部9が判断した結果、表示部6による3D画像のレックビュー表示を行ってから所定時間経過していない場合(ステップS118:No)、表示装置1はステップS117に戻る。一方、制御部9が判断した結果、表示部6による3D画像のレックビュー表示を行ってから所定時間経過している場合(ステップS118:Yes)、表示装置1はステップS101に戻る。   Thereafter, the control unit 9 determines whether or not a predetermined time has elapsed since the 3D image was displayed on the display unit 6 (step S118). Specifically, it is determined whether or not one minute has passed since the 3D image was displayed on the display unit 6. As a result of the determination by the control unit 9, if the predetermined time has not elapsed since the rec view display of the 3D image by the display unit 6 (step S118: No), the display device 1 returns to step S117. On the other hand, as a result of the determination by the control unit 9, when a predetermined time has elapsed since the rec view display of the 3D image by the display unit 6 (step S118: Yes), the display device 1 returns to step S101.

ここで、ステップS102において、表示装置1が撮影モードに設定されていない場合(ステップS102:No)について説明する。この場合、表示装置1は、撮影した画像データを表示部6に表示する再生表示処理を実行し(ステップS119)、表示装置1はステップS101に戻る。   Here, a case where the display device 1 is not set to the shooting mode in step S102 (step S102: No) will be described. In this case, the display device 1 executes a reproduction display process for displaying the captured image data on the display unit 6 (step S119), and the display device 1 returns to step S101.

つぎに、図8のステップS119の再生表示処理について説明する。図15は、再生表示処理の概要を示すフローチャートである。図15において、まず、表示制御部95は、画像データ記憶部81に記憶された複数の画像データをまとめて表示した画像選択画面を表示部6に表示させる(ステップS201)。   Next, the reproduction display process in step S119 of FIG. 8 will be described. FIG. 15 is a flowchart showing an outline of the reproduction display process. In FIG. 15, first, the display control unit 95 causes the display unit 6 to display an image selection screen in which a plurality of image data stored in the image data storage unit 81 are displayed together (step S201).

続いて、制御部9は、ユーザがタッチパネル7を操作することによって表示部6が表示する画像選択画面の中から画像が選択されたか否かを判断する(ステップS202)。ユーザによって画像選択画面の中から画像が選択された場合(ステップS202:Yes)、表示装置1は後述するステップS203に移行する。一方、ユーザによって画像選択画面の中から画像が選択されない場合(ステップS202:No)、表示装置1は後述するステップS210に移行する。   Subsequently, the control unit 9 determines whether or not an image is selected from the image selection screen displayed on the display unit 6 when the user operates the touch panel 7 (step S202). When the user selects an image from the image selection screen (step S202: Yes), the display device 1 proceeds to step S203 described later. On the other hand, when the user does not select an image from the image selection screen (step S202: No), the display device 1 proceeds to step S210 to be described later.

まず、ユーザによって画像選択画面の中から画像が選択された場合(ステップS202:Yes)について説明する。この場合、表示制御部95は、ユーザによって選択された画像を表示部6に全画面表示させ(ステップS203)、制御部9は、表示部6が表示する画像が3D画像であるか否かを判断する(ステップS204)。具体的には、制御部9は、表示部6が表示している画像のヘッダ情報を参照して3D画像であるか否かを判断する。表示部6が表示する画像が3D画像である場合(ステップS204:Yes)、表示装置1は後述するステップS205に移行する。一方、表示部6が表示する画像が3D画像でない場合(ステップS204:No)、表示装置1は後述するステップS210に移行する。   First, a case where an image is selected from the image selection screen by the user (step S202: Yes) will be described. In this case, the display control unit 95 causes the display unit 6 to display the image selected by the user on the full screen (step S203), and the control unit 9 determines whether the image displayed on the display unit 6 is a 3D image. Judgment is made (step S204). Specifically, the control unit 9 refers to the header information of the image displayed on the display unit 6 to determine whether the image is a 3D image. When the image displayed on the display unit 6 is a 3D image (step S204: Yes), the display device 1 proceeds to step S205 described later. On the other hand, when the image displayed on the display unit 6 is not a 3D image (step S204: No), the display device 1 proceeds to step S210 to be described later.

ステップS205において、制御部9は、奥行アイコンQ1が操作されたか否かを判断する。奥行アイコンQ1が操作されていない場合(ステップS205:No)、表示装置1はステップS210に移行する。一方、奥行アイコンQ1が操作された場合(ステップS205:Yes)、表示装置1はステップS206に移行する。   In step S205, the control unit 9 determines whether or not the depth icon Q1 has been operated. When the depth icon Q1 is not operated (step S205: No), the display device 1 proceeds to step S210. On the other hand, when the depth icon Q1 is operated (step S205: Yes), the display device 1 proceeds to step S206.

ステップS206において、制御部9は、タッチパネル7が検出した静電容量の変化量に対応する距離が第1の閾値以下であるか否かを判断する(ステップS206)。タッチパネル7が検出した静電容量の変化量に対応する距離が第1の閾値以下である場合(ステップS206:Yes)、制御部9は、その時点で表示部6によって表示されている3D画像の引っ込み距離が限界であるか否かを判断する(ステップS207)。3D画像の引っ込み距離が限界でない場合(ステップS207:No)、飛び出し設定部93は、立体画像生成部92が右目画像データから切出す領域を1/100移動させる変更を行い(ステップS208)、表示装置1はステップS209に移行する。   In step S206, the control unit 9 determines whether or not the distance corresponding to the amount of change in capacitance detected by the touch panel 7 is equal to or less than the first threshold (step S206). When the distance corresponding to the amount of change in capacitance detected by the touch panel 7 is equal to or less than the first threshold (step S206: Yes), the control unit 9 displays the 3D image displayed by the display unit 6 at that time. It is determined whether or not the retraction distance is a limit (step S207). When the retraction distance of the 3D image is not the limit (step S207: No), the pop-out setting unit 93 performs a change to move the area cut out from the right-eye image data by the stereoscopic image generation unit 92 by 1/100 (step S208), and display The apparatus 1 moves to step S209.

これに対して、3D画像の引っ込み距離が限界である場合(ステップS207:Yes)、表示装置1はステップS209に移行する。   On the other hand, when the retracting distance of the 3D image is the limit (step S207: Yes), the display device 1 proceeds to step S209.

ステップS209において、ヘッダ情報生成部97は、その時点で表示部6が表示している3D画像の飛び出し距離を3D画像データのヘッダ情報として生成し、この生成したヘッダ情報と3D画像データとを対応付けて画像データ記憶部81に記憶させる。   In step S209, the header information generation unit 97 generates the 3D image pop-up distance displayed on the display unit 6 at that time as header information of the 3D image data, and associates the generated header information with the 3D image data. In addition, the image data is stored in the image data storage unit 81.

続いて、制御部9は、画像再生の終了操作が行われたか否かを判断する(ステップS210)。具体的には、制御部9は、ユーザによって切換スイッチ43が操作され、画像再生を終了する指示信号が入力されたか否かを判断する。画像再生の終了操作が行われていない場合(ステップS210:No)、表示装置1はステップS201に戻る。一方、画像再生の終了操作が行われた場合(ステップS210:Yes)、表示装置1は図8のメインルーチンに戻る。   Subsequently, the control unit 9 determines whether or not an image reproduction end operation has been performed (step S210). Specifically, the control unit 9 determines whether or not the changeover switch 43 is operated by the user and an instruction signal for ending the image reproduction is input. When the image reproduction end operation is not performed (step S210: No), the display device 1 returns to step S201. On the other hand, when the image reproduction end operation is performed (step S210: Yes), the display device 1 returns to the main routine of FIG.

つぎに、ステップS206において、タッチパネル7が検出した静電容量の変化量に対応する距離が第1の閾値でない場合(ステップS206:No)について説明する。この場合、制御部9は、タッチパネル7が検出した静電容量の変化量に対応する距離が第2の閾値以下であるか否かを判断する(ステップS211)。タッチパネル7が検出した静電容量の変化量に対応する距離が第2の閾値以下である場合(ステップS211:Yes)、制御部9は、その時点で表示部6によって表示されている3D画像の引っ込み距離が限界であるか否かを判断する(ステップS212)。3D画像の引っ込み距離が限界である場合(ステップS212:Yes)、表示装置1はステップS209に移行する。これに対して、3D画像の引っ込み距離が限界でない場合(ステップS212:No)、飛び出し設定部93は、立体画像生成部92が右目画像データから切出す領域を1/20移動させる変更を行い(ステップS213)、表示装置1はステップS209に移行する。   Next, a case will be described in which the distance corresponding to the amount of change in capacitance detected by the touch panel 7 is not the first threshold value in Step S206 (No in Step S206). In this case, the control unit 9 determines whether or not the distance corresponding to the change amount of the capacitance detected by the touch panel 7 is equal to or less than the second threshold (step S211). When the distance corresponding to the change amount of the capacitance detected by the touch panel 7 is equal to or smaller than the second threshold (step S211: Yes), the control unit 9 displays the 3D image displayed on the display unit 6 at that time. It is determined whether or not the retraction distance is a limit (step S212). When the retraction distance of the 3D image is the limit (step S212: Yes), the display device 1 proceeds to step S209. On the other hand, when the retraction distance of the 3D image is not the limit (step S212: No), the pop-out setting unit 93 performs a change to move the area that the stereoscopic image generation unit 92 cuts out from the right-eye image data by 1/20 ( In step S213), the display device 1 proceeds to step S209.

つぎに、ステップS211において、タッチパネル7が検出する静電容量の変化量に対応する距離が第2の閾値以下でない場合(ステップS211:No)について説明する。この場合、制御部9は、その時点で表示部6によって表示されている3D画像の引っ込み距離が限界であるか否かを判断する(ステップS214)。3D画像の引っ込み距離が限界である場合(ステップS214:Yes)、飛び出し設定部93は、立体画像生成部92が右目画像データから切出す領域を初期位置に戻す変更を行い(ステップS215)、表示装置1はステップS209に移行する。   Next, the case where the distance corresponding to the amount of change in capacitance detected by the touch panel 7 is not equal to or smaller than the second threshold in Step S211 will be described (Step S211: No). In this case, the control unit 9 determines whether or not the retraction distance of the 3D image currently displayed by the display unit 6 is the limit (step S214). When the retraction distance of the 3D image is the limit (step S214: Yes), the pop-out setting unit 93 performs a change to return the region cut out from the right-eye image data by the stereoscopic image generation unit 92 to the initial position (step S215) and display The apparatus 1 moves to step S209.

これに対して、3D画像の引っ込み距離が限界でない場合(ステップS214:No)、飛び出し設定部93は、立体画像生成部92が右目画像データから切出す領域を1/10移動させる変更を行い(ステップS216)、表示装置1はステップS209に移行する。   On the other hand, when the retraction distance of the 3D image is not the limit (step S214: No), the pop-out setting unit 93 performs a change to move the area that the stereoscopic image generation unit 92 cuts out from the right-eye image data by 1/10 ( In step S216), the display device 1 proceeds to step S209.

以上説明した本実施の形態によれば、タッチパネル7が外部から接近してくる物体の領域および表示部の表示画面までの距離を検出するとともに、この検出結果に応じた信号の入力を受け付け、飛び出し設定部93が表示部6によって表示される3D画像に対し、タッチパネル7が所定の領域で受け付けた信号に応じて3D画像の飛び出す距離を設定し、表示制御部95が飛び出し設定部93によって設定された3D画像を表示部6に表示させる制御を行う。これにより、ユーザは、3D画像である奥行アイコンQ1を仮想的にタッチしながら3D画像の変化を確認しながら自然に調整することができるという効果を奏する。   According to the present embodiment described above, the touch panel 7 detects the distance to the object area approaching from the outside and the display screen of the display unit, accepts the input of a signal corresponding to the detection result, and jumps out. For the 3D image displayed by the display unit 6, the setting unit 93 sets the distance at which the 3D image pops out according to the signal received by the touch panel 7 in a predetermined area, and the display control unit 95 is set by the popping setting unit 93. Control is performed to display the 3D image on the display unit 6. Thereby, the user can naturally adjust while confirming the change of the 3D image while virtually touching the depth icon Q1 which is a 3D image.

また、上述した本実施の形態では、撮像部2が互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成していたが、たとえば、一つの撮像部のみを有する構成とし、この撮像部で連続的に撮影することにより、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成するようにしてもよい。   In the above-described embodiment, the imaging unit 2 generates two pieces of image data in which the left and right ends of each field of view overlap each other. For example, the imaging unit 2 has only one imaging unit. Further, two image data in which one end in the left-right direction of each field of view overlaps may be generated by continuously capturing images with this imaging unit.

また、上述した本実施の形態では、撮像部2が互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成していたが、たとえば、一つの撮像素子のみを有する構成とし、この1つの撮像素子の撮影領域内に2つの光学系によって集光した2像に対応する2つの画像データを用いることにより、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成するようにしてもよい。   In the above-described embodiment, the imaging unit 2 generates two pieces of image data in which the left and right ends of each field of view overlap each other. For example, the imaging unit 2 includes only one imaging element. By using two image data corresponding to two images collected by two optical systems in the imaging region of this one image sensor, two images in which one end in the horizontal direction of each field of view overlaps each other. Data may be generated.

また、姿勢検出部3は、表示装置1の姿勢状態を検出していたが、たとえば、ユーザが表示部6の表示画面をタップした際に生じる加速度を検出することにより、表示装置1の各種撮影モードや各種設定を切換えるタップ操作の操作信号を受け付け、この操作信号を制御部9に出力するようにしてもよい。   Further, the posture detection unit 3 detects the posture state of the display device 1. For example, the posture detection unit 3 detects various accelerations of the display device 1 by detecting acceleration generated when the user taps the display screen of the display unit 6. An operation signal for a tap operation for switching between modes and various settings may be received, and this operation signal may be output to the control unit 9.

また、上述した本実施の形態では、飛び出し設定部93は、表示部6が表示する3D画像に設けられた奥行アイコンQ1が操作された場合に立体画像生成部92が生成する右目画像データおよび左目画像データからそれぞれ切出す領域を変更し、3D画像の飛び出し距離を設定していたが、たとえばレンズ駆動部21b,22bをそれぞれ同期させながら駆動し、第1撮像部21および第2撮像部22それぞれの視野領域を変更することにより、3D画像の飛び出し距離を設定するようにしてもよい。   Further, in the present embodiment described above, the pop-out setting unit 93 performs the right-eye image data and the left-eye generated by the stereoscopic image generation unit 92 when the depth icon Q1 provided in the 3D image displayed on the display unit 6 is operated. The area to be cut out from the image data is changed and the pop-out distance of the 3D image is set. The pop-out distance of the 3D image may be set by changing the viewing area.

また、上述した本実施の形態では、飛び出し設定部93は、表示部6が表示する3D画像に設けられた奥行アイコンQ1が操作された場合に立体画像生成部92が生成する右目画像データおよび左目画像データからそれぞれ切出す領域を段階的に変更していたが、たとえばタッチパネル7が受け付けた信号に応じて連続的に切出す領域を変更してもよい。   Further, in the present embodiment described above, the pop-out setting unit 93 performs the right-eye image data and the left-eye generated by the stereoscopic image generation unit 92 when the depth icon Q1 provided in the 3D image displayed on the display unit 6 is operated. Although the regions to be cut out from the image data are changed in stages, for example, the regions to be continuously cut out may be changed according to a signal received by the touch panel 7.

また、上述した本実施の形態では、ユーザが奥行アイコンQ1を操作した場合に3D画像の飛び出し距離を変更する設定を行っていたが、たとえばユーザが3D画像内に含まれる被写体A1を操作することにより、3D画像の飛び出し距離を変更する設定を行ってもよい。この場合、飛び出し設定部93は、タッチパネル7が受け付けた信号によって指定された被写体に対し、右目画像および左目画像における被写体の重なり具合(視差)を調整することによって3D画像の飛び出し距離を設定するようにしてもよい。   Further, in the present embodiment described above, when the user operates the depth icon Q1, the setting is made to change the pop-up distance of the 3D image. For example, the user operates the subject A1 included in the 3D image. Thus, the setting for changing the pop-out distance of the 3D image may be performed. In this case, the pop-out setting unit 93 sets the pop-up distance of the 3D image by adjusting the overlapping state (parallax) of the subject in the right eye image and the left eye image with respect to the subject specified by the signal received by the touch panel 7. It may be.

また、上述した本実施の形態では、タッチパネル7の検出部75が静電容量の変化に対応する距離を検出していたが、たとえばバックライト61による照射光の表示部6の外部からの反射光を検出する光センサを設け、この光センサが検出する時間に応じて、飛び出し設定部93は、3D画像の飛び出し距離を設定してもよい。この場合、タッチパネルとしては光電方式のタッチパネルを用いればよい。   In the above-described embodiment, the detection unit 75 of the touch panel 7 detects the distance corresponding to the change in capacitance. For example, the reflected light from the outside of the display unit 6 of the irradiation light by the backlight 61 is detected. The pop-out setting unit 93 may set the pop-out distance of the 3D image according to the time detected by the optical sensor. In this case, a photoelectric touch panel may be used as the touch panel.

また、上述した本実施の形態では、タッチパネル7の検出部75が静電容量の変化に対応する距離を検出していたが、たとえば赤外線センサを設け、この赤外センサがフロントパネル71に向けて赤外線を照射することにより、ユーザがフロントパネル71に触れた領域の面積に応じて、飛び出し設定部93は、3D画像の飛び出し距離を設定してもよい。この場合、タッチパネルとしては赤外線方式のタッチパネルを用いればよい。   In the present embodiment described above, the detection unit 75 of the touch panel 7 detects the distance corresponding to the change in capacitance. For example, an infrared sensor is provided, and this infrared sensor faces the front panel 71. The projection setting unit 93 may set the projection distance of the 3D image according to the area of the area where the user touches the front panel 71 by irradiating infrared rays. In this case, an infrared touch panel may be used as the touch panel.

また、上述した本実施の形態では、飛び出し設定部93は、表示部6が表示するスルー画像または画像データ記憶部81に記憶された画像データに対して本処理を行っていたが、たとえば撮影直後に表示部6がレックビュー表示する画像に対して本処理を行ってもよい。   Further, in the present embodiment described above, the pop-out setting unit 93 performs this processing on the through image displayed on the display unit 6 or the image data stored in the image data storage unit 81. Alternatively, this processing may be performed on an image that the display unit 6 displays in REC view.

また、上述した本実施の形態では、表示部6が表示する画像W3に設けられたEVアイコンQ3が操作された場合に、露出調整部94が撮像部2の露出を調整していたが、たとえば画像W2にズームアイコンを設け、このズームアイコンがユーザによって操作された場合に撮像部2のズーム倍率を変更するようにしてもよい。さらに、撮像モードを切換えるモード切換えアイコン等を表示部6が表示する画像W2に設けてもよい。   In the present embodiment described above, when the EV icon Q3 provided in the image W3 displayed on the display unit 6 is operated, the exposure adjustment unit 94 adjusts the exposure of the imaging unit 2. A zoom icon may be provided in the image W2, and the zoom magnification of the imaging unit 2 may be changed when the zoom icon is operated by the user. Further, a mode switching icon or the like for switching the imaging mode may be provided on the image W2 displayed on the display unit 6.

また、上述した本実施の形態では、表示装置1をデジタルステレオカメラとして説明していたが、たとえばデジタルビデオカメラ、カメラ付き携帯電話等の撮影機能および表示機能を備えた各種電子機器に適用することができる。   In the above-described embodiment, the display device 1 has been described as a digital stereo camera. However, the display device 1 may be applied to various electronic devices having a shooting function and a display function, such as a digital video camera and a mobile phone with a camera. Can do.

1 表示装置
2 撮像部
3 姿勢検出部
4 操作入力部
5 時計
6 表示部
7 タッチパネル
8 記憶部
9 制御部
21 第1撮像部
21a,22a レンズ部
21b,22b レンズ駆動部
21c,22c 絞り
21d,22d 絞り駆動部
21e,22e シャッタ
21f,22f シャッタ駆動部
21g,22g 撮像素子
21h,22h 信号処理部
22 第2撮像部
41 電源スイッチ
42 レリーズスイッチ
43 切換スイッチ
44 ズームスイッチ
61 バックライト
62 表示パネル
63 視差バリア
71 フロントパネル
72 駆動部
73 駆動電極
74 受信電極
75 検出部
81 画像データ記憶部
82 プログラム記憶部
91 画像処理部
92 立体画像生成部
93 飛び出し設定部
94 露出調整部
95 表示制御部
96 画像制御部
97 ヘッダ情報生成部
L1,L2 光軸
O1 右目
O2 左目
O3 指
DESCRIPTION OF SYMBOLS 1 Display apparatus 2 Image pick-up part 3 Posture detection part 4 Operation input part 5 Clock 6 Display part 7 Touch panel 8 Storage part 9 Control part 21 1st image pick-up part 21a, 22a Lens part 21b, 22b Lens drive part 21c, 22c Aperture 21d, 22d Aperture driving unit 21e, 22e Shutter 21f, 22f Shutter driving unit 21g, 22g Image sensor 21h, 22h Signal processing unit 22 Second imaging unit 41 Power switch 42 Release switch 43 Changeover switch 44 Zoom switch 61 Backlight 62 Display panel 63 Parallax barrier 71 Front Panel 72 Drive Unit 73 Drive Electrode 74 Receive Electrode 75 Detection Unit 81 Image Data Storage Unit 82 Program Storage Unit 91 Image Processing Unit 92 Stereo Image Generation Unit 93 Projection Setting Unit 94 Exposure Adjustment Unit 95 Display Control Unit 96 Image Control Unit 97 F Ladder information generator L1, L2 Optical axis O1 Right eye O2 Left eye O3 Finger

Claims (7)

互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを組み合わせて生成された3次元画像を表示する表示部と、
前記表示部の表示画面上に設けられ、外部から接近してくる物体の領域および該表示画面までの距離を検出するとともに、該検出結果に応じた信号の入力を受け付けるタッチパネルと、
前記表示部が表示する前記3次元画像に対し、前記タッチパネルが所定の領域で受け付けた信号に応じて前記3次元画像が前記表示画面と直交する垂直な方向へ仮想的に飛び出す距離を設定する飛び出し設定部と、
前記飛び出し設定部が設定した前記3次元画像を前記表示部に表示させる制御を行う表示制御部と、
を備えたことを特徴とする表示装置。
A display unit that displays a three-dimensional image generated by combining two image data in which one end in the left-right direction of each field of view overlaps;
A touch panel provided on the display screen of the display unit, detecting a region of an object approaching from the outside and a distance to the display screen, and receiving a signal input according to the detection result;
A pop-up that sets a distance for the three-dimensional image to virtually pop out in a vertical direction orthogonal to the display screen in response to a signal received by the touch panel in a predetermined area with respect to the three-dimensional image displayed by the display unit. A setting section;
A display control unit for controlling the display unit to display the three-dimensional image set by the pop-out setting unit;
A display device comprising:
異なる位置から撮影し、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する撮像部と、
前記撮像部が生成した前記2つの画像データに対応する2つの画像に対し、所定の縦横比率で切出して前記3次元画像を生成する立体画像生成部と、
をさらに備え、
前記飛び出し設定部は、前記立体画像生成部による前記2つの画像データの切出す領域を変更することにより、前記3次元画像の前記飛び出す距離を設定し、
前記表示制御部は、前記飛び出し設定部が設定した前記2つの画像データに対応する画像を、前記表示画面における水平方向の1画素毎に交互に並べて前記表示部に出力する制御を行うことを特徴とする請求項1に記載の表示装置。
An imaging unit that captures images from different positions and generates two image data in which one end in the left-right direction of each field of view overlaps;
A stereoscopic image generating unit that generates the three-dimensional image by cutting out the two images corresponding to the two image data generated by the imaging unit at a predetermined aspect ratio;
Further comprising
The pop-out setting unit sets the pop-out distance of the three-dimensional image by changing a region to be cut out of the two image data by the stereoscopic image generation unit,
The display control unit performs control to alternately arrange images corresponding to the two image data set by the pop-out setting unit for each pixel in the horizontal direction on the display screen and output the images to the display unit. The display device according to claim 1.
前記飛び出し設定部は、前記タッチパネルが受け付けた信号に応じて、前記立体画像生成部による前記2つの画像データの切出す領域を、前記2つの画像データに含まれる被写体の視差を小さくする方向に向けて段階的に変更することを特徴とする請求項2に記載の表示装置。   The pop-out setting unit directs a region from which the two image data is cut out by the stereoscopic image generation unit in a direction to reduce the parallax of the subject included in the two image data in accordance with a signal received by the touch panel. The display device according to claim 2, wherein the display device is changed step by step. 前記表示部が表示する前記3次元画像に対し、前記タッチパネルが受け付けた信号に応じて前記撮像部の露出を調整する露出調整部をさらに備え、
前記表示制御部は、前記露出調整部が調整した前記3次元画像を前記表示部に表示させる制御を行うことを特徴とする請求項1〜3のいずれか一つに記載の表示装置。
An exposure adjustment unit that adjusts the exposure of the imaging unit according to a signal received by the touch panel for the three-dimensional image displayed by the display unit;
The display device according to claim 1, wherein the display control unit performs control to display the three-dimensional image adjusted by the exposure adjustment unit on the display unit.
前記飛び出し設定部が設定した前記3次元画像の飛び出し距離を、前記2つの画像データのヘッダ情報として生成するヘッダ情報生成部と、
前記撮像部が生成する複数の画像データと前記ヘッダ情報生成部が生成するヘッダ情報とを対応付けて記憶する記憶部と、
をさらに備えたことを特徴とする請求項1〜4のいずれか一つに記載の表示装置。
A header information generating unit that generates a pop-out distance of the three-dimensional image set by the pop-out setting unit as header information of the two image data;
A storage unit that associates and stores a plurality of image data generated by the imaging unit and header information generated by the header information generation unit;
The display device according to claim 1, further comprising:
互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを組み合わせて生成された3次元操作画像を所定の領域に表示する表示部と、
前記表示部の表示画面上に設けられ、外部から接近してくる物体の領域および該表示画面までの距離を検出するとともに、該検出結果に応じた信号の入力を受け付けるタッチパネルと、
前記表示部が表示する前記3次元操作画像に対し、前記タッチパネルが受け付けた信号によって指定された前記3次元操作画像の前記表示画面と直交する垂直な方向へ仮想的に飛び出す距離を設定する飛び出し設定部と、
前記飛び出し設定部が設定した前記3次元操作画像を前記表示部に表示させる制御を行う表示制御部と、
前記3次元操作画像の表示変化に応じて、前記表示部が表示する画像の3次元的な表示態様を変更させる制御を行う画像制御部と、
を備えたことを特徴とする表示装置。
A display unit that displays, in a predetermined area, a three-dimensional operation image generated by combining two image data in which one end in the left-right direction of each field of view overlaps;
A touch panel provided on the display screen of the display unit, detecting a region of an object approaching from the outside and a distance to the display screen, and receiving a signal input according to the detection result;
A pop-out setting for setting a distance to virtually jump out in a direction perpendicular to the display screen of the three-dimensional operation image specified by the signal received by the touch panel for the three-dimensional operation image displayed by the display unit And
A display control unit for controlling the display unit to display the three-dimensional operation image set by the pop-out setting unit;
An image control unit that performs control to change a three-dimensional display mode of an image displayed by the display unit in accordance with a display change of the three-dimensional operation image;
A display device comprising:
異なる位置から撮影し、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する撮像部をさらに備え、
前記表示制御部は、前記撮像部が撮影した前記2つの画像データに対応する画像を、前記表示画面における水平方向の1画素毎に交互に並べて前記表示部に出力し、
前記画像制御部は、前記撮像部が撮影した前記2つの画像データに対応する画像の3次元的な表示態様を変更することを特徴とする請求項6に記載の表示装置。
It further includes an imaging unit that captures images from different positions and generates two image data in which one end in the left-right direction of each field of view overlaps,
The display control unit alternately outputs an image corresponding to the two image data captured by the imaging unit to the display unit for each horizontal pixel in the display screen,
The display device according to claim 6, wherein the image control unit changes a three-dimensional display mode of an image corresponding to the two image data captured by the imaging unit.
JP2010171148A 2010-07-26 2010-07-29 Display device Pending JP2012032964A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010171148A JP2012032964A (en) 2010-07-29 2010-07-29 Display device
US13/189,895 US20120019528A1 (en) 2010-07-26 2011-07-25 Display apparatus, display method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010171148A JP2012032964A (en) 2010-07-29 2010-07-29 Display device

Publications (2)

Publication Number Publication Date
JP2012032964A true JP2012032964A (en) 2012-02-16
JP2012032964A5 JP2012032964A5 (en) 2013-06-27

Family

ID=45846308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010171148A Pending JP2012032964A (en) 2010-07-26 2010-07-29 Display device

Country Status (1)

Country Link
JP (1) JP2012032964A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103981A (en) * 2010-11-11 2012-05-31 Sony Corp Information processor, stereoscopic vision display method and program
JP2013066028A (en) * 2011-09-16 2013-04-11 Nikon Corp Display device and display control program
WO2013165006A1 (en) * 2012-05-01 2013-11-07 セントラルエンジニアリング株式会社 Stereo camera and stereo camera system
JP2022131735A (en) * 2021-02-26 2022-09-07 パナソニックIpマネジメント株式会社 User interface device, control method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317429A (en) * 1995-05-23 1996-11-29 Matsushita Electric Ind Co Ltd Stereoscopic electronic zoom device and stereoscopic image quality control device
JP2004120165A (en) * 2002-09-25 2004-04-15 Sharp Corp Electronics
JP2006293878A (en) * 2005-04-14 2006-10-26 Nippon Telegr & Teleph Corp <Ntt> Image display system, image display method, and image display program
WO2007114225A1 (en) * 2006-03-31 2007-10-11 Pioneer Corporation Stereo two-dimensional image display
JP2010103941A (en) * 2008-10-27 2010-05-06 Hoya Corp Camera control system, and digital camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317429A (en) * 1995-05-23 1996-11-29 Matsushita Electric Ind Co Ltd Stereoscopic electronic zoom device and stereoscopic image quality control device
JP2004120165A (en) * 2002-09-25 2004-04-15 Sharp Corp Electronics
JP2006293878A (en) * 2005-04-14 2006-10-26 Nippon Telegr & Teleph Corp <Ntt> Image display system, image display method, and image display program
WO2007114225A1 (en) * 2006-03-31 2007-10-11 Pioneer Corporation Stereo two-dimensional image display
JP2010103941A (en) * 2008-10-27 2010-05-06 Hoya Corp Camera control system, and digital camera

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103981A (en) * 2010-11-11 2012-05-31 Sony Corp Information processor, stereoscopic vision display method and program
US9456203B2 (en) 2010-11-11 2016-09-27 Sony Corporation Information processing apparatus, stereoscopic display method, and program
US10349034B2 (en) 2010-11-11 2019-07-09 Sony Corporation Information processing apparatus, stereoscopic display method, and program
US10652515B2 (en) 2010-11-11 2020-05-12 Sony Corporation Information processing apparatus, stereoscopic display method, and program
JP2013066028A (en) * 2011-09-16 2013-04-11 Nikon Corp Display device and display control program
WO2013165006A1 (en) * 2012-05-01 2013-11-07 セントラルエンジニアリング株式会社 Stereo camera and stereo camera system
JPWO2013165006A1 (en) * 2012-05-01 2015-12-24 セントラルエンジニアリング株式会社 Stereo camera and stereo camera system
JP2022131735A (en) * 2021-02-26 2022-09-07 パナソニックIpマネジメント株式会社 User interface device, control method, and program

Similar Documents

Publication Publication Date Title
JP5704854B2 (en) Display device
US20120019528A1 (en) Display apparatus, display method, and computer-readable recording medium
CN103392342B (en) Method and device for adjusting viewing zone, device capable of realizing stereoscopic display of video signals
JP5640155B2 (en) Stereoscopic image pickup apparatus and in-focus state confirmation image display method
CN116126170A (en) Display device and control device
JP5530322B2 (en) Display device and display method
US10185462B2 (en) Image processing apparatus and method
KR20160074223A (en) Image pick-up apparatus, portable terminal including the same and image pick-up method using the apparatus
JP2012033104A (en) Display device and imaging device
JP5857082B2 (en) Display device and electronic device
JP5675197B2 (en) Display device
JP5750779B2 (en) Imaging apparatus, image communication system, and image communication method
JP2012032964A (en) Display device
US9727144B2 (en) 3D interaction apparatus, display device including the same, and method of driving the same
JP2012090063A (en) Imaging apparatus
JP5754044B2 (en) Imaging apparatus and image communication system
TWI505708B (en) Image capture device with multiple lenses and method for displaying stereo image thereof
KR100704634B1 (en) Apparatus and method for displaying a stereoscopic image according to a user&#39;s location
JP5586377B2 (en) Display device
JP5646252B2 (en) Display device
EP2717582B1 (en) Camera module and apparatus for calibrating position thereof
JP5638985B2 (en) Imaging apparatus and imaging program
EP4539452A1 (en) Image capturing apparatus, control method therefor, program, and storage medium
KR20130092723A (en) Mobile terminal and method for controlling thereof
JP2012058903A (en) Display device and imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140325

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140826