[go: up one dir, main page]

JP2014116843A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2014116843A
JP2014116843A JP2012270522A JP2012270522A JP2014116843A JP 2014116843 A JP2014116843 A JP 2014116843A JP 2012270522 A JP2012270522 A JP 2012270522A JP 2012270522 A JP2012270522 A JP 2012270522A JP 2014116843 A JP2014116843 A JP 2014116843A
Authority
JP
Japan
Prior art keywords
image
viewpoint
dimensional image
dimensional
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012270522A
Other languages
Japanese (ja)
Inventor
Hiroshi Tanioka
宏 谷岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012270522A priority Critical patent/JP2014116843A/en
Publication of JP2014116843A publication Critical patent/JP2014116843A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザーの視点に応じて、多視点の3次元表示器に表示される3次元画像のうち、任意の画像を指定する。
【解決手段】多視点の3次元画像情報取得部601は、記憶装置またはネットワーク制御部から3次元画像情報を取得する。3次元画像生成部602は、3次元画像情報取得部601で取得した3次元画像情報に基づいて、3次元画像を生成する。3次元画像指定部603は、タッチパネル、キーボード、マウス等及び撮像装置を用いたユーザーの指示に基づいて、3次元表示器に入力される3次元画像情報に含まれる複数の3次元画像情報の中から、3次元画像情報の一部の画像情報が指定される。この指定によりユーザーが望む視点を正確に指定することができ、所定の位置の画像を正確に指定することができる。
【選択図】図6
An arbitrary image is designated from among three-dimensional images displayed on a multi-viewpoint three-dimensional display according to a user's viewpoint.
A multi-view three-dimensional image information acquisition unit 601 acquires three-dimensional image information from a storage device or a network control unit. The 3D image generation unit 602 generates a 3D image based on the 3D image information acquired by the 3D image information acquisition unit 601. The three-dimensional image designating unit 603 includes a plurality of three-dimensional image information included in the three-dimensional image information input to the three-dimensional display based on a user instruction using a touch panel, a keyboard, a mouse, and the like and an imaging device. Thus, a part of the image information of the three-dimensional image information is designated. By this designation, the viewpoint desired by the user can be designated accurately, and an image at a predetermined position can be designated accurately.
[Selection] Figure 6

Description

本発明は、多視点の3次元画像を表示し、ユーザーが任意の視点から見た3次元画像の一部分の画像を指定できる画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program that display a multi-view three-dimensional image and allow a user to designate a partial image of the three-dimensional image viewed from an arbitrary viewpoint.

従来、2次元画像を表示する2次元表示器の表示画面にタッチパネルを配置し、表示画面に表示された2次元画像の一部分をユーザーが指等で直接タッチして指定することが知られている。この2次元表示器のタッチパネルでは、表示画像とタッチする表示位置とが1対1で対応するため、ユーザーが望む画像を正確に指定することができる。   Conventionally, it is known that a touch panel is arranged on a display screen of a two-dimensional display that displays a two-dimensional image, and a user directly specifies a part of the two-dimensional image displayed on the display screen with a finger or the like. . In the touch panel of this two-dimensional display, the display image and the touched display position correspond one-to-one, so that the image desired by the user can be designated accurately.

一方、特許文献1には、ボタンやスイッチ等の操作部品の3次元画像を3次元表示器の表示画面に表示し、タッチパネルを用いてユーザーがその3次元画像にタッチする技術が開示されている。さらに、これによって、その3次元画像の表示状態を立体的に変化させることが開示されている。この特許文献1では、一つの視点から撮像して得られた3次元画像を表示画面に表示しているため、表示画像とタッチする表示位置とを1対1で対応させることができる。   On the other hand, Patent Document 1 discloses a technique in which a three-dimensional image of an operation component such as a button or a switch is displayed on a display screen of a three-dimensional display, and a user touches the three-dimensional image using a touch panel. . Furthermore, it is disclosed that the display state of the three-dimensional image is changed three-dimensionally. In this patent document 1, since the three-dimensional image obtained by imaging from one viewpoint is displayed on the display screen, the display image and the touched display position can be associated with each other on a one-to-one basis.

特開平10−105735号公報Japanese Patent Laid-Open No. 10-105735

しかしながら、多視点の3次元画像を表示画面に表示する場合には、同一の表示位置であっても、ユーザーの視点によって表示画像が異なるため、表示画像とタッチする表示位置とは1対1では対応していない。そのため、ユーザーがタッチする表示位置を検出するだけでは、どの視点から見た表示画像の一部分をタッチしているのかを特定することができず、ユーザーが望む画像を正確に指定することができないという問題がある。   However, when a multi-viewpoint three-dimensional image is displayed on the display screen, the display image differs depending on the user's viewpoint even at the same display position. Not supported. For this reason, simply detecting the display position touched by the user cannot identify from which viewpoint a part of the display image is touched, and cannot accurately specify the image desired by the user. There's a problem.

ここで、「多視点の3次元画像」とは、同一被写体を複数の視点から撮像して得られた複数の視点の3次元画像のことである。また、「視点」とは、3次元表示器の位置から見たユーザーの両目の位置のことを示し、1つの視点にはユーザーの右目用の画像と左目用の画像とが届けられる。   Here, the “multi-viewpoint three-dimensional image” is a three-dimensional image of a plurality of viewpoints obtained by imaging the same subject from a plurality of viewpoints. The “viewpoint” indicates the position of both eyes of the user as viewed from the position of the three-dimensional display, and an image for the user's right eye and an image for the left eye are delivered to one viewpoint.

このような課題を解決するため、本発明に係る画像処理装置は、多視点の3次元画像情報を入力して3次元画像を表示する画像表示手段と、画像表示手段で表示される3次元画像の一部分の画像を指定する画像指定手段とを備えることを特徴とする。   In order to solve such a problem, an image processing apparatus according to the present invention includes an image display unit that inputs multi-viewpoint 3D image information and displays a 3D image, and a 3D image displayed by the image display unit. And image designating means for designating a part of the image.

本発明によれば、ユーザーの視点に応じて、所望する3次元表示器に表示された所定の位置の画像を正確に指定することができる。   According to the present invention, it is possible to accurately specify an image at a predetermined position displayed on a desired three-dimensional display according to the viewpoint of the user.

本発明の一実施例に係る画像処理装置の一例を示す概略図である。1 is a schematic diagram illustrating an example of an image processing apparatus according to an embodiment of the present invention. 本発明の一実施例に係る表示器をより詳細に説明する図である。It is a figure explaining the display which concerns on one Example of this invention in detail. 本発明の一実施例に係る多視点と撮像画像との関係を示す図である。It is a figure which shows the relationship between the multi viewpoint based on one Example of this invention, and a captured image. 本発明の一実施例に係る視点の違いによる多視点の3次元画像の見え方を示す図である。It is a figure which shows the appearance of the multi-viewpoint three-dimensional image by the difference in viewpoint which concerns on one Example of this invention. 本発明の一実施例に係るユーザーと表示器との相対的位置関係、および表示器でユーザーが見る画像を示す図である。It is a figure which shows the relative positional relationship of the user and display which concern on one Example of this invention, and the image which a user sees with a display. 本発明の一実施例に係る画像処理部の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the image process part which concerns on one Example of this invention. 本発明の一実施例に係る多視点の3次元画像の画像指定処理のフローチャートを示す図である。It is a figure which shows the flowchart of the image designation | designated process of the multiview 3D image which concerns on one Example of this invention. 本発明の一実施例に係る多視点の3次元画像から所望する視点を選択する手順の一例を示す図である。It is a figure which shows an example of the procedure which selects the desired viewpoint from the multidimensional 3D image which concerns on one Example of this invention. 本発明の他の実施例に係る多視点の3次元画像の画像指定処理のフローチャートを示す図である。It is a figure which shows the flowchart of the image designation | designated process of the multiview three-dimensional image which concerns on the other Example of this invention. 本発明の他の実施例に係る視点認識の原理を表す図である。It is a figure showing the principle of viewpoint recognition which concerns on the other Example of this invention. 本発明の他の実施例に係る視点認識処理の一例を示すフローチャートである。It is a flowchart which shows an example of the viewpoint recognition process which concerns on the other Example of this invention. 一般的なパララックスバリア方式の3次元表示器の表示原理を表す図である。It is a figure showing the display principle of the three-dimensional display of a general parallax barrier system. 本発明の他の実施例に係るパララックスバリア方式による画像の表示の一例を示す図である。It is a figure which shows an example of the display of the image by the parallax barrier system which concerns on the other Example of this invention.

実施例の説明に先立って、本明細書で用いる用語について簡単に説明する。   Prior to the description of the embodiments, terms used in this specification will be briefly described.

「2次元画像」とは、表示器で表示する、例えば人や風景などを表す2次元の画像そのものを示している。   The “two-dimensional image” indicates a two-dimensional image itself that is displayed on a display device and represents, for example, a person or a landscape.

「3次元画像」とは、3次元表示器で表示される、例えば人や風景などを表す3次元の画像そのものを示している。すなわち、3次元画像は、視差を有する複数の2次元画像で構成される。   The “three-dimensional image” indicates a three-dimensional image itself displayed on a three-dimensional display, for example, representing a person or a landscape. That is, the three-dimensional image is composed of a plurality of two-dimensional images having parallax.

「2次元画像情報」または「3次元画像情報」とは、上記の2次元画像または3次元画像を表示するための信号源を示している。   “2D image information” or “3D image information” indicates a signal source for displaying the 2D image or 3D image.

次に、簡単に3次元表示器について説明する。3次元表示器は、3次元画像情報として、その表示器の1つの画面中に複数の2次元画像を示す複数の2次元画像情報を同時に表示している。具体的には、3次元表示器に表示される2次元画像は、左目および右目の各視点から見た少なくとも2枚以上の複数の2次元画像情報に基づいている。したがって、その3次元表示器の表示画面上の同じ位置の近傍に3次元表示された3次元画像は、ユーザーの視点の位置によって大きく異なることになる。   Next, the three-dimensional display will be briefly described. The three-dimensional display device simultaneously displays a plurality of two-dimensional image information indicating a plurality of two-dimensional images on one screen of the display device as three-dimensional image information. Specifically, the two-dimensional image displayed on the three-dimensional display is based on at least two or more pieces of two-dimensional image information viewed from each viewpoint of the left eye and the right eye. Therefore, the three-dimensional image displayed three-dimensionally in the vicinity of the same position on the display screen of the three-dimensional display greatly varies depending on the position of the user's viewpoint.

以下、本発明を実施するための形態について図面を用いて説明する。本実施形態では、画像処理装置を例に説明するが、これに限定されるものではない。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In the present embodiment, an image processing apparatus will be described as an example, but the present invention is not limited to this.

<実施例1>
図1は、本実施例1の画像処理装置1の一例を示す概略図である。図1において本実施例の画像処理装置1は、一般的なパーソナルコンピュータ(以後PCと称する)2および3次元画像情報に基づいた3次元画像を画像表示するための表示器3を有する。PC2は、ネットワーク回線4等からネットワーク制御部5を介して3次元画像情報等を取得する。
<Example 1>
FIG. 1 is a schematic diagram illustrating an example of an image processing apparatus 1 according to the first embodiment. In FIG. 1, an image processing apparatus 1 according to this embodiment includes a general personal computer (hereinafter referred to as a PC) 2 and a display 3 for displaying a three-dimensional image based on three-dimensional image information. The PC 2 acquires 3D image information and the like from the network line 4 and the like via the network control unit 5.

PC2は、CPU(Central Processing Unit)10で制御される。PC2は、3次元画像情報や本実施例に用いられるプログラム等を保持する記憶装置20を有する。またPC2は、本各種設定やプログラムを格納するROM(Read Only Memory)30及び、一時的な記憶装置として機能するRAM(Random Access Memory)40を有する。表示器3は、3次元画像を表示する3次元表示器50を有する。また、表示器3は、3次元表示器50の表示面にタッチパネル60を有し、表示した3次元画像を直接タッチして指定すると共に、キーボード70と同様にユーザーのPCへの各種の入力操作を可能にする。キーボード70は、PC2に設けられているマウスタッチパッド80に接続されている。撮像装置90は、一般的な表示器に装備された物で、ユーザーの位置を認識するために3次元表示器50の近傍に設けられている。PC2には、印刷物を出力するプリンター100がネットワーク制御部5を介して接続されている。   The PC 2 is controlled by a CPU (Central Processing Unit) 10. The PC 2 includes a storage device 20 that holds 3D image information, a program used in the present embodiment, and the like. The PC 2 also includes a ROM (Read Only Memory) 30 that stores the various settings and programs, and a RAM (Random Access Memory) 40 that functions as a temporary storage device. The display 3 has a three-dimensional display 50 that displays a three-dimensional image. The display device 3 has a touch panel 60 on the display surface of the three-dimensional display device 50, specifies the displayed three-dimensional image by directly touching it, and performs various input operations to the user's PC as with the keyboard 70. Enable. The keyboard 70 is connected to a mouse touch pad 80 provided on the PC 2. The imaging device 90 is a thing equipped with a general display, and is provided in the vicinity of the three-dimensional display 50 in order to recognize a user's position. A printer 100 that outputs printed matter is connected to the PC 2 via the network control unit 5.

図2は、図1で示した表示器3をより詳細に説明する図である。図2(a)において、3次元表示器50として用いられるレンチキュラー多視点表示器200は、液晶表示部201とその上面にレンチキュラーレンズ202とを有する。更にレンチキュラーレンズ202の上面にタッチパネル60を有し、画面中央部に撮像装置90を有する。   FIG. 2 is a diagram for explaining the display 3 shown in FIG. 1 in more detail. 2A, a lenticular multi-viewpoint display 200 used as the three-dimensional display 50 includes a liquid crystal display unit 201 and a lenticular lens 202 on the upper surface thereof. Furthermore, the touch panel 60 is provided on the upper surface of the lenticular lens 202, and the imaging device 90 is provided at the center of the screen.

図2(b)に、多視点の3次元画像を表示するための、各レンチキュラーレンズ202と相対的位置が保証された各表示画素とを示す。図2(b)のレンチキュラー多視点表示器200は、ユーザーが6方向からこのレンチキュラー多視点表示器200を見た場合の多視点の3次元画像の表示を可能にする。そのため、各レンチキュラーレンズ202内には、それぞれ画素203から画素204までの一続きの7つの表示画素を持っている。なお、レンチキュラー多視点表示器200は、公知の技術で一般的に実現される物で、カラー表示可能であるが、説明を簡略化するため、本実施例では単色表示可能であるものとする。また、以後の図において表示画素の並びを1次元的に表現する。なお、以下で単に「視点」と述べる場合は、レンチキュラー多視点表示器200の位置から見たユーザーの両目の位置のことを示す。そして、1つの「視点」には、ユーザーの右目用の画像と左目用の画像とが届けられる。   FIG. 2B shows each lenticular lens 202 and each display pixel with a guaranteed relative position for displaying a multi-viewpoint three-dimensional image. The lenticular multi-view display 200 in FIG. 2B enables display of a multi-view three-dimensional image when the user views the lenticular multi-view display 200 from six directions. Therefore, each lenticular lens 202 has a series of seven display pixels from pixel 203 to pixel 204. Note that the lenticular multi-viewpoint display device 200 is generally realized by a known technique and can perform color display. However, in order to simplify the description, it is assumed that monochrome display is possible in this embodiment. In the subsequent drawings, the arrangement of display pixels is expressed one-dimensionally. In the following description, the term “viewpoint” simply indicates the position of both eyes of the user as viewed from the position of the lenticular multi-viewpoint display 200. Then, the user's right eye image and left eye image are delivered to one “viewpoint”.

図2(c)と図2(d)にそれぞれ異なる位置の視点1と視点4からユーザーが見た場合に見える画素を示す。すなわち、レンチキュラーレンズ202の光学特性によって、視点1のユーザーの右目では画素2のみが見え、視点1のユーザーの左目では画素1のみが見える。また、視点4のユーザーの右目では画素5のみが見え、視点4のユーザーの左目では画素4のみが見える。このようなレンチキュラーレンズ202による3次元画像の表示は公知の原理であり、本明細書では説明を省略する。   FIG. 2C and FIG. 2D show pixels that can be seen when the user views from viewpoints 1 and 4 at different positions. That is, due to the optical characteristics of the lenticular lens 202, only the pixel 2 is visible to the right eye of the user at the viewpoint 1 and only the pixel 1 is visible to the left eye of the user at the viewpoint 1. Further, only the pixel 5 is visible to the right eye of the user at the viewpoint 4, and only the pixel 4 is visible to the left eye of the user at the viewpoint 4. Such display of a three-dimensional image by the lenticular lens 202 is a known principle, and a description thereof will be omitted in this specification.

図3は、6方向からの6つの視点とその視点に対応する画像を表示するために撮像する画像との関係を示す図である。それぞれの視点では、ユーザーの左右の眼で見た画像に相当する2つの2次元画像が撮像される。同一被写体を視点1から視点6まで連続的に3次元表示するために、視点N(Nは1〜6のいずれかの整数)においてユーザーの左目に届けられる画像Nは、視点N−1におけるユーザーの右目に届けられる画像と同じである。これらの画像を示す2次元画像情報を分割してレンチキュラーレンズ202と相対的位置を保った液晶表示画素で表示すれば、図3で示すそれぞれの視点から被写体を見た際と同じ3次元像を見ることができる。   FIG. 3 is a diagram illustrating a relationship between six viewpoints from six directions and images captured to display images corresponding to the viewpoints. At each viewpoint, two two-dimensional images corresponding to images viewed with the left and right eyes of the user are captured. In order to display the same subject three-dimensionally continuously from viewpoint 1 to viewpoint 6, image N delivered to the user's left eye at viewpoint N (N is an integer from 1 to 6) is the user at viewpoint N-1. It is the same as the image delivered to the right eye. If the two-dimensional image information indicating these images is divided and displayed with liquid crystal display pixels that maintain a relative position with the lenticular lens 202, the same three-dimensional image as when the subject is viewed from each viewpoint shown in FIG. 3 is obtained. Can see.

例えば、図2(c)及び図2(d)で示す画素1は、図3における視点1の左側で撮像した2次元画像(画像1)を示す2次元画像情報の一部であり、画素2は、視点1の右側で撮像した2次元画像(画像2)を示す2次元画像情報の一部である。また、画素3は、視点3の左側で撮像した2次元画像(画像3)を示す2次元画像情報の一部であり、画素4は、視点3の右側で撮像した2次元画像(画像4)を示す2次元画像情報の一部である。また、画素4は、視点4の左側で撮像した2次元画像(画像4)を示す2次元画像情報の一部であり、画素5は、視点4の右側で撮像した2次元画像(画像5)を示す2次元画像情報の一部である。さらに、画素6は、視点6の左側で撮像した2次元画像(画像6)を示す2次元画像情報の一部であり、画素7は、視点6の右側で撮像した2次元画像(画像7)を示す2次元画像情報の一部である。   For example, the pixel 1 shown in FIGS. 2C and 2D is a part of the two-dimensional image information indicating the two-dimensional image (image 1) captured on the left side of the viewpoint 1 in FIG. Is a part of the two-dimensional image information indicating the two-dimensional image (image 2) captured on the right side of the viewpoint 1. The pixel 3 is a part of two-dimensional image information indicating a two-dimensional image (image 3) captured on the left side of the viewpoint 3, and the pixel 4 is a two-dimensional image (image 4) captured on the right side of the viewpoint 3. Is a part of the two-dimensional image information. The pixel 4 is a part of two-dimensional image information indicating a two-dimensional image (image 4) captured on the left side of the viewpoint 4, and the pixel 5 is a two-dimensional image (image 5) captured on the right side of the viewpoint 4. Is a part of the two-dimensional image information. Further, the pixel 6 is a part of two-dimensional image information indicating a two-dimensional image (image 6) captured on the left side of the viewpoint 6, and the pixel 7 is a two-dimensional image (image 7) captured on the right side of the viewpoint 6. Is a part of the two-dimensional image information.

図4を用いて具体的にユーザーの視点の違いによる多視点の3次元画像およびその3次元画像の一部分の見え方を詳細に説明する。図3の被写体が図4(a)の被写体400とするならば、図3の各視点における左右の目から見た2次元画像、すなわち図4(b)の2次元画像は、画像401から画像407の7つの画像となる。   A multi-view three-dimensional image and how a part of the three-dimensional image is seen will be described in detail with reference to FIG. If the subject in FIG. 3 is the subject 400 in FIG. 4A, the two-dimensional image viewed from the left and right eyes at each viewpoint in FIG. 3, that is, the two-dimensional image in FIG. 407 seven images are obtained.

つまり、被写体400の一部分408は、視点1の左目用の撮像画像である画像1(画像401)では画面の右端に見え、逆に視点6の右目用の撮像画像である画像7(画像407)では画面の左端に見える。   That is, a part 408 of the subject 400 appears at the right end of the screen in the image 1 (image 401) that is the captured image for the left eye of the viewpoint 1, and conversely, the image 7 (image 407) that is the captured image for the right eye of the viewpoint 6. Then it looks at the left edge of the screen.

次に、図4(b)で撮像した画像401から画像407で示す2次元画像を分割して、レンチキュラーレンズ202と相対的位置を保った液晶表示画素で表示すれば、図4(a)で示す視点から被写体を見た際と同じ3次元像を見ることができる。今、この被写体400を多視点の3次元画像として表示器3で表示した場合を図5に示す。   Next, when the two-dimensional image indicated by the image 407 is divided from the image 401 captured in FIG. 4B and displayed on the liquid crystal display pixels that maintain the relative position with the lenticular lens 202, the image shown in FIG. The same three-dimensional image can be seen as when the subject is viewed from the viewpoint shown. FIG. 5 shows a case where the subject 400 is displayed on the display 3 as a multi-viewpoint three-dimensional image.

図5は、一例としてユーザーが視点2と視点5から表示器3を見た場合のユーザーと表示器3の相対的位置関係、および表示器3でユーザーに見える画像を示している。   FIG. 5 shows, as an example, the relative positional relationship between the user and the display 3 when the user views the display 3 from the viewpoint 2 and the viewpoint 5, and an image that can be seen by the user on the display 3.

図5において、ユーザー500は、表示器3を略視点2の角度を有して斜めに見ていることになる。従って、ユーザー500の左目には図4(b)に示す画像402が写る。同様に、ユーザー500の右目には図4(b)に示す画像403が写る。その結果、図4(a)の被写体400は、視点2から見た3次元画像として画面501として視認される。この時、ユーザー500が指等で画面の前面に配置したタッチパネル60で画面上の位置502をタッチすれば、被写体400の一部分408をタッチして指定したことになる。   In FIG. 5, the user 500 is viewing the display device 3 obliquely with an angle substantially at the viewpoint 2. Therefore, the image 402 shown in FIG. Similarly, an image 403 shown in FIG. 4B appears on the right eye of the user 500. As a result, the subject 400 in FIG. 4A is visually recognized as a screen 501 as a three-dimensional image viewed from the viewpoint 2. At this time, if the user 500 touches a position 502 on the screen with the touch panel 60 arranged on the front surface of the screen with a finger or the like, the part 408 of the subject 400 is touched and designated.

同様に、ユーザー503は、表示器3を略視点5の角度を有して斜めに見ていることになる。従ってユーザー503の左目には、図4(b)に示す画像405が写る。同様に、ユーザーの右目には図4(b)に示す画像406が写る。その結果、図4(a)の被写体400は、視点5から見た3次元画像として画面504として視認される。この時、ユーザー503が指等で画面の前面に配置したタッチパネル60で表示器3に対して相対的に画面上の位置502と略同じ位置、すなわち画面上の位置505で示す位置をタッチしても、被写体400の一部分408をタッチしたことにはならない。これが本発明が新たに開示する課題である。   Similarly, the user 503 is viewing the display device 3 at an angle of substantially the viewpoint 5. Therefore, an image 405 shown in FIG. 4B is shown on the left eye of the user 503. Similarly, an image 406 shown in FIG. 4B is shown on the right eye of the user. As a result, the subject 400 in FIG. 4A is viewed as a screen 504 as a three-dimensional image viewed from the viewpoint 5. At this time, the user 503 touches the touch panel 60 arranged in front of the screen with a finger or the like at a position substantially the same as the position 502 on the screen relative to the display 3, that is, the position indicated by the position 505 on the screen. However, this does not mean that a portion 408 of the subject 400 is touched. This is a problem newly disclosed by the present invention.

図6は、本実施例の画像処理装置1における画像処理部600の機能ブロックの一例を示す図である。画像処理部600はCPU10によって制御され、多視点の3次元画像情報取得部601と、3次元画像生成部602と、3次元画像指定部603と、3次元画像制御部604とを有する。   FIG. 6 is a diagram illustrating an example of functional blocks of the image processing unit 600 in the image processing apparatus 1 according to the present embodiment. The image processing unit 600 is controlled by the CPU 10 and includes a multi-viewpoint three-dimensional image information acquisition unit 601, a three-dimensional image generation unit 602, a three-dimensional image designation unit 603, and a three-dimensional image control unit 604.

多視点の3次元画像情報取得部601は、記憶装置20またはネットワーク制御部5から3次元画像情報を取得する。3次元画像生成部602は、3次元画像情報取得部601で取得した3次元画像情報に基づいて、3次元画像を生成する。3次元画像指定部603は、タッチパネル60、キーボード70、マウス等80及び撮像装置90を用いたユーザーの指示に基づいて、3次元画像生成部602で生成し3次元表示器50に表示された3次元画像を指定する。この指定により、3次元画像情報の一部の画像情報が指定されることになる。この詳細については後述する。   The multiview 3D image information acquisition unit 601 acquires 3D image information from the storage device 20 or the network control unit 5. The 3D image generation unit 602 generates a 3D image based on the 3D image information acquired by the 3D image information acquisition unit 601. The 3D image specifying unit 603 is generated by the 3D image generating unit 602 and displayed on the 3D display unit 50 based on a user instruction using the touch panel 60, the keyboard 70, the mouse 80, and the imaging device 90. Specify a dimensional image. By this designation, a part of the image information of the three-dimensional image information is designated. Details of this will be described later.

3次元画像制御部604は、3次元画像指定部603にて指定された3次元画像を、タッチパネル60、キーボード70、マウス等80を用いたユーザーの指示に従ってCPU10によって制御する。例えば、3次元画像制御部604は、指定された3次元画像に対して、回転処理、拡大/縮小処理などの画像処理が行われるように制御する。   The three-dimensional image control unit 604 controls the three-dimensional image designated by the three-dimensional image designation unit 603 by the CPU 10 in accordance with a user instruction using the touch panel 60, the keyboard 70, the mouse 80, and the like. For example, the three-dimensional image control unit 604 performs control so that image processing such as rotation processing and enlargement / reduction processing is performed on a designated three-dimensional image.

図7は、本実施例の画像処理装置1における多視点の3次元画像の画像指定処理を示すフローチャートである。このフローチャートは、CPU10がROM30または記憶装置20に記憶されているプログラムをRAM40に展開して実行することで実現され、図1で示した各部は以下のフローチャートの処理に従って制御される。このフローチャートを用いて本実施例の処理の流れを詳細に説明する。   FIG. 7 is a flowchart showing image designation processing of a multi-viewpoint three-dimensional image in the image processing apparatus 1 of the present embodiment. This flowchart is realized by the CPU 10 expanding and executing a program stored in the ROM 30 or the storage device 20 in the RAM 40, and each unit shown in FIG. 1 is controlled according to the processing of the following flowchart. The flow of processing of this embodiment will be described in detail using this flowchart.

本実施例においては、画像に対する表示処理を指示する前に、どの視点から見た場合の画像に対して指示するのかを指定する処理が行われる。すなわち、3次元画像指定部603において、多視点の3次元画像のうち、どの視点から見た画像を処理対象とするかを指定する処理が行われる。   In the present embodiment, before instructing display processing for an image, processing for designating which viewpoint to instruct the image from which viewpoint is performed is performed. That is, in the three-dimensional image designation unit 603, a process of designating which viewpoint viewed from among the multi-viewpoint three-dimensional images is to be processed is performed.

ステップS700において、3次元画像生成部602は、一般の例えば撮像した3次元画像をアルバムとして閲覧できるアプリケーションプログラム等の実行に応じて、3次元画像を生成し3次元表示器50で3次元表示する。3次元画像を表示すると、ステップS701へ進む。   In step S <b> 700, the three-dimensional image generation unit 602 generates a three-dimensional image and displays the three-dimensional image on the three-dimensional display 50 in accordance with execution of an application program or the like that can browse a captured three-dimensional image as an album. . When the three-dimensional image is displayed, the process proceeds to step S701.

ステップS701において、3次元画像指定部603は、指定の(視点)方向から見た3次元画像を表示する指示を検知する。例えば、CPU10がアプリケーションプログラム中の視点指定ボタン等で、ユーザーが所望する視点画像を指定した場合、指定された視点から見た3次元画像を正面に表示する要求があると判定する。そして、3次元画像指定部603は、3次元表示器50に表示された多視点の3次元画像から、指定された視点の3次元画像を指定する。3次元画像を指定すると、ステップS702へ進む。   In step S <b> 701, the three-dimensional image designation unit 603 detects an instruction to display a three-dimensional image viewed from the designated (viewpoint) direction. For example, when the CPU 10 designates a desired viewpoint image with a viewpoint designation button or the like in the application program, it is determined that there is a request to display a three-dimensional image viewed from the designated viewpoint in front. Then, the three-dimensional image designating unit 603 designates the three-dimensional image of the designated viewpoint from the multi-viewpoint three-dimensional image displayed on the three-dimensional display 50. When a three-dimensional image is designated, the process proceeds to step S702.

ステップS702において、3次元画像生成部602は、タッチパネル60のスクロールバーの移動に応じて前述の6つの視点を有する多視点の3次元画像の各視点から見た3次元画像を順次3次元表示器50の正面に表示させる。3次元表示するための3次元画像情報は、既定の規格に合致しているものとする。3次元画像生成部602は、記憶装置20やRAM40に保持され、3次元画像情報取得部601で取得された画像情報の中から、必要に応じて3次元表示器50が有する表示用記憶素子(図示せず)に各視点の画像情報を選択的に供給して3次元画像を生成する。3次元画像を生成して表示すると、ステップS703へ進む。   In step S702, the three-dimensional image generation unit 602 sequentially displays a three-dimensional image viewed from each viewpoint of the multi-view three-dimensional image having the above-described six viewpoints according to the movement of the scroll bar of the touch panel 60. 50 is displayed on the front. It is assumed that 3D image information for 3D display conforms to a predetermined standard. The three-dimensional image generation unit 602 is stored in the storage device 20 or the RAM 40, and from among the image information acquired by the three-dimensional image information acquisition unit 601, the display storage element ( A three-dimensional image is generated by selectively supplying image information of each viewpoint to an unillustrated). When a three-dimensional image is generated and displayed, the process proceeds to step S703.

ステップS703において、3次元画像指定部603は、ユーザーによるタッチ入力の有無を検知する。タッチ入力が有ると検知した場合には、ステップS704の処理へ進み、タッチ入力がないと検知した場合には、ステップS700の処理へ戻る。   In step S703, the three-dimensional image designation unit 603 detects the presence or absence of a touch input by the user. If it is detected that there is a touch input, the process proceeds to step S704. If it is detected that there is no touch input, the process returns to step S700.

ステップS704において、3次元画像指定部603は、タッチパネル60上でユーザーがタッチした位置と、タッチ時の指の操作から、ユーザーによるタッチ入力が各種の表示指示の中のどの指示であるかを識別する。表示指示とは、拡大処理を指示するダブルタップ(2回押し)、スクロール、(2本指で画面を広げる)ピンチアウト、(2本指で画面を狭める)ピンチイン等の所謂一般のタッチ操作で物の表示状態を指示することをいう。ユーザーがタッチした位置と表示指示を識別するとステップS705へ進む。   In step S704, the three-dimensional image designating unit 603 identifies which of the various display instructions the touch input by the user is based on the position touched by the user on the touch panel 60 and the operation of the finger at the time of the touch. To do. The display instruction is a so-called general touch operation such as double tap (twice pressing), scrolling, pinching out (spreading the screen with two fingers), pinching in (squeezing the screen with two fingers), etc. This means instructing the display state of an object. When the position touched by the user and the display instruction are identified, the process proceeds to step S705.

ステップS705において、3次元画像指定部603は、ユーザーがタッチパネル60上でタッチした画像を指定する。指定した画像は、タッチする直前に視点選択ボタン801に応じて表示していた視点の3次元画像の中のタッチ位置に表示している画像である。なお、視点選択ボタン801をユーザーが操作せずに、ステップS703でユーザーのタッチ入力の有無を検知した場合、ユーザーが所望する視点画像は多視点の3次元画像として略正面に表示している視点4とする。   In step S <b> 705, the three-dimensional image specifying unit 603 specifies an image touched on the touch panel 60 by the user. The designated image is an image displayed at the touch position in the three-dimensional image of the viewpoint displayed according to the viewpoint selection button 801 immediately before touching. When the user does not operate the viewpoint selection button 801 and the presence or absence of the touch input by the user is detected in step S703, the viewpoint image desired by the user is displayed as a multi-viewpoint three-dimensional image substantially in front. 4.

また、ステップS705で指定するタッチ画像は、視点選択ボタン801に応じて表示していた視点の3次元画像のタッチ位置に表示している画像である。タッチ画像は、視点選択ボタン801が視点6を選択している場合、3次元表示器50のレンチキュラーレンズ202と相対的位置が保証される。ほぼ正面の画素位置に表示される画像データは、3次元画像情報803に示すように、図3に示す画像6と画像7、すなわち視点6の右目用の2次元画像7と視点6の左目用の2次元画像6である。   The touch image specified in step S705 is an image displayed at the touch position of the viewpoint three-dimensional image displayed in accordance with the viewpoint selection button 801. When the viewpoint selection button 801 selects the viewpoint 6, the relative position of the touch image with the lenticular lens 202 of the three-dimensional display 50 is guaranteed. As shown in the three-dimensional image information 803, the image data displayed almost at the front pixel position is the images 6 and 7 shown in FIG. 3, that is, the two-dimensional image 7 for the right eye of the viewpoint 6 and the left eye of the viewpoint 6. This is a two-dimensional image 6 of FIG.

従って、本実施例では、タッチ画像はその時点で表示している3次元画像の内、ユーザーの左目用の2次元画像におけるタッチ位置の画像とする。両目用の2種類の2次元画像の内、右目用を用いるか、或いは左目用を用いるかをその都度、或いはタッチ位置に応じて選択的に切り替えても良いが、望ましくは、本実施例の如く左目用(或いは右目用)を用いることで初期設定する。タッチした画像を指定するとステップS706へ進む。   Therefore, in this embodiment, the touch image is an image of the touch position in the two-dimensional image for the left eye of the user among the three-dimensional images displayed at that time. Of the two types of two-dimensional images for both eyes, whether to use the right eye or the left eye may be selectively switched each time or according to the touch position. Thus, the initial setting is made by using the left eye (or right eye). When the touched image is designated, the process proceeds to step S706.

ステップS706において、3次元画像制御部604は、ステップS705で指定した画像の加工を制御する。画像の加工制御は、視点6の3次元画像、すなわち図3に示す画像6及び画像7に補間処理を行って視点6の3次元画像として拡大処理を行う。これは、3次元画像取得部601で記憶保持している3次元画像の中で3次元画像生成部602で表示している視点6の左目用2次元画像の中のタッチ位置にある画像部を中心に行う。視差を考慮しながら行う3次元画像の拡大補間処理は、公知の技術を用いる。例えば、「綱島宣浩他:オクルージョンを考慮した2眼ステレオ画像からの中間画像データの作成、3D Image Conference '95 pp.174-177(1995) 」に詳しく開示されている。また、「吾妻健夫他:中間像生成のためのエッジ情報を用いた視差推定、3D Image Conference'95 pp.190-194(1995)」等にも開示されている。   In step S706, the three-dimensional image control unit 604 controls the processing of the image specified in step S705. In the image processing control, interpolation processing is performed on the three-dimensional image of the viewpoint 6, that is, the images 6 and 7 shown in FIG. This is because the image portion at the touch position in the two-dimensional image for the left eye of the viewpoint 6 displayed by the three-dimensional image generation unit 602 among the three-dimensional images stored and held by the three-dimensional image acquisition unit 601 is displayed. Do it to the center. A known technique is used for enlargement interpolation processing of a three-dimensional image performed while considering parallax. For example, it is disclosed in detail in “Nobuhiro Tsunashima et al .: Creation of intermediate image data from a binocular stereo image considering occlusion, 3D Image Conference '95 pp.174-177 (1995)”. Also disclosed in “Takeo Agatsuma et al .: Parallax estimation using edge information for intermediate image generation, 3D Image Conference '95 pp.190-194 (1995)”.

本実施例では、ステップS704で識別されたタッチ動作が拡大を指示するダブルタップであったとして、又、左目用2次元画像を用いることが既定されている。そのため、ステップS706では、図3に示す左目用2次元画像、すなわち画像6上のステップS704で識別されたタッチ位置の画像部を中心とし、拡大表示するための画像の加工を制御している。画像の加工制御をすると、ステップS700に戻る。   In this embodiment, it is predetermined that the touch operation identified in step S704 is a double tap for instructing enlargement, and the left-eye two-dimensional image is used. Therefore, in step S706, the processing of the image for enlarged display is controlled around the two-dimensional image for the left eye shown in FIG. 3, that is, the image portion at the touch position identified in step S704 on image 6. When the image processing is controlled, the process returns to step S700.

図8は、本実施例に係る多視点の3次元画像から所望する視点を選択する手順を説明する図である。3次元表示器50の中央部の表示領域800に表示する情報は、図2で説明した多視点の3次元画像を表示するための3次元画像情報から指定の視点の3次元画像を表示するための3次元画像情報に切り替わる。すなわち、3次元表示器50を正面から見た場合のみユーザーが3次元画像を見ることができるように、表示領域800は各視点から見た3次元画像を順次表示するように表示制御する。具体的には、画面下部に表示された視点選択ボタン801をタッチパネル60の操作で矢印方向にスクロールする。すると、ボタン801の位置に応じて表示領域800の表示画像は視点6、視点5、視点4、視点3、視点2、視点1の順に3次元画像に切り替わる。   FIG. 8 is a diagram illustrating a procedure for selecting a desired viewpoint from a multi-view three-dimensional image according to the present embodiment. The information displayed in the display area 800 at the center of the 3D display 50 is for displaying a 3D image of a specified viewpoint from the 3D image information for displaying the 3D image of the multiview described in FIG. To the three-dimensional image information. That is, the display area 800 controls the display so that the 3D image viewed from each viewpoint is sequentially displayed so that the user can view the 3D image only when viewing the 3D display 50 from the front. Specifically, the viewpoint selection button 801 displayed at the bottom of the screen is scrolled in the direction of the arrow by operating the touch panel 60. Then, the display image in the display area 800 is switched to a three-dimensional image in the order of viewpoint 6, viewpoint 5, viewpoint 4, viewpoint 3, viewpoint 2, and viewpoint 1 in accordance with the position of the button 801.

多視点の3次元画像は、1つのレンチキュラーレンズ202内にある各視点から見た3次元画像である。多視点の3次元画像を表示するために、多視点の3次元画像を構成する全ての2次元画像情報を含む3次元画像情報803によって3次元画像を表示する。しかし、ステップS702の処理に移行すると、視点選択ボタン801の位置に応じて、例えば、視点6用の3次元画像情報804が示す3次元画像を表示領域800に表示する。視点6用の3次元画像情報804は、3次元表示器50の略正面から見た場合に視点6の3次元画像を表示するための情報に変更されている。すなわち、3次元画像生成部602は、レンチキュラーレンズ202の略中央部の画素位置に視点6の2次元画像情報6及び2次元画像情報7を表示し、他の画素位置は黒データに固定する。これにより、正面から見れば視点6の3次元画像が見え、それ以外の角度からは何も見えなくなる。つまり、ステップS702では、多視点の3次元画像を示す3次元画像情報の一部を書き換えて、指定の視点の3次元画像を示す3次元画像情報に変更(あるいは生成)する処理が行われる。   A multi-viewpoint three-dimensional image is a three-dimensional image viewed from each viewpoint within one lenticular lens 202. In order to display a multi-viewpoint three-dimensional image, the three-dimensional image is displayed by three-dimensional image information 803 including all the two-dimensional image information constituting the multi-viewpoint three-dimensional image. However, when the process proceeds to step S <b> 702, for example, a three-dimensional image indicated by the three-dimensional image information 804 for the viewpoint 6 is displayed in the display area 800 according to the position of the viewpoint selection button 801. The three-dimensional image information 804 for the viewpoint 6 is changed to information for displaying the three-dimensional image of the viewpoint 6 when viewed from substantially the front of the three-dimensional display 50. That is, the three-dimensional image generation unit 602 displays the two-dimensional image information 6 and the two-dimensional image information 7 of the viewpoint 6 at the pixel position in the substantially central portion of the lenticular lens 202, and fixes the other pixel positions to black data. Thereby, when viewed from the front, the three-dimensional image of the viewpoint 6 can be seen, and nothing can be seen from other angles. That is, in step S702, a process of rewriting a part of the three-dimensional image information indicating the multi-viewpoint three-dimensional image to change (or generating) the three-dimensional image information indicating the specified viewpoint three-dimensional image is performed.

従って、視点選択ボタン801をユーザーが、矢印方向に移動させた場合、その位置に応じて、表示する3次元画像情報を、視点6の3次元画像を表示する3次元画像情報804から他の視点を表示する3次元画像情報に変更する。これにより、視点選択ボタン801で指示された視点から見た3次元画像を順次表示できる。   Therefore, when the user moves the viewpoint selection button 801 in the direction of the arrow, the three-dimensional image information to be displayed is changed from the three-dimensional image information 804 to display the three-dimensional image of the viewpoint 6 to another viewpoint according to the position. Is changed to the three-dimensional image information. As a result, a three-dimensional image viewed from the viewpoint designated by the viewpoint selection button 801 can be sequentially displayed.

また、指定された視点の3次元画像以外の3次元画像については、表示されない処理(無効化処理)が施されている。これにより、3次元表示器50をユーザーが異なる角度で見ることによって所望する画像と異なる画像が選択されることを防止することができる。ユーザーは、この視点選択ボタン801をスクロールして、所望の視点からの3次元画像が表示された状態で、必要であれば表示された3次元画像の中で、更に指定すべき画像部分をタッチパネル60でタッチすることができる。   In addition, processing that is not displayed (invalidation processing) is performed on a three-dimensional image other than the three-dimensional image of the designated viewpoint. Accordingly, it is possible to prevent an image different from a desired image from being selected when the user views the three-dimensional display 50 at a different angle. The user scrolls the viewpoint selection button 801 to display a three-dimensional image from a desired viewpoint, and if necessary, in the displayed three-dimensional image, select an image portion to be further specified on the touch panel. 60 can be touched.

図8を用いて3次元画像情報と2次元画像情報の関係について補足する。前述したように2次元画像情報は、2次元画像を表示するための信号源である。例えば、視点6の3次元画像のうち左目に対応する2次元画像を示す2次元画像情報6は、3次元表示器50のレンチキュラーレンズ202と相対的位置が保証された所定の画素位置に表示される画像データである。3次元画像情報には、これらの複数の2次元画像情報が含まれており、かつその各2次元画像情報が配置される相対的位置を示す情報も含まれている。図8の例では、3次元画像情報は、3次元画像情報803および804で示す構造を表す情報のことである。なお、3次元画像情報や2次元画像情報には、上述した情報またはデータのほかにも、撮像時に得られる各種の情報など他の情報が含まれていても良い。   The relationship between the three-dimensional image information and the two-dimensional image information will be supplemented with reference to FIG. As described above, the two-dimensional image information is a signal source for displaying a two-dimensional image. For example, the two-dimensional image information 6 indicating the two-dimensional image corresponding to the left eye among the three-dimensional images of the viewpoint 6 is displayed at a predetermined pixel position where the relative position with the lenticular lens 202 of the three-dimensional display 50 is guaranteed. Image data. The three-dimensional image information includes a plurality of these two-dimensional image information, and also includes information indicating a relative position where each of the two-dimensional image information is arranged. In the example of FIG. 8, the three-dimensional image information is information representing the structure indicated by the three-dimensional image information 803 and 804. The three-dimensional image information and the two-dimensional image information may include other information such as various types of information obtained at the time of imaging in addition to the information or data described above.

本発明は、多視点の3次元画像に対して所望する3次元画像を指定することに特徴が有る。そのため、指定された任意の視点の3次元画像、或いは、画像中のタッチ画像を指定した後の全体画像や一部の画像に対する加工制御の内容、及びその後の処理手段には何ら限定されることはない。特に、本実施例では、視点6の3次元画像に対して拡大表示したが、タッチ位置の画像に関連させて、他の視点の3次元画像も拡大処理することが可能である。結果として、ステップS706からステップS700に戻り、多視点の3次元画像としてタッチ位置を中心に拡大した3次元画像を表示することも容易である。   The present invention is characterized in that a desired three-dimensional image is designated for a multi-viewpoint three-dimensional image. Therefore, it is limited to the three-dimensional image of the designated arbitrary viewpoint or the content of the processing control for the whole image or a part of the image after designating the touch image in the image, and the subsequent processing means. There is no. In particular, in this embodiment, the 3D image at the viewpoint 6 is enlarged and displayed. However, the 3D images at other viewpoints can be enlarged in association with the image at the touch position. As a result, it is easy to return from step S706 to step S700 and display a three-dimensional image enlarged around the touch position as a multi-viewpoint three-dimensional image.

或いは、タッチ位置の画像が背景画像と独立した物体の場合、物体に関する付帯情報を吹き出し等を用いて2次元表示することも本発明における3次元画像情報の制御である。特に、本発明が対象とする多視点の3次元画像は、視点によって他の物体画像の影に隠れて視認できない画像部分も視点を変えることで見ることができる。これにより、隠れた物体の画像を他の画像から独立した物体画像として、単独に3次元画像として切り取ることも本発明における3次元画像情報の制御に包含される。   Alternatively, when the image at the touch position is an object independent of the background image, the auxiliary information related to the object is displayed two-dimensionally using a balloon or the like, which is the control of the three-dimensional image information in the present invention. In particular, a multi-view three-dimensional image targeted by the present invention can be viewed by changing the viewpoint of an image portion that is hidden behind a shadow of another object image depending on the viewpoint. Thus, the control of the three-dimensional image information in the present invention also includes cutting out the hidden object image as a three-dimensional image independently as an object image independent of other images.

以上、本実施例によれば、3次元表示された多視点の3次元画像に対してユーザーが、タッチパネルによって、表示されている一部の画像を指定し、画像の拡大表示等の指示が可能になる。また、画像を指定する際に、他の視点に係る3次元画像情報を無効化することにより、ユーザーが所望する視点からの画像を確実に指定することができるので、所望の画像とは異なる画像に対する指示入力を防止することができる。   As described above, according to the present embodiment, the user can specify a part of the displayed image on the touch panel with respect to the three-dimensionally displayed multi-viewpoint three-dimensional image, and can instruct an enlarged display of the image. become. Also, when specifying an image, it is possible to reliably specify an image from the viewpoint desired by the user by invalidating the three-dimensional image information related to the other viewpoint, so that an image different from the desired image It is possible to prevent the input of instructions.

<実施例2>
実施例1では、タッチパネル60で画像をタッチする前に、ユーザーに多視点の3次元表示している画像の中から所望する画像をタッチ指示し易い視点の3次元画像を選択させる実施例を説明した。本実施例2では、このような操作に依らず、直接ユーザーの所望する画像をタッチ操作で指定する実施例を説明する。
<Example 2>
In the first embodiment, before touching an image on the touch panel 60, an embodiment is described in which a user selects a viewpoint three-dimensional image from which a desired image is easily touched from among images displayed in a multi-viewpoint three-dimensional manner. did. In the second embodiment, an embodiment in which an image desired by a user is directly designated by a touch operation without depending on such an operation will be described.

本実施例では、3次元表示器50を操作および観測しているユーザーの位置を撮像装置90で撮像する。その後、撮像した画像からユーザーの3次元表示器50に対する位置を認識して、ユーザーの3次元表示器50に対する視点を確定する。この確定したユーザーの視点あるいは、視点とタッチパネル60のタッチ位置によってタッチ画像を指定する。   In the present embodiment, the position of the user who operates and observes the three-dimensional display 50 is imaged by the imaging device 90. Thereafter, the position of the user with respect to the three-dimensional display 50 is recognized from the captured image, and the viewpoint of the user with respect to the three-dimensional display 50 is determined. A touch image is designated based on the determined user viewpoint or the touch position of the touch panel 60 with the viewpoint.

図9は、本実施例の画像処理装置1における多視点の3次元画像の画像指定処理を示すフローチャートである。本実施例では、図7で説明した実施例1と同様の処理であるステップS900と、ステップS903からS906については、説明を省略する。   FIG. 9 is a flowchart showing image designation processing of a multi-viewpoint three-dimensional image in the image processing apparatus 1 of the present embodiment. In the present embodiment, descriptions of step S900 and steps S903 to S906, which are the same processes as in the first embodiment described in FIG. 7, are omitted.

ステップS901において、3次元画像指定部603は、ステップS900で表示した3次元画像の視点を認識する処理を実行する。ステップS901の処理を図10及び図11を用いて詳細に説明する。   In step S901, the 3D image designation unit 603 executes processing for recognizing the viewpoint of the 3D image displayed in step S900. The processing in step S901 will be described in detail with reference to FIGS.

図10は、本実施例に係る視点認識の原理を表す図である。図10を用いて撮像された画像1000内で認識したユーザーの顔の位置からユーザーの視点を指定する原理を詳細に説明する。一般に両目の視差を利用した3次元表示器は、観察者が表示器から所定の距離Lm離れた位置で最も3次元画像を良好に見ることができる。すなわち、撮像されたユーザーは、3次元表示器50から略距離Lm離れた位置で撮像されたと推定することができる。従って、撮像された画像1000内のユーザーの両目の間隔となる距離Liが標準的に8cmだと想定して、ユーザーの位置の表示器中央からのズレである距離Loを求めることができる。また、図10において3次元表示器50の前面から距離Lmの位置に示す仮想のライン1001上のユーザーの位置、すなわち点Pから3次元表示器50の中央を目指す方向がユーザーの視点となる。   FIG. 10 is a diagram illustrating the principle of viewpoint recognition according to the present embodiment. The principle of designating the user's viewpoint from the position of the user's face recognized in the captured image 1000 will be described in detail with reference to FIG. In general, a three-dimensional display using the parallax of both eyes allows the observer to see the best three-dimensional image at a position away from the display by a predetermined distance Lm. That is, it can be estimated that the imaged user is imaged at a position approximately Lm away from the three-dimensional display 50. Accordingly, it is possible to obtain the distance Lo, which is a deviation of the user position from the center of the display device, assuming that the distance Li that is the distance between both eyes of the user in the captured image 1000 is typically 8 cm. In addition, the user's viewpoint is the position of the user on the virtual line 1001 shown at a distance Lm from the front surface of the 3D display 50 in FIG. 10, that is, the direction aiming at the center of the 3D display 50 from the point P.

多視点の3次元表示器50を点Pの位置から見た場合、予め撮像され、表示されたどの視点の3次元画像が最も良好に見えるかを判定することでユーザーが見ている視点の画像を指定することができる。   When the multi-viewpoint three-dimensional display 50 is viewed from the position of the point P, an image of the viewpoint that the user is viewing by determining which viewpoint of the three-dimensional image captured and displayed in advance is best viewed. Can be specified.

すなわち、3次元表示器50の中央からの距離Loが正の値なら、視点1か、視点2か、視点3のいずれかであり、3次元表示器50の中央からの距離Loが負の値なら、視点6か、視点5か、視点4のいずれかである。   That is, if the distance Lo from the center of the three-dimensional display 50 is a positive value, it is either the viewpoint 1, the viewpoint 2, or the viewpoint 3, and the distance Lo from the center of the three-dimensional display 50 is a negative value. Then, it is either viewpoint 6, viewpoint 5, or viewpoint 4.

図10で図示するように、推定されたユーザーの位置Pと各表示されている3次元画像の視線が仮想のライン1001と交わる位置を比較して、ユーザーの位置Pに近い視線を求めれば、その視点に対応する画像がユーザーが所望する3次元画像と判定できる。なお、L1は、視点3と視点2を識別する閾値、L2は視点2と視点1を識別する閾値、−L1は視点4と視点5を識別する閾値、−L2は視点5と視点6を識別する閾値である。これらは、それぞれライン1001と両視線が交わる中間点の3次元表示器50の中央からの距離とすることができる。   As shown in FIG. 10, by comparing the estimated position P of the user with the position where the line of sight of each displayed three-dimensional image intersects the virtual line 1001, a line of sight close to the user position P is obtained. It can be determined that the image corresponding to the viewpoint is a three-dimensional image desired by the user. L1 is a threshold for identifying viewpoint 3 and viewpoint 2, L2 is a threshold for identifying viewpoint 2 and viewpoint 1, -L1 is a threshold for identifying viewpoint 4 and viewpoint 5, and -L2 is for identifying viewpoint 5 and viewpoint 6. It is a threshold to do. These can be the distances from the center of the three-dimensional display 50 at the intermediate point where the line 1001 and both lines of sight intersect.

図11は、本実施例に係る視点認識の処理のステップS901の詳細を示すフローチャートである。ステップS901の視点認識の処理は、3次元画像指定部603が実行する。   FIG. 11 is a flowchart illustrating details of step S901 in the viewpoint recognition processing according to the present embodiment. The viewpoint recognition process in step S901 is executed by the three-dimensional image designation unit 603.

ステップS1111において、3次元画像指定部603は、撮像装置90を制御して3次元表示器50の中央に設置された撮像装置90で観察者の正面を撮像し、図10の撮像された画像1000を示す画像データを得る。この撮像画像1000を示す画像データを図1のRAM40に一時記憶しておき、ステップS1112へ進む。   In step S <b> 1111, the 3D image designating unit 603 controls the imaging device 90 to capture the front of the observer with the imaging device 90 installed at the center of the 3D display 50, and the captured image 1000 in FIG. 10. Is obtained. Image data indicating the captured image 1000 is temporarily stored in the RAM 40 of FIG. 1, and the process proceeds to step S1112.

ステップS1112において、3次元画像指定部603は、公知のパターンマッチング顔認識技術でユーザーの顔の位置を認識する。一般に人の顔認識は横に並ぶ1対の目の存在に着目して容易にその重心位置を認識できる。ユーザーの顔の位置を認識すると、ステップS1113へ進む。   In step S1112, the three-dimensional image designation unit 603 recognizes the position of the user's face using a known pattern matching face recognition technique. In general, human face recognition can easily recognize the position of the center of gravity by paying attention to the presence of a pair of eyes arranged side by side. If the position of the user's face is recognized, the process proceeds to step S1113.

ステップS1113において、3次元画像指定部603は、認識した顔の位置からユーザーの視点を指定して、その視点の位置と3次元表示器50の中央位置との距離Loを検出する。距離Loを検出すると、ステップS1113へ進む。   In step S <b> 1113, the three-dimensional image designation unit 603 designates the user's viewpoint from the recognized face position, and detects the distance Lo between the viewpoint position and the center position of the three-dimensional display 50. If the distance Lo is detected, the process proceeds to step S1113.

ステップS1114において、3次元画像指定部603は、距離Loの符号を判定する。距離Loの符号が正の場合は、ステップS1115へ進む。   In step S1114, the three-dimensional image designation unit 603 determines the sign of the distance Lo. If the sign of the distance Lo is positive, the process proceeds to step S1115.

ステップS1115において、Lo>L2ならば、3次元画像指定部603はユーザーの視点を視点1に指定する。Lo≦L2ならば、ステップS1116へ進む。   If Lo> L2 in step S1115, the three-dimensional image designating unit 603 designates the user's viewpoint as the viewpoint 1. If Lo ≦ L2, the process proceeds to step S1116.

ステップS1116において、Lo>L1ならば、3次元画像指定部603はユーザーの視点を視点2に指定する。Lo≦L1ならば、3次元画像指定部603はユーザーの視点を視点は3に指定する。   If Lo> L1 in step S1116, the three-dimensional image designating unit 603 designates the user's viewpoint as the viewpoint 2. If Lo ≦ L1, the three-dimensional image designating unit 603 designates the viewpoint of the user as 3.

ステップS1114の判定で、距離Loの符号が負の場合は、ステップS1120へ進む。   If it is determined in step S1114 that the sign of the distance Lo is negative, the process proceeds to step S1120.

ステップS1120において、Lo<−L2ならば、3次元画像指定部603はユーザーの視点を視点6に指定する。Lo≧−L2ならば、ステップS1121へ進む。   In step S1120, if Lo <−L2, the three-dimensional image designating unit 603 designates the user's viewpoint as the viewpoint 6. If Lo ≧ −L2, the process proceeds to step S1121.

ステップS1121において、Lo<−L1ならば、3次元画像指定部603はユーザーの視点を視点5に指定する。Lo≧−L1ならば、3次元画像指定部603はユーザーの視点を視点4に指定する。なお、図10で示す撮像された画像1000では、ユーザーの視点は視点2として指定される。   In step S1121, if Lo <−L1, the three-dimensional image designating unit 603 designates the user's viewpoint as the viewpoint 5. If Lo ≧ −L1, the three-dimensional image designating unit 603 designates the user's viewpoint as the viewpoint 4. In the captured image 1000 shown in FIG. 10, the viewpoint of the user is designated as viewpoint 2.

以上の処理により、ステップS901の視点認識の処理でユーザーが見ている3次元画像が視点2として指定される。その後、3次元画像指定部603は、ステップS902からS904の処理を経て、ステップS905で設定が左目用の2次元画像であれば、視点2の左目用画像を使って実施例1と同様に以降の処理を行う。   With the above processing, the three-dimensional image that the user is viewing in the viewpoint recognition processing in step S901 is designated as the viewpoint 2. Thereafter, the three-dimensional image designating unit 603 performs the processing in steps S902 to S904, and if the setting is a two-dimensional image for the left eye in step S905, the left eye image for viewpoint 2 is used in the same manner as in the first embodiment. Perform the process.

本実施例の処理によれば、実施例1で説明した処理に比べて多視点の3次元画像から視点を指定するためのユーザーの操作を不要とすることができる。このため、実施例1よりも操作性の優れた実施例となる。   According to the process of the present embodiment, the user's operation for designating a viewpoint from a multi-view three-dimensional image can be made unnecessary as compared with the process described in the first embodiment. For this reason, it becomes an Example excellent in operativity than Example 1.

なお、ユーザーの視点を識別する手段として本発明は、通常の表示器3が有する撮像装置90を用いている。しかし、例えば、表示器3が2組の撮像装置90を有する場合は、ユーザまでの距離がより正確に識別できるため、本実施例に比べて精度良くユーザーの視点を指定できる。   Note that, as a means for identifying the user's viewpoint, the present invention uses the imaging device 90 included in the normal display 3. However, for example, when the display 3 has two sets of imaging devices 90, the distance to the user can be identified more accurately, so that the user's viewpoint can be specified with higher accuracy than in this embodiment.

また、2組の赤外線送受信手段を有し、表示器3からそれぞれユーザー方向に略無指向性で赤外線を放射し、その反射光の強度からユーザの位置を検出する技術において本発明は実施できる。或いは、ユーザーの視線を直接識別する方法、表示器の位置とユーザーが発信するGPS等位置情報との関係から識別する方法等、一般的に公知の他の手段を用いても本実施例に限らず本発明は実施でき、優れた効果が得られる。   In addition, the present invention can be implemented in a technique that includes two sets of infrared transmission / reception means, emits infrared rays from the display 3 in a substantially non-directional manner in the user direction, and detects the position of the user from the intensity of the reflected light. Alternatively, other generally known means such as a method of directly identifying the user's line of sight, a method of identifying from the relationship between the position of the display and the positional information such as GPS transmitted by the user, etc. are not limited to this embodiment. Therefore, the present invention can be implemented and an excellent effect can be obtained.

<実施例3>
実施例1および2は、視差分割方式としてレンチキュラーレンズ202を用いた多視点の3次元表示器50を用いた実施例である。しかしながら、3次元表示器は、レンチキュラーレンズ202を用いるものに限定されることなく他の3次元表示器を用いることも可能である。本実施例3では、パララックスバリア方式の3次元表示器を用いる例について説明する。
<Example 3>
Examples 1 and 2 are examples using a multi-viewpoint three-dimensional display 50 using a lenticular lens 202 as a parallax division method. However, the three-dimensional display is not limited to the one using the lenticular lens 202, and other three-dimensional displays can be used. In the third embodiment, an example in which a parallax barrier type three-dimensional display is used will be described.

図12は、本実施例で用いるパララックスバリア方式の3次元表示器1200の表示原理を表す図である。例えば、図12に示すパララックスバリア方式の3次元表示器1200は、液晶表示部1201と、表示画面の手前に左右の目から見た視線上に互いに他方の目用の表示画素からの光を遮るための光学的なパララックスバリア1210を有する。   FIG. 12 is a diagram showing the display principle of the parallax barrier type three-dimensional display 1200 used in this embodiment. For example, the parallax barrier type three-dimensional display 1200 shown in FIG. 12 emits light from the display pixel for the other eye on the liquid crystal display unit 1201 and the line of sight seen from the left and right eyes in front of the display screen. An optical parallax barrier 1210 for shielding is provided.

従って、図12に示すように右目の視点からは、パララックスバリア1210で左目用画素の光路が遮光され、逆に左目の視点からは、パララックスバリア1210で右目用画素の光路が遮光される。その結果、両目には両目の視点で撮像された異なる視点の画像が見えるため、3次元表示がなされる。   Accordingly, as shown in FIG. 12, the optical path of the left-eye pixel is blocked by the parallax barrier 1210 from the viewpoint of the right eye, and conversely, the optical path of the right-eye pixel is blocked by the parallax barrier 1210 from the viewpoint of the left eye. . As a result, since images of different viewpoints captured from the viewpoints of both eyes can be seen by both eyes, three-dimensional display is performed.

図13を用いて、パララックスバリア方式の3次元表示器1200を使った本実施例を詳細に説明する。図13中液晶表示部1201は、それぞれ右目用表示画素170と左目用表示画素171とを隣接対として有している。視点1から見た3次元画像を表示する場合、3次元画像情報172は、右目用画素位置に図3に示す画像2の2次元画像情報を短冊状に分解して表示する。併せて、左目用画素位置に画像1の2次元画像情報を短冊状に分解して表示すれば良い。ここで、多視点の3次元画像として図13に示す様に各視点の3次元画像情報を有する場合、実施例1および2の場合と同様に、順次表示する3次元画像情報を切り替えて表示すれば、所望する視点の画像を指定することができる。また、タッチ画像を指定する際に用いる2次元画像情報も、実施例1および2の場合と同様に予め設定された左右どちらかの目用の2次元画像情報を用いれば良い。3次元画像指定部603は、用いる3次元表示器の原理に応じて表示する2次元画像情報または3次元画像情報を選択して3次元表示器で表示することができる。   The present embodiment using the parallax barrier type three-dimensional display 1200 will be described in detail with reference to FIG. In FIG. 13, the liquid crystal display unit 1201 includes a right-eye display pixel 170 and a left-eye display pixel 171 as adjacent pairs. When displaying the three-dimensional image viewed from the viewpoint 1, the three-dimensional image information 172 displays the two-dimensional image information of the image 2 shown in FIG. 3 in a strip shape at the right eye pixel position. In addition, the two-dimensional image information of the image 1 may be decomposed into a strip shape and displayed at the pixel position for the left eye. Here, as shown in FIG. 13, as the multi-viewpoint three-dimensional image, the three-dimensional image information to be sequentially displayed is switched and displayed in the same manner as in the first and second embodiments. For example, an image of a desired viewpoint can be designated. Also, as the two-dimensional image information used when designating the touch image, the two-dimensional image information for the left or right eye set in advance as in the case of the first and second embodiments may be used. The three-dimensional image designating unit 603 can select two-dimensional image information or three-dimensional image information to be displayed according to the principle of the three-dimensional display to be used and display the selected information on the three-dimensional display.

すなわち、図7及び図8で説明した、視点を選択する際の各視点の3次元画像情報については3次元画像情報172および173を直接用いれば同様に実施が可能である。   That is, the three-dimensional image information of each viewpoint when selecting the viewpoint described with reference to FIGS. 7 and 8 can be similarly implemented by directly using the three-dimensional image information 172 and 173.

パララックスバリア方式の3次元表示器1200を用いた本実施例では、同時に多視点の3次元表示はできないが、画素密度の高い表示が可能であり、より正確に画像を指定することができる。   In the present embodiment using the parallax barrier type three-dimensional display 1200, multi-viewpoint three-dimensional display cannot be performed at the same time, but display with high pixel density is possible, and an image can be specified more accurately.

<その他の実施例>
先の実施例では多視点の3次元表示している表示画像の一部に対する指示をタッチパネル60を用いて実施した例を開示したが、本発明を実施する図1で示す画像処理装置を構成するPC2は一般的なパーソナルコンピュータである。そのため、タッチパネル60を用いて詳細に説明した実施例は、マウスやタッチパッド80或いはキーボード70の複数のキーを用いて画面に表示した画像の一部を指し示すことが同様に実施できる。また、拡大、移動、切り取り等一般的な指定した画像に対する制御も指示できる。従って、これらの入力手段を用いても同様に本発明の効果が得られることは述べるまでもない。
<Other examples>
In the previous embodiment, the example in which the touch panel 60 is used to instruct a part of the display image that is displayed in three-dimensional three-dimensional display has been disclosed. However, the image processing apparatus shown in FIG. 1 that implements the present invention is configured. The PC 2 is a general personal computer. Therefore, the embodiment described in detail using the touch panel 60 can be similarly performed by pointing a part of an image displayed on the screen using a plurality of keys of the mouse, the touch pad 80, or the keyboard 70. Also, control for general designated images such as enlargement, movement, and cropping can be instructed. Therefore, it goes without saying that the effects of the present invention can be obtained similarly even if these input means are used.

なお、開示した実施例では、画面に表示された一部の画像を中心にユーザーが望む表示のための3次元画像情報を制御する。ところが、タッチパネル等で画面の一部を差し示さなくとも、多視点の3次元画像の中からユーザーが任意の視点画像を指定した時、或いはユーザーの視点を指定した時点で視点画像全体を指定したこととする。よって、視点画像の中心を起点として視点画像全体の3次元画像情報を制御することも容易に実施できる。   In the disclosed embodiment, three-dimensional image information for display desired by the user is controlled around a part of the image displayed on the screen. However, the entire viewpoint image is designated when the user designates an arbitrary viewpoint image from among the multi-viewpoint three-dimensional images or when the user's viewpoint is designated without showing a part of the screen with a touch panel or the like. I will do it. Therefore, it is possible to easily control the three-dimensional image information of the entire viewpoint image starting from the center of the viewpoint image.

すなわち、必ずしも指定した3次元画像の中の一部の画像をタッチパネル等で指定せずとも本発明の目的は達成され、効果が得られることは2次元画像に対する従来技術からも明白である。   That is, it is clear from the prior art for a two-dimensional image that the object of the present invention is achieved and an effect is obtained without necessarily specifying a part of the designated three-dimensional image on the touch panel or the like.

また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (12)

多視点の3次元画像情報を入力して3次元画像を表示する画像表示手段と、
前記画像表示手段で表示される前記3次元画像の一部分の画像を指定する画像指定手段と
を備えることを特徴とする画像処理装置。
Image display means for inputting multi-viewpoint 3D image information and displaying a 3D image;
An image processing apparatus comprising: an image designating unit that designates a partial image of the three-dimensional image displayed by the image display unit.
前記3次元画像の一部分の画像を制御する画像制御手段をさらに備えることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an image control unit that controls an image of a part of the three-dimensional image. 前記画像制御手段は、前記画像指定手段で指定された前記3次元画像の一部分の画像に対し、補間処理によって加工制御を行うことを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the image control unit performs processing control by interpolation processing on a part of the three-dimensional image specified by the image specifying unit. 前記画像指定手段は、前記多視点の3次元画像情報の中から任意の視点の3次元画像情報によって前記3次元画像の一部分の画像を指定することを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。   4. The image designating unit according to claim 1, wherein the image designating unit designates an image of a part of the three-dimensional image based on the three-dimensional image information of an arbitrary viewpoint from the multi-viewpoint three-dimensional image information. The image processing apparatus according to item 1. 前記画像指定手段は、前記画像表示手段で表示される前記3次元画像に対応する位置をユーザーが指定することによって、前記3次元画像の一部分の画像を指定することを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。   The image designating unit designates a partial image of the three-dimensional image by a user designating a position corresponding to the three-dimensional image displayed by the image display unit. 4. The image processing apparatus according to any one of items 3. 前記画像指定手段は、ユーザーの相対的位置を判定することで、任意の視点の前記3次元画像の一部分の画像を指定することを特徴する請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the image designating unit designates a partial image of the three-dimensional image at an arbitrary viewpoint by determining a relative position of a user. 前記画像表示手段の近傍に配置された撮像手段をさらに備え、
前記画像指定手段は、前記撮像手段によって前記画像表示手段に対するユーザーの相対的位置を判定することで、任意の視点の3次元画像情報の内の画素位置を表示して、前記3次元画像の一部分の画像を指定することを特徴する請求項6に記載の画像処理装置。
It further comprises imaging means arranged in the vicinity of the image display means,
The image designating unit displays a pixel position in the three-dimensional image information of an arbitrary viewpoint by determining a relative position of the user with respect to the image display unit by the imaging unit, and a part of the three-dimensional image The image processing apparatus according to claim 6, wherein the image is designated.
前記画像指定手段は、前記3次元画像情報のうち、任意の視点に対応する3次元画像以外の3次元画像に対応する画像データを無効化することを特徴とする請求項4に記載の画像処理装置。   5. The image processing according to claim 4, wherein the image designating unit invalidates image data corresponding to a three-dimensional image other than a three-dimensional image corresponding to an arbitrary viewpoint from the three-dimensional image information. apparatus. 前記画像指定手段は、前記画像表示手段で表示される3次元画像情報に対応する位置をユーザーがタッチパネル、マウス、またはタッチパッドを使って指定することによって前記3次元画像の一部分の画像を指定することを特徴とする請求項5に記載の画像処理装置。   The image designating unit designates a part of the three-dimensional image by designating a position corresponding to the three-dimensional image information displayed by the image display unit using a touch panel, a mouse, or a touch pad. The image processing apparatus according to claim 5. 前記画像表示手段は、パララックスバリア方式、または、レンチキュラーレンズの方式を用いることを特徴とする請求項1ないし9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image display unit uses a parallax barrier system or a lenticular lens system. 多視点の3次元画像情報を入力して3次元画像を表示する画像表示ステップと、
前記画像表示ステップで表示される前記3次元画像の一部分の画像を指定する画像指定ステップと
を含むことを特徴とする画像処理方法。
An image display step for inputting multi-viewpoint 3D image information and displaying the 3D image;
And an image designating step for designating an image of a part of the three-dimensional image displayed in the image displaying step.
コンピュータを請求項1ないし11のいずれか1項に記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 11.
JP2012270522A 2012-12-11 2012-12-11 Image processing apparatus, image processing method, and program Pending JP2014116843A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012270522A JP2014116843A (en) 2012-12-11 2012-12-11 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012270522A JP2014116843A (en) 2012-12-11 2012-12-11 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2014116843A true JP2014116843A (en) 2014-06-26

Family

ID=51172414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012270522A Pending JP2014116843A (en) 2012-12-11 2012-12-11 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2014116843A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010124366A (en) * 2008-11-21 2010-06-03 Sony Corp Image signal processing apparatus, image signal processing method and image projection device
JP2010130048A (en) * 2008-11-25 2010-06-10 Sony Corp Image signal processing apparatus, image signal processing method, and image projection apparatus
JP2012015619A (en) * 2010-06-29 2012-01-19 Fujifilm Corp Stereoscopic display device and stereoscopic photographing device
JP2012222386A (en) * 2011-04-04 2012-11-12 Sony Corp Display control apparatus and method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010124366A (en) * 2008-11-21 2010-06-03 Sony Corp Image signal processing apparatus, image signal processing method and image projection device
JP2010130048A (en) * 2008-11-25 2010-06-10 Sony Corp Image signal processing apparatus, image signal processing method, and image projection apparatus
JP2012015619A (en) * 2010-06-29 2012-01-19 Fujifilm Corp Stereoscopic display device and stereoscopic photographing device
JP2012222386A (en) * 2011-04-04 2012-11-12 Sony Corp Display control apparatus and method, and program

Similar Documents

Publication Publication Date Title
US10652515B2 (en) Information processing apparatus, stereoscopic display method, and program
EP2638461B1 (en) Apparatus and method for user input for controlling displayed information
JP6508280B2 (en) Control device, detection device, display system, electronic device, and program
JP5167439B1 (en) Stereoscopic image display apparatus and stereoscopic image display method
US9432652B2 (en) Information processing apparatus, stereoscopic display method, and program
JP2013017146A (en) Display controller, display control method and program
US8988500B2 (en) Information processing apparatus, stereoscopic display method, and program
CN103460257A (en) Stereoscopic display device, method for receiving instructions, program, and medium for recording them
JP6065908B2 (en) Stereoscopic image display device, cursor display method thereof, and computer program
JP2013168120A (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
JP2012103980A (en) Image processing device, image processing method, and program
JP2019032713A (en) Information processing apparatus, information processing method, and program
JP2012103980A5 (en)
JP2011180779A (en) Apparatus, method and program for generating three-dimensional image data
JP2014116843A (en) Image processing apparatus, image processing method, and program
JP2019050583A (en) Display and program
JP2014128022A (en) Image processing apparatus, image processing method and program
JP2012208595A (en) Stereoscopic image display device and stereoscopic image display method
KR20120035609A (en) Method for depth adaptation of autostereoscopic image and user equipment for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170509