JP2014116843A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2014116843A JP2014116843A JP2012270522A JP2012270522A JP2014116843A JP 2014116843 A JP2014116843 A JP 2014116843A JP 2012270522 A JP2012270522 A JP 2012270522A JP 2012270522 A JP2012270522 A JP 2012270522A JP 2014116843 A JP2014116843 A JP 2014116843A
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- dimensional image
- dimensional
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザーの視点に応じて、多視点の3次元表示器に表示される3次元画像のうち、任意の画像を指定する。
【解決手段】多視点の3次元画像情報取得部601は、記憶装置またはネットワーク制御部から3次元画像情報を取得する。3次元画像生成部602は、3次元画像情報取得部601で取得した3次元画像情報に基づいて、3次元画像を生成する。3次元画像指定部603は、タッチパネル、キーボード、マウス等及び撮像装置を用いたユーザーの指示に基づいて、3次元表示器に入力される3次元画像情報に含まれる複数の3次元画像情報の中から、3次元画像情報の一部の画像情報が指定される。この指定によりユーザーが望む視点を正確に指定することができ、所定の位置の画像を正確に指定することができる。
【選択図】図6An arbitrary image is designated from among three-dimensional images displayed on a multi-viewpoint three-dimensional display according to a user's viewpoint.
A multi-view three-dimensional image information acquisition unit 601 acquires three-dimensional image information from a storage device or a network control unit. The 3D image generation unit 602 generates a 3D image based on the 3D image information acquired by the 3D image information acquisition unit 601. The three-dimensional image designating unit 603 includes a plurality of three-dimensional image information included in the three-dimensional image information input to the three-dimensional display based on a user instruction using a touch panel, a keyboard, a mouse, and the like and an imaging device. Thus, a part of the image information of the three-dimensional image information is designated. By this designation, the viewpoint desired by the user can be designated accurately, and an image at a predetermined position can be designated accurately.
[Selection] Figure 6
Description
本発明は、多視点の3次元画像を表示し、ユーザーが任意の視点から見た3次元画像の一部分の画像を指定できる画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program that display a multi-view three-dimensional image and allow a user to designate a partial image of the three-dimensional image viewed from an arbitrary viewpoint.
従来、2次元画像を表示する2次元表示器の表示画面にタッチパネルを配置し、表示画面に表示された2次元画像の一部分をユーザーが指等で直接タッチして指定することが知られている。この2次元表示器のタッチパネルでは、表示画像とタッチする表示位置とが1対1で対応するため、ユーザーが望む画像を正確に指定することができる。 Conventionally, it is known that a touch panel is arranged on a display screen of a two-dimensional display that displays a two-dimensional image, and a user directly specifies a part of the two-dimensional image displayed on the display screen with a finger or the like. . In the touch panel of this two-dimensional display, the display image and the touched display position correspond one-to-one, so that the image desired by the user can be designated accurately.
一方、特許文献1には、ボタンやスイッチ等の操作部品の3次元画像を3次元表示器の表示画面に表示し、タッチパネルを用いてユーザーがその3次元画像にタッチする技術が開示されている。さらに、これによって、その3次元画像の表示状態を立体的に変化させることが開示されている。この特許文献1では、一つの視点から撮像して得られた3次元画像を表示画面に表示しているため、表示画像とタッチする表示位置とを1対1で対応させることができる。
On the other hand,
しかしながら、多視点の3次元画像を表示画面に表示する場合には、同一の表示位置であっても、ユーザーの視点によって表示画像が異なるため、表示画像とタッチする表示位置とは1対1では対応していない。そのため、ユーザーがタッチする表示位置を検出するだけでは、どの視点から見た表示画像の一部分をタッチしているのかを特定することができず、ユーザーが望む画像を正確に指定することができないという問題がある。 However, when a multi-viewpoint three-dimensional image is displayed on the display screen, the display image differs depending on the user's viewpoint even at the same display position. Not supported. For this reason, simply detecting the display position touched by the user cannot identify from which viewpoint a part of the display image is touched, and cannot accurately specify the image desired by the user. There's a problem.
ここで、「多視点の3次元画像」とは、同一被写体を複数の視点から撮像して得られた複数の視点の3次元画像のことである。また、「視点」とは、3次元表示器の位置から見たユーザーの両目の位置のことを示し、1つの視点にはユーザーの右目用の画像と左目用の画像とが届けられる。 Here, the “multi-viewpoint three-dimensional image” is a three-dimensional image of a plurality of viewpoints obtained by imaging the same subject from a plurality of viewpoints. The “viewpoint” indicates the position of both eyes of the user as viewed from the position of the three-dimensional display, and an image for the user's right eye and an image for the left eye are delivered to one viewpoint.
このような課題を解決するため、本発明に係る画像処理装置は、多視点の3次元画像情報を入力して3次元画像を表示する画像表示手段と、画像表示手段で表示される3次元画像の一部分の画像を指定する画像指定手段とを備えることを特徴とする。 In order to solve such a problem, an image processing apparatus according to the present invention includes an image display unit that inputs multi-viewpoint 3D image information and displays a 3D image, and a 3D image displayed by the image display unit. And image designating means for designating a part of the image.
本発明によれば、ユーザーの視点に応じて、所望する3次元表示器に表示された所定の位置の画像を正確に指定することができる。 According to the present invention, it is possible to accurately specify an image at a predetermined position displayed on a desired three-dimensional display according to the viewpoint of the user.
実施例の説明に先立って、本明細書で用いる用語について簡単に説明する。 Prior to the description of the embodiments, terms used in this specification will be briefly described.
「2次元画像」とは、表示器で表示する、例えば人や風景などを表す2次元の画像そのものを示している。 The “two-dimensional image” indicates a two-dimensional image itself that is displayed on a display device and represents, for example, a person or a landscape.
「3次元画像」とは、3次元表示器で表示される、例えば人や風景などを表す3次元の画像そのものを示している。すなわち、3次元画像は、視差を有する複数の2次元画像で構成される。 The “three-dimensional image” indicates a three-dimensional image itself displayed on a three-dimensional display, for example, representing a person or a landscape. That is, the three-dimensional image is composed of a plurality of two-dimensional images having parallax.
「2次元画像情報」または「3次元画像情報」とは、上記の2次元画像または3次元画像を表示するための信号源を示している。 “2D image information” or “3D image information” indicates a signal source for displaying the 2D image or 3D image.
次に、簡単に3次元表示器について説明する。3次元表示器は、3次元画像情報として、その表示器の1つの画面中に複数の2次元画像を示す複数の2次元画像情報を同時に表示している。具体的には、3次元表示器に表示される2次元画像は、左目および右目の各視点から見た少なくとも2枚以上の複数の2次元画像情報に基づいている。したがって、その3次元表示器の表示画面上の同じ位置の近傍に3次元表示された3次元画像は、ユーザーの視点の位置によって大きく異なることになる。 Next, the three-dimensional display will be briefly described. The three-dimensional display device simultaneously displays a plurality of two-dimensional image information indicating a plurality of two-dimensional images on one screen of the display device as three-dimensional image information. Specifically, the two-dimensional image displayed on the three-dimensional display is based on at least two or more pieces of two-dimensional image information viewed from each viewpoint of the left eye and the right eye. Therefore, the three-dimensional image displayed three-dimensionally in the vicinity of the same position on the display screen of the three-dimensional display greatly varies depending on the position of the user's viewpoint.
以下、本発明を実施するための形態について図面を用いて説明する。本実施形態では、画像処理装置を例に説明するが、これに限定されるものではない。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In the present embodiment, an image processing apparatus will be described as an example, but the present invention is not limited to this.
<実施例1>
図1は、本実施例1の画像処理装置1の一例を示す概略図である。図1において本実施例の画像処理装置1は、一般的なパーソナルコンピュータ(以後PCと称する)2および3次元画像情報に基づいた3次元画像を画像表示するための表示器3を有する。PC2は、ネットワーク回線4等からネットワーク制御部5を介して3次元画像情報等を取得する。
<Example 1>
FIG. 1 is a schematic diagram illustrating an example of an
PC2は、CPU(Central Processing Unit)10で制御される。PC2は、3次元画像情報や本実施例に用いられるプログラム等を保持する記憶装置20を有する。またPC2は、本各種設定やプログラムを格納するROM(Read Only Memory)30及び、一時的な記憶装置として機能するRAM(Random Access Memory)40を有する。表示器3は、3次元画像を表示する3次元表示器50を有する。また、表示器3は、3次元表示器50の表示面にタッチパネル60を有し、表示した3次元画像を直接タッチして指定すると共に、キーボード70と同様にユーザーのPCへの各種の入力操作を可能にする。キーボード70は、PC2に設けられているマウスタッチパッド80に接続されている。撮像装置90は、一般的な表示器に装備された物で、ユーザーの位置を認識するために3次元表示器50の近傍に設けられている。PC2には、印刷物を出力するプリンター100がネットワーク制御部5を介して接続されている。
The PC 2 is controlled by a CPU (Central Processing Unit) 10. The PC 2 includes a
図2は、図1で示した表示器3をより詳細に説明する図である。図2(a)において、3次元表示器50として用いられるレンチキュラー多視点表示器200は、液晶表示部201とその上面にレンチキュラーレンズ202とを有する。更にレンチキュラーレンズ202の上面にタッチパネル60を有し、画面中央部に撮像装置90を有する。
FIG. 2 is a diagram for explaining the
図2(b)に、多視点の3次元画像を表示するための、各レンチキュラーレンズ202と相対的位置が保証された各表示画素とを示す。図2(b)のレンチキュラー多視点表示器200は、ユーザーが6方向からこのレンチキュラー多視点表示器200を見た場合の多視点の3次元画像の表示を可能にする。そのため、各レンチキュラーレンズ202内には、それぞれ画素203から画素204までの一続きの7つの表示画素を持っている。なお、レンチキュラー多視点表示器200は、公知の技術で一般的に実現される物で、カラー表示可能であるが、説明を簡略化するため、本実施例では単色表示可能であるものとする。また、以後の図において表示画素の並びを1次元的に表現する。なお、以下で単に「視点」と述べる場合は、レンチキュラー多視点表示器200の位置から見たユーザーの両目の位置のことを示す。そして、1つの「視点」には、ユーザーの右目用の画像と左目用の画像とが届けられる。
FIG. 2B shows each
図2(c)と図2(d)にそれぞれ異なる位置の視点1と視点4からユーザーが見た場合に見える画素を示す。すなわち、レンチキュラーレンズ202の光学特性によって、視点1のユーザーの右目では画素2のみが見え、視点1のユーザーの左目では画素1のみが見える。また、視点4のユーザーの右目では画素5のみが見え、視点4のユーザーの左目では画素4のみが見える。このようなレンチキュラーレンズ202による3次元画像の表示は公知の原理であり、本明細書では説明を省略する。
FIG. 2C and FIG. 2D show pixels that can be seen when the user views from
図3は、6方向からの6つの視点とその視点に対応する画像を表示するために撮像する画像との関係を示す図である。それぞれの視点では、ユーザーの左右の眼で見た画像に相当する2つの2次元画像が撮像される。同一被写体を視点1から視点6まで連続的に3次元表示するために、視点N(Nは1〜6のいずれかの整数)においてユーザーの左目に届けられる画像Nは、視点N−1におけるユーザーの右目に届けられる画像と同じである。これらの画像を示す2次元画像情報を分割してレンチキュラーレンズ202と相対的位置を保った液晶表示画素で表示すれば、図3で示すそれぞれの視点から被写体を見た際と同じ3次元像を見ることができる。
FIG. 3 is a diagram illustrating a relationship between six viewpoints from six directions and images captured to display images corresponding to the viewpoints. At each viewpoint, two two-dimensional images corresponding to images viewed with the left and right eyes of the user are captured. In order to display the same subject three-dimensionally continuously from
例えば、図2(c)及び図2(d)で示す画素1は、図3における視点1の左側で撮像した2次元画像(画像1)を示す2次元画像情報の一部であり、画素2は、視点1の右側で撮像した2次元画像(画像2)を示す2次元画像情報の一部である。また、画素3は、視点3の左側で撮像した2次元画像(画像3)を示す2次元画像情報の一部であり、画素4は、視点3の右側で撮像した2次元画像(画像4)を示す2次元画像情報の一部である。また、画素4は、視点4の左側で撮像した2次元画像(画像4)を示す2次元画像情報の一部であり、画素5は、視点4の右側で撮像した2次元画像(画像5)を示す2次元画像情報の一部である。さらに、画素6は、視点6の左側で撮像した2次元画像(画像6)を示す2次元画像情報の一部であり、画素7は、視点6の右側で撮像した2次元画像(画像7)を示す2次元画像情報の一部である。
For example, the
図4を用いて具体的にユーザーの視点の違いによる多視点の3次元画像およびその3次元画像の一部分の見え方を詳細に説明する。図3の被写体が図4(a)の被写体400とするならば、図3の各視点における左右の目から見た2次元画像、すなわち図4(b)の2次元画像は、画像401から画像407の7つの画像となる。 A multi-view three-dimensional image and how a part of the three-dimensional image is seen will be described in detail with reference to FIG. If the subject in FIG. 3 is the subject 400 in FIG. 4A, the two-dimensional image viewed from the left and right eyes at each viewpoint in FIG. 3, that is, the two-dimensional image in FIG. 407 seven images are obtained.
つまり、被写体400の一部分408は、視点1の左目用の撮像画像である画像1(画像401)では画面の右端に見え、逆に視点6の右目用の撮像画像である画像7(画像407)では画面の左端に見える。
That is, a part 408 of the subject 400 appears at the right end of the screen in the image 1 (image 401) that is the captured image for the left eye of the
次に、図4(b)で撮像した画像401から画像407で示す2次元画像を分割して、レンチキュラーレンズ202と相対的位置を保った液晶表示画素で表示すれば、図4(a)で示す視点から被写体を見た際と同じ3次元像を見ることができる。今、この被写体400を多視点の3次元画像として表示器3で表示した場合を図5に示す。
Next, when the two-dimensional image indicated by the
図5は、一例としてユーザーが視点2と視点5から表示器3を見た場合のユーザーと表示器3の相対的位置関係、および表示器3でユーザーに見える画像を示している。
FIG. 5 shows, as an example, the relative positional relationship between the user and the
図5において、ユーザー500は、表示器3を略視点2の角度を有して斜めに見ていることになる。従って、ユーザー500の左目には図4(b)に示す画像402が写る。同様に、ユーザー500の右目には図4(b)に示す画像403が写る。その結果、図4(a)の被写体400は、視点2から見た3次元画像として画面501として視認される。この時、ユーザー500が指等で画面の前面に配置したタッチパネル60で画面上の位置502をタッチすれば、被写体400の一部分408をタッチして指定したことになる。
In FIG. 5, the
同様に、ユーザー503は、表示器3を略視点5の角度を有して斜めに見ていることになる。従ってユーザー503の左目には、図4(b)に示す画像405が写る。同様に、ユーザーの右目には図4(b)に示す画像406が写る。その結果、図4(a)の被写体400は、視点5から見た3次元画像として画面504として視認される。この時、ユーザー503が指等で画面の前面に配置したタッチパネル60で表示器3に対して相対的に画面上の位置502と略同じ位置、すなわち画面上の位置505で示す位置をタッチしても、被写体400の一部分408をタッチしたことにはならない。これが本発明が新たに開示する課題である。
Similarly, the
図6は、本実施例の画像処理装置1における画像処理部600の機能ブロックの一例を示す図である。画像処理部600はCPU10によって制御され、多視点の3次元画像情報取得部601と、3次元画像生成部602と、3次元画像指定部603と、3次元画像制御部604とを有する。
FIG. 6 is a diagram illustrating an example of functional blocks of the
多視点の3次元画像情報取得部601は、記憶装置20またはネットワーク制御部5から3次元画像情報を取得する。3次元画像生成部602は、3次元画像情報取得部601で取得した3次元画像情報に基づいて、3次元画像を生成する。3次元画像指定部603は、タッチパネル60、キーボード70、マウス等80及び撮像装置90を用いたユーザーの指示に基づいて、3次元画像生成部602で生成し3次元表示器50に表示された3次元画像を指定する。この指定により、3次元画像情報の一部の画像情報が指定されることになる。この詳細については後述する。
The multiview 3D image
3次元画像制御部604は、3次元画像指定部603にて指定された3次元画像を、タッチパネル60、キーボード70、マウス等80を用いたユーザーの指示に従ってCPU10によって制御する。例えば、3次元画像制御部604は、指定された3次元画像に対して、回転処理、拡大/縮小処理などの画像処理が行われるように制御する。
The three-dimensional
図7は、本実施例の画像処理装置1における多視点の3次元画像の画像指定処理を示すフローチャートである。このフローチャートは、CPU10がROM30または記憶装置20に記憶されているプログラムをRAM40に展開して実行することで実現され、図1で示した各部は以下のフローチャートの処理に従って制御される。このフローチャートを用いて本実施例の処理の流れを詳細に説明する。
FIG. 7 is a flowchart showing image designation processing of a multi-viewpoint three-dimensional image in the
本実施例においては、画像に対する表示処理を指示する前に、どの視点から見た場合の画像に対して指示するのかを指定する処理が行われる。すなわち、3次元画像指定部603において、多視点の3次元画像のうち、どの視点から見た画像を処理対象とするかを指定する処理が行われる。
In the present embodiment, before instructing display processing for an image, processing for designating which viewpoint to instruct the image from which viewpoint is performed is performed. That is, in the three-dimensional
ステップS700において、3次元画像生成部602は、一般の例えば撮像した3次元画像をアルバムとして閲覧できるアプリケーションプログラム等の実行に応じて、3次元画像を生成し3次元表示器50で3次元表示する。3次元画像を表示すると、ステップS701へ進む。
In step S <b> 700, the three-dimensional
ステップS701において、3次元画像指定部603は、指定の(視点)方向から見た3次元画像を表示する指示を検知する。例えば、CPU10がアプリケーションプログラム中の視点指定ボタン等で、ユーザーが所望する視点画像を指定した場合、指定された視点から見た3次元画像を正面に表示する要求があると判定する。そして、3次元画像指定部603は、3次元表示器50に表示された多視点の3次元画像から、指定された視点の3次元画像を指定する。3次元画像を指定すると、ステップS702へ進む。
In step S <b> 701, the three-dimensional
ステップS702において、3次元画像生成部602は、タッチパネル60のスクロールバーの移動に応じて前述の6つの視点を有する多視点の3次元画像の各視点から見た3次元画像を順次3次元表示器50の正面に表示させる。3次元表示するための3次元画像情報は、既定の規格に合致しているものとする。3次元画像生成部602は、記憶装置20やRAM40に保持され、3次元画像情報取得部601で取得された画像情報の中から、必要に応じて3次元表示器50が有する表示用記憶素子(図示せず)に各視点の画像情報を選択的に供給して3次元画像を生成する。3次元画像を生成して表示すると、ステップS703へ進む。
In step S702, the three-dimensional
ステップS703において、3次元画像指定部603は、ユーザーによるタッチ入力の有無を検知する。タッチ入力が有ると検知した場合には、ステップS704の処理へ進み、タッチ入力がないと検知した場合には、ステップS700の処理へ戻る。
In step S703, the three-dimensional
ステップS704において、3次元画像指定部603は、タッチパネル60上でユーザーがタッチした位置と、タッチ時の指の操作から、ユーザーによるタッチ入力が各種の表示指示の中のどの指示であるかを識別する。表示指示とは、拡大処理を指示するダブルタップ(2回押し)、スクロール、(2本指で画面を広げる)ピンチアウト、(2本指で画面を狭める)ピンチイン等の所謂一般のタッチ操作で物の表示状態を指示することをいう。ユーザーがタッチした位置と表示指示を識別するとステップS705へ進む。
In step S704, the three-dimensional
ステップS705において、3次元画像指定部603は、ユーザーがタッチパネル60上でタッチした画像を指定する。指定した画像は、タッチする直前に視点選択ボタン801に応じて表示していた視点の3次元画像の中のタッチ位置に表示している画像である。なお、視点選択ボタン801をユーザーが操作せずに、ステップS703でユーザーのタッチ入力の有無を検知した場合、ユーザーが所望する視点画像は多視点の3次元画像として略正面に表示している視点4とする。
In step S <b> 705, the three-dimensional
また、ステップS705で指定するタッチ画像は、視点選択ボタン801に応じて表示していた視点の3次元画像のタッチ位置に表示している画像である。タッチ画像は、視点選択ボタン801が視点6を選択している場合、3次元表示器50のレンチキュラーレンズ202と相対的位置が保証される。ほぼ正面の画素位置に表示される画像データは、3次元画像情報803に示すように、図3に示す画像6と画像7、すなわち視点6の右目用の2次元画像7と視点6の左目用の2次元画像6である。
The touch image specified in step S705 is an image displayed at the touch position of the viewpoint three-dimensional image displayed in accordance with the
従って、本実施例では、タッチ画像はその時点で表示している3次元画像の内、ユーザーの左目用の2次元画像におけるタッチ位置の画像とする。両目用の2種類の2次元画像の内、右目用を用いるか、或いは左目用を用いるかをその都度、或いはタッチ位置に応じて選択的に切り替えても良いが、望ましくは、本実施例の如く左目用(或いは右目用)を用いることで初期設定する。タッチした画像を指定するとステップS706へ進む。 Therefore, in this embodiment, the touch image is an image of the touch position in the two-dimensional image for the left eye of the user among the three-dimensional images displayed at that time. Of the two types of two-dimensional images for both eyes, whether to use the right eye or the left eye may be selectively switched each time or according to the touch position. Thus, the initial setting is made by using the left eye (or right eye). When the touched image is designated, the process proceeds to step S706.
ステップS706において、3次元画像制御部604は、ステップS705で指定した画像の加工を制御する。画像の加工制御は、視点6の3次元画像、すなわち図3に示す画像6及び画像7に補間処理を行って視点6の3次元画像として拡大処理を行う。これは、3次元画像取得部601で記憶保持している3次元画像の中で3次元画像生成部602で表示している視点6の左目用2次元画像の中のタッチ位置にある画像部を中心に行う。視差を考慮しながら行う3次元画像の拡大補間処理は、公知の技術を用いる。例えば、「綱島宣浩他:オクルージョンを考慮した2眼ステレオ画像からの中間画像データの作成、3D Image Conference '95 pp.174-177(1995) 」に詳しく開示されている。また、「吾妻健夫他:中間像生成のためのエッジ情報を用いた視差推定、3D Image Conference'95 pp.190-194(1995)」等にも開示されている。
In step S706, the three-dimensional
本実施例では、ステップS704で識別されたタッチ動作が拡大を指示するダブルタップであったとして、又、左目用2次元画像を用いることが既定されている。そのため、ステップS706では、図3に示す左目用2次元画像、すなわち画像6上のステップS704で識別されたタッチ位置の画像部を中心とし、拡大表示するための画像の加工を制御している。画像の加工制御をすると、ステップS700に戻る。
In this embodiment, it is predetermined that the touch operation identified in step S704 is a double tap for instructing enlargement, and the left-eye two-dimensional image is used. Therefore, in step S706, the processing of the image for enlarged display is controlled around the two-dimensional image for the left eye shown in FIG. 3, that is, the image portion at the touch position identified in step S704 on
図8は、本実施例に係る多視点の3次元画像から所望する視点を選択する手順を説明する図である。3次元表示器50の中央部の表示領域800に表示する情報は、図2で説明した多視点の3次元画像を表示するための3次元画像情報から指定の視点の3次元画像を表示するための3次元画像情報に切り替わる。すなわち、3次元表示器50を正面から見た場合のみユーザーが3次元画像を見ることができるように、表示領域800は各視点から見た3次元画像を順次表示するように表示制御する。具体的には、画面下部に表示された視点選択ボタン801をタッチパネル60の操作で矢印方向にスクロールする。すると、ボタン801の位置に応じて表示領域800の表示画像は視点6、視点5、視点4、視点3、視点2、視点1の順に3次元画像に切り替わる。
FIG. 8 is a diagram illustrating a procedure for selecting a desired viewpoint from a multi-view three-dimensional image according to the present embodiment. The information displayed in the
多視点の3次元画像は、1つのレンチキュラーレンズ202内にある各視点から見た3次元画像である。多視点の3次元画像を表示するために、多視点の3次元画像を構成する全ての2次元画像情報を含む3次元画像情報803によって3次元画像を表示する。しかし、ステップS702の処理に移行すると、視点選択ボタン801の位置に応じて、例えば、視点6用の3次元画像情報804が示す3次元画像を表示領域800に表示する。視点6用の3次元画像情報804は、3次元表示器50の略正面から見た場合に視点6の3次元画像を表示するための情報に変更されている。すなわち、3次元画像生成部602は、レンチキュラーレンズ202の略中央部の画素位置に視点6の2次元画像情報6及び2次元画像情報7を表示し、他の画素位置は黒データに固定する。これにより、正面から見れば視点6の3次元画像が見え、それ以外の角度からは何も見えなくなる。つまり、ステップS702では、多視点の3次元画像を示す3次元画像情報の一部を書き換えて、指定の視点の3次元画像を示す3次元画像情報に変更(あるいは生成)する処理が行われる。
A multi-viewpoint three-dimensional image is a three-dimensional image viewed from each viewpoint within one
従って、視点選択ボタン801をユーザーが、矢印方向に移動させた場合、その位置に応じて、表示する3次元画像情報を、視点6の3次元画像を表示する3次元画像情報804から他の視点を表示する3次元画像情報に変更する。これにより、視点選択ボタン801で指示された視点から見た3次元画像を順次表示できる。
Therefore, when the user moves the
また、指定された視点の3次元画像以外の3次元画像については、表示されない処理(無効化処理)が施されている。これにより、3次元表示器50をユーザーが異なる角度で見ることによって所望する画像と異なる画像が選択されることを防止することができる。ユーザーは、この視点選択ボタン801をスクロールして、所望の視点からの3次元画像が表示された状態で、必要であれば表示された3次元画像の中で、更に指定すべき画像部分をタッチパネル60でタッチすることができる。
In addition, processing that is not displayed (invalidation processing) is performed on a three-dimensional image other than the three-dimensional image of the designated viewpoint. Accordingly, it is possible to prevent an image different from a desired image from being selected when the user views the three-
図8を用いて3次元画像情報と2次元画像情報の関係について補足する。前述したように2次元画像情報は、2次元画像を表示するための信号源である。例えば、視点6の3次元画像のうち左目に対応する2次元画像を示す2次元画像情報6は、3次元表示器50のレンチキュラーレンズ202と相対的位置が保証された所定の画素位置に表示される画像データである。3次元画像情報には、これらの複数の2次元画像情報が含まれており、かつその各2次元画像情報が配置される相対的位置を示す情報も含まれている。図8の例では、3次元画像情報は、3次元画像情報803および804で示す構造を表す情報のことである。なお、3次元画像情報や2次元画像情報には、上述した情報またはデータのほかにも、撮像時に得られる各種の情報など他の情報が含まれていても良い。
The relationship between the three-dimensional image information and the two-dimensional image information will be supplemented with reference to FIG. As described above, the two-dimensional image information is a signal source for displaying a two-dimensional image. For example, the two-
本発明は、多視点の3次元画像に対して所望する3次元画像を指定することに特徴が有る。そのため、指定された任意の視点の3次元画像、或いは、画像中のタッチ画像を指定した後の全体画像や一部の画像に対する加工制御の内容、及びその後の処理手段には何ら限定されることはない。特に、本実施例では、視点6の3次元画像に対して拡大表示したが、タッチ位置の画像に関連させて、他の視点の3次元画像も拡大処理することが可能である。結果として、ステップS706からステップS700に戻り、多視点の3次元画像としてタッチ位置を中心に拡大した3次元画像を表示することも容易である。
The present invention is characterized in that a desired three-dimensional image is designated for a multi-viewpoint three-dimensional image. Therefore, it is limited to the three-dimensional image of the designated arbitrary viewpoint or the content of the processing control for the whole image or a part of the image after designating the touch image in the image, and the subsequent processing means. There is no. In particular, in this embodiment, the 3D image at the
或いは、タッチ位置の画像が背景画像と独立した物体の場合、物体に関する付帯情報を吹き出し等を用いて2次元表示することも本発明における3次元画像情報の制御である。特に、本発明が対象とする多視点の3次元画像は、視点によって他の物体画像の影に隠れて視認できない画像部分も視点を変えることで見ることができる。これにより、隠れた物体の画像を他の画像から独立した物体画像として、単独に3次元画像として切り取ることも本発明における3次元画像情報の制御に包含される。 Alternatively, when the image at the touch position is an object independent of the background image, the auxiliary information related to the object is displayed two-dimensionally using a balloon or the like, which is the control of the three-dimensional image information in the present invention. In particular, a multi-view three-dimensional image targeted by the present invention can be viewed by changing the viewpoint of an image portion that is hidden behind a shadow of another object image depending on the viewpoint. Thus, the control of the three-dimensional image information in the present invention also includes cutting out the hidden object image as a three-dimensional image independently as an object image independent of other images.
以上、本実施例によれば、3次元表示された多視点の3次元画像に対してユーザーが、タッチパネルによって、表示されている一部の画像を指定し、画像の拡大表示等の指示が可能になる。また、画像を指定する際に、他の視点に係る3次元画像情報を無効化することにより、ユーザーが所望する視点からの画像を確実に指定することができるので、所望の画像とは異なる画像に対する指示入力を防止することができる。 As described above, according to the present embodiment, the user can specify a part of the displayed image on the touch panel with respect to the three-dimensionally displayed multi-viewpoint three-dimensional image, and can instruct an enlarged display of the image. become. Also, when specifying an image, it is possible to reliably specify an image from the viewpoint desired by the user by invalidating the three-dimensional image information related to the other viewpoint, so that an image different from the desired image It is possible to prevent the input of instructions.
<実施例2>
実施例1では、タッチパネル60で画像をタッチする前に、ユーザーに多視点の3次元表示している画像の中から所望する画像をタッチ指示し易い視点の3次元画像を選択させる実施例を説明した。本実施例2では、このような操作に依らず、直接ユーザーの所望する画像をタッチ操作で指定する実施例を説明する。
<Example 2>
In the first embodiment, before touching an image on the
本実施例では、3次元表示器50を操作および観測しているユーザーの位置を撮像装置90で撮像する。その後、撮像した画像からユーザーの3次元表示器50に対する位置を認識して、ユーザーの3次元表示器50に対する視点を確定する。この確定したユーザーの視点あるいは、視点とタッチパネル60のタッチ位置によってタッチ画像を指定する。
In the present embodiment, the position of the user who operates and observes the three-
図9は、本実施例の画像処理装置1における多視点の3次元画像の画像指定処理を示すフローチャートである。本実施例では、図7で説明した実施例1と同様の処理であるステップS900と、ステップS903からS906については、説明を省略する。
FIG. 9 is a flowchart showing image designation processing of a multi-viewpoint three-dimensional image in the
ステップS901において、3次元画像指定部603は、ステップS900で表示した3次元画像の視点を認識する処理を実行する。ステップS901の処理を図10及び図11を用いて詳細に説明する。
In step S901, the 3D
図10は、本実施例に係る視点認識の原理を表す図である。図10を用いて撮像された画像1000内で認識したユーザーの顔の位置からユーザーの視点を指定する原理を詳細に説明する。一般に両目の視差を利用した3次元表示器は、観察者が表示器から所定の距離Lm離れた位置で最も3次元画像を良好に見ることができる。すなわち、撮像されたユーザーは、3次元表示器50から略距離Lm離れた位置で撮像されたと推定することができる。従って、撮像された画像1000内のユーザーの両目の間隔となる距離Liが標準的に8cmだと想定して、ユーザーの位置の表示器中央からのズレである距離Loを求めることができる。また、図10において3次元表示器50の前面から距離Lmの位置に示す仮想のライン1001上のユーザーの位置、すなわち点Pから3次元表示器50の中央を目指す方向がユーザーの視点となる。
FIG. 10 is a diagram illustrating the principle of viewpoint recognition according to the present embodiment. The principle of designating the user's viewpoint from the position of the user's face recognized in the captured
多視点の3次元表示器50を点Pの位置から見た場合、予め撮像され、表示されたどの視点の3次元画像が最も良好に見えるかを判定することでユーザーが見ている視点の画像を指定することができる。
When the multi-viewpoint three-
すなわち、3次元表示器50の中央からの距離Loが正の値なら、視点1か、視点2か、視点3のいずれかであり、3次元表示器50の中央からの距離Loが負の値なら、視点6か、視点5か、視点4のいずれかである。
That is, if the distance Lo from the center of the three-
図10で図示するように、推定されたユーザーの位置Pと各表示されている3次元画像の視線が仮想のライン1001と交わる位置を比較して、ユーザーの位置Pに近い視線を求めれば、その視点に対応する画像がユーザーが所望する3次元画像と判定できる。なお、L1は、視点3と視点2を識別する閾値、L2は視点2と視点1を識別する閾値、−L1は視点4と視点5を識別する閾値、−L2は視点5と視点6を識別する閾値である。これらは、それぞれライン1001と両視線が交わる中間点の3次元表示器50の中央からの距離とすることができる。
As shown in FIG. 10, by comparing the estimated position P of the user with the position where the line of sight of each displayed three-dimensional image intersects the
図11は、本実施例に係る視点認識の処理のステップS901の詳細を示すフローチャートである。ステップS901の視点認識の処理は、3次元画像指定部603が実行する。
FIG. 11 is a flowchart illustrating details of step S901 in the viewpoint recognition processing according to the present embodiment. The viewpoint recognition process in step S901 is executed by the three-dimensional
ステップS1111において、3次元画像指定部603は、撮像装置90を制御して3次元表示器50の中央に設置された撮像装置90で観察者の正面を撮像し、図10の撮像された画像1000を示す画像データを得る。この撮像画像1000を示す画像データを図1のRAM40に一時記憶しておき、ステップS1112へ進む。
In step S <b> 1111, the 3D
ステップS1112において、3次元画像指定部603は、公知のパターンマッチング顔認識技術でユーザーの顔の位置を認識する。一般に人の顔認識は横に並ぶ1対の目の存在に着目して容易にその重心位置を認識できる。ユーザーの顔の位置を認識すると、ステップS1113へ進む。
In step S1112, the three-dimensional
ステップS1113において、3次元画像指定部603は、認識した顔の位置からユーザーの視点を指定して、その視点の位置と3次元表示器50の中央位置との距離Loを検出する。距離Loを検出すると、ステップS1113へ進む。
In step S <b> 1113, the three-dimensional
ステップS1114において、3次元画像指定部603は、距離Loの符号を判定する。距離Loの符号が正の場合は、ステップS1115へ進む。
In step S1114, the three-dimensional
ステップS1115において、Lo>L2ならば、3次元画像指定部603はユーザーの視点を視点1に指定する。Lo≦L2ならば、ステップS1116へ進む。
If Lo> L2 in step S1115, the three-dimensional
ステップS1116において、Lo>L1ならば、3次元画像指定部603はユーザーの視点を視点2に指定する。Lo≦L1ならば、3次元画像指定部603はユーザーの視点を視点は3に指定する。
If Lo> L1 in step S1116, the three-dimensional
ステップS1114の判定で、距離Loの符号が負の場合は、ステップS1120へ進む。 If it is determined in step S1114 that the sign of the distance Lo is negative, the process proceeds to step S1120.
ステップS1120において、Lo<−L2ならば、3次元画像指定部603はユーザーの視点を視点6に指定する。Lo≧−L2ならば、ステップS1121へ進む。
In step S1120, if Lo <−L2, the three-dimensional
ステップS1121において、Lo<−L1ならば、3次元画像指定部603はユーザーの視点を視点5に指定する。Lo≧−L1ならば、3次元画像指定部603はユーザーの視点を視点4に指定する。なお、図10で示す撮像された画像1000では、ユーザーの視点は視点2として指定される。
In step S1121, if Lo <−L1, the three-dimensional
以上の処理により、ステップS901の視点認識の処理でユーザーが見ている3次元画像が視点2として指定される。その後、3次元画像指定部603は、ステップS902からS904の処理を経て、ステップS905で設定が左目用の2次元画像であれば、視点2の左目用画像を使って実施例1と同様に以降の処理を行う。
With the above processing, the three-dimensional image that the user is viewing in the viewpoint recognition processing in step S901 is designated as the
本実施例の処理によれば、実施例1で説明した処理に比べて多視点の3次元画像から視点を指定するためのユーザーの操作を不要とすることができる。このため、実施例1よりも操作性の優れた実施例となる。 According to the process of the present embodiment, the user's operation for designating a viewpoint from a multi-view three-dimensional image can be made unnecessary as compared with the process described in the first embodiment. For this reason, it becomes an Example excellent in operativity than Example 1.
なお、ユーザーの視点を識別する手段として本発明は、通常の表示器3が有する撮像装置90を用いている。しかし、例えば、表示器3が2組の撮像装置90を有する場合は、ユーザまでの距離がより正確に識別できるため、本実施例に比べて精度良くユーザーの視点を指定できる。
Note that, as a means for identifying the user's viewpoint, the present invention uses the
また、2組の赤外線送受信手段を有し、表示器3からそれぞれユーザー方向に略無指向性で赤外線を放射し、その反射光の強度からユーザの位置を検出する技術において本発明は実施できる。或いは、ユーザーの視線を直接識別する方法、表示器の位置とユーザーが発信するGPS等位置情報との関係から識別する方法等、一般的に公知の他の手段を用いても本実施例に限らず本発明は実施でき、優れた効果が得られる。
In addition, the present invention can be implemented in a technique that includes two sets of infrared transmission / reception means, emits infrared rays from the
<実施例3>
実施例1および2は、視差分割方式としてレンチキュラーレンズ202を用いた多視点の3次元表示器50を用いた実施例である。しかしながら、3次元表示器は、レンチキュラーレンズ202を用いるものに限定されることなく他の3次元表示器を用いることも可能である。本実施例3では、パララックスバリア方式の3次元表示器を用いる例について説明する。
<Example 3>
Examples 1 and 2 are examples using a multi-viewpoint three-
図12は、本実施例で用いるパララックスバリア方式の3次元表示器1200の表示原理を表す図である。例えば、図12に示すパララックスバリア方式の3次元表示器1200は、液晶表示部1201と、表示画面の手前に左右の目から見た視線上に互いに他方の目用の表示画素からの光を遮るための光学的なパララックスバリア1210を有する。
FIG. 12 is a diagram showing the display principle of the parallax barrier type three-
従って、図12に示すように右目の視点からは、パララックスバリア1210で左目用画素の光路が遮光され、逆に左目の視点からは、パララックスバリア1210で右目用画素の光路が遮光される。その結果、両目には両目の視点で撮像された異なる視点の画像が見えるため、3次元表示がなされる。
Accordingly, as shown in FIG. 12, the optical path of the left-eye pixel is blocked by the
図13を用いて、パララックスバリア方式の3次元表示器1200を使った本実施例を詳細に説明する。図13中液晶表示部1201は、それぞれ右目用表示画素170と左目用表示画素171とを隣接対として有している。視点1から見た3次元画像を表示する場合、3次元画像情報172は、右目用画素位置に図3に示す画像2の2次元画像情報を短冊状に分解して表示する。併せて、左目用画素位置に画像1の2次元画像情報を短冊状に分解して表示すれば良い。ここで、多視点の3次元画像として図13に示す様に各視点の3次元画像情報を有する場合、実施例1および2の場合と同様に、順次表示する3次元画像情報を切り替えて表示すれば、所望する視点の画像を指定することができる。また、タッチ画像を指定する際に用いる2次元画像情報も、実施例1および2の場合と同様に予め設定された左右どちらかの目用の2次元画像情報を用いれば良い。3次元画像指定部603は、用いる3次元表示器の原理に応じて表示する2次元画像情報または3次元画像情報を選択して3次元表示器で表示することができる。
The present embodiment using the parallax barrier type three-
すなわち、図7及び図8で説明した、視点を選択する際の各視点の3次元画像情報については3次元画像情報172および173を直接用いれば同様に実施が可能である。 That is, the three-dimensional image information of each viewpoint when selecting the viewpoint described with reference to FIGS. 7 and 8 can be similarly implemented by directly using the three-dimensional image information 172 and 173.
パララックスバリア方式の3次元表示器1200を用いた本実施例では、同時に多視点の3次元表示はできないが、画素密度の高い表示が可能であり、より正確に画像を指定することができる。
In the present embodiment using the parallax barrier type three-
<その他の実施例>
先の実施例では多視点の3次元表示している表示画像の一部に対する指示をタッチパネル60を用いて実施した例を開示したが、本発明を実施する図1で示す画像処理装置を構成するPC2は一般的なパーソナルコンピュータである。そのため、タッチパネル60を用いて詳細に説明した実施例は、マウスやタッチパッド80或いはキーボード70の複数のキーを用いて画面に表示した画像の一部を指し示すことが同様に実施できる。また、拡大、移動、切り取り等一般的な指定した画像に対する制御も指示できる。従って、これらの入力手段を用いても同様に本発明の効果が得られることは述べるまでもない。
<Other examples>
In the previous embodiment, the example in which the
なお、開示した実施例では、画面に表示された一部の画像を中心にユーザーが望む表示のための3次元画像情報を制御する。ところが、タッチパネル等で画面の一部を差し示さなくとも、多視点の3次元画像の中からユーザーが任意の視点画像を指定した時、或いはユーザーの視点を指定した時点で視点画像全体を指定したこととする。よって、視点画像の中心を起点として視点画像全体の3次元画像情報を制御することも容易に実施できる。 In the disclosed embodiment, three-dimensional image information for display desired by the user is controlled around a part of the image displayed on the screen. However, the entire viewpoint image is designated when the user designates an arbitrary viewpoint image from among the multi-viewpoint three-dimensional images or when the user's viewpoint is designated without showing a part of the screen with a touch panel or the like. I will do it. Therefore, it is possible to easily control the three-dimensional image information of the entire viewpoint image starting from the center of the viewpoint image.
すなわち、必ずしも指定した3次元画像の中の一部の画像をタッチパネル等で指定せずとも本発明の目的は達成され、効果が得られることは2次元画像に対する従来技術からも明白である。 That is, it is clear from the prior art for a two-dimensional image that the object of the present invention is achieved and an effect is obtained without necessarily specifying a part of the designated three-dimensional image on the touch panel or the like.
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
Claims (12)
前記画像表示手段で表示される前記3次元画像の一部分の画像を指定する画像指定手段と
を備えることを特徴とする画像処理装置。 Image display means for inputting multi-viewpoint 3D image information and displaying a 3D image;
An image processing apparatus comprising: an image designating unit that designates a partial image of the three-dimensional image displayed by the image display unit.
前記画像指定手段は、前記撮像手段によって前記画像表示手段に対するユーザーの相対的位置を判定することで、任意の視点の3次元画像情報の内の画素位置を表示して、前記3次元画像の一部分の画像を指定することを特徴する請求項6に記載の画像処理装置。 It further comprises imaging means arranged in the vicinity of the image display means,
The image designating unit displays a pixel position in the three-dimensional image information of an arbitrary viewpoint by determining a relative position of the user with respect to the image display unit by the imaging unit, and a part of the three-dimensional image The image processing apparatus according to claim 6, wherein the image is designated.
前記画像表示ステップで表示される前記3次元画像の一部分の画像を指定する画像指定ステップと
を含むことを特徴とする画像処理方法。 An image display step for inputting multi-viewpoint 3D image information and displaying the 3D image;
And an image designating step for designating an image of a part of the three-dimensional image displayed in the image displaying step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012270522A JP2014116843A (en) | 2012-12-11 | 2012-12-11 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012270522A JP2014116843A (en) | 2012-12-11 | 2012-12-11 | Image processing apparatus, image processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014116843A true JP2014116843A (en) | 2014-06-26 |
Family
ID=51172414
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012270522A Pending JP2014116843A (en) | 2012-12-11 | 2012-12-11 | Image processing apparatus, image processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014116843A (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010124366A (en) * | 2008-11-21 | 2010-06-03 | Sony Corp | Image signal processing apparatus, image signal processing method and image projection device |
| JP2010130048A (en) * | 2008-11-25 | 2010-06-10 | Sony Corp | Image signal processing apparatus, image signal processing method, and image projection apparatus |
| JP2012015619A (en) * | 2010-06-29 | 2012-01-19 | Fujifilm Corp | Stereoscopic display device and stereoscopic photographing device |
| JP2012222386A (en) * | 2011-04-04 | 2012-11-12 | Sony Corp | Display control apparatus and method, and program |
-
2012
- 2012-12-11 JP JP2012270522A patent/JP2014116843A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010124366A (en) * | 2008-11-21 | 2010-06-03 | Sony Corp | Image signal processing apparatus, image signal processing method and image projection device |
| JP2010130048A (en) * | 2008-11-25 | 2010-06-10 | Sony Corp | Image signal processing apparatus, image signal processing method, and image projection apparatus |
| JP2012015619A (en) * | 2010-06-29 | 2012-01-19 | Fujifilm Corp | Stereoscopic display device and stereoscopic photographing device |
| JP2012222386A (en) * | 2011-04-04 | 2012-11-12 | Sony Corp | Display control apparatus and method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10652515B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
| EP2638461B1 (en) | Apparatus and method for user input for controlling displayed information | |
| JP6508280B2 (en) | Control device, detection device, display system, electronic device, and program | |
| JP5167439B1 (en) | Stereoscopic image display apparatus and stereoscopic image display method | |
| US9432652B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
| JP2013017146A (en) | Display controller, display control method and program | |
| US8988500B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
| CN103460257A (en) | Stereoscopic display device, method for receiving instructions, program, and medium for recording them | |
| JP6065908B2 (en) | Stereoscopic image display device, cursor display method thereof, and computer program | |
| JP2013168120A (en) | Stereoscopic image processing apparatus, stereoscopic image processing method, and program | |
| JP2012103980A (en) | Image processing device, image processing method, and program | |
| JP2019032713A (en) | Information processing apparatus, information processing method, and program | |
| JP2012103980A5 (en) | ||
| JP2011180779A (en) | Apparatus, method and program for generating three-dimensional image data | |
| JP2014116843A (en) | Image processing apparatus, image processing method, and program | |
| JP2019050583A (en) | Display and program | |
| JP2014128022A (en) | Image processing apparatus, image processing method and program | |
| JP2012208595A (en) | Stereoscopic image display device and stereoscopic image display method | |
| KR20120035609A (en) | Method for depth adaptation of autostereoscopic image and user equipment for the same |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151211 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160909 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160920 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161121 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170509 |