[go: up one dir, main page]

JP2012079211A - Display system and display method of stereoscopic image - Google Patents

Display system and display method of stereoscopic image Download PDF

Info

Publication number
JP2012079211A
JP2012079211A JP2010225643A JP2010225643A JP2012079211A JP 2012079211 A JP2012079211 A JP 2012079211A JP 2010225643 A JP2010225643 A JP 2010225643A JP 2010225643 A JP2010225643 A JP 2010225643A JP 2012079211 A JP2012079211 A JP 2012079211A
Authority
JP
Japan
Prior art keywords
display
stereoscopic
portable device
display unit
stereoscopic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010225643A
Other languages
Japanese (ja)
Other versions
JP5520772B2 (en
Inventor
Chigiri Utsugi
契 宇都木
Takafumi Koike
崇文 小池
Masami Yamazaki
眞見 山崎
Hideyuki Sakai
秀行 坂井
Takuma Shibahara
琢磨 柴原
Michio Oikawa
道雄 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010225643A priority Critical patent/JP5520772B2/en
Publication of JP2012079211A publication Critical patent/JP2012079211A/en
Application granted granted Critical
Publication of JP5520772B2 publication Critical patent/JP5520772B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】携帯機器から立体ディスプレイに表示された画像を操作する。
【解決手段】立体画像の表示システム及び表示方法は、携帯機器と、視点位置に対応して、仮想物体を含む立体画像を表示する立体ディスプレイ部と、携帯機器と無線ネットワークを介して接続する情報処理機器とを備える。携帯機器は、携帯機器が有するディスプレイ部に含むタッチパネルから、ユーザによる操作を受け付け、受け付けた操作を無線ネットワークを介して情報処理機器へ送信する。情報処理機器は、携帯機器のディスプレイ部の表示面と立体ディスプレイ部の表示面との相対的になす立体角に応じたモードに対応して、携帯機器から受信した操作を解釈し、解釈した結果に応じて、立体ディスプレイ部に表示した仮想物体の状態を更新する。
【選択図】図1
An image displayed on a stereoscopic display is operated from a portable device.
A stereoscopic image display system and display method includes a portable device, a stereoscopic display unit that displays a stereoscopic image including a virtual object corresponding to a viewpoint position, and information connected to the portable device via a wireless network. And processing equipment. The portable device accepts an operation by the user from a touch panel included in the display unit included in the portable device, and transmits the accepted operation to the information processing device via the wireless network. The information processing device interprets the operation received from the mobile device in accordance with the mode corresponding to the solid angle formed by the display surface of the mobile device display unit and the display surface of the 3D display unit, and results of interpretation Accordingly, the state of the virtual object displayed on the stereoscopic display unit is updated.
[Selection] Figure 1

Description

本発明は、立体画像への操作を可能とする表示システム及び表示方法に関する。   The present invention relates to a display system and a display method that enable an operation on a stereoscopic image.

ディスプレイの外部・周辺の空間座標に、ディスプレイが提示する空間座標を射影させて提示させる拡張現実感(Augmented Reality:AR)技術がある。この技術では、カメラに映った画像マーカーの向きや形から、カメラとマーカーの三次元位置関係を解析して、この三次元視点位置のパラメータにあわせて映像をディスプレイに合成提示する。特許文献1では、このような技術に用いるマーカーの提示方法について述べられている。   There is an augmented reality (AR) technique in which the spatial coordinates presented by the display are projected onto spatial coordinates outside and around the display. In this technology, the three-dimensional positional relationship between the camera and the marker is analyzed from the orientation and shape of the image marker reflected on the camera, and the video is synthesized and presented on the display in accordance with the parameters of the three-dimensional viewpoint position. Patent Document 1 describes a marker presentation method used in such a technique.

また、三次元視点位置の直感的な表示には、ステレオ立体視ディスプレイが用いられる。このとき立体空間に対して直感的な操作を行う方法として、特許文献2では、三次元的に物体を選択するための器具の一例が示されている。   A stereo stereoscopic display is used for intuitive display of the three-dimensional viewpoint position. At this time, as a method of performing an intuitive operation on a three-dimensional space, Patent Document 2 shows an example of an instrument for selecting an object three-dimensionally.

特開2010−32282号公報JP 2010-32282 A 特開2006−302101号公報JP 2006-302101A

立体映像のシーンの視聴に用いられる画像には、自己を含めたシーンの全オブジェクトを上から見下ろすような構図(以下、三人称視点と呼ぶ)と、自己の位置から見た構図(以下、一人称視点と呼ぶ)の二種類がある。   The image used for viewing a 3D video scene includes a composition that looks down on all objects in the scene including itself (hereinafter referred to as the third person viewpoint) and a composition that is viewed from the position of the person (hereinafter referred to as the first person viewpoint). There are two types.

一般に、一人称視点、すなわち視点位置からの構図を用いると、ユーザの視覚環境を直感的に理解できる。特許文献1にみられる自己位置同定手法によって、ユーザ視点の操作を拡張する方法が示された。しかし、このような環境では、物体への指示操作が主に視点位置からの方向で定義されるため、映像上の物体を選択し、または角度を指示する場合には、奥行方向の直感的な距離指定ができず、奥行き方向に重畳している物体の指示・指定が困難になる。   In general, using a first-person viewpoint, that is, a composition from the viewpoint position, the user's visual environment can be intuitively understood. A method of extending the operation of the user viewpoint by the self-position identification method found in Patent Document 1 is shown. However, in such an environment, the instruction operation to the object is mainly defined by the direction from the viewpoint position. Therefore, when selecting an object on the image or instructing an angle, an intuitive operation in the depth direction is performed. It is difficult to specify a distance, and it is difficult to specify and specify an object superimposed in the depth direction.

三次元上の物体指定における不定性を改善するために、特許文献2のような三次元マウスなどの奥行きを直接指定する器具が提案されてきた。しかし、三次元マウスは一般に操作可能な空間が限定されているため、背景の山並みなどの超遠方のオブジェクトを含んだ一般的な風景に対しては、奥行を含んだ指示を直観的に行うことが難しい。   In order to improve the indeterminacy in the three-dimensional object designation, an instrument that directly designates the depth such as a three-dimensional mouse as in Patent Document 2 has been proposed. However, since a three-dimensional mouse is generally limited in the space that can be operated, it is intuitive to give instructions that include depth to general landscapes that include extremely distant objects such as mountains in the background. Is difficult.

一方、一人称視点とは異なる三人称視点からの奥行き指示と組み合わせることで、不定性の少ない指示を行うことが出来るようになる。このため、作業画面を複数に分割して、一人称視点と三人称視点の双方を交互に確認しながら作業を行うことが、従来のディスプレイ上の操作では一般的であった。しかし、このような複数視点の切り替えには、ディスプレイを占有して映像を切り替える必要があるため、複数人数で同一の画像を見て行う協調的な環境での直観的な操作には向かない。   On the other hand, when combined with a depth instruction from a third person viewpoint different from the first person viewpoint, an instruction with less ambiguity can be given. For this reason, it is common in conventional operations on a display to divide the work screen into a plurality of parts and perform the work while alternately checking both the first person viewpoint and the third person viewpoint. However, since switching between multiple viewpoints requires switching the video while occupying the display, it is not suitable for an intuitive operation in a collaborative environment where a plurality of people see the same image.

開示される立体画像の表示システム及び表示方法は、携帯機器と、視点位置に対応して、仮想物体を含む立体画像を表示する立体ディスプレイ部と、携帯機器と無線ネットワークを介して接続する情報処理機器とを備える。携帯機器は、携帯機器が有するディスプレイ部に含むタッチパネルから、ユーザによる操作を受け付け、受け付けた操作を無線ネットワークを介して情報処理機器へ送信する。情報処理機器は、携帯機器のディスプレイ部の表示面と立体ディスプレイ部の表示面との相対的になす角に応じたモードに対応して、携帯機器から受信した操作を解釈し、解釈した結果に応じて、立体ディスプレイ部に表示した仮想物体の状態を更新する。   The disclosed stereoscopic image display system and display method include a portable device, a stereoscopic display unit that displays a stereoscopic image including a virtual object corresponding to a viewpoint position, and information processing connected to the portable device via a wireless network. Equipment. The portable device accepts an operation by the user from a touch panel included in the display unit included in the portable device, and transmits the accepted operation to the information processing device via the wireless network. The information processing device interprets the operation received from the mobile device in accordance with the mode according to the angle formed by the display surface of the display unit of the mobile device and the display surface of the stereoscopic display unit. In response, the state of the virtual object displayed on the stereoscopic display unit is updated.

立体画像の表示システム及び表示方法の他の態様は、情報処理機器は、携帯機器のタッチパネルからの操作を受け付ける、立体画像内の操作対象の平面を、携帯機器のディスプレイ部の表示面と立体ディスプレイの表示面との相対的になす立体角に応じた仮想平面として、仮想平面上のグリッドと共に立体ディスプレイに表示する。   In another aspect of the stereoscopic image display system and the display method, the information processing device accepts an operation from the touch panel of the mobile device, the plane to be operated in the stereoscopic image, the display surface of the display unit of the mobile device, and the stereoscopic display As a virtual plane corresponding to the solid angle formed relative to the display surface, the image is displayed on the three-dimensional display together with the grid on the virtual plane.

立体画像の表示システム及び表示方法のさらに他の態様は、情報処理機器は、仮想物体の位置を明示させた仮想平面を携帯機器のディスプレイ部に表示する。   In still another aspect of the stereoscopic image display system and display method, the information processing device displays a virtual plane in which the position of the virtual object is clearly indicated on the display unit of the portable device.

立体画像の表示システム及び表示方法のさらに他の態様は、情報処理機器は、立体ディスプレイから携帯機器への方向を視点位置として含み、仮想物体を含む立体画像を立体ディスプレイ部に表示する。   According to still another aspect of the stereoscopic image display system and display method, the information processing device includes a direction from the stereoscopic display to the portable device as a viewpoint position, and displays a stereoscopic image including a virtual object on the stereoscopic display unit.

立体画像の表示システム及び表示方法のさらに他の態様は、携帯機器のディスプレイ部が、立体ディスプレイ部とは異なる種別の立体視ディスプレイである場合、情報処理機器は、仮想物体を含む立体画像が、視点位置に対応して立体視ディスプレイに表示される内容をシミュレーションし、このシミュレーションの結果を携帯機器のディスプレイ部に表示する。   In still another aspect of the stereoscopic image display system and display method, when the display unit of the portable device is a stereoscopic display of a type different from the stereoscopic display unit, the information processing device is configured to display a stereoscopic image including a virtual object, The content displayed on the stereoscopic display corresponding to the viewpoint position is simulated, and the result of the simulation is displayed on the display unit of the portable device.

本発明によれば、ユーザは、立体の直感的な理解を保持したままで、携帯機器から立体ディスプレイに表示された映像を操作できる。   According to the present invention, the user can operate the video displayed on the stereoscopic display from the portable device while maintaining the intuitive understanding of the stereoscopic.

立体画像の表示システムのハードウェア構成図である。It is a hardware block diagram of the display system of a stereo image. 携帯機器の構成を示す図である。It is a figure which shows the structure of a portable apparatus. 情報処理機器130の構成を示す図である。2 is a diagram illustrating a configuration of an information processing device 130. FIG. 立体画像の合成表示システムの初期化の工程のフロー図である。It is a flowchart of the process of initialization of the composite display system of a stereo image. コンテンツ空間での仮想物体の配置を示す模式図である。It is a schematic diagram which shows arrangement | positioning of the virtual object in content space. 携帯機器の位置同定を行うための一連の作業工程のフロー図である。It is a flowchart of a series of work processes for performing position identification of a portable device. 携帯機器に送られるプログラムとマーカーの画像パターンである。It is the image pattern of the program and marker sent to a portable device. モードAにおける三次元カーソルの移動とそれに対応する仮想物体の指定を示す図である。It is a figure which shows the movement of the three-dimensional cursor in mode A, and designation | designated of the virtual object corresponding to it. 情報更新処理の一連の処理を示したフロー図である。It is the flowchart which showed a series of processes of the information update process. モードAにおいて携帯機器に表示される操作画面の模式図である。6 is a schematic diagram of an operation screen displayed on a mobile device in mode A. FIG. モードBにおおける三次元カーソルの移動とそれに基づく仮想物体の指定を示す図である。It is a figure which shows the movement of the three-dimensional cursor in mode B, and designation | designated of the virtual object based on it. モードCにおける操作概略を示す図である。6 is a diagram showing an outline of operation in mode C. FIG. 実施例2において、携帯機器に表示される操作画面の模式図である。In Example 2, it is a schematic diagram of the operation screen displayed on a portable apparatus. 実施例3において、シミュレートされる立体ディスプレイの仮想視点位置を示す模式図である。In Example 3, it is a schematic diagram which shows the virtual viewpoint position of the three-dimensional display simulated. 実施例4の立体画像の表示システムのハードウェア構成図である。FIG. 10 is a hardware configuration diagram of a stereoscopic image display system according to a fourth embodiment. 実施例4の携帯機器の構成を示す図である。FIG. 10 is a diagram illustrating a configuration of a mobile device according to a fourth embodiment. 実施例4のモードAにおいて携帯機器に表示される操作画面の模式図である。10 is a schematic diagram of an operation screen displayed on a mobile device in mode A of Embodiment 4. FIG. 実施例4のモードAにおいて仮想物体とディスプレイ表面の関係を示す模式図である。FIG. 10 is a schematic diagram illustrating a relationship between a virtual object and a display surface in mode A of Example 4. 実施例4のモードCにおいて操作対象平面を仮想空間上に配置する模式図である。FIG. 10 is a schematic diagram in which an operation target plane is arranged in a virtual space in mode C of the fourth embodiment. 実施例4のモードCにおいて操作対象平面を仮想空間上に配置する上面図である。FIG. 10 is a top view in which an operation target plane is arranged in a virtual space in mode C of the fourth embodiment. 実施例5の立体画像の表示システムのハードウェア構成図である。FIG. 10 is a hardware configuration diagram of a stereoscopic image display system according to a fifth embodiment.

以下、実施例を図面を用いて説明する。   Hereinafter, examples will be described with reference to the drawings.

図1に、立体画像(立体映像)の表示システムのハードウェア構成を示す。図1に示すように、複数の方向(それぞれ方向111、112、113とする)に異なる映像を提示する立体ディスプレイ101に、その立体ディスプレイ101の位置座標を他の位置から取得するためのマーカー102が添付されている。このマーカー102を他の位置から撮影した場合、撮影したマーカー102の二次元画像上の形状から、後述の手法で立体ディスプレイ101の位置を基準とした、マーカー102を撮影したカメラの位置と角度を求めることができる。   FIG. 1 shows a hardware configuration of a stereoscopic image (stereoscopic video) display system. As shown in FIG. 1, a marker 102 for acquiring the position coordinates of the stereoscopic display 101 from another position on a stereoscopic display 101 that presents different images in a plurality of directions (respectively directions 111, 112, and 113). Is attached. When the marker 102 is photographed from another position, the position and angle of the camera that has photographed the marker 102 are determined from the shape of the photographed marker 102 on the two-dimensional image with reference to the position of the three-dimensional display 101 by a method described later. Can be sought.

図3に、情報処理機器130の構成を示す。立体ディスプレイ101を駆動する情報処理機器130は、図3に示すようにメモリ131と演算装置132を持ち、立体ディスプレイ101に表示する二次元映像情報を送信する映像出力部134を持ち、無線ネットワーク部133を通じて外部機器と連携を行う。一般的な汎用計算機機である情報処理機器130は、メモリ131に保持されたプログラムに従って演算装置132で計算処理を行い、その結果を映像として立体ディスプレイ101に出力、またはTCP,またはHTTPなどの通信プロトコルを介して外部機器に伝達する。この情報処理機器130は一般的な汎用計算機の機能、すなわち複数のプロセスを切り替えて擬似並列的に実行し、また内部の時計やネットワークを用いることでプロセス間の同期をとりつつ計算処理を行う機能を有する。   FIG. 3 shows the configuration of the information processing device 130. As shown in FIG. 3, the information processing device 130 that drives the stereoscopic display 101 includes a memory 131 and a computing device 132, a video output unit 134 that transmits 2D video information to be displayed on the stereoscopic display 101, and a wireless network unit. Through 133, external devices are linked. The information processing device 130, which is a general general-purpose computer, performs calculation processing by the arithmetic device 132 according to a program held in the memory 131, and outputs the result as a video to the stereoscopic display 101, or communication such as TCP or HTTP Communicate to external devices via protocol. This information processing device 130 functions as a general-purpose computer, that is, a function for switching a plurality of processes and executing them in a pseudo-parallel manner, and performing calculation processing while synchronizing the processes by using an internal clock or network. Have

また、図1に示す無線定点観測カメラ105〜106は、立体ディスプレイ101を含む周辺を撮影し、撮影した立体ディスプレイ101の周辺画像を定期的に情報処理機器130に送信する。立体ディスプレイ101の上部には定点観測カメラ108を設け、立体ディスプレイ101の周辺を広視野角で撮影する。   Also, the wireless fixed point observation cameras 105 to 106 illustrated in FIG. 1 capture the periphery including the stereoscopic display 101 and periodically transmit the captured peripheral image of the stereoscopic display 101 to the information processing device 130. A fixed point observation camera 108 is provided on the top of the stereoscopic display 101, and the periphery of the stereoscopic display 101 is photographed with a wide viewing angle.

立体ディスプレイ101に対しての、ユーザインタフェースという意味でのインタフェース部となる携帯機器120が存在する。図2に、携帯機器120の構成を示す。携帯機器120は、ユーザによる操作を受け付けるタッチパネルを表面に装備したディスプレイ部121と、周辺状況を撮影するカメラ122、無線ネットワークへのアクセス部123を備え、プログラムを保持し実行するメモリ124と、演算装置125によって駆動する。無線ネットワークアクセス部123から外部プログラムをメモリ124に動的に読み込み、演算装置125で駆動することにより、画面121への出力と、そこからの入力結果を処理して、TCP、HTTPなどの通信プロトコルを介して無線ネットワークに伝える機能を有する。また、プログラムによって動的に生成された映像をディスプレイ部に表示するための映像出力部126と、タッチパネルに接触した指・ペン先などの位置を座標情報として受け取るタッチパネル受信部127を備える。また、指・ペン先などの座標情報は、タッチパネルへの接触から離れるまでの時間と空間変化から分類され、ドラッグ、タップ、二本指で行うズームなどの操作に意味解釈してプログラム内で用いる。これらの解釈区分と分離手法については、これらの情報端末での一般的技術に準じる。また、携帯機器120は、加速度と地磁気から現在の携帯機器120が向いている方向を推定するための加速度センサ128を有する。この携帯機器120は一般的な汎用計算機の機能、すなわちネットワークを通じてプログラムデータを読み込み、複数のプロセスを切り替えて擬似並列的に実行し、また内部の時計やネットワークを用いることでプロセス間の同期をとりつつ計算処理を行う機能を有する。   There is a portable device 120 serving as an interface unit in the sense of a user interface with respect to the stereoscopic display 101. FIG. 2 shows the configuration of the mobile device 120. The portable device 120 includes a display unit 121 equipped with a touch panel that accepts user operations, a camera 122 that captures a surrounding situation, an access unit 123 to a wireless network, a memory 124 that holds and executes a program, and a calculation Driven by device 125. An external program is dynamically read from the wireless network access unit 123 into the memory 124 and driven by the arithmetic device 125, thereby processing the output to the screen 121 and the input result therefrom, and communication protocols such as TCP and HTTP. It has the function to transmit to a wireless network via. In addition, a video output unit 126 for displaying video generated dynamically by the program on the display unit, and a touch panel receiving unit 127 that receives the position of a finger, a pen tip, or the like in contact with the touch panel as coordinate information are provided. In addition, coordinate information such as finger and pen tip is classified based on time and space change until touching the touch panel, and is used in the program after semantic interpretation for operations such as dragging, tapping and zooming with two fingers. . These interpretation categories and separation methods are based on the general technology of these information terminals. The mobile device 120 has an acceleration sensor 128 for estimating the current direction of the mobile device 120 from the acceleration and the geomagnetism. This portable device 120 reads the program data through a general-purpose computer function, that is, a network, switches a plurality of processes and executes them in a pseudo-parallel manner, and uses an internal clock or network to synchronize the processes. It has a function to perform calculation processing.

図4は、立体画像の合成表示システムを初期化するための一連の工程を示したフロー図である。工程401では、立体ディスプレイ101と、定点観測カメラ105〜106の位置調整が行われる。本実施例では、立体ディスプレイ101の表示面の中央を原点として、ディスプレイに向かって右向き(X)、ディスプレイに向かって上向き(Y)、ディスプレイに向かって奥の方向(Z)の直交座標系を定義する。また、携帯機器120のディスプレイは、画面垂直方向(上)と画面水平方向(右)と画面奥方向のそれぞれに向けた単位長のベクトルの組を、単位ベクトル140として定義する。このベクトルは携帯機器120の配置によって回転する。   FIG. 4 is a flowchart showing a series of steps for initializing the stereoscopic image composition display system. In step 401, the positions of the three-dimensional display 101 and the fixed point observation cameras 105 to 106 are adjusted. In the present embodiment, an orthogonal coordinate system having a center of the display surface of the stereoscopic display 101 as an origin and pointing right (X) toward the display, upward (Y) toward the display, and back (Z) toward the display is used. Define. Further, the display of the mobile device 120 defines a set of unit length vectors as unit vectors 140 in the vertical direction (up), horizontal direction (right), and back direction of the screen. This vector rotates depending on the arrangement of the mobile device 120.

情報処理機器130は、定点観測カメラ105〜106が撮影した最新の映像を受信し、受信した定点観測カメラ105〜107の映像中にマーカー102がある場合には、映像中のマーカー102の二次元幾何形状の画像から、マーカー102と定点観測カメラ105、106の三次元位置関係をそれぞれ推定する。この推定値から、立体ディスプレイ101の表示面の中央を原点とした定点観測カメラ105〜106の各々の位置を同定し、同定した位置情報をメモリ131に保持する。   The information processing device 130 receives the latest video captured by the fixed point observation cameras 105 to 106, and when the marker 102 is included in the received video of the fixed point observation cameras 105 to 107, the two-dimensional of the marker 102 in the video is displayed. The three-dimensional positional relationship between the marker 102 and the fixed point observation cameras 105 and 106 is estimated from the geometric image. From these estimated values, the positions of the fixed point observation cameras 105 to 106 with the center of the display surface of the stereoscopic display 101 as the origin are identified, and the identified position information is held in the memory 131.

マーカーからの三次元位置推定には一般的に利用可能な幾つかの既存技法が存在する。本実施例では、以下の手順で四角形のマーカーと三次元位置情報を抽出する。まず、マーカーの画像を2値化して、画像の黒部分を探し、セグメンテーション処理を行って閉領域に分割する。各閉領域で、一番端の点を最初の頂点とし、この頂点から辿って領域の輪郭を作る。作った輪郭から四角形のマーカーの各頂点を探す。4つの頂点をもつ領域を正面から見た場合の形に変換処理を行い、4角形内の画像を単純化する。この画像とマーカーのパターンとのパターンマッチングを行い、マーカーのパターンとの対応関係が閾値以上である場合には、その画像はマーカーであるとする。4つの頂点を画像上の対応位置に変換する射影行列を計算し、そのパラメータから、撮影したカメラからのマーカーの三次元位置と方向についての推定値を求める。   There are several existing techniques that are generally available for 3D position estimation from markers. In this embodiment, a rectangular marker and three-dimensional position information are extracted by the following procedure. First, the marker image is binarized, the black portion of the image is searched, and segmentation is performed to divide the image into closed regions. In each closed region, the end point is taken as the first vertex, and the contour of the region is created by tracing from this vertex. Find each vertex of the square marker from the outline you made. The conversion process is performed to the shape when the area having four vertices is viewed from the front, and the image in the quadrangle is simplified. When pattern matching between the image and the marker pattern is performed and the correspondence between the image and the marker pattern is equal to or greater than a threshold value, the image is assumed to be a marker. A projection matrix for converting the four vertices into corresponding positions on the image is calculated, and an estimated value for the three-dimensional position and direction of the marker from the captured camera is obtained from the parameters.

工程402では、定点観測カメラ105〜106に対して、一定期間ごとに撮影を命じる命令を発するためのスレッドを起動する。本実施例の定点観測カメラ105、106は、自発的に一定期間ごとに画像を送信できる機能を持ったネットワークカメラである。情報処理機器130が操作するカメラの場合にも、情報処理機器130に独立なプロセスまたはスレッドを置くことで、同等の操作を行うことができる。   In step 402, a thread for issuing a command for instructing the fixed-point observation cameras 105 to 106 to perform photographing at regular intervals is activated. The fixed point observation cameras 105 and 106 of the present embodiment are network cameras having a function capable of spontaneously transmitting an image every predetermined period. Even in the case of a camera operated by the information processing device 130, an equivalent operation can be performed by placing an independent process or thread in the information processing device 130.

工程403では、携帯機器120からのネットワーク接続を受け付けるTCP(またはHTTP)サーバーのスレッドを情報処理機器130が起動する。情報処理機器130に端末機器120が接続した場合の動作については、図6を用いて後述する。   In step 403, the information processing device 130 activates a thread of a TCP (or HTTP) server that accepts a network connection from the portable device 120. The operation when the terminal device 120 is connected to the information processing device 130 will be described later with reference to FIG.

図5は立体ディスプレイ101に表示する映像を作成する処理を説明するための、コンテンツ空間での仮想物体の配置を示す模式図である。   FIG. 5 is a schematic diagram showing the arrangement of virtual objects in the content space for explaining processing for creating a video to be displayed on the stereoscopic display 101.

立体ディスプレイ101に三次元位置情報(表示対象)が配置される仮想的な空間を、立体ディスプレイ101と携帯機器120などの位置を表現する物理的な三次元空間と区別するために、以下ではコンテンツ空間と呼ぶ。この原点座標502は、前述のように立体ディスプレイ101の表示面中心に対応し、立体ディスプレイ101の表示面に相当する面501がZ=0のX‐Y平面となる。図5は、このようなコンテンツ空間を示したものである。コンテンツ空間上に複数の視点位置511〜513を設定し、立体ディスプレイ101の表示面に相当する平面501にコンテンツ空間の三次元座標を射影して、設定した視点位置511〜513の各々に対応する二次元画像を構成する。視点位置毎にそれぞれ得られたこれらの二次元画像を、立体ディスプレイ101からの方向111〜113の各々に向けて表示する。   In order to distinguish a virtual space in which the three-dimensional position information (display target) is arranged on the three-dimensional display 101 from a physical three-dimensional space expressing the positions of the three-dimensional display 101 and the portable device 120, the following contents are used. Called space. This origin coordinate 502 corresponds to the center of the display surface of the stereoscopic display 101 as described above, and the surface 501 corresponding to the display surface of the stereoscopic display 101 is the XY plane with Z = 0. FIG. 5 shows such a content space. A plurality of viewpoint positions 511 to 513 are set on the content space, and the three-dimensional coordinates of the content space are projected onto a plane 501 corresponding to the display surface of the stereoscopic display 101 to correspond to each of the set viewpoint positions 511 to 513. Construct a two-dimensional image. These two-dimensional images obtained for each viewpoint position are displayed in the directions 111 to 113 from the stereoscopic display 101.

また、このコンテンツ空間内に、ポインタ三次元位置500を示すマーカーを配置する。このポインタの初期位置は、原点位置502、すなわち立体ディスプレイ101の表示面中心にセットする。   In addition, a marker indicating the pointer three-dimensional position 500 is arranged in the content space. The initial position of this pointer is set to the origin position 502, that is, the center of the display surface of the stereoscopic display 101.

図6は、立体ディスプレイ101の座標系に対して携帯機器120の位置同定を行うための一連のルーチンを示したものである。携帯機器120が、立体ディスプレイ101からある距離に入り、情報処理機器130の無線ネットワーク部133との間で通信可能になった場合に、携帯機器120は情報処理機器130への接続メッセージを送る(工程601)。情報処理機器130は、図7に示す位置同定用のマーカーのパターン701と、携帯機器120で実行するプログラム702を携帯機器120に送信する(工程602)。工程602においては、ユーザの携帯機器120を介した入力情報を管理する工程901〜916(図9)を実行する情報処理機器130側のプログラムと、携帯機器120に送信したプログラムとの、それぞれ独立のスレッドを起動する。このスレッドの動作に関しては後述する。これらの処理によって、準備が完了する。   FIG. 6 shows a series of routines for identifying the position of the portable device 120 with respect to the coordinate system of the three-dimensional display 101. When the portable device 120 enters a certain distance from the three-dimensional display 101 and becomes communicable with the wireless network unit 133 of the information processing device 130, the portable device 120 sends a connection message to the information processing device 130 ( Step 601). The information processing device 130 transmits the marker pattern 701 for position identification shown in FIG. 7 and the program 702 executed by the portable device 120 to the portable device 120 (step 602). In step 602, the program on the information processing device 130 side that executes steps 901 to 916 (FIG. 9) for managing input information via the user's portable device 120 and the program transmitted to the portable device 120 are independent of each other. Start the thread. The operation of this thread will be described later. These processes complete the preparation.

以下の工程610〜633は、携帯機器120、定点観測カメラ105〜106の各々、および、情報処理機器130が同期された内部タイマで時間的に連携しながら動作する。この各機器のプログラムには、これらの撮影処理が同期するように独立のプロセスまたはスレッドを駆動している。工程610、620、630は、これらのプロセス(スレッド)がそれぞれの機器で同期された時刻まで待機する処理を示す。   The following steps 610 to 633 operate while temporally coordinating with each of the portable device 120, the fixed point observation cameras 105 to 106, and the information processing device 130 with the synchronized internal timer. An independent process or thread is driven in the program of each device so that these photographing processes are synchronized. Steps 610, 620, and 630 indicate processing to wait until the time when these processes (threads) are synchronized with each device.

工程611では、携帯機器120が、702のプログラムを駆動して、位置同定用のマーカー画像701を、携帯機器120のディスプレイ部121に提示する。   In step 611, the mobile device 120 drives the program 702 and presents a marker image 701 for position identification on the display unit 121 of the mobile device 120.

工程612では、携帯機器120が付属のカメラ122で撮影を行う。工程622では、情報処理機器130がカメラ108で撮影を行う。工程632では、定点観測カメラ105〜106の各々が撮影を行う。なお、工程612、622、632の各撮影は、ほぼ同時刻に行われるように、各機器の同期は調整されている。   In step 612, the mobile device 120 takes a picture with the attached camera 122. In step 622, the information processing device 130 takes an image with the camera 108. In step 632, each of the fixed point observation cameras 105 to 106 performs photographing. It should be noted that the synchronization of each device is adjusted so that the photographing in steps 612, 622, and 632 is performed at approximately the same time.

この撮影処理の後、工程613では、携帯機器120のプログラム702が、この時刻の携帯機器120の加速度センサ128から角度情報を読み取る。工程614では、携帯機器120は、工程612で撮影した画像と工程613で取得した角度情報を情報処理機器130に送信する。   After this photographing process, in step 613, the program 702 of the mobile device 120 reads angle information from the acceleration sensor 128 of the mobile device 120 at this time. In step 614, the mobile device 120 transmits the image captured in step 612 and the angle information acquired in step 613 to the information processing device 130.

工程633では、定点計測カメラ105〜106の各々が撮影した画像を情報処理機器130に送信する。   In step 633, images taken by the fixed point measurement cameras 105 to 106 are transmitted to the information processing device 130.

工程614、工程633に対応して、工程623では、情報処理機器130は、携帯機器120が提示しているマーカー701を撮影した定点観測カメラ105〜106の各々の画像を受信する。また、工程613で取得された携帯機器120の角度情報、および、工程612で取得された携帯機器120のカメラ122による画像を取得する。   Corresponding to Steps 614 and 633, in Step 623, the information processing device 130 receives the images of the fixed point observation cameras 105 to 106 that photograph the marker 701 presented by the mobile device 120. In addition, the angle information of the mobile device 120 acquired in step 613 and the image by the camera 122 of the mobile device 120 acquired in step 612 are acquired.

工程624では、情報処理機器130は、定点観測カメラ105〜106の各々が撮影した画像に位置同定用のマーカーのパターン701が撮影されているかどうかのパターン検索処理を行う。マーカー701が写っている場合、幾何形状の射影行列のパラメータを計算して、定点観測カメラ105〜106の各々と携帯機器120との相対位置を推定する。このマーカーパターンの検索処理は、前述したとおりである。   In step 624, the information processing device 130 performs a pattern search process to determine whether or not the marker pattern 701 for position identification is captured in the images captured by the fixed point observation cameras 105 to 106. When the marker 701 is shown, the parameters of the geometric projection matrix are calculated, and the relative position between each of the fixed point observation cameras 105 to 106 and the portable device 120 is estimated. This marker pattern search process is as described above.

また、工程625では、携帯機器120のカメラ122が撮影した画像に位置同定用のマーカーパターン102が写っているかどうかのパターン検索処理を行う。マーカーが写っている場合、幾何形状の射影行列のパラメータを計算して、携帯機器120と立体ディスプレイ101の相対位置を推定する。このマーカーパターン102の検索処理は、前述したとおりである。   In step 625, pattern search processing is performed to determine whether or not the marker pattern 102 for position identification is included in the image captured by the camera 122 of the portable device 120. When the marker is reflected, the parameters of the geometric projection matrix are calculated, and the relative position between the portable device 120 and the three-dimensional display 101 is estimated. The search process for the marker pattern 102 is as described above.

工程627は、工程624で得られた相対位置と、携帯機器120からの角度情報と、工程625で得られた相対位置を合わせて、他の数値から大きく外れたはずれ値(out lier)を除去したうえで平均化を行い、最終的な相対位置を推定する。   In step 627, the relative position obtained in step 624, the angle information from the portable device 120, and the relative position obtained in step 625 are combined to remove outliers that are significantly different from other numerical values. Then, averaging is performed to estimate the final relative position.

工程628では、工程622で撮影されたカメラ108の画像から、顔画像のパターンを検索する。この顔画像を検索するために、以下の一連の処理を行うプログラムルーチンを呼び出して実行する。顔画像から肌の色に近い色相の領域を取り出す。一般的な顔画像について、顔の黒い部分と白い部分を保持したパターン(Haarパターン)をメモリから呼び出し、肌の色に近い色相の領域の近傍に対して、このHaarパターンとパターンマッチングを行う。この結果が閾値以上に類似している領域を顔画像と認識する。カメラ108が設置されている方向と画像領域の関係から、認識された顔画像が存在する立体角を算出して保存する。複数の顔画像が撮影された場合には、定点観測カメラ105〜106からの画像によって得られた情報処理機器130の位置、および立体ディスプレイ101からの方向に最も近い顔画像を、携帯機器120の利用者の顔であると判断して、その位置情報を用いる。   In step 628, a face image pattern is searched from the image of the camera 108 taken in step 622. In order to search for the face image, a program routine for performing the following series of processes is called and executed. A region having a hue close to the skin color is extracted from the face image. For a general face image, a pattern (Haar pattern) holding the black part and white part of the face is called from the memory, and pattern matching with this Haar pattern is performed on the vicinity of the hue area close to the skin color. A region where the result is similar to the threshold value or more is recognized as a face image. From the relationship between the direction in which the camera 108 is installed and the image area, the solid angle where the recognized face image exists is calculated and stored. When a plurality of face images are taken, the face image closest to the position of the information processing device 130 obtained from the images from the fixed point observation cameras 105 to 106 and the direction from the stereoscopic display 101 is displayed on the mobile device 120. It is determined that the face is the user's face, and the position information is used.

この携帯機器120の角度情報と位置情報を用いて、情報更新処理629を行う。情報更新処理629は、後述する図9の工程901〜916において実行される、携帯機器120からの情報更新スレッドのモード選択の参照変数を書き換える処理である。これらの一連の処理が終了した時点で、携帯機器120、定点観測カメラ、情報処理機器130の撮影スレッドは、次の撮影同期時刻になるまで、待機する。   Information update processing 629 is performed using the angle information and position information of the portable device 120. The information update process 629 is a process of rewriting a reference variable for mode selection of an information update thread from the portable device 120, which is executed in steps 901 to 916 of FIG. When these series of processes are completed, the shooting threads of the mobile device 120, the fixed point observation camera, and the information processing device 130 wait until the next shooting synchronization time comes.

図9は、情報更新処理(工程629)の一連の処理を示したフロー図である。このフロー図は、情報処理装置130側で行われる工程902〜905と、携帯機器120側で行われる工程911〜916により構成されている。これらの工程はそれぞれ独立したプロセスまたはスレッドとして連続動作を行っているが、工程629で更新された携帯機器120の角度情報に応じてモードを切り替え、工程903と工程905では現在のモードに応じて異なった処理を行う。   FIG. 9 is a flowchart showing a series of processes of the information update process (step 629). This flowchart includes steps 902 to 905 performed on the information processing apparatus 130 side and steps 911 to 916 performed on the mobile device 120 side. These steps are continuously operated as independent processes or threads, but the mode is switched according to the angle information of the mobile device 120 updated in step 629, and in steps 903 and 905, the mode is changed. Do different processing.

まず、モードに依存しない全体のフロー部分の説明を行う。工程901では、工程629で更新された携帯機器120の角度情報に応じてモードの選択を行う。立体ディスプレイ101の面と携帯機器120のディスプレイ121の面の方向が閾値θ以内である場合(すなわち立体ディスプレイ101の表示面と携帯機器120のディスプレイ121の表示面が同じ方向を向いている場合)には、モードAとする。立体ディスプレイ101の表示面と携帯機器120のディスプレイ121の表示面とが、垂直から閾値θ以内である場合(すなわち、立体ディスプレイ101の表示面が鉛直である場合、携帯機器120のディスプレイ121の面が上を向いている)には、モードBとする。またそれ以外の角度の関係である場合には、モードCとする。このように、携帯機器120のディスプレイ121の表示面と立体ディスプレイ101の表示面との相対的な立体角に応じてモードを定義する。   First, the entire flow part that does not depend on the mode will be described. In step 901, the mode is selected according to the angle information of the mobile device 120 updated in step 629. When the direction of the surface of the stereoscopic display 101 and the surface of the display 121 of the portable device 120 is within the threshold θ (that is, when the display surface of the stereoscopic display 101 and the display surface of the display 121 of the portable device 120 are in the same direction) Mode A. When the display surface of the stereoscopic display 101 and the display surface of the display 121 of the portable device 120 are within the threshold θ from the vertical (that is, when the display surface of the stereoscopic display 101 is vertical, the surface of the display 121 of the portable device 120) Mode B). If the angle is other than that, mode C is set. As described above, the mode is defined according to the relative solid angle between the display surface of the display 121 of the portable device 120 and the display surface of the three-dimensional display 101.

工程902は、モードに応じた、携帯機器120に送る画像を作成する手順である。携帯機器120に送る画像はモードに応じて異なり、それぞれのモードA〜Cに対応する画像作成の処理ルーチンを駆動する。この各モードの処理ルーチンの実行内容は後述する。工程903では工程902の処理ルーチンで作成された画像とモードの種別が携帯機器120に送られる。   Step 902 is a procedure for creating an image to be sent to the mobile device 120 according to the mode. The image to be sent to the portable device 120 differs depending on the mode, and drives an image creation processing routine corresponding to each mode A to C. The execution contents of the processing routine in each mode will be described later. In step 903, the image created in the processing routine of step 902 and the type of mode are sent to the portable device 120.

工程911〜916は、携帯機器12側で行われる処理である。工程911では工程903で送った画像とモードの種別の情報を受信する。工程912では、受信した画像を提示する。工程913では以前とモードの種別に変化があったかを調べ、モードの種別に変化があった場合には、工程914でタッチパネルに関する読み取り情報をリセットする。工程915ではタッチパネルへのアクセス状態を調べ、ドラッグ、タップ、ズーム(または操作が行われていなかった)のどの状態であったかを取得して、工程916でこのタッチ状態の情報を情報処理機器130に送信する。   Steps 911 to 916 are processes performed on the mobile device 12 side. In step 911, the image and mode type information sent in step 903 is received. In step 912, the received image is presented. In step 913, it is checked whether or not the mode type has changed, and if the mode type has changed, read information relating to the touch panel is reset in step 914. In step 915, the access state to the touch panel is checked, and the state of dragging, tapping, or zooming (or no operation has been performed) is acquired. In step 916, the information on the touch state is transmitted to the information processing device 130. Send.

情報処理機器130は、工程916で取得されたタッチ状態の情報を工程904で受け取って、工程905でその情報をもとに、立体ディスプレイ101に表示されている映像を更新する。工程905の映像情報の更新処理はより具体的には、タッチ状態(タッチパネルの操作)をモードに応じて解釈して、解釈した操作により映像情報(仮想物体の状態)を更新することである。この画像(映像情報)もモードに応じて異なり、それぞれのモードA〜Cに対応する処理ルーチンで駆動する。この各処理ルーチンの内容は後述する。一連の操作が終了すると、再び工程901に戻り、画面の送信と携帯機器120のタッチパネルの情報取得を行う。   The information processing device 130 receives the touch state information acquired in step 916 in step 904, and updates the video displayed on the stereoscopic display 101 based on the information in step 905. More specifically, the update processing of the video information in step 905 is to interpret the touch state (touch panel operation) according to the mode and update the video information (virtual object state) by the interpreted operation. This image (video information) also differs depending on the mode, and is driven by a processing routine corresponding to each mode A to C. The contents of each processing routine will be described later. When the series of operations is completed, the process returns to step 901 again to transmit the screen and acquire information on the touch panel of the mobile device 120.

工程902と、工程905は、モードの種別によって、携帯機器120からの入力情報の解釈を変えるルーチンである。このモードには前述のようにA〜Cの三種類がある。モードAは、立体ディスプレイ101と携帯機器120のディスプレイ121が同じ方向を向いている場合であるので、ある角度方向にレンダリングされた像がディスプレイ面に射影された位置に合わせて物体を選択するモードである。また、モードBは、ディスプレイ121の面が上を向いている場合であるので、コンテンツ空間内で水平面(X−Z平面)における位置を用いて物体を選択するモードである。また、モードCは、立体ディスプレイ101の表示面と携帯機器120のディスプレイ面121がなす立体角度を用い、携帯機器120のディスプレイ121の表面と平行な面をコンテンツ空間に提示して、この面上での移動、回転、ズーム処理を行うモードである。すなわち、モードに応じて移動、回転、ズーム処理などの操作の対象平面が異なる。   Steps 902 and 905 are routines that change the interpretation of input information from the portable device 120 depending on the mode type. There are three types of modes A to C as described above. Mode A is a mode in which the stereoscopic display 101 and the display 121 of the mobile device 120 are oriented in the same direction, and thus an object is selected in accordance with the position where an image rendered in a certain angle direction is projected on the display surface. It is. Further, mode B is a mode in which the surface of the display 121 is facing upward, so that an object is selected using a position on the horizontal plane (XZ plane) in the content space. Mode C uses a solid angle formed by the display surface of the three-dimensional display 101 and the display surface 121 of the mobile device 120, and presents a surface parallel to the surface of the display 121 of the mobile device 120 in the content space. In this mode, movement, rotation, and zoom processing are performed. That is, the target plane for operations such as movement, rotation, and zoom processing differs depending on the mode.

これらのモードの切り替えに当たっては、コンテンツの空間上の一つの三次元点を各モードで共有し、この点を中心とした座標を再定義する。   When switching between these modes, a single 3D point on the content space is shared by each mode, and the coordinates around this point are redefined.

モードAの場合に工程902と工程905で行われる操作内容の概略を説明する。携帯ディスプレイ121の位置が立体ディスプレイ101と平行に置かれている場合、モードAでの選択処理が行われる。このモードAでは、携帯機器120のディスプレイ面121と立体ディスプレイ101のディスプレイ面を1対1対応させて、携帯機器120または立体ディスプレイ101のディスプレイ表面に写っている物体を指示する。図8は、モードAにおける三次元カーソルの移動とそれに対応する仮想物体の指定を示す図である。図10に、モードAにおいて、立体ディスプレイ101のディスプレイ表示1001に対応した携帯機器120に表示される操作画面1002の模式図を示す。   An outline of the contents of operations performed in steps 902 and 905 in the case of mode A will be described. When the position of the mobile display 121 is placed in parallel with the stereoscopic display 101, a selection process in mode A is performed. In this mode A, the display surface 121 of the mobile device 120 and the display surface of the stereoscopic display 101 are made to correspond one-to-one, and an object reflected on the display surface of the mobile device 120 or the stereoscopic display 101 is designated. FIG. 8 is a diagram showing the movement of the three-dimensional cursor and the designation of the corresponding virtual object in mode A. FIG. 10 is a schematic diagram of an operation screen 1002 displayed on the mobile device 120 corresponding to the display display 1001 of the stereoscopic display 101 in mode A.

工程915の操作時には、工程627で求められた立体ディスプレイ101に対する携帯機器120のディスプレイ121の物理空間上の相対的な位置と最も近い方向511に向けて提示されている画像が、携帯機器120のディスプレイ121に提示されている。ユーザは、タッチパネルの位置540を選択する際には、立体ディスプレイ101上に対応付けられた位置550を選択する意図で操作している。   At the time of the operation in step 915, the image presented in the direction 511 closest to the relative position on the physical space of the display 121 of the mobile device 120 with respect to the stereoscopic display 101 obtained in step 627 is the mobile device 120. Presented on the display 121. When selecting the position 540 of the touch panel, the user operates with the intention of selecting the position 550 associated with the three-dimensional display 101.

この際、立体ディスプレイ101上に提示されるカーソルの射影像550からカーソル500の奥行を含めた位置を求めるために、携帯機器120の位置である視点位置803付近の、立体ディスプレイ101の視点位置511からディスプレイ表面上カーソル550を通った視線方向 (Ray) をたどって仮想物体と衝突した位置を算出する。こうして求められたカーソル位置500を図8に示す。視点位置511から見て立体ディスプレイ101上のカーソルの射影像550を連続的に動かした場合でも、512、513のような他の位置から見た画像においては、必ずしもカーソル500の射影像550がディスプレイ平面101上で連続に移動するとは限らない。   At this time, in order to obtain the position including the depth of the cursor 500 from the projected image 550 of the cursor presented on the stereoscopic display 101, the viewpoint position 511 of the stereoscopic display 101 near the viewpoint position 803, which is the position of the mobile device 120. The position of collision with the virtual object is calculated by following the line-of-sight direction (Ray) passing through the cursor 550 on the display surface. The cursor position 500 thus obtained is shown in FIG. Even when the projected image 550 of the cursor on the three-dimensional display 101 is continuously moved as viewed from the viewpoint position 511, the projected image 550 of the cursor 500 is not necessarily displayed in the images viewed from other positions such as 512 and 513. It does not necessarily move continuously on the plane 101.

工程902A(モードAのときの工程902、以下同様に表記する。)において、情報処理機器130は、携帯機器120の方向に向けて立体ディスプレイ101に提示されている画像(図8の状況では視点511でレンダリングされた画像)の縮小コピーを携帯機器120に送る。工程912において、携帯機器120は送られてきた画像を、保有するディスプレイ121面に提示しているため、工程915において、ユーザはこの画面表面に対してのタッチ操作を行っていると解釈する。   In step 902A (step 902 in mode A, hereinafter the same applies), the information processing device 130 displays an image (viewpoint in the situation of FIG. 8) that is presented on the stereoscopic display 101 in the direction of the mobile device 120. A reduced copy of the image rendered at 511 is sent to the portable device 120. In step 912, since the portable device 120 presents the sent image on the display 121 that it holds, in step 915, the user interprets that the user is performing a touch operation on the screen surface.

工程905Aでは、モードAの条件のもとで、ユーザのタッチパネルへの操作を、立体映像のコンテンツに反映する。ドラッグ処理が行われていた場合には、ドラッグ操作の最終位置対応した、立体ディスプレイ101の位置にカーソル500を表示する。このとき、同カーソルから視線方向(Ray)をたどって衝突した物体の色などを変化させて、その奥行の位置にカーソル500を提示すると同時に、選択候補であるオブジェクト560の色などの表示態様を変えて提示する。タップの処理が行われた場合には、現在のカーソルの位置から選択されているオブジェクト560を選択し、三次元カーソル500の座標をオブジェクト560の中心位置に設定する。また、すでに選択されたオブジェクトがあり、ドラッグ操作が行われていた場合には、選択されているオブジェクトをドラッグ操作の移動距離に相当する分だけX−Y平面状で移動させる。   In step 905A, under the condition of mode A, the user's operation on the touch panel is reflected in the content of the stereoscopic video. If drag processing has been performed, the cursor 500 is displayed at the position of the three-dimensional display 101 corresponding to the final position of the drag operation. At this time, the color of the colliding object is changed by following the line-of-sight direction (Ray) from the cursor, and the cursor 500 is presented at the depth position. At the same time, the display mode such as the color of the object 560 as the selection candidate is displayed. Change and present. When the tap process is performed, the selected object 560 is selected from the current cursor position, and the coordinates of the three-dimensional cursor 500 are set to the center position of the object 560. If there is an already selected object and a drag operation has been performed, the selected object is moved on the XY plane by an amount corresponding to the movement distance of the drag operation.

次にモードBの場合に工程902と工程905で行われる操作内容の概略を説明する。携帯機器120のディスプレイ121の面の向きが、地面に水平に(重力方向に対して垂直に)置かれている場合、携帯機器120のディスプレイ面121と立体ディスプレイ101の内部のコンテンツ空間における水平位置(X−Z平面)を一対一対応させて、物体の指定を行う。   Next, an outline of the operation contents performed in Step 902 and Step 905 in the case of Mode B will be described. When the orientation of the surface of the display 121 of the mobile device 120 is placed horizontally on the ground (perpendicular to the direction of gravity), the horizontal position in the content space inside the display surface 121 of the mobile device 120 and the stereoscopic display 101 The object is specified by associating (X-Z plane) one-to-one.

図11は、モードBにおける三次元カーソルの移動とそれに基づく仮想物体の指定を示す図である。工程902Bにおいて、情報処理機器130は、携帯機器120に画像1102を表示するために、コンテンツ空間のX−Z平面の位置情報を上方から描画1101した時の画像1102を作成する。この画像は、現在の三次元カーソル500の位置を中心とし、携帯機器120のY軸周りの回転角度に合わせて回転させて得られた画像である。また、携帯機器120のディスプレイ121のY軸周りの回転角度に合わせて仮想空間上にグリッド1101を引く。このコンテンツ空間のX−Z平面上にひかれたグリッドと携帯機器120のディスプレイ121上に提示されたX−Y平面の画像は互いに一対一の関係をなすため、工程912において、ユーザはこのX−Z平面に対してのタッチ操作を行っていると解釈する。   FIG. 11 is a diagram showing the movement of the three-dimensional cursor in mode B and the designation of the virtual object based on the movement. In step 902B, in order to display the image 1102 on the portable device 120, the information processing device 130 creates an image 1102 when the position information on the XZ plane of the content space is drawn 1101 from above. This image is an image obtained by rotating around the Y axis of the portable device 120 around the current position of the three-dimensional cursor 500. In addition, a grid 1101 is drawn on the virtual space in accordance with the rotation angle around the Y axis of the display 121 of the mobile device 120. Since the grid drawn on the XZ plane of the content space and the image on the XY plane presented on the display 121 of the portable device 120 are in a one-to-one relationship with each other, in step 912, the user performs the X- This is interpreted as a touch operation on the Z plane.

工程905Bでは、モードBの条件のもとで、ユーザのタッチパネルへの操作を、立体映像のコンテンツに反映する。ズーム操作が行われた場合には、このズーム操作が示す倍率にあわせて画像のサイズとコンテンツ空間のX−Z平面上のグリッドのサイズを変化させ、同一ドラッグによって三次元カーソルを移動できる距離を変化させる。ドラッグ操作が行われた場合には、情報処理機器130は、携帯機器120のディスプレイ121上における移動距離に相当するXZ平面上の移動距離の分だけ三次元カーソル500を移動させる。また、三次元カーソルに相当するX−Z平面の位置に仮想物体(オブジェクト)がある場合には、そのオブジェクトの色などの表示態様を変えることで選択候補を明示的に提示する。選択候補のオブジェクトが選ばれている状況でタップ処理が行われた場合には、選択候補のオブジェクトを選択オブジェクトに指定したと解釈して、現在のカーソルの位置から選択されているオブジェクト560を選択し、三次元カーソル500の座標をオブジェクト560の中心位置に設定する。また、すでに選択されたオブジェクトがあり、ドラッグ操作が行われていた場合には、選択されているオブジェクトをドラッグ操作の移動距離に相当する分だけXZ平面上で移動させる。   In Step 905B, under the condition of Mode B, the user's operation on the touch panel is reflected in the stereoscopic video content. When a zoom operation is performed, the image size and the grid size on the XZ plane of the content space are changed according to the magnification indicated by the zoom operation, and the distance that the three-dimensional cursor can be moved by the same drag is set. Change. When the drag operation is performed, the information processing device 130 moves the three-dimensional cursor 500 by the movement distance on the XZ plane corresponding to the movement distance on the display 121 of the portable device 120. When there is a virtual object (object) at the position of the XZ plane corresponding to the three-dimensional cursor, the selection candidate is explicitly presented by changing the display mode such as the color of the object. When tap processing is performed in a situation where a selection candidate object is selected, it is interpreted that the selection candidate object is designated as the selection object, and the selected object 560 is selected from the current cursor position. Then, the coordinates of the three-dimensional cursor 500 are set at the center position of the object 560. When there is an already selected object and a drag operation has been performed, the selected object is moved on the XZ plane by an amount corresponding to the movement distance of the drag operation.

次にモードCの場合に工程902と工程905で行われる操作内容の概略を図12を用いて説明する。携帯機器120のディスプレイ121の面の向きが、モードA、モードBのどちらでもない場合には、立体ディスプレイ101の座標に対する、携帯機器120のディスプレイ121の面の角度(立体ディスプレイ101の表示面と携帯機器120のディスプレイ121の表示面の相対角度)に合わせた、コンテンツ空間上に仮想平面1200を携帯機器120のディスプレイ121に提示し、その仮想平面1200に対応したインタラクション操作を携帯機器120ののタッチパネルから行う。   Next, the outline of the operation performed in Step 902 and Step 905 in the case of Mode C will be described with reference to FIG. When the orientation of the surface of the display 121 of the mobile device 120 is neither mode A nor mode B, the angle of the surface of the display 121 of the mobile device 120 with respect to the coordinates of the 3D display 101 (the display surface of the 3D display 101 and The virtual plane 1200 is presented on the display 121 of the mobile device 120 on the content space in accordance with the relative angle of the display surface of the display 121 of the mobile device 120, and an interaction operation corresponding to the virtual plane 1200 is performed on the mobile device 120. From the touch panel.

工程902Cにおいて、情報処理機器130は、携帯機器120の角度と位置の情報から、コンテンツ空間上の三次元カーソル500の座標点を通り、物理空間上の携帯機器120のディスプレイ121面と平行となる平面を定義して、この平面を射影面としてコンテンツ空間の風景を携帯機器120に提示するためにレンダリングする。また、立体映像のコンテンツ空間内に、平面1200に相当する平面上にグリッド1201を描く。   In step 902C, the information processing device 130 passes through the coordinate point of the three-dimensional cursor 500 in the content space from the information on the angle and position of the mobile device 120, and is parallel to the display 121 surface of the mobile device 120 in the physical space. A plane is defined, and the plane of the content space is rendered to be presented to the mobile device 120 as a projection plane. In addition, a grid 1201 is drawn on a plane corresponding to the plane 1200 in the content space of the stereoscopic video.

工程912において、ユーザはこの指定されたコンテンツ空間内の平面1200に対してのタッチ操作を行っていると解釈する。   In step 912, the user interprets that the user is performing a touch operation on the plane 1200 in the designated content space.

工程905Cでは、モードCの条件のもとで、ユーザのタッチパネルへの操作を、立体映像のコンテンツに反映する。垂直方向にズーム操作が行われた場合には、このズーム操作が示す倍率にあわせて、携帯機器120のディスプレイ121に提示する画像のサイズとコンテンツ空間の平面上のグリッド1201のサイズを変化させて、同一ドラッグによって三次元カーソル500を移動できる距離を変化させる。ドラッグ操作が行われた場合には、平面1200上でこのドラッグ操作が示す移動距離に相当する移動距離の分だけ三次元カーソル500を移動させる。また、三次元カーソル500に相当する位置に仮想物体(オブジェクト)がある場合には、そのオブジェクトの色などの表示態様を変えることで選択候補を明示的に提示する。選択候補が選ばれている状況でタップ処理が行われた場合には、選択候補となっているオブジェクトを選択する。また、すでに選択されたオブジェクトがあり、ドラッグ操作が行われていた場合には、選択されているオブジェクトをドラッグ操作の移動距離に相当する分だけ平面1200上で移動させる。   In Step 905C, under the condition of mode C, the user's operation on the touch panel is reflected on the content of the stereoscopic video. When the zoom operation is performed in the vertical direction, the size of the image presented on the display 121 of the portable device 120 and the size of the grid 1201 on the plane of the content space are changed according to the magnification indicated by the zoom operation. The distance that the three-dimensional cursor 500 can be moved by the same drag is changed. When the drag operation is performed, the three-dimensional cursor 500 is moved on the plane 1200 by the movement distance corresponding to the movement distance indicated by the drag operation. When a virtual object (object) is present at a position corresponding to the three-dimensional cursor 500, selection candidates are explicitly presented by changing the display mode such as the color of the object. When tap processing is performed in a situation where selection candidates are selected, an object that is a selection candidate is selected. If there is an already selected object and a drag operation has been performed, the selected object is moved on the plane 1200 by an amount corresponding to the movement distance of the drag operation.

これらの一連の処理ルーチンによって、モードに合わせて、三次元ディスプレイ内のカーソル500の移動と物体の選択、移動操作が行われる。   By these series of processing routines, the cursor 500 in the three-dimensional display, the object selection, and the movement operation are performed according to the mode.

これらの一連の処理により、本実施例では、立体ディスプレイ101や立体印刷物に対して、ユーザが可搬することが出来るディスプレイを、動的に組み合わせて、ユーザの意図に合わせた視点位置の選択、奥行表現の制御、立体位置の指定操作を効率的に実現される。   Through this series of processing, in this embodiment, the display that can be carried by the user is dynamically combined with the stereoscopic display 101 and the stereoscopic printed material, and the viewpoint position that matches the user's intention is selected. Depth expression control and three-dimensional position designation operation can be realized efficiently.

特に裸眼立体ディスプレイの例など、一つの視点位置での射影行列で表現しきれない立体映像を調整して処理する場合には、視点位置、角度の選択モードの切り替えは煩雑になる。通常のモニタを用いて最大数十視点の映像のすべての構図での印象を確認しながら作業を行うことは、困難であり非能率的でもある。この調整時に直接に立体ディスプレイを用いることで結果に対する直感的な動作が可能になる。   Especially when adjusting and processing a stereoscopic video that cannot be expressed by a projection matrix at one viewpoint position, such as an autostereoscopic display, switching between viewpoint position and angle selection modes becomes complicated. It is difficult and inefficient to work while confirming the impression of all compositions of up to several tens of viewpoints using a normal monitor. An intuitive operation on the result can be performed by directly using the three-dimensional display during the adjustment.

また、裸眼立体ディスプレイでは、複数の映像を視聴する視点位置ごとに切り替えて表示するが、複数枚の画像のうちのどれかの映像が混合したかたちで視聴されることがある。この理由から、ディスプレイの表面から大幅に離れた距離の物体を描画しようとすると、二重像が見えたり、映像がぼけたりして、利用者に不快を与えるため、これらの裸眼立体ディスプレイでは使用可能な奥行き距離をディスプレイ面の表面近辺に限定して表示するのが一般的である。また、ディスプレイ面と映像が離れた状況下で映像が視聴困難になる傾向は、裸眼立体方式にのみ限定されているわけではなく、メガネ式立体提示の方法においても、ディスプレイ表面から映像の距離が離れると、本来の画像とのかい離が大きくなるため、映像酔いや疲労などの影響も大きくなる傾向がある。このような立体ディスプレイ特有の疲労や三次元酔いなどが生まれると長時間の作業は難しかったが、本実施例の手法を用いることで、必要な情報が手持ちのディスプレイ座標上に固定して提示されるため、このような立体酔い効果の軽減が期待できる。   In addition, in the autostereoscopic display, a plurality of videos are switched and displayed for each viewpoint position to be viewed, but may be viewed in a mixed form of any of the plurality of images. For this reason, if you try to draw an object that is far away from the surface of the display, you will see a double image or the image will be blurred, which will be uncomfortable for the user, so use these autostereoscopic displays. In general, the possible depth distance is limited to the vicinity of the surface of the display surface. In addition, the tendency for viewing images to be difficult to view under the condition that the display surface is separated from the display surface is not limited to the autostereoscopic method. When separated from the original image, the separation from the original image increases, and the effects of motion sickness and fatigue tend to increase. When such fatigue and 3D sickness peculiar to a 3D display were born, it was difficult to work for a long time, but by using the method of this example, necessary information was fixedly displayed on the display coordinates on hand. Therefore, reduction of such a three-dimensional sickness effect can be expected.

また、単一視点の通常の映像ディスプレイのように、裸眼立体ディスプレイのディスプレイ面(二次元平面)をタッチパネルとして選択した場合には、視点の位置が異なっていると二次元平面上の指定位置に関連付けられる三次元空間内の位置が変わりうる。通常のモニタでは単一の視点を前提にして、その視点位置と平面上の点を結んだ方向を示すことで一つの直線を示すが、複数の視点方向が同時に提示される立体視ディスプレイにおいて、ディスプレイ表面に対するインタラクションを行うと、どの視点を用いて物体の指定を行っているかを明示化しない限り、指定されているオブジェクトに対する不定性が生まれるが、本実施例においては、そのような不定性を持たずに物体を直感的に指示可能になる。   In addition, when the display surface (two-dimensional plane) of an autostereoscopic display is selected as a touch panel, as in a normal video display with a single viewpoint, if the viewpoint position is different, the display position will be The position in the associated three-dimensional space can change. In a normal monitor, assuming a single viewpoint, a single line is shown by indicating the direction connecting the viewpoint position and a point on the plane, but in a stereoscopic display in which multiple viewpoint directions are presented simultaneously, When the interaction with the display surface is performed, indefiniteness is generated for the specified object unless it is clearly specified which viewpoint is used to specify the object. In this embodiment, such indefiniteness is generated. An object can be instructed intuitively without holding it.

本実施例では、ある方向から見た画像の作成を行い、その画像を携帯機器120に送る方法を示す。   In the present embodiment, a method of creating an image viewed from a certain direction and sending the image to the mobile device 120 will be described.

本実施例の各ハードウェアは、実施例1のものと同じである。   Each hardware of the present embodiment is the same as that of the first embodiment.

本実施例では、図13に示すように、実施例1の工程902Cに相当する画像1300の作成において、携帯機器120のディスプレイ121の操作画面として、撮影距離を制御するためのスクロールバー1301(この入力値をDとする)、撮影画角を制御するためのスクロールバー1302(この入力値をAとする)、最終撮影画像を取得するボタン1303を配置する。   In the present embodiment, as shown in FIG. 13, in the creation of an image 1300 corresponding to step 902C of the first embodiment, a scroll bar 1301 for controlling the shooting distance (this is the operation screen of the display 121 of the portable device 120) An input value is set as D), a scroll bar 1302 for controlling the shooting angle of view (this input value is set as A), and a button 1303 for acquiring a final shot image.

工程915のタッチパネル操作において、スクロールバー1301が操作され値Dが変化した場合には、工程905Cで行われる仮想平面1200(図12)への射影画像作成において、仮想的な視点位置となる点を仮想平面1200から距離Dに配置して映像の作成を行う。   In the touch panel operation in step 915, when the scroll bar 1301 is operated and the value D changes, a point that becomes a virtual viewpoint position is created in the projection image creation on the virtual plane 1200 (FIG. 12) performed in step 905C. An image is created by being arranged at a distance D from the virtual plane 1200.

また、工程915のタッチパネル操作において、スクロールバー1302が操作され値Aが変化した場合には、工程905Cで行われる仮想平面1200への射影画像作成において、仮想的な画角を角度Aに変更して映像の作成を行う。   In addition, when the scroll bar 1302 is operated and the value A changes in the touch panel operation in step 915, the virtual angle of view is changed to the angle A in the projection image creation on the virtual plane 1200 performed in step 905C. To create a video.

また、915のタッチパネル操作において、ボタン1303が押された場合には、距離D画角Aで仮想平面1200に射影したコンテンツ空間の高解像度画像をレンダリングし、作成された画像をメールに添付して、携帯機器120にあらかじめ関連付けられたメールアドレスに送信する。   In addition, when the button 1303 is pressed in the touch panel operation 915, a high-resolution image of the content space projected on the virtual plane 1200 at the distance D angle of view A is rendered, and the created image is attached to the mail. Then, it is transmitted to the e-mail address associated with the mobile device 120 in advance.

本実施例では、用いられている立体ディスプレイ101と異なるパラメータの立体ディスプレイを用いた場合に各視点位置から見える映像出力(各視点位置に対応する表示内容)のシミュレーション結果を携帯機器120に送る方法を示す。このようなシミュレーションは、たとえば、複数の異なる視点の映像が重なって見えてしまった場合(クロストークと呼ばれる)に、映像が劣化して見える度合いを判断するために用いることが出来る。   In the present embodiment, a method of sending a simulation result of video output (display contents corresponding to each viewpoint position) seen from each viewpoint position when using a stereoscopic display with parameters different from the stereoscopic display 101 used to the portable device 120 Indicates. Such a simulation can be used, for example, to determine the degree to which the video appears to be degraded when video from a plurality of different viewpoints appears to overlap (referred to as crosstalk).

図14を用いて説明する。ハードウェアは、実施例1と立体ディスプレイ1400を異にし、その立体ディスプレイ1400が5個の仮想視点1401〜1405を持っているものとする。   This will be described with reference to FIG. The hardware is different from that of the first embodiment and the stereoscopic display 1400, and the stereoscopic display 1400 has five virtual viewpoints 1401 to 1405.

本実施例では、実施例1の工程902Cに相当する画像の作成において、各視点位置1401〜1405を中心とした5種類の射影像を、仮想平面1200(図12)上に投影して高解像度画像を作成し、それらの重畳映像を作り、実施例2の方法で携帯機器120に関連付けられたメールアドレスに送付する。利用者は送付された画像を見ることによって、位置500にある物体560が、どの程度の立体像のクロストークを生むかを推定することができる。   In this embodiment, in the creation of an image corresponding to step 902C of the first embodiment, five types of projection images centered on the respective viewpoint positions 1401 to 1405 are projected on the virtual plane 1200 (FIG. 12) to obtain a high resolution. Images are created, their superimposed images are created, and sent to a mail address associated with the portable device 120 by the method of the second embodiment. The user can estimate how much stereoscopic image crosstalk is generated by the object 560 at the position 500 by looking at the sent image.

図15に、本実施例を実現するために必要なハードウェア構成を示す。携帯機器1500以外は、実施例1と同様である。携帯機器1500は、裸眼立体映像を提示できるディスプレイを保有する。携帯機器1500の構成を図16に示す。ディスプレイ1501が、レンチキュラレンズ、パララックスバリアなどの立体視ディスプレイであること以外は、実施例1における携帯機器120と同様である。   FIG. 15 shows a hardware configuration necessary for realizing the present embodiment. Except for the portable device 1500, the second embodiment is the same as the first embodiment. The portable device 1500 has a display that can present autostereoscopic images. A configuration of the portable device 1500 is shown in FIG. Except that the display 1501 is a stereoscopic display such as a lenticular lens or a parallax barrier, it is the same as the portable device 120 in the first embodiment.

本実施例の動作工程の大部分は、実施例1と同じ工程である。ただし、定点観測カメラ105〜106の各々から撮影されるマーカー701の携帯機器1500のディスプレイ1501への表示において、ディスプレイ平面上に観測されるように描画することと、各モードにおける携帯機器1500への立体空間の表示において、立体空間の構成を反映するための凹凸情報を伴った立体画像が作成されて、送信される。   Most of the operation steps of the present embodiment are the same as those of the first embodiment. However, in the display on the display 1501 of the mobile device 1500 of the marker 701 photographed from each of the fixed point observation cameras 105 to 106, drawing so as to be observed on the display plane, and to the mobile device 1500 in each mode In the display of the three-dimensional space, a three-dimensional image with unevenness information for reflecting the configuration of the three-dimensional space is created and transmitted.

図17は、実施例1におけるモードA(図10)に対応した画像である。図18は、図17の画像の仮想物体とディスプレイ1501表面の関係を示す模式図である。視点位置1801は、工程628で得られた利用者の顔の視点位置である。ここで、三次元マーカー1740と、三次元仮想物体1760のような各物体のレンダリング処理は、以下のように行う。立体視ディスプレイ1501の提示可能な映像のうち、中心に近いある一つの方向に提示する映像を代表視点とする。この代表視点映像の作成を、視点位置1801を中心として携帯機器1500の立体視ディスプレイ1501の表面1740に相当する仮想空間の平面に向けて投影する射影行列によって行う。他の映像については、この代表視点を基準として立体ディスプレイ各視点の相対的な視点位置を算出する。   FIG. 17 is an image corresponding to mode A (FIG. 10) in the first embodiment. FIG. 18 is a schematic diagram showing the relationship between the virtual object in the image of FIG. 17 and the surface of the display 1501. The viewpoint position 1801 is the viewpoint position of the user's face obtained in step 628. Here, rendering processing of each object such as the three-dimensional marker 1740 and the three-dimensional virtual object 1760 is performed as follows. Of the videos that can be presented on the stereoscopic display 1501, a video that is presented in one direction close to the center is used as a representative viewpoint. This representative viewpoint video is created by a projection matrix that projects toward the plane of the virtual space corresponding to the surface 1740 of the stereoscopic display 1501 of the portable device 1500 with the viewpoint position 1801 as the center. For other videos, the relative viewpoint position of each viewpoint of the stereoscopic display is calculated with this representative viewpoint as a reference.

図19は、実施例1におけるモードC(図12)に対応した、操作対象平面を仮想空間上に配置する模式図である。実施例1と同様の各工程によって、実施例1の平面1200(図12)に相当する平面1900が立体ディスプレイ101に提示される。携帯機器1500の立体視ディスプレイ1501面に画像1902が描画される。この例においては、立体ディスプレイ101上には三次元カーソルの像1941と仮想物体の像1961が、携帯端末の立体視ディスプレイ1501上には、三次元カーソルの像1940と仮想物体の像1960が、それぞれ描画されている。この描画の際の奥行位置の関係を示した上面図が図20である。立体視ディスプレイ1501上に描画された立体像1960と三次元カーソルの像1940は、仮想平面1900と立体像1961と三次元カーソルの像1941の相対位置に等しく配置される。このような表現の実現のために、三次元カーソルの像1940から見た視点位置1801と相対的に等価な位置に仮想視点位置2001を配置する。すなわち、携帯機器1500の立体視ディスプレイ1501の中心から視点位置1801への立体角度と、仮想端末中心から仮想視点位置2001への立体角度が等しく、視点位置1801から携帯機器1500のディスプレイ1501面までの距離と視点位置2001から仮想平面1900までの距離の比率が、携帯機器1500のディスプレイサイズと仮想平面のサイズ(正確にはその上に引かれたグリッドの四角形1901)の比率が同じ位置になるような視点位置である。このとき、立体視ディスプレイ1501の提示可能な映像のうち、中心に近いある一つの方向に提示する映像を代表視点とし、この代表視点映像の作成を、視点位置2001を中心として仮想平面1900に相当する仮想空間の平面に向けて投影する射影行列によって行う。他の映像については、この代表視点を基準として立体ディスプレイ各視点の相対的な視点位置を算出する。   FIG. 19 is a schematic diagram in which an operation target plane corresponding to mode C (FIG. 12) in the first embodiment is arranged in a virtual space. Through the same steps as in the first embodiment, a plane 1900 corresponding to the plane 1200 (FIG. 12) in the first embodiment is presented on the stereoscopic display 101. An image 1902 is drawn on the surface of the stereoscopic display 1501 of the portable device 1500. In this example, a three-dimensional cursor image 1941 and a virtual object image 1961 are displayed on the stereoscopic display 101, and a three-dimensional cursor image 1940 and a virtual object image 1960 are displayed on the stereoscopic display 1501 of the portable terminal. Each is drawn. FIG. 20 is a top view showing the relationship of the depth position at the time of drawing. The three-dimensional image 1960 and the three-dimensional cursor image 1940 drawn on the stereoscopic display 1501 are arranged at equal positions relative to the virtual plane 1900, the three-dimensional image 1961, and the three-dimensional cursor image 1941. In order to realize such expression, a virtual viewpoint position 2001 is arranged at a position relatively equivalent to the viewpoint position 1801 viewed from the image 1940 of the three-dimensional cursor. That is, the stereoscopic angle from the center of the stereoscopic display 1501 of the portable device 1500 to the viewpoint position 1801 is equal to the stereoscopic angle from the center of the virtual terminal to the virtual viewpoint position 2001, and from the viewpoint position 1801 to the display 1501 surface of the portable device 1500. The ratio of the distance and the distance from the viewpoint position 2001 to the virtual plane 1900 is such that the ratio of the display size of the portable device 1500 and the size of the virtual plane (more precisely, the square 1901 of the grid drawn thereon) is the same position. It is an important viewpoint position. At this time, among the images that can be presented on the stereoscopic display 1501, an image presented in one direction close to the center is used as the representative viewpoint, and the creation of the representative viewpoint image is equivalent to the virtual plane 1900 with the viewpoint position 2001 as the center. This is done by a projection matrix that projects toward the plane of the virtual space. For other videos, the relative viewpoint position of each viewpoint of the stereoscopic display is calculated with this representative viewpoint as a reference.

このような描画を、立体視ディスプレイ1501を備えた携帯機器1500を用いて行うことで、モードAの場合には立体視ディスプレイ1501が置かれている物理的な空間を基準に立体像が提示され、モードCの場合にはカーソル1940が置かれている仮想的な点1941を基準にして、携帯機器1500の角度に応じた立体像が提示されるようになる。モードAでは、仮想物体の近くにディスプレイ面を自由に配置することが出来るため、細部が視認可能になり、映像酔いの効果も減少できる。またモードCでは、三次元カーソルの固定によって物体の位置を固定して安定した市長ができる一方で、角度を直感的に変化させることも達成できる。   By performing such drawing using the portable device 1500 provided with the stereoscopic display 1501, in the case of mode A, a stereoscopic image is presented based on the physical space where the stereoscopic display 1501 is placed. In the case of mode C, a stereoscopic image corresponding to the angle of the portable device 1500 is presented based on the virtual point 1941 where the cursor 1940 is placed. In mode A, since the display surface can be freely arranged near the virtual object, details can be visually recognized and the effect of video sickness can be reduced. In mode C, a stable mayor can be achieved by fixing the position of the object by fixing the three-dimensional cursor, while the angle can be changed intuitively.

本実施例は、ディスプレイ101に立体ディスプレイを用いずに立体印刷物を用いる方法について述べる。   In this embodiment, a method of using a three-dimensional printed material without using a three-dimensional display as the display 101 will be described.

この場合のハードウェア構成例を図21に示す。。2101は立体印刷物を貼り付けた器具であり2111〜2113にそれぞれ異なる映像を投影する。携帯端末2120とその立体角度を取得するために定点観測カメラ2105〜2106の行う一連の動作については、先の実施例の記述に準じる。この映像に対し携帯機器2120で仮想平面の位置を指定して画像を作成するが、工程903での立体ディスプレイの画像の描画処理は行わず、携帯機器2120への画像描画と映像送信のみを行う。   A hardware configuration example in this case is shown in FIG. . Reference numeral 2101 denotes an instrument to which a three-dimensional printed material is attached, and projects different images on 2111 to 2113, respectively. A series of operations performed by the fixed-point observation cameras 2105 to 2106 in order to acquire the mobile terminal 2120 and its solid angle conform to the description in the previous embodiment. An image is created by designating the position of the virtual plane with the portable device 2120 for this video, but the drawing process of the image on the stereoscopic display is not performed in step 903, and only the image drawing and the video transmission to the portable device 2120 are performed. .

これにより、立体印刷物に対して、現在は表示されていない方向からの映像を取得して画像として得ることが出来るようになる。   Thereby, with respect to the three-dimensional printed material, an image from a direction not currently displayed can be acquired and obtained as an image.

説明した実施形態によれば、ユーザは、立体の直感的な理解を保持したままで、携帯機器から立体ディスプレイに表示された画像を操作できる。また、立体ディスプレイ上の細かい物体や文字などを長時間視聴することによる映像酔いや眼精疲労を軽減する効果と同時に、直観的な動作によって立体的な関係を指定するインタフェースを実現できる。   According to the described embodiment, the user can operate the image displayed on the stereoscopic display from the portable device while maintaining an intuitive understanding of the stereoscopic. In addition, it is possible to realize an interface for designating a three-dimensional relationship by an intuitive operation as well as an effect of reducing motion sickness and eye strain caused by viewing fine objects and characters on a three-dimensional display for a long time.

101:立体ディスプレイ、102:立体ディスプレイと関連付けられたマーカー、108:カメラ、111〜112:立体ディスプレイが独立に映像を示すことができる方向、120:携帯機器、121:携帯機器のタッチパネルつきディスプレイ、122:携帯機器120のカメラ、123:無線ネットワークアクセス部、130:情報処理機器、131:メモリ、132:演算装置、133:無線ネットワーク部。   101: 3D display, 102: Marker associated with the 3D display, 108: Camera, 111-112: Direction in which the 3D display can show an image independently, 120: Mobile device, 121: Display with touch panel of mobile device, 122: Camera of portable device 120, 123: Wireless network access unit, 130: Information processing device, 131: Memory, 132: Computing device, 133: Wireless network unit.

Claims (10)

ユーザによる操作を受け付けるタッチパネルを有するディスプレイ部および受け付けた前記操作を無線ネットワークを介して送信する無線ネットワークアクセス部を含む携帯機器と、視点位置に対応して、仮想物体を含む立体画像を表示する立体ディスプレイ部と、前記携帯機器と前記無線ネットワークを介して接続し、前記携帯機器の前記ディスプレイ部の表示面と前記立体ディスプレイ部の表示面との相対的になす立体角に応じたモードに対応して、前記携帯機器から受信した前記操作を解釈して、解釈した結果に応じて、前記立体ディスプレイ部に表示した前記仮想物体の状態を更新する情報処理機器とを備えたことを特徴とする立体画像の表示システム。 A stereoscopic device that displays a stereoscopic image including a virtual object corresponding to a viewpoint position, and a portable device including a display unit having a touch panel that receives an operation by a user and a wireless network access unit that transmits the received operation via a wireless network A display unit is connected to the portable device via the wireless network, and corresponds to a mode corresponding to a solid angle formed between the display surface of the display unit of the portable device and the display surface of the stereoscopic display unit. An information processing device that interprets the operation received from the portable device and updates the state of the virtual object displayed on the three-dimensional display unit according to the interpreted result. Image display system. 請求項1記載の立体画像の表示システムにおいて、前記情報処理機器は、前記携帯機器の前記タッチパネルからの前記操作を受け付ける、前記立体画像内の操作対象の平面を、前記携帯機器の前記ディスプレイ部の表示面と前記立体ディスプレイの表示面との相対的になす立体角に応じた仮想平面として、前記仮想平面上のグリッドと共に前記立体ディスプレイに表示することを特徴とする立体画像の表示システム。 2. The stereoscopic image display system according to claim 1, wherein the information processing device accepts the operation from the touch panel of the portable device, and displays a plane to be operated in the stereoscopic image of the display unit of the portable device. A stereoscopic image display system, wherein a virtual plane corresponding to a solid angle formed between a display surface and a display surface of the stereoscopic display is displayed on the stereoscopic display together with a grid on the virtual plane. 請求項2記載の立体画像の表示システムにおいて、前記情報処理機器は、前記仮想物体の位置を明示させた前記仮想平面を前記携帯機器の前記ディスプレイ部に表示することを特徴とする立体画像の表示システム。 3. The stereoscopic image display system according to claim 2, wherein the information processing device displays the virtual plane in which the position of the virtual object is clearly displayed on the display unit of the portable device. system. 請求項1記載の立体画像の表示システムにおいて、前記情報処理機器は、前記立体ディスプレイから前記携帯機器への方向を前記視点位置として含み、前記仮想物体を含む前記立体画像を前記立体ディスプレイ部に表示することを特徴とする立体画像の表示システム。 The stereoscopic image display system according to claim 1, wherein the information processing device includes a direction from the stereoscopic display to the portable device as the viewpoint position, and displays the stereoscopic image including the virtual object on the stereoscopic display unit. A stereoscopic image display system characterized by: 請求項1記載の立体画像の表示システムにおいて、前記携帯機器の前記ディスプレイ部が、前記立体ディスプレイ部とは異なる種別の立体視ディスプレイである場合、前記情報処理機器は、前記仮想物体を含む前記立体画像が、前記視点位置に対応して前記立体視ディスプレイに表示される内容をシミュレーションし、該シミュレーションの結果を前記携帯機器の前記ディスプレイ部に表示することを特徴とする立体画像の表示システム。 The stereoscopic image display system according to claim 1, wherein the information processing device includes the virtual object when the display unit of the portable device is a different type of stereoscopic display than the stereoscopic display unit. A stereoscopic image display system characterized by simulating the content of an image displayed on the stereoscopic display corresponding to the viewpoint position and displaying the result of the simulation on the display unit of the portable device. 携帯機器と、視点位置に対応して、仮想物体を含む立体画像を表示する立体ディスプレイ部と、前記携帯機器と前記無線ネットワークを介して接続する情報処理機器とを備えたシステムによる立体画像の表示方法であって、
前記携帯機器は、該携帯機器が有するディスプレイ部に含むタッチパネルから、ユーザによる操作を受け付け、受け付けた前記操作を無線ネットワークを介して前記情報処理機器へ送信し、
前記情報処理機器は、前記携帯機器の前記ディスプレイ部の表示面と前記立体ディスプレイ部の表示面との相対的になす立体角に応じたモードに対応して、前記携帯機器から受信した前記操作を解釈し、解釈した結果に応じて、前記立体ディスプレイ部に表示した前記仮想物体の状態を更新することを特徴とする立体画像の表示方法。
Display of a stereoscopic image by a system including a portable device, a stereoscopic display unit that displays a stereoscopic image including a virtual object corresponding to the viewpoint position, and an information processing device connected to the portable device via the wireless network A method,
The mobile device receives an operation by a user from a touch panel included in a display unit included in the mobile device, transmits the received operation to the information processing device via a wireless network,
The information processing device performs the operation received from the portable device in accordance with a mode corresponding to a solid angle formed between the display surface of the display unit of the portable device and the display surface of the stereoscopic display unit. A stereoscopic image display method comprising: interpreting and updating a state of the virtual object displayed on the stereoscopic display unit according to the interpreted result.
請求項6記載の立体画像の表示方法において、前記情報処理機器は、前記携帯機器の前記タッチパネルからの前記操作を受け付ける、前記立体画像内の操作対象の平面を、前記携帯機器の前記ディスプレイ部の表示面と前記立体ディスプレイの表示面との相対的になす立体角に応じた仮想平面として、前記仮想平面上のグリッドと共に前記立体ディスプレイに表示することを特徴とする立体画像の表示方法。 The stereoscopic image display method according to claim 6, wherein the information processing device accepts the operation from the touch panel of the portable device, and displays an operation target plane in the stereoscopic image of the display unit of the portable device. A method for displaying a stereoscopic image, comprising: displaying on a stereoscopic display together with a grid on the virtual plane as a virtual plane corresponding to a solid angle formed between a display surface and a display surface of the stereoscopic display. 請求項7記載の立体画像の表示方法において、前記情報処理機器は、前記仮想物体の位置を明示させた前記仮想平面を前記携帯機器の前記ディスプレイ部に表示することを特徴とする立体画像の表示方法。 The stereoscopic image display method according to claim 7, wherein the information processing device displays the virtual plane in which the position of the virtual object is clearly displayed on the display unit of the portable device. Method. 請求項6記載の立体画像の表示方法において、前記情報処理機器は、前記立体ディスプレイから前記携帯機器への方向を前記視点位置として含み、前記仮想物体を含む前記立体画像を前記立体ディスプレイ部に表示することを特徴とする立体画像の表示方法。 The stereoscopic image display method according to claim 6, wherein the information processing device includes a direction from the stereoscopic display to the portable device as the viewpoint position, and displays the stereoscopic image including the virtual object on the stereoscopic display unit. A method for displaying a stereoscopic image, characterized by: 請求項6記載の立体画像の表示方法において、前記携帯機器の前記ディスプレイ部が、前記立体ディスプレイ部とは異なる種別の立体視ディスプレイである場合、前記情報処理機器は、前記仮想物体を含む前記立体画像が、前記視点位置に対応して前記立体視ディスプレイに表示される内容をシミュレーションし、該シミュレーションの結果を前記携帯機器の前記ディスプレイ部に表示することを特徴とする立体画像の表示方法。 The stereoscopic image display method according to claim 6, wherein when the display unit of the portable device is a stereoscopic display of a type different from the stereoscopic display unit, the information processing device includes the virtual object. A stereoscopic image display method, comprising: simulating the content of an image displayed on the stereoscopic display corresponding to the viewpoint position; and displaying the result of the simulation on the display unit of the portable device.
JP2010225643A 2010-10-05 2010-10-05 Stereoscopic image display system and display method Expired - Fee Related JP5520772B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010225643A JP5520772B2 (en) 2010-10-05 2010-10-05 Stereoscopic image display system and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010225643A JP5520772B2 (en) 2010-10-05 2010-10-05 Stereoscopic image display system and display method

Publications (2)

Publication Number Publication Date
JP2012079211A true JP2012079211A (en) 2012-04-19
JP5520772B2 JP5520772B2 (en) 2014-06-11

Family

ID=46239344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010225643A Expired - Fee Related JP5520772B2 (en) 2010-10-05 2010-10-05 Stereoscopic image display system and display method

Country Status (1)

Country Link
JP (1) JP5520772B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015220732A (en) * 2014-05-21 2015-12-07 セイコーエプソン株式会社 Display system, terminal device, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148844A (en) * 2003-11-11 2005-06-09 Fukuda Gakuen Display system
JP2006031515A (en) * 2004-07-20 2006-02-02 Vodafone Kk Mobile communication terminal, application program, image display control device, and image display control method
JP2006146440A (en) * 2004-11-17 2006-06-08 Sony Corp Electronic device and information display selection method
JP2006178900A (en) * 2004-12-24 2006-07-06 Hitachi Displays Ltd Stereo image generator
JP2009278456A (en) * 2008-05-15 2009-11-26 Hitachi Ltd Video display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148844A (en) * 2003-11-11 2005-06-09 Fukuda Gakuen Display system
JP2006031515A (en) * 2004-07-20 2006-02-02 Vodafone Kk Mobile communication terminal, application program, image display control device, and image display control method
JP2006146440A (en) * 2004-11-17 2006-06-08 Sony Corp Electronic device and information display selection method
JP2006178900A (en) * 2004-12-24 2006-07-06 Hitachi Displays Ltd Stereo image generator
JP2009278456A (en) * 2008-05-15 2009-11-26 Hitachi Ltd Video display device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
泰間健司, 外8名: ""3Dのインターネット応用"", 映像情報メディア学会技術報告, vol. 第22巻, 第56号, JPN6013061449, 16 October 1998 (1998-10-16), JP, pages 31 - 35, ISSN: 0002768629 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015220732A (en) * 2014-05-21 2015-12-07 セイコーエプソン株式会社 Display system, terminal device, and program

Also Published As

Publication number Publication date
JP5520772B2 (en) 2014-06-11

Similar Documents

Publication Publication Date Title
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
JP3926837B2 (en) Display control method and apparatus, program, and portable device
JP5966510B2 (en) Information processing system
JP6057396B2 (en) 3D user interface device and 3D operation processing method
KR101822471B1 (en) Virtual Reality System using of Mixed reality, and thereof implementation method
KR102461232B1 (en) Image processing method and apparatus, electronic device, and storage medium
US10999412B2 (en) Sharing mediated reality content
WO2015090421A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
CN111161396B (en) Virtual content control method, device, terminal equipment and storage medium
CA2550512A1 (en) 3d videogame system
JP2009205556A (en) User interface device
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
JP2020173529A (en) Information processing device, information processing method, and program
JP6065908B2 (en) Stereoscopic image display device, cursor display method thereof, and computer program
CN115328304A (en) 2D-3D fused virtual reality interaction method and device
JP2015167349A (en) Information processing apparatus, information processing system, control method of the same and program
JP2013168120A (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
CN102799378B (en) A kind of three-dimensional collision detection object pickup method and device
JP2009212582A (en) Feedback system for virtual studio
JP7210131B2 (en) Information processing device, information processing method and program
JP5520772B2 (en) Stereoscopic image display system and display method
JP2021170367A (en) Image processing method, and image processing system
JP7760355B2 (en) Information processing device, information processing method, and program
CN213934814U (en) 3D (three-dimensional) interactive display system
KR101473234B1 (en) Method and system for displaying an image based on body tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140407

R150 Certificate of patent or registration of utility model

Ref document number: 5520772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees