JP2012079211A - Display system and display method of stereoscopic image - Google Patents
Display system and display method of stereoscopic image Download PDFInfo
- Publication number
- JP2012079211A JP2012079211A JP2010225643A JP2010225643A JP2012079211A JP 2012079211 A JP2012079211 A JP 2012079211A JP 2010225643 A JP2010225643 A JP 2010225643A JP 2010225643 A JP2010225643 A JP 2010225643A JP 2012079211 A JP2012079211 A JP 2012079211A
- Authority
- JP
- Japan
- Prior art keywords
- display
- stereoscopic
- portable device
- display unit
- stereoscopic image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】携帯機器から立体ディスプレイに表示された画像を操作する。
【解決手段】立体画像の表示システム及び表示方法は、携帯機器と、視点位置に対応して、仮想物体を含む立体画像を表示する立体ディスプレイ部と、携帯機器と無線ネットワークを介して接続する情報処理機器とを備える。携帯機器は、携帯機器が有するディスプレイ部に含むタッチパネルから、ユーザによる操作を受け付け、受け付けた操作を無線ネットワークを介して情報処理機器へ送信する。情報処理機器は、携帯機器のディスプレイ部の表示面と立体ディスプレイ部の表示面との相対的になす立体角に応じたモードに対応して、携帯機器から受信した操作を解釈し、解釈した結果に応じて、立体ディスプレイ部に表示した仮想物体の状態を更新する。
【選択図】図1An image displayed on a stereoscopic display is operated from a portable device.
A stereoscopic image display system and display method includes a portable device, a stereoscopic display unit that displays a stereoscopic image including a virtual object corresponding to a viewpoint position, and information connected to the portable device via a wireless network. And processing equipment. The portable device accepts an operation by the user from a touch panel included in the display unit included in the portable device, and transmits the accepted operation to the information processing device via the wireless network. The information processing device interprets the operation received from the mobile device in accordance with the mode corresponding to the solid angle formed by the display surface of the mobile device display unit and the display surface of the 3D display unit, and results of interpretation Accordingly, the state of the virtual object displayed on the stereoscopic display unit is updated.
[Selection] Figure 1
Description
本発明は、立体画像への操作を可能とする表示システム及び表示方法に関する。 The present invention relates to a display system and a display method that enable an operation on a stereoscopic image.
ディスプレイの外部・周辺の空間座標に、ディスプレイが提示する空間座標を射影させて提示させる拡張現実感(Augmented Reality:AR)技術がある。この技術では、カメラに映った画像マーカーの向きや形から、カメラとマーカーの三次元位置関係を解析して、この三次元視点位置のパラメータにあわせて映像をディスプレイに合成提示する。特許文献1では、このような技術に用いるマーカーの提示方法について述べられている。
There is an augmented reality (AR) technique in which the spatial coordinates presented by the display are projected onto spatial coordinates outside and around the display. In this technology, the three-dimensional positional relationship between the camera and the marker is analyzed from the orientation and shape of the image marker reflected on the camera, and the video is synthesized and presented on the display in accordance with the parameters of the three-dimensional viewpoint position.
また、三次元視点位置の直感的な表示には、ステレオ立体視ディスプレイが用いられる。このとき立体空間に対して直感的な操作を行う方法として、特許文献2では、三次元的に物体を選択するための器具の一例が示されている。 A stereo stereoscopic display is used for intuitive display of the three-dimensional viewpoint position. At this time, as a method of performing an intuitive operation on a three-dimensional space, Patent Document 2 shows an example of an instrument for selecting an object three-dimensionally.
立体映像のシーンの視聴に用いられる画像には、自己を含めたシーンの全オブジェクトを上から見下ろすような構図(以下、三人称視点と呼ぶ)と、自己の位置から見た構図(以下、一人称視点と呼ぶ)の二種類がある。 The image used for viewing a 3D video scene includes a composition that looks down on all objects in the scene including itself (hereinafter referred to as the third person viewpoint) and a composition that is viewed from the position of the person (hereinafter referred to as the first person viewpoint). There are two types.
一般に、一人称視点、すなわち視点位置からの構図を用いると、ユーザの視覚環境を直感的に理解できる。特許文献1にみられる自己位置同定手法によって、ユーザ視点の操作を拡張する方法が示された。しかし、このような環境では、物体への指示操作が主に視点位置からの方向で定義されるため、映像上の物体を選択し、または角度を指示する場合には、奥行方向の直感的な距離指定ができず、奥行き方向に重畳している物体の指示・指定が困難になる。
In general, using a first-person viewpoint, that is, a composition from the viewpoint position, the user's visual environment can be intuitively understood. A method of extending the operation of the user viewpoint by the self-position identification method found in
三次元上の物体指定における不定性を改善するために、特許文献2のような三次元マウスなどの奥行きを直接指定する器具が提案されてきた。しかし、三次元マウスは一般に操作可能な空間が限定されているため、背景の山並みなどの超遠方のオブジェクトを含んだ一般的な風景に対しては、奥行を含んだ指示を直観的に行うことが難しい。 In order to improve the indeterminacy in the three-dimensional object designation, an instrument that directly designates the depth such as a three-dimensional mouse as in Patent Document 2 has been proposed. However, since a three-dimensional mouse is generally limited in the space that can be operated, it is intuitive to give instructions that include depth to general landscapes that include extremely distant objects such as mountains in the background. Is difficult.
一方、一人称視点とは異なる三人称視点からの奥行き指示と組み合わせることで、不定性の少ない指示を行うことが出来るようになる。このため、作業画面を複数に分割して、一人称視点と三人称視点の双方を交互に確認しながら作業を行うことが、従来のディスプレイ上の操作では一般的であった。しかし、このような複数視点の切り替えには、ディスプレイを占有して映像を切り替える必要があるため、複数人数で同一の画像を見て行う協調的な環境での直観的な操作には向かない。 On the other hand, when combined with a depth instruction from a third person viewpoint different from the first person viewpoint, an instruction with less ambiguity can be given. For this reason, it is common in conventional operations on a display to divide the work screen into a plurality of parts and perform the work while alternately checking both the first person viewpoint and the third person viewpoint. However, since switching between multiple viewpoints requires switching the video while occupying the display, it is not suitable for an intuitive operation in a collaborative environment where a plurality of people see the same image.
開示される立体画像の表示システム及び表示方法は、携帯機器と、視点位置に対応して、仮想物体を含む立体画像を表示する立体ディスプレイ部と、携帯機器と無線ネットワークを介して接続する情報処理機器とを備える。携帯機器は、携帯機器が有するディスプレイ部に含むタッチパネルから、ユーザによる操作を受け付け、受け付けた操作を無線ネットワークを介して情報処理機器へ送信する。情報処理機器は、携帯機器のディスプレイ部の表示面と立体ディスプレイ部の表示面との相対的になす角に応じたモードに対応して、携帯機器から受信した操作を解釈し、解釈した結果に応じて、立体ディスプレイ部に表示した仮想物体の状態を更新する。 The disclosed stereoscopic image display system and display method include a portable device, a stereoscopic display unit that displays a stereoscopic image including a virtual object corresponding to a viewpoint position, and information processing connected to the portable device via a wireless network. Equipment. The portable device accepts an operation by the user from a touch panel included in the display unit included in the portable device, and transmits the accepted operation to the information processing device via the wireless network. The information processing device interprets the operation received from the mobile device in accordance with the mode according to the angle formed by the display surface of the display unit of the mobile device and the display surface of the stereoscopic display unit. In response, the state of the virtual object displayed on the stereoscopic display unit is updated.
立体画像の表示システム及び表示方法の他の態様は、情報処理機器は、携帯機器のタッチパネルからの操作を受け付ける、立体画像内の操作対象の平面を、携帯機器のディスプレイ部の表示面と立体ディスプレイの表示面との相対的になす立体角に応じた仮想平面として、仮想平面上のグリッドと共に立体ディスプレイに表示する。 In another aspect of the stereoscopic image display system and the display method, the information processing device accepts an operation from the touch panel of the mobile device, the plane to be operated in the stereoscopic image, the display surface of the display unit of the mobile device, and the stereoscopic display As a virtual plane corresponding to the solid angle formed relative to the display surface, the image is displayed on the three-dimensional display together with the grid on the virtual plane.
立体画像の表示システム及び表示方法のさらに他の態様は、情報処理機器は、仮想物体の位置を明示させた仮想平面を携帯機器のディスプレイ部に表示する。 In still another aspect of the stereoscopic image display system and display method, the information processing device displays a virtual plane in which the position of the virtual object is clearly indicated on the display unit of the portable device.
立体画像の表示システム及び表示方法のさらに他の態様は、情報処理機器は、立体ディスプレイから携帯機器への方向を視点位置として含み、仮想物体を含む立体画像を立体ディスプレイ部に表示する。 According to still another aspect of the stereoscopic image display system and display method, the information processing device includes a direction from the stereoscopic display to the portable device as a viewpoint position, and displays a stereoscopic image including a virtual object on the stereoscopic display unit.
立体画像の表示システム及び表示方法のさらに他の態様は、携帯機器のディスプレイ部が、立体ディスプレイ部とは異なる種別の立体視ディスプレイである場合、情報処理機器は、仮想物体を含む立体画像が、視点位置に対応して立体視ディスプレイに表示される内容をシミュレーションし、このシミュレーションの結果を携帯機器のディスプレイ部に表示する。 In still another aspect of the stereoscopic image display system and display method, when the display unit of the portable device is a stereoscopic display of a type different from the stereoscopic display unit, the information processing device is configured to display a stereoscopic image including a virtual object, The content displayed on the stereoscopic display corresponding to the viewpoint position is simulated, and the result of the simulation is displayed on the display unit of the portable device.
本発明によれば、ユーザは、立体の直感的な理解を保持したままで、携帯機器から立体ディスプレイに表示された映像を操作できる。 According to the present invention, the user can operate the video displayed on the stereoscopic display from the portable device while maintaining the intuitive understanding of the stereoscopic.
以下、実施例を図面を用いて説明する。 Hereinafter, examples will be described with reference to the drawings.
図1に、立体画像(立体映像)の表示システムのハードウェア構成を示す。図1に示すように、複数の方向(それぞれ方向111、112、113とする)に異なる映像を提示する立体ディスプレイ101に、その立体ディスプレイ101の位置座標を他の位置から取得するためのマーカー102が添付されている。このマーカー102を他の位置から撮影した場合、撮影したマーカー102の二次元画像上の形状から、後述の手法で立体ディスプレイ101の位置を基準とした、マーカー102を撮影したカメラの位置と角度を求めることができる。
FIG. 1 shows a hardware configuration of a stereoscopic image (stereoscopic video) display system. As shown in FIG. 1, a
図3に、情報処理機器130の構成を示す。立体ディスプレイ101を駆動する情報処理機器130は、図3に示すようにメモリ131と演算装置132を持ち、立体ディスプレイ101に表示する二次元映像情報を送信する映像出力部134を持ち、無線ネットワーク部133を通じて外部機器と連携を行う。一般的な汎用計算機機である情報処理機器130は、メモリ131に保持されたプログラムに従って演算装置132で計算処理を行い、その結果を映像として立体ディスプレイ101に出力、またはTCP,またはHTTPなどの通信プロトコルを介して外部機器に伝達する。この情報処理機器130は一般的な汎用計算機の機能、すなわち複数のプロセスを切り替えて擬似並列的に実行し、また内部の時計やネットワークを用いることでプロセス間の同期をとりつつ計算処理を行う機能を有する。
FIG. 3 shows the configuration of the
また、図1に示す無線定点観測カメラ105〜106は、立体ディスプレイ101を含む周辺を撮影し、撮影した立体ディスプレイ101の周辺画像を定期的に情報処理機器130に送信する。立体ディスプレイ101の上部には定点観測カメラ108を設け、立体ディスプレイ101の周辺を広視野角で撮影する。
Also, the wireless fixed
立体ディスプレイ101に対しての、ユーザインタフェースという意味でのインタフェース部となる携帯機器120が存在する。図2に、携帯機器120の構成を示す。携帯機器120は、ユーザによる操作を受け付けるタッチパネルを表面に装備したディスプレイ部121と、周辺状況を撮影するカメラ122、無線ネットワークへのアクセス部123を備え、プログラムを保持し実行するメモリ124と、演算装置125によって駆動する。無線ネットワークアクセス部123から外部プログラムをメモリ124に動的に読み込み、演算装置125で駆動することにより、画面121への出力と、そこからの入力結果を処理して、TCP、HTTPなどの通信プロトコルを介して無線ネットワークに伝える機能を有する。また、プログラムによって動的に生成された映像をディスプレイ部に表示するための映像出力部126と、タッチパネルに接触した指・ペン先などの位置を座標情報として受け取るタッチパネル受信部127を備える。また、指・ペン先などの座標情報は、タッチパネルへの接触から離れるまでの時間と空間変化から分類され、ドラッグ、タップ、二本指で行うズームなどの操作に意味解釈してプログラム内で用いる。これらの解釈区分と分離手法については、これらの情報端末での一般的技術に準じる。また、携帯機器120は、加速度と地磁気から現在の携帯機器120が向いている方向を推定するための加速度センサ128を有する。この携帯機器120は一般的な汎用計算機の機能、すなわちネットワークを通じてプログラムデータを読み込み、複数のプロセスを切り替えて擬似並列的に実行し、また内部の時計やネットワークを用いることでプロセス間の同期をとりつつ計算処理を行う機能を有する。
There is a
図4は、立体画像の合成表示システムを初期化するための一連の工程を示したフロー図である。工程401では、立体ディスプレイ101と、定点観測カメラ105〜106の位置調整が行われる。本実施例では、立体ディスプレイ101の表示面の中央を原点として、ディスプレイに向かって右向き(X)、ディスプレイに向かって上向き(Y)、ディスプレイに向かって奥の方向(Z)の直交座標系を定義する。また、携帯機器120のディスプレイは、画面垂直方向(上)と画面水平方向(右)と画面奥方向のそれぞれに向けた単位長のベクトルの組を、単位ベクトル140として定義する。このベクトルは携帯機器120の配置によって回転する。
FIG. 4 is a flowchart showing a series of steps for initializing the stereoscopic image composition display system. In
情報処理機器130は、定点観測カメラ105〜106が撮影した最新の映像を受信し、受信した定点観測カメラ105〜107の映像中にマーカー102がある場合には、映像中のマーカー102の二次元幾何形状の画像から、マーカー102と定点観測カメラ105、106の三次元位置関係をそれぞれ推定する。この推定値から、立体ディスプレイ101の表示面の中央を原点とした定点観測カメラ105〜106の各々の位置を同定し、同定した位置情報をメモリ131に保持する。
The
マーカーからの三次元位置推定には一般的に利用可能な幾つかの既存技法が存在する。本実施例では、以下の手順で四角形のマーカーと三次元位置情報を抽出する。まず、マーカーの画像を2値化して、画像の黒部分を探し、セグメンテーション処理を行って閉領域に分割する。各閉領域で、一番端の点を最初の頂点とし、この頂点から辿って領域の輪郭を作る。作った輪郭から四角形のマーカーの各頂点を探す。4つの頂点をもつ領域を正面から見た場合の形に変換処理を行い、4角形内の画像を単純化する。この画像とマーカーのパターンとのパターンマッチングを行い、マーカーのパターンとの対応関係が閾値以上である場合には、その画像はマーカーであるとする。4つの頂点を画像上の対応位置に変換する射影行列を計算し、そのパラメータから、撮影したカメラからのマーカーの三次元位置と方向についての推定値を求める。 There are several existing techniques that are generally available for 3D position estimation from markers. In this embodiment, a rectangular marker and three-dimensional position information are extracted by the following procedure. First, the marker image is binarized, the black portion of the image is searched, and segmentation is performed to divide the image into closed regions. In each closed region, the end point is taken as the first vertex, and the contour of the region is created by tracing from this vertex. Find each vertex of the square marker from the outline you made. The conversion process is performed to the shape when the area having four vertices is viewed from the front, and the image in the quadrangle is simplified. When pattern matching between the image and the marker pattern is performed and the correspondence between the image and the marker pattern is equal to or greater than a threshold value, the image is assumed to be a marker. A projection matrix for converting the four vertices into corresponding positions on the image is calculated, and an estimated value for the three-dimensional position and direction of the marker from the captured camera is obtained from the parameters.
工程402では、定点観測カメラ105〜106に対して、一定期間ごとに撮影を命じる命令を発するためのスレッドを起動する。本実施例の定点観測カメラ105、106は、自発的に一定期間ごとに画像を送信できる機能を持ったネットワークカメラである。情報処理機器130が操作するカメラの場合にも、情報処理機器130に独立なプロセスまたはスレッドを置くことで、同等の操作を行うことができる。
In
工程403では、携帯機器120からのネットワーク接続を受け付けるTCP(またはHTTP)サーバーのスレッドを情報処理機器130が起動する。情報処理機器130に端末機器120が接続した場合の動作については、図6を用いて後述する。
In
図5は立体ディスプレイ101に表示する映像を作成する処理を説明するための、コンテンツ空間での仮想物体の配置を示す模式図である。
FIG. 5 is a schematic diagram showing the arrangement of virtual objects in the content space for explaining processing for creating a video to be displayed on the
立体ディスプレイ101に三次元位置情報(表示対象)が配置される仮想的な空間を、立体ディスプレイ101と携帯機器120などの位置を表現する物理的な三次元空間と区別するために、以下ではコンテンツ空間と呼ぶ。この原点座標502は、前述のように立体ディスプレイ101の表示面中心に対応し、立体ディスプレイ101の表示面に相当する面501がZ=0のX‐Y平面となる。図5は、このようなコンテンツ空間を示したものである。コンテンツ空間上に複数の視点位置511〜513を設定し、立体ディスプレイ101の表示面に相当する平面501にコンテンツ空間の三次元座標を射影して、設定した視点位置511〜513の各々に対応する二次元画像を構成する。視点位置毎にそれぞれ得られたこれらの二次元画像を、立体ディスプレイ101からの方向111〜113の各々に向けて表示する。
In order to distinguish a virtual space in which the three-dimensional position information (display target) is arranged on the three-
また、このコンテンツ空間内に、ポインタ三次元位置500を示すマーカーを配置する。このポインタの初期位置は、原点位置502、すなわち立体ディスプレイ101の表示面中心にセットする。
In addition, a marker indicating the pointer three-
図6は、立体ディスプレイ101の座標系に対して携帯機器120の位置同定を行うための一連のルーチンを示したものである。携帯機器120が、立体ディスプレイ101からある距離に入り、情報処理機器130の無線ネットワーク部133との間で通信可能になった場合に、携帯機器120は情報処理機器130への接続メッセージを送る(工程601)。情報処理機器130は、図7に示す位置同定用のマーカーのパターン701と、携帯機器120で実行するプログラム702を携帯機器120に送信する(工程602)。工程602においては、ユーザの携帯機器120を介した入力情報を管理する工程901〜916(図9)を実行する情報処理機器130側のプログラムと、携帯機器120に送信したプログラムとの、それぞれ独立のスレッドを起動する。このスレッドの動作に関しては後述する。これらの処理によって、準備が完了する。
FIG. 6 shows a series of routines for identifying the position of the
以下の工程610〜633は、携帯機器120、定点観測カメラ105〜106の各々、および、情報処理機器130が同期された内部タイマで時間的に連携しながら動作する。この各機器のプログラムには、これらの撮影処理が同期するように独立のプロセスまたはスレッドを駆動している。工程610、620、630は、これらのプロセス(スレッド)がそれぞれの機器で同期された時刻まで待機する処理を示す。
The following
工程611では、携帯機器120が、702のプログラムを駆動して、位置同定用のマーカー画像701を、携帯機器120のディスプレイ部121に提示する。
In
工程612では、携帯機器120が付属のカメラ122で撮影を行う。工程622では、情報処理機器130がカメラ108で撮影を行う。工程632では、定点観測カメラ105〜106の各々が撮影を行う。なお、工程612、622、632の各撮影は、ほぼ同時刻に行われるように、各機器の同期は調整されている。
In
この撮影処理の後、工程613では、携帯機器120のプログラム702が、この時刻の携帯機器120の加速度センサ128から角度情報を読み取る。工程614では、携帯機器120は、工程612で撮影した画像と工程613で取得した角度情報を情報処理機器130に送信する。
After this photographing process, in
工程633では、定点計測カメラ105〜106の各々が撮影した画像を情報処理機器130に送信する。
In
工程614、工程633に対応して、工程623では、情報処理機器130は、携帯機器120が提示しているマーカー701を撮影した定点観測カメラ105〜106の各々の画像を受信する。また、工程613で取得された携帯機器120の角度情報、および、工程612で取得された携帯機器120のカメラ122による画像を取得する。
Corresponding to
工程624では、情報処理機器130は、定点観測カメラ105〜106の各々が撮影した画像に位置同定用のマーカーのパターン701が撮影されているかどうかのパターン検索処理を行う。マーカー701が写っている場合、幾何形状の射影行列のパラメータを計算して、定点観測カメラ105〜106の各々と携帯機器120との相対位置を推定する。このマーカーパターンの検索処理は、前述したとおりである。
In
また、工程625では、携帯機器120のカメラ122が撮影した画像に位置同定用のマーカーパターン102が写っているかどうかのパターン検索処理を行う。マーカーが写っている場合、幾何形状の射影行列のパラメータを計算して、携帯機器120と立体ディスプレイ101の相対位置を推定する。このマーカーパターン102の検索処理は、前述したとおりである。
In
工程627は、工程624で得られた相対位置と、携帯機器120からの角度情報と、工程625で得られた相対位置を合わせて、他の数値から大きく外れたはずれ値(out lier)を除去したうえで平均化を行い、最終的な相対位置を推定する。
In step 627, the relative position obtained in
工程628では、工程622で撮影されたカメラ108の画像から、顔画像のパターンを検索する。この顔画像を検索するために、以下の一連の処理を行うプログラムルーチンを呼び出して実行する。顔画像から肌の色に近い色相の領域を取り出す。一般的な顔画像について、顔の黒い部分と白い部分を保持したパターン(Haarパターン)をメモリから呼び出し、肌の色に近い色相の領域の近傍に対して、このHaarパターンとパターンマッチングを行う。この結果が閾値以上に類似している領域を顔画像と認識する。カメラ108が設置されている方向と画像領域の関係から、認識された顔画像が存在する立体角を算出して保存する。複数の顔画像が撮影された場合には、定点観測カメラ105〜106からの画像によって得られた情報処理機器130の位置、および立体ディスプレイ101からの方向に最も近い顔画像を、携帯機器120の利用者の顔であると判断して、その位置情報を用いる。
In
この携帯機器120の角度情報と位置情報を用いて、情報更新処理629を行う。情報更新処理629は、後述する図9の工程901〜916において実行される、携帯機器120からの情報更新スレッドのモード選択の参照変数を書き換える処理である。これらの一連の処理が終了した時点で、携帯機器120、定点観測カメラ、情報処理機器130の撮影スレッドは、次の撮影同期時刻になるまで、待機する。
図9は、情報更新処理(工程629)の一連の処理を示したフロー図である。このフロー図は、情報処理装置130側で行われる工程902〜905と、携帯機器120側で行われる工程911〜916により構成されている。これらの工程はそれぞれ独立したプロセスまたはスレッドとして連続動作を行っているが、工程629で更新された携帯機器120の角度情報に応じてモードを切り替え、工程903と工程905では現在のモードに応じて異なった処理を行う。
FIG. 9 is a flowchart showing a series of processes of the information update process (step 629). This flowchart includes
まず、モードに依存しない全体のフロー部分の説明を行う。工程901では、工程629で更新された携帯機器120の角度情報に応じてモードの選択を行う。立体ディスプレイ101の面と携帯機器120のディスプレイ121の面の方向が閾値θ以内である場合(すなわち立体ディスプレイ101の表示面と携帯機器120のディスプレイ121の表示面が同じ方向を向いている場合)には、モードAとする。立体ディスプレイ101の表示面と携帯機器120のディスプレイ121の表示面とが、垂直から閾値θ以内である場合(すなわち、立体ディスプレイ101の表示面が鉛直である場合、携帯機器120のディスプレイ121の面が上を向いている)には、モードBとする。またそれ以外の角度の関係である場合には、モードCとする。このように、携帯機器120のディスプレイ121の表示面と立体ディスプレイ101の表示面との相対的な立体角に応じてモードを定義する。
First, the entire flow part that does not depend on the mode will be described. In
工程902は、モードに応じた、携帯機器120に送る画像を作成する手順である。携帯機器120に送る画像はモードに応じて異なり、それぞれのモードA〜Cに対応する画像作成の処理ルーチンを駆動する。この各モードの処理ルーチンの実行内容は後述する。工程903では工程902の処理ルーチンで作成された画像とモードの種別が携帯機器120に送られる。
Step 902 is a procedure for creating an image to be sent to the
工程911〜916は、携帯機器12側で行われる処理である。工程911では工程903で送った画像とモードの種別の情報を受信する。工程912では、受信した画像を提示する。工程913では以前とモードの種別に変化があったかを調べ、モードの種別に変化があった場合には、工程914でタッチパネルに関する読み取り情報をリセットする。工程915ではタッチパネルへのアクセス状態を調べ、ドラッグ、タップ、ズーム(または操作が行われていなかった)のどの状態であったかを取得して、工程916でこのタッチ状態の情報を情報処理機器130に送信する。
情報処理機器130は、工程916で取得されたタッチ状態の情報を工程904で受け取って、工程905でその情報をもとに、立体ディスプレイ101に表示されている映像を更新する。工程905の映像情報の更新処理はより具体的には、タッチ状態(タッチパネルの操作)をモードに応じて解釈して、解釈した操作により映像情報(仮想物体の状態)を更新することである。この画像(映像情報)もモードに応じて異なり、それぞれのモードA〜Cに対応する処理ルーチンで駆動する。この各処理ルーチンの内容は後述する。一連の操作が終了すると、再び工程901に戻り、画面の送信と携帯機器120のタッチパネルの情報取得を行う。
The
工程902と、工程905は、モードの種別によって、携帯機器120からの入力情報の解釈を変えるルーチンである。このモードには前述のようにA〜Cの三種類がある。モードAは、立体ディスプレイ101と携帯機器120のディスプレイ121が同じ方向を向いている場合であるので、ある角度方向にレンダリングされた像がディスプレイ面に射影された位置に合わせて物体を選択するモードである。また、モードBは、ディスプレイ121の面が上を向いている場合であるので、コンテンツ空間内で水平面(X−Z平面)における位置を用いて物体を選択するモードである。また、モードCは、立体ディスプレイ101の表示面と携帯機器120のディスプレイ面121がなす立体角度を用い、携帯機器120のディスプレイ121の表面と平行な面をコンテンツ空間に提示して、この面上での移動、回転、ズーム処理を行うモードである。すなわち、モードに応じて移動、回転、ズーム処理などの操作の対象平面が異なる。
これらのモードの切り替えに当たっては、コンテンツの空間上の一つの三次元点を各モードで共有し、この点を中心とした座標を再定義する。 When switching between these modes, a single 3D point on the content space is shared by each mode, and the coordinates around this point are redefined.
モードAの場合に工程902と工程905で行われる操作内容の概略を説明する。携帯ディスプレイ121の位置が立体ディスプレイ101と平行に置かれている場合、モードAでの選択処理が行われる。このモードAでは、携帯機器120のディスプレイ面121と立体ディスプレイ101のディスプレイ面を1対1対応させて、携帯機器120または立体ディスプレイ101のディスプレイ表面に写っている物体を指示する。図8は、モードAにおける三次元カーソルの移動とそれに対応する仮想物体の指定を示す図である。図10に、モードAにおいて、立体ディスプレイ101のディスプレイ表示1001に対応した携帯機器120に表示される操作画面1002の模式図を示す。
An outline of the contents of operations performed in
工程915の操作時には、工程627で求められた立体ディスプレイ101に対する携帯機器120のディスプレイ121の物理空間上の相対的な位置と最も近い方向511に向けて提示されている画像が、携帯機器120のディスプレイ121に提示されている。ユーザは、タッチパネルの位置540を選択する際には、立体ディスプレイ101上に対応付けられた位置550を選択する意図で操作している。
At the time of the operation in
この際、立体ディスプレイ101上に提示されるカーソルの射影像550からカーソル500の奥行を含めた位置を求めるために、携帯機器120の位置である視点位置803付近の、立体ディスプレイ101の視点位置511からディスプレイ表面上カーソル550を通った視線方向 (Ray) をたどって仮想物体と衝突した位置を算出する。こうして求められたカーソル位置500を図8に示す。視点位置511から見て立体ディスプレイ101上のカーソルの射影像550を連続的に動かした場合でも、512、513のような他の位置から見た画像においては、必ずしもカーソル500の射影像550がディスプレイ平面101上で連続に移動するとは限らない。
At this time, in order to obtain the position including the depth of the
工程902A(モードAのときの工程902、以下同様に表記する。)において、情報処理機器130は、携帯機器120の方向に向けて立体ディスプレイ101に提示されている画像(図8の状況では視点511でレンダリングされた画像)の縮小コピーを携帯機器120に送る。工程912において、携帯機器120は送られてきた画像を、保有するディスプレイ121面に提示しているため、工程915において、ユーザはこの画面表面に対してのタッチ操作を行っていると解釈する。
In step 902A (
工程905Aでは、モードAの条件のもとで、ユーザのタッチパネルへの操作を、立体映像のコンテンツに反映する。ドラッグ処理が行われていた場合には、ドラッグ操作の最終位置対応した、立体ディスプレイ101の位置にカーソル500を表示する。このとき、同カーソルから視線方向(Ray)をたどって衝突した物体の色などを変化させて、その奥行の位置にカーソル500を提示すると同時に、選択候補であるオブジェクト560の色などの表示態様を変えて提示する。タップの処理が行われた場合には、現在のカーソルの位置から選択されているオブジェクト560を選択し、三次元カーソル500の座標をオブジェクト560の中心位置に設定する。また、すでに選択されたオブジェクトがあり、ドラッグ操作が行われていた場合には、選択されているオブジェクトをドラッグ操作の移動距離に相当する分だけX−Y平面状で移動させる。
In step 905A, under the condition of mode A, the user's operation on the touch panel is reflected in the content of the stereoscopic video. If drag processing has been performed, the
次にモードBの場合に工程902と工程905で行われる操作内容の概略を説明する。携帯機器120のディスプレイ121の面の向きが、地面に水平に(重力方向に対して垂直に)置かれている場合、携帯機器120のディスプレイ面121と立体ディスプレイ101の内部のコンテンツ空間における水平位置(X−Z平面)を一対一対応させて、物体の指定を行う。
Next, an outline of the operation contents performed in
図11は、モードBにおける三次元カーソルの移動とそれに基づく仮想物体の指定を示す図である。工程902Bにおいて、情報処理機器130は、携帯機器120に画像1102を表示するために、コンテンツ空間のX−Z平面の位置情報を上方から描画1101した時の画像1102を作成する。この画像は、現在の三次元カーソル500の位置を中心とし、携帯機器120のY軸周りの回転角度に合わせて回転させて得られた画像である。また、携帯機器120のディスプレイ121のY軸周りの回転角度に合わせて仮想空間上にグリッド1101を引く。このコンテンツ空間のX−Z平面上にひかれたグリッドと携帯機器120のディスプレイ121上に提示されたX−Y平面の画像は互いに一対一の関係をなすため、工程912において、ユーザはこのX−Z平面に対してのタッチ操作を行っていると解釈する。
FIG. 11 is a diagram showing the movement of the three-dimensional cursor in mode B and the designation of the virtual object based on the movement. In step 902B, in order to display the
工程905Bでは、モードBの条件のもとで、ユーザのタッチパネルへの操作を、立体映像のコンテンツに反映する。ズーム操作が行われた場合には、このズーム操作が示す倍率にあわせて画像のサイズとコンテンツ空間のX−Z平面上のグリッドのサイズを変化させ、同一ドラッグによって三次元カーソルを移動できる距離を変化させる。ドラッグ操作が行われた場合には、情報処理機器130は、携帯機器120のディスプレイ121上における移動距離に相当するXZ平面上の移動距離の分だけ三次元カーソル500を移動させる。また、三次元カーソルに相当するX−Z平面の位置に仮想物体(オブジェクト)がある場合には、そのオブジェクトの色などの表示態様を変えることで選択候補を明示的に提示する。選択候補のオブジェクトが選ばれている状況でタップ処理が行われた場合には、選択候補のオブジェクトを選択オブジェクトに指定したと解釈して、現在のカーソルの位置から選択されているオブジェクト560を選択し、三次元カーソル500の座標をオブジェクト560の中心位置に設定する。また、すでに選択されたオブジェクトがあり、ドラッグ操作が行われていた場合には、選択されているオブジェクトをドラッグ操作の移動距離に相当する分だけXZ平面上で移動させる。
In Step 905B, under the condition of Mode B, the user's operation on the touch panel is reflected in the stereoscopic video content. When a zoom operation is performed, the image size and the grid size on the XZ plane of the content space are changed according to the magnification indicated by the zoom operation, and the distance that the three-dimensional cursor can be moved by the same drag is set. Change. When the drag operation is performed, the
次にモードCの場合に工程902と工程905で行われる操作内容の概略を図12を用いて説明する。携帯機器120のディスプレイ121の面の向きが、モードA、モードBのどちらでもない場合には、立体ディスプレイ101の座標に対する、携帯機器120のディスプレイ121の面の角度(立体ディスプレイ101の表示面と携帯機器120のディスプレイ121の表示面の相対角度)に合わせた、コンテンツ空間上に仮想平面1200を携帯機器120のディスプレイ121に提示し、その仮想平面1200に対応したインタラクション操作を携帯機器120ののタッチパネルから行う。
Next, the outline of the operation performed in
工程902Cにおいて、情報処理機器130は、携帯機器120の角度と位置の情報から、コンテンツ空間上の三次元カーソル500の座標点を通り、物理空間上の携帯機器120のディスプレイ121面と平行となる平面を定義して、この平面を射影面としてコンテンツ空間の風景を携帯機器120に提示するためにレンダリングする。また、立体映像のコンテンツ空間内に、平面1200に相当する平面上にグリッド1201を描く。
In step 902C, the
工程912において、ユーザはこの指定されたコンテンツ空間内の平面1200に対してのタッチ操作を行っていると解釈する。
In
工程905Cでは、モードCの条件のもとで、ユーザのタッチパネルへの操作を、立体映像のコンテンツに反映する。垂直方向にズーム操作が行われた場合には、このズーム操作が示す倍率にあわせて、携帯機器120のディスプレイ121に提示する画像のサイズとコンテンツ空間の平面上のグリッド1201のサイズを変化させて、同一ドラッグによって三次元カーソル500を移動できる距離を変化させる。ドラッグ操作が行われた場合には、平面1200上でこのドラッグ操作が示す移動距離に相当する移動距離の分だけ三次元カーソル500を移動させる。また、三次元カーソル500に相当する位置に仮想物体(オブジェクト)がある場合には、そのオブジェクトの色などの表示態様を変えることで選択候補を明示的に提示する。選択候補が選ばれている状況でタップ処理が行われた場合には、選択候補となっているオブジェクトを選択する。また、すでに選択されたオブジェクトがあり、ドラッグ操作が行われていた場合には、選択されているオブジェクトをドラッグ操作の移動距離に相当する分だけ平面1200上で移動させる。
In Step 905C, under the condition of mode C, the user's operation on the touch panel is reflected on the content of the stereoscopic video. When the zoom operation is performed in the vertical direction, the size of the image presented on the
これらの一連の処理ルーチンによって、モードに合わせて、三次元ディスプレイ内のカーソル500の移動と物体の選択、移動操作が行われる。
By these series of processing routines, the
これらの一連の処理により、本実施例では、立体ディスプレイ101や立体印刷物に対して、ユーザが可搬することが出来るディスプレイを、動的に組み合わせて、ユーザの意図に合わせた視点位置の選択、奥行表現の制御、立体位置の指定操作を効率的に実現される。
Through this series of processing, in this embodiment, the display that can be carried by the user is dynamically combined with the
特に裸眼立体ディスプレイの例など、一つの視点位置での射影行列で表現しきれない立体映像を調整して処理する場合には、視点位置、角度の選択モードの切り替えは煩雑になる。通常のモニタを用いて最大数十視点の映像のすべての構図での印象を確認しながら作業を行うことは、困難であり非能率的でもある。この調整時に直接に立体ディスプレイを用いることで結果に対する直感的な動作が可能になる。 Especially when adjusting and processing a stereoscopic video that cannot be expressed by a projection matrix at one viewpoint position, such as an autostereoscopic display, switching between viewpoint position and angle selection modes becomes complicated. It is difficult and inefficient to work while confirming the impression of all compositions of up to several tens of viewpoints using a normal monitor. An intuitive operation on the result can be performed by directly using the three-dimensional display during the adjustment.
また、裸眼立体ディスプレイでは、複数の映像を視聴する視点位置ごとに切り替えて表示するが、複数枚の画像のうちのどれかの映像が混合したかたちで視聴されることがある。この理由から、ディスプレイの表面から大幅に離れた距離の物体を描画しようとすると、二重像が見えたり、映像がぼけたりして、利用者に不快を与えるため、これらの裸眼立体ディスプレイでは使用可能な奥行き距離をディスプレイ面の表面近辺に限定して表示するのが一般的である。また、ディスプレイ面と映像が離れた状況下で映像が視聴困難になる傾向は、裸眼立体方式にのみ限定されているわけではなく、メガネ式立体提示の方法においても、ディスプレイ表面から映像の距離が離れると、本来の画像とのかい離が大きくなるため、映像酔いや疲労などの影響も大きくなる傾向がある。このような立体ディスプレイ特有の疲労や三次元酔いなどが生まれると長時間の作業は難しかったが、本実施例の手法を用いることで、必要な情報が手持ちのディスプレイ座標上に固定して提示されるため、このような立体酔い効果の軽減が期待できる。 In addition, in the autostereoscopic display, a plurality of videos are switched and displayed for each viewpoint position to be viewed, but may be viewed in a mixed form of any of the plurality of images. For this reason, if you try to draw an object that is far away from the surface of the display, you will see a double image or the image will be blurred, which will be uncomfortable for the user, so use these autostereoscopic displays. In general, the possible depth distance is limited to the vicinity of the surface of the display surface. In addition, the tendency for viewing images to be difficult to view under the condition that the display surface is separated from the display surface is not limited to the autostereoscopic method. When separated from the original image, the separation from the original image increases, and the effects of motion sickness and fatigue tend to increase. When such fatigue and 3D sickness peculiar to a 3D display were born, it was difficult to work for a long time, but by using the method of this example, necessary information was fixedly displayed on the display coordinates on hand. Therefore, reduction of such a three-dimensional sickness effect can be expected.
また、単一視点の通常の映像ディスプレイのように、裸眼立体ディスプレイのディスプレイ面(二次元平面)をタッチパネルとして選択した場合には、視点の位置が異なっていると二次元平面上の指定位置に関連付けられる三次元空間内の位置が変わりうる。通常のモニタでは単一の視点を前提にして、その視点位置と平面上の点を結んだ方向を示すことで一つの直線を示すが、複数の視点方向が同時に提示される立体視ディスプレイにおいて、ディスプレイ表面に対するインタラクションを行うと、どの視点を用いて物体の指定を行っているかを明示化しない限り、指定されているオブジェクトに対する不定性が生まれるが、本実施例においては、そのような不定性を持たずに物体を直感的に指示可能になる。 In addition, when the display surface (two-dimensional plane) of an autostereoscopic display is selected as a touch panel, as in a normal video display with a single viewpoint, if the viewpoint position is different, the display position will be The position in the associated three-dimensional space can change. In a normal monitor, assuming a single viewpoint, a single line is shown by indicating the direction connecting the viewpoint position and a point on the plane, but in a stereoscopic display in which multiple viewpoint directions are presented simultaneously, When the interaction with the display surface is performed, indefiniteness is generated for the specified object unless it is clearly specified which viewpoint is used to specify the object. In this embodiment, such indefiniteness is generated. An object can be instructed intuitively without holding it.
本実施例では、ある方向から見た画像の作成を行い、その画像を携帯機器120に送る方法を示す。
In the present embodiment, a method of creating an image viewed from a certain direction and sending the image to the
本実施例の各ハードウェアは、実施例1のものと同じである。 Each hardware of the present embodiment is the same as that of the first embodiment.
本実施例では、図13に示すように、実施例1の工程902Cに相当する画像1300の作成において、携帯機器120のディスプレイ121の操作画面として、撮影距離を制御するためのスクロールバー1301(この入力値をDとする)、撮影画角を制御するためのスクロールバー1302(この入力値をAとする)、最終撮影画像を取得するボタン1303を配置する。
In the present embodiment, as shown in FIG. 13, in the creation of an
工程915のタッチパネル操作において、スクロールバー1301が操作され値Dが変化した場合には、工程905Cで行われる仮想平面1200(図12)への射影画像作成において、仮想的な視点位置となる点を仮想平面1200から距離Dに配置して映像の作成を行う。
In the touch panel operation in
また、工程915のタッチパネル操作において、スクロールバー1302が操作され値Aが変化した場合には、工程905Cで行われる仮想平面1200への射影画像作成において、仮想的な画角を角度Aに変更して映像の作成を行う。
In addition, when the
また、915のタッチパネル操作において、ボタン1303が押された場合には、距離D画角Aで仮想平面1200に射影したコンテンツ空間の高解像度画像をレンダリングし、作成された画像をメールに添付して、携帯機器120にあらかじめ関連付けられたメールアドレスに送信する。
In addition, when the
本実施例では、用いられている立体ディスプレイ101と異なるパラメータの立体ディスプレイを用いた場合に各視点位置から見える映像出力(各視点位置に対応する表示内容)のシミュレーション結果を携帯機器120に送る方法を示す。このようなシミュレーションは、たとえば、複数の異なる視点の映像が重なって見えてしまった場合(クロストークと呼ばれる)に、映像が劣化して見える度合いを判断するために用いることが出来る。
In the present embodiment, a method of sending a simulation result of video output (display contents corresponding to each viewpoint position) seen from each viewpoint position when using a stereoscopic display with parameters different from the
図14を用いて説明する。ハードウェアは、実施例1と立体ディスプレイ1400を異にし、その立体ディスプレイ1400が5個の仮想視点1401〜1405を持っているものとする。
This will be described with reference to FIG. The hardware is different from that of the first embodiment and the
本実施例では、実施例1の工程902Cに相当する画像の作成において、各視点位置1401〜1405を中心とした5種類の射影像を、仮想平面1200(図12)上に投影して高解像度画像を作成し、それらの重畳映像を作り、実施例2の方法で携帯機器120に関連付けられたメールアドレスに送付する。利用者は送付された画像を見ることによって、位置500にある物体560が、どの程度の立体像のクロストークを生むかを推定することができる。
In this embodiment, in the creation of an image corresponding to step 902C of the first embodiment, five types of projection images centered on the
図15に、本実施例を実現するために必要なハードウェア構成を示す。携帯機器1500以外は、実施例1と同様である。携帯機器1500は、裸眼立体映像を提示できるディスプレイを保有する。携帯機器1500の構成を図16に示す。ディスプレイ1501が、レンチキュラレンズ、パララックスバリアなどの立体視ディスプレイであること以外は、実施例1における携帯機器120と同様である。
FIG. 15 shows a hardware configuration necessary for realizing the present embodiment. Except for the
本実施例の動作工程の大部分は、実施例1と同じ工程である。ただし、定点観測カメラ105〜106の各々から撮影されるマーカー701の携帯機器1500のディスプレイ1501への表示において、ディスプレイ平面上に観測されるように描画することと、各モードにおける携帯機器1500への立体空間の表示において、立体空間の構成を反映するための凹凸情報を伴った立体画像が作成されて、送信される。
Most of the operation steps of the present embodiment are the same as those of the first embodiment. However, in the display on the
図17は、実施例1におけるモードA(図10)に対応した画像である。図18は、図17の画像の仮想物体とディスプレイ1501表面の関係を示す模式図である。視点位置1801は、工程628で得られた利用者の顔の視点位置である。ここで、三次元マーカー1740と、三次元仮想物体1760のような各物体のレンダリング処理は、以下のように行う。立体視ディスプレイ1501の提示可能な映像のうち、中心に近いある一つの方向に提示する映像を代表視点とする。この代表視点映像の作成を、視点位置1801を中心として携帯機器1500の立体視ディスプレイ1501の表面1740に相当する仮想空間の平面に向けて投影する射影行列によって行う。他の映像については、この代表視点を基準として立体ディスプレイ各視点の相対的な視点位置を算出する。
FIG. 17 is an image corresponding to mode A (FIG. 10) in the first embodiment. FIG. 18 is a schematic diagram showing the relationship between the virtual object in the image of FIG. 17 and the surface of the
図19は、実施例1におけるモードC(図12)に対応した、操作対象平面を仮想空間上に配置する模式図である。実施例1と同様の各工程によって、実施例1の平面1200(図12)に相当する平面1900が立体ディスプレイ101に提示される。携帯機器1500の立体視ディスプレイ1501面に画像1902が描画される。この例においては、立体ディスプレイ101上には三次元カーソルの像1941と仮想物体の像1961が、携帯端末の立体視ディスプレイ1501上には、三次元カーソルの像1940と仮想物体の像1960が、それぞれ描画されている。この描画の際の奥行位置の関係を示した上面図が図20である。立体視ディスプレイ1501上に描画された立体像1960と三次元カーソルの像1940は、仮想平面1900と立体像1961と三次元カーソルの像1941の相対位置に等しく配置される。このような表現の実現のために、三次元カーソルの像1940から見た視点位置1801と相対的に等価な位置に仮想視点位置2001を配置する。すなわち、携帯機器1500の立体視ディスプレイ1501の中心から視点位置1801への立体角度と、仮想端末中心から仮想視点位置2001への立体角度が等しく、視点位置1801から携帯機器1500のディスプレイ1501面までの距離と視点位置2001から仮想平面1900までの距離の比率が、携帯機器1500のディスプレイサイズと仮想平面のサイズ(正確にはその上に引かれたグリッドの四角形1901)の比率が同じ位置になるような視点位置である。このとき、立体視ディスプレイ1501の提示可能な映像のうち、中心に近いある一つの方向に提示する映像を代表視点とし、この代表視点映像の作成を、視点位置2001を中心として仮想平面1900に相当する仮想空間の平面に向けて投影する射影行列によって行う。他の映像については、この代表視点を基準として立体ディスプレイ各視点の相対的な視点位置を算出する。
FIG. 19 is a schematic diagram in which an operation target plane corresponding to mode C (FIG. 12) in the first embodiment is arranged in a virtual space. Through the same steps as in the first embodiment, a
このような描画を、立体視ディスプレイ1501を備えた携帯機器1500を用いて行うことで、モードAの場合には立体視ディスプレイ1501が置かれている物理的な空間を基準に立体像が提示され、モードCの場合にはカーソル1940が置かれている仮想的な点1941を基準にして、携帯機器1500の角度に応じた立体像が提示されるようになる。モードAでは、仮想物体の近くにディスプレイ面を自由に配置することが出来るため、細部が視認可能になり、映像酔いの効果も減少できる。またモードCでは、三次元カーソルの固定によって物体の位置を固定して安定した市長ができる一方で、角度を直感的に変化させることも達成できる。
By performing such drawing using the
本実施例は、ディスプレイ101に立体ディスプレイを用いずに立体印刷物を用いる方法について述べる。
In this embodiment, a method of using a three-dimensional printed material without using a three-dimensional display as the
この場合のハードウェア構成例を図21に示す。。2101は立体印刷物を貼り付けた器具であり2111〜2113にそれぞれ異なる映像を投影する。携帯端末2120とその立体角度を取得するために定点観測カメラ2105〜2106の行う一連の動作については、先の実施例の記述に準じる。この映像に対し携帯機器2120で仮想平面の位置を指定して画像を作成するが、工程903での立体ディスプレイの画像の描画処理は行わず、携帯機器2120への画像描画と映像送信のみを行う。
A hardware configuration example in this case is shown in FIG. .
これにより、立体印刷物に対して、現在は表示されていない方向からの映像を取得して画像として得ることが出来るようになる。 Thereby, with respect to the three-dimensional printed material, an image from a direction not currently displayed can be acquired and obtained as an image.
説明した実施形態によれば、ユーザは、立体の直感的な理解を保持したままで、携帯機器から立体ディスプレイに表示された画像を操作できる。また、立体ディスプレイ上の細かい物体や文字などを長時間視聴することによる映像酔いや眼精疲労を軽減する効果と同時に、直観的な動作によって立体的な関係を指定するインタフェースを実現できる。 According to the described embodiment, the user can operate the image displayed on the stereoscopic display from the portable device while maintaining an intuitive understanding of the stereoscopic. In addition, it is possible to realize an interface for designating a three-dimensional relationship by an intuitive operation as well as an effect of reducing motion sickness and eye strain caused by viewing fine objects and characters on a three-dimensional display for a long time.
101:立体ディスプレイ、102:立体ディスプレイと関連付けられたマーカー、108:カメラ、111〜112:立体ディスプレイが独立に映像を示すことができる方向、120:携帯機器、121:携帯機器のタッチパネルつきディスプレイ、122:携帯機器120のカメラ、123:無線ネットワークアクセス部、130:情報処理機器、131:メモリ、132:演算装置、133:無線ネットワーク部。
101: 3D display, 102: Marker associated with the 3D display, 108: Camera, 111-112: Direction in which the 3D display can show an image independently, 120: Mobile device, 121: Display with touch panel of mobile device, 122: Camera of
Claims (10)
前記携帯機器は、該携帯機器が有するディスプレイ部に含むタッチパネルから、ユーザによる操作を受け付け、受け付けた前記操作を無線ネットワークを介して前記情報処理機器へ送信し、
前記情報処理機器は、前記携帯機器の前記ディスプレイ部の表示面と前記立体ディスプレイ部の表示面との相対的になす立体角に応じたモードに対応して、前記携帯機器から受信した前記操作を解釈し、解釈した結果に応じて、前記立体ディスプレイ部に表示した前記仮想物体の状態を更新することを特徴とする立体画像の表示方法。 Display of a stereoscopic image by a system including a portable device, a stereoscopic display unit that displays a stereoscopic image including a virtual object corresponding to the viewpoint position, and an information processing device connected to the portable device via the wireless network A method,
The mobile device receives an operation by a user from a touch panel included in a display unit included in the mobile device, transmits the received operation to the information processing device via a wireless network,
The information processing device performs the operation received from the portable device in accordance with a mode corresponding to a solid angle formed between the display surface of the display unit of the portable device and the display surface of the stereoscopic display unit. A stereoscopic image display method comprising: interpreting and updating a state of the virtual object displayed on the stereoscopic display unit according to the interpreted result.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010225643A JP5520772B2 (en) | 2010-10-05 | 2010-10-05 | Stereoscopic image display system and display method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010225643A JP5520772B2 (en) | 2010-10-05 | 2010-10-05 | Stereoscopic image display system and display method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2012079211A true JP2012079211A (en) | 2012-04-19 |
| JP5520772B2 JP5520772B2 (en) | 2014-06-11 |
Family
ID=46239344
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010225643A Expired - Fee Related JP5520772B2 (en) | 2010-10-05 | 2010-10-05 | Stereoscopic image display system and display method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5520772B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015220732A (en) * | 2014-05-21 | 2015-12-07 | セイコーエプソン株式会社 | Display system, terminal device, and program |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005148844A (en) * | 2003-11-11 | 2005-06-09 | Fukuda Gakuen | Display system |
| JP2006031515A (en) * | 2004-07-20 | 2006-02-02 | Vodafone Kk | Mobile communication terminal, application program, image display control device, and image display control method |
| JP2006146440A (en) * | 2004-11-17 | 2006-06-08 | Sony Corp | Electronic device and information display selection method |
| JP2006178900A (en) * | 2004-12-24 | 2006-07-06 | Hitachi Displays Ltd | Stereo image generator |
| JP2009278456A (en) * | 2008-05-15 | 2009-11-26 | Hitachi Ltd | Video display device |
-
2010
- 2010-10-05 JP JP2010225643A patent/JP5520772B2/en not_active Expired - Fee Related
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005148844A (en) * | 2003-11-11 | 2005-06-09 | Fukuda Gakuen | Display system |
| JP2006031515A (en) * | 2004-07-20 | 2006-02-02 | Vodafone Kk | Mobile communication terminal, application program, image display control device, and image display control method |
| JP2006146440A (en) * | 2004-11-17 | 2006-06-08 | Sony Corp | Electronic device and information display selection method |
| JP2006178900A (en) * | 2004-12-24 | 2006-07-06 | Hitachi Displays Ltd | Stereo image generator |
| JP2009278456A (en) * | 2008-05-15 | 2009-11-26 | Hitachi Ltd | Video display device |
Non-Patent Citations (1)
| Title |
|---|
| 泰間健司, 外8名: ""3Dのインターネット応用"", 映像情報メディア学会技術報告, vol. 第22巻, 第56号, JPN6013061449, 16 October 1998 (1998-10-16), JP, pages 31 - 35, ISSN: 0002768629 * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015220732A (en) * | 2014-05-21 | 2015-12-07 | セイコーエプソン株式会社 | Display system, terminal device, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5520772B2 (en) | 2014-06-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10095458B2 (en) | Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system | |
| JP3926837B2 (en) | Display control method and apparatus, program, and portable device | |
| JP5966510B2 (en) | Information processing system | |
| JP6057396B2 (en) | 3D user interface device and 3D operation processing method | |
| KR101822471B1 (en) | Virtual Reality System using of Mixed reality, and thereof implementation method | |
| KR102461232B1 (en) | Image processing method and apparatus, electronic device, and storage medium | |
| US10999412B2 (en) | Sharing mediated reality content | |
| WO2015090421A1 (en) | Method and system for providing information associated with a view of a real environment superimposed with a virtual object | |
| CN111161396B (en) | Virtual content control method, device, terminal equipment and storage medium | |
| CA2550512A1 (en) | 3d videogame system | |
| JP2009205556A (en) | User interface device | |
| JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
| JP2020173529A (en) | Information processing device, information processing method, and program | |
| JP6065908B2 (en) | Stereoscopic image display device, cursor display method thereof, and computer program | |
| CN115328304A (en) | 2D-3D fused virtual reality interaction method and device | |
| JP2015167349A (en) | Information processing apparatus, information processing system, control method of the same and program | |
| JP2013168120A (en) | Stereoscopic image processing apparatus, stereoscopic image processing method, and program | |
| CN102799378B (en) | A kind of three-dimensional collision detection object pickup method and device | |
| JP2009212582A (en) | Feedback system for virtual studio | |
| JP7210131B2 (en) | Information processing device, information processing method and program | |
| JP5520772B2 (en) | Stereoscopic image display system and display method | |
| JP2021170367A (en) | Image processing method, and image processing system | |
| JP7760355B2 (en) | Information processing device, information processing method, and program | |
| CN213934814U (en) | 3D (three-dimensional) interactive display system | |
| KR101473234B1 (en) | Method and system for displaying an image based on body tracking |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130207 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131202 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131217 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140210 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140318 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140407 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5520772 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |