JP6496391B1 - Display system and display method - Google Patents
Display system and display method Download PDFInfo
- Publication number
- JP6496391B1 JP6496391B1 JP2017234716A JP2017234716A JP6496391B1 JP 6496391 B1 JP6496391 B1 JP 6496391B1 JP 2017234716 A JP2017234716 A JP 2017234716A JP 2017234716 A JP2017234716 A JP 2017234716A JP 6496391 B1 JP6496391 B1 JP 6496391B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- display device
- displayed
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】HMDを使用するユーザが、複雑な操作や動作を行うことなく、表示された画像とは異なる画像を表示する表示システムを提供することを目的とする。【解決手段】ユーザの頭部に装着することで利用される表示装置を備えるシステムにおいて、表示装置の表示画面に、表示装置の向きに応じて背景画像を表示し、特定された向きに対応する視軸と、仮想空間内の所定のオブジェクトとが重なる場合に、第一画像とは異なる第二画像を第一画像に重畳させて表示する。【選択図】 図2An object of the present invention is to provide a display system in which a user using an HMD displays an image different from the displayed image without performing complicated operations and operations. In a system including a display device used by being mounted on a user's head, a background image is displayed on the display screen of the display device according to the orientation of the display device, and the specified orientation is supported. When the visual axis and a predetermined object in the virtual space overlap, a second image different from the first image is displayed superimposed on the first image. [Selection] Figure 2
Description
本発明は、ユーザの頭部に装着する表示装置を用いた表示システム及び表示方法に関する。 The present invention relates to a display system and a display method using a display device mounted on a user's head.
近年、ヘッドマウントディスプレイ(以下、HMDという)等を用いたVR(Virtual Reality)技術がある。例えば、仮想カメラにより撮像された、仮想世界を構成する背景画像をHMDに表示し、ユーザに対して仮想世界に入り込んだような感覚(いわゆる没入感)を与えるものである。 In recent years, there is a VR (Virtual Reality) technology using a head mounted display (hereinafter referred to as HMD) or the like. For example, a background image that forms a virtual world captured by a virtual camera is displayed on the HMD, and the user feels as if he / she has entered the virtual world (so-called immersion).
しかし、HMDの画像解像度は低く、ユーザは、表示された画像の細部について視認できなかった。また、複雑な入力操作を要求すると、ユーザの没入感を損なうおそれがあった。 However, the image resolution of the HMD is low, and the user cannot visually recognize the details of the displayed image. Further, when a complicated input operation is requested, there is a risk that the user's immersive feeling may be impaired.
本発明の少なくとも1つの実施の形態の目的は、HMDを使用するユーザが、複雑な操作や動作を行うことなく、表示された画像とは異なる画像を表示する表示システムを提供することである。 An object of at least one embodiment of the present invention is to provide a display system in which a user using an HMD displays an image different from the displayed image without performing complicated operations and operations.
非限定的な観点によると、本発明に係る表示システムは、ユーザの頭部に装着することで利用される表示装置を備える表示システムであって、表示装置の向きを特定する向き特定手段と、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示する第一表示手段と、特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示する第二表示手段とを備える、表示システムである。 According to a non-limiting viewpoint, the display system according to the present invention is a display system including a display device that is used by being worn on a user's head, and an orientation specifying unit that specifies the orientation of the display device; First display means for displaying a first image indicating the state of the virtual space according to the specified orientation on the display screen of the display device, and a visual axis corresponding to the specified orientation are predetermined objects in the virtual space. And a second display means for displaying a second image different from the first image on the display area generated by being superimposed on the first image.
非限定的な観点によると、本発明に係る表示方法は、ユーザの頭部に装着することで利用される表示装置を備えるシステムにおいて実行される表示方法であって、表示装置の向きを特定することと、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示することと、特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することとを実行する表示方法である。 According to a non-limiting aspect, the display method according to the present invention is a display method executed in a system including a display device used by being worn on the user's head, and specifies the orientation of the display device. And displaying the first image indicating the state of the virtual space according to the specified orientation on the display screen of the display device, and the visual axis corresponding to the specified orientation is a predetermined object in the virtual space. Is displayed on the display area generated by superimposing on the first image, the second image different from the first image is displayed.
本発明の各実施形態により1または2以上の不足が解決される。 Each embodiment of the present invention solves one or more deficiencies.
以下、添付図面を参照して、本発明の実施の形態について説明する。以下、効果に関する記載は、本発明の実施の形態の効果の一側面であり、ここに記載するものに限定されない。また、以下で説明するフローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同である。 Embodiments of the present invention will be described below with reference to the accompanying drawings. Hereinafter, the description regarding the effect is one aspect of the effect of the embodiment of the present invention, and is not limited to what is described here. In addition, the order of the processes constituting the flowchart described below is out of order as long as no contradiction or inconsistency occurs in the process contents.
[第一の実施の形態]
本発明の第一の実施の形態の概要について説明をする。以下では、本発明の第一の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[First embodiment]
The outline of the first embodiment of the present invention will be described. Hereinafter, as a first embodiment of the present invention, a display system including a display device that is used by being worn on the user's head will be described as an example.
図1は、本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。表示システム1は、向き特定部101、第一表示部102、及び第二表示部103を少なくとも備える。
FIG. 1 is a block diagram showing a configuration of a display system corresponding to at least one of the embodiments of the present invention. The display system 1 includes at least an
向き特定部101は、表示装置の向きを特定する機能を有する。第一表示部102は、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示する機能を有する。第二表示部103は、特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示する機能を有する。
The
本発明の第一の実施の形態における実行処理について説明する。図2は、本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。 The execution process in the first embodiment of the present invention will be described. FIG. 2 is a flowchart of execution processing corresponding to at least one of the embodiments of the present invention.
表示システム1は、向き特定部101により、ユーザの頭部に装着することで利用される表示装置の向きを特定する(ステップS1)。表示システム1は、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示する(ステップS2)。表示システム1は、特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示し(ステップS3)、終了する。
In the display system 1, the
第一の実施の形態の一側面として、複雑な操作や動作を行わなくても、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することができる。 As one aspect of the first embodiment, a second image different from the first image can be displayed on the display area generated by superimposing the first image without performing complicated operations and operations. it can.
第一の実施の形態において、「頭部に装着」とは、例えば、帽子のように頭に被ること、眼鏡のように顔に付けること、あるいは、その他頭部の一部に付着させることをいい、身体の一部から延長させて頭部を覆うような場合も含む概念である。「表示装置」とは、例えば、両眼あるいは単眼で画像を視認可能な表示装置であって、装着すると外の様子を見ることができない非透過型や、眼鏡のように透明な部材で外の様子を見ることが可能な透過型を含むものである。「向き」とは、例えば、単に物体の方向や角度だけでなく、加速度のような単位時間の変化量に関する方向を含む概念である。「仮想空間」とは、例えば、プログラム及びデータにより定義される空間であって、コンピュータにより生成される仮想的な空間をいう。「第一画像」とは、例えば、仮想空間の状態を示す画像をいう。「視軸」とは、例えば、仮想カメラの視点から視線方向に延びる軸をいう。 In the first embodiment, “attaching to the head” means, for example, putting on the head like a hat, attaching to the face like glasses, or attaching to a part of the head. It is a concept that includes the case of covering the head by extending from a part of the body. “Display device” is, for example, a display device capable of visually recognizing images with both eyes or a single eye. It includes a transmission type that can be seen. “Direction” is a concept including not only the direction and angle of an object, but also a direction related to the amount of change in unit time, such as acceleration. The “virtual space” is a space defined by a program and data, for example, and is a virtual space generated by a computer. The “first image” refers to, for example, an image indicating the state of the virtual space. The “visual axis” refers to an axis extending in the visual line direction from the viewpoint of the virtual camera, for example.
[第二の実施の形態]
本発明の第二の実施の形態の概要について説明をする。以下では、本発明の第二の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[Second Embodiment]
The outline of the second embodiment of the present invention will be described. Hereinafter, as a second embodiment of the present invention, a display system including a display device used by being mounted on the user's head will be described as an example.
表示システムの構成に関しては、図1に記載された内容を必要な範囲で採用できる。実行処理のフローチャートに関しては、図2に記載された内容を必要な範囲で採用できる。 With regard to the configuration of the display system, the contents described in FIG. 1 can be adopted within a necessary range. Regarding the flowchart of the execution process, the contents described in FIG. 2 can be adopted within a necessary range.
第二の実施の形態の一例として、視軸が仮想空間内の所定のオブジェクトと重なった状態が、所定の時間継続した場合に、第二表示部103が表示領域上に第二画像を表示することが好ましい。
As an example of the second embodiment, when the state where the visual axis overlaps with a predetermined object in the virtual space continues for a predetermined time, the
第二の実施の形態の一側面として、複雑な操作や動作を行わなくても、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することができる。 As one aspect of the second embodiment, a second image different from the first image can be displayed on the display area generated by superimposing the first image without performing complicated operations and operations. it can.
第二の実施の形態の一側面として、視軸と仮想空間内の所定のオブジェクトとが重なった状態が所定の時間継続した場合に、第二画像を表示することで、ユーザが意図しない第二画像の表示を抑制し、ユーザが表示することを意図した第二画像だけを表示可能にして、利便性を向上させることができる。 As one aspect of the second embodiment, when a state where the visual axis overlaps with a predetermined object in the virtual space continues for a predetermined time, a second image is displayed, which is not intended by the user. The display of images can be suppressed, and only the second image that the user intends to display can be displayed, thereby improving convenience.
第二の実施の形態において、「頭部に装着」、「表示装置」、「向き」、「仮想空間」、「第一画像」、及び「視軸」とは、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。 In the second embodiment, “mounted on the head”, “display device”, “orientation”, “virtual space”, “first image”, and “visual axis” are respectively the first embodiment. The contents described in can be adopted within a necessary range.
[第三の実施の形態]
本発明の第三の実施の形態の概要について説明をする。以下では、本発明の第三の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[Third embodiment]
The outline of the third embodiment of the present invention will be described. Hereinafter, as a third embodiment of the present invention, a display system including a display device used by being worn on the user's head will be described as an example.
表示システムの構成に関しては、図1に記載された内容を必要な範囲で採用できる。実行処理のフローチャートに関しては、図2に記載された内容を必要な範囲で採用できる。 With regard to the configuration of the display system, the contents described in FIG. 1 can be adopted within a necessary range. Regarding the flowchart of the execution process, the contents described in FIG. 2 can be adopted within a necessary range.
第三の実施の形態の一例として、視軸が仮想空間内の第1オブジェクトと重なった状態が所定の時間継続することで、第二表示部103が表示領域上に第1オブジェクトに対応する第二画像を表示した後に、視軸が仮想空間内の第2オブジェクトと重なった状態が所定の時間継続した場合に、第二表示部103が表示領域上に第1オブジェクトに対応する第二画像に代えて、該第2オブジェクトに対応する第二画像を表示することが好ましい。
As an example of the third embodiment, the state in which the visual axis overlaps with the first object in the virtual space continues for a predetermined time, so that the
第三の実施の形態の一側面として、複雑な操作や動作を行わなくても、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することができる。 As one aspect of the third embodiment, a second image different from the first image can be displayed on the display area generated by superimposing the first image without performing complicated operations and operations. it can.
第三の実施の形態の一側面として、視軸と仮想空間内の所定のオブジェクトとが重なった状態が所定の時間継続した場合に、第二画像を表示することで、ユーザが意図しない第二画像の表示を抑制し、ユーザが表示することを意図した第二画像だけを表示可能にして、利便性を向上させることができる。 As one aspect of the third embodiment, when the state where the visual axis overlaps with a predetermined object in the virtual space continues for a predetermined time, a second image is displayed, which is not intended by the user. The display of images can be suppressed, and only the second image that the user intends to display can be displayed, thereby improving convenience.
第三の実施の形態の一側面として、第1オブジェクトに対応する第二画像を表示した後に、視軸が第2オブジェクトと所定の時間継続して重なった場合に、第1オブジェクトに対応する第二画像に代えて、第2オブジェクトに対応する第二画像を表示することで、視軸をオブジェクトに重ねるだけで第二画像の表示を更新することができ、ユーザの操作性をより向上させることができる。複数の第二画像を表示しないため、処理負荷の軽減にも寄与する。 As one aspect of the third embodiment, when the visual axis continuously overlaps with the second object for a predetermined time after displaying the second image corresponding to the first object, the first image corresponding to the first object is displayed. By displaying the second image corresponding to the second object instead of the two images, the display of the second image can be updated simply by overlaying the visual axis on the object, and the operability for the user is further improved. Can do. Since a plurality of second images are not displayed, it contributes to a reduction in processing load.
第三の実施の形態において、「頭部に装着」、「表示装置」、「向き」、「仮想空間」、「第一画像」、及び「視軸」とは、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。 In the third embodiment, “mounted on the head”, “display device”, “orientation”, “virtual space”, “first image”, and “visual axis” are respectively the first embodiment. The contents described in can be adopted within a necessary range.
[第四の実施の形態]
次に、本発明の第四の実施の形態の概要について説明する。本発明の第四の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[Fourth embodiment]
Next, an outline of the fourth embodiment of the present invention will be described. As a fourth embodiment of the present invention, a display system including a display device used by being worn on the user's head will be described as an example.
図3は、本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。図3(a)は、表示システムの構成に関する1つの例を表す図である。表示システム1は、動きや向きを検知するためのセンサを搭載したディスプレイ装置201と、光線を照射する照射装置202と、ディスプレイ装置201にて表示される画像を生成又は処理するコンピュータ装置203と、センサを搭載したコントローラ204とから構成される。
FIG. 3 is a block diagram showing a configuration of a display system corresponding to at least one of the embodiments of the present invention. FIG. 3A is a diagram illustrating an example of the configuration of the display system. The display system 1 includes a
ディスプレイ装置201は、視界を覆うようにして頭部に装着するゴーグル型の表示装置であることが好ましい。ディスプレイは高い透過率を有する透過型ディスプレイであっても、低い透過率を有する非透過型ディスプレイであってもよい。また、ディスプレイ装置201は、搭載された複数のセンサを用いて、ユーザの姿勢を特定することができる。ディスプレイ装置201の構成については後述する。
The
照射装置202は、広範囲にレーザ光線を照射する装置である。照射装置202の周囲にレーザ光線が照射されると、ディスプレイ装置201及びコントローラ204に搭載された光センサによってレーザ光線が感知され、ディスプレイ装置201及びコントローラ204の位置を特定する。この位置特定方法は、「Lighthouse方式」と呼ばれるものである。照射装置202は、より正確に位置を特定するために、所定の間隔を空けて少なくとも2台設置されることが好ましい。
The
コンピュータ装置203は、ディスプレイ装置201及びコントローラ204と通信により接続可能である。通信は、有線又は無線によるものであってもよい。コンピュータ装置203は、ディスプレイ装置201と互いに独立した装置であってもよいし、ディスプレイ装置201に組み込まれた一体の装置であってもよい。
The
コントローラ204は、ボタンとトリガを備え、ユーザの操作により入力を受け付ける入力装置である。また、光センサが搭載されており、照射装置202から照射されたレーザ光線を感知することができる。さらに、タッチセンサが搭載されており、ユーザの接触による入力を受け付けることができる。コントローラ204は、一対にして左右の手に把持して使用するものであるが、いずれか1つのみを使用するものであってもよい。
The controller 204 is an input device that includes a button and a trigger and receives an input by a user operation. In addition, an optical sensor is mounted, and the laser beam emitted from the
図3(b)は、図3(a)に示す表示システムとは異なる表示システムの構成に関する1つの例を表す図である。図3(b)に示す表示システムは、光源となる発光部を備えるディスプレイ装置251と、ディスプレイ装置251やコントローラ254の光源となる発光部から発せられた光を撮影する撮影装置252と、ディスプレイ装置251にて表示される画像を生成又は処理するコンピュータ装置253と、光源となる発光部を備えるコントローラ254とから構成される。
FIG. 3B is a diagram illustrating an example regarding the configuration of a display system different from the display system illustrated in FIG. The display system illustrated in FIG. 3B includes a
ディスプレイ装置251は、ディスプレイ装置201と同様に、視界を覆うようにして頭部に装着するゴーグル型の表示装置であることが好ましい。ディスプレイは高い透過率を有する透過型ディスプレイであっても、低い透過率を有する非透過型ディスプレイであってもよい。
The
撮影装置252は、ディスプレイ装置251及びコントローラ254の光源となる発光部から発せられた光を撮影することにより、ディスプレイ装置251及びコントローラ254の位置を特定するための装置である。
The photographing
コンピュータ装置253は、ディスプレイ装置251及びコントローラ254と通信により接続可能である。通信は、有線又は無線によるものであってもよい。
The
コントローラ254は、ボタンを備え、ユーザの操作により入力を受け付ける入力装置である。光源となる発光部を備え、コントローラ254から発せられた光を撮影装置252が撮影することにより、コントローラ254の位置を特定する。コントローラは手に把持するものであり、対にして使用することが好ましいが、1つのコントローラを使用するものとしてもよい。
The controller 254 is an input device that includes buttons and receives an input by a user operation. A light emitting unit serving as a light source is provided, and the position of the controller 254 is specified by the photographing
以下の説明において、本発明の実施の形態においては、図3(a)に示した方式により、ディスプレイ装置201及びコントローラ204の位置を特定するものとしたが、本発明はこの方式に限定されない。例えば、図3(b)に示した方式や、頭部以外の身体の一部に装着し、ディスプレイ装置201及びコントローラ204の位置を特定する方式であってもよい。
In the following description, in the embodiment of the present invention, the positions of the
ディスプレイ装置201に表示される画像は、ディスプレイ装置201に搭載されたセンサにより測定された値、及び、コントローラ204へのユーザの入力操作に基づいて、コンピュータ装置203により生成又は処理された画像である。
The image displayed on the
ここで、ディスプレイ装置201の構成について説明する。図4は、本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置の構成を示すブロック図である。ディスプレイ装置201は、制御部11、RAM(Random Access Memory)12、ストレージ部13、撮像部14、グラフィックス処理部15、表示部16、センサ部18、通信インタフェース19、インタフェース部20、及びレンズ21からなり、それぞれ内部バスにより接続されている。
Here, the configuration of the
制御部11は、CPU(Central Processing Unit)やROM(Read Only Memory)から構成される。制御部11は、ストレージ部13に格納されたプログラムを実行し、ディスプレイ装置201の制御を行う。RAM12は、制御部11のワークエリアである。ストレージ部13は、プログラムやデータを保存するための記憶領域である。
The control unit 11 includes a CPU (Central Processing Unit) and a ROM (Read Only Memory). The control unit 11 executes a program stored in the
制御部11は、プログラム及びデータをRAM12及びストレージ部13から読み出して処理を行う。制御部11は、RAM12にロードされたプログラム及びデータを処理することで、描画命令をグラフィックス処理部15に出力する。さらに、制御部11は、センサ部18において測定された各種の値に基づいて処理を行う、あるいは、インタフェース部20を介してコンピュータ装置3へデータを送信する。
The control unit 11 reads the program and data from the
撮像部14は、レンズ21を介して撮影した画像をグラフィックス処理部15へ出力する。ディスプレイ装置201を頭部に装着することによって視界が覆われる場合には、装置外部の情報を確認することができないため、後述する表示部16が備える表示画面17に、撮像部14により撮像された情報を表示させることで、ユーザは現実空間を認識することができ、安全性を確保することができる。
The
グラフィックス処理部15は、フレーム単位で1枚の画像の描画を実行する。画像の1フレーム時間は、例えば30分の1秒である。グラフィックス処理部15は、描画に関する演算処理の一部を受け持ち、システム全体の負荷を分散させる役割を有する。
The
表示部16は、表示画面17を備え、ユーザの視界を覆うディスプレイ装置201のゴーグル内部に設置される。表示画面17には、例えば、有機ELや無機ELが使用されるが、これに限定されるものではなく、スマートフォン等のディスプレイを備える端末装置を組み込むようにしてもよい。
The
センサ部18は、近接センサ18a、赤外線センサ18b、ジャイロセンサ18c、及び、加速度センサ18dを少なくとも備える。近接センサ18aは、ディスプレイ装置201のゴーグル部分に設置され、ユーザの顔部との接触有無を判定するために用いる。赤外線センサ18bは、ディスプレイ装置201に複数設置されるものであり、照射装置202から照射された光線を感知することで、ディスプレイ装置201の位置を特定するために用いる。ジャイロセンサ18c、及び加速度センサ18dは、ユーザの姿勢を特定するために用いる。
The
ここで、図を用いてユーザの姿勢の特定方法について説明する。図5は、本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置を頭部に装着した場合にユーザの姿勢を特定するための直交座標系を示す図である。 Here, a method for specifying the posture of the user will be described with reference to the drawings. FIG. 5 is a diagram illustrating an orthogonal coordinate system for specifying the posture of the user when the display device is mounted on the head, corresponding to at least one of the embodiments of the present invention.
図示するように、ディスプレイ装置201を装着したユーザの頭部を中心にして、XYZ座標を規定する。ユーザが直立する垂直方向をY軸(ヨー角)、Y軸と直交し、かつ、ディスプレイ装置201の表示画面17の中心とユーザの頭部とを結ぶ方向をZ軸(ロール角)、Y軸及びZ軸と直交する方向をX軸(ピッチ角)とする。ジャイロセンサ18cでは、各軸回りの角度(傾き)を検出し、加速度センサ18dでは、ディスプレイ装置201の動きを検知し、検出された角度及び検知された動きに応じて、表示画面17に表示される画像を変化させる。ディスプレイ装置201は、複数のセンサにより測定された値(以下、姿勢情報という)を用いて、ユーザの姿勢を特定することができる。
As shown in the figure, XYZ coordinates are defined around the head of the user wearing the
続いて、通信インタフェース19は、無線又は有線により通信回線5に接続が可能であり、通信回線5を介してデータを受信することが可能である。通信インタフェース19を介して受信したデータは、RAM12にロードされ、制御部11により演算処理が行われる。
Subsequently, the
インタフェース部20は、主にコンピュータ装置203と接続され、コンピュータ装置203において処理又は生成された画像等のデータを受信することができる。また、センサ部18において取得した各種センサの測定値をコンピュータ装置203へ送信することもできる。
The
続いて、コンピュータ装置203について説明する。図6は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置203は、制御部31、RAM32、ストレージ部33、サウンド処理部34、グラフィックス処理部35、DVD/CD−ROMドライブ36、通信インタフェース37、インタフェース部38、及びフレームメモリ39からなり、それぞれ内部バスにより接続されている。
Next, the
制御部31は、CPUやROMから構成される。制御部31は、ストレージ部33に格納されたプログラムを実行し、コンピュータ装置203の制御を行う。また、制御部31は時間を計時する内部タイマを備えている。RAM32は、制御部31のワークエリアである。ストレージ部33は、プログラムやデータを保存するための記憶領域である。
The
制御部31は、プログラム及びデータをRAM32から読み出して処理を行なう。制御部31は、RAM32にロードされたプログラム及びデータを処理することで、描画命令をグラフィックス処理部35に出力する。
The
サウンド処理部34は、サウンド出力装置40に接続されている。制御部31がサウンド出力の指示をサウンド処理部34に出力すると、サウンド処理部34はサウンド出力装置40にサウンド信号を出力する。サウンド出力装置40は、例えば、ヘッドフォンであり、ユーザがディスプレイ装置201とともに頭部に装着してもよいし、スピーカがディスプレイ装置201に組み込まれていてもよい。
The
グラフィックス処理部35は、フレーム単位で1枚の画像の描画を実行する。画像の1フレーム時間は、例えば90分の1秒である。グラフィックス処理部35は描画に関する演算処理の一部を受け持ち、システム全体の負荷を分散させる役割を有する。コンピュータ装置203のグラフィックス処理部35は、ディスプレイ装置201の位置情報及び姿勢情報と、コントローラ204の位置情報とに基づいて、表示画面17に表示する画像を生成するため、ディスプレイ装置201に含まれるグラフィックス処理部15よりも高い性能を要する。
The
DVD/CD−ROMドライブ36は、ディスク41からデータを読み込み、RAM32にロードされ、制御部31により演算処理が行われる。なお、ディスク41の種類はDVD又はCDに限らず、Blu−ray(登録商標)ディスクやその他の規格であってもよい。
The DVD / CD-
通信インタフェース37は無線又は有線により通信回線5に接続が可能であり、通信回線5を介してデータを受信することが可能である。通信インタフェース37を介して受信したデータは、ディスク41から読み込まれたデータと同様に、RAM32にロードされ、制御部31により演算処理が行われる。
The
インタフェース部38は、主にディスプレイ装置201と接続され、コンピュータ装置203において処理又は生成された画像等のデータを送信することができる。
The
なお、上述の説明において、ディスプレイ装置201とコンピュータ装置203とは別装置として記載したが、ディスプレイ装置201によりコンピュータ装置203の処理をすべて行うこととしてもよい。この場合には、コンピュータ装置203は不要となり、コントローラ204はディスプレイ装置201と通信により接続される。
In the above description, the
続いて、本発明の実施の形態における表示システムの構成について説明する。図7は、本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。表示システム1は、角度情報測定部301、位置及び向き特定部302、情報送信部303、情報受信部304、視線特定部305、交差判定部306、計時部307、経過時間判定部308、仮想カメラ位置特定部309、サブウィンドウ画像生成部310、コントローラ入力受付判定部311、表示画像生成部312、画像送信部313、画像受信部314、及び画像表示部315を少なくとも備える。
Next, the configuration of the display system in the embodiment of the present invention will be described. FIG. 7 is a block diagram showing a configuration of a display system corresponding to at least one of the embodiments of the present invention. The display system 1 includes an angle
角度情報測定部301は、ディスプレイ装置201の姿勢から角度情報を測定する機能を有する。位置及び向き特定部302は、ディスプレイ装置201に搭載された光センサが、照射装置202から照射されたレーザ光線を感知し、ディスプレイ装置201の位置及び向きを特定する機能を有する。情報送信部303は、ディスプレイ装置201において測定された角度情報と特定された位置及び向き情報とをコンピュータ装置203へ送信する機能を有する。
The angle
情報受信部304は、情報送信部303により送信された情報を受信する機能を有する。視線特定部305は、情報受信部304により受信された情報に基づいて、仮想空間におけるユーザの視線を特定する機能を有する。交差判定部306は、仮想空間内に配置されたオブジェクトと、視線特定部305により特定された視線とが交差するか否かを判定する機能を有する。
The
計時部307は、オブジェクトと視線とが交差したと判定されてから継続して交差していた時間を計時する機能を有する。経過時間判定部308は、計時部307により計時された時間が、所定の時間を経過したか否かを判定する機能を有する。仮想カメラ位置特定部309は、視線特定部305により特定された視線と交差するオブジェクトを撮像可能な仮想カメラの位置を特定する機能を有する。
The
サブウィンドウ画像生成部310は、仮想カメラ位置特定部309により特定された位置から撮像した画像を生成する機能を有する。コントローラ入力受付判定部311は、コントローラ204からの入力を受け付けたか否か判定する機能を有する。表示画像生成部312は、表示する画像を生成する機能を有する。
The sub window
画像送信部313は、表示画像生成部312により生成された表示画像をディスプレイ装置201へ送信する機能を有する。画像受信部314は、画像送信部313により送信された表示画像を受信する機能を有する。画像表示部315は、画像受信部314により受信された表示画像を表示画面17に表示する機能を有する。
The
続いて、本発明の第四の実施の形態における実行処理について説明する。本発明の第四の実施の形態の一例として、コンテンツを閲覧するシステムが挙げられる。より具体的には、コンテンツは複数枚の紙面から構成され、ストーリーの展開に応じて進行する漫画に関するデータであって、漫画の一コマ単位に、ユーザの操作により、漫画の一コマを表す仮想空間に入り込むことができる表示システムである。 Subsequently, an execution process in the fourth embodiment of the present invention will be described. An example of the fourth embodiment of the present invention is a system for browsing content. More specifically, the content is composed of a plurality of sheets of paper, and is data related to a comic that progresses according to the development of the story, and is a virtual that represents a single comic by a user operation for each comic. It is a display system that can enter the space.
図8は、本発明の実施の形態の少なくとも1つに対応する、実行画面の例である。図8(a)において、表示画面17には、漫画の一コマの状況が表示され、キャラクタ401と、サブウィンドウ402とが表示されている。サブウィンドウ402には、表示画面17に表示された画像を撮像する仮想カメラとは異なる仮想カメラにより撮像された画像が表示される。図8では、キャラクタ401の顔が拡大されて表示されている。
FIG. 8 is an example of an execution screen corresponding to at least one of the embodiments of the present invention. In FIG. 8A, the
図8(b)は、図8(a)の状況から、ユーザが視線(以下、視軸ともいう)を左方向へ動かしてディスプレイ装置201の向きを変更した実行画面の例である。ユーザが頭部を動かすことで、ユーザに対して図8(a)より左側の仮想空間が表示画面17に表示される。この場合に、サブウィンドウ402は、表示画面17における所定の領域に表示されたままであり、ユーザの頭部の動きに応じて位置が変化しない。所定の領域とは、表示画面17に含まれる一部の領域であればよく、表示画面17の右下には限定されない。
FIG. 8B is an example of an execution screen in which the user changes the direction of the
サブウィンドウ402は、漫画の一コマに関連付けて記憶されることで、漫画の一コマを表す仮想空間に入り込むと常に表示されるように設計してもよい。つまり、表示画面17に表示される画像が属性情報として、例えば、サブウィンドウ402を表示するフラグを有するようにしてもよい。あるいは、画像が示す内容が特定のシーンである場合に、サブウィンドウ402を表示するように、画像の内容に応じて表示するものであってもよい。
The sub-window 402 may be designed so that it is displayed in association with a single frame of a comic so that the sub-window 402 is displayed whenever a virtual space representing the single frame of the comic is entered. That is, the image displayed on the
サブウィンドウ402は、所定の条件を満たした場合に表示されるように設計してもよい。所定の条件とは、例えば、コントローラ204において入力操作を受け付けられた場合や、ディスプレイ装置201の姿勢から特定された向きと仮想カメラの視軸を対応させ、視軸が仮想空間内のオブジェクトと交差したと判定された場合等が挙げられる。
The
続いて、本発明の第四の実施の形態における、表示画面に表示する画像の生成について説明する。プログラムが実行されると、コンピュータ装置203の制御部31は、プログラムによって定義される仮想空間をグラフィックス処理部35に出力させる。また、ディスプレイ装置201を頭に装着したユーザの位置、及び、コントローラ204の位置を、照射装置202から照射された光線を受光した位置及び方向に基づいて特定する。さらに、ディスプレイ装置201のセンサ部18の各種センサの測定値により、ディスプレイ装置201の姿勢を特定する。
Next, generation of an image to be displayed on the display screen in the fourth embodiment of the present invention will be described. When the program is executed, the
プログラムによって定義される仮想空間について説明する。図9は、本発明の実施の形態の少なくとも1つに対応する、仮想空間の概念を表す図である。プログラムにより定義される仮想空間70が、図示するように半球状の空間で表される場合に、ディスプレイ装置201を頭部に装着したユーザ80の視野は、可視領域81に該当する。すなわち、可視領域81に該当する映像が、ディスプレイ装置201の表示画面17に表示される。例えば、ユーザ80が左を向けば、ユーザ80の動きにしたがって、可視領域81は左側に移動する。上下方向についても同様に、例えば、ユーザ80が上を向けば、ユーザ80の動きにしたがって、可視領域81は上側に移動する。
The virtual space defined by the program will be described. FIG. 9 is a diagram showing the concept of the virtual space corresponding to at least one of the embodiments of the present invention. When the
[実行処理]
図10は、本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。最初に、ディスプレイ装置201は、ディスプレイ装置201の姿勢から角度情報を測定する(ステップS11)。角度情報は、ディスプレイ装置201のセンサ部18に含まれる各種センサにより測定される。
[Execution process]
FIG. 10 is a flowchart of execution processing corresponding to at least one of the embodiments of the present invention. First, the
次に、ディスプレイ装置201に搭載された光センサが、照射装置202から照射されたレーザ光線を感知することにより、ディスプレイ装置201は、ディスプレイ装置201の位置及び向きを特定する(ステップS12)。ステップS11及びステップS12の処理は、所定の間隔毎に行い、測定又は特定の都度、コンピュータ装置203へ送信して、ディスプレイ装置201の表示画面17において表示する表示用画像を生成してもよい。
Next, when the optical sensor mounted on the
次に、ディスプレイ装置201は、ステップS11において測定された角度情報、及び、ステップS12において特定された向き及び位置に関する情報をコンピュータ装置203へ送信する(ステップS13)。次に、コンピュータ装置203は、情報を受信し(ステップS14)、ステップS11において測定された角度情報、及び、ステップS12において特定された位置及び向きに関する情報に基づいて、仮想空間におけるユーザの視線を特定する(ステップS15)。
Next, the
仮想空間におけるユーザの視線とは、ディスプレイ装置201の角度情報(水平面に対する傾きに関する情報)、位置に関する情報、及び向きに関する情報(水平面に平行な平面上でどの方向を向いているかに関する情報)に基づいて特定される可視領域81において、ユーザが仮想空間内で見ていると推測される方向である。つまり、特定された向きは、仮想空間内における仮想カメラの視軸に対応するものである。例えば、ディスプレイ装置201の位置に仮想カメラの視点を設定し、ディスプレイ装置201の向きをもとに、視点を始点として、仮想世界における水平面に平行な平面上でどの方向へ視線が向いているかを特定し、かつ、ディスプレイ装置201の姿勢情報をもとに、該水平面に対する視線の傾きを特定することができる。さらに、仮想カメラの視点から仮想スクリーン上へ透視変換することで、ユーザの視線に対応する画像を生成することができる。このようにすることで、ユーザに意識させることなく、仮想世界において、ユーザが見ていると推測される方向に存在するオブジェクトを、ディスプレイ装置201に表示させ、ユーザの利便性を向上させるとともに、より仮想世界に没入させることが可能となる。
The user's line of sight in the virtual space is based on the angle information (information about the tilt with respect to the horizontal plane), the information about the position, and the information about the direction (information about which direction on a plane parallel to the horizontal plane). This is the direction in which it is estimated that the user is looking in the virtual space in the
ところで、ディスプレイ装置201が、ディスプレイ装置201を装着したユーザの視線を追跡することができる機能を有するようにしてもよい。この場合には、ユーザの眼球の動作から視線を算出することができる。
Incidentally, the
次に、コンピュータ装置203は、ステップS15において特定されたユーザの視線と仮想空間内に配置されたオブジェクトとが交差するか否かを判定する(ステップS16)。オブジェクトとは、例えば、仮想空間内に配置され得るものであって、キャラクタ、敵キャラクタ、アイテム、あるいは、仮想空間に表示される物体等をいう。交差とは、視線と、オブジェクトを形成する境界面とが交差することをいい、線と面とが接することも含む概念である。三次元空間における線分と物体の交差判定には、例えば、レイトレーシング法において物体とレイ(光線)との交点を求めるための方法を用いることができる。その他の方法によっても可能であり、本発明の実施の形態においては、交差判定の方法が限定されるものではない。
Next, the
ユーザの視線が仮想空間内の所定のオブジェクトと交差していると判定された場合(ステップS16においてYES)には、コンピュータ装置203は、コンピュータ装置203の制御部31に備えられた内部タイマにより計時を開始する(ステップS17)。
If it is determined that the user's line of sight intersects with a predetermined object in the virtual space (YES in step S16), the
次に、コンピュータ装置203は、ステップS17において開始した計時により、所定のオブジェクトと視線との交差が継続している時間が所定の時間を経過したか否かを判定する(ステップS18)。所定時間が経過したと判定された場合(ステップS18にてYES)には、コンピュータ装置203は、ステップS15において特定された視線と交差するオブジェクトを撮像可能な仮想カメラの位置を特定する(ステップS19)。所定時間が経過していない場合(ステップS18にてNO)には、サブウィンドウは表示されない。既にサブウィンドウが表示されている場合には、既存のサブウィンドウが表示されたままの状態を維持するようにしてもよい。
Next, the
ステップS19における仮想カメラの位置の特定について説明する。ここで位置を特定される仮想カメラは、視線の方向に対応する画像を撮像する仮想カメラ(以下、主仮想カメラという)とは異なる仮想カメラ(以下、副仮想カメラという)である。ステップS15において特定される仮想カメラの位置とは、副仮想カメラの位置であって、交差したオブジェクトが仮想カメラにより撮像される位置であれば任意の位置でよく、例えば、視線に対応する画像を撮像する仮想カメラとは視点が異なる、あるいは、視軸が異なるものであればよい。 The identification of the position of the virtual camera in step S19 will be described. The virtual camera whose position is specified here is a virtual camera (hereinafter referred to as a sub-virtual camera) that is different from a virtual camera (hereinafter referred to as a main virtual camera) that captures an image corresponding to the direction of the line of sight. The position of the virtual camera specified in step S15 is the position of the sub-virtual camera and may be any position as long as the intersected object is captured by the virtual camera. For example, an image corresponding to the line of sight is displayed. What is necessary is just to have a different viewpoint or a different visual axis from the virtual camera to be imaged.
次に、コンピュータ装置203は、ステップS19において特定された位置から、副仮想カメラによりオブジェクトを撮像し、サブウィンドウに表示する画像を生成する(ステップS20)。
Next, the
ユーザの視線が仮想空間内の所定のオブジェクトと交差していないと判定された場合(ステップS16においてNO)には、コントローラからの所定の入力操作が受け付けられたか否かを判定する(ステップS21)。コントローラから所定の入力操作が受け付けられたと判定された場合(ステップS21にてYES)には、ステップS19に移り、副仮想カメラの位置を特定する。コントローラから所定の入力操作が受け付けられていないと判定された場合(ステップS21にてNO)には、サブウィンドウ画像は生成されない。 If it is determined that the user's line of sight does not intersect with a predetermined object in the virtual space (NO in step S16), it is determined whether a predetermined input operation from the controller has been accepted (step S21). . If it is determined that a predetermined input operation has been received from the controller (YES in step S21), the process proceeds to step S19 to specify the position of the sub virtual camera. If it is determined that a predetermined input operation has not been received from the controller (NO in step S21), a sub window image is not generated.
次に、ステップS15で特定された視線の方向に対応する画像を生成する(ステップS22)。視線の方向に対応する画像とは、主仮想カメラにより撮像された画像である。次に、コンピュータ装置203は、ステップS20において生成されたサブウィンドウ画像と、ステップS22において生成された視線の方向に対応する画像とを、ディスプレイ装置201へ送信する(ステップS23)。
Next, an image corresponding to the line-of-sight direction specified in step S15 is generated (step S22). The image corresponding to the direction of the line of sight is an image captured by the main virtual camera. Next, the
ディスプレイ装置201は、ステップS23において送信された画像を受信する(ステップS24)。ディスプレイ装置201は、ステップS24において受信した画像を表示し(ステップS25)、終了する。
The
表示画面17における、仮想カメラにより撮像される画像の表示態様について説明する。図11は、本発明の実施の形態の少なくとも1つに対応する、仮想カメラにより撮像される画像の一例を示す図である。図11(a)は、仮想カメラによりオブジェクトを撮像する様子を表す模式図である。主仮想カメラ98は、ユーザの視線の方向に対応した画像を撮像する仮想カメラである。図11(b)は、図11(a)の状態において撮像された画像を表す図である。図11(a)において、オブジェクト91及びオブジェクト92を撮像すると、視軸αはいずれのオブジェクトとも交差しないため、サブウィンドウは表示画面17に表示されない。視線を表す点90は、表示されてもよいし、非表示であってもよい。
A display mode of an image captured by the virtual camera on the
図12は、本発明の実施の形態の少なくとも1つに対応する、複数の仮想カメラにより撮像される画像の一例を示す図である。図12(a)では、主仮想カメラ98の視軸αとオブジェクト92とが交差する状態を表す模式図である。図12(b)は、図12(a)の状態において撮像された複数の画像を重複して表す図である。視軸αがオブジェクト92と交差するため、サブウィンドウに表示される画像を生成する副仮想カメラ99により、主仮想カメラ98とは異なる視点からオブジェクト92を撮像する。副仮想カメラ99により撮像された画像は、サブウィンドウ93に表示される。
FIG. 12 is a diagram illustrating an example of an image captured by a plurality of virtual cameras corresponding to at least one of the embodiments of the invention. FIG. 12A is a schematic diagram showing a state where the visual axis α of the main
図示するように、副仮想カメラ99による撮像が、異なる視点から撮像される場合に、主仮想カメラ98により撮像された画像の一部を拡大して表示することができ、これまでユーザが視認できなかった特徴点94を、視認可能に表示することができる。
As shown in the figure, when the
図13は、本発明の実施の形態の少なくとも1つに対応する、複数の仮想カメラにより撮像される画像の一例を示す図である。図13(a)では、主仮想カメラ98の視軸αがオブジェクト92と交差する状態が表されている。図13(b)は、図13(a)の状態において撮像された複数の画像を重複して表す図である。視軸αがオブジェクト92と交差するため、サブウィンドウに表示される画像を生成する副仮想カメラ99により、主仮想カメラ98とは異なる視軸からオブジェクト92を撮像する。副仮想カメラ99により撮像された画像は、サブウィンドウ93に表示される。
FIG. 13 is a diagram illustrating an example of an image captured by a plurality of virtual cameras corresponding to at least one of the embodiments of the invention. FIG. 13A shows a state where the visual axis α of the main
図示するように、副仮想カメラ99による撮像が、主仮想カメラ98とは異なる視軸から撮像されることで、主仮想カメラ98により撮像された画像ではユーザが視認できなかった特徴点95を、視認可能に表示することができる。
As shown in the drawing, since the imaging by the sub
実行処理は、所定のタイミングで繰り返し実行されるものとしてもよい。所定のタイミングとは、例えば、画面のフレームレートごと、あるいは、フレームレートの倍数のタイミングで行うことができる。 The execution process may be repeatedly executed at a predetermined timing. The predetermined timing can be performed, for example, at every frame rate of the screen or at a multiple of the frame rate.
ステップS25において、ディスプレイ装置201は、受信したサブウィンドウ画像と、視線の方向に対応する画像とを重畳させて表示する。ステップS25において、既にサブウィンドウが表示されている場合には、表示されているサブウィンドウの画像に代えて、ステップS20において生成されたサブウィンドウの画像を表示し、表示内容を更新するようにしてもよい。
In step S25, the
第四の実施の形態では、ディスプレイ装置201及びコントローラ204の位置を特定するための光線はレーザ光線であって、例えば、赤外線が挙げられるが、光線はこれに限定されず、可視光線であってもよいし、その他の不可視光線であってもよい。
In the fourth embodiment, the light beam for specifying the positions of the
第四の実施の形態では、視線が所定のオブジェクトと所定の時間交差し続けた場合にサブウィンドウを表示することとしたが、所定の時間が経過したか否かを判定することなく、視線と所定のオブジェクトとの交差に関する判定のみでサブウィンドウを表示することとしてもよい。 In the fourth embodiment, the sub-window is displayed when the line of sight continues to cross a predetermined object for a predetermined time. However, the line of sight and the predetermined line are not determined without determining whether the predetermined time has elapsed. The sub window may be displayed only by the determination regarding the intersection with the object.
第四の実施の形態では、サブウィンドウが表示される位置に言及していないが、所定のオブジェクトと重畳した場合等の所定の条件を満たす場合には、サブウィンドウの位置を変更する、あるいは、サブウィンドウを表示しないようにしてもよい。 In the fourth embodiment, the position where the subwindow is displayed is not mentioned. However, when a predetermined condition is satisfied such as when the subwindow is overlapped with the predetermined object, the position of the subwindow is changed or the subwindow is changed. You may make it not display.
第四の実施の形態では、サブウィンドウに表示させる画像を仮想カメラにより撮像した画像としたが、これに限定されない。すなわち、仮想カメラにより撮像された画像でなくても、ユーザの視軸と交差したオブジェクトに関する画像であってもよい。例えば、オブジェクトの属性情報やオブジェクトの心理状態等見えない情報を表示するものであってもよい。また、視軸と交差したオブジェクトとは関係のない情報を表示するものであってもよい。例えば、ユーザの視軸とオブジェクトとを交差させることで、次の場面に移動するための選択肢等を表示するようにしてもよい。 In the fourth embodiment, the image displayed on the sub-window is an image captured by the virtual camera, but the present invention is not limited to this. That is, it may not be an image captured by a virtual camera, but may be an image related to an object that intersects the user's visual axis. For example, invisible information such as the attribute information of the object and the psychological state of the object may be displayed. Information that is not related to an object that intersects the visual axis may be displayed. For example, an option for moving to the next scene may be displayed by intersecting the user's visual axis and the object.
第四の実施の形態では、サブウィンドウに表示させる画像を仮想カメラにより撮像した画像としたが、コンピュータ装置203のストレージ部33に格納された画像を表示してもよい。例えば、主仮想カメラにより漫画の一コマが表示されている場合に、主人公キャラクタに視線方向を合わせると、主人公キャラクタの身体の一部がサブウィンドウに表示され、漫画のストーリーが進行されるようにしてもよい。また、サブウィンドウの表示に合わせて音声を出力するようにしてもよい。
In the fourth embodiment, the image to be displayed in the sub-window is an image captured by the virtual camera, but an image stored in the storage unit 33 of the
第四の実施の形態の一側面として、表示画面の所定の領域に、複雑な操作や動作を行わなくても、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することができる。 As one aspect of the fourth embodiment, a predetermined area of the display screen is different from the first image on the display area generated by superimposing the first image without performing complicated operations and operations. A second image can be displayed.
第四の実施の形態の一側面として、視軸と仮想空間内の所定のオブジェクトとが重なった状態が所定の時間継続した場合に、第二画像を表示することで、ユーザが意図しない第二画像の表示を抑制し、ユーザが表示することを意図した第二画像だけを表示可能にして、利便性を向上させることができる。 As one aspect of the fourth embodiment, when the state where the visual axis overlaps with a predetermined object in the virtual space continues for a predetermined time, a second image that is not intended by the user is displayed by displaying the second image. The display of images can be suppressed, and only the second image that the user intends to display can be displayed, thereby improving convenience.
第四の実施の形態の一側面として、第1オブジェクトに対応する第二画像を表示した後に、視軸が第2オブジェクトと所定の時間継続して重なった場合に、第1オブジェクトに対応する第二画像に代えて、第2オブジェクトに対応する第二画像を表示することで、視軸をオブジェクトに重ねるだけで第二画像の表示を更新することができ、ユーザの操作性をより向上させることができる。また、複数のサブウィンドウを表示しないため、処理負荷の軽減にも寄与する。 As one aspect of the fourth embodiment, when the visual axis continuously overlaps the second object for a predetermined time after displaying the second image corresponding to the first object, the first object corresponding to the first object is displayed. By displaying the second image corresponding to the second object instead of the two images, the display of the second image can be updated simply by overlaying the visual axis on the object, and the operability for the user is further improved. Can do. In addition, since a plurality of sub-windows are not displayed, the processing load is also reduced.
第四の実施の形態の一側面として、ユーザの視軸と交差した所定のオブジェクトに関する画像をサブウィンドウに表示することにより、ユーザが入力操作をすることなく所定のオブジェクトに関する情報を知ることができる。また、ユーザの視軸が当たっている場所を認識することができるという利点もある。 As one aspect of the fourth embodiment, by displaying an image related to a predetermined object intersecting the user's visual axis in the sub-window, the user can know information related to the predetermined object without performing an input operation. In addition, there is an advantage that a place where the user's visual axis is hit can be recognized.
第四の実施の形態の一側面として、視軸が重なったオブジェクトを拡大した画像をサブウィンドウに表示することで、従来表示できなかった情報をユーザに与えることができ、ユーザの利便性を向上させることができる。また、仮想空間内のオブジェクトに対する関心を集めることができ、より深い没入感をユーザに与えることに寄与する。 As one aspect of the fourth embodiment, by displaying an enlarged image of an object with overlapping visual axes in a sub-window, information that could not be displayed conventionally can be given to the user, improving user convenience. be able to. Moreover, interest in objects in the virtual space can be collected, which contributes to giving a deeper immersive feeling to the user.
第四の実施の形態において、「頭部に装着」、「表示装置」、「向き」、「仮想空間」、「第一画像」、及び「視軸」とは、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。 In the fourth embodiment, “mounted on the head”, “display device”, “orientation”, “virtual space”, “first image”, and “visual axis” are respectively the first embodiment. The contents described in can be adopted within a necessary range.
第四の実施の形態において、「拡大」とは、例えば、撮像されたオブジェクトを表す画素数と同じ又はより多くの画素数により、該オブジェクトの一部の画像を表示することをいう。 In the fourth embodiment, “enlargement” means, for example, displaying an image of a part of the object with the same or a larger number of pixels as the number of pixels representing the imaged object.
[付記]
上で述べた実施の形態の説明は、下記の発明を、発明の属する分野における通常の知識を有する者がその実施をすることができるように記載した。
[Appendix]
The above description of the embodiments described the following invention so that a person having ordinary knowledge in the field to which the invention belongs can carry out the invention.
[1] ユーザの頭部に装着することで利用される表示装置を備える表示システムであって、
表示装置の向きを特定する向き特定手段と、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示する第一表示手段と、
特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示する第二表示手段と
を備える表示システム。
[1] A display system including a display device used by being worn on a user's head,
Orientation specifying means for specifying the orientation of the display device;
First display means for displaying a first image indicating the state of the virtual space on the display screen of the display device according to the specified orientation;
A second image different from the first image is displayed on the display area generated by overlapping the first image when the visual axis corresponding to the specified orientation overlaps with a predetermined object in the virtual space. A display system comprising two display means.
[2] 前記視軸が仮想空間内の所定のオブジェクトと重なった状態が、所定の時間継続した場合に、前記第二表示手段が表示領域上に第二画像を表示する、[1]に記載の表示システム。 [2] The method according to [1], wherein the second display unit displays a second image on a display area when the state where the visual axis overlaps with a predetermined object in the virtual space continues for a predetermined time. Display system.
[3] 前記視軸が仮想空間内の第1オブジェクトと重なった状態が、所定の時間継続することで、第二表示手段が表示領域上に第1オブジェクトに対応する第二画像を表示した後に、
前記視軸が仮想空間内の第2オブジェクトと重なった状態が、所定の時間継続した場合に、第二表示手段が表示領域上に第1オブジェクトに対応する第二画像に代えて、該第2オブジェクトに対応する第二画像を表示する、[2]に記載の表示システム。
[3] After the state where the visual axis overlaps the first object in the virtual space continues for a predetermined time, the second display means displays the second image corresponding to the first object on the display area. ,
When the state in which the visual axis overlaps with the second object in the virtual space continues for a predetermined time, the second display means replaces the second image corresponding to the first object on the display area by replacing the second image. The display system according to [2], wherein a second image corresponding to the object is displayed.
[4] 第二画像が、前記所定のオブジェクトに関する画像である、[1]〜[3]のいずれかに記載の表示システム。 [4] The display system according to any one of [1] to [3], wherein the second image is an image related to the predetermined object.
[5] 第二画像が、所定のオブジェクトを拡大した画像である、[4]に記載の表示システム。 [5] The display system according to [4], wherein the second image is an enlarged image of a predetermined object.
[6] ユーザの頭部に装着することで利用される表示装置を備える表示システムにおいて実行される表示方法であって、
表示装置の向きを特定することと、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示することと、
特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することと
を実行する表示方法。
[6] A display method executed in a display system including a display device used by being worn on a user's head,
Identifying the orientation of the display device;
Displaying a first image indicating the state of the virtual space on the display screen of the display device according to the specified orientation;
When the visual axis corresponding to the specified orientation overlaps with a predetermined object in the virtual space, a second image different from the first image is displayed on the display area generated by being superimposed on the first image. And display method to execute.
1 表示システム
11 制御部
12 RAM
13 ストレージ部
14 撮像部
15 グラフィックス処理部
16 表示部
17 表示画面
18 センサ部
18a センサ
18b 赤外線センサ
18c ジャイロセンサ
18d 加速度センサ
19 通信インタフェース
20 インタフェース部
21 レンズ
201 ディスプレイ装置
202 照射装置
203 コンピュータ装置
204 コントローラ
251 ディスプレイ装置
252 撮影装置
253 コンピュータ装置
254 コントローラ
31 制御部
32 RAM
33 ストレージ部
34 サウンド処理部
35 グラフィックス処理部
36 CD−ROMドライブ
37 通信インタフェース
38 インタフェース部
39 フレームメモリ
40 サウンド出力装置
41 ディスク
5 通信回線
1 Display System 11
DESCRIPTION OF
33
Claims (6)
表示装置の向きを特定する向き特定手段と、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示する第一表示手段と、
特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示する第二表示手段と
を備え、
前記表示領域は、向き特定手段により特定された向きに応じて、前記表示画面において表示される位置が変化しない、表示システム。 A display system including a display device used by being worn on a user's head,
Orientation specifying means for specifying the orientation of the display device;
First display means for displaying a first image indicating the state of the virtual space on the display screen of the display device according to the specified orientation;
A second image different from the first image is displayed on the display area generated by overlapping the first image when the visual axis corresponding to the specified orientation overlaps with a predetermined object in the virtual space. Two display means ,
The display system is a display system in which a position displayed on the display screen does not change in accordance with the orientation specified by the orientation specifying means .
前記視軸が仮想空間内の第2オブジェクトと重なった状態が、所定の時間継続した場合に、第二表示手段が表示領域上に第1オブジェクトに対応する第二画像に代えて、該第2オブジェクトに対応する第二画像を表示する、請求項2に記載の表示システム。 The state in which the visual axis overlaps with the first object in the virtual space continues for a predetermined time, so that the second display unit displays the second image corresponding to the first object on the display area.
When the state in which the visual axis overlaps with the second object in the virtual space continues for a predetermined time, the second display means replaces the second image corresponding to the first object on the display area by replacing the second image. The display system according to claim 2, wherein a second image corresponding to the object is displayed.
表示装置の向きを特定することと、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示することと、
特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することと
を実行し、
前記表示領域は、特定された表示装置の向きに応じて、前記表示画面において表示される位置が変化しない、表示方法。 A display method executed in a display system including a display device used by being worn on a user's head,
Identifying the orientation of the display device;
Displaying a first image indicating the state of the virtual space on the display screen of the display device according to the specified orientation;
When the visual axis corresponding to the specified orientation overlaps with a predetermined object in the virtual space, a second image different from the first image is displayed on the display area generated by being superimposed on the first image. run the door,
The display method, wherein the display area does not change a position displayed on the display screen in accordance with the orientation of the specified display device .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017234716A JP6496391B1 (en) | 2017-12-06 | 2017-12-06 | Display system and display method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017234716A JP6496391B1 (en) | 2017-12-06 | 2017-12-06 | Display system and display method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP6496391B1 true JP6496391B1 (en) | 2019-04-03 |
| JP2019101943A JP2019101943A (en) | 2019-06-24 |
Family
ID=65999259
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017234716A Active JP6496391B1 (en) | 2017-12-06 | 2017-12-06 | Display system and display method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6496391B1 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7346066B2 (en) * | 2019-04-19 | 2023-09-19 | キヤノンメディカルシステムズ株式会社 | Medical information processing device and medical information processing method |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005038008A (en) * | 2003-07-15 | 2005-02-10 | Canon Inc | Image processing method and image processing apparatus |
| JP2011024787A (en) * | 2009-07-27 | 2011-02-10 | Konami Digital Entertainment Co Ltd | Display device, display method, and program |
| WO2012001755A1 (en) * | 2010-07-02 | 2012-01-05 | 株式会社ソニー・コンピュータエンタテインメント | Information processing system, information processing device, and information processing method |
| JP6511386B2 (en) * | 2015-11-20 | 2019-05-15 | 株式会社ソニー・インタラクティブエンタテインメント | INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD |
-
2017
- 2017-12-06 JP JP2017234716A patent/JP6496391B1/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2019101943A (en) | 2019-06-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6401841B1 (en) | Information processing method, computer, and program | |
| WO2018016553A1 (en) | Method for providing virtual space, method for providing virtual experience, program, and recording medium | |
| JP2011128220A (en) | Information presenting device, information presenting method, and program | |
| JP6399692B2 (en) | Head mounted display, image display method and program | |
| JP6200023B1 (en) | Simulation control apparatus and simulation control program | |
| CN116740312A (en) | Information processing apparatus and user guide presenting method | |
| US10488949B2 (en) | Visual-field information collection method and system for executing the visual-field information collection method | |
| JP2017182218A (en) | Simulation controller and simulation control program | |
| JP6535699B2 (en) | INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS | |
| JP6522092B1 (en) | Display system and display method | |
| JP6496391B1 (en) | Display system and display method | |
| KR102337907B1 (en) | Augmented reality smart glass device | |
| JP6738308B2 (en) | Information processing method, program, virtual space distribution system and device | |
| JP6670965B2 (en) | Display system and display method | |
| JP6467039B2 (en) | Information processing device | |
| JP7073228B2 (en) | Information processing methods, computers, and programs | |
| JP7616216B2 (en) | Information processing device, information processing method, and program | |
| JP6853638B2 (en) | Display system, display method, and computer equipment | |
| JP2019192250A (en) | Information processing method, apparatus, and program causing computer to execute the method | |
| JP6403843B1 (en) | Information processing method, information processing program, and information processing apparatus | |
| JP2020057399A (en) | Simulation control device and simulation control program | |
| KR102339044B1 (en) | Method and device for controlling emergency situation | |
| KR102337908B1 (en) | Method and device for assisting work | |
| JP2019021331A (en) | Information processing method, information processing program, and information processing apparatus | |
| JP6941130B2 (en) | Information processing method, information processing program and information processing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171207 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181121 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181127 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190125 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190212 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190308 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6496391 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |