[go: up one dir, main page]

JP6496391B1 - Display system and display method - Google Patents

Display system and display method Download PDF

Info

Publication number
JP6496391B1
JP6496391B1 JP2017234716A JP2017234716A JP6496391B1 JP 6496391 B1 JP6496391 B1 JP 6496391B1 JP 2017234716 A JP2017234716 A JP 2017234716A JP 2017234716 A JP2017234716 A JP 2017234716A JP 6496391 B1 JP6496391 B1 JP 6496391B1
Authority
JP
Japan
Prior art keywords
image
display
display device
displayed
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017234716A
Other languages
Japanese (ja)
Other versions
JP2019101943A (en
Inventor
家栄 曹
家栄 曹
直弥 加島
直弥 加島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2017234716A priority Critical patent/JP6496391B1/en
Application granted granted Critical
Publication of JP6496391B1 publication Critical patent/JP6496391B1/en
Publication of JP2019101943A publication Critical patent/JP2019101943A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】HMDを使用するユーザが、複雑な操作や動作を行うことなく、表示された画像とは異なる画像を表示する表示システムを提供することを目的とする。【解決手段】ユーザの頭部に装着することで利用される表示装置を備えるシステムにおいて、表示装置の表示画面に、表示装置の向きに応じて背景画像を表示し、特定された向きに対応する視軸と、仮想空間内の所定のオブジェクトとが重なる場合に、第一画像とは異なる第二画像を第一画像に重畳させて表示する。【選択図】 図2An object of the present invention is to provide a display system in which a user using an HMD displays an image different from the displayed image without performing complicated operations and operations. In a system including a display device used by being mounted on a user's head, a background image is displayed on the display screen of the display device according to the orientation of the display device, and the specified orientation is supported. When the visual axis and a predetermined object in the virtual space overlap, a second image different from the first image is displayed superimposed on the first image. [Selection] Figure 2

Description

本発明は、ユーザの頭部に装着する表示装置を用いた表示システム及び表示方法に関する。   The present invention relates to a display system and a display method using a display device mounted on a user's head.

近年、ヘッドマウントディスプレイ(以下、HMDという)等を用いたVR(Virtual Reality)技術がある。例えば、仮想カメラにより撮像された、仮想世界を構成する背景画像をHMDに表示し、ユーザに対して仮想世界に入り込んだような感覚(いわゆる没入感)を与えるものである。   In recent years, there is a VR (Virtual Reality) technology using a head mounted display (hereinafter referred to as HMD) or the like. For example, a background image that forms a virtual world captured by a virtual camera is displayed on the HMD, and the user feels as if he / she has entered the virtual world (so-called immersion).

しかし、HMDの画像解像度は低く、ユーザは、表示された画像の細部について視認できなかった。また、複雑な入力操作を要求すると、ユーザの没入感を損なうおそれがあった。   However, the image resolution of the HMD is low, and the user cannot visually recognize the details of the displayed image. Further, when a complicated input operation is requested, there is a risk that the user's immersive feeling may be impaired.

本発明の少なくとも1つの実施の形態の目的は、HMDを使用するユーザが、複雑な操作や動作を行うことなく、表示された画像とは異なる画像を表示する表示システムを提供することである。   An object of at least one embodiment of the present invention is to provide a display system in which a user using an HMD displays an image different from the displayed image without performing complicated operations and operations.

非限定的な観点によると、本発明に係る表示システムは、ユーザの頭部に装着することで利用される表示装置を備える表示システムであって、表示装置の向きを特定する向き特定手段と、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示する第一表示手段と、特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示する第二表示手段とを備える、表示システムである。   According to a non-limiting viewpoint, the display system according to the present invention is a display system including a display device that is used by being worn on a user's head, and an orientation specifying unit that specifies the orientation of the display device; First display means for displaying a first image indicating the state of the virtual space according to the specified orientation on the display screen of the display device, and a visual axis corresponding to the specified orientation are predetermined objects in the virtual space. And a second display means for displaying a second image different from the first image on the display area generated by being superimposed on the first image.

非限定的な観点によると、本発明に係る表示方法は、ユーザの頭部に装着することで利用される表示装置を備えるシステムにおいて実行される表示方法であって、表示装置の向きを特定することと、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示することと、特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することとを実行する表示方法である。   According to a non-limiting aspect, the display method according to the present invention is a display method executed in a system including a display device used by being worn on the user's head, and specifies the orientation of the display device. And displaying the first image indicating the state of the virtual space according to the specified orientation on the display screen of the display device, and the visual axis corresponding to the specified orientation is a predetermined object in the virtual space. Is displayed on the display area generated by superimposing on the first image, the second image different from the first image is displayed.

本発明の各実施形態により1または2以上の不足が解決される。   Each embodiment of the present invention solves one or more deficiencies.

本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the display system corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。It is a flowchart of the execution process corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the display system corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display apparatus corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置を頭部に装着した場合にユーザの姿勢を特定するための直交座標系を示す図である。It is a figure which shows the orthogonal coordinate system for specifying a user's attitude | position when the display apparatus corresponding to at least 1 of embodiment of this invention is mounted | worn with a head. 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the display system corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、実行画面の例である。It is an example of the execution screen corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、仮想空間の概念を表す図である。It is a figure showing the concept of virtual space corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。It is a flowchart of the execution process corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、仮想カメラにより撮像される画像の一例を示す図である。It is a figure which shows an example of the image imaged with the virtual camera corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、複数の仮想カメラにより撮像される画像の一例を示す図である。It is a figure which shows an example of the image imaged with the some virtual camera corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、複数の仮想カメラにより撮像される画像の一例を示す図である。It is a figure which shows an example of the image imaged with the some virtual camera corresponding to at least 1 of embodiment of this invention.

以下、添付図面を参照して、本発明の実施の形態について説明する。以下、効果に関する記載は、本発明の実施の形態の効果の一側面であり、ここに記載するものに限定されない。また、以下で説明するフローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同である。   Embodiments of the present invention will be described below with reference to the accompanying drawings. Hereinafter, the description regarding the effect is one aspect of the effect of the embodiment of the present invention, and is not limited to what is described here. In addition, the order of the processes constituting the flowchart described below is out of order as long as no contradiction or inconsistency occurs in the process contents.

[第一の実施の形態]
本発明の第一の実施の形態の概要について説明をする。以下では、本発明の第一の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[First embodiment]
The outline of the first embodiment of the present invention will be described. Hereinafter, as a first embodiment of the present invention, a display system including a display device that is used by being worn on the user's head will be described as an example.

図1は、本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。表示システム1は、向き特定部101、第一表示部102、及び第二表示部103を少なくとも備える。   FIG. 1 is a block diagram showing a configuration of a display system corresponding to at least one of the embodiments of the present invention. The display system 1 includes at least an orientation specifying unit 101, a first display unit 102, and a second display unit 103.

向き特定部101は、表示装置の向きを特定する機能を有する。第一表示部102は、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示する機能を有する。第二表示部103は、特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示する機能を有する。   The orientation specifying unit 101 has a function of specifying the orientation of the display device. The 1st display part 102 has a function which displays the 1st image which shows the state of virtual space on the display screen of a display apparatus according to the specified direction. The second display unit 103 is different from the first image on the display area generated by being superimposed on the first image when the visual axis corresponding to the specified orientation overlaps with a predetermined object in the virtual space. It has a function of displaying the second image.

本発明の第一の実施の形態における実行処理について説明する。図2は、本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。   The execution process in the first embodiment of the present invention will be described. FIG. 2 is a flowchart of execution processing corresponding to at least one of the embodiments of the present invention.

表示システム1は、向き特定部101により、ユーザの頭部に装着することで利用される表示装置の向きを特定する(ステップS1)。表示システム1は、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示する(ステップS2)。表示システム1は、特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示し(ステップS3)、終了する。   In the display system 1, the orientation identifying unit 101 identifies the orientation of the display device used by being mounted on the user's head (step S1). The display system 1 displays the first image indicating the state of the virtual space on the display screen of the display device according to the specified orientation (step S2). When the visual axis corresponding to the specified orientation overlaps with a predetermined object in the virtual space, the display system 1 is different from the first image on the display area generated by being superimposed on the first image. The image is displayed (step S3), and the process ends.

第一の実施の形態の一側面として、複雑な操作や動作を行わなくても、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することができる。   As one aspect of the first embodiment, a second image different from the first image can be displayed on the display area generated by superimposing the first image without performing complicated operations and operations. it can.

第一の実施の形態において、「頭部に装着」とは、例えば、帽子のように頭に被ること、眼鏡のように顔に付けること、あるいは、その他頭部の一部に付着させることをいい、身体の一部から延長させて頭部を覆うような場合も含む概念である。「表示装置」とは、例えば、両眼あるいは単眼で画像を視認可能な表示装置であって、装着すると外の様子を見ることができない非透過型や、眼鏡のように透明な部材で外の様子を見ることが可能な透過型を含むものである。「向き」とは、例えば、単に物体の方向や角度だけでなく、加速度のような単位時間の変化量に関する方向を含む概念である。「仮想空間」とは、例えば、プログラム及びデータにより定義される空間であって、コンピュータにより生成される仮想的な空間をいう。「第一画像」とは、例えば、仮想空間の状態を示す画像をいう。「視軸」とは、例えば、仮想カメラの視点から視線方向に延びる軸をいう。   In the first embodiment, “attaching to the head” means, for example, putting on the head like a hat, attaching to the face like glasses, or attaching to a part of the head. It is a concept that includes the case of covering the head by extending from a part of the body. “Display device” is, for example, a display device capable of visually recognizing images with both eyes or a single eye. It includes a transmission type that can be seen. “Direction” is a concept including not only the direction and angle of an object, but also a direction related to the amount of change in unit time, such as acceleration. The “virtual space” is a space defined by a program and data, for example, and is a virtual space generated by a computer. The “first image” refers to, for example, an image indicating the state of the virtual space. The “visual axis” refers to an axis extending in the visual line direction from the viewpoint of the virtual camera, for example.

[第二の実施の形態]
本発明の第二の実施の形態の概要について説明をする。以下では、本発明の第二の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[Second Embodiment]
The outline of the second embodiment of the present invention will be described. Hereinafter, as a second embodiment of the present invention, a display system including a display device used by being mounted on the user's head will be described as an example.

表示システムの構成に関しては、図1に記載された内容を必要な範囲で採用できる。実行処理のフローチャートに関しては、図2に記載された内容を必要な範囲で採用できる。   With regard to the configuration of the display system, the contents described in FIG. 1 can be adopted within a necessary range. Regarding the flowchart of the execution process, the contents described in FIG. 2 can be adopted within a necessary range.

第二の実施の形態の一例として、視軸が仮想空間内の所定のオブジェクトと重なった状態が、所定の時間継続した場合に、第二表示部103が表示領域上に第二画像を表示することが好ましい。   As an example of the second embodiment, when the state where the visual axis overlaps with a predetermined object in the virtual space continues for a predetermined time, the second display unit 103 displays the second image on the display area. It is preferable.

第二の実施の形態の一側面として、複雑な操作や動作を行わなくても、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することができる。   As one aspect of the second embodiment, a second image different from the first image can be displayed on the display area generated by superimposing the first image without performing complicated operations and operations. it can.

第二の実施の形態の一側面として、視軸と仮想空間内の所定のオブジェクトとが重なった状態が所定の時間継続した場合に、第二画像を表示することで、ユーザが意図しない第二画像の表示を抑制し、ユーザが表示することを意図した第二画像だけを表示可能にして、利便性を向上させることができる。   As one aspect of the second embodiment, when a state where the visual axis overlaps with a predetermined object in the virtual space continues for a predetermined time, a second image is displayed, which is not intended by the user. The display of images can be suppressed, and only the second image that the user intends to display can be displayed, thereby improving convenience.

第二の実施の形態において、「頭部に装着」、「表示装置」、「向き」、「仮想空間」、「第一画像」、及び「視軸」とは、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。   In the second embodiment, “mounted on the head”, “display device”, “orientation”, “virtual space”, “first image”, and “visual axis” are respectively the first embodiment. The contents described in can be adopted within a necessary range.

[第三の実施の形態]
本発明の第三の実施の形態の概要について説明をする。以下では、本発明の第三の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[Third embodiment]
The outline of the third embodiment of the present invention will be described. Hereinafter, as a third embodiment of the present invention, a display system including a display device used by being worn on the user's head will be described as an example.

表示システムの構成に関しては、図1に記載された内容を必要な範囲で採用できる。実行処理のフローチャートに関しては、図2に記載された内容を必要な範囲で採用できる。   With regard to the configuration of the display system, the contents described in FIG. 1 can be adopted within a necessary range. Regarding the flowchart of the execution process, the contents described in FIG. 2 can be adopted within a necessary range.

第三の実施の形態の一例として、視軸が仮想空間内の第1オブジェクトと重なった状態が所定の時間継続することで、第二表示部103が表示領域上に第1オブジェクトに対応する第二画像を表示した後に、視軸が仮想空間内の第2オブジェクトと重なった状態が所定の時間継続した場合に、第二表示部103が表示領域上に第1オブジェクトに対応する第二画像に代えて、該第2オブジェクトに対応する第二画像を表示することが好ましい。   As an example of the third embodiment, the state in which the visual axis overlaps with the first object in the virtual space continues for a predetermined time, so that the second display unit 103 corresponds to the first object on the display area. After the two images are displayed, when the state where the visual axis overlaps with the second object in the virtual space continues for a predetermined time, the second display unit 103 displays the second image corresponding to the first object on the display area. Instead, it is preferable to display a second image corresponding to the second object.

第三の実施の形態の一側面として、複雑な操作や動作を行わなくても、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することができる。   As one aspect of the third embodiment, a second image different from the first image can be displayed on the display area generated by superimposing the first image without performing complicated operations and operations. it can.

第三の実施の形態の一側面として、視軸と仮想空間内の所定のオブジェクトとが重なった状態が所定の時間継続した場合に、第二画像を表示することで、ユーザが意図しない第二画像の表示を抑制し、ユーザが表示することを意図した第二画像だけを表示可能にして、利便性を向上させることができる。   As one aspect of the third embodiment, when the state where the visual axis overlaps with a predetermined object in the virtual space continues for a predetermined time, a second image is displayed, which is not intended by the user. The display of images can be suppressed, and only the second image that the user intends to display can be displayed, thereby improving convenience.

第三の実施の形態の一側面として、第1オブジェクトに対応する第二画像を表示した後に、視軸が第2オブジェクトと所定の時間継続して重なった場合に、第1オブジェクトに対応する第二画像に代えて、第2オブジェクトに対応する第二画像を表示することで、視軸をオブジェクトに重ねるだけで第二画像の表示を更新することができ、ユーザの操作性をより向上させることができる。複数の第二画像を表示しないため、処理負荷の軽減にも寄与する。   As one aspect of the third embodiment, when the visual axis continuously overlaps with the second object for a predetermined time after displaying the second image corresponding to the first object, the first image corresponding to the first object is displayed. By displaying the second image corresponding to the second object instead of the two images, the display of the second image can be updated simply by overlaying the visual axis on the object, and the operability for the user is further improved. Can do. Since a plurality of second images are not displayed, it contributes to a reduction in processing load.

第三の実施の形態において、「頭部に装着」、「表示装置」、「向き」、「仮想空間」、「第一画像」、及び「視軸」とは、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。   In the third embodiment, “mounted on the head”, “display device”, “orientation”, “virtual space”, “first image”, and “visual axis” are respectively the first embodiment. The contents described in can be adopted within a necessary range.

[第四の実施の形態]
次に、本発明の第四の実施の形態の概要について説明する。本発明の第四の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[Fourth embodiment]
Next, an outline of the fourth embodiment of the present invention will be described. As a fourth embodiment of the present invention, a display system including a display device used by being worn on the user's head will be described as an example.

図3は、本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。図3(a)は、表示システムの構成に関する1つの例を表す図である。表示システム1は、動きや向きを検知するためのセンサを搭載したディスプレイ装置201と、光線を照射する照射装置202と、ディスプレイ装置201にて表示される画像を生成又は処理するコンピュータ装置203と、センサを搭載したコントローラ204とから構成される。   FIG. 3 is a block diagram showing a configuration of a display system corresponding to at least one of the embodiments of the present invention. FIG. 3A is a diagram illustrating an example of the configuration of the display system. The display system 1 includes a display device 201 equipped with a sensor for detecting movement and orientation, an irradiation device 202 that emits light, a computer device 203 that generates or processes an image displayed on the display device 201, It is comprised from the controller 204 carrying a sensor.

ディスプレイ装置201は、視界を覆うようにして頭部に装着するゴーグル型の表示装置であることが好ましい。ディスプレイは高い透過率を有する透過型ディスプレイであっても、低い透過率を有する非透過型ディスプレイであってもよい。また、ディスプレイ装置201は、搭載された複数のセンサを用いて、ユーザの姿勢を特定することができる。ディスプレイ装置201の構成については後述する。   The display device 201 is preferably a goggle type display device that is attached to the head so as to cover the field of view. The display may be a transmissive display having a high transmittance or a non-transmissive display having a low transmittance. In addition, the display device 201 can specify the posture of the user using a plurality of mounted sensors. The configuration of the display device 201 will be described later.

照射装置202は、広範囲にレーザ光線を照射する装置である。照射装置202の周囲にレーザ光線が照射されると、ディスプレイ装置201及びコントローラ204に搭載された光センサによってレーザ光線が感知され、ディスプレイ装置201及びコントローラ204の位置を特定する。この位置特定方法は、「Lighthouse方式」と呼ばれるものである。照射装置202は、より正確に位置を特定するために、所定の間隔を空けて少なくとも2台設置されることが好ましい。   The irradiation device 202 is a device that irradiates a laser beam over a wide range. When a laser beam is irradiated around the irradiation device 202, the laser beam is detected by an optical sensor mounted on the display device 201 and the controller 204, and the positions of the display device 201 and the controller 204 are specified. This position specifying method is called “Lighthouse method”. In order to specify the position more accurately, it is preferable that at least two irradiation devices 202 are installed at a predetermined interval.

コンピュータ装置203は、ディスプレイ装置201及びコントローラ204と通信により接続可能である。通信は、有線又は無線によるものであってもよい。コンピュータ装置203は、ディスプレイ装置201と互いに独立した装置であってもよいし、ディスプレイ装置201に組み込まれた一体の装置であってもよい。   The computer device 203 can be connected to the display device 201 and the controller 204 by communication. Communication may be wired or wireless. The computer device 203 may be a device independent of the display device 201 or may be an integrated device incorporated in the display device 201.

コントローラ204は、ボタンとトリガを備え、ユーザの操作により入力を受け付ける入力装置である。また、光センサが搭載されており、照射装置202から照射されたレーザ光線を感知することができる。さらに、タッチセンサが搭載されており、ユーザの接触による入力を受け付けることができる。コントローラ204は、一対にして左右の手に把持して使用するものであるが、いずれか1つのみを使用するものであってもよい。   The controller 204 is an input device that includes a button and a trigger and receives an input by a user operation. In addition, an optical sensor is mounted, and the laser beam emitted from the irradiation device 202 can be sensed. Furthermore, the touch sensor is mounted and the input by a user's contact can be received. The controller 204 is used by being gripped by a pair of left and right hands, but may use only one of them.

図3(b)は、図3(a)に示す表示システムとは異なる表示システムの構成に関する1つの例を表す図である。図3(b)に示す表示システムは、光源となる発光部を備えるディスプレイ装置251と、ディスプレイ装置251やコントローラ254の光源となる発光部から発せられた光を撮影する撮影装置252と、ディスプレイ装置251にて表示される画像を生成又は処理するコンピュータ装置253と、光源となる発光部を備えるコントローラ254とから構成される。   FIG. 3B is a diagram illustrating an example regarding the configuration of a display system different from the display system illustrated in FIG. The display system illustrated in FIG. 3B includes a display device 251 including a light emitting unit serving as a light source, a photographing device 252 that captures light emitted from the light emitting unit serving as a light source of the display device 251 and the controller 254, and a display device. The computer apparatus 253 which produces | generates or processes the image displayed on 251 and the controller 254 provided with the light emission part used as a light source are comprised.

ディスプレイ装置251は、ディスプレイ装置201と同様に、視界を覆うようにして頭部に装着するゴーグル型の表示装置であることが好ましい。ディスプレイは高い透過率を有する透過型ディスプレイであっても、低い透過率を有する非透過型ディスプレイであってもよい。   The display device 251 is preferably a goggle-type display device that is attached to the head so as to cover the field of view, like the display device 201. The display may be a transmissive display having a high transmittance or a non-transmissive display having a low transmittance.

撮影装置252は、ディスプレイ装置251及びコントローラ254の光源となる発光部から発せられた光を撮影することにより、ディスプレイ装置251及びコントローラ254の位置を特定するための装置である。   The photographing device 252 is a device for identifying the positions of the display device 251 and the controller 254 by photographing light emitted from a light emitting unit serving as a light source of the display device 251 and the controller 254.

コンピュータ装置253は、ディスプレイ装置251及びコントローラ254と通信により接続可能である。通信は、有線又は無線によるものであってもよい。   The computer device 253 can be connected to the display device 251 and the controller 254 by communication. Communication may be wired or wireless.

コントローラ254は、ボタンを備え、ユーザの操作により入力を受け付ける入力装置である。光源となる発光部を備え、コントローラ254から発せられた光を撮影装置252が撮影することにより、コントローラ254の位置を特定する。コントローラは手に把持するものであり、対にして使用することが好ましいが、1つのコントローラを使用するものとしてもよい。   The controller 254 is an input device that includes buttons and receives an input by a user operation. A light emitting unit serving as a light source is provided, and the position of the controller 254 is specified by the photographing device 252 photographing the light emitted from the controller 254. The controller is gripped by the hand and preferably used in pairs, but one controller may be used.

以下の説明において、本発明の実施の形態においては、図3(a)に示した方式により、ディスプレイ装置201及びコントローラ204の位置を特定するものとしたが、本発明はこの方式に限定されない。例えば、図3(b)に示した方式や、頭部以外の身体の一部に装着し、ディスプレイ装置201及びコントローラ204の位置を特定する方式であってもよい。   In the following description, in the embodiment of the present invention, the positions of the display device 201 and the controller 204 are specified by the method shown in FIG. 3A, but the present invention is not limited to this method. For example, a method shown in FIG. 3B or a method of specifying the positions of the display device 201 and the controller 204 by wearing on a part of the body other than the head may be used.

ディスプレイ装置201に表示される画像は、ディスプレイ装置201に搭載されたセンサにより測定された値、及び、コントローラ204へのユーザの入力操作に基づいて、コンピュータ装置203により生成又は処理された画像である。   The image displayed on the display device 201 is an image generated or processed by the computer device 203 based on a value measured by a sensor mounted on the display device 201 and a user input operation to the controller 204. .

ここで、ディスプレイ装置201の構成について説明する。図4は、本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置の構成を示すブロック図である。ディスプレイ装置201は、制御部11、RAM(Random Access Memory)12、ストレージ部13、撮像部14、グラフィックス処理部15、表示部16、センサ部18、通信インタフェース19、インタフェース部20、及びレンズ21からなり、それぞれ内部バスにより接続されている。   Here, the configuration of the display device 201 will be described. FIG. 4 is a block diagram showing a configuration of a display device corresponding to at least one of the embodiments of the present invention. The display device 201 includes a control unit 11, a RAM (Random Access Memory) 12, a storage unit 13, an imaging unit 14, a graphics processing unit 15, a display unit 16, a sensor unit 18, a communication interface 19, an interface unit 20, and a lens 21. Each connected by an internal bus.

制御部11は、CPU(Central Processing Unit)やROM(Read Only Memory)から構成される。制御部11は、ストレージ部13に格納されたプログラムを実行し、ディスプレイ装置201の制御を行う。RAM12は、制御部11のワークエリアである。ストレージ部13は、プログラムやデータを保存するための記憶領域である。   The control unit 11 includes a CPU (Central Processing Unit) and a ROM (Read Only Memory). The control unit 11 executes a program stored in the storage unit 13 and controls the display device 201. The RAM 12 is a work area for the control unit 11. The storage unit 13 is a storage area for storing programs and data.

制御部11は、プログラム及びデータをRAM12及びストレージ部13から読み出して処理を行う。制御部11は、RAM12にロードされたプログラム及びデータを処理することで、描画命令をグラフィックス処理部15に出力する。さらに、制御部11は、センサ部18において測定された各種の値に基づいて処理を行う、あるいは、インタフェース部20を介してコンピュータ装置3へデータを送信する。   The control unit 11 reads the program and data from the RAM 12 and the storage unit 13 and performs processing. The control unit 11 processes the program and data loaded in the RAM 12 to output a drawing command to the graphics processing unit 15. Further, the control unit 11 performs processing based on various values measured by the sensor unit 18 or transmits data to the computer apparatus 3 via the interface unit 20.

撮像部14は、レンズ21を介して撮影した画像をグラフィックス処理部15へ出力する。ディスプレイ装置201を頭部に装着することによって視界が覆われる場合には、装置外部の情報を確認することができないため、後述する表示部16が備える表示画面17に、撮像部14により撮像された情報を表示させることで、ユーザは現実空間を認識することができ、安全性を確保することができる。   The imaging unit 14 outputs an image captured through the lens 21 to the graphics processing unit 15. When the field of view is covered by mounting the display device 201 on the head, information outside the device cannot be confirmed, and thus the image is captured by the imaging unit 14 on the display screen 17 provided in the display unit 16 described later. By displaying the information, the user can recognize the real space and ensure safety.

グラフィックス処理部15は、フレーム単位で1枚の画像の描画を実行する。画像の1フレーム時間は、例えば30分の1秒である。グラフィックス処理部15は、描画に関する演算処理の一部を受け持ち、システム全体の負荷を分散させる役割を有する。   The graphics processing unit 15 performs drawing of one image for each frame. One frame time of an image is, for example, 1/30 second. The graphics processing unit 15 is responsible for a part of arithmetic processing related to drawing and has a role of distributing the load of the entire system.

表示部16は、表示画面17を備え、ユーザの視界を覆うディスプレイ装置201のゴーグル内部に設置される。表示画面17には、例えば、有機ELや無機ELが使用されるが、これに限定されるものではなく、スマートフォン等のディスプレイを備える端末装置を組み込むようにしてもよい。   The display unit 16 includes a display screen 17 and is installed inside the goggles of the display device 201 that covers the user's field of view. For example, organic EL or inorganic EL is used for the display screen 17, but the display screen 17 is not limited to this, and a terminal device including a display such as a smartphone may be incorporated.

センサ部18は、近接センサ18a、赤外線センサ18b、ジャイロセンサ18c、及び、加速度センサ18dを少なくとも備える。近接センサ18aは、ディスプレイ装置201のゴーグル部分に設置され、ユーザの顔部との接触有無を判定するために用いる。赤外線センサ18bは、ディスプレイ装置201に複数設置されるものであり、照射装置202から照射された光線を感知することで、ディスプレイ装置201の位置を特定するために用いる。ジャイロセンサ18c、及び加速度センサ18dは、ユーザの姿勢を特定するために用いる。   The sensor unit 18 includes at least a proximity sensor 18a, an infrared sensor 18b, a gyro sensor 18c, and an acceleration sensor 18d. The proximity sensor 18a is installed in the goggle portion of the display device 201, and is used to determine whether or not the user touches the face. A plurality of infrared sensors 18b are installed in the display device 201, and are used to identify the position of the display device 201 by sensing the light emitted from the irradiation device 202. The gyro sensor 18c and the acceleration sensor 18d are used for specifying the posture of the user.

ここで、図を用いてユーザの姿勢の特定方法について説明する。図5は、本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置を頭部に装着した場合にユーザの姿勢を特定するための直交座標系を示す図である。   Here, a method for specifying the posture of the user will be described with reference to the drawings. FIG. 5 is a diagram illustrating an orthogonal coordinate system for specifying the posture of the user when the display device is mounted on the head, corresponding to at least one of the embodiments of the present invention.

図示するように、ディスプレイ装置201を装着したユーザの頭部を中心にして、XYZ座標を規定する。ユーザが直立する垂直方向をY軸(ヨー角)、Y軸と直交し、かつ、ディスプレイ装置201の表示画面17の中心とユーザの頭部とを結ぶ方向をZ軸(ロール角)、Y軸及びZ軸と直交する方向をX軸(ピッチ角)とする。ジャイロセンサ18cでは、各軸回りの角度(傾き)を検出し、加速度センサ18dでは、ディスプレイ装置201の動きを検知し、検出された角度及び検知された動きに応じて、表示画面17に表示される画像を変化させる。ディスプレイ装置201は、複数のセンサにより測定された値(以下、姿勢情報という)を用いて、ユーザの姿勢を特定することができる。   As shown in the figure, XYZ coordinates are defined around the head of the user wearing the display device 201. The vertical direction in which the user stands upright is the Y axis (yaw angle), the direction orthogonal to the Y axis, and the direction connecting the center of the display screen 17 of the display device 201 and the user's head is the Z axis (roll angle), Y axis A direction orthogonal to the Z axis is defined as an X axis (pitch angle). The gyro sensor 18c detects an angle (inclination) around each axis, and the acceleration sensor 18d detects the movement of the display device 201 and displays it on the display screen 17 according to the detected angle and the detected movement. Change the image. The display device 201 can identify the user's posture using values measured by a plurality of sensors (hereinafter referred to as posture information).

続いて、通信インタフェース19は、無線又は有線により通信回線5に接続が可能であり、通信回線5を介してデータを受信することが可能である。通信インタフェース19を介して受信したデータは、RAM12にロードされ、制御部11により演算処理が行われる。   Subsequently, the communication interface 19 can be connected to the communication line 5 wirelessly or by wire, and can receive data via the communication line 5. Data received via the communication interface 19 is loaded into the RAM 12 and arithmetic processing is performed by the control unit 11.

インタフェース部20は、主にコンピュータ装置203と接続され、コンピュータ装置203において処理又は生成された画像等のデータを受信することができる。また、センサ部18において取得した各種センサの測定値をコンピュータ装置203へ送信することもできる。   The interface unit 20 is mainly connected to the computer device 203 and can receive data such as images processed or generated by the computer device 203. In addition, the measurement values of various sensors acquired by the sensor unit 18 can be transmitted to the computer device 203.

続いて、コンピュータ装置203について説明する。図6は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置203は、制御部31、RAM32、ストレージ部33、サウンド処理部34、グラフィックス処理部35、DVD/CD−ROMドライブ36、通信インタフェース37、インタフェース部38、及びフレームメモリ39からなり、それぞれ内部バスにより接続されている。   Next, the computer device 203 will be described. FIG. 6 is a block diagram showing a configuration of a computer device corresponding to at least one of the embodiments of the present invention. The computer device 203 includes a control unit 31, a RAM 32, a storage unit 33, a sound processing unit 34, a graphics processing unit 35, a DVD / CD-ROM drive 36, a communication interface 37, an interface unit 38, and a frame memory 39. Connected by internal bus.

制御部31は、CPUやROMから構成される。制御部31は、ストレージ部33に格納されたプログラムを実行し、コンピュータ装置203の制御を行う。また、制御部31は時間を計時する内部タイマを備えている。RAM32は、制御部31のワークエリアである。ストレージ部33は、プログラムやデータを保存するための記憶領域である。   The control unit 31 includes a CPU and a ROM. The control unit 31 executes a program stored in the storage unit 33 and controls the computer device 203. In addition, the control unit 31 includes an internal timer that measures time. The RAM 32 is a work area for the control unit 31. The storage unit 33 is a storage area for storing programs and data.

制御部31は、プログラム及びデータをRAM32から読み出して処理を行なう。制御部31は、RAM32にロードされたプログラム及びデータを処理することで、描画命令をグラフィックス処理部35に出力する。   The control unit 31 reads the program and data from the RAM 32 and performs processing. The control unit 31 outputs a drawing command to the graphics processing unit 35 by processing the program and data loaded in the RAM 32.

サウンド処理部34は、サウンド出力装置40に接続されている。制御部31がサウンド出力の指示をサウンド処理部34に出力すると、サウンド処理部34はサウンド出力装置40にサウンド信号を出力する。サウンド出力装置40は、例えば、ヘッドフォンであり、ユーザがディスプレイ装置201とともに頭部に装着してもよいし、スピーカがディスプレイ装置201に組み込まれていてもよい。   The sound processing unit 34 is connected to the sound output device 40. When the control unit 31 outputs a sound output instruction to the sound processing unit 34, the sound processing unit 34 outputs a sound signal to the sound output device 40. The sound output device 40 is, for example, a headphone, and a user may wear it on the head together with the display device 201, or a speaker may be incorporated in the display device 201.

グラフィックス処理部35は、フレーム単位で1枚の画像の描画を実行する。画像の1フレーム時間は、例えば90分の1秒である。グラフィックス処理部35は描画に関する演算処理の一部を受け持ち、システム全体の負荷を分散させる役割を有する。コンピュータ装置203のグラフィックス処理部35は、ディスプレイ装置201の位置情報及び姿勢情報と、コントローラ204の位置情報とに基づいて、表示画面17に表示する画像を生成するため、ディスプレイ装置201に含まれるグラフィックス処理部15よりも高い性能を要する。   The graphics processing unit 35 draws one image for each frame. One frame time of an image is, for example, 1/90 second. The graphics processing unit 35 is responsible for a part of calculation processing related to drawing and has a role of distributing the load of the entire system. The graphics processing unit 35 of the computer device 203 is included in the display device 201 in order to generate an image to be displayed on the display screen 17 based on the position information and orientation information of the display device 201 and the position information of the controller 204. It requires higher performance than the graphics processing unit 15.

DVD/CD−ROMドライブ36は、ディスク41からデータを読み込み、RAM32にロードされ、制御部31により演算処理が行われる。なお、ディスク41の種類はDVD又はCDに限らず、Blu−ray(登録商標)ディスクやその他の規格であってもよい。   The DVD / CD-ROM drive 36 reads data from the disk 41, loads it into the RAM 32, and performs arithmetic processing by the control unit 31. The type of the disc 41 is not limited to a DVD or a CD, but may be a Blu-ray (registered trademark) disc or other standards.

通信インタフェース37は無線又は有線により通信回線5に接続が可能であり、通信回線5を介してデータを受信することが可能である。通信インタフェース37を介して受信したデータは、ディスク41から読み込まれたデータと同様に、RAM32にロードされ、制御部31により演算処理が行われる。   The communication interface 37 can be connected to the communication line 5 wirelessly or by wire, and can receive data via the communication line 5. Data received via the communication interface 37 is loaded into the RAM 32 in the same manner as data read from the disk 41, and arithmetic processing is performed by the control unit 31.

インタフェース部38は、主にディスプレイ装置201と接続され、コンピュータ装置203において処理又は生成された画像等のデータを送信することができる。   The interface unit 38 is mainly connected to the display device 201 and can transmit data such as an image processed or generated by the computer device 203.

なお、上述の説明において、ディスプレイ装置201とコンピュータ装置203とは別装置として記載したが、ディスプレイ装置201によりコンピュータ装置203の処理をすべて行うこととしてもよい。この場合には、コンピュータ装置203は不要となり、コントローラ204はディスプレイ装置201と通信により接続される。   In the above description, the display device 201 and the computer device 203 are described as separate devices. However, the display device 201 may perform all processing of the computer device 203. In this case, the computer device 203 is unnecessary, and the controller 204 is connected to the display device 201 by communication.

続いて、本発明の実施の形態における表示システムの構成について説明する。図7は、本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。表示システム1は、角度情報測定部301、位置及び向き特定部302、情報送信部303、情報受信部304、視線特定部305、交差判定部306、計時部307、経過時間判定部308、仮想カメラ位置特定部309、サブウィンドウ画像生成部310、コントローラ入力受付判定部311、表示画像生成部312、画像送信部313、画像受信部314、及び画像表示部315を少なくとも備える。   Next, the configuration of the display system in the embodiment of the present invention will be described. FIG. 7 is a block diagram showing a configuration of a display system corresponding to at least one of the embodiments of the present invention. The display system 1 includes an angle information measuring unit 301, a position and orientation specifying unit 302, an information transmitting unit 303, an information receiving unit 304, a line-of-sight specifying unit 305, an intersection determining unit 306, a time measuring unit 307, an elapsed time determining unit 308, and a virtual camera. It includes at least a position specifying unit 309, a sub window image generation unit 310, a controller input acceptance determination unit 311, a display image generation unit 312, an image transmission unit 313, an image reception unit 314, and an image display unit 315.

角度情報測定部301は、ディスプレイ装置201の姿勢から角度情報を測定する機能を有する。位置及び向き特定部302は、ディスプレイ装置201に搭載された光センサが、照射装置202から照射されたレーザ光線を感知し、ディスプレイ装置201の位置及び向きを特定する機能を有する。情報送信部303は、ディスプレイ装置201において測定された角度情報と特定された位置及び向き情報とをコンピュータ装置203へ送信する機能を有する。   The angle information measurement unit 301 has a function of measuring angle information from the attitude of the display device 201. The position / orientation specifying unit 302 has a function in which an optical sensor mounted on the display device 201 senses a laser beam emitted from the irradiation device 202 and specifies the position and orientation of the display device 201. The information transmission unit 303 has a function of transmitting the angle information measured in the display device 201 and the specified position and orientation information to the computer device 203.

情報受信部304は、情報送信部303により送信された情報を受信する機能を有する。視線特定部305は、情報受信部304により受信された情報に基づいて、仮想空間におけるユーザの視線を特定する機能を有する。交差判定部306は、仮想空間内に配置されたオブジェクトと、視線特定部305により特定された視線とが交差するか否かを判定する機能を有する。   The information receiving unit 304 has a function of receiving information transmitted from the information transmitting unit 303. The line-of-sight specifying unit 305 has a function of specifying the user's line of sight in the virtual space based on the information received by the information receiving unit 304. The intersection determination unit 306 has a function of determining whether or not the object arranged in the virtual space and the line of sight specified by the line-of-sight specifying unit 305 intersect.

計時部307は、オブジェクトと視線とが交差したと判定されてから継続して交差していた時間を計時する機能を有する。経過時間判定部308は、計時部307により計時された時間が、所定の時間を経過したか否かを判定する機能を有する。仮想カメラ位置特定部309は、視線特定部305により特定された視線と交差するオブジェクトを撮像可能な仮想カメラの位置を特定する機能を有する。   The time measuring unit 307 has a function of measuring the time during which the object and the line of sight have crossed continuously after it is determined that the object and the line of sight intersect. The elapsed time determination unit 308 has a function of determining whether or not the time measured by the time measuring unit 307 has passed a predetermined time. The virtual camera position specifying unit 309 has a function of specifying the position of a virtual camera that can capture an object that intersects the line of sight specified by the line of sight specifying unit 305.

サブウィンドウ画像生成部310は、仮想カメラ位置特定部309により特定された位置から撮像した画像を生成する機能を有する。コントローラ入力受付判定部311は、コントローラ204からの入力を受け付けたか否か判定する機能を有する。表示画像生成部312は、表示する画像を生成する機能を有する。   The sub window image generation unit 310 has a function of generating an image captured from the position specified by the virtual camera position specifying unit 309. The controller input reception determination unit 311 has a function of determining whether or not an input from the controller 204 has been received. The display image generation unit 312 has a function of generating an image to be displayed.

画像送信部313は、表示画像生成部312により生成された表示画像をディスプレイ装置201へ送信する機能を有する。画像受信部314は、画像送信部313により送信された表示画像を受信する機能を有する。画像表示部315は、画像受信部314により受信された表示画像を表示画面17に表示する機能を有する。   The image transmission unit 313 has a function of transmitting the display image generated by the display image generation unit 312 to the display device 201. The image receiving unit 314 has a function of receiving the display image transmitted by the image transmitting unit 313. The image display unit 315 has a function of displaying the display image received by the image receiving unit 314 on the display screen 17.

続いて、本発明の第四の実施の形態における実行処理について説明する。本発明の第四の実施の形態の一例として、コンテンツを閲覧するシステムが挙げられる。より具体的には、コンテンツは複数枚の紙面から構成され、ストーリーの展開に応じて進行する漫画に関するデータであって、漫画の一コマ単位に、ユーザの操作により、漫画の一コマを表す仮想空間に入り込むことができる表示システムである。   Subsequently, an execution process in the fourth embodiment of the present invention will be described. An example of the fourth embodiment of the present invention is a system for browsing content. More specifically, the content is composed of a plurality of sheets of paper, and is data related to a comic that progresses according to the development of the story, and is a virtual that represents a single comic by a user operation for each comic. It is a display system that can enter the space.

図8は、本発明の実施の形態の少なくとも1つに対応する、実行画面の例である。図8(a)において、表示画面17には、漫画の一コマの状況が表示され、キャラクタ401と、サブウィンドウ402とが表示されている。サブウィンドウ402には、表示画面17に表示された画像を撮像する仮想カメラとは異なる仮想カメラにより撮像された画像が表示される。図8では、キャラクタ401の顔が拡大されて表示されている。   FIG. 8 is an example of an execution screen corresponding to at least one of the embodiments of the present invention. In FIG. 8A, the display screen 17 displays the status of one frame of a cartoon, and a character 401 and a sub window 402 are displayed. The sub window 402 displays an image captured by a virtual camera that is different from the virtual camera that captures the image displayed on the display screen 17. In FIG. 8, the face of the character 401 is enlarged and displayed.

図8(b)は、図8(a)の状況から、ユーザが視線(以下、視軸ともいう)を左方向へ動かしてディスプレイ装置201の向きを変更した実行画面の例である。ユーザが頭部を動かすことで、ユーザに対して図8(a)より左側の仮想空間が表示画面17に表示される。この場合に、サブウィンドウ402は、表示画面17における所定の領域に表示されたままであり、ユーザの頭部の動きに応じて位置が変化しない。所定の領域とは、表示画面17に含まれる一部の領域であればよく、表示画面17の右下には限定されない。   FIG. 8B is an example of an execution screen in which the user changes the direction of the display device 201 by moving the line of sight (hereinafter also referred to as the visual axis) to the left in the situation of FIG. As the user moves his / her head, the virtual space on the left side of FIG. 8A is displayed on the display screen 17 for the user. In this case, the sub window 402 remains displayed in a predetermined area on the display screen 17, and the position does not change according to the movement of the user's head. The predetermined area may be a partial area included in the display screen 17 and is not limited to the lower right of the display screen 17.

サブウィンドウ402は、漫画の一コマに関連付けて記憶されることで、漫画の一コマを表す仮想空間に入り込むと常に表示されるように設計してもよい。つまり、表示画面17に表示される画像が属性情報として、例えば、サブウィンドウ402を表示するフラグを有するようにしてもよい。あるいは、画像が示す内容が特定のシーンである場合に、サブウィンドウ402を表示するように、画像の内容に応じて表示するものであってもよい。   The sub-window 402 may be designed so that it is displayed in association with a single frame of a comic so that the sub-window 402 is displayed whenever a virtual space representing the single frame of the comic is entered. That is, the image displayed on the display screen 17 may have, for example, a flag for displaying the sub window 402 as attribute information. Or you may display according to the content of an image so that the subwindow 402 may be displayed when the content which an image shows is a specific scene.

サブウィンドウ402は、所定の条件を満たした場合に表示されるように設計してもよい。所定の条件とは、例えば、コントローラ204において入力操作を受け付けられた場合や、ディスプレイ装置201の姿勢から特定された向きと仮想カメラの視軸を対応させ、視軸が仮想空間内のオブジェクトと交差したと判定された場合等が挙げられる。   The sub window 402 may be designed to be displayed when a predetermined condition is satisfied. The predetermined condition is, for example, when an input operation is accepted by the controller 204, or by matching the direction specified from the orientation of the display device 201 with the visual axis of the virtual camera, and the visual axis intersects with an object in the virtual space. For example, it may be determined that it has been performed.

続いて、本発明の第四の実施の形態における、表示画面に表示する画像の生成について説明する。プログラムが実行されると、コンピュータ装置203の制御部31は、プログラムによって定義される仮想空間をグラフィックス処理部35に出力させる。また、ディスプレイ装置201を頭に装着したユーザの位置、及び、コントローラ204の位置を、照射装置202から照射された光線を受光した位置及び方向に基づいて特定する。さらに、ディスプレイ装置201のセンサ部18の各種センサの測定値により、ディスプレイ装置201の姿勢を特定する。   Next, generation of an image to be displayed on the display screen in the fourth embodiment of the present invention will be described. When the program is executed, the control unit 31 of the computer device 203 causes the graphics processing unit 35 to output a virtual space defined by the program. Further, the position of the user wearing the display device 201 on the head and the position of the controller 204 are specified based on the position and direction in which the light beam emitted from the irradiation device 202 is received. Further, the attitude of the display device 201 is specified by the measurement values of various sensors of the sensor unit 18 of the display device 201.

プログラムによって定義される仮想空間について説明する。図9は、本発明の実施の形態の少なくとも1つに対応する、仮想空間の概念を表す図である。プログラムにより定義される仮想空間70が、図示するように半球状の空間で表される場合に、ディスプレイ装置201を頭部に装着したユーザ80の視野は、可視領域81に該当する。すなわち、可視領域81に該当する映像が、ディスプレイ装置201の表示画面17に表示される。例えば、ユーザ80が左を向けば、ユーザ80の動きにしたがって、可視領域81は左側に移動する。上下方向についても同様に、例えば、ユーザ80が上を向けば、ユーザ80の動きにしたがって、可視領域81は上側に移動する。   The virtual space defined by the program will be described. FIG. 9 is a diagram showing the concept of the virtual space corresponding to at least one of the embodiments of the present invention. When the virtual space 70 defined by the program is represented by a hemispherical space as illustrated, the visual field of the user 80 wearing the display device 201 on the head corresponds to the visible region 81. That is, an image corresponding to the visible region 81 is displayed on the display screen 17 of the display device 201. For example, when the user 80 turns to the left, the visible region 81 moves to the left according to the movement of the user 80. Similarly, in the vertical direction, for example, when the user 80 faces upward, the visible region 81 moves upward in accordance with the movement of the user 80.

[実行処理]
図10は、本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。最初に、ディスプレイ装置201は、ディスプレイ装置201の姿勢から角度情報を測定する(ステップS11)。角度情報は、ディスプレイ装置201のセンサ部18に含まれる各種センサにより測定される。
[Execution process]
FIG. 10 is a flowchart of execution processing corresponding to at least one of the embodiments of the present invention. First, the display apparatus 201 measures angle information from the attitude of the display apparatus 201 (step S11). The angle information is measured by various sensors included in the sensor unit 18 of the display device 201.

次に、ディスプレイ装置201に搭載された光センサが、照射装置202から照射されたレーザ光線を感知することにより、ディスプレイ装置201は、ディスプレイ装置201の位置及び向きを特定する(ステップS12)。ステップS11及びステップS12の処理は、所定の間隔毎に行い、測定又は特定の都度、コンピュータ装置203へ送信して、ディスプレイ装置201の表示画面17において表示する表示用画像を生成してもよい。   Next, when the optical sensor mounted on the display device 201 senses the laser beam emitted from the irradiation device 202, the display device 201 specifies the position and orientation of the display device 201 (step S12). The processing of step S11 and step S12 may be performed at predetermined intervals, and may be transmitted to the computer device 203 at every measurement or specific time to generate a display image to be displayed on the display screen 17 of the display device 201.

次に、ディスプレイ装置201は、ステップS11において測定された角度情報、及び、ステップS12において特定された向き及び位置に関する情報をコンピュータ装置203へ送信する(ステップS13)。次に、コンピュータ装置203は、情報を受信し(ステップS14)、ステップS11において測定された角度情報、及び、ステップS12において特定された位置及び向きに関する情報に基づいて、仮想空間におけるユーザの視線を特定する(ステップS15)。   Next, the display apparatus 201 transmits the angle information measured in step S11 and the information related to the orientation and position specified in step S12 to the computer apparatus 203 (step S13). Next, the computer device 203 receives the information (step S14), and based on the angle information measured in step S11 and the information on the position and orientation specified in step S12, the computer device 203 displays the user's line of sight in the virtual space. Specify (step S15).

仮想空間におけるユーザの視線とは、ディスプレイ装置201の角度情報(水平面に対する傾きに関する情報)、位置に関する情報、及び向きに関する情報(水平面に平行な平面上でどの方向を向いているかに関する情報)に基づいて特定される可視領域81において、ユーザが仮想空間内で見ていると推測される方向である。つまり、特定された向きは、仮想空間内における仮想カメラの視軸に対応するものである。例えば、ディスプレイ装置201の位置に仮想カメラの視点を設定し、ディスプレイ装置201の向きをもとに、視点を始点として、仮想世界における水平面に平行な平面上でどの方向へ視線が向いているかを特定し、かつ、ディスプレイ装置201の姿勢情報をもとに、該水平面に対する視線の傾きを特定することができる。さらに、仮想カメラの視点から仮想スクリーン上へ透視変換することで、ユーザの視線に対応する画像を生成することができる。このようにすることで、ユーザに意識させることなく、仮想世界において、ユーザが見ていると推測される方向に存在するオブジェクトを、ディスプレイ装置201に表示させ、ユーザの利便性を向上させるとともに、より仮想世界に没入させることが可能となる。   The user's line of sight in the virtual space is based on the angle information (information about the tilt with respect to the horizontal plane), the information about the position, and the information about the direction (information about which direction on a plane parallel to the horizontal plane). This is the direction in which it is estimated that the user is looking in the virtual space in the visible region 81 specified in the above. That is, the specified direction corresponds to the visual axis of the virtual camera in the virtual space. For example, the viewpoint of the virtual camera is set at the position of the display device 201, and based on the orientation of the display device 201, the direction of the line of sight on the plane parallel to the horizontal plane in the virtual world is determined from the viewpoint. The inclination of the line of sight with respect to the horizontal plane can be specified based on the orientation information of the display device 201. Furthermore, by performing perspective transformation from the viewpoint of the virtual camera onto the virtual screen, an image corresponding to the user's line of sight can be generated. In this way, without causing the user to be conscious, in the virtual world, an object that exists in the direction that the user is assumed to be viewing is displayed on the display device 201, and the convenience of the user is improved. It becomes possible to immerse in the virtual world more.

ところで、ディスプレイ装置201が、ディスプレイ装置201を装着したユーザの視線を追跡することができる機能を有するようにしてもよい。この場合には、ユーザの眼球の動作から視線を算出することができる。   Incidentally, the display device 201 may have a function of tracking the line of sight of the user wearing the display device 201. In this case, the line of sight can be calculated from the movement of the user's eyeball.

次に、コンピュータ装置203は、ステップS15において特定されたユーザの視線と仮想空間内に配置されたオブジェクトとが交差するか否かを判定する(ステップS16)。オブジェクトとは、例えば、仮想空間内に配置され得るものであって、キャラクタ、敵キャラクタ、アイテム、あるいは、仮想空間に表示される物体等をいう。交差とは、視線と、オブジェクトを形成する境界面とが交差することをいい、線と面とが接することも含む概念である。三次元空間における線分と物体の交差判定には、例えば、レイトレーシング法において物体とレイ(光線)との交点を求めるための方法を用いることができる。その他の方法によっても可能であり、本発明の実施の形態においては、交差判定の方法が限定されるものではない。   Next, the computer device 203 determines whether or not the user's line of sight identified in step S15 intersects with the object arranged in the virtual space (step S16). The object is, for example, a character, an enemy character, an item, or an object displayed in the virtual space, which can be arranged in the virtual space. Crossing means that a line of sight intersects with a boundary surface forming an object, and is a concept including contact between a line and a surface. For the intersection determination between the line segment and the object in the three-dimensional space, for example, a method for obtaining the intersection of the object and the ray (ray) in the ray tracing method can be used. Other methods are also possible, and in the embodiment of the present invention, the method of intersection determination is not limited.

ユーザの視線が仮想空間内の所定のオブジェクトと交差していると判定された場合(ステップS16においてYES)には、コンピュータ装置203は、コンピュータ装置203の制御部31に備えられた内部タイマにより計時を開始する(ステップS17)。   If it is determined that the user's line of sight intersects with a predetermined object in the virtual space (YES in step S16), the computer device 203 counts time with an internal timer provided in the control unit 31 of the computer device 203. Is started (step S17).

次に、コンピュータ装置203は、ステップS17において開始した計時により、所定のオブジェクトと視線との交差が継続している時間が所定の時間を経過したか否かを判定する(ステップS18)。所定時間が経過したと判定された場合(ステップS18にてYES)には、コンピュータ装置203は、ステップS15において特定された視線と交差するオブジェクトを撮像可能な仮想カメラの位置を特定する(ステップS19)。所定時間が経過していない場合(ステップS18にてNO)には、サブウィンドウは表示されない。既にサブウィンドウが表示されている場合には、既存のサブウィンドウが表示されたままの状態を維持するようにしてもよい。   Next, the computer device 203 determines whether or not a predetermined time has elapsed after the predetermined object and the line of sight have continued to intersect based on the timing started in step S17 (step S18). If it is determined that the predetermined time has elapsed (YES in step S18), the computer apparatus 203 specifies the position of the virtual camera that can image the object that intersects the line of sight specified in step S15 (step S19). ). If the predetermined time has not elapsed (NO in step S18), the sub window is not displayed. When the subwindow is already displayed, the existing subwindow may be kept displayed.

ステップS19における仮想カメラの位置の特定について説明する。ここで位置を特定される仮想カメラは、視線の方向に対応する画像を撮像する仮想カメラ(以下、主仮想カメラという)とは異なる仮想カメラ(以下、副仮想カメラという)である。ステップS15において特定される仮想カメラの位置とは、副仮想カメラの位置であって、交差したオブジェクトが仮想カメラにより撮像される位置であれば任意の位置でよく、例えば、視線に対応する画像を撮像する仮想カメラとは視点が異なる、あるいは、視軸が異なるものであればよい。   The identification of the position of the virtual camera in step S19 will be described. The virtual camera whose position is specified here is a virtual camera (hereinafter referred to as a sub-virtual camera) that is different from a virtual camera (hereinafter referred to as a main virtual camera) that captures an image corresponding to the direction of the line of sight. The position of the virtual camera specified in step S15 is the position of the sub-virtual camera and may be any position as long as the intersected object is captured by the virtual camera. For example, an image corresponding to the line of sight is displayed. What is necessary is just to have a different viewpoint or a different visual axis from the virtual camera to be imaged.

次に、コンピュータ装置203は、ステップS19において特定された位置から、副仮想カメラによりオブジェクトを撮像し、サブウィンドウに表示する画像を生成する(ステップS20)。   Next, the computer apparatus 203 captures an object with the sub virtual camera from the position specified in step S19, and generates an image to be displayed on the sub window (step S20).

ユーザの視線が仮想空間内の所定のオブジェクトと交差していないと判定された場合(ステップS16においてNO)には、コントローラからの所定の入力操作が受け付けられたか否かを判定する(ステップS21)。コントローラから所定の入力操作が受け付けられたと判定された場合(ステップS21にてYES)には、ステップS19に移り、副仮想カメラの位置を特定する。コントローラから所定の入力操作が受け付けられていないと判定された場合(ステップS21にてNO)には、サブウィンドウ画像は生成されない。   If it is determined that the user's line of sight does not intersect with a predetermined object in the virtual space (NO in step S16), it is determined whether a predetermined input operation from the controller has been accepted (step S21). . If it is determined that a predetermined input operation has been received from the controller (YES in step S21), the process proceeds to step S19 to specify the position of the sub virtual camera. If it is determined that a predetermined input operation has not been received from the controller (NO in step S21), a sub window image is not generated.

次に、ステップS15で特定された視線の方向に対応する画像を生成する(ステップS22)。視線の方向に対応する画像とは、主仮想カメラにより撮像された画像である。次に、コンピュータ装置203は、ステップS20において生成されたサブウィンドウ画像と、ステップS22において生成された視線の方向に対応する画像とを、ディスプレイ装置201へ送信する(ステップS23)。   Next, an image corresponding to the line-of-sight direction specified in step S15 is generated (step S22). The image corresponding to the direction of the line of sight is an image captured by the main virtual camera. Next, the computer apparatus 203 transmits the sub window image generated in step S20 and the image corresponding to the line-of-sight direction generated in step S22 to the display apparatus 201 (step S23).

ディスプレイ装置201は、ステップS23において送信された画像を受信する(ステップS24)。ディスプレイ装置201は、ステップS24において受信した画像を表示し(ステップS25)、終了する。   The display device 201 receives the image transmitted in step S23 (step S24). The display device 201 displays the image received in step S24 (step S25) and ends.

表示画面17における、仮想カメラにより撮像される画像の表示態様について説明する。図11は、本発明の実施の形態の少なくとも1つに対応する、仮想カメラにより撮像される画像の一例を示す図である。図11(a)は、仮想カメラによりオブジェクトを撮像する様子を表す模式図である。主仮想カメラ98は、ユーザの視線の方向に対応した画像を撮像する仮想カメラである。図11(b)は、図11(a)の状態において撮像された画像を表す図である。図11(a)において、オブジェクト91及びオブジェクト92を撮像すると、視軸αはいずれのオブジェクトとも交差しないため、サブウィンドウは表示画面17に表示されない。視線を表す点90は、表示されてもよいし、非表示であってもよい。   A display mode of an image captured by the virtual camera on the display screen 17 will be described. FIG. 11 is a diagram illustrating an example of an image captured by a virtual camera, corresponding to at least one of the embodiments of the invention. FIG. 11A is a schematic diagram illustrating a state in which an object is imaged by a virtual camera. The main virtual camera 98 is a virtual camera that captures an image corresponding to the direction of the user's line of sight. FIG. 11B is a diagram illustrating an image captured in the state of FIG. In FIG. 11A, when the object 91 and the object 92 are imaged, the visual axis α does not intersect any object, and thus the subwindow is not displayed on the display screen 17. The point 90 representing the line of sight may be displayed or not displayed.

図12は、本発明の実施の形態の少なくとも1つに対応する、複数の仮想カメラにより撮像される画像の一例を示す図である。図12(a)では、主仮想カメラ98の視軸αとオブジェクト92とが交差する状態を表す模式図である。図12(b)は、図12(a)の状態において撮像された複数の画像を重複して表す図である。視軸αがオブジェクト92と交差するため、サブウィンドウに表示される画像を生成する副仮想カメラ99により、主仮想カメラ98とは異なる視点からオブジェクト92を撮像する。副仮想カメラ99により撮像された画像は、サブウィンドウ93に表示される。   FIG. 12 is a diagram illustrating an example of an image captured by a plurality of virtual cameras corresponding to at least one of the embodiments of the invention. FIG. 12A is a schematic diagram showing a state where the visual axis α of the main virtual camera 98 and the object 92 intersect. FIG. 12B is a diagram illustrating a plurality of images captured in the state of FIG. Since the visual axis α intersects the object 92, the object 92 is imaged from a viewpoint different from that of the main virtual camera 98 by the sub virtual camera 99 that generates an image displayed in the sub window. An image captured by the sub virtual camera 99 is displayed in the sub window 93.

図示するように、副仮想カメラ99による撮像が、異なる視点から撮像される場合に、主仮想カメラ98により撮像された画像の一部を拡大して表示することができ、これまでユーザが視認できなかった特徴点94を、視認可能に表示することができる。   As shown in the figure, when the sub-virtual camera 99 is picked up from different viewpoints, a part of the image picked up by the main virtual camera 98 can be enlarged and displayed so that the user can visually recognize so far. The missing feature point 94 can be displayed so as to be visible.

図13は、本発明の実施の形態の少なくとも1つに対応する、複数の仮想カメラにより撮像される画像の一例を示す図である。図13(a)では、主仮想カメラ98の視軸αがオブジェクト92と交差する状態が表されている。図13(b)は、図13(a)の状態において撮像された複数の画像を重複して表す図である。視軸αがオブジェクト92と交差するため、サブウィンドウに表示される画像を生成する副仮想カメラ99により、主仮想カメラ98とは異なる視軸からオブジェクト92を撮像する。副仮想カメラ99により撮像された画像は、サブウィンドウ93に表示される。   FIG. 13 is a diagram illustrating an example of an image captured by a plurality of virtual cameras corresponding to at least one of the embodiments of the invention. FIG. 13A shows a state where the visual axis α of the main virtual camera 98 intersects the object 92. FIG. 13B is a diagram showing a plurality of images captured in the state of FIG. Since the visual axis α intersects the object 92, the object 92 is imaged from a visual axis different from that of the main virtual camera 98 by the sub virtual camera 99 that generates an image displayed in the sub window. An image captured by the sub virtual camera 99 is displayed in the sub window 93.

図示するように、副仮想カメラ99による撮像が、主仮想カメラ98とは異なる視軸から撮像されることで、主仮想カメラ98により撮像された画像ではユーザが視認できなかった特徴点95を、視認可能に表示することができる。   As shown in the drawing, since the imaging by the sub virtual camera 99 is performed from a visual axis different from that of the main virtual camera 98, the feature point 95 that the user could not visually recognize in the image captured by the main virtual camera 98 is obtained. It can be displayed so as to be visible.

実行処理は、所定のタイミングで繰り返し実行されるものとしてもよい。所定のタイミングとは、例えば、画面のフレームレートごと、あるいは、フレームレートの倍数のタイミングで行うことができる。   The execution process may be repeatedly executed at a predetermined timing. The predetermined timing can be performed, for example, at every frame rate of the screen or at a multiple of the frame rate.

ステップS25において、ディスプレイ装置201は、受信したサブウィンドウ画像と、視線の方向に対応する画像とを重畳させて表示する。ステップS25において、既にサブウィンドウが表示されている場合には、表示されているサブウィンドウの画像に代えて、ステップS20において生成されたサブウィンドウの画像を表示し、表示内容を更新するようにしてもよい。   In step S25, the display apparatus 201 displays the received subwindow image and an image corresponding to the direction of the line of sight in a superimposed manner. In step S25, if the subwindow has already been displayed, the image of the subwindow generated in step S20 may be displayed in place of the displayed subwindow image to update the display content.

第四の実施の形態では、ディスプレイ装置201及びコントローラ204の位置を特定するための光線はレーザ光線であって、例えば、赤外線が挙げられるが、光線はこれに限定されず、可視光線であってもよいし、その他の不可視光線であってもよい。   In the fourth embodiment, the light beam for specifying the positions of the display device 201 and the controller 204 is a laser beam, for example, an infrared ray. However, the light beam is not limited to this, and is a visible ray. Alternatively, other invisible light may be used.

第四の実施の形態では、視線が所定のオブジェクトと所定の時間交差し続けた場合にサブウィンドウを表示することとしたが、所定の時間が経過したか否かを判定することなく、視線と所定のオブジェクトとの交差に関する判定のみでサブウィンドウを表示することとしてもよい。   In the fourth embodiment, the sub-window is displayed when the line of sight continues to cross a predetermined object for a predetermined time. However, the line of sight and the predetermined line are not determined without determining whether the predetermined time has elapsed. The sub window may be displayed only by the determination regarding the intersection with the object.

第四の実施の形態では、サブウィンドウが表示される位置に言及していないが、所定のオブジェクトと重畳した場合等の所定の条件を満たす場合には、サブウィンドウの位置を変更する、あるいは、サブウィンドウを表示しないようにしてもよい。   In the fourth embodiment, the position where the subwindow is displayed is not mentioned. However, when a predetermined condition is satisfied such as when the subwindow is overlapped with the predetermined object, the position of the subwindow is changed or the subwindow is changed. You may make it not display.

第四の実施の形態では、サブウィンドウに表示させる画像を仮想カメラにより撮像した画像としたが、これに限定されない。すなわち、仮想カメラにより撮像された画像でなくても、ユーザの視軸と交差したオブジェクトに関する画像であってもよい。例えば、オブジェクトの属性情報やオブジェクトの心理状態等見えない情報を表示するものであってもよい。また、視軸と交差したオブジェクトとは関係のない情報を表示するものであってもよい。例えば、ユーザの視軸とオブジェクトとを交差させることで、次の場面に移動するための選択肢等を表示するようにしてもよい。   In the fourth embodiment, the image displayed on the sub-window is an image captured by the virtual camera, but the present invention is not limited to this. That is, it may not be an image captured by a virtual camera, but may be an image related to an object that intersects the user's visual axis. For example, invisible information such as the attribute information of the object and the psychological state of the object may be displayed. Information that is not related to an object that intersects the visual axis may be displayed. For example, an option for moving to the next scene may be displayed by intersecting the user's visual axis and the object.

第四の実施の形態では、サブウィンドウに表示させる画像を仮想カメラにより撮像した画像としたが、コンピュータ装置203のストレージ部33に格納された画像を表示してもよい。例えば、主仮想カメラにより漫画の一コマが表示されている場合に、主人公キャラクタに視線方向を合わせると、主人公キャラクタの身体の一部がサブウィンドウに表示され、漫画のストーリーが進行されるようにしてもよい。また、サブウィンドウの表示に合わせて音声を出力するようにしてもよい。   In the fourth embodiment, the image to be displayed in the sub-window is an image captured by the virtual camera, but an image stored in the storage unit 33 of the computer device 203 may be displayed. For example, when a main frame of a cartoon is displayed by the main virtual camera, if you adjust the line of sight to the hero character, a part of the hero character's body is displayed in the sub-window so that the comic story progresses. Also good. Also, audio may be output in accordance with the display of the subwindow.

第四の実施の形態の一側面として、表示画面の所定の領域に、複雑な操作や動作を行わなくても、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することができる。   As one aspect of the fourth embodiment, a predetermined area of the display screen is different from the first image on the display area generated by superimposing the first image without performing complicated operations and operations. A second image can be displayed.

第四の実施の形態の一側面として、視軸と仮想空間内の所定のオブジェクトとが重なった状態が所定の時間継続した場合に、第二画像を表示することで、ユーザが意図しない第二画像の表示を抑制し、ユーザが表示することを意図した第二画像だけを表示可能にして、利便性を向上させることができる。   As one aspect of the fourth embodiment, when the state where the visual axis overlaps with a predetermined object in the virtual space continues for a predetermined time, a second image that is not intended by the user is displayed by displaying the second image. The display of images can be suppressed, and only the second image that the user intends to display can be displayed, thereby improving convenience.

第四の実施の形態の一側面として、第1オブジェクトに対応する第二画像を表示した後に、視軸が第2オブジェクトと所定の時間継続して重なった場合に、第1オブジェクトに対応する第二画像に代えて、第2オブジェクトに対応する第二画像を表示することで、視軸をオブジェクトに重ねるだけで第二画像の表示を更新することができ、ユーザの操作性をより向上させることができる。また、複数のサブウィンドウを表示しないため、処理負荷の軽減にも寄与する。   As one aspect of the fourth embodiment, when the visual axis continuously overlaps the second object for a predetermined time after displaying the second image corresponding to the first object, the first object corresponding to the first object is displayed. By displaying the second image corresponding to the second object instead of the two images, the display of the second image can be updated simply by overlaying the visual axis on the object, and the operability for the user is further improved. Can do. In addition, since a plurality of sub-windows are not displayed, the processing load is also reduced.

第四の実施の形態の一側面として、ユーザの視軸と交差した所定のオブジェクトに関する画像をサブウィンドウに表示することにより、ユーザが入力操作をすることなく所定のオブジェクトに関する情報を知ることができる。また、ユーザの視軸が当たっている場所を認識することができるという利点もある。   As one aspect of the fourth embodiment, by displaying an image related to a predetermined object intersecting the user's visual axis in the sub-window, the user can know information related to the predetermined object without performing an input operation. In addition, there is an advantage that a place where the user's visual axis is hit can be recognized.

第四の実施の形態の一側面として、視軸が重なったオブジェクトを拡大した画像をサブウィンドウに表示することで、従来表示できなかった情報をユーザに与えることができ、ユーザの利便性を向上させることができる。また、仮想空間内のオブジェクトに対する関心を集めることができ、より深い没入感をユーザに与えることに寄与する。   As one aspect of the fourth embodiment, by displaying an enlarged image of an object with overlapping visual axes in a sub-window, information that could not be displayed conventionally can be given to the user, improving user convenience. be able to. Moreover, interest in objects in the virtual space can be collected, which contributes to giving a deeper immersive feeling to the user.

第四の実施の形態において、「頭部に装着」、「表示装置」、「向き」、「仮想空間」、「第一画像」、及び「視軸」とは、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。   In the fourth embodiment, “mounted on the head”, “display device”, “orientation”, “virtual space”, “first image”, and “visual axis” are respectively the first embodiment. The contents described in can be adopted within a necessary range.

第四の実施の形態において、「拡大」とは、例えば、撮像されたオブジェクトを表す画素数と同じ又はより多くの画素数により、該オブジェクトの一部の画像を表示することをいう。   In the fourth embodiment, “enlargement” means, for example, displaying an image of a part of the object with the same or a larger number of pixels as the number of pixels representing the imaged object.

[付記]
上で述べた実施の形態の説明は、下記の発明を、発明の属する分野における通常の知識を有する者がその実施をすることができるように記載した。
[Appendix]
The above description of the embodiments described the following invention so that a person having ordinary knowledge in the field to which the invention belongs can carry out the invention.

[1] ユーザの頭部に装着することで利用される表示装置を備える表示システムであって、
表示装置の向きを特定する向き特定手段と、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示する第一表示手段と、
特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示する第二表示手段と
を備える表示システム。
[1] A display system including a display device used by being worn on a user's head,
Orientation specifying means for specifying the orientation of the display device;
First display means for displaying a first image indicating the state of the virtual space on the display screen of the display device according to the specified orientation;
A second image different from the first image is displayed on the display area generated by overlapping the first image when the visual axis corresponding to the specified orientation overlaps with a predetermined object in the virtual space. A display system comprising two display means.

[2] 前記視軸が仮想空間内の所定のオブジェクトと重なった状態が、所定の時間継続した場合に、前記第二表示手段が表示領域上に第二画像を表示する、[1]に記載の表示システム。 [2] The method according to [1], wherein the second display unit displays a second image on a display area when the state where the visual axis overlaps with a predetermined object in the virtual space continues for a predetermined time. Display system.

[3] 前記視軸が仮想空間内の第1オブジェクトと重なった状態が、所定の時間継続することで、第二表示手段が表示領域上に第1オブジェクトに対応する第二画像を表示した後に、
前記視軸が仮想空間内の第2オブジェクトと重なった状態が、所定の時間継続した場合に、第二表示手段が表示領域上に第1オブジェクトに対応する第二画像に代えて、該第2オブジェクトに対応する第二画像を表示する、[2]に記載の表示システム。
[3] After the state where the visual axis overlaps the first object in the virtual space continues for a predetermined time, the second display means displays the second image corresponding to the first object on the display area. ,
When the state in which the visual axis overlaps with the second object in the virtual space continues for a predetermined time, the second display means replaces the second image corresponding to the first object on the display area by replacing the second image. The display system according to [2], wherein a second image corresponding to the object is displayed.

[4] 第二画像が、前記所定のオブジェクトに関する画像である、[1]〜[3]のいずれかに記載の表示システム。 [4] The display system according to any one of [1] to [3], wherein the second image is an image related to the predetermined object.

[5] 第二画像が、所定のオブジェクトを拡大した画像である、[4]に記載の表示システム。 [5] The display system according to [4], wherein the second image is an enlarged image of a predetermined object.

[6] ユーザの頭部に装着することで利用される表示装置を備える表示システムにおいて実行される表示方法であって、
表示装置の向きを特定することと、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示することと、
特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することと
を実行する表示方法。
[6] A display method executed in a display system including a display device used by being worn on a user's head,
Identifying the orientation of the display device;
Displaying a first image indicating the state of the virtual space on the display screen of the display device according to the specified orientation;
When the visual axis corresponding to the specified orientation overlaps with a predetermined object in the virtual space, a second image different from the first image is displayed on the display area generated by being superimposed on the first image. And display method to execute.

1 表示システム
11 制御部
12 RAM
13 ストレージ部
14 撮像部
15 グラフィックス処理部
16 表示部
17 表示画面
18 センサ部
18a センサ
18b 赤外線センサ
18c ジャイロセンサ
18d 加速度センサ
19 通信インタフェース
20 インタフェース部
21 レンズ
201 ディスプレイ装置
202 照射装置
203 コンピュータ装置
204 コントローラ
251 ディスプレイ装置
252 撮影装置
253 コンピュータ装置
254 コントローラ
31 制御部
32 RAM
33 ストレージ部
34 サウンド処理部
35 グラフィックス処理部
36 CD−ROMドライブ
37 通信インタフェース
38 インタフェース部
39 フレームメモリ
40 サウンド出力装置
41 ディスク
5 通信回線
1 Display System 11 Control Unit 12 RAM
DESCRIPTION OF SYMBOLS 13 Storage part 14 Imaging part 15 Graphics processing part 16 Display part 17 Display screen 18 Sensor part 18a Sensor 18b Infrared sensor 18c Gyro sensor 18d Acceleration sensor 19 Communication interface 20 Interface part 21 Lens 201 Display apparatus 202 Irradiation apparatus 203 Computer apparatus 204 Controller 251 Display device 252 Imaging device 253 Computer device 254 Controller 31 Control unit 32 RAM
33 Storage Unit 34 Sound Processing Unit 35 Graphics Processing Unit 36 CD-ROM Drive 37 Communication Interface 38 Interface Unit 39 Frame Memory 40 Sound Output Device 41 Disc 5 Communication Line

Claims (6)

ユーザの頭部に装着することで利用される表示装置を備える表示システムであって、
表示装置の向きを特定する向き特定手段と、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示する第一表示手段と、
特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示する第二表示手段と
を備え
前記表示領域は、向き特定手段により特定された向きに応じて、前記表示画面において表示される位置が変化しない、表示システム。
A display system including a display device used by being worn on a user's head,
Orientation specifying means for specifying the orientation of the display device;
First display means for displaying a first image indicating the state of the virtual space on the display screen of the display device according to the specified orientation;
A second image different from the first image is displayed on the display area generated by overlapping the first image when the visual axis corresponding to the specified orientation overlaps with a predetermined object in the virtual space. Two display means ,
The display system is a display system in which a position displayed on the display screen does not change in accordance with the orientation specified by the orientation specifying means .
前記視軸が仮想空間内の所定のオブジェクトと重なった状態が、所定の時間継続した場合に、前記第二表示手段が表示領域上に第二画像を表示する、請求項1に記載の表示システム。 2. The display system according to claim 1, wherein the second display unit displays a second image on a display area when a state where the visual axis overlaps with a predetermined object in a virtual space continues for a predetermined time. . 前記視軸が仮想空間内の第1オブジェクトと重なった状態が、所定の時間継続することで、第二表示手段が表示領域上に第1オブジェクトに対応する第二画像を表示した後に、
前記視軸が仮想空間内の第2オブジェクトと重なった状態が、所定の時間継続した場合に、第二表示手段が表示領域上に第1オブジェクトに対応する第二画像に代えて、該第2オブジェクトに対応する第二画像を表示する、請求項2に記載の表示システム。
The state in which the visual axis overlaps with the first object in the virtual space continues for a predetermined time, so that the second display unit displays the second image corresponding to the first object on the display area.
When the state in which the visual axis overlaps with the second object in the virtual space continues for a predetermined time, the second display means replaces the second image corresponding to the first object on the display area by replacing the second image. The display system according to claim 2, wherein a second image corresponding to the object is displayed.
第二画像が、前記所定のオブジェクトに関する画像である、請求項1〜3のいずれかに記載の表示システム。 The display system according to claim 1, wherein the second image is an image related to the predetermined object. 第二画像が、所定のオブジェクトを拡大した画像である、請求項4に記載の表示システム。 The display system according to claim 4, wherein the second image is an enlarged image of a predetermined object. ユーザの頭部に装着することで利用される表示装置を備える表示システムにおいて実行される表示方法であって、
表示装置の向きを特定することと、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示することと、
特定された向きに対応する視軸が、仮想空間内の所定のオブジェクトと重なる場合に、第一画像に重ねて生成された表示領域上に、第一画像とは異なる第二画像を表示することと
を実行し、
前記表示領域は、特定された表示装置の向きに応じて、前記表示画面において表示される位置が変化しない、表示方法。
A display method executed in a display system including a display device used by being worn on a user's head,
Identifying the orientation of the display device;
Displaying a first image indicating the state of the virtual space on the display screen of the display device according to the specified orientation;
When the visual axis corresponding to the specified orientation overlaps with a predetermined object in the virtual space, a second image different from the first image is displayed on the display area generated by being superimposed on the first image. run the door,
The display method, wherein the display area does not change a position displayed on the display screen in accordance with the orientation of the specified display device .
JP2017234716A 2017-12-06 2017-12-06 Display system and display method Active JP6496391B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017234716A JP6496391B1 (en) 2017-12-06 2017-12-06 Display system and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017234716A JP6496391B1 (en) 2017-12-06 2017-12-06 Display system and display method

Publications (2)

Publication Number Publication Date
JP6496391B1 true JP6496391B1 (en) 2019-04-03
JP2019101943A JP2019101943A (en) 2019-06-24

Family

ID=65999259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017234716A Active JP6496391B1 (en) 2017-12-06 2017-12-06 Display system and display method

Country Status (1)

Country Link
JP (1) JP6496391B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7346066B2 (en) * 2019-04-19 2023-09-19 キヤノンメディカルシステムズ株式会社 Medical information processing device and medical information processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038008A (en) * 2003-07-15 2005-02-10 Canon Inc Image processing method and image processing apparatus
JP2011024787A (en) * 2009-07-27 2011-02-10 Konami Digital Entertainment Co Ltd Display device, display method, and program
WO2012001755A1 (en) * 2010-07-02 2012-01-05 株式会社ソニー・コンピュータエンタテインメント Information processing system, information processing device, and information processing method
JP6511386B2 (en) * 2015-11-20 2019-05-15 株式会社ソニー・インタラクティブエンタテインメント INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD

Also Published As

Publication number Publication date
JP2019101943A (en) 2019-06-24

Similar Documents

Publication Publication Date Title
JP6401841B1 (en) Information processing method, computer, and program
WO2018016553A1 (en) Method for providing virtual space, method for providing virtual experience, program, and recording medium
JP2011128220A (en) Information presenting device, information presenting method, and program
JP6399692B2 (en) Head mounted display, image display method and program
JP6200023B1 (en) Simulation control apparatus and simulation control program
CN116740312A (en) Information processing apparatus and user guide presenting method
US10488949B2 (en) Visual-field information collection method and system for executing the visual-field information collection method
JP2017182218A (en) Simulation controller and simulation control program
JP6535699B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP6522092B1 (en) Display system and display method
JP6496391B1 (en) Display system and display method
KR102337907B1 (en) Augmented reality smart glass device
JP6738308B2 (en) Information processing method, program, virtual space distribution system and device
JP6670965B2 (en) Display system and display method
JP6467039B2 (en) Information processing device
JP7073228B2 (en) Information processing methods, computers, and programs
JP7616216B2 (en) Information processing device, information processing method, and program
JP6853638B2 (en) Display system, display method, and computer equipment
JP2019192250A (en) Information processing method, apparatus, and program causing computer to execute the method
JP6403843B1 (en) Information processing method, information processing program, and information processing apparatus
JP2020057399A (en) Simulation control device and simulation control program
KR102339044B1 (en) Method and device for controlling emergency situation
KR102337908B1 (en) Method and device for assisting work
JP2019021331A (en) Information processing method, information processing program, and information processing apparatus
JP6941130B2 (en) Information processing method, information processing program and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190308

R150 Certificate of patent or registration of utility model

Ref document number: 6496391

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250