[go: up one dir, main page]

JP2017058794A - Information processing apparatus, display control method, and display control program - Google Patents

Information processing apparatus, display control method, and display control program Download PDF

Info

Publication number
JP2017058794A
JP2017058794A JP2015181212A JP2015181212A JP2017058794A JP 2017058794 A JP2017058794 A JP 2017058794A JP 2015181212 A JP2015181212 A JP 2015181212A JP 2015181212 A JP2015181212 A JP 2015181212A JP 2017058794 A JP2017058794 A JP 2017058794A
Authority
JP
Japan
Prior art keywords
information
screen
display device
points
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015181212A
Other languages
Japanese (ja)
Other versions
JP6592313B2 (en
Inventor
良太 坂本
Ryota Sakamoto
良太 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Holdings Co Ltd
Original Assignee
Koei Tecmo Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Holdings Co Ltd filed Critical Koei Tecmo Holdings Co Ltd
Priority to JP2015181212A priority Critical patent/JP6592313B2/en
Publication of JP2017058794A publication Critical patent/JP2017058794A/en
Application granted granted Critical
Publication of JP6592313B2 publication Critical patent/JP6592313B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】視点位置調整時の負担を軽減させる。
【解決手段】装着型の情報表示装置に表示された画面を制御する情報処理装置において、前記情報表示装置を装着したユーザの視点から前記画面に対する複数の点又は領域を設定する設定手段と、前記設定手段により設定された前記複数の点又は領域を記憶する記憶手段と、前記ユーザが前記情報表示装置を装着した際、前記記憶手段に記憶された前記複数の点又は領域を用いて、前記情報表示装置の装着状態の調整を行う調整手段とを有することにより、上記課題を解決する。
【選択図】図1
[PROBLEMS] To reduce the burden when adjusting the viewpoint position.
In an information processing apparatus for controlling a screen displayed on a wearable information display device, setting means for setting a plurality of points or areas on the screen from the viewpoint of a user wearing the information display device; Storage means for storing the plurality of points or areas set by the setting means, and when the user wears the information display device, the information using the plurality of points or areas stored in the storage means The above-described problem is solved by including an adjusting unit that adjusts the mounting state of the display device.
[Selection] Figure 1

Description

本発明は、情報処理装置、表示制御方法、及び表示制御プログラムに関する。   The present invention relates to an information processing apparatus, a display control method, and a display control program.

従来では、HMD(Head Mounted Display)やFMD(Face Mounted Display)等の装着型の情報表示装置が普及し始めている。このような情報表示装置を装着することで、拡大光学系により視界全体に画像や映像を表示したり、VR(Virtual Reality、仮想現実)技術により、仮想空間上にいるような視界を提供することができる。   Conventionally, wearable information display devices such as HMD (Head Mounted Display) and FMD (Face Mounted Display) have begun to spread. By mounting such an information display device, an image or video can be displayed over the entire field of view by using an enlargement optical system, or a field of view that is in a virtual space can be provided by using VR (Virtual Reality) technology. Can do.

また、近年では、上述した情報表示装置を、ゲーム機器等にも装備し、仮想空間上でのゲームに参加しているような感覚をユーザに与えることで、ゲームへの没入感や娯楽性を向上させる試みが検討されている。   In recent years, the above-described information display device is also installed in game machines and the like to give the user a sense of participating in a game in a virtual space, thereby providing a sense of immersion and entertainment in the game. Attempts to improve are under consideration.

ここで、上述した情報表示装置は、視線入力により操作を行うことができる。例えば、操作内容に対応するマーカー(ポインタ)が表示され、マーカーに対するユーザの一定時間以上の注視が検出された場合に、マーカーに対応する操作が実行される(例えば、特許文献1参照)。また、このような情報表示装置では、目の位置と、映像を拡大して映すための拡大光学系(例えばレンズ)との位置調整が必要になり、マーカー等を注視させることで、位置調整等を行っている。   Here, the information display device described above can be operated by line-of-sight input. For example, when a marker (pointer) corresponding to the operation content is displayed and a gaze of the user for a certain time or more is detected with respect to the marker, an operation corresponding to the marker is executed (for example, see Patent Document 1). Further, in such an information display device, it is necessary to adjust the position of the eye and the magnification optical system (for example, a lens) for enlarging and projecting an image. It is carried out.

特開2012−216123号公報JP 2012-216123 A

しかしながら、情報表示装置の被り方が浅かったり、深かったりして正しく装着できていないと、レンズの光軸と眼球レンズの光軸がずれ、画面に表示される映像がぼけてしまう。また、装着時の位置調整が適切に行われていないと、使用中に複数回の調整が必要になるため、設定の手間がかかってしまい情報表示装置から提供される映像(例えば、仮想空間)等に没入することができないといった問題が生じる。   However, if the information display device is not properly worn due to being shallow or deep, the optical axis of the lens and the optical axis of the eyeball lens are shifted, and the image displayed on the screen is blurred. In addition, if the position adjustment at the time of wearing is not properly performed, it is necessary to make a plurality of adjustments during use, so it takes time for setting and an image provided from the information display device (for example, a virtual space) The problem that it is not possible to immerse in, etc. arises.

本発明は、上述した課題に鑑みてなされたものであって、視点位置調整時の負担を軽減させることを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to reduce the burden at the time of adjusting the viewpoint position.

本発明の一つの態様として、情報処理装置は、装着型の情報表示装置に表示された画面を制御する情報処理装置において、前記情報表示装置を装着したユーザの視点から前記画面に対する複数の点又は領域を設定する設定手段と、前記設定手段により設定された前記複数の点又は領域を記憶する記憶手段と、前記ユーザが前記情報表示装置を装着した際、前記記憶手段に記憶された前記複数の点又は領域を用いて、前記情報表示装置の装着状態の調整を行う調整手段とを有する。   As one aspect of the present invention, an information processing apparatus controls a screen displayed on a wearable information display device, and a plurality of points on the screen from the viewpoint of a user wearing the information display device or Setting means for setting an area; storage means for storing the plurality of points or areas set by the setting means; and when the user wears the information display device, the plurality of information stored in the storage means Adjusting means for adjusting the mounting state of the information display device using points or regions.

本発明によれば、視点位置調整時の負担を軽減させることができる。   According to the present invention, it is possible to reduce the burden when adjusting the viewpoint position.

情報処理装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of information processing apparatus. 情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of information processing apparatus. 設定処理の一例を示すフローチャートである。It is a flowchart which shows an example of a setting process. 注視点、盲点の設定画面の一例を示す図である。It is a figure which shows an example of the setting screen of a gaze point and a blind spot. 設定処理により設定された視線情報の一例を示す図である。It is a figure which shows an example of the gaze information set by the setting process. オブジェクト表示制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of an object display control process. 調整画面の一例を示す図である。It is a figure which shows an example of an adjustment screen. オブジェクト表示制御例を説明するための図である。It is a figure for demonstrating the example of object display control.

以下、図面に基づいて実施形態を説明する。   Embodiments will be described below with reference to the drawings.

<情報処理装置の機能構成例>
図1は、情報処理装置の機能構成の一例を示す図である。図1に示す情報処理装置10は、通信手段11と、設定手段12と、記憶手段13と、調整手段14と、オブジェクト表示制御手段15と、画面生成手段16と、制御手段17とを有する。なお、情報処理装置10は、例えばゲーム機器やPC(Personal Computer)、タブレット端末等であるが、これに限定されるものではない。
<Functional configuration example of information processing apparatus>
FIG. 1 is a diagram illustrating an example of a functional configuration of the information processing apparatus. The information processing apparatus 10 illustrated in FIG. 1 includes a communication unit 11, a setting unit 12, a storage unit 13, an adjustment unit 14, an object display control unit 15, a screen generation unit 16, and a control unit 17. The information processing apparatus 10 is, for example, a game machine, a PC (Personal Computer), a tablet terminal, or the like, but is not limited thereto.

通信手段11は、外部装置と有線又は無線により接続され、データの送受信を行う。通信手段11には、図1に示すように、情報表示装置(情報表示手段)の一例としてのHMD21と、操作装置(操作手段)の一例としてのコントローラ22とが接続されている。   The communication unit 11 is connected to an external device by wire or wireless, and transmits and receives data. As shown in FIG. 1, an HMD 21 as an example of an information display device (information display unit) and a controller 22 as an example of an operation device (operation unit) are connected to the communication unit 11.

HMD21は、例えば、眼鏡やゴーグル、ヘルメットのように、ユーザの頭部に装着可能な形状をした表示装置(装着型の情報提示装置)である。頭部に装着すると左右の目のすぐ前に画面が一つずつセットされる。単に画像を表示するだけでなく、左右のディスプレイに少しずつ違った映像を表示することで立体感を表現することができる。また、HMD21は、装着者の頭の移動に応じて画面を変化させることで、仮想空間上の視界を提供することができる。   The HMD 21 is a display device (a wearable information presentation device) having a shape that can be worn on the user's head, such as glasses, goggles, and a helmet. When worn on the head, one screen is set in front of the left and right eyes. In addition to simply displaying images, it is possible to express a stereoscopic effect by displaying slightly different images on the left and right displays. The HMD 21 can provide a field of view in a virtual space by changing the screen according to the movement of the wearer's head.

また、HMD21は、単位時間毎に頭の位置、向き、加速度(速度も含む)に関する情報を検知し、その内容を情報処理装置10に送信してもよい。また、HMD21は、目の位置を検出する内向きのカメラ(撮像手段)等を設け、単位時間毎にユーザの目(黒目)の位置、方向から視点(注視点)を検出し、その内容を情報処理装置10に送信してもよい。   Further, the HMD 21 may detect information on the position, orientation, and acceleration (including speed) of the head every unit time and transmit the contents to the information processing apparatus 10. In addition, the HMD 21 is provided with an inward camera (imaging means) that detects the position of the eyes, detects the viewpoint (gaze point) from the position and direction of the user's eyes (black eyes) every unit time, and stores the contents. You may transmit to the information processing apparatus 10.

また、HMD21は、ユーザの発汗量を検知するセンサや体温を検知する体温センサ、心拍数を検知する心拍数検知センサを有していてもよく、これらの各センサから得られた情報のうち、少なくとも1つを情報処理装置10に送信してもよい。   The HMD 21 may include a sensor for detecting the amount of sweat of the user, a body temperature sensor for detecting body temperature, and a heart rate detection sensor for detecting heart rate. Among the information obtained from these sensors, At least one may be transmitted to the information processing apparatus 10.

コントローラ22は、HMD21に表示する映像の設定や、本実施形態における表示制御処理における各種設定を行う。また、情報処理装置10がゲーム機器である場合には、コントローラ22は、ゲームの開始や終了、項目の選択、ゲーム実行時における動作制御等を行う。   The controller 22 performs setting of a video displayed on the HMD 21 and various settings in the display control process in the present embodiment. Further, when the information processing apparatus 10 is a game machine, the controller 22 performs game start and end, item selection, operation control during game execution, and the like.

また、通信手段11は、例えば、インターネットやLAN(Local Area Network)等に代表される通信ネットワークにより接続される外部装置とデータの送受信が可能な状態で接続され、例えば外部装置からゲームプログラムをダウンロードしたり、本実施形態における表示制御プログラムに関する各種データを受信したり、送信したりすることができる。   The communication means 11 is connected to an external device connected by a communication network represented by the Internet or a LAN (Local Area Network), for example, in a state where data can be transmitted and received, and a game program is downloaded from the external device, for example. And various types of data related to the display control program in the present embodiment can be received and transmitted.

設定手段12は、HMD21を使用するユーザを識別するためのユーザ情報(例えば、ユーザID、パスワード)等を設定する。また、設定手段12は、HMD21の装着状態等の設定を行う。例えば、設定手段12は、HMD21を装着したユーザの視点検出を行い、検出した視点の情報からHMD21の画面に対する複数の点又は領域を設定する。例えば、設定手段12は、検出した視点位置から1又は複数の注視点の位置(又は範囲(領域)でもよい)を設定する。また、設定手段12は、ユーザの視点位置から、例えば1又は複数の盲点の位置(又は範囲(領域)でもよい)を設定する。なお、設定手段12は、上述した注視点及び盲点の何れか一方を設定してもよく、両方を設定してもよい。例えば盲点の設定では、例えば注視点を画面の中心としたときの盲点位置又は範囲を設定することができるが、これに限定されるものではない。例えば、画面の角を注視したときの盲点位置又は範囲を設定してもよい。   The setting unit 12 sets user information (for example, a user ID and a password) for identifying a user who uses the HMD 21. In addition, the setting unit 12 sets the mounting state of the HMD 21 and the like. For example, the setting unit 12 detects the viewpoint of the user wearing the HMD 21 and sets a plurality of points or areas for the screen of the HMD 21 from the detected viewpoint information. For example, the setting unit 12 sets the position (or range (area)) of one or more gazing points from the detected viewpoint position. Further, the setting means 12 sets, for example, the position (or range (area)) of one or more blind spots from the viewpoint position of the user. Note that the setting unit 12 may set one of the above-described gazing point and blind spot, or may set both. For example, in the setting of the blind spot, for example, the blind spot position or range when the gazing point is the center of the screen can be set, but the present invention is not limited to this. For example, the blind spot position or range when the corner of the screen is watched may be set.

また、設定手段12は、調整手段14により注視点、盲点の一方又は両方の設定を行うか否かの設定、調整手段14により調整された注視点、盲点に対してどのような表示制御を行うか等を設定してもよい。なお、設定内容については、これに限定されるものではない。   The setting unit 12 sets whether or not one or both of the gazing point and the blind spot is set by the adjusting unit 14 and what display control is performed on the gazing point and the blind spot adjusted by the adjusting unit 14. It may be set. The setting contents are not limited to this.

なお、設定手段12は、上述した複数の点又は領域の設定を、例えばゲームを開始する前に実行してもよく、ゲーム実行中に実行してもよい。例えば、ユーザの表示制御設定として、ゲーム開始前に、コンフィグ画面で設定させてもよく、ゲーム中にボタンを押させることで、動的に変更させてもよい。各種設定情報は、記憶手段13に記憶される。   Note that the setting means 12 may execute the above-described setting of the plurality of points or regions before starting the game, for example, or during the game execution. For example, the display control setting of the user may be set on the configuration screen before the game starts, or may be dynamically changed by pressing a button during the game. Various setting information is stored in the storage means 13.

記憶手段13は、本実施形態における表示制御処理に必要な各種データを記憶する。例えば記憶手段13は、ユーザ情報、設定手段12により設定された各種設定情報や、HMD21から取得したユーザの視点に関する情報、注視点、盲点領域、ユーザが実行する各種ゲーム内容等を記憶するが、記憶する内容については、これに限定されるものではない。   The storage unit 13 stores various data necessary for display control processing in the present embodiment. For example, the storage unit 13 stores user information, various setting information set by the setting unit 12, information on the user's viewpoint acquired from the HMD 21, gaze point, blind spot region, various game contents executed by the user, and the like. The content to be stored is not limited to this.

調整手段14は、ユーザがHMD21を装着した際、記憶手段13に記憶された複数の点又は領域(例えば、注視点及び盲点)等の情報(視線情報)を用いて、HMD21の装着状態の調整(装着時の位置調整)を行う。このように、本実施形態では、複数の点又は領域を用いて、HMD21の装着状態の調整を行うことができるため、視点位置調整時の負担を軽減させることができる。なお、調整時に行う複数の点又は領域は、複数の注視点でもよく、複数の盲点でもよく、注視点及び盲点の組み合わせでもよい。   When the user wears the HMD 21, the adjusting unit 14 adjusts the wearing state of the HMD 21 using information (line-of-sight information) such as a plurality of points or areas (for example, a gazing point and a blind spot) stored in the storage unit 13. Perform (Position adjustment when wearing). Thus, in this embodiment, since the mounting state of the HMD 21 can be adjusted using a plurality of points or regions, the burden at the time of adjusting the viewpoint position can be reduced. Note that the plurality of points or regions to be performed at the time of adjustment may be a plurality of gazing points, a plurality of blind spots, or a combination of gazing points and blind spots.

また、調整時には、点だけを用いてもよく、領域のみを用いてもよく、点及び領域を組み合わせてもよい。例えば、調整手段14は、複数の点又は領域を設定するための設定支援情報として、マーカー等をHMD21の画面に表示させてもよい。ユーザは、そのマーカーを複数の点又は領域の範囲内に位置付けるようにHMD21の装着位置等を移動させることでHMD21を適切な状態で装着することができる。なお、マーカーとは、所定の形状、図、絵柄、模様等からなる点や領域であるが、これに限定されるものではない。   Further, at the time of adjustment, only points may be used, only regions may be used, or points and regions may be combined. For example, the adjusting unit 14 may display a marker or the like on the screen of the HMD 21 as setting support information for setting a plurality of points or regions. The user can mount the HMD 21 in an appropriate state by moving the mounting position of the HMD 21 so as to position the marker within a range of a plurality of points or regions. The marker is a point or region having a predetermined shape, figure, pattern, pattern or the like, but is not limited to this.

オブジェクト表示制御手段15は、調整手段14により調整された視線情報(注視点及び盲点)の情報を用いてオブジェクト等を表示させることができる。ここで、オブジェクトとは、例えば、キャラクタ、アバター、テーブル、扉、車両、武器等の各種物体、操作ボタン等のアイコン等であるが、これに限定されるものではなく、例えば時間表示や、地図表示領域、ステータス(例えば、操作対象キャラクタの攻撃力や体力等のキャラクタ情報)表示領域(サムネイル画像)等でもよい。   The object display control unit 15 can display an object or the like using the information of the line-of-sight information (gaze point and blind spot) adjusted by the adjustment unit 14. Here, the object is, for example, various objects such as characters, avatars, tables, doors, vehicles, weapons, icons such as operation buttons, etc., but is not limited thereto, for example, time display, map, etc. It may be a display area, a status (for example, character information such as the attack power or physical strength of the operation target character), a display area (thumbnail image), or the like.

また、オブジェクト表示制御手段15は、調整手段14により得られる盲点位置を用いてHMD21の装着時に、標準位置の調整の指標にする。また、オブジェクト表示制御手段15は、重要なユーザインターフェースが盲点付近にかぶらないように制御してもよく、また盲点付近の描画を簡素化してもよい。   The object display control means 15 uses the blind spot position obtained by the adjustment means 14 as an index for adjusting the standard position when the HMD 21 is mounted. Further, the object display control means 15 may control such that an important user interface is not fogged near the blind spot, and may simplify drawing near the blind spot.

画面生成手段16は、例えばHMD21に表示する内容を生成する。例えば、画面生成手段16は、ユーザが実行指示したゲームの内容を表示する画面を生成する。また、画面生成手段16は、オブジェクト表示制御手段15により制御された動きの変化量が制限された映像等を生成する。生成した画面の内容は、通信手段11を介してHMD21に送信され、HMD21の画面に表示される。   The screen generation unit 16 generates content to be displayed on the HMD 21, for example. For example, the screen generation means 16 generates a screen that displays the contents of the game that the user has instructed to execute. Further, the screen generation unit 16 generates a video or the like in which the amount of change in movement controlled by the object display control unit 15 is limited. The contents of the generated screen are transmitted to the HMD 21 via the communication unit 11 and displayed on the screen of the HMD 21.

制御手段17は、情報処理装置10の各構成全体を制御する。制御手段17は、例えば通信手段11による各種装置とのデータの送受信、設定手段12による各種設定、調整手段14によるHMD21の装着状態の調整、オブジェクト表示制御手段15による表示制御、画面生成手段16による画面生成等を制御するが、制御内容については、これに限定されるものではない。   The control unit 17 controls the entire configuration of the information processing apparatus 10. For example, the control unit 17 transmits / receives data to / from various devices by the communication unit 11, various settings by the setting unit 12, adjustment of the mounting state of the HMD 21 by the adjustment unit 14, display control by the object display control unit 15, and screen generation unit 16. Although screen generation and the like are controlled, the contents of control are not limited to this.

例えば、制御手段17は、ゲーム処理の実行の開始や終了を制御したり、エラー発生時の処理等を制御する。また、制御手段17は、ユーザ毎にログイン認証時の処理を行い、認証成功時に、ユーザに対応するゲームの実行や表示制御処理等を行ってもよい。   For example, the control means 17 controls the start and end of the execution of the game process, and controls the process when an error occurs. The control unit 17 may perform a process for login authentication for each user, and may execute a game corresponding to the user, a display control process, or the like when the authentication is successful.

なお、上述の例では、HMD21と、情報処理装置10とが別体として構成されているが、本実施形態においては、これに限定されるものではなく、一体に構成されていてもよい。その場合、HMD21が、情報処理装置10に相当する。また、本実施形態では、コントローラ22を設けない構成であってもよい。   In the above example, the HMD 21 and the information processing apparatus 10 are configured as separate bodies. However, in the present embodiment, the configuration is not limited to this, and may be configured integrally. In that case, the HMD 21 corresponds to the information processing apparatus 10. In this embodiment, the controller 22 may not be provided.

<情報処理装置10のハードウェア構成例>
次に、情報処理装置10のハードウェア構成例について、図を用いて説明する。図2は、情報処理装置のハードウェア構成の一例を示す図である。図2の例において、情報処理装置(コンピュータ)10は、入力装置31と、出力装置32と、ドライブ装置33と、補助記憶装置34と、主記憶装置35と、CPU(Central Processing Unit)36と、通信制御装置37とを有し、これらはシステムバスBで相互に接続されている。
<Hardware Configuration Example of Information Processing Apparatus 10>
Next, a hardware configuration example of the information processing apparatus 10 will be described with reference to the drawings. FIG. 2 is a diagram illustrating an example of a hardware configuration of the information processing apparatus. In the example of FIG. 2, the information processing device (computer) 10 includes an input device 31, an output device 32, a drive device 33, an auxiliary storage device 34, a main storage device 35, and a CPU (Central Processing Unit) 36. And a communication control device 37, which are connected to each other via a system bus B.

入力装置31は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスや、マイクロフォン等の音声入力デバイスを有しており、ユーザ等からのプログラムの実行指示、各種操作情報、ソフトウェア等を起動するための情報等の入力を受け付ける。入力装置31は、上述したコントローラ22等の操作デバイスでもよい。   The input device 31 includes a pointing device such as a keyboard and a mouse operated by a user, and a voice input device such as a microphone. The input device 31 activates a program execution instruction, various operation information, software, and the like from the user. The input of the information etc. is received. The input device 31 may be an operation device such as the controller 22 described above.

出力装置32は、本実施形態における処理を行うためのコンピュータ本体(情報処理装置10)を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイ等を有する。出力装置32は、CPU36が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。出力装置32は、上述したHMD21等の情報表示装置でもよい。   The output device 32 includes a display that displays various windows, data, and the like necessary for operating the computer main body (the information processing device 10) for performing processing in the present embodiment. The output device 32 can display program execution progress, results, and the like by a control program of the CPU 36. The output device 32 may be an information display device such as the HMD 21 described above.

ここで、本実施形態において、例えばコンピュータ本体にインストールされる実行プログラムは、記録媒体38等により提供される。記録媒体38は、ドライブ装置33にセット可能である。CPU36からの制御信号に基づき、記録媒体38に格納された実行プログラムが、記録媒体38からドライブ装置33を介して補助記憶装置34にインストールされる。   Here, in the present embodiment, for example, an execution program installed in the computer main body is provided by the recording medium 38 or the like. The recording medium 38 can be set in the drive device 33. Based on the control signal from the CPU 36, the execution program stored in the recording medium 38 is installed from the recording medium 38 into the auxiliary storage device 34 via the drive device 33.

補助記憶装置34は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等のストレージ手段等である。補助記憶装置34は、CPU36からの制御信号に基づき、本実施形態における実行プログラム(表示制御プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置34は、CPU36からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。   The auxiliary storage device 34 is a storage unit such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive). The auxiliary storage device 34 stores an execution program (display control program) in the present embodiment, a control program provided in a computer, and the like based on a control signal from the CPU 36, and performs input / output as necessary. The auxiliary storage device 34 can read and write necessary information from each stored information based on a control signal from the CPU 36.

主記憶装置35は、CPU36により補助記憶装置34から読み出された実行プログラム等を格納する。主記憶装置35は、ROM(Read Only Memory)やRAM(Random Access Memory)等である。   The main storage device 35 stores an execution program read from the auxiliary storage device 34 by the CPU 36. The main storage device 35 is a ROM (Read Only Memory), a RAM (Random Access Memory) or the like.

CPU36は、OS(Operating System)等の制御プログラム、及び主記憶装置35に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現する。プログラムの実行中に必要な各種情報等は、補助記憶装置34から取得することができ、また実行結果等を格納することもできる。   The CPU 36 performs processing of the entire computer, such as various operations and input / output of data with each hardware component, based on a control program such as an OS (Operating System) and an execution program stored in the main storage device 35. Control each process. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 34, and the execution result and the like can also be stored.

具体的には、CPU36は、例えば入力装置31から得られるプログラムの実行指示等に基づき、補助記憶装置34にインストールされたプログラムを実行させることにより、主記憶装置35上でプログラムに対応する処理を行う。例えば、CPU36は、表示制御プログラムを実行させることで、通信手段11による各種装置とのデータの送受信、設定手段12による各種設定、調整手段14によるHMD21の装着状態の調整、オブジェクト表示制御手段15による表示制御、画面生成手段16による画面生成等の処理を行う。CPU36における処理内容は、これに限定されるものではない。CPU36により実行された内容は、必要に応じて補助記憶装置34等に記憶される。   Specifically, the CPU 36 executes processing corresponding to the program on the main storage device 35 by executing the program installed in the auxiliary storage device 34 based on, for example, an instruction to execute the program obtained from the input device 31. Do. For example, by executing a display control program, the CPU 36 transmits / receives data to / from various devices by the communication unit 11, various settings by the setting unit 12, adjustment of the mounting state of the HMD 21 by the adjustment unit 14, and by the object display control unit 15. Processing such as display control and screen generation by the screen generation means 16 is performed. The processing content in the CPU 36 is not limited to this. The contents executed by the CPU 36 are stored in the auxiliary storage device 34 or the like as necessary.

通信制御装置37は、上述した通信ネットワークを介して、他の外部装置との通信を行う。通信制御装置37は、CPU36からの制御信号に基づき、通信ネットワーク等と接続することにより、実行プログラムやソフトウェア、設定情報等を外部装置等から取得する。また、通信制御装置37は、プログラムを実行することで得られた実行結果を外部装置等に提供したり、本実施形態における実行プログラム自体を外部装置等に提供してもよい。   The communication control device 37 communicates with other external devices via the communication network described above. The communication control device 37 acquires an execution program, software, setting information, and the like from an external device or the like by connecting to a communication network or the like based on a control signal from the CPU 36. The communication control device 37 may provide an execution result obtained by executing the program to an external device or the like, or may provide the execution program itself in the present embodiment to the external device or the like.

記録媒体38は、上述したように実行プログラム等が格納されたコンピュータで読み取り可能な記録媒体である。記録媒体38は、例えばフラッシュメモリ等の半導体メモリやCD−ROM、DVD等の可搬型の記録媒体であるが、これに限定されるものではない。   The recording medium 38 is a computer-readable recording medium that stores an execution program and the like as described above. The recording medium 38 is, for example, a semiconductor memory such as a flash memory, or a portable recording medium such as a CD-ROM or DVD, but is not limited thereto.

図2に示すハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における各種ゲーム処理、表示制御処理等を実現することができる。また、記録媒体38にインストールされているゲームプログラムを実行させることで、HMD21にゲーム画面を表示させて、ユーザの操作によりゲームを実行することができる。   By installing an execution program (for example, a display control program) in the hardware configuration shown in FIG. 2, hardware resources and software cooperate to realize various game processes, display control processes, and the like in this embodiment. be able to. Further, by executing the game program installed in the recording medium 38, the game screen can be displayed on the HMD 21, and the game can be executed by the user's operation.

<本実施形態における表示制御処理>
次に、本実施形態における表示制御処理について説明する。なお、本実施形態における表示制御処理は、ユーザの視点情報から画面に対する複数の点又は領域を設定する「設定処理」と、設定処理で設定された複数の点又は領域の位置情報を利用した「オブジェクト表示制御処理」について、それぞれフローチャートを用いて説明する。また、以下の説明では、上述した複数の点又は領域の一例として、注視点(注視範囲)及び盲点(盲点範囲)を設定する場合を示すが、本実施形態においては、これに限定されるものではなく、複数の注視点を用いてもよく、また複数の盲点を用いてもよい。
<Display control processing in this embodiment>
Next, the display control process in this embodiment will be described. Note that the display control process in the present embodiment uses a “setting process” that sets a plurality of points or areas on the screen from the user's viewpoint information, and a “point process” that uses position information of a plurality of points or areas set in the setting process. The “object display control process” will be described using flowcharts. Further, in the following description, a case where a gaze point (gaze range) and a blind spot (blind spot range) are set as an example of the plurality of points or areas described above is shown, but in the present embodiment, the present invention is limited to this. Instead, a plurality of gazing points may be used, or a plurality of blind spots may be used.

<設定処理>
図3は、設定処理の一例を示すフローチャートである。図3の例において、情報処理装置10の設定手段12は、ユーザ情報を設定する(S01)。ユーザ情報は、例えばユーザID、パスワード等の情報であるが、これに限定されるものではない。
<Setting process>
FIG. 3 is a flowchart illustrating an example of the setting process. In the example of FIG. 3, the setting unit 12 of the information processing apparatus 10 sets user information (S01). Although user information is information, such as a user ID and a password, for example, it is not limited to this.

次に、設定手段12は、HMD21を装着したユーザの視点検出結果から、画面に対する注視点の位置、範囲を設定する(S02)。注視点の設定は、例えば、HMD21の画面上に表示される設定支援情報等に基づいて、画面に表示されるマーカー等にユーザが視点を合わせることで、注視点座標を取得することができる。ユーザが調整することで、注視点の座標位置又は領域を指定することができる。   Next, the setting unit 12 sets the position and range of the gazing point on the screen from the viewpoint detection result of the user wearing the HMD 21 (S02). For the setting of the gazing point, for example, the user can acquire the gazing point coordinates by aligning the viewpoint with a marker or the like displayed on the screen based on setting support information or the like displayed on the screen of the HMD 21. The user can specify the coordinate position or area of the point of gaze by adjusting.

次に、設定手段12は、盲点の位置、範囲を設定する(S03)。盲点の設定は、例えば、HMD21の画面上に表示される設定支援情報等に基づいて、画面に表示されるマーカー等が、見えなくなるようにユーザが視点を合わせることで、盲点座標を取得することができる。なお、本実施形態では、上述した注視点や盲点の設定を複数回行うことで、注視点や盲点の適切な位置や範囲を設定してもよい。次に、設定手段12は、記憶手段13等に上述した設定情報を登録する(S04)。   Next, the setting means 12 sets the position and range of the blind spot (S03). The setting of the blind spot is, for example, based on the setting support information displayed on the screen of the HMD 21 and the user acquiring the blind spot coordinates by adjusting the viewpoint so that the marker displayed on the screen is not visible. Can do. In the present embodiment, an appropriate position or range of the gazing point or blind spot may be set by setting the gazing point or blind spot described above a plurality of times. Next, the setting unit 12 registers the setting information described above in the storage unit 13 or the like (S04).

<注視点、盲点の設定支援画面例>
ここで、図4は、注視点、盲点の設定画面の一例を示す図である。図4(A)は、注視点の位置又は範囲の設定画面の一例を示し、図4(B)は、盲点の位置又は範囲の設定画面の一例を示している。
<Example of support screen for setting gaze points and blind spots>
Here, FIG. 4 is a diagram illustrating an example of a setting screen for a gazing point and a blind spot. 4A shows an example of a setting screen for the position or range of a gazing point, and FIG. 4B shows an example of a setting screen for the position or range of a blind spot.

注視点の位置を設定する場合、図4(A)に示すように、ユーザ40は、HMD21を装着した状態で、HMD21の画面50Aに、注視点の設定を行うためのメッセージ51Aと、マーカー52Aとが表示される。上述したメッセージ51及びマーカー52は、設定支援情報の一例である。マーカー52Aの形状については、図4(A)の例に限定されるものではなく、例えば丸印(黒丸、赤丸等)や星印等でもよい。ユーザ40は、マーカー52Aを注視することで、設定手段12は、HMD21によりユーザ40の目の位置、向き等から注視点の位置や範囲を検出する。   When setting the position of the gazing point, as shown in FIG. 4A, the user 40, with the HMD 21 attached, has a message 51A for setting the gazing point on the screen 50A of the HMD 21, and a marker 52A. Is displayed. The message 51 and the marker 52 described above are examples of setting support information. The shape of the marker 52A is not limited to the example shown in FIG. 4A, and may be a circle (black circle, red circle, etc.) or a star, for example. The user 40 gazes at the marker 52 </ b> A, so that the setting unit 12 detects the position and range of the gazing point from the position, orientation, and the like of the user 40 with the HMD 21.

なお、注視点や盲点の検出は、マーカー52A、52Bの位置調整を右目、左目で順番に行い、左右それぞれの目に対する注視点又は盲点の情報を検出してもよい。設定手段12は、検出した注視点及び盲点の位置や範囲に関する情報を視線情報として、ユーザ情報と関連付けて記憶手段13に記憶する。   Note that the gaze point or blind spot may be detected by adjusting the positions of the markers 52A and 52B in order for the right eye and the left eye, and detecting gaze point or blind spot information for the left and right eyes. The setting unit 12 stores information on the detected position and range of the gazing point and blind spot as line-of-sight information in association with user information in the storage unit 13.

また、盲点の位置を設定する場合、図4(B)に示すように、ユーザ40は、HMD21を装着した状態で、HMD21の画面50Bに、盲点の設定を行うためのメッセージ51Bと、マーカー52Bとが表示される。マーカー52Bの形状については、図4(B)の例に限定されるものではないが、注視点のマーカー52Aと異なる形状、模様、図、絵柄又は色のマーカーにすることで、ユーザ40に、盲点の設定をしていることを認識させ易くさせることができる。   When setting the position of the blind spot, as shown in FIG. 4B, the user 40 wears the HMD 21 and the message 51B for setting the blind spot on the screen 50B of the HMD 21 and the marker 52B. Is displayed. The shape of the marker 52B is not limited to the example of FIG. 4B, but the user 40 can be changed to a marker having a shape, pattern, figure, pattern, or color different from that of the gazing point marker 52A. It can be made easy to recognize that a blind spot is set.

ユーザ40は、マーカー52Aが見えない位置に表示されるように、視点を移動して調整することで、HMD21は、ユーザ40の目の位置、向き等から盲点の位置や範囲を検出し、その検出した位置や範囲に関する情報を視線情報として記憶手段13情報を視線情報として記憶手段13に記憶する。   The user 40 moves and adjusts the viewpoint so that the marker 52A is displayed at a position where the marker 52A is not visible, so that the HMD 21 detects the position and range of the blind spot from the position and orientation of the user 40's eyes. Information on the detected position and range is stored as line-of-sight information in the storage unit 13 and information is stored in the storage unit 13 as line-of-sight information.

<視線情報>
ここで、上述した設定処理により設定された視線情報について、図を用いて説明する。図5は、設定処理により設定された視線情報の一例を示す図である。図5の例に示す視線情報の項目としては、「ユーザ」、「注視点座標」、「盲点位置(範囲)」等があるが、これに限定されるものではない。
<Gaze information>
Here, the line-of-sight information set by the setting process described above will be described with reference to the drawings. FIG. 5 is a diagram illustrating an example of line-of-sight information set by the setting process. Items of the line-of-sight information shown in the example of FIG. 5 include “user”, “gaze point coordinates”, “blind spot position (range)”, but are not limited thereto.

「ユーザ」は、各ユーザの識別するための情報である。ユーザ毎の注視点及び盲点の位置、範囲は異なる。またHMD21は、複数のユーザが使用する可能性がある。そこで、視線情報は、ユーザ毎に設定することが好ましい。   “User” is information for identifying each user. The position and range of the gazing point and the blind spot for each user are different. The HMD 21 may be used by a plurality of users. Therefore, it is preferable to set the line-of-sight information for each user.

「注視点座標」は、注視点の座標が設定される。注視点座標は、例えばHMD21の画面に表示された仮想空間(3次元空間)における注視範囲の中心位置情報(x,y,z)であるが、これに限定されるものではなく、2次元座標(x,y)でもよい。   In “gaze point coordinates”, the coordinates of the gaze point are set. The gaze point coordinates are, for example, center position information (x, y, z) of the gaze range in the virtual space (three-dimensional space) displayed on the screen of the HMD 21, but are not limited to this, and the two-dimensional coordinates (X, y) may also be used.

「盲点位置(範囲)」は、盲点の座標が設定される。なお、盲点は、画面の端部付近にできる可能性が高いため、所定の範囲の情報が設定されるが、これに限定されるものではなく、少なくとも1つの盲点位置座標であってもよい。また、盲点位置は、注視点座標と同様に3次元空間上の座標(x,y,z)でもよく、2次元座標(x,y)でもよい。   In the “blind spot position (range)”, the coordinates of the blind spot are set. Since there is a high possibility that a blind spot can be formed near the edge of the screen, information in a predetermined range is set. However, the present invention is not limited to this, and may be at least one blind spot position coordinate. Further, the blind spot position may be a coordinate (x, y, z) in a three-dimensional space, or may be a two-dimensional coordinate (x, y), similarly to the gaze point coordinate.

例えば、図5の例において、ユーザAは、注視点座標(xa1,ya1,za1)であり、盲点範囲は、座標(xa2−1,ya2−1,za2−1),(xa2−2,ya2−2,za2−2),(xa2−3,ya2−3,za2−3),(xa2−4,ya2−4,za2−4),(xa2−5,ya2−5,za2−5),(xa2−6,ya2−6,za2−6)を頂点とする立方体等が設定されているが、これに限定されるものではない。   For example, in the example of FIG. 5, the user A is the gaze point coordinates (xa1, ya1, za1), and the blind spot ranges are the coordinates (xa2-1, ya2-1, za2-1), (xa2-2, ya2). -2, za2-2), (xa2-3, ya2-3, za2-3), (xa2-4, ya2-4, za2-4), (xa2-5, ya2-5, za2-5), Although the cube etc. which set (xa2-6, ya2-6, za2-6) as a vertex are set, it is not limited to this.

<オブジェクト表示制御処理>
次に、本実施形態におけるオブジェクト表示制御処理について、フローチャートを用いて説明する。図6は、オブジェクト表示制御処理の一例を示すフローチャートである。図6の例において、情報処理装置10は、ユーザ等からの使用開始時指示を受け付ける(S11)。S11の処理において、情報処理装置10は、例えばユーザがHMD21を装着したことをHMD21が検知したり、コントローラ22を用いたユーザが使用開始指示を実行した場合等により、使用の開始の指示を受け付ける。また、使用開始指示とは、例えばユーザ認証処理によりユーザ名を受け付けたり、ゲーム等の実行指示等を受け付けてもよい。
<Object display control processing>
Next, the object display control process in the present embodiment will be described using a flowchart. FIG. 6 is a flowchart illustrating an example of the object display control process. In the example of FIG. 6, the information processing apparatus 10 accepts a use start instruction from a user or the like (S11). In the processing of S11, the information processing apparatus 10 receives an instruction to start use, for example, when the HMD 21 detects that the user has attached the HMD 21 or when the user using the controller 22 executes a use start instruction. . In addition, the use start instruction may be, for example, a user name received by a user authentication process, or an execution instruction for a game or the like.

次に、情報処理装置10の調整手段14は、S11の処理で受け付けたユーザ情報等に基づいて、上述した視線情報を参照し、ユーザに対応する注視点、盲点範囲を抽出する(S12)。次に、調整手段14は、S12の処理で抽出した注視点、盲点範囲に基づいて注視点、盲点の調整を行う(S13)。S13の処理では、例えばHMD21の画面に調整支援情報を表示して、ユーザに設定させることができるが、これに限定されるものではない。   Next, the adjusting unit 14 of the information processing apparatus 10 refers to the above-described line-of-sight information based on the user information received in the process of S11, and extracts a gazing point and a blind spot range corresponding to the user (S12). Next, the adjusting means 14 adjusts the gazing point and blind spot based on the gazing point and blind spot range extracted in the process of S12 (S13). In the process of S13, for example, the adjustment support information can be displayed on the screen of the HMD 21 and can be set by the user, but is not limited thereto.

ここで、オブジェクト表示制御手段15は、盲点領域を利用した表示制御を行うか否かを判断する(S14)。盲点制御を行うか否かの判断は、例えば予め設定されていてもよく、ゲームの種類に応じて表示制御の有無が設定されていてもよい。S14の処理において、盲点領域を利用した盲点領域を利用した表示制御を行う場合(S14において、YES)、オブジェクト表示制御手段15は、盲点範囲を利用してオブジェクトの表示位置、表示方法を制御する(S15)。   Here, the object display control means 15 determines whether or not to perform display control using the blind spot region (S14). The determination as to whether or not to perform blind spot control may be set in advance, for example, or presence or absence of display control may be set according to the type of game. When the display control using the blind spot area using the blind spot area is performed in the process of S14 (YES in S14), the object display control means 15 controls the display position and display method of the object using the blind spot area. (S15).

S15の処理後、又は、S14の処理において、盲点領域を利用した盲点領域を利用した表示制御を行わない場合(S14において、NO)、画面生成手段16は、HMD21に表示する画面を生成し(S16)、生成画面をHMD21に表示する(S17)。   When the display control using the blind spot area is not performed after the process of S15 or in the process of S14 (NO in S14), the screen generation means 16 generates a screen to be displayed on the HMD 21 ( S16), a generation screen is displayed on the HMD 21 (S17).

ここで、制御手段17は、処理を終了するか否かを判断し(S18)、処理を終了しない場合(S18において、NO)、S14の処理に戻る。また、制御手段17は、ユーザ指示やゲームの終了等によりゲームを終了する場合(S18において、YES)、処理を終了する。   Here, the control means 17 determines whether or not to end the process (S18). If the process is not ended (NO in S18), the process returns to S14. Moreover, the control means 17 complete | finishes a process, when complete | finishing a game by a user instruction | indication, completion | finish of a game, etc. (in S18 YES).

上述したように、本実施形態では、HMD21の装着時の設定においても用いられる盲点の情報を利用することで、より適切な装着状態の設定を行うことができる。更に、本実施形態では、その盲点情報を利用して、オブジェクト表示制御を行うことで、ユーザに対して適切な映像を提供することができる。   As described above, in the present embodiment, it is possible to set a more appropriate wearing state by using the blind spot information that is also used in the setting when the HMD 21 is worn. Furthermore, in this embodiment, an appropriate video can be provided to the user by performing object display control using the blind spot information.

<調整画面例>
ここで、ユーザが装着状態を調整するときの調整画面の一例について、図を用いて説明する。図7は、調整画面の一例を示す図である。図7の例に示すように、ユーザ40がHMD21を装着すると、HMD21の画面60には、装着状態を調整するためのメッセージ61が表示される。また、画面60には、上述した注視点を設定したときのマーカー52A(マーカーA)と、盲点を設定したときのマーカー52B(マーカーB)とが表示される。上述したメッセージ61、マーカー52は、調整支援情報の一例である。
<Example of adjustment screen>
Here, an example of the adjustment screen when the user adjusts the wearing state will be described with reference to the drawings. FIG. 7 is a diagram illustrating an example of the adjustment screen. As shown in the example of FIG. 7, when the user 40 wears the HMD 21, a message 61 for adjusting the wearing state is displayed on the screen 60 of the HMD 21. In addition, the screen 60 displays the marker 52A (marker A) when the above-described gazing point is set and the marker 52B (marker B) when the blind spot is set. The message 61 and the marker 52 described above are examples of adjustment support information.

ここで、ユーザ40の盲点範囲が、図7に示す斜線領域62である場合、ユーザ40は、メッセージ61に示されているように、マーカー52Aを注視領域内に位置付け、マーカー52Bを盲点範囲(斜線領域62)内に位置付けるように、HMD21の装着状態(位置等)を移動させて視線の調整を行う。   Here, when the blind spot range of the user 40 is the hatched area 62 shown in FIG. 7, the user 40 positions the marker 52A in the gaze area and places the marker 52B in the blind spot range (as shown in the message 61). The line of sight is adjusted by moving the mounting state (position, etc.) of the HMD 21 so as to be positioned within the hatched area 62).

例えば、調整手段14は、ユーザ40がHMD21を装着する際、ユーザ40と関連付けた注視点の情報に基づいて、左右の目の位置のそれぞれのずれの調整を行ってもよい。また、調整手段14は、HMD21を深くかぶった方がいいとか、右側が下がってる等の情報を画面に表示して、適切な位置に装着できるように支援してもよい。更に、調整手段14は、注視点による装着状態の調整後、盲点用のマーカーを表示して、盲点に入っているかどうかを確認させることで、調整時の精度を上げることができる。調整手段14は、例えば左右の目に対する複数の点(例えば、2点)で装着状態を調整してもよく、更に盲点も含めた複数の点(例えば、4点)で調整することで、装着精度を向上させることができる。   For example, when the user 40 wears the HMD 21, the adjusting unit 14 may adjust the shifts of the positions of the left and right eyes based on information on a gazing point associated with the user 40. Further, the adjusting means 14 may display information on the screen such as whether the HMD 21 should be covered deeply or the right side is lowered so that the HMD 21 can be mounted at an appropriate position. Furthermore, the adjustment means 14 can increase the accuracy at the time of adjustment by displaying a marker for a blind spot after adjusting the wearing state based on the gazing point and confirming whether or not the blind spot is entered. For example, the adjusting unit 14 may adjust the wearing state at a plurality of points (for example, two points) with respect to the left and right eyes, and may be adjusted by adjusting at a plurality of points (for example, four points) including a blind spot. Accuracy can be improved.

このように、本実施形態では、注視点と盲点を用いて視点位置の調整を行うため、注視点のみを使用して位置調整を行うよりもずれがなく、位置調整時の手間を軽減させることができる。   As described above, in this embodiment, since the viewpoint position is adjusted using the gazing point and the blind spot, there is no shift compared to the position adjustment using only the gazing point, and the labor for position adjustment is reduced. Can do.

<オブジェクト表示制御例>
次に、本実施形態における表示制御例について図を用いて説明する。図8は、オブジェクト表示制御例を説明するための図である。本実施形態では、装着状態の調整時に利用した盲点に関する情報を利用することで、各種のオブジェクト等の表示制御を行うことができる。
<Example of object display control>
Next, a display control example in the present embodiment will be described with reference to the drawings. FIG. 8 is a diagram for explaining an example of object display control. In the present embodiment, display control of various objects and the like can be performed by using information on blind spots used at the time of adjusting the wearing state.

例えば図8(A)〜(C)の例では、ユーザ40が装着したHMD21の画面70A〜70Cにあるゲームの仮想空間71A〜71Cが存在し、ユーザ40が操作するキャラクタ(オブジェクトの一例)72と、他のキャラクタ(オブジェクトの一例)73がいるようなシーンを示している。このような場合に、オブジェクト表示制御手段15は、図8(A)に示すように、ユーザ40が操作するキャラクタの位置を基準にして周辺にいる他のキャラクタ等の相対位置等を示すサムネイル画像や仮想空間上におけるマップ画像等のオブジェクト74を盲点範囲内に表示させる。また、オブジェクト表示制御手段15は、図8(B)に示すように、現在までのゲームの進行状態を保存するセーブボタン等のオブジェクト75を盲点範囲内に表示させてもよい。なお、オブジェクト75は、例えばメニュー画面に遷移するメニューボタン等でもよく、これに限定されるものではない。   For example, in the example of FIGS. 8A to 8C, there are game virtual spaces 71A to 71C on the screens 70A to 70C of the HMD 21 worn by the user 40, and a character (an example of an object) 72 operated by the user 40 is shown. And a scene in which another character (an example of an object) 73 is present. In such a case, as shown in FIG. 8A, the object display control means 15 displays a thumbnail image indicating the relative positions and the like of other characters in the vicinity based on the position of the character operated by the user 40. Or an object 74 such as a map image in the virtual space is displayed within the blind spot range. Further, as shown in FIG. 8B, the object display control means 15 may display an object 75 such as a save button for saving the progress of the game up to the present within the blind spot range. The object 75 may be, for example, a menu button that transitions to a menu screen, and is not limited to this.

このように、実際に仮想空間71内に存在しないオブジェクト75を盲点範囲に表示させることで、ユーザ40は、仮想空間71外にあるオブジェクトを意識することがないため、ゲームへの没入感を維持することができる。   In this way, by displaying the object 75 that does not actually exist in the virtual space 71 in the blind spot range, the user 40 is not aware of the object outside the virtual space 71, and thus maintains a sense of immersion in the game. can do.

なお、オブジェクト表示制御手段15は、例えばオブジェクト75として敵のキャラクタを、盲点範囲から登場させてもよく、また盲点範囲に移動した味方のキャラクタを、画面上から消すといった制御を行うこともできる。これにより、キャラクタのオブジェクトが表示されたり削除される際の違和感を軽減することができる。   For example, the object display control means 15 may cause an enemy character to appear as the object 75 from the blind spot range, and may also perform control such as deleting the ally character that has moved to the blind spot range from the screen. Thereby, it is possible to reduce a sense of incongruity when the character object is displayed or deleted.

また、オブジェクト表示制御手段15は、図8(C)に示すように、盲点範囲(斜線部分62)の画質(描画)を他の画面領域の画質よりも粗くする(例えば、低解像度にする、又は、簡素化する)ことで、映像生成時の処理負担を軽減させることができる。また、盲点付近の画質を粗くしても、ユーザの盲点であるため、ユーザは違和感や抵抗なく、ゲームに没頭することができる。   Further, as shown in FIG. 8C, the object display control means 15 makes the image quality (drawing) of the blind spot range (shaded portion 62) coarser than the image quality of the other screen areas (for example, lower resolution). Alternatively, the processing load at the time of video generation can be reduced. Moreover, even if the image quality in the vicinity of the blind spot is roughened, the user can be immersed in the game without a sense of discomfort or resistance because of the blind spot of the user.

また、オブジェクト表示制御手段15は、盲点範囲(斜線部分62)以外の領域の画質を上げた高画質画像を提供してもよい。このように、盲点範囲を用いて表示制御を行うことで、ユーザに適切な映像(例えば、ゲーム画面等)を少ない処理負担で提供することができる。   Further, the object display control means 15 may provide a high-quality image in which the image quality of the region other than the blind spot range (shaded portion 62) is increased. Thus, by performing display control using the blind spot range, it is possible to provide a user with an appropriate video (for example, a game screen) with a small processing load.

なお、上述した各表示制御は、ユーザ毎に設定されていてもよく、ゲーム等で提供される仮想空間の状態、ゲームの種類等に応じて任意に変更されてもよい。   In addition, each display control mentioned above may be set for every user, and may be arbitrarily changed according to the state of the virtual space provided by a game etc., the kind of game, etc.

<まとめ>
上述したように、本発明によれば、視点位置調整時の負担を軽減させることができる。例えば、本実施形態では、注視点及び盲点の一方又は両方から得られる複数の位置情報を用いてHMD(情報表示装置)の装着状態を調整することで、より適切な装着状態に調整することができ、画面がぼやけたり、何度も装着状態を調整する手間を削減することができる。更に、本実施形態では、例えば装着状態の設定時に利用した盲点を利用してオブジェクトの表示制御や、画質調整等の調整を行うことができる。
<Summary>
As described above, according to the present invention, it is possible to reduce the burden when adjusting the viewpoint position. For example, in this embodiment, it is possible to adjust to a more appropriate wearing state by adjusting the wearing state of the HMD (information display device) using a plurality of position information obtained from one or both of the gazing point and the blind spot. It is possible to reduce the trouble of blurring the screen and adjusting the wearing state many times. Furthermore, in the present embodiment, for example, it is possible to perform display control of an object, adjustment such as image quality adjustment using a blind spot used when setting the wearing state.

なお、上述した各実施形態におけるゲームの種類については、レーシングゲームやシューティングゲーム、格闘ゲーム、飛行機シミュレータ、恋愛ゲーム等の多種のゲームにおいて適用することができる。また、ゲームのカテゴリに属しないアプリケーション(プログラム)においても、本実施形態における表示制御を適用することができる。   In addition, about the kind of game in each embodiment mentioned above, it can apply in various games, such as a racing game, a shooting game, a fighting game, an airplane simulator, a love game. In addition, the display control according to the present embodiment can be applied to an application (program) that does not belong to the game category.

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed. Moreover, it is also possible to combine a part or all of each Example mentioned above.

10 情報処理装置
11 通信手段
12 設定手段
13 記憶手段
14 調整手段
15 オブジェクト表示制御手段
16 画面生成手段
17 制御手段
21 HMD(情報表示手段の一例)
22 コントローラ(操作手段の一例)
31 入力装置
32 出力装置
33 ドライブ装置
34 補助記憶装置
35 主記憶装置
36 CPU
37 通信制御装置
38 記録媒体
40 ユーザ
50,60,70 画面
51,61 メッセージ
52 マーカー
62 斜線領域
71 仮想空間
72〜75 オブジェクト
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 11 Communication means 12 Setting means 13 Storage means 14 Adjustment means 15 Object display control means 16 Screen generation means 17 Control means 21 HMD (an example of information display means)
22 Controller (an example of operation means)
31 Input Device 32 Output Device 33 Drive Device 34 Auxiliary Storage Device 35 Main Storage Device 36 CPU
37 communication control device 38 recording medium 40 user 50, 60, 70 screen 51, 61 message 52 marker 62 hatched area 71 virtual space 72-75 object

Claims (8)

装着型の情報表示装置に表示された画面を制御する情報処理装置において、
前記情報表示装置を装着したユーザの視点から前記画面に対する複数の点又は領域を設定する設定手段と、
前記設定手段により設定された前記複数の点又は領域を記憶する記憶手段と、
前記ユーザが前記情報表示装置を装着した際、前記記憶手段に記憶された前記複数の点又は領域を用いて、前記情報表示装置の装着状態の調整を行う調整手段とを有することを特徴とする情報処理装置。
In an information processing device that controls a screen displayed on a wearable information display device,
Setting means for setting a plurality of points or areas for the screen from the viewpoint of the user wearing the information display device;
Storage means for storing the plurality of points or regions set by the setting means;
Adjusting means for adjusting the mounting state of the information display device by using the plurality of points or areas stored in the storage means when the user wears the information display device. Information processing device.
前記調整手段は、
前記複数の点又は領域を設定するためのマーカーを前記情報表示装置の画面に表示させ、前記マーカーを前記複数の点又は領域の範囲内に位置付けるように前記情報表示装置の装着状態を移動させることで前記装着状態の調整を行うことを特徴とする請求項1に記載の情報処理装置。
The adjusting means includes
Markers for setting the plurality of points or regions are displayed on the screen of the information display device, and the mounting state of the information display device is moved so that the markers are positioned within the range of the plurality of points or regions. The information processing apparatus according to claim 1, wherein the mounting state is adjusted.
前記複数の点又は領域は、前記ユーザの注視点及び盲点のうち、少なくとも1つから設定されることを特徴とする請求項1又は2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the plurality of points or regions are set from at least one of the gaze point and blind spot of the user. 前記盲点の位置に基づいて、前記情報表示装置の画面に表示されるオブジェクトの表示制御を行うオブジェクト表示制御手段を有することを特徴とする請求項3に記載の情報処理装置。   The information processing apparatus according to claim 3, further comprising an object display control unit configured to perform display control of an object displayed on the screen of the information display apparatus based on the position of the blind spot. 前記オブジェクト表示制御手段は、
前記画面に表示された仮想空間上に存在しないオブジェクトを前記盲点の範囲内に表示させることを特徴とする請求項4に記載の情報処理装置。
The object display control means includes
The information processing apparatus according to claim 4, wherein an object that does not exist in the virtual space displayed on the screen is displayed within the range of the blind spot.
前記オブジェクト表示制御手段は、
前記画面における前記盲点の範囲内の画質を、他の画面領域の画質よりも粗くすることを特徴とする請求項4又は5に記載の情報処理装置。
The object display control means includes
6. The information processing apparatus according to claim 4, wherein an image quality within the range of the blind spot on the screen is made coarser than an image quality of another screen area.
装着型の情報表示装置に表示された画面を制御する情報処理装置における表示制御方法において、
前記情報表示装置を装着したユーザの視点から前記画面に対する複数の点又は領域を設定する設定ステップと、
前記設定ステップにより設定された前記複数の点又は領域を記憶手段に記憶する記憶ステップと、
前記ユーザが前記情報表示装置を装着した際、前記記憶手段に記憶された前記複数の点又は領域を用いて、前記情報表示装置の装着状態の調整を行う調整ステップとを有することを特徴とする表示制御方法。
In a display control method in an information processing device for controlling a screen displayed on a wearable information display device,
A setting step for setting a plurality of points or regions for the screen from the viewpoint of the user wearing the information display device;
A storage step of storing in the storage means the plurality of points or regions set by the setting step;
An adjustment step of adjusting the mounting state of the information display device using the plurality of points or regions stored in the storage means when the user wears the information display device. Display control method.
コンピュータを、
情報表示装置を装着したユーザの視点から前記情報表示装置の画面に対する複数の点又は領域を設定する設定手段、
前記設定手段により設定された前記複数の点又は領域を記憶する記憶手段、及び、
前記ユーザが前記情報表示装置を装着した際、前記記憶手段に記憶された前記複数の点又は領域を用いて、前記情報表示装置の装着状態の調整を行う調整手段として機能させるための表示制御プログラム。
Computer
Setting means for setting a plurality of points or areas on the screen of the information display device from the viewpoint of the user wearing the information display device;
Storage means for storing the plurality of points or areas set by the setting means; and
When the user wears the information display device, a display control program for causing the information display device to function as an adjustment unit that uses the plurality of points or regions stored in the storage unit to adjust the wearing state of the information display device .
JP2015181212A 2015-09-14 2015-09-14 Information processing apparatus, display control method, and display control program Active JP6592313B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015181212A JP6592313B2 (en) 2015-09-14 2015-09-14 Information processing apparatus, display control method, and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015181212A JP6592313B2 (en) 2015-09-14 2015-09-14 Information processing apparatus, display control method, and display control program

Publications (2)

Publication Number Publication Date
JP2017058794A true JP2017058794A (en) 2017-03-23
JP6592313B2 JP6592313B2 (en) 2019-10-16

Family

ID=58390350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015181212A Active JP6592313B2 (en) 2015-09-14 2015-09-14 Information processing apparatus, display control method, and display control program

Country Status (1)

Country Link
JP (1) JP6592313B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019135600A (en) * 2018-02-05 2019-08-15 Kddi株式会社 Display control device, display control method, and program
JP2022178866A (en) * 2021-05-21 2022-12-02 三菱電機エンジニアリング株式会社 Pop-up display control device, work support device, work support system, pop-up display method, pop-up display program, and recording medium
WO2023238197A1 (en) * 2022-06-06 2023-12-14 株式会社ソニー・インタラクティブエンタテインメント Virtual reality content display system and virtual reality content display method
EP4325866A4 (en) * 2021-06-22 2024-11-20 Qingdao Pico Technology Co., Ltd. METHOD AND SYSTEM FOR COMPRESSING AND TRANSMITTING VR IMAGES

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11174986A (en) * 1997-12-16 1999-07-02 Seiko Epson Corp Head mounted display
JP2002189464A (en) * 2000-12-21 2002-07-05 Canon Inc Image display device and image display system
JP2013232744A (en) * 2012-04-27 2013-11-14 Bi2−Vision株式会社 Display system, display adjustment system, display adjustment method and program
US9091849B2 (en) * 2012-08-31 2015-07-28 Industrial Technology Research Institute Wearable display and adjusting method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11174986A (en) * 1997-12-16 1999-07-02 Seiko Epson Corp Head mounted display
JP2002189464A (en) * 2000-12-21 2002-07-05 Canon Inc Image display device and image display system
JP2013232744A (en) * 2012-04-27 2013-11-14 Bi2−Vision株式会社 Display system, display adjustment system, display adjustment method and program
US9091849B2 (en) * 2012-08-31 2015-07-28 Industrial Technology Research Institute Wearable display and adjusting method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小林永樹: ""盲点のフィリングインは主観的輪郭の認知メカニズムと共通か"", 電子情報通信学会技術研究報告, vol. 第98巻, JPN6019030732, 19 March 1999 (1999-03-19), JP, pages 147 - 154, ISSN: 0004092217 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019135600A (en) * 2018-02-05 2019-08-15 Kddi株式会社 Display control device, display control method, and program
JP2022178866A (en) * 2021-05-21 2022-12-02 三菱電機エンジニアリング株式会社 Pop-up display control device, work support device, work support system, pop-up display method, pop-up display program, and recording medium
JP7672280B2 (en) 2021-05-21 2025-05-07 三菱電機エンジニアリング株式会社 Pop-up display control device, work support device, work support system, pop-up display method, pop-up display program, and recording medium
EP4325866A4 (en) * 2021-06-22 2024-11-20 Qingdao Pico Technology Co., Ltd. METHOD AND SYSTEM FOR COMPRESSING AND TRANSMITTING VR IMAGES
WO2023238197A1 (en) * 2022-06-06 2023-12-14 株式会社ソニー・インタラクティブエンタテインメント Virtual reality content display system and virtual reality content display method

Also Published As

Publication number Publication date
JP6592313B2 (en) 2019-10-16

Similar Documents

Publication Publication Date Title
US10620699B2 (en) Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system
JP6266814B1 (en) Information processing method and program for causing computer to execute information processing method
JP5539945B2 (en) GAME DEVICE AND PROGRAM
CN113544626A (en) Information processing apparatus, information processing method, and computer-readable recording medium
JP6058855B1 (en) Information processing method and program for causing computer to execute information processing method
JP6087453B1 (en) Method and program for providing virtual space
JP6097377B1 (en) Image display method and program
JP2016151798A (en) Information processing device, method, and program
JP6592313B2 (en) Information processing apparatus, display control method, and display control program
US11474595B2 (en) Display device and display device control method
JP2017138973A (en) Method and program for providing virtual space
US20180031845A1 (en) Display control method and program for executing the display control method on computer
JP2018195172A (en) Information processing method, information processing program, and information processing device
JP2014166564A (en) Game device, control method of the same, and program
JP6416338B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6275809B1 (en) Display control method and program for causing a computer to execute the display control method
JP6739254B2 (en) Program, information processing device, information processing method, and server device
JP2018120583A (en) Information processing method and program for causing computer to execute information processing method
JP6403843B1 (en) Information processing method, information processing program, and information processing apparatus
JP2019033906A (en) Information processing method, program, and computer
JP2018007227A (en) Information processing method and program for computer to execute the information processing method
WO2021241110A1 (en) Information processing device, information processing method, and program
JP2022103751A (en) Entertainment systems and programs
JP6449922B2 (en) Information processing method and program for causing computer to execute information processing method
JP2019021331A (en) Information processing method, information processing program, and information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190920

R150 Certificate of patent or registration of utility model

Ref document number: 6592313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250