[go: up one dir, main page]

JP6955132B1 - Video display method, video display system, video display control device, and program - Google Patents

Video display method, video display system, video display control device, and program Download PDF

Info

Publication number
JP6955132B1
JP6955132B1 JP2021523517A JP2021523517A JP6955132B1 JP 6955132 B1 JP6955132 B1 JP 6955132B1 JP 2021523517 A JP2021523517 A JP 2021523517A JP 2021523517 A JP2021523517 A JP 2021523517A JP 6955132 B1 JP6955132 B1 JP 6955132B1
Authority
JP
Japan
Prior art keywords
line
sight direction
region
sight
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021523517A
Other languages
Japanese (ja)
Other versions
JPWO2022038766A1 (en
Inventor
マシュー リギド ホープ
マシュー リギド ホープ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EXNOA LLC.
Original Assignee
EXNOA LLC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EXNOA LLC. filed Critical EXNOA LLC.
Application granted granted Critical
Publication of JP6955132B1 publication Critical patent/JP6955132B1/en
Publication of JPWO2022038766A1 publication Critical patent/JPWO2022038766A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明は、瞬時に移動した後における方向の混乱の発生を抑えることを可能とすることを目的とする。映像表示システムは、ユーザの現在の第1位置及び現在の第1視線方向を特定する。映像表示システムは、移動先を指定する第1操作に基づいて、移動先の第2位置及び移動先における第2視線方向を特定する。映像表示システムは、第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、第1領域の一部と重複する第2領域に、第2位置及び第2視線方向に応じた第2映像を表示させる。映像表示システムは、第2視線方向を変更する第2操作に基づいて、第2領域に表示されている第2映像を更新する。映像表示システムは、第2操作が完了することに応じて、特定された第2位置及び変更された第2視線方向に応じた第2映像を、第1領域に表示させる。An object of the present invention is to make it possible to suppress the occurrence of directional confusion after an instantaneous movement. The video display system identifies the user's current first position and current first line-of-sight direction. The video display system specifies the second position of the moving destination and the second line-of-sight direction at the moving destination based on the first operation of designating the moving destination. The image display system displays the first image corresponding to the first position and the first line-of-sight direction in the first area corresponding to the current visual field, and in the second area overlapping a part of the first area. The second image corresponding to the two positions and the second line-of-sight direction is displayed. The image display system updates the second image displayed in the second area based on the second operation of changing the second line-of-sight direction. When the second operation is completed, the image display system displays the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area.

Description

本発明は、仮想現実や拡張現実等における空間内での移動に関する映像の表示方法に関する。 The present invention relates to a method of displaying an image related to movement in space in virtual reality, augmented reality, or the like.

近年、仮想現実や拡張現実を実現するシステムの研究開発が盛んである。これらのシステムを利用するユーザは、例えばヘッドマウントディスプレイを装着する。このヘッドマウントディスプレイに、仮想空間又は現実空間の映像が表示される。表示される映像は、当該空間におけるユーザの位置及び方向に応じた視野内の映像である。ユーザによる移動行動や方向の変更に応じて、表示される映像が更新される。仮想現実や拡張現実下での移動方法の一例として、所謂瞬間移動がある。例えば、ユーザが移動先の位置を指定すると、ユーザの現在位置が、指定された位置に瞬時に変わる(例えば、特許文献1)。 In recent years, research and development of systems that realize virtual reality and augmented reality have been active. A user who uses these systems wears, for example, a head-mounted display. An image of virtual space or real space is displayed on this head-mounted display. The displayed image is an image in the field of view according to the position and direction of the user in the space. The displayed image is updated according to the movement behavior and the change of the direction by the user. So-called teleportation is an example of a movement method under virtual reality or augmented reality. For example, when the user specifies the position of the movement destination, the current position of the user instantly changes to the specified position (for example, Patent Document 1).

特開2018−175038号公報JP-A-2018-175038

瞬間移動においては、移動先の位置とともに、移動後にユーザが向く方向を、移動前にユーザが指定することできる移動方法も考えられる。しかしながら、この方法では、瞬間移動した後に、ユーザが、何れの方向を向いているかを混乱しやすくなるという問題があった。 In the teleportation, a movement method is also conceivable in which the user can specify the direction in which the user faces after the movement as well as the position of the movement destination before the movement. However, this method has a problem that it is easy for the user to be confused as to which direction the user is facing after teleporting.

本発明は以上の点に鑑みてなされてものであり、その課題の一例は、瞬時に移動した後における方向の混乱の発生を抑えることを可能とする映像表示方法、映像表示システム、映像表示制御装置、及びプログラムを提供することである。 The present invention has been made in view of the above points, and one example of the problem is an image display method, an image display system, and an image display control that can suppress the occurrence of directional confusion after an instantaneous movement. To provide equipment and programs.

上記課題を解決するために、請求項1に記載の発明は、コンピュータに、所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップであって、前記第1位置は、前記所定空間内に存在する複数の面であって、前記ユーザが位置することが可能な複数の面のうち何れか第1面上の位置である第1特定ステップと、前記所定空間における移動先を指定する第1操作であって、前記複数の面のうち、前記第1面と非平行な第2面上の位置を、前記移動先の第2位置として指定可能な第1操作に基づいて、前記第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップであって、前記第1面の向きに応じた前記第1映像と、前記第2面の向きに応じた前記第2映像と、を表示させるとともに、前記第1面の向きと前記第2面の向きとの相違を示す相違情報を表示させる第1表示ステップと、前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、を実行させることを特徴とする。 In order to solve the above-mentioned problems, the invention according to claim 1 is a first specific step of specifying a user's current first position and current first line-of-sight direction in a predetermined space to a computer. One position is a first specific step which is a position on the first surface of a plurality of surfaces existing in the predetermined space and which can be located by the user, and the predetermined position. A first operation for designating a movement destination in space , wherein a position on a second surface that is non-parallel to the first surface among the plurality of surfaces can be designated as a second position of the movement destination. based on the operation, the second specifying step of specifying a second viewing direction in the second position and the destination, the first image corresponding to the first position and the first viewing direction which is the specified, the current field of view The first display in which the second image corresponding to the specified second position and the second line-of-sight direction is displayed in the second area overlapping a part of the first area while being displayed in the first area corresponding to the above. In this step , the first image corresponding to the orientation of the first surface and the second image corresponding to the orientation of the second surface are displayed, and the orientation of the first surface and the second image are displayed. The second image displayed in the second area is updated based on the first display step of displaying the difference information indicating the difference from the orientation of the surface and the second operation of changing the second line-of-sight direction. In response to the completion of the update step and the second operation, the second image corresponding to the specified second position and the changed second line-of-sight direction is displayed in the first area. It is characterized by executing a display step and.

この発明によれば、第1領域に、現在の視野に対応する第1映像が表示されるとともに、第1領域の一部と重複する第2領域に、移動先の視野に対応する第2映像が表示される。その後、移動先における視線方向の変更操作に応じて、第2領域における第2映像が更新される。従って、ユーザは、移動先に移動する前に、移動先における視線方向を変更しながら、移動先で見える映像を確認することができる。そのため、瞬時に移動した後における方向の混乱の発生を抑えることができる。 According to the present invention, the first image corresponding to the current field of view is displayed in the first area, and the second image corresponding to the moving field of view is displayed in the second area overlapping a part of the first area. Is displayed. After that, the second image in the second area is updated according to the operation of changing the line-of-sight direction at the moving destination. Therefore, the user can confirm the image seen at the moving destination while changing the line-of-sight direction at the moving destination before moving to the moving destination. Therefore, it is possible to suppress the occurrence of directional confusion after the movement is instantaneous.

また、この発明によれば、ユーザが現在位置している第1面の向きとは異なる向きの第2面上に、ユーザは移動することができる。ユーザが第1面上及び第2面上それぞれに立つことを想定すると、移動先におけるユーザの視野範囲は、第1面の向きと第2面の向きとの相違分回転している。従って、第2映像は回転している。ここで、第1面の向きと第2面の向きとの相違を示す情報が表示されるので、ユーザは、視野が回転していることを認識することができる。 Further , according to the present invention, the user can move on the second surface having a direction different from the direction of the first surface on which the user is currently located. Assuming that the user stands on the first surface and the second surface, respectively, the user's visual field range at the moving destination is rotated by the difference between the orientation of the first surface and the orientation of the second surface. Therefore, the second image is rotating. Here, since the information indicating the difference between the orientation of the first surface and the orientation of the second surface is displayed, the user can recognize that the visual field is rotating.

請求項に記載の発明は、前記第2操作は、前記第1視線方向を変更する操作と同一であり、前記更新ステップは、前記第2操作に基づいて、前記第1領域に表示されている第1映像と、前記第2領域に表示されている前記第2映像と、を更新することを特徴とする。 In the invention according to claim 2 , the second operation is the same as the operation for changing the first line-of-sight direction, and the update step is displayed in the first region based on the second operation. The first image and the second image displayed in the second area are updated.

この発明によれば、第2領域に第2映像が表示されているときに、視線方向を変更する操作が行われことに応じて、現在の視線方向が変更されるとともに、移動先における視線方向も変更される。この変更に応じて、第1映像及び第2映像が更新される。従って、ユーザは、違和感なく視線方向を変更することができる。 According to the present invention, when the second image is displayed in the second region, the current line-of-sight direction is changed according to the operation of changing the line-of-sight direction, and the line-of-sight direction at the moving destination is changed. Will also be changed. The first video and the second video are updated according to this change. Therefore, the user can change the line-of-sight direction without discomfort.

請求項に記載の発明は、前記第1操作は、前記第2位置を指定する第3操作と、前記第2領域における前記第2映像の表示前において前記第2視線方向を変更する第4操作と、を含み、前記第2特定ステップは、前記第3操作に基づいて、前記第2位置を特定する位置特定ステップと、前記第2位置が特定されたことに応じて、前記第2視線方向を示す視線情報を表示する視線情報表示ステップと、前記第4操作に基づいて、前記視線情報の表示を更新する変更ステップと、前記第4操作が完了することに応じて、前記第4操作に基づいて変更された前記第2視線方向を、前記第2領域における前記第2映像の表示開始時における前記第2視線方向として特定する視線方向特定ステップと、を含むことを特徴とする。 According to the third aspect of the present invention, the first operation is a third operation for designating the second position and a fourth operation for changing the second line-of-sight direction before displaying the second image in the second region. The second specific step includes the operation, the position specifying step for specifying the second position based on the third operation, and the second line of sight according to the identification of the second position. The line-of-sight information display step for displaying the line-of-sight information indicating the direction, the change step for updating the display of the line-of-sight information based on the fourth operation, and the fourth operation according to the completion of the fourth operation. The second line-of-sight direction changed based on the above is included as a line-of-sight direction specifying step for specifying the second line-of-sight direction as the second line-of-sight direction at the start of displaying the second image in the second region.

この発明によれば、第2領域における第2映像の表示開始時における、移動先における視線方向を、ユーザが指定することができる。 According to the present invention, the user can specify the line-of-sight direction at the moving destination at the start of displaying the second image in the second region.

請求項に記載の発明は、前記第2特定ステップは、前記特定された第2位置から、前記所定空間に存在可能な複数のオブジェクトのうち少なくとも一の所定オブジェクトが位置する方向と、前記第2視線方向と、に基づいて、前記視線情報の表示態様を決定する表示態様決定ステップを更に含み、前記視線情報表示ステップは、前記決定された表示態様で前記視線情報を表示させることを特徴とする。 According to a fourth aspect of the present invention, the second specific step is a direction in which at least one predetermined object among a plurality of objects that can exist in the predetermined space is located from the specified second position, and the first aspect. The display mode determination step for determining the display mode of the line-of-sight information based on the two line-of-sight directions is further included, and the line-of-sight information display step is characterized in that the line-of-sight information is displayed in the determined display mode. do.

この発明によれば、所定オブジェクトが位置する方向と、移動先における視線方向と、に基づく表示態様で、視線情報が表示される。従って、ユーザは、移動先における視線方向における所定オブジェクトの存在性を把握した上で、視線方向を変更したり変更しなかったりすることができる。 According to the present invention, the line-of-sight information is displayed in a display mode based on the direction in which the predetermined object is located and the line-of-sight direction at the moving destination. Therefore, the user can change or not change the line-of-sight direction after grasping the existence of the predetermined object in the line-of-sight direction at the moving destination.

請求項に記載の発明は、コンピュータに、所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、を実行させ、前記第1操作は、前記第2位置を指定する第3操作と、前記第2領域における前記第2映像の表示前において前記第2視線方向を変更する第4操作と、を含み、前記第2特定ステップは、前記第3操作に基づいて、前記第2位置を特定する位置特定ステップと、前記特定された第2位置から、前記所定空間に存在可能な複数のオブジェクトのうち少なくとも一の所定オブジェクトが位置する方向と、前記第2視線方向と、に基づいて、前記第2視線方向を示す視線情報の表示態様を決定する表示態様決定ステップと、前記第2位置が特定されたことに応じて、前記決定された表示態様で前記視線情報を表示する視線情報表示ステップと、前記第4操作に基づいて、前記視線情報の表示を更新する変更ステップと、前記第4操作が完了することに応じて、前記第4操作に基づいて変更された前記第2視線方向を、前記第2領域における前記第2映像の表示開始時における前記第2視線方向として特定する視線方向特定ステップと、を含み、前記所定オブジェクトの少なくとも一つは、所定の障害物であり、前記表示態様決定ステップは、前記第2位置及び前記第2視線方向に応じた視野を、前記障害物が塞ぐ場合と塞がない場合とで、前記表示態様を異ならせることを特徴とする The invention according to claim 5 is a first specific step for specifying a user's current first position and a current first line-of-sight direction in a predetermined space, and a first operation for designating a movement destination in the predetermined space. Based on the above, the second specific step of specifying the second position of the moving destination and the second line-of-sight direction at the moving destination, and the first image corresponding to the specified first position and the first line-of-sight direction are currently displayed. The second image corresponding to the specified second position and the second line-of-sight direction is displayed in the second area overlapping a part of the first area while being displayed in the first area corresponding to the field of view of. According to one display step, an update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and the completion of the second operation. Then, the second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area is executed, and the first operation is performed. The second specific step includes the third operation of designating the second position and the fourth operation of changing the second line-of-sight direction before displaying the second image in the second region. A position specifying step for specifying the second position based on the three operations, and a direction in which at least one predetermined object among a plurality of objects that can exist in the predetermined space is located from the specified second position. A display mode determination step for determining a display mode of line-of-sight information indicating the second line-of-sight direction based on the second line-of-sight direction, and the determined display according to the identification of the second position. A line-of-sight information display step for displaying the line-of-sight information in an embodiment, a change step for updating the display of the line-of-sight information based on the fourth operation, and the fourth operation according to the completion of the fourth operation. At least one of the predetermined objects, including a line-of-sight direction specifying step for specifying the second line-of-sight direction changed based on One is a predetermined obstacle, and in the display mode determination step, the display mode is the display mode depending on whether the obstacle blocks or does not block the visual field according to the second position and the second line-of-sight direction. It is characterized by differentiating .

この発明によれば、移動先における視野を障害物が塞ぐ場合と塞がない場合とで、視線情報の表示態様が異なる。従って、視線情報を見たユーザは、必要に応じて、移動先における視線方向を、障害物から逸らすことができる。 According to the present invention, the display mode of the line-of-sight information differs depending on whether the field of view at the moving destination is blocked by an obstacle or not. Therefore, the user who sees the line-of-sight information can deviate the line-of-sight direction at the moving destination from the obstacle, if necessary.

請求項6に記載の発明は、コンピュータに、所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、を実行させ、前記第1操作は、前記第2位置を指定する第3操作と、前記第2領域における前記第2映像の表示前において前記第2視線方向を変更する第4操作と、を含み、前記第2特定ステップは、前記第3操作に基づいて、前記第2位置を特定する位置特定ステップと、前記特定された第2位置から、前記所定空間に存在可能な複数のオブジェクトのうち少なくとも一の所定オブジェクトが位置する方向に基づいて、初期の視線方向を決定する方向決定ステップと、前記第2位置が特定されたことに応じて、前記決定された初期の視線方向を前記第2視線方向として示す視線情報を表示する視線情報表示ステップと、前記第4操作に基づいて、前記視線情報の表示を更新する変更ステップと、前記第4操作が完了することに応じて、前記第4操作に基づいて変更された前記第2視線方向を、前記第2領域における前記第2映像の表示開始時における前記第2視線方向として特定する視線方向特定ステップと、を含むことを特徴とする。 The invention according to claim 6 is a first specific step for specifying a user's current first position and a current first line-of-sight direction in a predetermined space, and a first operation for designating a movement destination in the predetermined space. Based on the above, the second specific step of specifying the second position of the moving destination and the second line-of-sight direction at the moving destination, and the first image corresponding to the specified first position and the first line-of-sight direction are currently displayed. The second image corresponding to the specified second position and the second line-of-sight direction is displayed in the second area overlapping a part of the first area while being displayed in the first area corresponding to the field of view of. According to one display step, an update step for updating the second image displayed in the second area based on the second operation for changing the second line-of-sight direction, and the completion of the second operation. Then, the second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area is executed, and the first operation is performed. The second specific step includes the third operation of designating the second position and the fourth operation of changing the second line-of-sight direction before displaying the second image in the second region. Based on the position specifying step for specifying the second position and the direction in which at least one predetermined object among the plurality of objects that can exist in the predetermined space is located from the specified second position based on the three operations. Then, the direction determination step for determining the initial line-of-sight direction and the line-of-sight information for displaying the line-of-sight information indicating the determined initial line-of-sight direction as the second line-of-sight direction according to the identification of the second position. The display step, the change step for updating the display of the line-of-sight information based on the fourth operation, and the second line-of-sight changed based on the fourth operation in response to the completion of the fourth operation. It is characterized by including a line-of-sight direction specifying step of specifying the direction as the second line-of-sight direction at the start of displaying the second image in the second region.

この発明によれば、移動先の位置から所定オブジェクトが位置する方向に基づいて、視線情報の表示開始時における、移動先における視線方向が決定される。従って、所定オブジェクトが位置する方向との関係で適切な視線方向が決定されるので、ユーザによる視線方向の変更量又は変更回数を削減することができる。 According to the present invention, the line-of-sight direction at the moving destination at the start of displaying the line-of-sight information is determined based on the direction in which the predetermined object is located from the position of the moving destination. Therefore, since an appropriate line-of-sight direction is determined in relation to the direction in which the predetermined object is located, the amount or number of changes in the line-of-sight direction by the user can be reduced.

請求項に記載の発明は、前記所定オブジェクトの少なくとも一つは、所定の障害物であり、前記方向決定ステップは、前記第2位置及び前記初期の視線方向に応じた視野を、前記障害物が塞がないように、前記初期の視線方向を決定することを特徴とする。 In the invention according to claim 7 , at least one of the predetermined objects is a predetermined obstacle, and the direction determination step obtains a field of view according to the second position and the initial line-of-sight direction. It is characterized in that the initial line-of-sight direction is determined so that the object is not blocked.

この発明によれば、移動先の視野を所定の障害物が塞がないように、初期の視線方向が決定される。従って、ユーザによる、所定の障害物から視線方向を逸らす操作を削減することができる。 According to the present invention, the initial line-of-sight direction is determined so that a predetermined obstacle does not block the field of view of the moving destination. Therefore, it is possible to reduce the operation of the user to deviate the line-of-sight direction from a predetermined obstacle.

請求項に記載の発明は、前記所定オブジェクトの少なくとも一つは、前記ユーザによる所定行動の対象となり得るオブジェクトであり、前記方向決定ステップは、前記第2位置から前記所定行動の対象となり得るオブジェクトが位置する方向を、前記初期の視線方向に決定することを特徴とする。 In the invention according to claim 8 , at least one of the predetermined objects is an object that can be the target of the predetermined action by the user, and the direction determination step is an object that can be the target of the predetermined action from the second position. Is characterized in that the direction in which the object is located is determined in the initial line-of-sight direction.

この発明によれば、ユーザによる所定行動の対象となり得るオブジェクトが位置する方向が、初期の視線方向として決定される。従って、所定行動をとるための準備として、ユーザがそのオブジェクトに視線を向ける操作を削減することができる。 According to the present invention, the direction in which an object that can be the target of a predetermined action by the user is located is determined as the initial line-of-sight direction. Therefore, it is possible to reduce the operation of the user looking at the object in preparation for taking a predetermined action.

請求項11に記載の発明は、コンピュータに、所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、前記所定空間に存在可能な複数のオブジェクトのうち、前記第2領域に表示される前記第2映像に含まれる少なくとも一の所定オブジェクトに基づいて、前記第2領域のサイズを決定するサイズ決定ステップと、を実行させ、前記第1表示ステップは、前記決定されたサイズの前記第2領域に、前記第2映像を表示させることを特徴とする The invention according to claim 11 is a first specific step for specifying a user's current first position and a current first line-of-sight direction in a predetermined space, and a first operation for designating a movement destination in the predetermined space. Based on the above, the second specific step of specifying the second position of the moving destination and the second line-of-sight direction at the moving destination, and the first image corresponding to the specified first position and the first line-of-sight direction are currently displayed. The second image corresponding to the specified second position and the second line-of-sight direction is displayed in the second area overlapping a part of the first area while being displayed in the first area corresponding to the field of view of. According to one display step, an update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and the completion of the second operation. A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area, and a plurality of objects that can exist in the predetermined space. Of these, a size determination step of determining the size of the second region based on at least one predetermined object included in the second image displayed in the second region is executed, and the first display step is performed. Is characterized in that the second image is displayed in the second region of the determined size.

この発明によれば、所定オブジェクトに基づいて、第2領域のサイズが決定される。第2領域のサイズが変わると、第2領域の表示される第2領域の面積が変わる。また、第2領域は、第1領域の一部と重複するので、第2領域のサイズが変わると、第1領域に表示される第1領域の面積も変わる。例えば、第2領域が大きくなると、第2領域の面積は大きくなり、第1領域の面積は小さくなる。従って、第1映像の面積と第2映像の面積とを適切に調整することができる。 According to the present invention, the size of the second region is determined based on a predetermined object. When the size of the second area changes, the area of the second area displayed in the second area changes. Further, since the second area overlaps with a part of the first area, when the size of the second area changes, the area of the first area displayed in the first area also changes. For example, as the second region becomes larger, the area of the second region becomes larger and the area of the first region becomes smaller. Therefore, the area of the first image and the area of the second image can be appropriately adjusted.

また、この発明によれば、第2領域に表示される第2映像に含まれるオブジェクトに基づいて、第2領域のサイズが決定される。従って、第2映像の重要性に基づいて、第1映像の面積と第2映像の面積とを調整することができる。 Further , according to the present invention, the size of the second region is determined based on the object included in the second video displayed in the second region. Therefore, the area of the first image and the area of the second image can be adjusted based on the importance of the second image.

請求項10に記載の発明は、前記サイズ決定ステップは、前記所定オブジェクトの数に基づいて、前記サイズを決定することを特徴とする。 The invention according to claim 10 is characterized in that the size determination step determines the size based on the number of the predetermined objects.

この発明によれば、第2領域に表示される第2映像に含まれるオブジェクトの数に基づいて、第1映像の面積と第2映像の面積とを調整することができる。 According to the present invention, the area of the first image and the area of the second image can be adjusted based on the number of objects included in the second image displayed in the second area.

請求項11に記載の発明は、前記サイズ決定ステップは、前記第2位置と、前記所定オブジェクトと、の間の距離に基づいて、前記サイズを決定することを特徴とする。 The invention according to claim 11 is characterized in that the size determination step determines the size based on the distance between the second position and the predetermined object.

この発明によれば、移動先における位置と、第2領域に表示される第2映像に含まれるオブジェクトの位置と、の間の距離に基づいて、第1映像の面積と第2映像の面積とを調整することができる。 According to the present invention, the area of the first image and the area of the second image are based on the distance between the position at the moving destination and the position of the object included in the second image displayed in the second area. Can be adjusted.

請求項12に記載の発明は、コンピュータに、所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、前記所定空間に存在可能な複数のオブジェクトのうち、少なくとも一の所定オブジェクトに基づいて、前記第2領域のサイズを決定するサイズ決定ステップであって、前記第2領域に表示されている前記第2映像に、前記ユーザによる所定行動の対象となり得るオブジェクトが含まれるか否かに基づいて、前記サイズを決定するサイズ決定ステップと、を備え、前記第1表示ステップは、前記決定されたサイズの前記第2領域に、前記第2映像を表示させることを特徴とするThe invention according to claim 12 is a first specific step of specifying a user's current first position and a current first line-of-sight direction in a predetermined space, and a first operation of designating a movement destination in the predetermined space. Based on the above, the second specific step of specifying the second position of the moving destination and the second line-of-sight direction at the moving destination, and the first image corresponding to the specified first position and the first line-of-sight direction are currently displayed. The second image corresponding to the specified second position and the second line-of-sight direction is displayed in the second area overlapping a part of the first area while being displayed in the first area corresponding to the field of view of. According to one display step, an update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and the completion of the second operation. A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area, and a plurality of objects that can exist in the predetermined space. In the size determination step of determining the size of the second region based on at least one predetermined object, the second image displayed in the second region is the target of the predetermined action by the user. A sizing step that determines the size based on whether or not an object that can be a potential object is included, and the first display step displays the second image in the second region of the determined size. It is characterized by displaying .

この発明によれば、第2領域に表示される第2映像に、ユーザによる所定行動の対象となり得るオブジェクトが含まれるか否かに基づいて、第2領域のサイズが決定される。従って、移動先でユーザが所定行動をとる可能性に基づいて、第1映像の面積と第2映像の面積とを調整することができる。 According to the present invention, the size of the second area is determined based on whether or not the second image displayed in the second area includes an object that can be a target of a predetermined action by the user. Therefore, the area of the first image and the area of the second image can be adjusted based on the possibility that the user takes a predetermined action at the moving destination.

請求項13に記載の発明は、コンピュータに、所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、前記所定空間に存在可能な複数のオブジェクトのうち、少なくとも一の所定オブジェクトに基づいて、前記第2領域のサイズを決定するサイズ決定ステップであって、前記所定空間において前記ユーザに危険を及ぼすことが可能なオブジェクトにより、前記第1位置において前記ユーザに迫っている危険の度合いに基づいて、前記サイズを決定するサイズ決定ステップと、を備え、前記第1表示ステップは、前記決定されたサイズの前記第2領域に、前記第2映像を表示させることを特徴とするThe invention according to claim 13 is a first specific step for specifying a user's current first position and a current first line-of-sight direction in a predetermined space, and a first operation for designating a movement destination in the predetermined space. Based on the above, the second specific step of specifying the second position of the moving destination and the second line-of-sight direction at the moving destination, and the first image corresponding to the specified first position and the first line-of-sight direction are currently displayed. The second image corresponding to the specified second position and the second line-of-sight direction is displayed in the second area overlapping a part of the first area while being displayed in the first area corresponding to the field of view of. According to one display step, an update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and the completion of the second operation. A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area, and a plurality of objects that can exist in the predetermined space. In the first position, the size determination step of determining the size of the second region based on at least one predetermined object, which can pose a danger to the user in the predetermined space. A size determination step for determining the size based on the degree of danger approaching the user is provided, and the first display step displays the second image in the second region of the determined size. It is characterized by being displayed .

この発明によれば、所定オブジェクトによって、現在位置でユーザに迫っている危険の度合いに基づいて、第2領域のサイズが決定される。従って、現在迫っている危険に対してユーザが何らかの行動をとる必要性に応じて、第1映像の面積と第2映像の面積とを調整することができる。 According to the present invention, a predetermined object determines the size of the second region based on the degree of danger approaching the user at the current position. Therefore, the area of the first image and the area of the second image can be adjusted according to the need for the user to take some action against the currently imminent danger.

請求項14に記載の発明は、前記第2表示ステップは、更に前記第1位置及び前記第1視線方向を、前記特定された第2位置及び前記変更された第2視線方向にそれぞれ変更することを特徴とする。
請求項15に記載の発明は、プログラムを記憶する少なくとも一のメモリと、前記記憶されたプログラムに従って動作する少なくとも一のプロセッサと、を備える映像表示システムにおいて、前記少なくとも一のプロセッサは、前記プログラムに従って、所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップであって、前記第1位置は、前記所定空間内に存在する複数の面であって、前記ユーザが位置することが可能な複数の面のうち何れか第1面上の位置である第1特定ステップと、前記所定空間における移動先を指定する第1操作であって、前記複数の面のうち、前記第1面と非平行な第2面上の位置を、前記移動先の第2位置として指定可能な第1操作に基づいて、前記第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップであって、前記第1面の向きに応じた前記第1映像と、前記第2面の向きに応じた前記第2映像と、を表示させるとともに、前記第1面の向きと前記第2面の向きとの相違を示す相違情報を表示させる第1表示ステップと、前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、を実行することを特徴とする。
請求項17に記載の発明は、プログラムを記憶する少なくとも一のメモリと、前記記憶されたプログラムに従って動作する少なくとも一のプロセッサと、を備える映像表示システムにおいて、前記少なくとも一のプロセッサは、前記プログラムに従って、所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、前記所定空間に存在可能な複数のオブジェクトのうち、前記第2領域に表示される前記第2映像に含まれる少なくとも一の所定オブジェクトに基づいて、前記第2領域のサイズを決定するサイズ決定ステップと、を実行し、前記第1表示ステップは、前記決定されたサイズの前記第2領域に、前記第2映像を表示させることを特徴とする。
In the invention according to claim 14 , the second display step further changes the first position and the first line-of-sight direction to the specified second position and the changed second line-of-sight direction, respectively. It is characterized by.
The invention according to claim 15 is in a video display system comprising at least one memory for storing a program and at least one processor operating according to the stored program, wherein the at least one processor according to the program. , A first specific step of specifying a user's current first position and current first line-of-sight direction in a predetermined space, wherein the first position is a plurality of surfaces existing in the predetermined space. The first specific step, which is a position on the first surface of a plurality of surfaces on which the user can be located, and the first operation of designating a movement destination in the predetermined space, which are the first operations of the plurality of surfaces. Of these, based on the first operation in which the position on the second surface that is non-parallel to the first surface can be designated as the second position of the movement destination, the second position and the second line-of-sight direction at the movement destination are set. While displaying the second specific step to be specified and the first image corresponding to the specified first position and the first line-of-sight direction in the first area corresponding to the current visual field, a part of the first area is displayed. This is the first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction in the overlapping second region, and is the first display step corresponding to the orientation of the first surface. The first display step of displaying the second image corresponding to the orientation of the second surface and displaying difference information indicating the difference between the orientation of the first surface and the orientation of the second surface. Based on the second operation of changing the second line-of-sight direction, the update step of updating the second image displayed in the second area and the identification according to the completion of the second operation. It is characterized in that the second display step of displaying the second image corresponding to the second position and the changed second line-of-sight direction in the first area is executed.
The invention according to claim 17 is in a video display system comprising at least one memory for storing a program and at least one processor operating according to the stored program, wherein the at least one processor according to the program. , The second position of the movement destination based on the first specific step of specifying the user's current first position and the current first line-of-sight direction in the predetermined space and the first operation of designating the movement destination in the predetermined space. And the second specific step of specifying the second line-of-sight direction at the moving destination, and the first image corresponding to the specified first position and the first line-of-sight direction are displayed in the first area corresponding to the current field of view. However, the first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction and the second line-of-sight direction in the second area overlapping a part of the first area. Based on the second operation to be changed, the update step for updating the second image displayed in the second area, and the specified second position and the said in response to the completion of the second operation. A second display step of displaying the second image according to the changed second line-of-sight direction in the first area, and a plurality of objects that can exist in the predetermined space are displayed in the second area. A size determination step of determining the size of the second region based on at least one predetermined object included in the second image is executed, and the first display step is the second display step of the determined size. The second image is displayed in the area .

請求項18に記載の発明は、コンピュータにより実行される映像表示方法において、所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップであって、前記第1位置は、前記所定空間内に存在する複数の面であって、前記ユーザが位置することが可能な複数の面のうち何れか第1面上の位置である第1特定ステップと、前記所定空間における移動先を指定する第1操作であって、前記複数の面のうち、前記第1面と非平行な第2面上の位置を、前記移動先の第2位置として指定可能な第1操作に基づいて、前記第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップであって、前記第1面の向きに応じた前記第1映像と、前記第2面の向きに応じた前記第2映像と、を表示させるとともに、前記第1面の向きと前記第2面の向きとの相違を示す相違情報を表示させる第1表示ステップと、前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、を含むことを特徴とする。 The invention according to claim 18 is a first specific step for specifying a user's current first position and current first line-of-sight direction in a predetermined space in a video display method executed by a computer , wherein the first specific step is performed. The position is a first specific step which is a position on the first surface of a plurality of surfaces existing in the predetermined space and which can be located by the user, and the predetermined space. This is the first operation for designating the movement destination in the above, and the position on the second surface that is non-parallel to the first surface among the plurality of surfaces can be designated as the second position of the movement destination. Based on the above, the second specific step of specifying the second line-of-sight direction at the second position and the moving destination, and the first image corresponding to the specified first position and the first line-of-sight direction are set in the current field of view. The first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction in the second area overlapping a part of the first area while displaying in the corresponding first area. The first image corresponding to the orientation of the first surface and the second image corresponding to the orientation of the second surface are displayed, and the orientation of the first surface and the second surface are displayed. Update to update the second image displayed in the second area based on the first display step of displaying the difference information indicating the difference from the direction of the second and the second operation of changing the second line-of-sight direction. A second display for displaying the second image according to the specified second position and the changed second line-of-sight direction in the first area in response to the completion of the step and the second operation. It is characterized by including steps.

請求項19に記載の発明は、プログラムを記憶する少なくとも一のメモリと、前記記憶されたプログラムに従って動作する少なくとも一のプロセッサと、を備える映像表示制御装置において、前記少なくとも一のプロセッサは、前記プログラムに従って、所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップであって、前記第1位置は、前記所定空間内に存在する複数の面であって、前記ユーザが位置することが可能な複数の面のうち何れか第1面上の位置である第1特定ステップと、前記所定空間における移動先を指定する第1操作であって、前記複数の面のうち、前記第1面と非平行な第2面上の位置を、前記移動先の第2位置として指定可能な第1操作に基づいて、前記第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップであって、前記第1面の向きに応じた前記第1映像と、前記第2面の向きに応じた前記第2映像と、を表示させるとともに、前記第1面の向きと前記第2面の向きとの相違を示す相違情報を表示させる第1表示ステップと、前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、を実行することを特徴とする。 The invention according to claim 19 is in a video display control device including at least one memory for storing a program and at least one processor operating according to the stored program, wherein the at least one processor is the program. According to the first specific step of specifying the user's current first position and the current first line-of-sight direction in the predetermined space, the first position is a plurality of surfaces existing in the predetermined space. The first specific step, which is a position on the first surface of the plurality of surfaces on which the user can be located, and the first operation of designating a movement destination in the predetermined space , which are the plurality of surfaces. among the first surface and the position on the non-parallel second surface, based on the possible first operation as the second position of the movement destination, the second position and the second line-of-sight direction in the destination A part of the first area while displaying the second specific step for specifying the above and the first image corresponding to the specified first position and the first line-of-sight direction in the first area corresponding to the current field of view. This is the first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction in the second area overlapping with the above, and the first image corresponding to the orientation of the first surface. And the first display step of displaying the second image corresponding to the orientation of the second surface and displaying difference information indicating the difference between the orientation of the first surface and the orientation of the second surface. Based on the second operation of changing the second line-of-sight direction, the update step of updating the second image displayed in the second area, and the identification according to the completion of the second operation. It is characterized in that the second display step of displaying the second image corresponding to the changed second position and the changed second line-of-sight direction in the first area is executed.

本発明によれば、瞬時に移動した後における方向の混乱の発生を抑えることができる。 According to the present invention, it is possible to suppress the occurrence of directional confusion after the movement is instantaneous.

一実施形態に係るVRシステムSの概要構成の一例を示す図である。It is a figure which shows an example of the outline structure of the VR system S which concerns on one Embodiment. 一実施形態に係る制御装置1におけるシステム制御部11の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the system control unit 11 in the control device 1 which concerns on one Embodiment. HMD2の画面例を示す図である。It is a figure which shows the screen example of HMD2. HMD2の画面例を示す図である。It is a figure which shows the screen example of HMD2. HMD2の画面例を示す図である。It is a figure which shows the screen example of HMD2. HMD2の画面例を示す図である。It is a figure which shows the screen example of HMD2. 移動先の面の向きと、移動先における初期の視線方向と、の関係の例を示す図である。It is a figure which shows the example of the relationship between the direction of the surface of the moving destination, and the initial line-of-sight direction at the moving destination. 相違情報の表示例を示す図である。It is a figure which shows the display example of the difference information. 視線情報の表示例を示す図である。It is a figure which shows the display example of the line-of-sight information. 視線情報の表示態様の変更例を示す図である。It is a figure which shows the example of changing the display mode of the line-of-sight information. 初期の視線方向の決定例を示す図である。It is a figure which shows the determination example of the initial line-of-sight direction. 第2領域のサイズの決定例を示す図である。It is a figure which shows the determination example of the size of the 2nd region. 一実施形態に係る制御装置1のシステム制御部11によるアプリケーション処理の一例を示すフローチャートである。It is a flowchart which shows an example of application processing by the system control unit 11 of the control device 1 which concerns on one Embodiment. 一実施形態に係る制御装置1のシステム制御部11による移動先初期視線方向決定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the moving destination initial line-of-sight direction determination processing by the system control unit 11 of the control device 1 which concerns on one Embodiment. 一実施形態に係る制御装置1のシステム制御部11による移動先視野映像プレビュー処理の一例を示すフローチャートである。It is a flowchart which shows an example of the moving destination visual field image preview processing by the system control unit 11 of the control device 1 which concerns on one Embodiment.

以下、図面を参照して本発明の実施形態について詳細に説明する。以下に説明する実施形態は、三次元の仮想空間をユーザに体験させる仮想現実を実現するためのシステムに対して、本発明を適用した場合の実施形態である。なお、本発明は、現実の空間を拡張するための拡張現実に対して適用されてもよい。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiment described below is an embodiment when the present invention is applied to a system for realizing virtual reality that allows a user to experience a three-dimensional virtual space. The present invention may be applied to augmented reality for expanding the real space.

[1.VRシステムの構成]
先ず、本実施形態に係るVRシステムSの構成及び機能概要について、図1を用いて説明する。図1は、本実施形態に係るVRシステムSの概要構成の一例を示す図である。図1に示すように、VRシステムSは、制御装置1と、HMD(ヘッドマウントディスプレイ)2と、コントローラ3と、センサ4と、を含んで構成される。制御装置1と、HMD2、コントローラ3及びセンサ4のそれぞれとは、有線又は無線により接続される。
[1. VR system configuration]
First, the configuration and functional outline of the VR system S according to the present embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of an outline configuration of a VR system S according to the present embodiment. As shown in FIG. 1, the VR system S includes a control device 1, an HMD (head-mounted display) 2, a controller 3, and a sensor 4. The control device 1 and each of the HMD2, the controller 3 and the sensor 4 are connected by wire or wirelessly.

制御装置1は、例えばVRシステムS全体を制御する端末装置である。制御装置1は、システム制御部11と、ステムバス12と、記憶部13と、通信部14と、入出力インターフェース15と、を備える。システム制御部11と、記憶部13、通信部14及び入出力インターフェース15のそれぞれとは、システムバス12を介して接続される。 The control device 1 is, for example, a terminal device that controls the entire VR system S. The control device 1 includes a system control unit 11, a stem bus 12, a storage unit 13, a communication unit 14, and an input / output interface 15. The system control unit 11, the storage unit 13, the communication unit 14, and the input / output interface 15 are each connected via the system bus 12.

システム制御部11は、CPU(Central Processing Unit)11a、ROM(Read Only Memory)11b、RAM(Random Access Memory)11c等により構成されている。システム制御部11は、ROM11b、RAM11c及び記憶部13の少なくとも一つに記憶されたプログラムに従った処理を行う。 The system control unit 11 is composed of a CPU (Central Processing Unit) 11a, a ROM (Read Only Memory) 11b, a RAM (Random Access Memory) 11c, and the like. The system control unit 11 performs processing according to a program stored in at least one of the ROM 11b, the RAM 11c, and the storage unit 13.

記憶部13は、不揮発性の記憶装置である。記憶部13は、例えばSSD(Solid State Drive)又はハードディスクドライブ等により構成されている。記憶部13には、例えば、地形DB、オブジェクトDB、ユーザDB等のデータベースが記憶されている。「DB」は、データベースの略語である。地形DBは、仮想空間における三次元の地形を定義するデータベースである。オブジェクトDBは、仮想空間に存在し得る各オブジェクトを定義するデータベースである。オブジェクトは、仮想空間において、ユーザ(またはプレーヤ等)が見ることができるあらゆる物を含んでもよい。オブジェクトの例として、人間、動物、想像上の生物、ロボット、建物、壁、床、岩、植物、自動車、船舶、航空機、宇宙船等が挙げられる。オブジェクトDBは、具体的には、各オブジェクトについて、そのオブジェクトの座標及び向き、並びにそのオブジェクトを構成する各パーツの形状、向き、配置、及び色彩若しくは模様等のパラメータを定義してもよい。動くオブジェクトが存在する場合、オブジェクトDBにおいて、そのオブジェクトのパラメータは、必要に応じてリアルタイムに更新される。ユーザDBには、VRシステムSを用いて現在仮想現実を体験しているユーザに関する情報が記憶される。例えば、ユーザDBには、ユーザを識別する識別情報、現在位置を示す座標、視線方向等が記憶されてもよい。現在位置は、仮想空間において、ユーザが現在いる位置である。視線方向は、仮想空間において、ユーザの視界に沿った直線の方向である。換言すると、視線方向は、ユーザの目が向いている方向である。現在位置及び視線方向は、ユーザの動作又はユーザによる操作に応じて、リアルタイムに変化する。 The storage unit 13 is a non-volatile storage device. The storage unit 13 is composed of, for example, an SSD (Solid State Drive), a hard disk drive, or the like. The storage unit 13 stores, for example, a database such as a terrain DB, an object DB, and a user DB. "DB" is an abbreviation for database. The terrain DB is a database that defines three-dimensional terrain in virtual space. The object DB is a database that defines each object that can exist in the virtual space. The object may include anything that the user (or player, etc.) can see in the virtual space. Examples of objects include humans, animals, imaginary creatures, robots, buildings, walls, floors, rocks, plants, automobiles, ships, aircraft, spaceships, and the like. Specifically, the object DB may define, for each object, the coordinates and orientation of the object, and parameters such as the shape, orientation, arrangement, and color or pattern of each part constituting the object. When a moving object exists, the parameters of the object are updated in real time in the object DB as needed. Information about a user who is currently experiencing virtual reality using the VR system S is stored in the user DB. For example, the user DB may store identification information for identifying the user, coordinates indicating the current position, the line-of-sight direction, and the like. The current position is the current position of the user in the virtual space. The line-of-sight direction is the direction of a straight line along the user's field of view in the virtual space. In other words, the line-of-sight direction is the direction in which the user's eyes are facing. The current position and the line-of-sight direction change in real time according to the user's operation or the user's operation.

記憶部13には、更にオペレーティングシステム、アプリケーションソフトウェア等の各種プログラムが記憶されている。アプリケーションソフトウェアは、例えばオペレーティングシステムから提供されたAPI(Application Programming Interface)等を利用して、特定目的に応じた仮想現実を実現するための処理を、システム制御部11に実行させるプログラムである。アプリケーションソフトウェアは、例えばゲームであってもよいし、その他の種類のソフトウェアであってもよい。アプリケーションソフトウェアは、例えば、通信部14を介して、所定のサーバ装置から取得されるようにしてもよいし、光ディスク、メモリカード等の記録媒体に記録されて、ドライブ装置を介して読み込まれるようにしてもよい。 The storage unit 13 further stores various programs such as an operating system and application software. The application software is a program that causes the system control unit 11 to execute a process for realizing virtual reality according to a specific purpose by using, for example, an API (Application Programming Interface) provided by an operating system. The application software may be, for example, a game or other types of software. The application software may be acquired from a predetermined server device via, for example, the communication unit 14, or may be recorded on a recording medium such as an optical disk or a memory card and read via the drive device. You may.

通信部14は、例えばネットワークインターフェースコントローラ等により構成されている。通信部14は、インターネット等のネットワークを介して、サーバ装置等と接続し、接続された装置との通信状態を制御する。 The communication unit 14 is composed of, for example, a network interface controller or the like. The communication unit 14 connects to a server device or the like via a network such as the Internet, and controls the communication state with the connected device.

入出力インターフェース15は、制御装置1と、HMD2、コントローラ3及びセンサ4のそれぞれと、の間のインターフェース処理を行う。入出力インターフェース15の規格の例として、USB(Universal Serial Bus)、HDMI(登録商標)、Bluetooth(登録商標)等が挙げられる。 The input / output interface 15 performs interface processing between the control device 1 and each of the HMD 2, the controller 3, and the sensor 4. Examples of the standard of the input / output interface 15 include USB (Universal Serial Bus), HDMI (registered trademark), Bluetooth (registered trademark) and the like.

HMD2は、ユーザの頭部に装着される表示装置である。HMD2は、例えば表示部と、ヘッドフォンと、センサ部と、を備える。表示部は、主として、仮想空間においてユーザが位置する場所でユーザが向いている方向(視線方向)に応じたユーザの視野内にある映像を表示する。表示される映像は、三次元映像であってもよいし、二次元映像であってもよい。表示部の例として、液晶ディスプレイ、有機ELディスプレイ等が挙げられる。ヘッドフォンは、仮想空間内で生じた音及びその他の音を出力する。センサ部は、ユーザの頭部の向きや回転を検出し、その検出の結果を制御装置1へ送信する。センサ部は、ユーザの頭部のヨー(yaw)、ピッチ(pitch)及びロール(roll)を検出可能であってもよい。ユーザを基準とするローカル座標系において、ユーザの足から頭の方向の軸を、z軸とする。ユーザの左から右の方向の軸を、x軸とする。ユーザの視線方向の軸を、y軸とする。ヨー(yaw)は、z軸を中心とする回転である。ピッチ(pitch)は、x軸を中心とする回転である。ロール(roll)は、y軸を中心とする回転である。センサ部は、例えばジャイロセンサ、磁気センサ、重力センサ、加速度センサの少なくとも1つを備えてもよい。HMD2を装着したユーザによる頭部の回転等の動作は、HMD2に対するユーザによる操作の一つとみなされてもよい。センサ部は、ユーザの視線の方向を、アイトラッキングにより検出可能であってもよい。この場合、センサ部は、例えばデジタルカメラ、赤外線センターの少なくとも何れか一方を更に備えてもよい。なお、HMD2と制御装置1とが一体化されていてもよい。 The HMD2 is a display device worn on the user's head. The HMD 2 includes, for example, a display unit, headphones, and a sensor unit. The display unit mainly displays an image in the user's field of view according to the direction (line-of-sight direction) in which the user is facing at the place where the user is located in the virtual space. The displayed image may be a three-dimensional image or a two-dimensional image. Examples of the display unit include a liquid crystal display, an organic EL display, and the like. Headphones output sounds generated in virtual space and other sounds. The sensor unit detects the orientation and rotation of the user's head, and transmits the detection result to the control device 1. The sensor unit may be capable of detecting the yaw, pitch and roll of the user's head. In the local coordinate system based on the user, the axis in the direction from the user's foot to the head is defined as the z-axis. The axis in the direction from the left to the right of the user is defined as the x-axis. The axis in the line-of-sight direction of the user is defined as the y-axis. Yaw is a rotation about the z-axis. Pitch is a rotation about the x-axis. A roll is a rotation about the y-axis. The sensor unit may include, for example, at least one of a gyro sensor, a magnetic sensor, a gravity sensor, and an acceleration sensor. An operation such as rotation of the head by the user wearing the HMD2 may be regarded as one of the user's operations on the HMD2. The sensor unit may be able to detect the direction of the user's line of sight by eye tracking. In this case, the sensor unit may further include, for example, at least one of a digital camera and an infrared center. The HMD 2 and the control device 1 may be integrated.

コントローラ3は、ユーザの操作内容を、操作信号として制御装置1へ送信する入力装置である。コントローラ3は、例えばボタン、パッド、スティック等を備えてもよい。コントローラ3は、例えばゲームコントローラであってもよい。 The controller 3 is an input device that transmits the user's operation content as an operation signal to the control device 1. The controller 3 may include, for example, buttons, pads, sticks, and the like. The controller 3 may be, for example, a game controller.

センサ4は、ユーザが現実にいる空間(例えば、ユーザの部屋等)におけるユーザの位置、向き、及びユーザの手の位置の少なくとも一つを検出し、その検出の結果を制御装置1へ送信する。センサ4は、例えばユーザが現実にいる空間内に設置される。センサ4は、例えば赤外センサ及びデジタルカメラの少なくとも一つを備えてもよい。なお、センサ4はHMD2に組み込まれていてもよい。 The sensor 4 detects at least one of the user's position, orientation, and user's hand position in the space in which the user is actually present (for example, the user's room), and transmits the detection result to the control device 1. .. The sensor 4 is installed, for example, in a space where the user is actually present. The sensor 4 may include, for example, at least one of an infrared sensor and a digital camera. The sensor 4 may be incorporated in the HMD 2.

[2.システム制御部の機能概要]
次に、制御装置1におけるシステム制御部11の機能概要について、図2乃至図12を用いて説明する。図2は、本実施形態に係る制御装置1におけるシステム制御部11の機能ブロックの一例を示す図である。システム制御部11は、CPU11aが、アプリケーションソフトウェアに含まれる各種プログラムコードを読み出し実行することにより、図2に示すように、第1特定部111、第2特定部112、第1表示部113、更新部114、第2表示部115等として機能する。これらの機能により、システム制御部11は、ユーザによる操作に基づく、仮想空間におけるユーザの瞬間移動を実現し、瞬間移動のための映像の表示を制御する。
[2. Overview of system control functions]
Next, the outline of the function of the system control unit 11 in the control device 1 will be described with reference to FIGS. 2 to 12. FIG. 2 is a diagram showing an example of a functional block of the system control unit 11 in the control device 1 according to the present embodiment. As shown in FIG. 2, the system control unit 11 updates the first specific unit 111, the second specific unit 112, and the first display unit 113 by having the CPU 11a read and execute various program codes included in the application software. It functions as a unit 114, a second display unit 115, and the like. With these functions, the system control unit 11 realizes the teleportation of the user in the virtual space based on the operation by the user, and controls the display of the image for the teleportation.

[2−1.基本的な機能]
第1特定部111は、所定空間におけるユーザの現在位置及び現在の視線方向を特定する。本実施形態において、所定空間は、所定の仮想空間である。例えば、第1特定部111は、HMD2に備えられるセンサ部により検出されるユーザの頭部の回転に基づいて、視線方向を特定してもよい。また例えば、第1特定部111は、ユーザによるコントローラ3の操作に基づいて、現在位置及び視線方向の何れか一方を特定してもよい。また例えば、第1特定部111は、センサ4により検出されるユーザの位置及び向きの何れか一方に基づいて、現在位置及び視線方向の何れか一方を特定してもよい。ユーザは、仮想空間内に存在する複数の面のうち、何れかの面上に位置することが可能であってもよい。仮想空間内に存在する面とは、仮想空間内に存在するオブジェクトが有する面であってもよい。仮想空間内に存在する面のうち、ユーザが位置することが可能な面が予め定められてもよい。ユーザが位置することが可能な面は、例えば床、道路、地面等であってもよい。また、ユーザは、空中に位置することが可能であってもよい。
[2-1. Basic function]
The first specifying unit 111 specifies the current position of the user and the current line-of-sight direction in a predetermined space. In the present embodiment, the predetermined space is a predetermined virtual space. For example, the first specific unit 111 may specify the line-of-sight direction based on the rotation of the user's head detected by the sensor unit provided in the HMD 2. Further, for example, the first specifying unit 111 may specify either the current position or the line-of-sight direction based on the operation of the controller 3 by the user. Further, for example, the first specific unit 111 may specify either the current position or the line-of-sight direction based on either the user's position or orientation detected by the sensor 4. The user may be able to be located on any of a plurality of faces existing in the virtual space. The surface existing in the virtual space may be a surface possessed by an object existing in the virtual space. Of the faces existing in the virtual space, the faces on which the user can be located may be predetermined. The surface on which the user can be located may be, for example, a floor, a road, the ground, or the like. The user may also be able to be located in the air.

第2特定部112は、所定空間における移動先を指定する操作に基づいて、移動先の位置及び移動先における視線方向を特定する。例えば、HMD2の画面には、仮想空間において、ユーザの現在位置及び視線方向に応じた視野に対応する現在視野映像が表示さる。例えば、ユーザは、コントローラ3を操作することにより、現在視野映像により示されるユーザの視野内にある場所を、移動先の位置として指定可能であってもよい。或いは、ユーザは、ユーザの頭部を動かすことにより、HDM2のセンサ部が検出する頭部の回転に基づいて、仮想空間内のユーザの視線方向にある場所を、移動先の位置として指定可能であってもよい。或いは、ユーザによるコントローラ3の操作に基づいて、第2特定部112は、現在視野映像に重畳して、ユーザの現在位置周辺の地図を、HMD2に表示してもよい。ユーザは、例えばコントローラ3を操作することにより、表示された地図から、移動先を指定可能であってもよい。第2特定部112は、こうしてユーザにより指定された位置を、移動先の位置として特定してもよい。ユーザの視野内にある場所のみが移動先の位置として指定可能であってもよいし、ユーザの視野外にある場所も移動先の位置として指定可能であってもよい。第2特定部112は、現在の視線方向と同一の方向を、移動先における視線方向として特定してもよい。なお、移動先における視線方向の特定方法の詳細については後述する。 The second specifying unit 112 specifies the position of the moving destination and the line-of-sight direction at the moving destination based on the operation of designating the moving destination in the predetermined space. For example, on the screen of the HMD2, the current visual field image corresponding to the visual field according to the user's current position and the line-of-sight direction is displayed in the virtual space. For example, the user may be able to specify a place in the user's field of view currently indicated by the field of view image as the position of the moving destination by operating the controller 3. Alternatively, by moving the user's head, the user can specify a location in the virtual space in the user's line-of-sight direction as the destination position based on the rotation of the head detected by the sensor unit of HDM2. There may be. Alternatively, based on the operation of the controller 3 by the user, the second specific unit 112 may superimpose the map on the current visual field image and display the map around the user's current position on the HMD2. The user may be able to specify the destination from the displayed map, for example, by operating the controller 3. The second specifying unit 112 may specify the position thus designated by the user as the moving destination position. Only a place within the user's field of view may be designated as the movement destination position, or a place outside the user's field of view may also be designated as the movement destination position. The second specifying unit 112 may specify the same direction as the current line-of-sight direction as the line-of-sight direction at the moving destination. The details of the method of specifying the line-of-sight direction at the moving destination will be described later.

第1表示部113は、第1特定部111により特定された現在位置及び現在の視線方向に応じた現在視野映像を、現在の視野に相応する第1領域に表示させながら、第1領域の一部と重複する第2領域に、第2特定部112により特定された移動先の位置及び移動先における視線方向に応じた移動先視野映像を表示させる。前述したように、現在視野映像が表示される第1領域は、例えばHMD2の画面全体であってもよいし、その画面の一部であってもよい。移動先視野映像が表示される第2領域は、第1領域の一部であってもよい。第2領域の形状の例として、矩形、菱形、六角形、十二角形、円等が挙げられる。第2領域は、ユーザを基準とするローカル座標系で所定の方向及び/又は所定の位置に表示されてもよい。例えば、第2領域は、ローカル座標系におけるY軸の正の方向、すなわちユーザの正面に表示されてもよい。或いは、第2領域は、第1領域内の所定の位置に表示されてもよい。例えば、第2領域は、第1領域の中央又はその他の位置に、表示されてもよい。第1表示部113は、3次元レンダリングにより、現在視野映像及び移動先視野映像を生成する。例えば、第1表示部113は、現在位置、地形DB、オブジェクトDB等に基づいて、現在位置に対応する全天球映像を生成してもよい。全天球映像は、例えばユーザの位置から縦横それぞれ360度の視野をカバーする映像であってもよい。第1表示部113は、生成された全天球映像から、現在の視線方向に応じて、第1領域に対応するクリッピング領域で、現在視野映像を切り取って生成してもよい。また、第1表示部113は、移動先の位置、地形DB、オブジェクトDB等に基づいて、移動先の全天球映像を生成してもよい。第1表示部113は、生成された全天球映像から、移動先における視線方向に応じて、第2領域に対応するクリッピング領域で、移動先視野映像を切り取って生成してもよい。第2領域は第1領域より狭いので、移動先視野映像のクリッピング領域は、現在視野映像のクリッピング領域よりも狭くてもよい。ユーザが指定した移動先にユーザが瞬間移動する前に、現在視野映像を表示するとともに、現在視野映像の一部に重複して移動先視野映像が表示されるので、ユーザは、移動先の様子を予め見ることができる。 The first display unit 113 displays the current visual field image corresponding to the current position and the current line-of-sight direction specified by the first specific unit 111 in the first region corresponding to the current visual field, and is one of the first regions. In the second region overlapping the unit, the moving destination visual field image corresponding to the position of the moving destination specified by the second specific unit 112 and the line-of-sight direction at the moving destination is displayed. As described above, the first region in which the current visual field image is displayed may be, for example, the entire screen of the HMD2 or a part of the screen. The second region in which the moving destination visual field image is displayed may be a part of the first region. Examples of the shape of the second region include a rectangle, a rhombus, a hexagon, a dodecagon, a circle, and the like. The second region may be displayed in a predetermined direction and / or at a predetermined position in a local coordinate system relative to the user. For example, the second region may be displayed in the positive direction of the Y axis in the local coordinate system, i.e. in front of the user. Alternatively, the second region may be displayed at a predetermined position in the first region. For example, the second region may be displayed in the center of the first region or at some other position. The first display unit 113 generates a current visual field image and a moving destination visual field image by three-dimensional rendering. For example, the first display unit 113 may generate a spherical image corresponding to the current position based on the current position, the terrain DB, the object DB, and the like. The spherical image may be, for example, an image that covers a field of view of 360 degrees vertically and horizontally from the position of the user. The first display unit 113 may cut and generate the current visual field image in the clipping region corresponding to the first region according to the current line-of-sight direction from the generated spherical image. Further, the first display unit 113 may generate a spherical image of the movement destination based on the position of the movement destination, the terrain DB, the object DB, and the like. The first display unit 113 may cut and generate a moving destination visual field image in a clipping region corresponding to a second region according to the line-of-sight direction at the moving destination from the generated spherical image. Since the second region is narrower than the first region, the clipping region of the moving destination visual field image may be narrower than the clipping region of the current visual field image. Before the user teleports to the movement destination specified by the user, the current visual field image is displayed and the moving destination visual field image is displayed overlapping with a part of the current visual field image, so that the user can see the state of the moving destination. Can be seen in advance.

更新部114は、移動先における視線方向を変更する操作に基づいて、第2領域に表示されている移動先視野映像を更新する。例えば、ユーザは、コントローラ3を操作することにより、移動先における視線方向を変更可能であってもよい。或いは、ユーザは、ユーザの頭部を動かすことにより、HDM2のセンサ部が検出する頭部の回転に基づいて、移動先における視線方向を変更可能であってもよい。或いは、更新部114は、アイトラッキングを用いて、ユーザ自身の視線が動くことに応じて、移動先における視線方向を変更可能としてもよい。例えば、ユーザは、ユーザの頭部を動かすことにより、現在の視線方向の変更が可能であり、ユーザ自身の視線を動かすことにより、移動先における視線方向の変更が可能であってもよい。更新部114は、例えば第1表示部113により生成された移動先の全天球映像から、変更後の視線方向に対応するクリッピング領域で、新しい移動先視野映像を切り取って生成してもよい。そして、更新部114は、新たに生成された移動先視野映像で、第2領域に表示されている移動先視野映像を更新してもよい。ユーザは、瞬間移動する前に、移動先における視線方向を、移動先視野映像を見ながら変更することができる。 The updating unit 114 updates the moving destination visual field image displayed in the second area based on the operation of changing the line-of-sight direction at the moving destination. For example, the user may be able to change the line-of-sight direction at the moving destination by operating the controller 3. Alternatively, the user may be able to change the line-of-sight direction at the destination based on the rotation of the head detected by the sensor unit of HDM2 by moving the user's head. Alternatively, the update unit 114 may use eye tracking to change the direction of the line of sight at the destination according to the movement of the user's own line of sight. For example, the user may be able to change the current line-of-sight direction by moving the user's head, and may be able to change the line-of-sight direction at the destination by moving the user's own line of sight. The updating unit 114 may cut and generate a new moving destination visual field image in a clipping region corresponding to the changed line-of-sight direction from, for example, the moving destination spherical image generated by the first display unit 113. Then, the updating unit 114 may update the moving destination visual field image displayed in the second region with the newly generated moving destination visual field image. The user can change the line-of-sight direction at the moving destination while watching the moving destination visual field image before teleporting.

現在の視線方向を変更する操作と、第2領域に移動先視野映像が表示されている間の移動先における視線方向を変更する操作と、が同一であってもよい。更新部114は、視線方向を変更する操作に基づいて、第1領域に表示されている現在視野映像と、第2領域に表示されている移動先視野映像と、の両方を更新してもよい。例えば、更新部114は、ユーザの操作に基づいて、現在の視線方向及び移動先における視線方向の両方を同時に変更する。更新部114は、変更後の現在の視線方向に応じた現在視野映像を生成するとともに、移動先における変更後の視線方向に応じた移動先視野映像を生成する。更新部114は、ユーザが現在位置する面に垂直な軸をz軸とする第1のローカル座標系と、移動先の面に垂直な軸をz軸とする第2のローカル座標系と、の間において、現在の視線方向及び移動先における視線方向を、同一方向及び同一角度で回転させてもよい。そのため、ユーザが現在位置している面の向きと、移動先の面の向きと、が異なる場合、仮想空間のワールド座標系では、現在の視線方向の回転方向と、移動先における視線方向の回転方向と、は異なる。 The operation of changing the current line-of-sight direction and the operation of changing the line-of-sight direction at the moving destination while the moving-destination visual field image is displayed in the second region may be the same. The updating unit 114 may update both the current visual field image displayed in the first area and the moving destination visual field image displayed in the second area based on the operation of changing the line-of-sight direction. .. For example, the update unit 114 simultaneously changes both the current line-of-sight direction and the line-of-sight direction at the moving destination based on the user's operation. The updating unit 114 generates a current visual field image according to the changed current line-of-sight direction, and also generates a moving-destination visual field image according to the changed line-of-sight direction at the moving destination. The update unit 114 has a first local coordinate system whose z-axis is the axis perpendicular to the plane where the user is currently located, and a second local coordinate system whose z-axis is the axis perpendicular to the destination plane. In between, the current line-of-sight direction and the line-of-sight direction at the destination may be rotated in the same direction and at the same angle. Therefore, if the orientation of the surface on which the user is currently located and the orientation of the destination surface are different, in the world coordinate system of the virtual space, the rotation direction in the current line-of-sight direction and the rotation in the line-of-sight direction at the destination. The direction is different.

ユーザが現在の視線方向を変化させた場合、更新部114は、ユーザを基準とするローカル座標系における第2領域の方向若しくは位置、又は第1領域内での第2領域の位置を動かさなくてもよい。この場合、第1領域内における第2領域の位置は固定されるので、第2領域は、第1領域から外れることはない。或いは、更新部114は、現在の視線方向が変化することに応じて、第2領域の方向若しくは位置を動かしてもよい。例えば、仮想空間のワールド座標系において、第2領域の位置が固定されてもよい。例えば、更新部114は、視線方向が右方向に回転した場合、第2領域を左方向に移動させ、視線方向が左方向に回転した場合、第2領域を右方向に移動させてもよい。この場合、第2領域は、第1領域から外れることがある(フレームアウトすることがある)。そこで、更新部114は、ユーザの操作により、第2領域の方向及び位置の少なくとも何れか一方の変更を可能としてもよい。例えば、ユーザがコントローラ3を操作することにより、第2領域の方向又は位置の変更が可能であってもよい。 When the user changes the current line-of-sight direction, the update unit 114 does not move the direction or position of the second region in the local coordinate system with respect to the user, or the position of the second region within the first region. May be good. In this case, since the position of the second region in the first region is fixed, the second region does not deviate from the first region. Alternatively, the updating unit 114 may move the direction or position of the second region according to the change in the current line-of-sight direction. For example, the position of the second region may be fixed in the world coordinate system of the virtual space. For example, the updating unit 114 may move the second region to the left when the line-of-sight direction is rotated to the right, and may move the second region to the right when the line-of-sight direction is rotated to the left. In this case, the second region may deviate from the first region (may be out of frame). Therefore, the update unit 114 may be able to change at least one of the direction and the position of the second region by the operation of the user. For example, the user may be able to change the direction or position of the second region by operating the controller 3.

第2表示部115は、移動先における視線方向を変更する操作が完了することに応じて、第2特定部112により特定された移動先の位置及びユーザの操作に基づいて変更された、移動先における視線方向に応じた移動先視野映像を、第1領域に表示させる。例えば、ユーザは、コントローラ3を操作して、移動先における視線方向の確定を指示する。これに応じて、第2表示部115は、例えば現在の位置及び現在の視線方向を、第2特定部112により特定された移動先の位置、及びユーザの操作に基づいて変更された、移動先における視線方向に変更してもよい。第2表示部115は、移動先の全天球映像から、変更後の視線方向に応じて、第1領域に対応するクリッピング領域で移動先視野映像を切り取って生成してもよい。第2表示部115は、生成された移動先視野映像を、現在視野映像として、第1領域に表示してもよい。第2表示部115は、第2領域を画面から消去してもよい。また、第2表示部115は、変更前の現在位置に応じた現在視野映像と、移動先視野映像と、のうち、移動先視野映像のみ表示させてもよい。第2表示部115は、第2領域に表示されていた移動先視野映像が、第1領域に拡張したように、ユーザから見えるように、表示を行ってもよい。すなわち、第2表示部115は、移動先の全天球映像のうち、第2領域に表示されていた部分の表示が継続し、且つ、移動先の全天球映像のうち、現在視野映像で隠れていた部分が表示されるように、移動先視野映像を表示してもよい。瞬間移動直後に表示される現在視野映像の少なくとも一部は、移動前に移動先視野映像として第2領域に表示されていたので、瞬時に移動した後における方向の混乱の発生を抑えることができる。 The second display unit 115 is changed based on the position of the movement destination specified by the second specific unit 112 and the operation of the user in response to the completion of the operation of changing the line-of-sight direction at the movement destination. The moving destination visual field image corresponding to the line-of-sight direction in is displayed in the first area. For example, the user operates the controller 3 to instruct the determination of the line-of-sight direction at the moving destination. In response to this, the second display unit 115 changes, for example, the current position and the current line-of-sight direction based on the position of the destination specified by the second specific unit 112 and the operation of the user. It may be changed to the line-of-sight direction in. The second display unit 115 may cut and generate a moving destination visual field image in a clipping region corresponding to the first region according to the changed line-of-sight direction from the moving destination spherical image. The second display unit 115 may display the generated destination visual field image as the current visual field image in the first region. The second display unit 115 may erase the second area from the screen. Further, the second display unit 115 may display only the moving destination visual field image among the current visual field image and the moving destination visual field image according to the current position before the change. The second display unit 115 may display the moving destination visual field image displayed in the second area so that the user can see it as if it were expanded to the first area. That is, the second display unit 115 continues to display the portion displayed in the second region of the moving destination spherical image, and is the current visual field image of the moving destination spherical image. The moving-destination field-of-view image may be displayed so that the hidden portion is displayed. Since at least a part of the current visual field image displayed immediately after the teleportation is displayed in the second area as the destination visual field image before the teleportation, it is possible to suppress the occurrence of directional confusion after the teleportation. ..

次に、本実施形態のアプリケーションソフトウェアが、FPS(First Person Shooter)である場合における瞬間移動の具体例を説明する。FPSは、例えばユーザの視点でゲーム内の空間を確認することができるアクションゲームである。ゲーム内の空間には、ユーザが倒すべき様々な敵が出現してもよい。これらの敵はオブジェクトである。敵は、ユーザを襲ってもよい。 Next, a specific example of teleportation when the application software of the present embodiment is an FPS (First Person Shooter) will be described. FPS is an action game in which the space in the game can be confirmed from the user's point of view, for example. Various enemies that the user should defeat may appear in the space in the game. These enemies are objects. The enemy may attack the user.

図3(a)乃至図5(b)は、HMD2の画面例を示す図である。図3(a)において、例えばHMD2の画面全体に現在視野映像100が表示されている。現在視野映像100において、ブロック310及び320、並びに敵210が表示されている。各ブロックは、例えば壁、床、柱、岩、建物等の、ユーザを支えることが可能なオブジェクトである。ユーザは、ブロック310が有する面311上に立っている。敵210は、ブロック310から離れたブロック320が有する面321上に立っている。面311の向きと面321の向きとは同一である。面の向きとは、その面に垂直な方向であって、且つその面の裏側から表側への方向である。ユーザ及び敵は、面の向きに沿ってその面上に立つことになる。面上に立ったときのユーザの足から頭への方向を、起立方向という。起立方向は、面の向きと一致する。ユーザが、例えばコントローラ3を操作して、移動先の位置の指定の開始を指示すると、図3(a)に示すように、現在視野映像100上に、コントローラ110、ビーム120及びポインタ130が表示される。コントローラ110は、コントローラ3を模したオブジェクトである。ビーム120は、コントローラ110の先端から出力される。ビーム120は、移動先の方向を示す。ポインタ130は、ビーム120の先に表示される。ポインタ130は、移動先の位置を示す。例えば、ユーザがコントローラ3を動かすと、現在視野映像100上に表示されているポインタ130の位置も動き、移動先の変更が可能となる。コントローラ3の動きは、例えばセンサ4により検出される。 3 (a) to 5 (b) are diagrams showing screen examples of HMD2. In FIG. 3A, for example, the field of view image 100 is currently displayed on the entire screen of the HMD2. Currently, in the field of view image 100, the blocks 310 and 320 and the enemy 210 are displayed. Each block is an object that can support the user, such as a wall, floor, pillar, rock, or building. The user stands on the surface 311 of the block 310. The enemy 210 stands on the surface 321 of the block 320 away from the block 310. The orientation of the surface 311 and the orientation of the surface 321 are the same. The orientation of the surface is a direction perpendicular to the surface and from the back side to the front side of the surface. The user and the enemy will stand on the surface along the orientation of the surface. The direction from the user's feet to the head when standing on the surface is called the standing direction. The standing direction coincides with the orientation of the surface. When the user operates, for example, the controller 3 to instruct the start of designating the position of the movement destination, the controller 110, the beam 120, and the pointer 130 are displayed on the current visual field image 100 as shown in FIG. 3A. Will be done. The controller 110 is an object that imitates the controller 3. The beam 120 is output from the tip of the controller 110. The beam 120 indicates the direction of the movement destination. The pointer 130 is displayed ahead of the beam 120. The pointer 130 indicates the position of the movement destination. For example, when the user moves the controller 3, the position of the pointer 130 currently displayed on the field of view image 100 also moves, and the movement destination can be changed. The movement of the controller 3 is detected by, for example, the sensor 4.

図3(b)に示すように、ユーザがコントローラ3を動かすことに応じて、現在視野映像100上のポインタ130が移動する。そして、ユーザは、ブロック320が有する面322上に、ポインタ130を移動させる。面322の向きは、面311及び321それぞれの向きと同一である。面322は、面311よりも高い位置にある。 As shown in FIG. 3B, the pointer 130 on the current visual field image 100 moves in response to the user moving the controller 3. Then, the user moves the pointer 130 on the surface 322 of the block 320. The orientation of the surface 322 is the same as the orientation of the surfaces 311 and 321 respectively. The surface 322 is located higher than the surface 311.

ここで、ユーザは、例えばコントローラ3を操作して、移動先の位置の確定を指示する。これに応じて、特定部2は、移動先の位置を特定する。また、特定部2は、現在の視線方向と同一の方向を、移動先における視線方向として特定してもよい。そして、図4(a)に示すように、第1表示部は、現在視野映像100の一部に重畳して、第2領域の一例としてプレビュー枠400を表示し、プレビュー枠400内に、移動先視野映像410を表示する。この時点では、移動先視野映像410として地平線が表示されている。 Here, the user operates, for example, the controller 3 to instruct the determination of the position of the movement destination. In response to this, the specifying unit 2 specifies the position of the moving destination. Further, the specifying unit 2 may specify the same direction as the current line-of-sight direction as the line-of-sight direction at the moving destination. Then, as shown in FIG. 4A, the first display unit superimposes on a part of the current visual field image 100, displays the preview frame 400 as an example of the second region, and moves into the preview frame 400. The foreground image 410 is displayed. At this point, the horizon is displayed as the moving destination visual field image 410.

プレビュー枠400の表示中、ユーザは、例えばユーザの頭部を回転させることにより、移動先における視線方向を変更する。前述した、ユーザを基準とするローカル座標系において、z軸を中心として視線方向を左右に回転させること、及びx軸を中心として視線方向を上下に回転させることが可能であってもよい。敵210は、面322上における移動先の位置よりも下に位置している。また、敵210は、移動先における最初の視線方向よりも右側に位置している。そこで、ユーザは、敵210を撃つために、先ず視線方向を右方向に動かす。これに応じて、更新部114は、図4(b)に示すように、現在視野映像100及びプレビュー枠400内の移動先視野映像410を更新する。具体的に、現在視野映像100及び移動先視野映像410は、ともに左に流れる。次に、ユーザは、視線方向を下方向に動かす。これに応じて、更新部114は、図5(a)に示すように、現在視野映像100及びプレビュー枠400内の移動先視野映像410を更新する。具体的に、現在視野映像100及び移動先視野映像410は、ともに上に流れる。そして、プレビュー枠400には、移動先視野映像410として、面311上から見下ろした敵210の一部の映像が表示される。ここで、ユーザは、例えばコントローラ3を操作して、視線方向の確定を指示する。これに応じて、第2表示部115は、図5(b)に示すように、プレビュー枠400を消去し、現在視野映像100として、面311上から見下ろした敵210の全体の映像を、HMD2の画面全体に表示させる。 While displaying the preview frame 400, the user changes the line-of-sight direction at the moving destination, for example, by rotating the user's head. In the above-mentioned local coordinate system with reference to the user, it may be possible to rotate the line-of-sight direction left and right around the z-axis and rotate the line-of-sight direction up and down around the x-axis. The enemy 210 is located below the destination position on the surface 322. In addition, the enemy 210 is located on the right side of the initial line-of-sight direction at the destination. Therefore, the user first moves the line-of-sight direction to the right in order to shoot the enemy 210. In response to this, the updating unit 114 updates the current visual field image 100 and the moving destination visual field image 410 in the preview frame 400, as shown in FIG. 4B. Specifically, the current visual field image 100 and the moving destination visual field image 410 both flow to the left. Next, the user moves the line-of-sight direction downward. In response to this, the updating unit 114 updates the current visual field image 100 and the moving destination visual field image 410 in the preview frame 400, as shown in FIG. 5A. Specifically, the current visual field image 100 and the moving destination visual field image 410 both flow upward. Then, in the preview frame 400, a part of the image of the enemy 210 looking down from above the surface 311 is displayed as the moving destination visual field image 410. Here, the user operates, for example, the controller 3 to instruct the determination of the line-of-sight direction. In response to this, as shown in FIG. 5B, the second display unit 115 erases the preview frame 400, and displays the entire image of the enemy 210 looking down from above the surface 311 as the current field of view image 100, HMD2. Display on the entire screen of.

[2−2.移動先の面の向き]
図3(a)乃至図5(b)に示される例では、現在のユーザが位置している移動元の面の向きと、移動先の面の向きとが同一であった。しかしながら、ユーザは、移動元の面の向きとは異なる向きの面上の位置を、移動先の位置として指定可能であってもよい。前述したように、ユーザは、面の向きに沿って立つ。そのため、移動元におけるユーザの起立方向と、移動先におけるユーザの起立方向とは異なることになる。この場合、仮想空間内では、重力が無視されてもよい。仮想空間内に存在する各ブロックが有する面は、床及び壁の両方の性質を有してもよい。第1表示部113は、移動元の面の向きと移動先の面の向きとの相違に応じて、第2領域に表示される移動先視野映像を回転させてもよい。例えば、第1表示部113は、ユーザが位置する面の向きと、ユーザの視野における上方向と、が一致するように、視野映像を表示させてもよい。具体的に、第1表示部113は、ユーザが現在位置する面の向きと、第1領域における上方向と、が一致するように、現在視野映像を第1領域に表示してもよい。また、第1表示部113は、移動先の面の向きと、第2領域における上方向と、が一致するように、移動先視野映像を第2領域に表示してもよい。但し、ユーザを基準とずるローカル座標系において、ユーザの頭部がy軸を中心として傾いている場合、ユーザの視野もその傾き分更に回転してもよい。
[2-2. Orientation of the destination surface]
In the examples shown in FIGS. 3A to 5B, the orientation of the surface of the movement source where the current user is located is the same as the orientation of the surface of the movement destination. However, the user may be able to specify a position on the surface having a direction different from the direction of the surface of the movement source as the position of the movement destination. As mentioned above, the user stands along the orientation of the face. Therefore, the standing direction of the user at the moving source and the standing direction of the user at the moving destination are different. In this case, gravity may be ignored in the virtual space. The surface of each block existing in the virtual space may have both floor and wall properties. The first display unit 113 may rotate the moving destination visual field image displayed in the second area according to the difference between the orientation of the moving source surface and the orientation of the moving destination surface. For example, the first display unit 113 may display the visual field image so that the orientation of the surface on which the user is located and the upward direction in the user's visual field match. Specifically, the first display unit 113 may display the current visual field image in the first region so that the orientation of the surface on which the user is currently located and the upward direction in the first region coincide with each other. Further, the first display unit 113 may display the moving destination visual field image in the second region so that the orientation of the moving destination surface and the upward direction in the second region coincide with each other. However, in the local coordinate system based on the user, when the user's head is tilted about the y-axis, the user's field of view may be further rotated by the tilt.

図6(a)及び図6(b)は、HMD2の画面例を示す図である。図6(a)に示すように、現在視野映像100上に、敵210、ブロック310及び320、並びにバー330が表示されている。バー330は、地平線方向に長い棒である。ユーザは、現在ブロック310の面311上に立っている。敵210は、ブロック320の面321上に立っている。ユーザは、ポインタ130で、ブロック320が有する面323を指定する。面323は、面311及び321それぞれと直角である。ユーザによる移動先の位置の確定操作に応じて表示されるプレビュー枠400には、90度回転した移動先視野映像410が表示される。例えば、図6(a)に示すように、移動先視野映像410として、縦方向に長いバー330の映像が表示される。ここで、ユーザが、移動先における視線方向を、敵210に向けさせる。これに応じて、更新部114は、図6(b)に示すように、プレビュー枠400内に、移動先視野映像410として、横向きの敵210を表示させる。 6 (a) and 6 (b) are diagrams showing screen examples of HMD2. As shown in FIG. 6A, the enemy 210, the blocks 310 and 320, and the bar 330 are currently displayed on the field of view image 100. Bar 330 is a bar that is long in the horizon direction. The user is currently standing on surface 311 of block 310. The enemy 210 stands on the surface 321 of the block 320. The user specifies the surface 323 of the block 320 with the pointer 130. The surface 323 is perpendicular to the surfaces 311 and 321 respectively. In the preview frame 400 displayed in response to the operation of confirming the position of the moving destination by the user, the moving destination visual field image 410 rotated by 90 degrees is displayed. For example, as shown in FIG. 6A, an image of a bar 330 long in the vertical direction is displayed as a moving destination visual field image 410. Here, the user makes the line-of-sight direction at the moving destination point toward the enemy 210. In response to this, as shown in FIG. 6B, the updating unit 114 displays the sideways enemy 210 as the moving destination visual field image 410 in the preview frame 400.

図7は、移動先の面の向きと、第2領域に移動先視野映像を表示する際の、移動先における初期の視線方向と、の関係の例を示す図である。図7に示すように、仮想空間において、ユーザ10は、例えば面500上に立っている。面500の向きは、z軸の正の方向である。従って、ユーザ10の起立方向も、z軸の正の方向である。ユーザ10の視線方向600は、y軸の正の方向である。第1表示部113は、ユーザの起立方向を、移動先の面の向きと一致させるように、起立方向を変更してもよい。これに応じて、第1表示部113は、移動先における視線方向を決定する。このとき、第1表示部113は、ユーザによる方向の混乱の発生を抑えるように、視線方向を決定してもよい。例えば、ユーザ10が、面510を移動先として指定したとする。面510の向きは、面500の向きと同一である。従って、面510における視線方向610は、視線方向600と同一であってもよい。ユーザ10が、面520を移動先として指定したとする。面520の向きは、y軸の負の方向である。この場合、面520における視線方向620は、z軸の正の方向であってもよい。例えば、第1表示部113は、起立方向及び視線方向600を、x軸を中心に上へ90度回転させることにより、視線方向620を決定してもよい。ユーザ10が、面530を移動先として指定したとする。面530の向きは、x軸の負の方向である。この場合、面530における視線方向630は、z軸の正の方向であってもよい。例えば、第1表示部113は、起立方向及び視線方向600を、x軸を中心に上へ90度回転させるとともに、z軸を中心に右へ90度回転させることにより、視線方向630を決定してもよい。ユーザ10が、面540を移動先として指定したとする。面540の向きは、x軸の正の方向である。この場合、面540における視線方向640は、z軸の正の方向であってもよい。例えば、第1表示部113は、起立方向及び視線方向600を、x軸を中心に上へ90度回転させるとともに、z軸を中心に左へ90度回転させることにより、視線方向640を決定してもよい。ユーザ10が、面550を移動先として指定したとする。面550の向きは、z軸の負の方向である。この場合、面550における視線方向650は、y軸の正の方向であってもよい。例えば、第1表示部113は、起立方向及び視線方向600を、y軸を中心に180度回転させることにより、視線方向650を決定してもよい。この結果、視線方向は変化しないが、起立方向は変化する。なお、移動先として、y軸の正の方向に向く面の指定が可能であってもよい。 FIG. 7 is a diagram showing an example of the relationship between the orientation of the moving destination surface and the initial line-of-sight direction at the moving destination when displaying the moving destination visual field image in the second region. As shown in FIG. 7, in the virtual space, the user 10 stands on, for example, a surface 500. The orientation of the surface 500 is the positive direction of the z-axis. Therefore, the standing direction of the user 10 is also the positive direction of the z-axis. The line-of-sight direction 600 of the user 10 is the positive direction of the y-axis. The first display unit 113 may change the standing direction so that the standing direction of the user matches the direction of the moving destination surface. In response to this, the first display unit 113 determines the line-of-sight direction at the moving destination. At this time, the first display unit 113 may determine the line-of-sight direction so as to suppress the occurrence of confusion in the direction by the user. For example, suppose that the user 10 designates the surface 510 as the movement destination. The orientation of the surface 510 is the same as the orientation of the surface 500. Therefore, the line-of-sight direction 610 on the surface 510 may be the same as the line-of-sight direction 600. It is assumed that the user 10 designates the surface 520 as the movement destination. The orientation of the surface 520 is the negative direction of the y-axis. In this case, the line-of-sight direction 620 on the surface 520 may be the positive direction of the z-axis. For example, the first display unit 113 may determine the line-of-sight direction 620 by rotating the standing direction and the line-of-sight direction 600 upward by 90 degrees about the x-axis. It is assumed that the user 10 designates the surface 530 as the movement destination. The orientation of the surface 530 is the negative direction of the x-axis. In this case, the line-of-sight direction 630 on the surface 530 may be the positive direction of the z-axis. For example, the first display unit 113 determines the line-of-sight direction 630 by rotating the standing direction and the line-of-sight direction 600 upward by 90 degrees around the x-axis and rotating the line-of-sight direction 600 by 90 degrees to the right around the z-axis. You may. It is assumed that the user 10 designates the surface 540 as the movement destination. The orientation of the surface 540 is the positive direction of the x-axis. In this case, the line-of-sight direction 640 on the surface 540 may be the positive direction of the z-axis. For example, the first display unit 113 determines the line-of-sight direction 640 by rotating the standing direction and the line-of-sight direction 600 upward by 90 degrees around the x-axis and rotating the line-of-sight direction 600 by 90 degrees to the left around the z-axis. You may. It is assumed that the user 10 designates the surface 550 as the movement destination. The orientation of the surface 550 is the negative direction of the z-axis. In this case, the line-of-sight direction 650 on the surface 550 may be the positive direction of the y-axis. For example, the first display unit 113 may determine the line-of-sight direction 650 by rotating the standing direction and the line-of-sight direction 600 by 180 degrees around the y-axis. As a result, the line-of-sight direction does not change, but the standing direction changes. As the movement destination, it may be possible to specify a surface facing in the positive direction of the y-axis.

第1表示部113は、ユーザが現在位置するする移動元の面の向きに応じた現在視野映像と、移動先の面の向きに応じた移動先視野映像を表示させるとともに、移動元の面の向きと移動先の面の向きとの相違を示す相違情報を表示させてもよい。第1表示部113は、例えば、クリッピング領域(或いは第1領域又は第2領域)における上方向を、面の向き、すなわちユーザの起立方向に一致させて、そのクリッピング領域に投影される現在視野映像又は移動先視野映像を生成する。こうして、面の向きに応じた視野映像が生成される。相違情報は、面の向きの角度の相違をユーザに認識させることが可能な情報であってもよい。 The first display unit 113 displays the current visual field image according to the orientation of the moving source surface on which the user is currently located and the moving destination visual field image according to the orientation of the moving destination surface, and displays the moving destination visual field image according to the orientation of the moving source surface. Difference information indicating the difference between the orientation and the orientation of the destination surface may be displayed. The first display unit 113 matches the upward direction in the clipping region (or the first region or the second region) with the direction of the surface, that is, the standing direction of the user, and the first display unit 113 projects the current visual field image onto the clipping region. Alternatively, a moving-destination field-of-view image is generated. In this way, a visual field image corresponding to the orientation of the surface is generated. The difference information may be information that allows the user to recognize the difference in the angle of orientation of the surface.

図8(a)及び図8(b)は、相違情報の表示例を示す図である。例えば、第1表示部113は、図8(a)に示すように、プレビュー枠400の縁に、相違情報として、マーク421及びマーク422を表示させてもよい。マーク421は、現在視野映像において、ユーザが現在位置している面の向きを示す。従って、マーク421は、通常第1領域における上方向を示す。マーク421は、例えばプレビュー枠400の中心から、ユーザが現在位置している面の向きと同方向に位置してもよい。マーク422は、移動先視野映像において、ユーザが現在位置している面の向きを示す。例えば、マーク422は、プレビュー枠400の中心から、移動先の面の向きと同方向に位置してもよい。図8(a)に示す相違情報は、図6(a)に示すように、面323を移動先に指定した場合の相違情報の表示例である。これは、図7において面530を移動先に指定した場合に相当する。従って、マーク421が位置する方向と、マーク422が位置する方向は90度異なる。図8(a)は、図7において面550を移動先に指定した場合における相違情報の表示例を示す。従って、マーク421が位置する方向と、マーク422が位置する方向は180度異なる。 8 (a) and 8 (b) are diagrams showing a display example of the difference information. For example, as shown in FIG. 8A, the first display unit 113 may display the mark 421 and the mark 422 as difference information on the edge of the preview frame 400. The mark 421 indicates the orientation of the surface on which the user is currently located in the current visual field image. Therefore, the mark 421 usually indicates an upward direction in the first region. The mark 421 may be located, for example, from the center of the preview frame 400 in the same direction as the direction of the surface on which the user is currently located. The mark 422 indicates the orientation of the surface on which the user is currently located in the moving destination visual field image. For example, the mark 422 may be located in the same direction as the direction of the destination surface from the center of the preview frame 400. As shown in FIG. 6A, the difference information shown in FIG. 8A is a display example of the difference information when the surface 323 is designated as the movement destination. This corresponds to the case where the surface 530 is designated as the movement destination in FIG. 7. Therefore, the direction in which the mark 421 is located and the direction in which the mark 422 is located differ by 90 degrees. FIG. 8A shows an example of displaying difference information when the surface 550 is designated as the movement destination in FIG. 7. Therefore, the direction in which the mark 421 is located and the direction in which the mark 422 is located differ by 180 degrees.

移動先における視線方向を変更する操作が完了することに応じて、第1領域に移動先視野映像を表示するとき、第2表示部115は、第1領域に表示されている現在視野映像にエフェクトを付加してもよい。例えば、第2表示部115は、現在視野映像を、ユーザが現在位置する面の向きと移動先の面の向きとが成す角度分、回転させ、その直後に、移動先視野映像を第1領域に表示させてもよい。 When displaying the moving destination visual field image in the first area in response to the completion of the operation of changing the line-of-sight direction in the moving destination, the second display unit 115 has an effect on the current visual field image displayed in the first area. May be added. For example, the second display unit 115 rotates the current visual field image by an angle formed by the orientation of the surface where the user is currently located and the orientation of the destination surface, and immediately after that, the movement destination visual field image is displayed in the first region. It may be displayed in.

[2−3.プレビュー前における視線方向の変更]
ユーザが移動先の位置を指定した後、移動先視野映像の表示前に、移動先における初期の視線方向をユーザが指定可能なように、システム制御部11が構成されてもよい。この場合、ユーザによる移動先を指定する操作は、移動先の位置を指定する操作と、第2領域における移動先視野映像の表示前において、移動先における視線方向を変更する操作と、を含んでもよい。ここで、第2特定部112は、移動先の位置を指定する操作に基づいて、指定された移動先の位置を特定する。第2特定部112は、移動先の位置を特定したことに応じて、移動先における視線方向を示す視線情報を表示してもよい。視線情報は、例えば現在視野映像又は地図において、視線方向を示す矢印であってもよい。初期の視線情報は、例えば図7に示すように決定された視線方向を示してもよい。第2特定部112は、移動先における視線方向を変更する操作に基づいて、視線情報の表示を更新してもよい。例えば、ユーザがコントローラ3を操作することにより、視線方向の変更が可能であってもよい。移動先の面の向きをz軸の正の方向とした場合のローカル座標系において、視線方向を示す矢印が、z軸を中心に回転可能であってもよい。或いは、視線方向を示す矢印がz軸を中心に回転可能であるとともに、x軸を中心に回転可能であってもよい。第2特定部112は、ユーザの操作に基づいて変更された視線方向を、第2領域における移動先視野映像の表示開始時における、移動先における視線方向として特定してもよい。図9は、視線情報の表示例を示す図である。ユーザが、例えば移動先の位置を確定する操作を行うと、第2特定部112は、現在視野映像100上に、視野情報として矢印140を表示してもよい。矢印140は、例えばポインタ130から延びていてもよい。ユーザ操作により、矢印140がポインタ130を中心として回転する。ユーザが、矢印140の方向を確定する操作を行うと、第2特定部112は、矢印140の方向を、移動先における視線方向として特定する。第1表示部113は、現在視野映像100に重畳してプレビュー枠400を表示させ、プレビュー枠400内に、矢印140の方向に応じた移動先視野映像410を表示させる。プレビュー枠400の表示中も、ユーザは、移動先における視線方向の変更が可能である。
[2-3. Change the line-of-sight direction before preview]
The system control unit 11 may be configured so that the user can specify the initial line-of-sight direction at the moving destination after the user specifies the position of the moving destination and before displaying the moving destination visual field image. In this case, the operation of specifying the moving destination by the user may include an operation of specifying the position of the moving destination and an operation of changing the line-of-sight direction at the moving destination before displaying the moving destination visual field image in the second area. good. Here, the second specifying unit 112 specifies the position of the designated moving destination based on the operation of designating the position of the moving destination. The second specifying unit 112 may display the line-of-sight information indicating the line-of-sight direction at the moving destination in response to specifying the position of the moving destination. The line-of-sight information may be an arrow indicating the line-of-sight direction in, for example, a current visual field image or a map. The initial line-of-sight information may indicate the line-of-sight direction determined as shown in FIG. 7, for example. The second specific unit 112 may update the display of the line-of-sight information based on the operation of changing the line-of-sight direction at the moving destination. For example, the line-of-sight direction may be changed by the user operating the controller 3. In the local coordinate system when the direction of the destination surface is the positive direction of the z-axis, the arrow indicating the line-of-sight direction may be rotatable about the z-axis. Alternatively, the arrow indicating the line-of-sight direction may be rotatable about the z-axis and may be rotatable about the x-axis. The second specifying unit 112 may specify the line-of-sight direction changed based on the user's operation as the line-of-sight direction at the moving destination at the start of displaying the moving-destination visual field image in the second region. FIG. 9 is a diagram showing a display example of line-of-sight information. When the user performs an operation of, for example, determining the position of the moving destination, the second specific unit 112 may display the arrow 140 as the visual field information on the current visual field image 100. The arrow 140 may extend from, for example, the pointer 130. By user operation, the arrow 140 rotates around the pointer 130. When the user performs an operation of determining the direction of the arrow 140, the second specifying unit 112 specifies the direction of the arrow 140 as the line-of-sight direction at the moving destination. The first display unit 113 displays the preview frame 400 by superimposing it on the current visual field image 100, and displays the moving destination visual field image 410 according to the direction of the arrow 140 in the preview frame 400. Even while the preview frame 400 is being displayed, the user can change the line-of-sight direction at the moving destination.

第2特定部112は、特定された移動先の位置から、仮想空間に存在可能な複数のオブジェクトのうち少なくとも一の所定オブジェクトが位置する方向と、移動先における視線方向と、に基づいて、視線情報の表示態様を決定してもよい。そして、第2特定部112は、決定された表示態様で、視線情報を表示させてもよい。視線情報の表示態様の例として、透明度、色彩、模様、形状、大きさ等が挙げられる。これにより、ユーザは、第2領域に移動先視野映像を表示させる前に、移動先における視線方向を、所定オブジェクトに向けさせたり、所定オブジェクトから離したりすることができる。第2特定部112は、ユーザによる操作により、移動先における視線方向が変更されることに応じて、表示される視線情報の表示態様をリアルタイムで変化させてもよい。 The second specific unit 112 has a line of sight based on a direction in which at least one predetermined object among a plurality of objects that can exist in the virtual space is located from the position of the specified move destination and a line-of-sight direction at the move destination. The display mode of the information may be determined. Then, the second specific unit 112 may display the line-of-sight information in the determined display mode. Examples of display modes of line-of-sight information include transparency, color, pattern, shape, size, and the like. As a result, the user can direct the line-of-sight direction at the moving destination to the predetermined object or move it away from the predetermined object before displaying the moving destination visual field image in the second area. The second specific unit 112 may change the display mode of the displayed line-of-sight information in real time according to the change of the line-of-sight direction at the moving destination by the operation by the user.

所定のオブジェクトは、例えば所定の障害物であってもよい。障害物は、ユーザの視線を阻むオブジェクト又はユーザの移動を阻むオブジェクトであってもよい。所定の障害物は、例えば壁、柱、建物、岩、樹木等であってもよい。また、所定の障害物は、前述したブロックであってもよい。ユーザがブロックの上に立っているとき、そのブロックは通常ユーザの障害にはならない。一方、ユーザの正面にブロックが立っているとき、そのブロックはユーザの障害になる可能性がある。第2特定部112は、移動先の位置及び移動先における視線方向に応じたユーザの視野を、所定の障害物が塞ぐ場合と塞がない場合とで、視線情報の表示態様を異ならせてもよい。これにより、ユーザは障害物の方向が分かるので、視線方向を障害物から剃らすことにより、第2領域に移動先視野映像の表示を開始したときにユーザの視野を確保することができる。HMD2の画面における第2領域が、ユーザの視野に相当する。障害物が視野を塞ぐとは、視野全体又は視野の所定割合以上の領域に、障害物が映ることであってもよい。障害物が視野を塞がないとは、視野に障害物が全く映らないこと、又は視野の所定割合未満の領域に、障害物が映ることであってもよい。図10は、視線情報の表示態様の変更例を示す図である。なお、図10は、ユーザ及びその周囲を上空から見た様子を示す。図10に示すように、ユーザ10は、ブロック340の近くを、移動先の位置として指定した。矢印140がブロック340の方向に向くと、矢印140の透明度が高くなり、矢印140がブロック340の方向から逸れると、矢印140の透明度が低くなってもよい。 The predetermined object may be, for example, a predetermined obstacle. The obstacle may be an object that blocks the user's line of sight or an object that blocks the user's movement. The predetermined obstacle may be, for example, a wall, a pillar, a building, a rock, a tree, or the like. Further, the predetermined obstacle may be the above-mentioned block. When a user stands on a block, the block usually does not interfere with the user. On the other hand, when a block stands in front of the user, the block can be an obstacle to the user. The second specific unit 112 may display the line-of-sight information differently depending on whether a predetermined obstacle blocks or does not block the user's field of view according to the position of the moving destination and the line-of-sight direction at the moving destination. good. As a result, the user knows the direction of the obstacle, and by shaving the line-of-sight direction from the obstacle, the user's field of view can be secured when the display of the moving-destination field-of-view image is started in the second region. The second area on the screen of the HMD2 corresponds to the user's field of view. When an obstacle blocks the visual field, the obstacle may be reflected in the entire visual field or in a region of a predetermined ratio or more of the visual field. The fact that the obstacle does not block the visual field may mean that the obstacle does not appear in the visual field at all, or that the obstacle appears in an area less than a predetermined ratio of the visual field. FIG. 10 is a diagram showing an example of changing the display mode of the line-of-sight information. Note that FIG. 10 shows a state in which the user and its surroundings are viewed from the sky. As shown in FIG. 10, the user 10 has designated the vicinity of the block 340 as the destination position. When the arrow 140 points in the direction of the block 340, the transparency of the arrow 140 increases, and when the arrow 140 deviates from the direction of the block 340, the transparency of the arrow 140 may decrease.

第2特定部112は、特定された移動先の位置から、仮想空間に存在可能な複数のオブジェクトのうち少なくとも一の所定オブジェクトが位置する方向に基づいて、初期の視線情報により示される視線方向を決定してもよい。そして、第2特定部112は、決定された初期の視線方向を示す視線情報を表示させてもよい。これにより、移動先の初期の視線方向として、適切な方向が決定されるので、ユーザによる視線方向の変更操作の量又は変更操作の回数を削減することができる。 The second specific unit 112 determines the line-of-sight direction indicated by the initial line-of-sight information based on the direction in which at least one predetermined object among the plurality of objects that can exist in the virtual space is located from the specified position of the movement destination. You may decide. Then, the second specific unit 112 may display the line-of-sight information indicating the determined initial line-of-sight direction. As a result, an appropriate direction is determined as the initial line-of-sight direction of the moving destination, so that the amount of the line-of-sight direction changing operation by the user or the number of times of the changing operation can be reduced.

所定オブジェクトの少なくとも一つは、前述したような所定の障害物であってもよい。この場合、第2特定部112は、移動先の位置及び移動先における視線方向に応じたユーザの視野を、所定の障害物が塞がないように、初期の視線方向を決定してもよい。図11(a)は、初期の視線方向の決定例を示す図である。図11(a)に示すように、ユーザ10は、ブロック340の近くを、図7に示した、移動先における視線方向の決定例によれば、矢印140は、ブロック340が位置する方向に向くことになる。そこで、第2特定部112は、矢印140の方向を、ブロック340が位置する方向とは異なる方向に決定してもよい。 At least one of the predetermined objects may be a predetermined obstacle as described above. In this case, the second specific unit 112 may determine the initial line-of-sight direction so that the user's field of view according to the position of the moving destination and the line-of-sight direction at the moving destination is not blocked by a predetermined obstacle. FIG. 11A is a diagram showing an example of determining the initial line-of-sight direction. As shown in FIG. 11A, the user 10 points near the block 340 in the direction in which the block 340 is located according to the example of determining the line-of-sight direction at the moving destination shown in FIG. It will be. Therefore, the second specific unit 112 may determine the direction of the arrow 140 in a direction different from the direction in which the block 340 is located.

所定オブジェクトの少なくとも一つは、ユーザによる所定行動の対象となり得るオブジェクトであってもよい。所定行動の例として、オブジェクトに近付くこと、オブジェクトを捕まえること、オブジェクトを倒すこと、オブジェクトに話すこと、オブジェクトを観察すること等が挙げられる。所定行動の対象となり得るオブジェクトは、ユーザが所定行動をとることにより、ユーザが何らかの利益が得られるオブジェクトであってもよい。ユーザが得られる利益の例として、スコア若しくは経験値の獲得、お金若しくはアイテムの獲得、情報の獲得、ユーザが置かれる状況が現在の状況よりも良くなること等が挙げられる。第2特定部112は、移動先の位置から所定行動の対象となり得るオブジェクトが位置する方向を、初期の視線方向に決定してもよい。図11(b)は、初期の視線方向の決定例を示す図である。図7に示した、移動先における視線方向の決定例によれば、矢印140は、何れのオブジェクトにも向いていない。しかしながら、移動先の位置の近くには、敵220がいる。敵は、所定行動の対象となり得るオブジェクトの一例である。一般的にFPSでは、ユーザが敵を倒すことが、そのゲームの目的の一つである。ユーザは、敵を倒すことにより、スコア若しくは経験値を獲得したり、敵からお金若しくはアイテムを獲得したりすることができるかもしれない。そこで、第2特定部112は、矢印140の方向を、敵220が位置する方向に決定してもよい。所定のオブジェクトが複数存在する場合、第2特定部112は、視線方向の変更量が最も少ないオブジェクト又は移動先の位置から最も近いオブジェクトの方向を、初期の視線方向に決定してもよい。このとき、第2特定部112は、障害物等で隠れているオブジェクトは無視してもよい。 At least one of the predetermined objects may be an object that can be the target of a predetermined action by the user. Examples of predetermined actions include approaching an object, catching an object, defeating an object, talking to an object, observing an object, and the like. The object that can be the target of the predetermined action may be an object in which the user can obtain some benefit by taking the predetermined action. Examples of profits that a user can obtain include earning scores or experience points, earning money or items, earning information, and the situation in which the user is placed is better than the current situation. The second specific unit 112 may determine the direction in which the object that can be the target of the predetermined action is located from the position of the movement destination in the initial line-of-sight direction. FIG. 11B is a diagram showing an example of determining the initial line-of-sight direction. According to the example of determining the line-of-sight direction at the moving destination shown in FIG. 7, the arrow 140 does not face any object. However, there is an enemy 220 near the destination position. An enemy is an example of an object that can be the target of a given action. Generally, in FPS, one of the purposes of the game is for the user to defeat the enemy. The user may be able to earn scores or experience points, or earn money or items from the enemy by defeating the enemy. Therefore, the second specific unit 112 may determine the direction of the arrow 140 in the direction in which the enemy 220 is located. When a plurality of predetermined objects exist, the second specific unit 112 may determine the direction of the object having the smallest change in the line-of-sight direction or the object closest to the position of the movement destination as the initial line-of-sight direction. At this time, the second specific unit 112 may ignore the object hidden by the obstacle or the like.

[2−4.第2領域のサイズ]
第1表示部113は、第2領域に移動先視野映像を表示する場合、所定空間に存在可能な複数のオブジェクトのうち、少なくとも一の所定オブジェクトに基づいて、第2領域のサイズを決定してもよい。そして、第1表示部113は、決定されたサイズの第2領域に、移動先視野映像を表示させてもよい。第2領域のサイズに応じて、現在視野映像の面積及び移動先視野映像の面積が決まってもよい。具体的に、現在視野映像の面積と移動先視野映像の面積とはトレードオフであってもよい。例えば、第2領域のサイズが大きくなると、移動先視野映像の面積は大きくなり、現在視野映像の面積は小さくなる。第2領域のサイズが小さくなると、移動先視野映像の面積は小さくなり、現在視野映像の面積は大きくなる。こうして、現在視野映像からユーザが得られる情報量と、移動先視野映像からユーザが得られる情報量と、を調整することができる。
[2-4. Second area size]
When displaying the moving destination visual field image in the second area, the first display unit 113 determines the size of the second area based on at least one predetermined object among the plurality of objects that can exist in the predetermined space. May be good. Then, the first display unit 113 may display the moving destination visual field image in the second region of the determined size. The area of the current visual field image and the area of the destination visual field image may be determined according to the size of the second region. Specifically, there may be a trade-off between the area of the current visual field image and the area of the destination visual field image. For example, as the size of the second region increases, the area of the destination visual field image increases, and the area of the current visual field image decreases. As the size of the second region becomes smaller, the area of the moving-destination visual field image becomes smaller, and the area of the current visual field image becomes larger. In this way, it is possible to adjust the amount of information that the user can obtain from the current visual field image and the amount of information that the user can obtain from the moving destination visual field image.

第2領域のサイズの決定に用いられる所定オブジェクトは、第2領域に表示される移動先視野映像に含まれる所定のオブジェクトであってもよい。この場合、移動先視野映像の重要性に基づいて、第2領域のサイズが決定されることになる。この場合の所定オブジェクトは、前述したように、ユーザによる所定行動の対象となり得るオブジェクトであってもよい。また、所定オブジェクトは、ユーザが所定行動をとることにより、ユーザが何らかの利益が得られるオブジェクトであってもよい。 The predetermined object used for determining the size of the second region may be a predetermined object included in the moving destination visual field image displayed in the second region. In this case, the size of the second region is determined based on the importance of the moving destination visual field image. As described above, the predetermined object in this case may be an object that can be the target of a predetermined action by the user. Further, the predetermined object may be an object in which the user can obtain some benefit by taking a predetermined action.

第1表示部113は、第2領域に表示される移動先視野映像に含まれる所定オブジェクトの数に基づいて、第2領域のサイズを決定してもよい。例えば、第1表示部113は、移動先視野映像に含まれる所定オブジェクトの数が多いほど、第2領域のサイズを大きくし、移動先視野映像に含まれる所定オブジェクトの数が少ないほど、第2領域のサイズを小さくしてもよい。例えば、第2領域について基準となるサイズが予め定められていてもよい。第1表示部113は、例えば基準サイズの第2領域に含まれる所定オブジェクトの数が所定数未満である場合、第2領域のサイズを、基準サイズよりも小さくしてもよい。一方、第1表示部113は、基準サイズの第2領域に含まれる所定オブジェクトの数が所定数以上である場合、第2領域のサイズを、基準サイズよりも大きくしてもよい。この場合の所定オブジェクトは、ユーザにとって重要な特定種類のオブジェクト、例えば敵などであってもよい。所定オブジェクトの数が多いほど、移動先視野映像の重要性が増す。また、或る程度の割合のオブジェクトを移動先視野映像に含ませながら、現在視野映像の面積と移動先視野映像の面積とを調整することができる。 The first display unit 113 may determine the size of the second area based on the number of predetermined objects included in the moving destination visual field image displayed in the second area. For example, in the first display unit 113, the larger the number of predetermined objects included in the moving destination visual field image, the larger the size of the second region, and the smaller the number of predetermined objects included in the moving destination visual field image, the second. The size of the area may be reduced. For example, a reference size may be predetermined for the second region. For example, when the number of predetermined objects included in the second region of the reference size is less than the predetermined number, the first display unit 113 may make the size of the second region smaller than the reference size. On the other hand, when the number of predetermined objects included in the second region of the reference size is equal to or larger than the predetermined number, the first display unit 113 may make the size of the second region larger than the reference size. The predetermined object in this case may be a specific type of object that is important to the user, such as an enemy. The greater the number of predetermined objects, the more important the destination visual field image becomes. Further, it is possible to adjust the area of the current visual field image and the area of the moving destination visual field image while including a certain ratio of objects in the moving destination visual field image.

第1表示部113は、移動先の位置と、第2領域に表示される移動先視野映像に含まれる所定オブジェクトと、の間の距離に基づいて、第2領域のサイズを決定してもよい。例えば、第1表示部113は、この距離が短いほど、第2領域のサイズを大きくし、この距離が長いほど、第2領域のサイズを小さくしてもよい。第1表示部113は、所定オブジェクトの全体又は所定割合以上が第2領域に表示されるように、第2領域のサイズを決定してもよい。所定オブジェクトが複数存在する場合、第1表示部113は、移動先の位置から最も近いオブジェクトとの間の距離に基づいて、第2領域のサイズを決定してもよい。例えば、第2領域の最小のサイズが予め設定されていてもよい。第1表示部113は、最小のサイズの第2領域に表示される移動先視野映像に、所定オブジェクトの少なくとも一部が含まれている場合に、移動先の位置とそのオブジェクトとの間の距離に基づいて、第2領域のサイズを決定してもよい。ユーザが所定オブジェクトから近いほど、移動先で、ユーザがそのオブジェクトに関連して何らかの行動をとる必要性が高くなるので、移動先視野映像の重要性が増す。また、ユーザから所定オブジェクトが近いほど、ユーザの視野内におけるそのオブジェクトの単位時間当たりの移動量が大きくなる傾向がある。その場合であっても、移動先の視野内にオブジェクトが含まれる蓋然性を高くすることができる。 The first display unit 113 may determine the size of the second area based on the distance between the position of the movement destination and the predetermined object included in the movement destination visual field image displayed in the second area. .. For example, the first display unit 113 may increase the size of the second region as the distance is shorter, and may decrease the size of the second region as the distance is longer. The first display unit 113 may determine the size of the second region so that the entire predetermined object or a predetermined ratio or more is displayed in the second region. When a plurality of predetermined objects exist, the first display unit 113 may determine the size of the second region based on the distance from the position of the movement destination to the nearest object. For example, the minimum size of the second region may be preset. The first display unit 113 is a distance between the position of the movement destination and the object when the movement destination visual field image displayed in the second area of the minimum size includes at least a part of a predetermined object. The size of the second region may be determined based on. The closer the user is to a predetermined object, the greater the need for the user to take some action in relation to the object at the destination, thus increasing the importance of the destination visual field image. Further, the closer a predetermined object is to the user, the larger the amount of movement of the object per unit time in the user's field of view tends to be. Even in that case, it is possible to increase the probability that the object is included in the field of view of the moving destination.

第1表示部113は、第2領域に表示される移動先視野映像に、ユーザによる所定行動の対象となり得るオブジェクトが含まれるか否かに基づいて、第2領域のサイズを決定してもよい。例えば、第1表示部113は、移動先視野映像にそのオブジェクトが含まれている場合における第2領域のサイズを、移動先視野映像にそのオブジェクトが含まれていない場合における第2領域のサイズよりも大きくしてもよい。例えば、第1表示部113は、最小のサイズの第2領域に表示される移動先視野映像に、所定オブジェクトの少なくとも一部が含まれているか否かに基づいて、第2領域のサイズを決定してもよい。所定オブジェクトが存在する場合、移動先で、ユーザがそのオブジェクトに関連して何らかの行動をとる必要性が高くなるので、移動先視野映像の重要性が増す。 The first display unit 113 may determine the size of the second area based on whether or not the moving destination visual field image displayed in the second area includes an object that can be a target of a predetermined action by the user. .. For example, the first display unit 113 sets the size of the second region when the moving destination visual field image includes the object to the size of the second region when the moving destination visual field image does not include the object. May also be increased. For example, the first display unit 113 determines the size of the second region based on whether or not at least a part of a predetermined object is included in the moving destination visual field image displayed in the second region having the smallest size. You may. When a predetermined object exists, it becomes more necessary for the user to take some action in relation to the object at the moving destination, so that the moving destination visual field image becomes more important.

第2領域のサイズの決定に用いられる所定オブジェクトは、所定空間においてユーザに危険を及ぼすことが可能なオブジェクトであってもよい。ユーザに危険を及ぼすことの例として、ユーザを捕まえること、ユーザを倒すこと、ユーザの体力若しくは健康を損なわせること、ユーザの置かれる状況を、現在の状況よりも悪くさせること等が挙げられる。前述した敵は、ユーザに危険を及ぼすことが可能なオブジェクトの一例である。第1表示部113は、所定空間においてユーザに危険を及ぼすことが可能なオブジェクトにより、現在位置においてユーザに迫っている危険の度合いに基づいて、第2領域のサイズを決定してもよい。例えば、第1表示部113は、危険度が高いほど、第2領域のサイズを大きくし、危険度が低いほど、第2領域のサイズを小さくしてもよい。危険度が高いほど、現在視野映像から得られる情報量が多くなるので、ユーザが、移動先における視線方向を変更及び指定する操作を行っている間に危険を察知して、瞬間移動を中止して、その危険に対処することができる。或いは、ユーザは、現在視野映像を見ながら、ユーザ自身に危険が及ぶ前に、瞬間移動を完了させることができる。危険度は、例えば危険を及ぼすオブジェクトの数に基づいて決定されてもよい。例えば、第1表示部113は、現在位置から見えるオブジェクトの数又は現在位置から所定距離以内にいるオブジェクトの数が多いほど、危険度を高くしてもよい。或いは、危険度は、現在位置と、危険を及ぼすオブジェクトと、の間の距離に基づいて決定されてもよい。例えば、第1表示部113は、この距離が短いほど、危険度を高くしてもよい。或いは、危険度は、危険を及ぼすオブジェクトの強さに基づいて決定されてもよい。例えば、第1表示部113は、現在位置から見えるそのオブジェクトが見える場合又は現在位置から所定距離以内にそのオブジェクトがいる場合、そのオブジェクトが強いほど、危険度を高くしてもよい。 The predetermined object used for determining the size of the second region may be an object that can pose a danger to the user in the predetermined space. Examples of danger to the user include catching the user, defeating the user, impairing the physical strength or health of the user, making the situation of the user worse than the current situation, and the like. The enemies mentioned above are examples of objects that can pose a danger to the user. The first display unit 113 may determine the size of the second area based on the degree of danger approaching the user at the current position by an object that can pose a danger to the user in a predetermined space. For example, the first display unit 113 may increase the size of the second region as the degree of risk increases, and may decrease the size of the second region as the degree of danger decreases. The higher the degree of risk, the greater the amount of information currently obtained from the visual field image. And the danger can be dealt with. Alternatively, the user can complete the teleportation while currently viewing the visual field image before the user himself is at risk. The degree of risk may be determined, for example, based on the number of objects at risk. For example, the first display unit 113 may increase the risk as the number of objects visible from the current position or the number of objects within a predetermined distance from the current position increases. Alternatively, the degree of risk may be determined based on the distance between the current position and the object at risk. For example, the shorter the distance, the higher the risk of the first display unit 113 may be. Alternatively, the degree of risk may be determined based on the strength of the object at risk. For example, when the object seen from the current position is visible or the object is within a predetermined distance from the current position, the first display unit 113 may increase the risk as the object is stronger.

更新部114は、第2領域に移動先視野映像が表示されている間、例えばリアルタイムで第2領域のサイズを決定して変更してもよい。 The updating unit 114 may determine and change the size of the second region in real time, for example, while the moving destination visual field image is displayed in the second region.

図12(a)及び図12(b)は、第2領域のサイズの決定例を示す図である。図12(a)及び図12(b)は、移動先の位置から所定オブジェクトまでの距離に基づいて、第2領域のサイズが決定される場合の例を示す。図12(a)において、プレビュー枠400に表示される移動先視野映像410に、敵230が含まれている。移動先の位置から敵230までの距離が比較的に短いので、プレビュー枠400のサイズは比較的に大きい。図12(b)において、プレビュー枠400に表示される移動先視野映像410に、敵240が含まれている。移動先の位置から敵240までの距離は、図12(a)における移動先の位置から敵230までの距離までの距離よりも長い。そのため、図12(b)に示されるプレビュー枠400のサイズは、図12(a)に示されるプレビュー枠400のサイズよりも小さい。 12 (a) and 12 (b) are diagrams showing an example of determining the size of the second region. 12 (a) and 12 (b) show an example in which the size of the second region is determined based on the distance from the destination position to the predetermined object. In FIG. 12A, the moving destination visual field image 410 displayed in the preview frame 400 includes the enemy 230. Since the distance from the destination position to the enemy 230 is relatively short, the size of the preview frame 400 is relatively large. In FIG. 12B, the moving destination visual field image 410 displayed in the preview frame 400 includes the enemy 240. The distance from the destination position to the enemy 240 is longer than the distance from the destination position to the enemy 230 in FIG. 12 (a). Therefore, the size of the preview frame 400 shown in FIG. 12B is smaller than the size of the preview frame 400 shown in FIG. 12A.

[3.VRシステムの動作]
次に、VRシステムSの動作について、図13乃至図15を用いて説明する。システム制御部11は、記憶部13に記憶されたアプリケーションソフトウェアに含まれる各種プログラムコードに従って、図13乃至図15に示される処理を実行する。
[3. Operation of VR system]
Next, the operation of the VR system S will be described with reference to FIGS. 13 to 15. The system control unit 11 executes the processes shown in FIGS. 13 to 15 according to various program codes stored in the application software stored in the storage unit 13.

図13は、本実施形態に係る制御装置1のシステム制御部11によるアプリケーション処理の一例を示すフローチャートである。例えば、ユーザが、コントローラ3を操作することにより、アプリケーションソフトウェアを起動させる。そして、ユーザはログインを行う。これに応じて、システム制御部11は、アプリケーション処理を実行してもよい。 FIG. 13 is a flowchart showing an example of application processing by the system control unit 11 of the control device 1 according to the present embodiment. For example, the user activates the application software by operating the controller 3. Then, the user logs in. In response to this, the system control unit 11 may execute the application process.

図13に示すように、第1特定部111は、ユーザDBに記憶されている、ユーザの位置及び視線方向を、現在地及び現在の視線方向として取得する(ステップS101)。次いで、第1表示部113は、現在位置に応じた全天球映像を生成する(ステップS102)。例えば、第1表示部113は、地形DB及びオブジェクトDBに基づいて、現在位置周辺の地形及びオブジェクトそれぞれのパラメータを取得する。第1表示部113は、パラメータに基づいて、例えば現在位置を中心とする球面に、射影変換により各オブジェクト及び地形を描画してもよい。このとき、第1表示部113は、隠面消去、シェーディング、テクスチャマッピング等を行う。こうして、第1表示部113は、全天球映像を生成する。次いで、第1表示部1は、現在の視線方向に応じた現在視野映像を表示させる(ステップS103)。例えば、第1表示部113は、全天球映像から、現在の視線方向に応じたクリッピング領域内の映像を、現在視野映像として切り取る。このとき、第1表示部113は、ユーザが現在位置する面の向きと、第1領域における上方向、例えば画面における上方向と、が一致するように、クリッピング領域を必要に応じて回転させる。そして、第1表示部113は、切り取られた現在視野映像を、HMD2の画面に表示させる。 As shown in FIG. 13, the first specific unit 111 acquires the user's position and line-of-sight direction stored in the user DB as the current location and the current line-of-sight direction (step S101). Next, the first display unit 113 generates a spherical image according to the current position (step S102). For example, the first display unit 113 acquires the parameters of the terrain and the object around the current position based on the terrain DB and the object DB. The first display unit 113 may draw each object and terrain on a spherical surface centered on the current position, for example, by projective transformation based on the parameters. At this time, the first display unit 113 performs hidden surface erasing, shading, texture mapping, and the like. In this way, the first display unit 113 generates the spherical image. Next, the first display unit 1 displays the current visual field image according to the current line-of-sight direction (step S103). For example, the first display unit 113 cuts an image in the clipping region corresponding to the current line-of-sight direction from the spherical image as the current visual field image. At this time, the first display unit 113 rotates the clipping region as necessary so that the orientation of the surface on which the user is currently located coincides with the upward direction in the first region, for example, the upward direction on the screen. Then, the first display unit 113 displays the cut out current visual field image on the screen of the HMD2.

次いで、第1特定部111は、HMD2、コントローラ3及びセンサ4の少なくとも一つにより、歩行等の移動の操作及び現在の視線方向の変更操作の少なくとも何れか一方の操作が検出されたか否かを判定する(ステップS104)。操作が検出された場合(ステップS104:YES)、第1特定部111は、変更操作に基づいて、現在位置及び現在の視線方向を変更する(ステップS105)。第1特定部111は、ユーザDBに記憶されている現在位置及び視線方向を更新し、処理はステップS102に進む。こうして、ユーザの移動やユーザが向きを変えることに応じて、現在視野映像が更新される。なお、説明の便宜上、現在位置又は視線方向の変更があった場合にのみ、画面に表示される現在視野映像が更新されている。仮想空間内に、動くオブジェクトが存在する場合、そのオブジェクトの動きを現在視野映像に反映する必要がある。その場合、システム制御部11は、そのオブジェクトのパラメータをリアルタイムで変化させる。第1表示部113は、例えば、HMD2が対応するフレームレートに応じた時間間隔で、最新のパラメータに基づいて、全天球映像及び視野映像を更新してもよい。 Next, the first specific unit 111 determines whether or not at least one of the movement operation such as walking and the current line-of-sight direction change operation is detected by at least one of the HMD2, the controller 3, and the sensor 4. Determine (step S104). When the operation is detected (step S104: YES), the first specific unit 111 changes the current position and the current line-of-sight direction based on the change operation (step S105). The first specific unit 111 updates the current position and the line-of-sight direction stored in the user DB, and the process proceeds to step S102. In this way, the current visual field image is updated in response to the movement of the user or the change of direction of the user. For convenience of explanation, the current visual field image displayed on the screen is updated only when the current position or the line-of-sight direction is changed. If there is a moving object in the virtual space, it is necessary to reflect the movement of that object in the current field of view image. In that case, the system control unit 11 changes the parameters of the object in real time. The first display unit 113 may update the spherical image and the visual field image based on the latest parameters at time intervals corresponding to the frame rate supported by the HMD2, for example.

一方、操作が検出されなかった場合(ステップS104:NO)、第2特定部112は、HMD2、コントローラ3及びセンサ4の少なくとも一つにより、瞬間移動による移動先の位置を指定する操作が検出されたか否かを判定する(ステップS106)。操作が検出された場合(ステップS106:YES)、システム制御部11は、移動先初期視線方向決定処理を実行する(ステップS107)。 On the other hand, when the operation is not detected (step S104: NO), the second specific unit 112 detects an operation of designating the position of the movement destination by teleportation by at least one of the HMD2, the controller 3 and the sensor 4. It is determined whether or not it is (step S106). When the operation is detected (step S106: YES), the system control unit 11 executes the movement destination initial line-of-sight direction determination process (step S107).

図14は、本実施形態に係る制御装置1のシステム制御部11による移動先初期視線方向決定処理の一例を示すフローチャートである。図14に示すように、第2特定部112は、移動先の位置を特定する(ステップS201)。例えば、第2特定部112は、ポインタ130の位置を、移動先の位置として特定してもよい。 FIG. 14 is a flowchart showing an example of the movement destination initial line-of-sight direction determination process by the system control unit 11 of the control device 1 according to the present embodiment. As shown in FIG. 14, the second specifying unit 112 specifies the position of the moving destination (step S201). For example, the second specifying unit 112 may specify the position of the pointer 130 as the position of the moving destination.

次いで、第2特定部112は、移動先の位置から所定オブジェクトが位置する方向に基づいて、視線情報により示される、移動先における初期の視線方向を決定する(ステップS202)。例えば、第2特定部112は、先ず、ユーザが現在位置する面の向きと、移動先の面の向きと、が成す角度に基づいて、現在の視線方向を回転させて、移動先における仮の視線方向を決定する。次いで、第2特定部112は、仮の視線方向に応じた視野を、所定の障害物が塞いでいる場合、その視線方向を変更して、移動先における初期の視線方向を決定してもよい。例えば、第2特定部112は、移動先の位置に応じた全天球映像を生成してもよい。全天球映像の生成方法は、アプリケーション処理のステップS102と同様であってもよい。第2特定部112は、全天球映像の生成のための射影変換及び隠面消去等の処理で得られる情報に基づいて、仮の視線方向に応じた視野の所定割合以上の領域に、例えばブロック等の障害物が含まれている場合、その障害物の割合が所定値未満となるように、視線方向を決定する。或いは、第2特定部112は、移動先の位置から、ユーザによる所定行動の対象となり得るオブジェクトが位置する方向を、移動先における初期の視線方向として決定してもよい。例えば、第2特定部112は、全天球映像の生成のための射影変換及び隠面消去等の処理で得られる情報に基づいて、例えば敵等のオブジェクトが、移動先の位置から見ることができるか否かを判定してもよい。そのようなオブジェクトが見える場合、第2特定部112は、そのオブジェクトの方向を、初期の視線方向として計算してもよい。仮の視線方向を変更する必要が無い場合、第2特定部112は、その仮の視線方向を、初期の視線方向として決定してもよい。 Next, the second specific unit 112 determines the initial line-of-sight direction at the move destination, which is indicated by the line-of-sight information, based on the direction in which the predetermined object is located from the position of the move destination (step S202). For example, the second specific unit 112 first rotates the current line-of-sight direction based on the angle formed by the orientation of the surface where the user is currently located and the orientation of the destination surface, and temporarily rotates the current line-of-sight direction at the destination. Determine the line-of-sight direction. Next, the second specific unit 112 may change the line-of-sight direction when a predetermined obstacle blocks the field of view according to the temporary line-of-sight direction to determine the initial line-of-sight direction at the moving destination. .. For example, the second specific unit 112 may generate a spherical image according to the position of the movement destination. The method of generating the spherical image may be the same as in step S102 of the application process. The second specific unit 112 covers a region of a predetermined ratio or more of the visual field according to the tentative line-of-sight direction, for example, based on the information obtained by processing such as projective transformation and hidden surface erasure for generating spherical images. When an obstacle such as a block is included, the line-of-sight direction is determined so that the ratio of the obstacle is less than a predetermined value. Alternatively, the second specific unit 112 may determine the direction in which the object that can be the target of the predetermined action by the user is located from the position of the movement destination as the initial line-of-sight direction at the movement destination. For example, in the second specific unit 112, an object such as an enemy can be seen from the position of the movement destination based on the information obtained by the processing such as the projective transformation and the hidden surface erasure for generating the spherical image. It may be determined whether or not it can be done. When such an object is visible, the second specific unit 112 may calculate the direction of the object as the initial line-of-sight direction. When it is not necessary to change the temporary line-of-sight direction, the second specific unit 112 may determine the temporary line-of-sight direction as the initial line-of-sight direction.

次いで、第2特定部112は、移動先の位置から所定オブジェクトが位置する方向と、移動先における視線方向と、に基づいて、視線情報の表示態様を決定する(ステップS203)。例えば、第2特定部112は、移動先における視線方向に応じた視野を、所定の障害物が塞いでいる場合、視線情報の透明度を、所定の透明度に決定してもよい。第2特定部112は、移動先における視線方向に応じた視野を、所定の障害物が塞いでいない場合、視線情報の透明度を、所定の透明度よりも低い透明度に決定してもよい。 Next, the second specific unit 112 determines the display mode of the line-of-sight information based on the direction in which the predetermined object is located from the position of the move destination and the line-of-sight direction at the move destination (step S203). For example, the second specific unit 112 may determine the transparency of the line-of-sight information to a predetermined transparency when a predetermined obstacle blocks the field of view according to the line-of-sight direction at the moving destination. The second specific unit 112 may determine the transparency of the line-of-sight information to be lower than the predetermined transparency when the field of view according to the line-of-sight direction at the moving destination is not blocked by a predetermined obstacle.

次いで、第2特定部112は、決定された表示態様で、視線情報を、HMD2の画面に表示させる(ステップS204)。例えば、第2特定部112は、ポインタ130から、決定された視線方向へ向いた矢印140を表示してもよい。このとき、第2特定部112は、決定された透明度で矢印140を表示してもよい。 Next, the second specific unit 112 displays the line-of-sight information on the screen of the HMD2 in the determined display mode (step S204). For example, the second specific unit 112 may display an arrow 140 directed in the determined line-of-sight direction from the pointer 130. At this time, the second specific unit 112 may display the arrow 140 with the determined transparency.

次いで、第2特定部112は、HMD2、コントローラ3及びセンサ4の少なくとも一つにより、移動先における視線方向の変更操作が検出されたか否かを判定する(ステップS205)。操作が検出された場合(ステップS205:YES)、第2特定部112は、視線情報の表示を更新する(ステップS206)。例えば、第2特定部112は、変更された視線方向に向くように、矢印140の表示を変更してもよい。ステップS206の後、処理はステップS203に進む。 Next, the second specific unit 112 determines whether or not the operation of changing the line-of-sight direction at the moving destination is detected by at least one of the HMD2, the controller 3, and the sensor 4 (step S205). When the operation is detected (step S205: YES), the second specific unit 112 updates the display of the line-of-sight information (step S206). For example, the second specific unit 112 may change the display of the arrow 140 so as to face the changed line-of-sight direction. After step S206, the process proceeds to step S203.

一方、操作が検出されなかった場合(ステップS205:NO)、第2特定部112は、HMD2、コントローラ3及びセンサ4の少なくとも一つにより、移動先における視線方向の確定操作が検出されたか否かを判定する(ステップS207)。操作が検出されなかった場合(ステップS207:NO)、処理はステップS205に進む。操作が検出された場合(ステップS207:YES)、第2特定部は、移動先視野映像の表示開始時における、移動先における視線方向を、現在の視線情報により示される視線方向に決定して(ステップS208)、移動先初期視線方向決定処理は終了する。図13に戻り、移動先初期視線方向決定処理が終了すると、システム制御部11は、移動先視野映像プレビュー処理を実行する(ステップS108)。 On the other hand, when the operation is not detected (step S205: NO), the second specific unit 112 determines whether or not the operation for confirming the line-of-sight direction at the moving destination is detected by at least one of the HMD2, the controller 3, and the sensor 4. Is determined (step S207). If no operation is detected (step S207: NO), the process proceeds to step S205. When the operation is detected (step S207: YES), the second specific unit determines the line-of-sight direction at the moving destination at the start of displaying the moving-destination visual field image to the line-of-sight direction indicated by the current line-of-sight information (step S207: YES). Step S208), the process of determining the initial line-of-sight direction of the moving destination is completed. Returning to FIG. 13, when the moving destination initial line-of-sight direction determination processing is completed, the system control unit 11 executes the moving destination visual field image preview processing (step S108).

図15は、本実施形態に係る制御装置1のシステム制御部11による移動先視野映像プレビュー処理の一例を示すフローチャートである。図15に示すように、第1表示部113は、移動先の位置に応じた全天球映像を生成する(ステップS301)。生成に用いられるユーザの位置が移動先の位置であることを除き、全天球映像の生成方法は、ステップS102と同一であってもよい。 FIG. 15 is a flowchart showing an example of the moving destination visual field image preview processing by the system control unit 11 of the control device 1 according to the present embodiment. As shown in FIG. 15, the first display unit 113 generates a spherical image according to the position of the movement destination (step S301). The method of generating the spherical image may be the same as that of step S102, except that the position of the user used for generation is the position of the movement destination.

次いで、第1表示部113は、第2領域のサイズを決定する(ステップS302)。第1表示部113は、第2領域に表示される移動先視野映像に含まれる所定オブジェクトに基づいて、第2領域のサイズを決定してもよい。例えば、第1表示部113は、移動先の全天球映像を生成するための射影変換及び隠面消去等の処理で得られる情報に基づいて、移動先における視線方向及び第2領域に対応する視野内にある所定オブジェクトの数を計算してもよい。第1表示部113は、所定オブジェクトの数が多いほど、第2領域のサイズを大きくしてもよい。或いは、第1表示部113は、移動先の位置から、移動先における視線方向及び第2領域に対応する視野内にある所定オブジェクトまでの距離を計算してもよい。第1表示部113は、計算された距離が短いほど、第2領域のサイズを大きくしてもよい。或いは、第1表示部113は、移動先における視線方向及び第2領域に対応する視野内に、所定オブジェクトが含まれるか否かを判定してもよい。所定オブジェクトが含まれない場合、第1表示部113は、第2領域のサイズを、所定サイズに決定してもよい。所定オブジェクトが含まれる合、第1表示部113は、第2領域のサイズを、所定サイズよりも大きいサイズに決定してもよい。或いは、第1表示部113は、現在位置においてユーザに迫る危険の度合いを計算してもよい。例えば、第1表示部113は、オブジェクトDBに基づいて、現在位置から所定距離以内に存在するオブジェクトのうち、ユーザに危険を及ぼし得るオブジェクトの数を計算してもよい。第1表示部113は、ユーザに危険を及ぼし得るオブジェクトの数が多いほど、危険度を高くしてもよい。第1表示部113は、危険度が高いほど、第2領域のサイズを小さくしてもよい。 Next, the first display unit 113 determines the size of the second region (step S302). The first display unit 113 may determine the size of the second area based on a predetermined object included in the moving destination visual field image displayed in the second area. For example, the first display unit 113 corresponds to the line-of-sight direction and the second region at the moving destination based on the information obtained by processing such as projective transformation and hidden surface erasing for generating the spherical image of the moving destination. You may calculate the number of predetermined objects in the field of view. The first display unit 113 may increase the size of the second region as the number of predetermined objects increases. Alternatively, the first display unit 113 may calculate the distance from the position of the movement destination to the line-of-sight direction at the movement destination and a predetermined object in the visual field corresponding to the second region. The first display unit 113 may increase the size of the second region as the calculated distance is shorter. Alternatively, the first display unit 113 may determine whether or not the predetermined object is included in the line-of-sight direction at the moving destination and the visual field corresponding to the second region. When the predetermined object is not included, the first display unit 113 may determine the size of the second region to the predetermined size. When a predetermined object is included, the first display unit 113 may determine the size of the second region to be larger than the predetermined size. Alternatively, the first display unit 113 may calculate the degree of danger approaching the user at the current position. For example, the first display unit 113 may calculate the number of objects that may pose a danger to the user among the objects existing within a predetermined distance from the current position based on the object DB. The first display unit 113 may increase the degree of danger as the number of objects that may pose a danger to the user increases. The size of the second region may be reduced as the risk of the first display unit 113 increases.

次いで、第1表示部113は、決定されたサイズで、第2領域を、第1領域に表示されている現在視野映像の一部に重畳して表示する(ステップS303)。例えば、第1表示部113は、現在視野映像の表示を継続させながら、画面の一部の領域として、プレビュー枠400を表示してもよい。 Next, the first display unit 113 superimposes and displays the second region on a part of the current visual field image displayed in the first region with the determined size (step S303). For example, the first display unit 113 may display the preview frame 400 as a part of the screen while continuing to display the current visual field image.

次いで、第1表示部113は、移動先における決定された視線方向に応じた移動先視野映像を、第2領域に表示させる(ステップS304)。例えば、第1表示部113は、移動先の全天球映像から、移動先における視線方向及び決定されたサイズのプレビュー枠400に応じたクリッピング領域内の映像を、移動先視野映像として切り取る。このとき、第1表示部113は、移動先の面の向きと、プレビュー枠400における上方向と、が一致するように、クリッピング領域を必要に応じて回転させる。そして、第1表示部113は、切り取られた移動先視野映像を、プレビュー枠400に表示させる。 Next, the first display unit 113 displays the moving destination visual field image according to the determined line-of-sight direction at the moving destination in the second region (step S304). For example, the first display unit 113 cuts an image in the clipping region corresponding to the line-of-sight direction at the moving destination and the preview frame 400 of the determined size from the moving destination spherical image as the moving destination visual field image. At this time, the first display unit 113 rotates the clipping region as necessary so that the orientation of the destination surface and the upward direction in the preview frame 400 coincide with each other. Then, the first display unit 113 displays the cut-out destination visual field image in the preview frame 400.

次いで、更新部114は、HMD2、コントローラ3及びセンサ4の少なくとも一つにより、視線方向を変更する操作を検出したか否かを判定する(ステップS305)。操作が検出された場合(ステップS305)、更新部114は、現在の視線方向及び移動先における視線方向を変更する(ステップS306)。例えば、更新部114は、ユーザの操作に基づいて、ユーザが現在位置する面の向きに応じた第1のローカル座標系と、移動先の面の向きに応じた第2のローカル座標系と、の間において、現在の視線方向及び移動先における視線方向を、同一方向及び同一角度で回転させてもよい。次いで、更新部114は、変更された現在の視線方向に応じた現在視野映像を、第1表示領域に表示させて(ステップS307)、処理はステップS304に進む。ステップS304〜S307が繰り返されることにより、視線方向を変更する操作に応じて、第1領域に表示される現在視野映像及び第1領域に表示される移動先視野映像が更新される。なお、前述した理由と同じ理由により、更新部114は、HMD2が対応するフレームレートに応じた時間間隔で、オブジェクトの最新のパラメータに基づいて、現在視野映像及び移動先視野映像を更新してもよい。 Next, the update unit 114 determines whether or not the operation of changing the line-of-sight direction is detected by at least one of the HMD 2, the controller 3, and the sensor 4 (step S305). When the operation is detected (step S305), the update unit 114 changes the current line-of-sight direction and the line-of-sight direction at the moving destination (step S306). For example, the update unit 114 has a first local coordinate system according to the orientation of the surface on which the user is currently located, and a second local coordinate system according to the orientation of the surface to which the user is currently located, based on the user's operation. The current line-of-sight direction and the line-of-sight direction at the destination may be rotated in the same direction and at the same angle. Next, the updating unit 114 displays the changed current visual field image according to the current line-of-sight direction in the first display area (step S307), and the process proceeds to step S304. By repeating steps S304 to S307, the current visual field image displayed in the first area and the moving destination visual field image displayed in the first area are updated according to the operation of changing the line-of-sight direction. For the same reason as described above, the update unit 114 may update the current field of view image and the destination field of view image based on the latest parameters of the object at time intervals according to the frame rate supported by the HMD2. good.

一方、操作が検出されなかった場合(ステップS305:NO)、更新部114は、HMD2、コントローラ3及びセンサ4の少なくとも一つにより、視線方向を確定する操作を検出したか否かを判定する(ステップS308)。操作が検出されなかった場合(ステップS308:NO)、処理はステップS305に進む。一方、操作が検出された場合(ステップS308:YES)、移動先視野映像プレビュー処理は終了する。 On the other hand, when the operation is not detected (step S305: NO), the update unit 114 determines whether or not the operation for determining the line-of-sight direction is detected by at least one of the HMD 2, the controller 3, and the sensor 4 (step S305: NO). Step S308). If no operation is detected (step S308: NO), the process proceeds to step S305. On the other hand, when the operation is detected (step S308: YES), the moving destination visual field image preview process ends.

図13に戻り、移動先視野映像プレビュー処理が終了すると、第2表示部115は、現在位置及び現在の視線方向を、移動先の位置及び移動先における確定した視線方向に変更する(ステップS109)。次いで、第2表示部115は、現在視野映像及び第2領域を画面から消去して、移動先視野映像を、新たな現在視野映像として、第1領域に表示する(ステップS110)。ステップS110の後、処理は、ステップS102に進む。 Returning to FIG. 13, when the moving destination visual field image preview processing is completed, the second display unit 115 changes the current position and the current line-of-sight direction to the position of the moving destination and the fixed line-of-sight direction at the moving destination (step S109). .. Next, the second display unit 115 erases the current visual field image and the second region from the screen, and displays the moving destination visual field image as a new current visual field image in the first region (step S110). After step S110, the process proceeds to step S102.

ステップS106において、移動先を指定する操作が検出されなかった場合(ステップS106:NO)、システム制御部11は、仮想現実を終了させるか否かを判定する(ステップS111)。例えば、システム制御部11は、ユーザがログアウトする操作を行ったとき、仮想現実を終了させると判定してもよい。或いは、システム制御部11は、ゲームオーバになったとき、仮想現実を終了させると判定してもよい。仮想現実が終了しない場合(ステップS111:NO)、処理はステップS102に進む。一方、仮想現実が終了する場合(ステップS111:YES)、アプリケーション処理は終了する。 If the operation of designating the movement destination is not detected in step S106 (step S106: NO), the system control unit 11 determines whether or not to terminate the virtual reality (step S111). For example, the system control unit 11 may determine that the virtual reality is terminated when the user performs an operation to log out. Alternatively, the system control unit 11 may determine that the virtual reality is terminated when the game is over. If the virtual reality does not end (step S111: NO), the process proceeds to step S102. On the other hand, when the virtual reality ends (step S111: YES), the application process ends.

以上説明したように、本実施形態によれば、制御装置1が、所定空間におけるユーザの現在位置及び現在の視線方向を特定する。また、制御装置1が、所定空間における移動先を指定する操作に基づいて、移動先の位置及び移動先における視線方向を特定する。また、制御装置1が、特定された現在位置及び現在の視線方向に応じた現在視野映像を、現在の視野に相応する第1領域に表示させながら、第1領域の一部と重複する第2領域に、特定された移動先の位置及び移動先における視線方向に応じた移動先視野映像を表示させる。また、制御装置1が、移動先における視線方向を変更する操作に基づいて、第2領域に表示されている移動先視野映像を更新する。また、制御装置1が、視線方向の変更操作が完了することに応じて、特定された移動先の位置及び変更された移動先における視線方向に応じた移動先視野映像を、第1領域に表示させる。従って、ユーザは、移動先に移動する前に、移動先における視線方向を変更しながら、移動先で見える映像を確認することができる。そのため、瞬時に移動した後における方向の混乱の発生を抑えることができる。 As described above, according to the present embodiment, the control device 1 specifies the current position of the user and the current line-of-sight direction in the predetermined space. Further, the control device 1 specifies the position of the moving destination and the line-of-sight direction at the moving destination based on the operation of designating the moving destination in the predetermined space. Further, the control device 1 displays the current visual field image corresponding to the specified current position and the current line-of-sight direction in the first region corresponding to the current visual field, and overlaps with a part of the first region. In the area, the moving destination visual field image corresponding to the specified position of the moving destination and the line-of-sight direction at the moving destination is displayed. Further, the control device 1 updates the moving destination visual field image displayed in the second area based on the operation of changing the line-of-sight direction at the moving destination. Further, when the control device 1 completes the operation of changing the line-of-sight direction, the control device 1 displays the moving-destination visual field image according to the specified position of the moving destination and the line-of-sight direction at the changed moving destination in the first region. Let me. Therefore, the user can confirm the image seen at the moving destination while changing the line-of-sight direction at the moving destination before moving to the moving destination. Therefore, it is possible to suppress the occurrence of directional confusion after the movement is instantaneous.

ここで、制御装置1が、ユーザが現在位置する面の向きに応じた現在視野映像と、移動先の面の向きに応じた移動先視野映像と、を表示させるとともに、ユーザが現在位置する面の向きと移動先の面の向きとの相違を示す相違情報を表示させてもよい。この場合、ユーザが現在位置している面の向きとは異なる向きの面上に、ユーザは移動することができる。ユーザがそれぞれの面に立つことを想定すると、移動先におけるユーザの視野範囲は、ユーザが現在位置している面の向きと移動先の面の向きとの相違分回転している。従って、移動先視野映像は回転している。ここで、ユーザが現在位置している面の向きと移動先の面の向きとの相違を示す情報が表示されるので、ユーザは、視野が回転していることを認識することができる。 Here, the control device 1 displays the current visual field image according to the orientation of the surface on which the user is currently located and the moving destination visual field image according to the orientation of the moving destination surface, and the surface on which the user is currently located. Difference information indicating the difference between the orientation of and the orientation of the destination surface may be displayed. In this case, the user can move on a surface having a direction different from the direction of the surface on which the user is currently located. Assuming that the user stands on each surface, the user's field of view at the destination is rotated by the difference between the orientation of the surface on which the user is currently located and the orientation of the destination surface. Therefore, the destination visual field image is rotating. Here, since the information indicating the difference between the orientation of the surface on which the user is currently located and the orientation of the surface to which the user is moving is displayed, the user can recognize that the field of view is rotating.

制御装置1が、視線方向の変更操作に基づいて、第1領域に表示されている現在視野映像と、第2領域に表示されている移動先視野映像と、を更新してもよい。この場合、第2領域に移動先視野映像が表示されているときに、現在の視線方向を変更する操作が行われことに応じて、現在の視線方向が変更されるとともに、移動先における視線方向も変更される。この変更に応じて、現在視野映像及び移動先視野映像が更新される。従って、ユーザは、違和感なく視線方向を変更することができる。 The control device 1 may update the current visual field image displayed in the first region and the moving destination visual field image displayed in the second region based on the operation of changing the line-of-sight direction. In this case, when the moving destination visual field image is displayed in the second area, the current line-of-sight direction is changed according to the operation of changing the current line-of-sight direction, and the line-of-sight direction at the moving destination is changed. Will also be changed. In response to this change, the current visual field image and the moving destination visual field image are updated. Therefore, the user can change the line-of-sight direction without discomfort.

制御装置1が、移動先の位置を指定する操作に基づいて、移動先の位置を特定してもよい。また、制御装置1が、移動先の位置が特定されたことに応じて、移動先における視線方向を示す視線情報を表示してもよい。また、制御装置1が、第2領域における移動先視野映像の表示前において、移動先における視線方向を変更する操作に基づいて、視線情報の表示を更新してもよい。また、視線方向の変更操作が完了することに応じて、この変更操作に基づいて変更された移動先における視線方向を、第2領域における移動先視野映像の表示開始時における移動先における視線方向として特定してもよい。この場合、第2領域における移動先視野映像の表示開始時における、移動先における視線方向を、ユーザが指定することができる。 The control device 1 may specify the position of the movement destination based on the operation of designating the position of the movement destination. Further, the control device 1 may display the line-of-sight information indicating the line-of-sight direction at the move destination according to the position of the move destination being specified. Further, the control device 1 may update the display of the line-of-sight information based on the operation of changing the line-of-sight direction at the moving destination before displaying the moving-destination visual field image in the second region. Further, when the operation of changing the line-of-sight direction is completed, the line-of-sight direction at the moving destination changed based on this changing operation is set as the line-of-sight direction at the moving destination at the start of displaying the moving-destination visual field image in the second region. It may be specified. In this case, the user can specify the line-of-sight direction at the moving destination at the start of displaying the moving destination visual field image in the second region.

ここで、制御装置1が、特定された移動先の位置から、所定空間に存在可能な複数のオブジェクトのうち少なくとも一の所定オブジェクトが位置する方向と、移動先における視線方向と、に基づいて、視線情報の表示態様を決定してもよい。また、制御装置1が、決定された表示態様で視線情報を表示させてもよい。この場合、所定オブジェクトが位置する方向と、移動先における視線方向と、に基づく表示態様で、視線情報が表示される。従って、ユーザは、移動先における視線方向における所定オブジェクトの存在性を確認して、視線方向を変更したり変更しなかったりすることができる。 Here, the control device 1 is based on the direction in which at least one predetermined object among the plurality of objects that can exist in the predetermined space is located from the specified position of the movement destination and the line-of-sight direction at the movement destination. The display mode of the line-of-sight information may be determined. Further, the control device 1 may display the line-of-sight information in the determined display mode. In this case, the line-of-sight information is displayed in a display mode based on the direction in which the predetermined object is located and the line-of-sight direction at the moving destination. Therefore, the user can confirm the existence of the predetermined object in the line-of-sight direction at the moving destination and change or not change the line-of-sight direction.

ここで、制御装置1が、移動先の位置及び移動先における視線方向に応じた視野を、所定の障害物が塞ぐ場合と塞がない場合とで、視線情報の表示態様を異ならせてもよい。この場合、移動先における視野を障害物が塞ぐ場合と塞がない場合とで、視線情報の表示態様が異なる。従って、視線情報を見たユーザは、必要に応じて、移動先における視線方向を、障害物から逸らすことができる。 Here, the control device 1 may display the line-of-sight information differently depending on whether the predetermined obstacle blocks or does not block the visual field according to the position of the moving destination and the line-of-sight direction at the moving destination. .. In this case, the display mode of the line-of-sight information differs depending on whether the field of view at the moving destination is blocked by an obstacle or not. Therefore, the user who sees the line-of-sight information can deviate the line-of-sight direction at the moving destination from the obstacle, if necessary.

或いは、制御装置1が、特定された移動先の位置から、所定空間に存在可能な複数のオブジェクトのうち少なくとも一の所定オブジェクトが位置する方向に基づいて、初期の視線方向を決定してもよい。また、制御装置1が、決定された初期の視線方向を、移動先における視線方向として示す視線情報を表示させてもよい。この場合、所定オブジェクトが位置する方向との関係で適切な視線方向が決定されるので、ユーザによる視線方向の変更量又は変更回数を削減することができる。 Alternatively, the control device 1 may determine the initial line-of-sight direction from the specified movement destination position based on the direction in which at least one predetermined object among the plurality of objects that can exist in the predetermined space is located. .. Further, the control device 1 may display the line-of-sight information indicating the determined initial line-of-sight direction as the line-of-sight direction at the moving destination. In this case, since an appropriate line-of-sight direction is determined in relation to the direction in which the predetermined object is located, the amount or number of changes in the line-of-sight direction by the user can be reduced.

ここで、制御装置1が、移動先の位置及び初期の視線方向に応じた視野を、障害物が塞がないように、初期の視線方向を決定してもよい。この場合、ユーザによる、所定の障害物から視線方向を逸らす操作を削減することができる。 Here, the control device 1 may determine the initial line-of-sight direction so that the field of view corresponding to the position of the moving destination and the initial line-of-sight direction is not obstructed by obstacles. In this case, it is possible to reduce the operation by the user to deviate the line-of-sight direction from a predetermined obstacle.

或いは、制御装置1が、移動先の位置から所定行動の対象となり得るオブジェクトが位置する方向を、初期の視線方向に決定してもよい。この場合、ユーザによる所定行動の対象となり得るオブジェクトが位置する方向が、初期の視線方向として決定される。従って、所定行動をとるための準備として、ユーザがそのオブジェクトに視線を向ける操作を削減することができる。 Alternatively, the control device 1 may determine the direction in which the object that can be the target of the predetermined action is located from the position of the movement destination in the initial line-of-sight direction. In this case, the direction in which the object that can be the target of the predetermined action by the user is located is determined as the initial line-of-sight direction. Therefore, it is possible to reduce the operation of the user looking at the object in preparation for taking a predetermined action.

制御装置1が、所定空間に存在可能な複数のオブジェクトのうち、少なくとも一の所定オブジェクトに基づいて、第2領域のサイズを決定してもよい。また、制御装置1が、決定されたサイズの第2領域に、移動先視野映像を表示させてもよい。この場合、第2領域のサイズが変わると、第2領域の表示される第2領域の面積が変わる。また、第2領域は、第1領域の一部と重複するので、第2領域のサイズが変わると、第1領域に表示される第1領域の面積も変わる。例えば、第2領域が大きくなると、第2領域の面積は大きくなり、第1領域の面積は小さくなる。従って、現在視野映像の面積と移動先視野映像の面積とを適切に調整することができる。 The control device 1 may determine the size of the second region based on at least one predetermined object among the plurality of objects that can exist in the predetermined space. Further, the control device 1 may display the moving destination visual field image in the second region of the determined size. In this case, when the size of the second area changes, the area of the second area displayed in the second area changes. Further, since the second area overlaps with a part of the first area, when the size of the second area changes, the area of the first area displayed in the first area also changes. For example, as the second region becomes larger, the area of the second region becomes larger and the area of the first region becomes smaller. Therefore, the area of the current visual field image and the area of the destination visual field image can be appropriately adjusted.

ここで、制御装置1が、第2領域に表示される移動先視野映像に含まれるオブジェクトに基づいて、第2領域のサイズを決定してもよい。この場合、移動先視野映像の重要性に基づいて、現在視野映像の面積と移動先視野映像の面積とを調整することができる。 Here, the control device 1 may determine the size of the second region based on the object included in the moving destination visual field image displayed in the second region. In this case, the area of the current visual field image and the area of the moving destination visual field image can be adjusted based on the importance of the moving destination visual field image.

ここで、制御装置1が、所定オブジェクトの数に基づいて、第2領域のサイズを決定してもよい。この場合、第2領域に表示される移動先視野映像に含まれるオブジェクトの数に基づいて、現在視野映像の面積と移動先視野映像の面積とを調整することができる。 Here, the control device 1 may determine the size of the second region based on the number of predetermined objects. In this case, the area of the current visual field image and the area of the moving destination visual field image can be adjusted based on the number of objects included in the moving destination visual field image displayed in the second region.

或いは、制御装置1が、移動先の位置と、所定オブジェクトと、の間の距離に基づいて、第2領域のサイズを決定してもよい。この場合、移動先における位置と、第2領域に表示される移動先視野映像に含まれるオブジェクトの位置と、の間の距離に基づいて、現在視野映像の面積と移動先視野映像の面積とを調整することができる。 Alternatively, the control device 1 may determine the size of the second region based on the distance between the destination position and the predetermined object. In this case, the area of the current visual field image and the area of the moving destination visual field image are set based on the distance between the position in the moving destination and the position of the object included in the moving destination visual field image displayed in the second area. Can be adjusted.

或いは、制御装置1が、第2領域に表示されている移動先視野映像に、ユーザによる所定行動の対象となり得るオブジェクトが含まれるか否かに基づいて、第2領域のサイズを決定してもよい。この場合、第2領域に表示される移動先視野映像に、ユーザによる所定行動の対象となり得るオブジェクトが含まれるか否かに基づいて、第2領域のサイズが決定される。従って、移動先でユーザが所定行動をとる可能性に基づいて、現在視野映像の面積と移動先視野映像の面積とを調整することができる。 Alternatively, the control device 1 may determine the size of the second region based on whether or not the moving destination visual field image displayed in the second region includes an object that can be the target of a predetermined action by the user. good. In this case, the size of the second area is determined based on whether or not the moving destination visual field image displayed in the second area includes an object that can be a target of a predetermined action by the user. Therefore, the area of the current visual field image and the area of the moving destination visual field image can be adjusted based on the possibility that the user takes a predetermined action at the moving destination.

或いは、制御装置1が、所定空間においてユーザに危険を及ぼすことが可能なオブジェクトにより、現在位置においてユーザに迫っている危険の度合いに基づいて、第2領域のサイズを決定してもよい。この場合、現在迫っている危険に対してユーザが何らかの行動をとる必要性に応じて、現在視野映像の面積と移動先視野映像の面積とを調整することができる。 Alternatively, the control device 1 may determine the size of the second region based on the degree of danger approaching the user at the current position by an object capable of endangering the user in a predetermined space. In this case, the area of the current visual field image and the area of the moving destination visual field image can be adjusted according to the need for the user to take some action in response to the currently imminent danger.

制御装置1が、現在位置及び現在の視線方向を、特定された移動先の位置及び変更された、移動先における視線方向にそれぞれ変更してもよい。 The control device 1 may change the current position and the current line-of-sight direction to the specified position of the moving destination and the changed line-of-sight direction at the moving destination, respectively.

1 制御装置
2 HMD
3 コントローラ
4 センサ
11 システム制御部
12 システムバス
13 記憶部
14 通信部
15 入出力インターフェース
111 第1特定部
112 第2特定部
113 第1表示部
114 更新部
115 第2表示部
S VRシステム
1 Control device 2 HMD
3 Controller 4 Sensor 11 System control unit 12 System bus 13 Storage unit 14 Communication unit 15 Input / output interface 111 1st specific unit 112 2nd specific unit 113 1st display unit 114 Update unit 115 2nd display unit S VR system

Claims (19)

コンピュータに、
所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップであって、前記第1位置は、前記所定空間内に存在する複数の面であって、前記ユーザが位置することが可能な複数の面のうち何れか第1面上の位置である第1特定ステップと、
前記所定空間における移動先を指定する第1操作であって、前記複数の面のうち、前記第1面と非平行な第2面上の位置を、前記移動先の第2位置として指定可能な第1操作に基づいて、前記第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、
前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップであって、前記第1面の向きに応じた前記第1映像と、前記第2面の向きに応じた前記第2映像と、を表示させるとともに、前記第1面の向きと前記第2面の向きとの相違を示す相違情報を表示させる第1表示ステップと、
前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、
前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、
を実行させることを特徴とするプログラム。
On the computer
A first specific step of specifying a user's current first position and current first line-of-sight direction in a predetermined space, wherein the first position is a plurality of surfaces existing in the predetermined space, and the user. The first specific step, which is the position on the first surface of the plurality of surfaces on which the can be located, and
In the first operation of designating a movement destination in the predetermined space , a position on a second surface that is non-parallel to the first surface among the plurality of surfaces can be designated as a second position of the movement destination. based on the first operation, a second specifying step of specifying a second viewing direction in the second position and the destination,
The first image corresponding to the specified first position and the first line-of-sight direction is displayed in the first region corresponding to the current visual field, and in the second region overlapping a part of the first region. In the first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction, the first image corresponding to the orientation of the first surface and the orientation of the second surface A first display step of displaying the corresponding second video and displaying difference information indicating a difference between the orientation of the first surface and the orientation of the second surface.
An update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and
A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area in response to the completion of the second operation.
A program characterized by executing.
前記第2操作は、前記第1視線方向を変更する操作と同一であり、 The second operation is the same as the operation of changing the first line-of-sight direction.
前記更新ステップは、前記第2操作に基づいて、前記第1領域に表示されている第1映像と、前記第2領域に表示されている前記第2映像と、を更新することを特徴とする請求項1に記載のプログラム。 The update step is characterized in that the first image displayed in the first area and the second image displayed in the second area are updated based on the second operation. The program according to claim 1.
前記第1操作は、前記第2位置を指定する第3操作と、前記第2領域における前記第2映像の表示前において前記第2視線方向を変更する第4操作と、を含み、 The first operation includes a third operation of designating the second position and a fourth operation of changing the second line-of-sight direction before displaying the second image in the second region.
前記第2特定ステップは、 The second specific step is
前記第3操作に基づいて、前記第2位置を特定する位置特定ステップと、 A position specifying step for specifying the second position based on the third operation, and
前記第2位置が特定されたことに応じて、前記第2視線方向を示す視線情報を表示する視線情報表示ステップと、 A line-of-sight information display step for displaying line-of-sight information indicating the second line-of-sight direction according to the identification of the second position, and
前記第4操作に基づいて、前記視線情報の表示を更新する変更ステップと、 Based on the fourth operation, the change step of updating the display of the line-of-sight information and
前記第4操作が完了することに応じて、前記第4操作に基づいて変更された前記第2視線方向を、前記第2領域における前記第2映像の表示開始時における前記第2視線方向として特定する視線方向特定ステップと、 The second line-of-sight direction changed based on the fourth operation according to the completion of the fourth operation is specified as the second line-of-sight direction at the start of displaying the second image in the second region. The step to specify the direction of the line of sight and
を含むことを特徴とする請求項1又は2に記載のプログラム。 The program according to claim 1 or 2, wherein the program comprises.
前記第2特定ステップは、前記特定された第2位置から、前記所定空間に存在可能な複数のオブジェクトのうち少なくとも一の所定オブジェクトが位置する方向と、前記第2視線方向と、に基づいて、前記視線情報の表示態様を決定する表示態様決定ステップを更に含み、 The second specific step is based on the direction in which at least one predetermined object among the plurality of objects that can exist in the predetermined space is located from the specified second position and the second line-of-sight direction. The display mode determination step for determining the display mode of the line-of-sight information is further included.
前記視線情報表示ステップは、前記決定された表示態様で前記視線情報を表示させることを特徴とする請求項3に記載のプログラム。 The program according to claim 3, wherein the line-of-sight information display step displays the line-of-sight information in the determined display mode.
コンピュータに、 On the computer
所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、 The first specific step of specifying the user's current first position and the current first line-of-sight direction in a predetermined space, and
前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、 Based on the first operation of designating the movement destination in the predetermined space, the second specific step of specifying the second position of the movement destination and the second line-of-sight direction in the movement destination, and
前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、 The first image corresponding to the specified first position and the first line-of-sight direction is displayed in the first region corresponding to the current visual field, and in the second region overlapping a part of the first region. The first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction, and
前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、 An update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and
前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、 A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area in response to the completion of the second operation.
を実行させ、 To run,
前記第1操作は、前記第2位置を指定する第3操作と、前記第2領域における前記第2映像の表示前において前記第2視線方向を変更する第4操作と、を含み、 The first operation includes a third operation of designating the second position and a fourth operation of changing the second line-of-sight direction before displaying the second image in the second region.
前記第2特定ステップは、 The second specific step is
前記第3操作に基づいて、前記第2位置を特定する位置特定ステップと、 A position specifying step for specifying the second position based on the third operation, and
前記特定された第2位置から、前記所定空間に存在可能な複数のオブジェクトのうち少なくとも一の所定オブジェクトが位置する方向と、前記第2視線方向と、に基づいて、前記第2視線方向を示す視線情報の表示態様を決定する表示態様決定ステップと、 The second line-of-sight direction is indicated based on the direction in which at least one predetermined object among the plurality of objects that can exist in the predetermined space is located from the specified second position and the second line-of-sight direction. The display mode determination step for determining the display mode of the line-of-sight information, and
前記第2位置が特定されたことに応じて、前記決定された表示態様で前記視線情報を表示する視線情報表示ステップと、 A line-of-sight information display step of displaying the line-of-sight information in the determined display mode according to the identification of the second position, and
前記第4操作に基づいて、前記視線情報の表示を更新する変更ステップと、 Based on the fourth operation, the change step of updating the display of the line-of-sight information and
前記第4操作が完了することに応じて、前記第4操作に基づいて変更された前記第2視線方向を、前記第2領域における前記第2映像の表示開始時における前記第2視線方向として特定する視線方向特定ステップと、 The second line-of-sight direction changed based on the fourth operation according to the completion of the fourth operation is specified as the second line-of-sight direction at the start of displaying the second image in the second region. The step to specify the direction of the line of sight and
を含み、 Including
前記所定オブジェクトの少なくとも一つは、所定の障害物であり、 At least one of the predetermined objects is a predetermined obstacle and
前記表示態様決定ステップは、前記第2位置及び前記第2視線方向に応じた視野を、前記障害物が塞ぐ場合と塞がない場合とで、前記表示態様を異ならせることを特徴とするプログラム。 The display mode determination step is a program characterized in that the display mode is different depending on whether the obstacle blocks or does not block the visual field according to the second position and the second line-of-sight direction.
コンピュータに、 On the computer
所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、 The first specific step of specifying the user's current first position and the current first line-of-sight direction in a predetermined space, and
前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、 Based on the first operation of designating the movement destination in the predetermined space, the second specific step of specifying the second position of the movement destination and the second line-of-sight direction in the movement destination, and
前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、 The first image corresponding to the specified first position and the first line-of-sight direction is displayed in the first region corresponding to the current visual field, and in the second region overlapping a part of the first region. The first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction, and
前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、 An update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and
前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、 A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area in response to the completion of the second operation.
を実行させ、 To run,
前記第1操作は、前記第2位置を指定する第3操作と、前記第2領域における前記第2映像の表示前において前記第2視線方向を変更する第4操作と、を含み、 The first operation includes a third operation of designating the second position and a fourth operation of changing the second line-of-sight direction before displaying the second image in the second region.
前記第2特定ステップは、 The second specific step is
前記第3操作に基づいて、前記第2位置を特定する位置特定ステップと、 A position specifying step for specifying the second position based on the third operation, and
前記特定された第2位置から、前記所定空間に存在可能な複数のオブジェクトのうち少なくとも一の所定オブジェクトが位置する方向に基づいて、初期の視線方向を決定する方向決定ステップと、 A direction determination step of determining an initial line-of-sight direction based on the direction in which at least one predetermined object among a plurality of objects that can exist in the predetermined space is located from the specified second position.
前記第2位置が特定されたことに応じて、前記決定された初期の視線方向を前記第2視線方向として示す視線情報を表示する視線情報表示ステップと、 A line-of-sight information display step for displaying line-of-sight information indicating the determined initial line-of-sight direction as the second line-of-sight direction in response to the identification of the second position.
前記第4操作に基づいて、前記視線情報の表示を更新する変更ステップと、 Based on the fourth operation, the change step of updating the display of the line-of-sight information and
前記第4操作が完了することに応じて、前記第4操作に基づいて変更された前記第2視線方向を、前記第2領域における前記第2映像の表示開始時における前記第2視線方向として特定する視線方向特定ステップと、 The second line-of-sight direction changed based on the fourth operation according to the completion of the fourth operation is specified as the second line-of-sight direction at the start of displaying the second image in the second region. The step to specify the direction of the line of sight and
を含むことを特徴とするプログラム。 A program characterized by including.
前記所定オブジェクトの少なくとも一つは、所定の障害物であり、 At least one of the predetermined objects is a predetermined obstacle and
前記方向決定ステップは、前記第2位置及び前記初期の視線方向に応じた視野を、前記障害物が塞がないように、前記初期の視線方向を決定することを特徴とする請求項6に記載のプログラム。 The sixth aspect of claim 6, wherein the direction determination step determines the initial line-of-sight direction so that the obstacle does not block the visual field corresponding to the second position and the initial line-of-sight direction. Program.
前記所定オブジェクトの少なくとも一つは、前記ユーザによる所定行動の対象となり得るオブジェクトであり、 At least one of the predetermined objects is an object that can be a target of a predetermined action by the user.
前記方向決定ステップは、前記第2位置から前記所定行動の対象となり得るオブジェクトが位置する方向を、前記初期の視線方向に決定することを特徴とする請求項6又は7に記載のプログラム。 The program according to claim 6 or 7, wherein the direction determination step determines a direction in which an object that can be a target of the predetermined action is located from the second position in the initial line-of-sight direction.
コンピュータに、 On the computer
所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、 The first specific step of specifying the user's current first position and the current first line-of-sight direction in a predetermined space, and
前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、 Based on the first operation of designating the movement destination in the predetermined space, the second specific step of specifying the second position of the movement destination and the second line-of-sight direction in the movement destination, and
前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、 The first image corresponding to the specified first position and the first line-of-sight direction is displayed in the first region corresponding to the current visual field, and in the second region overlapping a part of the first region. The first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction, and
前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、 An update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and
前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、 A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area in response to the completion of the second operation.
前記所定空間に存在可能な複数のオブジェクトのうち、前記第2領域に表示される前記第2映像に含まれる少なくとも一の所定オブジェクトに基づいて、前記第2領域のサイズを決定するサイズ決定ステップと、 A size determination step for determining the size of the second region based on at least one predetermined object included in the second image displayed in the second region among a plurality of objects that can exist in the predetermined space. ,
を実行させ、 To run,
前記第1表示ステップは、前記決定されたサイズの前記第2領域に、前記第2映像を表示させることを特徴とするプログラム。 The first display step is a program characterized in that the second image is displayed in the second region of the determined size.
前記サイズ決定ステップは、前記所定オブジェクトの数に基づいて、前記サイズを決定することを特徴とする請求項9に記載のプログラム。 The program according to claim 9, wherein the sizing step determines the size based on the number of the predetermined objects. 前記サイズ決定ステップは、前記第2位置と、前記所定オブジェクトと、の間の距離に基づいて、前記サイズを決定することを特徴とする請求項9又は10に記載のプログラム。 The program according to claim 9 or 10, wherein the sizing step determines the size based on a distance between the second position and the predetermined object. コンピュータに、 On the computer
所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、 The first specific step of specifying the user's current first position and the current first line-of-sight direction in a predetermined space, and
前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、 Based on the first operation of designating the movement destination in the predetermined space, the second specific step of specifying the second position of the movement destination and the second line-of-sight direction in the movement destination, and
前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、 The first image corresponding to the specified first position and the first line-of-sight direction is displayed in the first region corresponding to the current visual field, and in the second region overlapping a part of the first region. The first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction, and
前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、 An update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and
前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、 A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area in response to the completion of the second operation.
前記所定空間に存在可能な複数のオブジェクトのうち、少なくとも一の所定オブジェクトに基づいて、前記第2領域のサイズを決定するサイズ決定ステップであって、前記第2領域に表示されている前記第2映像に、前記ユーザによる所定行動の対象となり得るオブジェクトが含まれるか否かに基づいて、前記サイズを決定するサイズ決定ステップと、 A size determination step for determining the size of the second region based on at least one predetermined object among a plurality of objects that can exist in the predetermined space, and the second is displayed in the second region. A size determination step that determines the size based on whether or not the video contains an object that can be the target of a predetermined action by the user.
を備え、 With
前記第1表示ステップは、前記決定されたサイズの前記第2領域に、前記第2映像を表示させることを特徴とするプログラム。 The first display step is a program characterized in that the second image is displayed in the second region of the determined size.
コンピュータに、 On the computer
所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、 The first specific step of specifying the user's current first position and the current first line-of-sight direction in a predetermined space, and
前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、 Based on the first operation of designating the movement destination in the predetermined space, the second specific step of specifying the second position of the movement destination and the second line-of-sight direction in the movement destination, and
前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、 The first image corresponding to the specified first position and the first line-of-sight direction is displayed in the first region corresponding to the current visual field, and in the second region overlapping a part of the first region. The first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction, and
前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、 An update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and
前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、 A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area in response to the completion of the second operation.
前記所定空間に存在可能な複数のオブジェクトのうち、少なくとも一の所定オブジェクトに基づいて、前記第2領域のサイズを決定するサイズ決定ステップであって、前記所定空間において前記ユーザに危険を及ぼすことが可能なオブジェクトにより、前記第1位置において前記ユーザに迫っている危険の度合いに基づいて、前記サイズを決定するサイズ決定ステップと、 A sizing step of determining the size of the second region based on at least one predetermined object among a plurality of objects that can exist in the predetermined space, which may pose a danger to the user in the predetermined space. A sizing step that determines the size based on the degree of danger approaching the user in the first position with possible objects.
を備え、 With
前記第1表示ステップは、前記決定されたサイズの前記第2領域に、前記第2映像を表示させることを特徴とするプログラム。 The first display step is a program characterized in that the second image is displayed in the second region of the determined size.
前記第2表示ステップは、更に前記第1位置及び前記第1視線方向を、前記特定された第2位置及び前記変更された第2視線方向にそれぞれ変更することを特徴とする請求項1乃至13の何れか一項に記載のプログラム。 The second display step further changes the first position and the first line-of-sight direction to the specified second position and the changed second line-of-sight direction, respectively. The program described in any one of the above. プログラムを記憶する少なくとも一のメモリと、 At least one memory to store the program and
前記記憶されたプログラムに従って動作する少なくとも一のプロセッサと、 With at least one processor operating according to the stored program
を備える映像表示システムにおいて、 In a video display system equipped with
前記少なくとも一のプロセッサは、前記プログラムに従って、 The at least one processor according to the program
所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップであって、前記第1位置は、前記所定空間内に存在する複数の面であって、前記ユーザが位置することが可能な複数の面のうち何れか第1面上の位置である第1特定ステップと、 A first specific step of specifying a user's current first position and current first line-of-sight direction in a predetermined space, wherein the first position is a plurality of surfaces existing in the predetermined space, and the user. The first specific step, which is the position on the first surface of the plurality of surfaces on which the can be located, and
前記所定空間における移動先を指定する第1操作であって、前記複数の面のうち、前記第1面と非平行な第2面上の位置を、前記移動先の第2位置として指定可能な第1操作に基づいて、前記第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、 In the first operation of designating a movement destination in the predetermined space, a position on a second surface that is non-parallel to the first surface among the plurality of surfaces can be designated as a second position of the movement destination. Based on the first operation, the second specific step of specifying the second line-of-sight direction at the second position and the moving destination, and
前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップであって、前記第1面の向きに応じた前記第1映像と、前記第2面の向きに応じた前記第2映像と、を表示させるとともに、前記第1面の向きと前記第2面の向きとの相違を示す相違情報を表示させる第1表示ステップと、 The first image corresponding to the specified first position and the first line-of-sight direction is displayed in the first region corresponding to the current visual field, and in the second region overlapping a part of the first region. In the first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction, the first image corresponding to the orientation of the first surface and the orientation of the second surface A first display step of displaying the corresponding second video and displaying difference information indicating a difference between the orientation of the first surface and the orientation of the second surface.
前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、 An update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and
前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、 A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area in response to the completion of the second operation.
を実行することを特徴とする映像表示システム。 A video display system characterized by executing.
プログラムを記憶する少なくとも一のメモリと、 At least one memory to store the program and
前記記憶されたプログラムに従って動作する少なくとも一のプロセッサと、 With at least one processor operating according to the stored program
を備える映像表示システムにおいて、 In a video display system equipped with
前記少なくとも一のプロセッサは、前記プログラムに従って、 The at least one processor according to the program
所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、 The first specific step of specifying the user's current first position and the current first line-of-sight direction in a predetermined space, and
前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、 Based on the first operation of designating the movement destination in the predetermined space, the second specific step of specifying the second position of the movement destination and the second line-of-sight direction in the movement destination, and
前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、 The first image corresponding to the specified first position and the first line-of-sight direction is displayed in the first region corresponding to the current visual field, and in the second region overlapping a part of the first region. The first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction, and
前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、 An update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and
前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、 A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area in response to the completion of the second operation.
を実行し、 And
前記第1操作は、前記第2位置を指定する第3操作と、前記第2領域における前記第2映像の表示前において前記第2視線方向を変更する第4操作と、を含み、 The first operation includes a third operation of designating the second position and a fourth operation of changing the second line-of-sight direction before displaying the second image in the second region.
前記第2特定ステップは、 The second specific step is
前記第3操作に基づいて、前記第2位置を特定する位置特定ステップと、 A position specifying step for specifying the second position based on the third operation, and
前記特定された第2位置から、前記所定空間に存在可能な複数のオブジェクトのうち少なくとも一の所定オブジェクトが位置する方向に基づいて、初期の視線方向を決定する方向決定ステップと、 A direction determination step of determining an initial line-of-sight direction based on the direction in which at least one predetermined object among a plurality of objects that can exist in the predetermined space is located from the specified second position.
前記第2位置が特定されたことに応じて、前記決定された初期の視線方向を前記第2視線方向として示す視線情報を表示する視線情報表示ステップと、 A line-of-sight information display step for displaying line-of-sight information indicating the determined initial line-of-sight direction as the second line-of-sight direction in response to the identification of the second position.
前記第4操作に基づいて、前記視線情報の表示を更新する変更ステップと、 Based on the fourth operation, the change step of updating the display of the line-of-sight information and
前記第4操作が完了することに応じて、前記第4操作に基づいて変更された前記第2視線方向を、前記第2領域における前記第2映像の表示開始時における前記第2視線方向として特定する視線方向特定ステップと、 The second line-of-sight direction changed based on the fourth operation according to the completion of the fourth operation is specified as the second line-of-sight direction at the start of displaying the second image in the second region. The step to specify the direction of the line of sight and
を含むことを特徴とする映像表示システム。 A video display system characterized by including.
プログラムを記憶する少なくとも一のメモリと、 At least one memory to store the program and
前記記憶されたプログラムに従って動作する少なくとも一のプロセッサと、 With at least one processor operating according to the stored program
を備える映像表示システムにおいて、 In a video display system equipped with
前記少なくとも一のプロセッサは、前記プログラムに従って、 The at least one processor according to the program
所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップと、 The first specific step of specifying the user's current first position and the current first line-of-sight direction in a predetermined space, and
前記所定空間における移動先を指定する第1操作に基づいて、前記移動先の第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、 Based on the first operation of designating the movement destination in the predetermined space, the second specific step of specifying the second position of the movement destination and the second line-of-sight direction in the movement destination, and
前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップと、 The first image corresponding to the specified first position and the first line-of-sight direction is displayed in the first region corresponding to the current visual field, and in the second region overlapping a part of the first region. The first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction, and
前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、 An update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and
前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、 A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area in response to the completion of the second operation.
前記所定空間に存在可能な複数のオブジェクトのうち、前記第2領域に表示される前記第2映像に含まれる少なくとも一の所定オブジェクトに基づいて、前記第2領域のサイズを決定するサイズ決定ステップと、 A size determination step for determining the size of the second region based on at least one predetermined object included in the second image displayed in the second region among the plurality of objects that can exist in the predetermined space. ,
を実行し、 And
前記第1表示ステップは、前記決定されたサイズの前記第2領域に、前記第2映像を表示させることを特徴とする映像表示システム。 The first display step is a video display system characterized in that the second video is displayed in the second region of the determined size.
コンピュータにより実行される映像表示方法において、 In the video display method executed by the computer
所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップであって、前記第1位置は、前記所定空間内に存在する複数の面であって、前記ユーザが位置することが可能な複数の面のうち何れか第1面上の位置である第1特定ステップと、 A first specific step of specifying a user's current first position and current first line-of-sight direction in a predetermined space, wherein the first position is a plurality of surfaces existing in the predetermined space, and the user. The first specific step, which is the position on the first surface of the plurality of surfaces on which the can be located, and
前記所定空間における移動先を指定する第1操作であって、前記複数の面のうち、前記第1面と非平行な第2面上の位置を、前記移動先の第2位置として指定可能な第1操作に基づいて、前記第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、 In the first operation of designating a movement destination in the predetermined space, a position on a second surface that is non-parallel to the first surface among the plurality of surfaces can be designated as a second position of the movement destination. Based on the first operation, the second specific step of specifying the second line-of-sight direction at the second position and the moving destination, and
前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップであって、前記第1面の向きに応じた前記第1映像と、前記第2面の向きに応じた前記第2映像と、を表示させるとともに、前記第1面の向きと前記第2面の向きとの相違を示す相違情報を表示させる第1表示ステップと、 The first image corresponding to the specified first position and the first line-of-sight direction is displayed in the first region corresponding to the current visual field, and in the second region overlapping a part of the first region. In the first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction, the first image corresponding to the orientation of the first surface and the orientation of the second surface A first display step of displaying the corresponding second video and displaying difference information indicating a difference between the orientation of the first surface and the orientation of the second surface.
前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、 An update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and
前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、 A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area in response to the completion of the second operation.
を含むことを特徴とする映像表示方法。 A video display method comprising.
プログラムを記憶する少なくとも一のメモリと、
前記記憶されたプログラムに従って動作する少なくとも一のプロセッサと、
を備える映像表示制御装置において、
前記少なくとも一のプロセッサは、前記プログラムに従って、
所定空間におけるユーザの現在の第1位置及び現在の第1視線方向を特定する第1特定ステップであって、前記第1位置は、前記所定空間内に存在する複数の面であって、前記ユーザが位置することが可能な複数の面のうち何れか第1面上の位置である第1特定ステップと、
前記所定空間における移動先を指定する第1操作であって、前記複数の面のうち、前記第1面と非平行な第2面上の位置を、前記移動先の第2位置として指定可能な第1操作に基づいて、前記第2位置及び前記移動先における第2視線方向を特定する第2特定ステップと、
前記特定された第1位置及び第1視線方向に応じた第1映像を、現在の視野に相応する第1領域に表示させながら、前記第1領域の一部と重複する第2領域に、前記特定された第2位置及び第2視線方向に応じた第2映像を表示させる第1表示ステップであって、前記第1面の向きに応じた前記第1映像と、前記第2面の向きに応じた前記第2映像と、を表示させるとともに、前記第1面の向きと前記第2面の向きとの相違を示す相違情報を表示させる第1表示ステップと、
前記第2視線方向を変更する第2操作に基づいて、前記第2領域に表示されている前記第2映像を更新する更新ステップと、
前記第2操作が完了することに応じて、前記特定された第2位置及び前記変更された第2視線方向に応じた前記第2映像を、前記第1領域に表示させる第2表示ステップと、
を実行することを特徴とする映像表示制御装置。
At least one memory to store the program and
With at least one processor operating according to the stored program
In the video display control device equipped with
The at least one processor according to the program
A first specific step of specifying a user's current first position and current first line-of-sight direction in a predetermined space, wherein the first position is a plurality of surfaces existing in the predetermined space, and the user. The first specific step, which is the position on the first surface of the plurality of surfaces on which the can be located, and
In the first operation of designating a movement destination in the predetermined space , a position on a second surface that is non-parallel to the first surface among the plurality of surfaces can be designated as a second position of the movement destination. based on the first operation, a second specifying step of specifying a second viewing direction in the second position and the destination,
The first image corresponding to the specified first position and the first line-of-sight direction is displayed in the first region corresponding to the current visual field, and in the second region overlapping a part of the first region. In the first display step of displaying the second image corresponding to the specified second position and the second line-of-sight direction, the first image corresponding to the orientation of the first surface and the orientation of the second surface A first display step of displaying the corresponding second video and displaying difference information indicating a difference between the orientation of the first surface and the orientation of the second surface.
An update step of updating the second image displayed in the second area based on the second operation of changing the second line-of-sight direction, and
A second display step of displaying the second image corresponding to the specified second position and the changed second line-of-sight direction in the first area in response to the completion of the second operation.
A video display control device characterized by executing.
JP2021523517A 2020-08-21 2020-08-21 Video display method, video display system, video display control device, and program Active JP6955132B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/031595 WO2022038766A1 (en) 2020-08-21 2020-08-21 Image display method, image display system, image display control device, and program

Publications (2)

Publication Number Publication Date
JP6955132B1 true JP6955132B1 (en) 2021-10-27
JPWO2022038766A1 JPWO2022038766A1 (en) 2022-02-24

Family

ID=78150238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021523517A Active JP6955132B1 (en) 2020-08-21 2020-08-21 Video display method, video display system, video display control device, and program

Country Status (2)

Country Link
JP (1) JP6955132B1 (en)
WO (1) WO2022038766A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119523480B (en) * 2023-08-30 2025-09-19 上海交通大学 Objective evaluation method of multi-dimensional imagination ability

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207448A (en) * 2018-05-28 2019-12-05 大日本印刷株式会社 Selling system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207448A (en) * 2018-05-28 2019-12-05 大日本印刷株式会社 Selling system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"VR内をテレポートするHTC Vive向け移動システム「blink」風をDK2で体験できる「Play Pit」", [ONLINE], JPN7020003042, 17 August 2015 (2015-08-17), ISSN: 0004588287 *
"VR内歩行技術、行き先をライブレビューしてから移動する短距離テレポートを採用したHTC Vive向け一人称ステ", [ONLINE], JPN7020003043, 15 January 2016 (2016-01-15), ISSN: 0004588288 *
CONVRGE VR: "Ghosting Improvements - Virtual Reality Locomotion Technique", YOUTUBE[ONLINE][VIDEO], JPN7020003040, October 2015 (2015-10-01), ISSN: 0004588286 *
RATED RED GAMING: "We Try to Escape a Robot Death Factory in Budget Cuts VR", YOUTUBE[ONLINE][VIDEO], JPN7020003039, June 2018 (2018-06-01), ISSN: 0004588285 *

Also Published As

Publication number Publication date
JPWO2022038766A1 (en) 2022-02-24
WO2022038766A1 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
JP7386360B2 (en) Information processing method, apparatus and terminal device
JP2022521324A (en) Game character control methods, devices, equipment and storage media
JP4425274B2 (en) Method and apparatus for adjusting the view of a scene being displayed according to the motion of the head being tracked
JP7361502B2 (en) System and method for adjusting stereoscopic effects
JP6332652B1 (en) Display control apparatus and program
JP5614211B2 (en) Image processing program and computer-readable recording medium
EP1595584B1 (en) Image processing program, game information processing program and game information processing apparatus
JP5390115B2 (en) Program, game system
EP2466445B1 (en) Input direction determination terminal, method and computer program product
JP2012212237A (en) Image generation system, server system, program, and information storage medium
US11117052B2 (en) Game device, control method of game device, and storage medium that can be read by computer
US12005358B2 (en) Game processing program, game processing method, and game processing device
US10102672B2 (en) Storage medium, information processing apparatus and control method
JP2012215934A (en) Program, information storage medium, terminal, and server
US11772001B2 (en) Game processing program, game processing method, and game processing device
US20250144511A1 (en) Information processing device and information processing method
JP6955132B1 (en) Video display method, video display system, video display control device, and program
US20220219092A1 (en) Game processing program, game processing method, and game processing device
WO2023160068A1 (en) Virtual subject control method and apparatus, device, and medium
JP2012063958A (en) Game program and game device
US20210220740A1 (en) Game processing program, game processing method, and game processing device
JP2025023113A (en) GAME PROGRAM, GAME PROCESSING METHOD, AND GAME DEVICE
JP6332658B1 (en) Display control apparatus and program
JP6853638B2 (en) Display system, display method, and computer equipment
US20250315146A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210428

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210930

R150 Certificate of patent or registration of utility model

Ref document number: 6955132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250