JP2026018315A - Head-mounted display system - Google Patents
Head-mounted display systemInfo
- Publication number
- JP2026018315A JP2026018315A JP2024119615A JP2024119615A JP2026018315A JP 2026018315 A JP2026018315 A JP 2026018315A JP 2024119615 A JP2024119615 A JP 2024119615A JP 2024119615 A JP2024119615 A JP 2024119615A JP 2026018315 A JP2026018315 A JP 2026018315A
- Authority
- JP
- Japan
- Prior art keywords
- user
- hmd
- image
- content
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】一方のユーザが、他方のユーザに表示された映像を容易に確認することができるヘッドマウントディスプレイシステムを提供する。
【解決手段】本開示に係るヘッドマウントディスプレイシステム100は、第1のユーザU1が装着した第1のHMD10と、第2のユーザU2が装着した第2のHMD20とを備える。第1のHMD10は、表示部11と、第2のHMD20が第2のユーザU2に表示する第2の映像IM2を第2のHMD20から取得する通信部12と、第1のHMD10と第2のHMD20との位置関係を検出する位置検出部13と、第1のHMD10の向きを検出する向き検出部15と、制御部14とを備える。
【選択図】図1
A head-mounted display system is provided that allows one user to easily check an image displayed to another user.
[Solution] A head-mounted display system 100 according to the present disclosure includes a first HMD 10 worn by a first user U1 and a second HMD 20 worn by a second user U2. The first HMD 10 includes a display unit 11, a communication unit 12 that acquires from the second HMD 20 a second image IM2 that the second HMD 20 displays to the second user U2, a position detection unit 13 that detects the positional relationship between the first HMD 10 and the second HMD 20, an orientation detection unit 15 that detects the orientation of the first HMD 10, and a control unit 14.
[Selected Figure] Figure 1
Description
本開示はヘッドマウントディスプレイシステムに関する。 This disclosure relates to a head-mounted display system.
特許文献1に開示のシステムは、バーチャルリアリティ(VR)シーンに参加するためのヘッドマウントディスプレイ(HMD)ユーザの操作を処理する。本システムは、第1のユーザの第1のHMDにVRシーンの第1の視野を提供し、及び第2のユーザが第1のHMDに提供されたVRシーンに参加することを要求しているという要求を受信する。本システムはさらに、第1のHMDに対する第2のHMDの実世界の位置及び向きのデータを取得し、次に、このデータに基づいて、VRシーンの第2の視野を提供する。本システムはまた、第1及び第2の視野を、VRシーンを視聴している間のそれぞれの位置及び向きの変化によってそれぞれ制御する。 The system disclosed in Patent Document 1 processes the operation of a head-mounted display (HMD) user to participate in a virtual reality (VR) scene. The system provides a first view of the VR scene to a first HMD of a first user and receives a request from a second user requesting to participate in the VR scene provided to the first HMD. The system further obtains real-world position and orientation data of a second HMD relative to the first HMD, and then provides a second view of the VR scene based on this data. The system also controls the first and second views independently through changes in their respective positions and orientations while viewing the VR scene.
本願発明者等は以下の課題を見出した。
特許文献1に開示のシステムは、一方のユーザ(ホストユーザ)のVRシーンに他のユーザが参加することを目的とする。このようなシステムでは、要求の受信や要求への応答等、ユーザが複数の処理を実行することによって、第1及び第2のユーザが、共通のVRシーンに参加できる。そのため、一方のユーザが、他方のユーザに表示された映像を容易に確認することができなかった。
The inventors of the present invention have found the following problems.
The system disclosed in Patent Literature 1 aims to allow other users to participate in a VR scene of one user (host user). In such a system, a first and a second user can participate in a common VR scene by performing multiple processes, such as receiving and responding to requests. Therefore, one user cannot easily check the image displayed to the other user.
本開示は、上述した課題を鑑みてなされたものであり、一方のユーザが、他方のユーザに表示された映像を容易に確認することができるヘッドマウントディスプレイシステムを提供するものである。 This disclosure has been made in consideration of the above-mentioned problems, and provides a head-mounted display system that allows one user to easily check the image displayed to the other user.
本開示に係るヘッドマウントディスプレイシステムは、
第1のユーザが装着した第1のHMD(ヘッドマウントディスプレイ)と、
第2のユーザが装着した第2のHMDと、を備え、
前記第1のHMDは、
第1の映像を前記第1のユーザに表示する表示部と、
前記第2のHMDが前記第2のユーザに表示する第2の映像を前記第2のHMDから取得する通信部と、
前記第1のHMDと前記第2のHMDとの位置関係を検出する位置検出部と、
前記第1のHMDの向きを検出する向き検出部と、
制御部と、を備え、
前記表示部は、前記第1のユーザの視野内の実空間を視認可能に構成され、前記制御部は、前記位置関係と前記第1のHMDの向きとに基づいて、前記第2のユーザが前記第1のユーザの視野内に位置すると判定した場合、前記第2の映像を、前記表示部における前記第1のユーザが視認する前記第2のユーザの実像の周辺に表示させる。
The head-mounted display system according to the present disclosure comprises:
a first HMD (head mounted display) worn by a first user;
a second HMD worn by a second user;
The first HMD includes:
a display unit that displays a first video to the first user;
a communication unit that acquires, from the second HMD, a second image that the second HMD displays to the second user;
a position detection unit that detects a positional relationship between the first HMD and the second HMD;
an orientation detection unit that detects an orientation of the first HMD;
a control unit,
The display unit is configured to enable the first user to view the real space within the field of view, and when the control unit determines, based on the positional relationship and the orientation of the first HMD, that the second user is located within the field of view of the first user, the control unit displays the second image around the real image of the second user viewed by the first user on the display unit.
本開示によれば、一方のユーザが、他方のユーザに表示された映像を容易に確認することができるヘッドマウントディスプレイシステムを提供することができる。 This disclosure provides a head-mounted display system that allows one user to easily view the image displayed to another user.
以下、本発明を適用した具体的な実施形態について、図面を参照しながら詳細に説明する。ただし、本発明が以下の実施形態に限定される訳ではない。また、説明を明確にするため、以下の記載及び図面は、適宜、簡略化されている。 Specific embodiments of the present invention will be described in detail below with reference to the drawings. However, the present invention is not limited to the following embodiments. Furthermore, the following description and drawings have been simplified as appropriate for clarity.
実施の形態1
<ヘッドマウントディスプレイシステムの一構成例>
図1を参照して実施の形態1に係るヘッドマウントディスプレイシステムの一構成例について説明する。図1は、実施の形態1に係るヘッドマウントディスプレイシステムの一構成例を示すブロック図である。
First Embodiment
<Configuration example of a head-mounted display system>
An example of the configuration of a head-mounted display system according to the first embodiment will be described with reference to Fig. 1. Fig. 1 is a block diagram showing an example of the configuration of a head-mounted display system according to the first embodiment.
図1に示すように、ヘッドマウントディスプレイシステム100は、第1のHMD(ヘッドマウントディスプレイ)10と、第2のHMD20とを備える。第1のHMD10及び第2のHMD20は、映像を表示可能なウェアラブルデバイスであればよい。第1のHMD10及び第2のHMD20の形状は限定されず、例えば、ユーザが頭部に装着可能な頭部装着型、ゴーグル型、眼鏡型等である。当該頭部装着型は、例えば、ヘルメット又は帽子と同じ構成を備えてもよい。第1のHMD10及び第2のHMD20は、例えば、スマートグラスやAR(Augmented Reality)グラスであってもよい。第1のHMD10は、例えば、図6に示す第1のユーザU1の頭部に装着されるとよい。第2のHMD20は、例えば、図6に示す第2のユーザU2の頭部に装着されるとよい。第1のHMD10及び第2のHMD20は、例えば、完全没入型HMD(非透過型HMD)や透過型HMD等であり、透過型HMDであると望ましい。 As shown in FIG. 1, the head-mounted display system 100 includes a first HMD (head-mounted display) 10 and a second HMD 20. The first HMD 10 and the second HMD 20 may be wearable devices capable of displaying images. The shapes of the first HMD 10 and the second HMD 20 are not limited, and may be, for example, head-mounted, goggle-type, or eyeglass-type devices that can be worn by a user on their head. The head-mounted HMD may have the same configuration as, for example, a helmet or a hat. The first HMD 10 and the second HMD 20 may be, for example, smart glasses or AR (Augmented Reality) glasses. The first HMD 10 may be worn, for example, on the head of a first user U1 shown in FIG. 6. The second HMD 20 may be worn, for example, on the head of a second user U2 shown in FIG. 6. The first HMD 10 and the second HMD 20 may be, for example, a fully immersive HMD (non-transparent HMD) or a transparent HMD, and it is preferable that they are transparent HMDs.
透過型HMDは、例えば、ビデオ透過型HMDや光学透過型HMD等である。ビデオ透過型HMDは、表示部において、撮像装置を用いてユーザの視野内の実空間をリアルタイムに撮像した映像に、別の映像を重ね合わせて表示する。光学透過型HMDは、光学系を用いて、ユーザが表示部越しに視認するユーザの視野内の実空間に映像を重ね合わせて表示する。当該光学系は、例えば、プリズムやハーフミラー等である。 Examples of see-through HMDs include video see-through HMDs and optical see-through HMDs. Video see-through HMDs use an imaging device to capture real-time images of the real space within the user's field of view on a display unit, overlaying another image onto the image. Optical see-through HMDs use an optical system to overlay an image onto the real space within the user's field of view, as viewed by the user through the display unit. The optical system is, for example, a prism or a half mirror.
第1のHMD10は、表示部11と、通信部12と、位置検出部13と、制御部14と、向き検出部15とを備える。 The first HMD 10 includes a display unit 11, a communication unit 12, a position detection unit 13, a control unit 14, and an orientation detection unit 15.
通信部12は、第2のHMD20が第2のユーザU2に表示する第2の映像を第2のHMD20から取得する。位置検出部13は、第1のHMD10と第2のHMD20との位置関係を検出する。向き検出部15は第1のHMD10の向きを検出する。制御部14は、第1のHMD10と第2のHMD20との位置関係と、第1のHMD10の向きとに基づいて、第2のユーザU2が第1のユーザU1の視野内に位置するか否かを判定する。 The communication unit 12 acquires from the second HMD 20 a second image that the second HMD 20 displays to the second user U2. The position detection unit 13 detects the positional relationship between the first HMD 10 and the second HMD 20. The orientation detection unit 15 detects the orientation of the first HMD 10. The control unit 14 determines whether the second user U2 is located within the field of view of the first user U1 based on the positional relationship between the first HMD 10 and the second HMD 20 and the orientation of the first HMD 10.
制御部14は、第1のユーザU1の視野内の実空間を示す映像を表示部11に表示してよい。このような場合、制御部14は、第2のユーザU2が第1のユーザU1の視野内に位置すると判定した場合、第2の映像を、第1のユーザU1の視野内の実空間を示す映像内における第2のユーザU2の実像の周辺に、表示部11に表示させる。 The control unit 14 may display an image showing the real space within the field of view of the first user U1 on the display unit 11. In such a case, if the control unit 14 determines that the second user U2 is located within the field of view of the first user U1, the control unit 14 causes the display unit 11 to display the second image around the real image of the second user U2 within the image showing the real space within the field of view of the first user U1.
また、表示部11は、図示しない光学系を用いて、第1のユーザU1が第1のユーザU1の視野内の実空間を表示部11越しに視認させてもよい。このような場合、制御部14は、第2のユーザU2が第1のユーザU1の視野内に位置すると判定した場合、第2の映像を、表示部11越しに視認できる第2のユーザU2の実像の周辺に、表示部11に表示させる。 The display unit 11 may also use an optical system (not shown) to allow the first user U1 to view the real space within the first user U1's field of view through the display unit 11. In such a case, when the control unit 14 determines that the second user U2 is located within the first user U1's field of view, it causes the display unit 11 to display the second video around the real image of the second user U2 that can be viewed through the display unit 11.
以上より、第1のユーザU1が、第2のユーザU2に表示された第2の映像を容易に確認することができる。 As a result, the first user U1 can easily check the second image displayed to the second user U2.
なお、第1のHMD10は、第1のユーザU1の視線を検出する視線検出部をさらに備えるとよい。当該視線検出部は、例えば、光源及び光センサを備える。当該光源は、可視光以外の光、例えば、赤外光や紫外光を第1のユーザU1の瞳孔に供給する。当該光センサは、第1のユーザU1の瞳孔から反射した光を撮像する。当該視線検出部は、この撮像した光に基づいて、第1のユーザU1の視線を検出できる。第1のユーザU1の視線が所定の対象に向いていると、第1のユーザU1は所定の対象に注視していると判断できる。この検出した第1のユーザU1の視線に基づいて、後述する注視度を算出できる。 The first HMD 10 may further include a gaze detection unit that detects the gaze of the first user U1. The gaze detection unit includes, for example, a light source and an optical sensor. The light source supplies light other than visible light, such as infrared light or ultraviolet light, to the pupil of the first user U1. The optical sensor captures the light reflected from the pupil of the first user U1. The gaze detection unit can detect the gaze of the first user U1 based on this captured light. If the gaze of the first user U1 is directed toward a specific target, it can be determined that the first user U1 is gazing at the specific target. The gaze level, which will be described later, can be calculated based on this detected gaze of the first user U1.
また、第1のHMD10は、第1のユーザU1の生体情報を取得する生体情報取得部をさらに備えるとよい。当該生体情報は、例えば、心理状態に応じて値が変化する情報である。このような値が変化する情報を用いて、後述する注視度を算出できる。このような値が変化する情報は、例えば、心拍数、脈波、脳波等である。当該生体情報取得部は、例えば、心拍センサ、脈波センサ、脳波計等を備える。 The first HMD 10 may further include a biometric information acquisition unit that acquires biometric information of the first user U1. This biometric information is, for example, information whose value changes depending on the psychological state. The gaze level, which will be described later, can be calculated using this information whose value changes. Examples of such information whose value changes include heart rate, pulse waves, and brain waves. The biometric information acquisition unit may include, for example, a heart rate sensor, a pulse wave sensor, an electroencephalograph, etc.
<ビデオ透過型>
図2を参照して実施の形態1に係るヘッドマウントディスプレイシステムの一具体例について説明する。図2は、実施の形態1に係るヘッドマウントディスプレイシステムの一具体例を示すブロック図である。
<Video transparent type>
A specific example of the head-mounted display system according to the first embodiment will be described with reference to Fig. 2. Fig. 2 is a block diagram showing the specific example of the head-mounted display system according to the first embodiment.
図2に示すヘッドマウントディスプレイシステム100Aは、図1に示すヘッドマウントディスプレイシステム100の一具体例である。ヘッドマウントディスプレイシステム100Aは、第1のHMD10Aと、第2のHMD20Aとを備える。第1のHMD10A及び第2のHMD20Aは、ビデオ透過型HMDである。 The head-mounted display system 100A shown in FIG. 2 is a specific example of the head-mounted display system 100 shown in FIG. 1. The head-mounted display system 100A includes a first HMD 10A and a second HMD 20A. The first HMD 10A and the second HMD 20A are video-transmitting HMDs.
第1のHMD10Aは、表示部11Aと、通信部12Aと、位置検出部13Aと、制御部14Aと、向き検出部15Aと、撮像部16とを備える。 The first HMD 10A includes a display unit 11A, a communication unit 12A, a position detection unit 13A, a control unit 14A, an orientation detection unit 15A, and an imaging unit 16.
第2のHMD20Aは、第1のHMD10Aの構成と同じ構成を備えるとよい。具体的には、第2のHMD20Aは、表示部21と、通信部22と、位置検出部23と、制御部24と、向き検出部25と、撮像部26とを備える。ヘッドマウントディスプレイシステム100Aでは、第1のHMD10Aの構成と第2のHMD20Aの構成とは同じである。以下、第1のHMD10Aの構成について詳細を説明するが、表示部21、通信部22、位置検出部23、制御部24、向き検出部25、撮像部26は、それぞれ、表示部11A、通信部12A、位置検出部13A、制御部14A、向き検出部15A、撮像部16と同じ構成である。 The second HMD 20A may have the same configuration as the first HMD 10A. Specifically, the second HMD 20A includes a display unit 21, a communication unit 22, a position detection unit 23, a control unit 24, an orientation detection unit 25, and an imaging unit 26. In the head-mounted display system 100A, the configuration of the first HMD 10A is the same as that of the second HMD 20A. The configuration of the first HMD 10A will be described in detail below, but the display unit 21, communication unit 22, position detection unit 23, control unit 24, orientation detection unit 25, and imaging unit 26 have the same configuration as the display unit 11A, communication unit 12A, position detection unit 13A, control unit 14A, orientation detection unit 15A, and imaging unit 16, respectively.
撮像部16は、第1のユーザU1が第1のHMD10Aを装着した場合、表示部11A越しの第1のユーザU1の視野内の実空間を撮像する。撮像部16は、この撮像した実空間を示す実空間像を生成する。撮像部16は、例えば、CMOS(Complementary Metal-Oxide Semiconductor)センサやCCD(Charge Coupled Devices)センサ等の撮像素子を備える。 When the first user U1 wears the first HMD 10A, the imaging unit 16 captures an image of the real space within the field of view of the first user U1 through the display unit 11A. The imaging unit 16 generates a real-space image that represents this captured real space. The imaging unit 16 includes an imaging element such as a CMOS (Complementary Metal-Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor.
表示部11Aは、図1に示す表示部11の一具体例であり、例えば、液晶モニタや有機EL(Electro-Luminescence)モニタなどのフラットパネルディスプレイ等である。第1のHMD10Aが、例えば、図6に示す第1のユーザU1に装着されると、表示部11Aは第1のユーザU1の頭部前側に配置される。表示部11Aは第1の映像を表示し、当該第1の映像は、撮像部16が生成した実空間像を含む。第1の映像は、撮像部16が生成した実空間像に、別の映像を重ね合わせて生成される。 The display unit 11A is a specific example of the display unit 11 shown in FIG. 1 and is, for example, a flat panel display such as a liquid crystal monitor or an organic EL (Electro-Luminescence) monitor. When the first HMD 10A is worn by, for example, the first user U1 shown in FIG. 6, the display unit 11A is positioned in front of the head of the first user U1. The display unit 11A displays a first image, which includes a real-space image generated by the imaging unit 16. The first image is generated by superimposing another image on the real-space image generated by the imaging unit 16.
通信部12Aは、図1に示す通信部12の一具体例であり、第2のHMD20Aを含む他の装置と通信可能なインタフェースを備える。当該インタフェースは、無線LAN、Bluetooth(登録商標)等、公知のインタフェースを用いることができる。通信部12Aは、図示しない他の装置からコンテンツを受信することができる。また、通信部12Aは、第2のHMD20Aの通信部22と通信することによって、第2のHMD20Aから第2のユーザU2の視覚情報を取得できる。この第2のユーザU2の視覚情報は、第2のHMD20Aに表示され、第2のユーザU2が視認している映像に関する情報である。すなわち視覚情報は表示部21に表示される第2の映像、または第2の映像に含まれる第2のコンテンツに関する情報である。通信部12Aは、第2のHMD20Aの通信部22と通信することによって、第1のHMD10Aと第2のHMD20Aとが視覚情報を共有できるとよく、さらに聴覚情報を共有できるとよい。通信部12Aは、第2のHMD20Aが第2のユーザU2に表示する第2の映像を第2のHMD20Aから取得する。 The communication unit 12A is a specific example of the communication unit 12 shown in FIG. 1 and has an interface capable of communicating with other devices, including the second HMD 20A. This interface can be a known interface such as wireless LAN or Bluetooth (registered trademark). The communication unit 12A can receive content from other devices (not shown). The communication unit 12A can also acquire visual information of the second user U2 from the second HMD 20A by communicating with the communication unit 22 of the second HMD 20A. This visual information of the second user U2 is information about the image displayed on the second HMD 20A and viewed by the second user U2. In other words, the visual information is information about the second image displayed on the display unit 21 or the second content included in the second image. The communication unit 12A communicates with the communication unit 22 of the second HMD 20A, allowing the first HMD 10A and the second HMD 20A to share visual information and preferably also auditory information. The communication unit 12A acquires from the second HMD 20A a second image to be displayed by the second HMD 20A to the second user U2.
位置検出部13Aは、図1に示す位置検出部13の一具体例であり、第1のHMD10Aと第2のHMD20Aとの位置関係を検出する。位置検出部13Aは、公知の位置検出手段を用いて、第1のHMD10Aと第2のHMD20Aとの位置関係を検出してもよい。当該位置検出手段として、例えば、第1のHMD10Aと第2のHMD20A以外の装置が、カメラ・センサなどによって検出した第1のHMD10Aと第2のHMD20Aとのそれぞれの位置情報を、通信部12Aを介して第1のHMD10Aが取得する「アウトサイド・イン・トラッキング(outside-in-tracking)」、第1のHMD10Aに搭載された図示しないカメラ・センサなどによって他のHMD(第2のHMD20A)の位置情報を取得する「インサイド・アウト・トラッキング(inside-out-tracking)」である。第1のHMD10Aと第2のHMD20Aとの位置関係は、第1のHMD10Aと第2のHMD20Aとの距離等を含む。 The position detection unit 13A is a specific example of the position detection unit 13 shown in FIG. 1 and detects the positional relationship between the first HMD 10A and the second HMD 20A. The position detection unit 13A may detect the positional relationship between the first HMD 10A and the second HMD 20A using a known position detection means. Examples of such position detection means include "outside-in tracking," in which the first HMD 10A acquires position information for the first HMD 10A and the second HMD 20A via the communication unit 12A, based on position information detected by a device other than the first HMD 10A or the second HMD 20A using a camera sensor or other device, and "inside-out tracking," in which the first HMD 10A acquires position information for the other HMD (the second HMD 20A) using a camera sensor (not shown) mounted on the first HMD 10A. The positional relationship between the first HMD 10A and the second HMD 20A includes the distance between the first HMD 10A and the second HMD 20A, etc.
向き検出部15Aは、図1に示す向き検出部15の一具体例であり、第1のHMD10Aの向きを検出する。向き検出部15Aは、例えば、ジャイロ、加速度センサ、磁気センサ等を用いて、第1のHMD10Aの向きを検出するとよい。 The orientation detection unit 15A is a specific example of the orientation detection unit 15 shown in FIG. 1 and detects the orientation of the first HMD 10A. The orientation detection unit 15A may detect the orientation of the first HMD 10A using, for example, a gyro, acceleration sensor, or magnetic sensor.
制御部14Aは、図1に示す制御部14の一具体例であり、CPU(Central Processing Unit)等のプロセッサによって構成されることができる。つまり、制御部14Aは、コンピュータとしての機能を備えることができる。制御部14Aは、図示しない内部メモリなどの記憶装置に記憶されたプログラムを実行させ、各種処理を行うことができる。制御部14Aは、例えば、第1のユーザU1等からの入力を取得して、任意の映像やコンテンツを表示部11Aに表示させることができる。 The control unit 14A is a specific example of the control unit 14 shown in FIG. 1, and can be configured with a processor such as a CPU (Central Processing Unit). In other words, the control unit 14A can have the functions of a computer. The control unit 14A can execute programs stored in a storage device such as an internal memory (not shown) and perform various processes. The control unit 14A can, for example, obtain input from a first user U1, etc., and display any video or content on the display unit 11A.
第1のHMD10Aの制御部14Aは、第1の映像を表示部11Aに表示させる。第1の映像は、前述の実空間像及び第1のコンテンツを含む。第1の映像は、前述の実空間像に第1のコンテンツを重ね合わせて生成される。制御部14Aは、通信部12Aを介して図示しない他の装置から第1のコンテンツを取得し、第1の映像を生成する。第1の映像は複数のコンテンツを含んでもよい。この場合、表示される複数のコンテンツを第1のコンテンツ郡、とする。また、第1のコンテンツは図示しない第1のHMD10A内の記憶部に記憶されていてもよい。同様に第2のHMD20Aの制御部24は、第2の映像を表示部21に表示させる。第2の映像は、第2のコンテンツを含む。第2の映像は、第1の映像と同様に、第2のユーザU2が第2のHMD20Aを装着した場合の、表示部21越しの第2のユーザU2の視野内の実空間を示す実空間像に第2のコンテンツを重ね合わせて生成されるとよい。第1のコンテンツ及び第2のコンテンツは、多種多様であり、例えば、映画、音楽、写真、漫画、アニメーション、コンピュータゲーム、動画、ウェブサイト等を含む。また、第1の映像及び第2の映像には、操作を行うためアイコン画像等を含んでもよい。さらに、第1のコンテンツまたは第2のコンテンツとアイコン画像等の共通する背景として背景画像を表示してもよい。 The control unit 14A of the first HMD 10A causes the display unit 11A to display a first image. The first image includes the aforementioned real space image and first content. The first image is generated by overlaying the first content on the aforementioned real space image. The control unit 14A obtains the first content from another device (not shown) via the communication unit 12A and generates the first image. The first image may include multiple contents. In this case, the multiple contents displayed are referred to as a first content group. The first content may also be stored in a memory unit within the first HMD 10A (not shown). Similarly, the control unit 24 of the second HMD 20A causes the display unit 21 to display a second image. The second image includes the second content. Similar to the first image, the second image may be generated by superimposing the second content onto a real-space image that shows the real space within the field of view of the second user U2 through the display unit 21 when the second user U2 is wearing the second HMD 20A. The first content and the second content may be of a wide variety, including, for example, movies, music, photos, comics, animations, computer games, videos, websites, etc. The first and second images may also include icon images, etc. for operation. Furthermore, a background image may be displayed as a common background for the first content or second content and the icon images, etc.
制御部14Aは、位置検出部13Aが検出した第1のHMD10Aと第2のHMD20Aとの位置関係と、向き検出部15Aが検出した第1のHMD10Aの向きとに基づいて、第2のユーザU2が第1のユーザU1の視野内に位置するか否かを判定する。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1のユーザU1は表示部11Aを介して第2のユーザU2の実像を視認できる状態となる。制御部14Aは、位置関係及び第1のHMD10の向きに基づいて、表示部11Aにおける第2のユーザU2の実像の位置を推定する。制御部14Aは、第2のユーザU2が第1のユーザU1の視野内に位置すると判定した場合、第2の映像を、表示部11Aの第1の映像内における第2のユーザU2の実像の周辺に表示させる。また、制御部14Aは、位置検出部13Aが検出した第1のHMD10Aと第2のHMD20Aとの距離に基づいて、第2の映像のサイズ、解像度及び透過度の少なくとも1つを変更してもよい。制御部14Aは第2のユーザU2が第1のユーザU1の視野内に位置すると判定した場合、表示部11Aにおける、第1のコンテンツを、第1の映像内における第2のユーザU2の実像から離隔した位置に表示させてもよい。さらに、制御部14Aは、表示部11Aによって、第2の映像に含まれる第2のコンテンツのみを、第1の映像内における第2のユーザU2の実像の周辺に表示させてもよい。 The control unit 14A determines whether the second user U2 is located within the field of view of the first user U1 based on the positional relationship between the first HMD 10A and the second HMD 20A detected by the position detection unit 13A and the orientation of the first HMD 10A detected by the orientation detection unit 15A. If the second user U2 is located within the field of view of the first user U1, the first user U1 will be able to see the real image of the second user U2 via the display unit 11A. The control unit 14A estimates the position of the real image of the second user U2 on the display unit 11A based on the positional relationship and the orientation of the first HMD 10. If the control unit 14A determines that the second user U2 is located within the field of view of the first user U1, it displays the second image around the real image of the second user U2 in the first image on the display unit 11A. Furthermore, the control unit 14A may change at least one of the size, resolution, and transparency of the second image based on the distance between the first HMD 10A and the second HMD 20A detected by the position detection unit 13A. When the control unit 14A determines that the second user U2 is located within the field of view of the first user U1, the control unit 14A may cause the display unit 11A to display the first content at a position separated from the real image of the second user U2 in the first image. Furthermore, the control unit 14A may cause the display unit 11A to display only the second content included in the second image around the real image of the second user U2 in the first image.
また、制御部14Aは、第1のユーザU1が第1のコンテンツを注視する度合いを示す第1の注視度を取得してもよい。制御部14Aは、例えば、第1のユーザU1の視線を検出した結果や第1のユーザU1の生体情報に基づいて、第1の注視度を算出して取得できる。第1のHMD10が上述の視線検出部や生体情報取得部を備えるとよい。当該視線検出部が第1のユーザU1の視線を検出するとよい。当該生体情報取得部が第1のユーザU1の生体情報を取得するとよい。第1の注視度は、例えば、第1のユーザU1の視線が第1のコンテンツに向いた時間の長さに応じて求めることができる。また、第1の注視度は、例えば、第1のユーザU1の生体情報が、第1のユーザU1が第1のコンテンツを注視するに相当する心理状態を示す値か否かに応じて求めることができる。 The control unit 14A may also acquire a first gaze degree indicating the degree to which the first user U1 is gazing at the first content. The control unit 14A can calculate and acquire the first gaze degree, for example, based on the result of detecting the first user U1's gaze or the first user U1's biometric information. The first HMD 10 may be equipped with the gaze detection unit and biometric information acquisition unit described above. The gaze detection unit may detect the first user U1's gaze. The biometric information acquisition unit may acquire the first user U1's biometric information. The first gaze degree may be calculated, for example, based on the length of time the first user U1's gaze is directed toward the first content. The first gaze degree may also be calculated, for example, based on whether the first user U1's biometric information is a value indicating a psychological state corresponding to the first user U1 gazing at the first content.
同様に、制御部14Aは、第2のユーザU2が第2のコンテンツを注視する度合いを示す第2の注視度を取得してもよい。制御部14Aは、例えば、通信部12Aを介して第2のHMD20Aから第2の注視度を取得してもよい。第2のHMD20Aの制御部24が第2のユーザU2の視線を検出した結果や第2のユーザU2の生体情報に基づいて、第2の注視度を算出して取得できる。第2のHMD20Aが上述の視線検出部や生体情報取得部を備えるとよい。当該視線検出部が第2のユーザU2の視線を検出するとよい。当該生体情報取得部が第2のユーザU2の生体情報を取得するとよい。第2の注視度は、例えば、第2のユーザU2の視線が第2のコンテンツを向いた時間の長さに応じて求めることができる。また、第2の注視度は、例えば、第2のユーザU2の生体情報が、第2のユーザU2が第2のコンテンツを注視するに相当する心理状態を示す値か否かに応じて求めることができる。 Similarly, the control unit 14A may acquire a second gaze degree indicating the degree to which the second user U2 is gazing at the second content. The control unit 14A may acquire the second gaze degree from the second HMD 20A, for example, via the communication unit 12A. The control unit 24 of the second HMD 20A can calculate and acquire the second gaze degree based on the result of detecting the line of sight of the second user U2 and the biometric information of the second user U2. The second HMD 20A may be equipped with the above-mentioned gaze detection unit and biometric information acquisition unit. The gaze detection unit may detect the line of sight of the second user U2. The biometric information acquisition unit may acquire the biometric information of the second user U2. The second gaze degree can be calculated, for example, according to the length of time that the line of sight of the second user U2 is directed at the second content. Furthermore, the second gaze level can be determined, for example, depending on whether the biometric information of the second user U2 has a value indicating a psychological state corresponding to the second user U2 gazing at the second content.
制御部14Aは、第1の注視度又は第2の注視度に基づいて、第1及び第2のコンテンツのサイズ、解像度及び透過度の少なくとも1つを変更してもよい。制御部14Aは、例えば、第1の注視度又は第2の注視度と、予め設定した所定の値とを比較することによって、第1及び第2のコンテンツのサイズ、解像度及び透過度の少なくとも1つを変更してもよい。例えば、第1の注視度が所定の値より高い場合、第1のユーザU1が第1のコンテンツを注視している状態である。制御部14Aは、このような場合、視聴を妨げないように、第2の映像の解像度及び透過度の少なくとも1つを下げて、第2の映像を表示してもよい。また、例えば第2の注視度が所定の値より高い場合、第2のユーザU2が第2のコンテンツの視聴に集中している状態である。このような場合、制御部14Aは、第1のユーザU1が第2のユーザU2の注視しているコンテンツを把握するように、第2の映像の解像度及び透過度の少なくとも1つを上げて、第2の映像を表示させてもよい。 The control unit 14A may change at least one of the size, resolution, and transparency of the first and second content based on the first or second degree of attention. The control unit 14A may change at least one of the size, resolution, and transparency of the first and second content, for example, by comparing the first or second degree of attention with a predetermined value. For example, when the first degree of attention is higher than the predetermined value, the first user U1 is gazing at the first content. In such a case, the control unit 14A may lower at least one of the resolution and transparency of the second image and display the second image so as not to interfere with viewing. Furthermore, for example, when the second degree of attention is higher than the predetermined value, the second user U2 is concentrating on viewing the second content. In such a case, the control unit 14A may increase at least one of the resolution and transparency of the second image and display the second image so that the first user U1 can understand the content that the second user U2 is gazing at.
また、制御部14Aは、第2のユーザU2の実像が第1の映像の中心領域内に位置すると判定した場合、第1及び第2のコンテンツのサイズ、解像度及び透過度の少なくとも1つを変更してもよい。第1の映像の中心領域は、第1の映像の中心を包含する所定の領域であればよい。表示部11Aの全面に第1の映像が表示されている場合は、第1の映像の中心領域は、表示部11Aの中心領域となる。また、第1の映像は、前述の実空間像に別の映像を重ね合わせて生成されるため、第1の映像の中心領域は、前述の実空間像の中心の所定の領域となる。また、制御部14Aは、第2のユーザU2の実像が第1の映像の中心領域外に位置すると判定した場合、第1の映像内における第2のユーザU2の実像が第1の映像の中心領域に近づくにつれて、第1及び第2のコンテンツのサイズ、解像度及び透過度の少なくとも1つを変化させるとよい。例えば、制御部14Aは、第2のユーザU2の実像が第1の映像の中心領域内に位置すると判定した場合、第1のユーザU1は第2のユーザU2を注視している状態である。このような場合、制御部14Aは、第2のユーザU2の状況をより高精度に把握するため、第2の映像の解像度を上げる、その透過度を下げる、又はこれらの両方を行ってから、第2の映像を表示してもよい。また、例えば、制御部14Aは、第2のユーザU2の実像が第1の映像の中心領域外に位置すると判定した場合、第1のユーザU1は第2のユーザU2を注視していない状態である。このような場合、制御部14Aは、第2のユーザU2の状況を高精度に把握する必要はなく、第2の映像の解像度を下げる、その透過度を上げる、又はこれらの両方を行ってから、第2の映像を表示させてもよい。なお、本実施例では、制御部14Aは、位置検出部13Aが検出した第1のHMD10Aと第2のHMD20Aとの位置関係と、向き検出部15Aが検出した第1のHMD10Aの向きとに基づいて、第2のユーザU2が第1のユーザU1の視野内に位置するか否かを判定したが、制御部14Aは、撮像部16によって生成された実空間像に基づいて、第2のユーザU2が第1のユーザU1の視野内に位置するか否かを判定してもよい。 Furthermore, when the control unit 14A determines that the real image of the second user U2 is located within the central region of the first image, it may change at least one of the size, resolution, and transparency of the first and second content. The central region of the first image may be a predetermined region that encompasses the center of the first image. When the first image is displayed on the entire surface of the display unit 11A, the central region of the first image becomes the central region of the display unit 11A. Furthermore, since the first image is generated by superimposing another image on the aforementioned real space image, the central region of the first image becomes a predetermined region at the center of the aforementioned real space image. Furthermore, when the control unit 14A determines that the real image of the second user U2 is located outside the central region of the first image, it may change at least one of the size, resolution, and transparency of the first and second content as the real image of the second user U2 in the first image approaches the central region of the first image. For example, if the control unit 14A determines that the real image of the second user U2 is located within the central region of the first image, the first user U1 is gazing at the second user U2. In such a case, the control unit 14A may increase the resolution of the second image, decrease its transparency, or both, before displaying the second image in order to grasp the situation of the second user U2 with higher accuracy. Furthermore, for example, if the control unit 14A determines that the real image of the second user U2 is located outside the central region of the first image, the first user U1 is not gazing at the second user U2. In such a case, the control unit 14A does not need to grasp the situation of the second user U2 with high accuracy, and may decrease the resolution of the second image, increase its transparency, or both, before displaying the second image. In this embodiment, the control unit 14A determines whether the second user U2 is located within the field of view of the first user U1 based on the positional relationship between the first HMD 10A and the second HMD 20A detected by the position detection unit 13A and the orientation of the first HMD 10A detected by the orientation detection unit 15A. However, the control unit 14A may also determine whether the second user U2 is located within the field of view of the first user U1 based on a real space image generated by the imaging unit 16.
<光学透過型>
図3を参照して実施の形態1に係るヘッドマウントディスプレイシステムの別の一具体例について説明する。図3は、実施の形態1に係るヘッドマウントディスプレイシステムの別の一具体例を示すブロック図である。
<Optical transmission type>
Another specific example of the head mounted display system according to the first embodiment will be described with reference to Fig. 3. Fig. 3 is a block diagram showing another specific example of the head mounted display system according to the first embodiment.
図3に示すヘッドマウントディスプレイシステム100Bは、図1に示すヘッドマウントディスプレイシステム100の一具体例である。ヘッドマウントディスプレイシステム100Bは、第1のHMD10Bと、第2のHMD20Bとを備える。第1のHMD10B及び第2のHMD20Bは、光学透過型HMDである。 The head-mounted display system 100B shown in FIG. 3 is a specific example of the head-mounted display system 100 shown in FIG. 1. The head-mounted display system 100B includes a first HMD 10B and a second HMD 20B. The first HMD 10B and the second HMD 20B are optically transmissive HMDs.
第1のHMD10Bは、表示部11Bと、通信部12Aと、位置検出部13Aと、制御部14Bと、向き検出部15Aとを備える。 The first HMD 10B includes a display unit 11B, a communication unit 12A, a position detection unit 13A, a control unit 14B, and an orientation detection unit 15A.
第2のHMD20Bは、第1のHMD10Bの構成と同じ構成を備えるとよい。具体的には、第2のHMD20Bは、表示部21Bと、通信部22と、位置検出部23と、制御部24Bと、向き検出部25とを備える。ヘッドマウントディスプレイシステム100Bでは、第1のHMD10Bの構成と第2のHMD20Bの構成とは同じである。以下、第1のHMD10Bの構成について詳細を説明するが、表示部21B、制御部24Bは、それぞれ、表示部11B、制御部14Bと同じ構成である。 The second HMD 20B may have the same configuration as the first HMD 10B. Specifically, the second HMD 20B includes a display unit 21B, a communication unit 22, a position detection unit 23, a control unit 24B, and an orientation detection unit 25. In the head-mounted display system 100B, the configuration of the first HMD 10B is the same as that of the second HMD 20B. The configuration of the first HMD 10B is described in detail below, but the display unit 21B and control unit 24B have the same configuration as the display unit 11B and control unit 14B, respectively.
表示部11Bは、図1に示す表示部11の一具体例である。表示部11Bは、第1のユーザU1の視野内の実空間からの可視光線の少なくとも一部を第1のユーザU1の眼に導く。これにより、表示部11Bは、表示部11B越しに第1のユーザU1の視野内の実空間を第1のユーザU1に視認させることができる。表示部11Bは、光学系を用いて、表示部11B越しに視認される第1のユーザU1の視野内の実空間に、後述する第3の映像が重ね合わせて表示する。光学系は、プリズムやハーフミラーなどである。 Display unit 11B is a specific example of display unit 11 shown in FIG. 1. Display unit 11B guides at least a portion of visible light from the real space within the field of view of first user U1 to the eyes of first user U1. This allows first user U1 to view the real space within the field of view of first user U1 through display unit 11B. Display unit 11B uses an optical system to superimpose a third image, described below, onto the real space within the field of view of first user U1 as viewed through display unit 11B. The optical system is a prism, a half mirror, or the like.
制御部14Bは、図1に示す制御部14の一具体例である。制御部14Bは、第1の映像に替えて第3の映像を表示するところを除いて制御部14Aと同じ構成を備える。 Control unit 14B is a specific example of control unit 14 shown in Figure 1. Control unit 14B has the same configuration as control unit 14A, except that it displays a third image instead of the first image.
制御部14Bは、第3の映像を表示部11Bに表示させる。制御部14Bは、通信部12Aを介して図示しない他の装置から第3の映像を取得してもよい。第3の映像は、第1の映像と同様に、第1のコンテンツを含む。なお、第3の映像は、第1の映像と異なり、前述した、撮像部16の生成した実空間像を含まない。制御部14Bは、第2のユーザU2が第1のユーザU1の視野内に位置すると判定した場合、第2の映像を、表示部11B越しに視認できる第2のユーザU2の実像の周辺に、表示部11Bに表示させる。また、制御部14Bは、位置検出部13Aが検出した第1のHMD10Aと第2のHMD20Aとの距離に基づいて、第2の映像のサイズ、解像度及び透過度の少なくとも1つを変更してもよい。制御部14Bは第2のユーザU2が第1のユーザU1の視野内に位置すると判定した場合、表示部11Bにおける、第1のコンテンツを、表示部11B越しに視認できる内における第2のユーザU2の実像から離隔した位置に表示させてもよい。さらに、制御部14Bは、表示部11Bよって、第2の映像に含まれる第2のコンテンツのみを、表示部11B越しに視認できる第2のユーザU2の実像の周辺に表示させてもよい。 The control unit 14B causes the display unit 11B to display the third image. The control unit 14B may acquire the third image from another device (not shown) via the communication unit 12A. The third image, like the first image, includes the first content. Unlike the first image, the third image does not include the real space image generated by the imaging unit 16, as described above. When the control unit 14B determines that the second user U2 is located within the field of view of the first user U1, it causes the display unit 11B to display the second image around the real image of the second user U2 visible through the display unit 11B. The control unit 14B may also change at least one of the size, resolution, and transparency of the second image based on the distance between the first HMD 10A and the second HMD 20A detected by the position detection unit 13A. When the control unit 14B determines that the second user U2 is located within the field of view of the first user U1, the control unit 14B may cause the display unit 11B to display the first content at a position separated from the real image of the second user U2 that is visible through the display unit 11B. Furthermore, the control unit 14B may cause the display unit 11B to display only the second content included in the second video in the periphery of the real image of the second user U2 that is visible through the display unit 11B.
また、制御部14Bは、表示部11B越しに視認できる第2のユーザU2の実像が、表示部11Bの中心領域内に位置すると判定した場合、第1及び第2のコンテンツのサイズ、解像度及び透過度の少なくとも1つを変更してもよい。表示部11Bの中心領域は、表示部11Bの中心を包含する所定の領域であればよい。第1のユーザU1は表示部11B越しに視野内の実空間を視認するため、表示部11Bの中心領域は、実空間像の中心の所定の領域と同じなる。また、制御部14Bは、第2のユーザU2の実像が実空間像の中心領域外に位置すると判定した場合、表示部11B越しに視認できる第2のユーザU2の実像が実空間像の中心領域に近づくにつれて、第1及び第2のコンテンツのサイズ、解像度及び透過度の少なくとも1つを変化させるとよい。 Furthermore, when the control unit 14B determines that the real image of the second user U2 visible through the display unit 11B is located within the central region of the display unit 11B, it may change at least one of the size, resolution, and transparency of the first and second content. The central region of the display unit 11B may be a predetermined region that encompasses the center of the display unit 11B. Because the first user U1 views the real space within their field of view through the display unit 11B, the central region of the display unit 11B is the same as the predetermined region at the center of the real space image. Furthermore, when the control unit 14B determines that the real image of the second user U2 is located outside the central region of the real space image, it may change at least one of the size, resolution, and transparency of the first and second content as the real image of the second user U2 visible through the display unit 11B approaches the central region of the real space image.
<ヘッドマウントディスプレイシステムの制御方法の一例>
次に、図4を参照して、図2に示すビデオ透過型のヘッドマウントディスプレイシステム100Aの制御方法の一例について説明する。図4は、実施の形態1に係るヘッドマウントディスプレイシステムの制御方法の一例を示すフローチャートである。
<Example of a method for controlling a head-mounted display system>
Next, an example of a control method for the video see-through type head mounted display system 100A shown in Fig. 2 will be described with reference to Fig. 4. Fig. 4 is a flowchart showing an example of a control method for the head mounted display system according to the first embodiment.
制御部14Aが、第1の映像を第1のHMD10Aの表示部11Aに表示させる(ステップST11)。表示部11Aが当該第1の映像を表示し、第1のユーザU1は当該第1の映像を視認できる。また、位置検出部13Aが、第1のHMD10Aと第2のHMD20Aとの位置関係の検出を開始する。位置検出部13Aは、ステップST11から後述するステップST14まで、第1のHMD10Aと第2のHMD20Aとの位置関係を時々刻々と検出し続けるとよい。また、向き検出部15Aが第1のHMD10Aの向きの検出を開始する。向き検出部15Aは、ステップST11から後述するステップST14まで、第1のHMD10Aの向きを時々刻々と検出し続けるとよい。 The control unit 14A displays the first image on the display unit 11A of the first HMD 10A (step ST11). The display unit 11A displays the first image, and the first user U1 can view the first image. The position detection unit 13A also begins detecting the positional relationship between the first HMD 10A and the second HMD 20A. The position detection unit 13A may continue to detect the positional relationship between the first HMD 10A and the second HMD 20A from step ST11 to step ST14, which will be described later. The orientation detection unit 15A also begins detecting the orientation of the first HMD 10A. The orientation detection unit 15A may continue to detect the orientation of the first HMD 10A from step ST11 to step ST14, which will be described later.
続いて、制御部14Aは、第2のユーザU2が第1のユーザU1の視野内に位置するか否かを判定する(ステップST12)。具体的には、制御部14Aは、位置検出部13Aが検出した第1のHMD10Aと第2のHMD20Aとの位置関係と、向き検出部15Aが検出した第1のHMD10Aの向きとに基づいて、第2のユーザU2が第1のユーザU1の視野内に位置するか否かを判定する。より具体的には、制御部14Aは、第1のHMD10Aと第2のHMD20Aとの位置関係と第1のHMD10Aの向きとに基づいて、第2のHMD20Aが第1のHMD10Aから第1のHMD10Aの向いた方向に位置するか否かを推定する。制御部14Aは、第2のHMD20Aが第1のHMD10Aから第1のHMD10Aの向いた方向に位置すると推定した場合、第2のユーザU2が第1のユーザU1の視野内に位置すると判定する。制御部14Aは、第2のユーザU2が第1のユーザU1の視野内に位置しないと判定すると(ステップST12:NO)、ステップST12を繰り返す。 Next, the control unit 14A determines whether the second user U2 is located within the field of view of the first user U1 (step ST12). Specifically, the control unit 14A determines whether the second user U2 is located within the field of view of the first user U1 based on the positional relationship between the first HMD 10A and the second HMD 20A detected by the position detection unit 13A and the orientation of the first HMD 10A detected by the orientation detection unit 15A. More specifically, the control unit 14A estimates whether the second HMD 20A is located in the direction in which the first HMD 10A is facing from the first HMD 10A based on the positional relationship between the first HMD 10A and the second HMD 20A and the orientation of the first HMD 10A. If the control unit 14A estimates that the second HMD 20A is located in the direction of the first HMD 10A from the first HMD 10A, it determines that the second user U2 is located within the field of view of the first user U1. If the control unit 14A determines that the second user U2 is not located within the field of view of the first user U1 (step ST12: NO), it repeats step ST12.
制御部14Aは、第2のユーザU2が第1のユーザU1の視野内に位置すると判定すると(ステップST12:YES)、制御部14Aが、さらに第2の映像を第1のHMD10Aの表示部11Aに表示させる(ステップST13)。具体的には、通信部12Aが第2のHMD20Aから視覚情報として第2の映像を取得し、制御部14Aが、その取得した第2の映像を、表示部11Aの第1の映像内における第2のユーザU2の実像の周辺に表示させる When the control unit 14A determines that the second user U2 is located within the field of view of the first user U1 (step ST12: YES), the control unit 14A further displays a second image on the display unit 11A of the first HMD 10A (step ST13). Specifically, the communication unit 12A acquires the second image as visual information from the second HMD 20A, and the control unit 14A displays the acquired second image around the real image of the second user U2 within the first image on the display unit 11A.
続いて、制御部14Aが第2のユーザU2が第1のユーザU1の視野の外に位置するか否かを判定する(ステップST14)。具体的には、制御部14Aは、第1のHMD10Aと第2のHMD20Aとの位置関係と第1のHMD10Aの向きとに基づいて、第2のHMD20Aが第1のHMD10Aから第1のHMD10Aの向いた方向に位置すると推定すると、第2のユーザU2が第1のユーザU1の視野の外に位置しないと判定し(ステップST14:NO)、ステップST13、ST14を繰り返す。 The control unit 14A then determines whether the second user U2 is located outside the field of view of the first user U1 (step ST14). Specifically, if the control unit 14A estimates, based on the positional relationship between the first HMD 10A and the second HMD 20A and the orientation of the first HMD 10A, that the second HMD 20A is located in the direction in which the first HMD 10A is facing, it determines that the second user U2 is not located outside the field of view of the first user U1 (step ST14: NO), and repeats steps ST13 and ST14.
制御部14Aは、第2のHMD20Aが第1のHMD10Aから第1のHMD10Aの向いた方向に位置しないと推定し、第2のユーザU2が第1のユーザU1の視野の外に位置すると判定すると(ステップST14:YES)、制御部14Aが、第2の映像の第1のHMD10Aの表示部11Aへの表示を停止させる(ステップST15)。言い換えると、制御部14Aが、第1の映像のみを第1のHMD10Aの表示部11Aに表示させる。通信部12Aが第2のHMD20Aからの視覚情報として第2の映像の取得を停止してもよい。 When the control unit 14A estimates that the second HMD 20A is not located in the direction of the first HMD 10A from the first HMD 10A and determines that the second user U2 is located outside the field of view of the first user U1 (step ST14: YES), the control unit 14A stops displaying the second image on the display unit 11A of the first HMD 10A (step ST15). In other words, the control unit 14A displays only the first image on the display unit 11A of the first HMD 10A. The communication unit 12A may stop acquiring the second image as visual information from the second HMD 20A.
以上、上述の制御方法によれば、第1のユーザU1は、第1の映像内における第2のユーザU2の実像の周辺に表示された第2の映像を確認することができる。これによって、第1のユーザU1は、第2の映像を容易に確認することができる。 As described above, according to the control method described above, the first user U1 can view the second image displayed around the real image of the second user U2 in the first image. This allows the first user U1 to easily view the second image.
また、上記のステップST12、ST14では、制御部14は、第1のユーザの視野に対する第2のユーザの位置に加えて、第1のHMD10と第2のHMD20との距離に基づいて、上述の各判定を行ってもよい。図5を参照して、このような各判定を行う制御方法について説明する。図5は、図4に示す制御方法の一変形例を示すフローチャートである。図5に示す制御方法の一変形例では、ステップST11、ST22、ST13、ST24、ST15の順に実行する。 Furthermore, in steps ST12 and ST14 above, the control unit 14 may make the above-mentioned determinations based on the distance between the first HMD 10 and the second HMD 20, in addition to the position of the second user relative to the field of view of the first user. A control method for making such determinations will be described with reference to Figure 5. Figure 5 is a flowchart showing a modified version of the control method shown in Figure 4. In this modified version of the control method shown in Figure 5, steps ST11, ST22, ST13, ST24, and ST15 are executed in this order.
ステップST22では、制御部14Aは、第2のユーザU2が第1のユーザU1の視野内に位置し、かつ、第1のHMD10Aと第2のHMD20Aとの距離が所定の距離以下である否かを判定する。位置検出部13Aが検出した第1のHMD10Aと第2のHMD20Aとの位置関係は、第1のHMD10Aと第2のHMD20Aとの距離を含む。制御部14Aは位置検出部13Aが検出した第1のHMD10Aと第2のHMD20Aとの位置関係から第1のHMD10Aと第2のHMD20Aとの距離を求めることができる。所定の距離は予め設定されるとよい。例えば、第1のHMD10Aと第2のHMD20Aとの利用環境下が室内又は室外に応じて、所定の距離を予め設定するとよい。制御部14Aは、第2のユーザU2が第1のユーザU1の視野内に位置し、かつ、第1のHMD10Aと第2のHMD20Aとの距離が所定の距離以下である否かを判定する。制御部14Aが、第2のユーザU2が第1のユーザU1の視野の内に位置すると判定し、かつ第1のHMD10Aと第2のHMD20Aとの距離が所定の距離以下であると判定すると(ステップST22:YES)、ステップST13へ進む。一方、制御部14Aが第2のユーザU2が第1のユーザU1の視野の内に位置しない、又は、第1のHMD10Aと第2のHMD20Aとの距離が所定の距離を以下ではないと判定すると(ステップST22:NO)、ステップST22を繰り返す。 In step ST22, the control unit 14A determines whether the second user U2 is located within the field of view of the first user U1 and whether the distance between the first HMD 10A and the second HMD 20A is less than or equal to a predetermined distance. The positional relationship between the first HMD 10A and the second HMD 20A detected by the position detection unit 13A includes the distance between the first HMD 10A and the second HMD 20A. The control unit 14A can determine the distance between the first HMD 10A and the second HMD 20A from the positional relationship between the first HMD 10A and the second HMD 20A detected by the position detection unit 13A. The predetermined distance may be set in advance. For example, the predetermined distance may be set in advance depending on whether the usage environment of the first HMD 10A and the second HMD 20A is indoors or outdoors. The control unit 14A determines whether the second user U2 is located within the field of view of the first user U1 and whether the distance between the first HMD 10A and the second HMD 20A is equal to or less than a predetermined distance. If the control unit 14A determines that the second user U2 is located within the field of view of the first user U1 and that the distance between the first HMD 10A and the second HMD 20A is equal to or less than the predetermined distance (step ST22: YES), the control unit 14A proceeds to step ST13. On the other hand, if the control unit 14A determines that the second user U2 is not located within the field of view of the first user U1 or that the distance between the first HMD 10A and the second HMD 20A is not equal to or less than the predetermined distance (step ST22: NO), the control unit 14A repeats step ST22.
ステップST24では、制御部14Aが第2のユーザU2が第1のユーザU1の視野の外に位置する、又は、第1のHMD10Aと第2のHMD20Aとの距離が所定の距離を超過するか否かを判定する。制御部14Aが第2のユーザU2が第1のユーザU1の視野の外に位置すると判定する、又は、第1のHMD10Aと第2のHMD20Aとの距離が所定の距離を超過すると判定すると(ステップST24:YES)、ステップST15へ進む。一方、制御部14Aが第2のユーザU2が第1のユーザU1の視野の外に位置しない、又は、第1のHMD10Aと第2のHMD20Aとの距離が所定の距離を超過しないと判定すると(ステップST24:NO)、ステップST13、ST24を繰り返す。 In step ST24, the control unit 14A determines whether the second user U2 is located outside the field of view of the first user U1, or whether the distance between the first HMD 10A and the second HMD 20A exceeds a predetermined distance. If the control unit 14A determines that the second user U2 is located outside the field of view of the first user U1, or that the distance between the first HMD 10A and the second HMD 20A exceeds a predetermined distance (step ST24: YES), the control unit 14A proceeds to step ST15. On the other hand, if the control unit 14A determines that the second user U2 is not located outside the field of view of the first user U1, or that the distance between the first HMD 10A and the second HMD 20A does not exceed a predetermined distance (step ST24: NO), steps ST13 and ST24 are repeated.
また、図4に示す制御方法では、第1のHMD10Aの制御部14A等が上記のステップST11からステップST15を実行したが、上記のステップST11からステップST15と並行して、第2のHMD20Aの制御部24もステップST11からステップST15を実行してもよい。すなわち、上記のステップST11からステップST15と並行して、第2のHMD20Aの制御部24が第1の映像等を表示部21に表示させる、又はその表示を停止してもよい。図5に示す制御方法でも、同様に、上記のステップST11、ST22、ST13、ST24、ST15と並行して、第2のHMD20Aの制御部24もステップST11、ST22、ST13、ST24、ST15を実行してもよい。 In addition, in the control method shown in FIG. 4, the control unit 14A of the first HMD 10A and the like executes steps ST11 to ST15 described above, but the control unit 24 of the second HMD 20A may also execute steps ST11 to ST15 in parallel with steps ST11 to ST15 described above. That is, in parallel with steps ST11 to ST15 described above, the control unit 24 of the second HMD 20A may cause the display unit 21 to display the first image and the like, or stop the display. Similarly, in the control method shown in FIG. 5, the control unit 24 of the second HMD 20A may also execute steps ST11, ST22, ST13, ST24, and ST15 described above.
また、図4及び図5に本制御方法については、図3に示す光学透過型のヘッドマウントディスプレイシステム100Bに適用できる。図3に示すヘッドマウントディスプレイシステム100Bに適用した制御方法では、第1のユーザU1は視野内の実空間を表示部11B越しに視認しており、各ステップにおいて、適宜、制御部14Bが第3の映像を表示部11Bに表示させる。また、ステップST13において、制御部14Bが、第2の映像を、表示部11B越しに視認できる第2のユーザの実像の周辺に表示させる。 The control methods shown in Figures 4 and 5 can also be applied to the optically transmissive head-mounted display system 100B shown in Figure 3. In the control method applied to the head-mounted display system 100B shown in Figure 3, the first user U1 views the real space within his or her field of view through the display unit 11B, and in each step, the control unit 14B appropriately displays a third image on the display unit 11B. Also, in step ST13, the control unit 14B displays the second image in the periphery of the real image of the second user visible through the display unit 11B.
(処理の具体例)
<光学透過型HMDによる処理>
次に、図6~図8を参照して、図3に示すヘッドマウントディスプレイシステム100Bによる処理のステップST11からステップST13の一具体例について説明する。上述の通り、ヘッドマウントディスプレイシステム100Bは、光学透過型HMDである第1のHMD10B及び第2のHMD20Bを備える。なお、以下の具体例では、第1のHMD10Bは光学透過型HMDであり、第1のユーザは、第1のHMD10Bの表示部11B越しに第1のユーザU1の目前の実空間を視認できることに留意する。
(Specific example of processing)
<Processing by optical transmission type HMD>
Next, a specific example of steps ST11 to ST13 of the processing by the head-mounted display system 100B shown in Fig. 3 will be described with reference to Figs. 6 to 8. As described above, the head-mounted display system 100B includes a first HMD 10B and a second HMD 20B, which are optically transmissive HMDs. Note that in the following specific example, the first HMD 10B is an optically transmissive HMD, and the first user U1 can view the real space in front of them through the display unit 11B of the first HMD 10B.
ステップST11では、第1のユーザU1は、表示部11B越しに実空間像R1を視認している。また、図3に示す制御部14Bが、図6に示す第3の映像IM31を実空間像R1と重ね合わせて表示部11Bに表示させる。第1のユーザU1は、表示部11Bの表示面11cにおいて、表示部11B越しの実空間像R1と第3の映像IM31とが重ね合わせられた状態で視認している。第3の映像IM31は、第1のコンテンツC1を含む。第3の映像IM31は、第1のコンテンツC1を複数含んでよい。第3の映像IM31は第1のコンテンツC1を1つのみ含む場合、第1のコンテンツC1を第3の映像IM31全体にわたって表示してもよく、第3の映像IM31の中央近傍に配置してもよい。第1のユーザU1は第3の映像IM31を視聴しており、第2のユーザU2は第2の映像M21を視聴している。 In step ST11, the first user U1 views the real space image R1 through the display unit 11B. Furthermore, the control unit 14B shown in FIG. 3 causes the third image IM31 shown in FIG. 6 to be superimposed on the real space image R1 and displayed on the display unit 11B. The first user U1 views the real space image R1 through the display unit 11B and the third image IM31 superimposed on the display surface 11c of the display unit 11B. The third image IM31 includes the first content C1. The third image IM31 may include multiple copies of the first content C1. When the third image IM31 includes only one copy of the first content C1, the first content C1 may be displayed across the entire third image IM31 or may be positioned near the center of the third image IM31. The first user U1 is viewing the third video IM31, and the second user U2 is viewing the second video M21.
ステップST12では、制御部14Bは第2のユーザU2が第1のユーザU1の視野内に位置すると判定し(ST12:YES)、ステップST13に進む。 In step ST12, the control unit 14B determines that the second user U2 is located within the field of view of the first user U1 (ST12: YES) and proceeds to step ST13.
続いて、ステップST13では、図8に示すように、制御部14Bは、表示部11Bにおいて、第2の映像IM21を、表示部11B越しに視認できる第2のユーザU2の実像の周辺に表示させる。制御部14Bは、第3の映像IM31を表示部11B内の第2のユーザU2の実像、及び第2の映像IM21から離隔した位置に表示させてもよい。なお、制御部14Bは、第2の映像IM21ではなく、第2のコンテンツC2を、表示部11B越しに視認できる第2のユーザU2の実像の周辺に表示させてもよい。これによって、第1のユーザU1は、第1のコンテンツC1と第2のコンテンツC2とを容易に確認することができる。 Next, in step ST13, as shown in FIG. 8, the control unit 14B causes the display unit 11B to display the second image IM21 in the vicinity of the real image of the second user U2 visible through the display unit 11B. The control unit 14B may also cause the third image IM31 to be displayed in the display unit 11B at a position spaced apart from the real image of the second user U2 and the second image IM21. Note that the control unit 14B may also display the second content C2, rather than the second image IM21, in the vicinity of the real image of the second user U2 visible through the display unit 11B. This allows the first user U1 to easily check the first content C1 and the second content C2.
本例では、ステップST13において第2の映像IM21を表示する際に第3の映像IM31を離隔しているが、図7に示すように第2の映像IM21を表示せず、実空間像R1内の第2のユーザU2から第3の映像IM31を離隔させてもよい。これによって、第1のユーザU1は、表示面11cにおいて第2のユーザU2の実像と第1のコンテンツC1とを容易に確認することができる。 In this example, the third image IM31 is separated when the second image IM21 is displayed in step ST13. However, as shown in FIG. 7, the second image IM21 may not be displayed, and the third image IM31 may be separated from the second user U2 in the real space image R1. This allows the first user U1 to easily confirm the real image of the second user U2 and the first content C1 on the display surface 11c.
<ビデオ透過型HMDによる処理>
次に、図2に示すヘッドマウントディスプレイシステム100Aによる処理のステップST11からステップST13の各具体例について説明する。上述の通り、ヘッドマウントディスプレイシステム100Aは、ビデオ透過型HMDである第1のHMD10A及び第2のHMD20Aを備える。なお、以下の各具体例では、第1のHMD10Aはビデオ透過型HMDであり、第1のHMD10Aの表示部11Aは、少なくとも第1のユーザU1の目前の実空間を示す実空間像R1を示すことに留意する。
<Processing by video see-through HMD>
Next, specific examples of steps ST11 to ST13 of the processing by the head-mounted display system 100A shown in Figure 2 will be described. As described above, the head-mounted display system 100A includes a first HMD 10A and a second HMD 20A, which are video-transmissive HMDs. Note that in the following specific examples, the first HMD 10A is a video-transmissive HMD, and the display unit 11A of the first HMD 10A displays a real-space image R1 that indicates at least the real space in front of the first user U1.
<第1の具体例>
図9から図12を参照して、ステップST11からステップST13の第1の具体例について説明する。
<First Specific Example>
A first specific example of steps ST11 to ST13 will be described with reference to FIGS.
ステップST11では、図2に示す制御部14Aが、図9に示す第1の映像IM1を第1のHMD10Aの表示部11Aに表示させる。同様に、図2に示す制御部24が、図9に示す第2の映像IM2を第2のHMD20Aの表示部21に表示させる。第1の映像IM1は、撮像部16によって生成された、第1のユーザU1が第1のHMD10Aを装着した場合の、第1のユーザU1が表示部11A越しの視野内の実空間像R1を含む。第1の映像IM1は、第1のコンテンツをさらに含むとよい。第1の映像IM1は、実空間像R1上に第1のコンテンツC1が重畳されて表示される。第1の映像IM1は、実空間像R1上に背景画像(図示略)が重畳されて表示され、当該背景画像内に第1のコンテンツC1が表示されてもよい。第1のユーザU1は第1の映像IM1を視認でき、第2のユーザU2は第2の映像IM2を視認できる。 In step ST11, the control unit 14A shown in FIG. 2 causes the display unit 11A of the first HMD 10A to display the first image IM1 shown in FIG. 9. Similarly, the control unit 24 shown in FIG. 2 causes the display unit 21 of the second HMD 20A to display the second image IM2 shown in FIG. 9. The first image IM1 includes a real space image R1 generated by the imaging unit 16, which is within the field of view of the first user U1 through the display unit 11A when the first user U1 is wearing the first HMD 10A. The first image IM1 may further include first content. The first image IM1 is displayed with the first content C1 superimposed on the real space image R1. The first image IM1 may also be displayed with a background image (not shown) superimposed on the real space image R1, with the first content C1 displayed within the background image. The first user U1 can view the first image IM1, and the second user U2 can view the second image IM2.
図10に示すように、第1のユーザU1は、第2のユーザU2を視認できない方向を向く場合がある。このような場合、ステップST12では、制御部14Aは、第1のHMD10Aと第2のHMD20Aとの位置関係及び第1のHMD10Aの向きに基づいて、第2のユーザU2が第1のユーザU1の視野内に位置しないと判定する(ST12:NO)。そのため、制御部14Aが、第1の映像IM1を表示部11Aに表示させ続ける。 As shown in FIG. 10, the first user U1 may face a direction that prevents the second user U2 from being visible. In such a case, in step ST12, the control unit 14A determines that the second user U2 is not located within the field of view of the first user U1 based on the positional relationship between the first HMD 10A and the second HMD 20A and the orientation of the first HMD 10A (ST12: NO). Therefore, the control unit 14A continues to display the first image IM1 on the display unit 11A.
図11に示すように、第1のユーザU1が第2のユーザU2を視認できる方向へ向く場合がある。このような場合、ステップST12では、制御部14Aは、第1のHMD10Aと第2のHMD20Aとの位置関係及び第1のHMD10Aの向きに基づいて、第2のユーザU2が第1のユーザU1の視野内に位置すると判定する(ST12:YES)。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1のユーザU1は第1の映像IM1における実空間像R1内に第2のユーザU2を視認することができる。ステップST13では、制御部14Aが、通信部12Aが第2のHMD20Aから視覚情報として取得した第2の映像IM2を第1の映像IM1a内における第2のユーザU2の実像の周辺に表示させる。図12に示すように、第1の映像IM1aは、図9に示す第1の映像IM1における第2のユーザU2の実像の周囲に、第2の映像IM2を重畳して表示される。第1のユーザU1は、第1の映像IM1a内における第2のユーザU2の実像の周辺に表示された第2の映像IM2を確認することができる。これによって、第1のユーザU1は、第2の映像IM2を容易に確認することができる。 As shown in FIG. 11, the first user U1 may face a direction in which the second user U2 can be seen. In such a case, in step ST12, the control unit 14A determines that the second user U2 is located within the field of view of the first user U1 based on the positional relationship between the first HMD 10A and the second HMD 20A and the orientation of the first HMD 10A (ST12: YES). When the second user U2 is located within the field of view of the first user U1, the first user U1 can see the second user U2 within the real space image R1 in the first image IM1. In step ST13, the control unit 14A displays the second image IM2, which the communication unit 12A has acquired as visual information from the second HMD 20A, around the real image of the second user U2 in the first image IM1a. As shown in FIG. 12, the first image IM1a is displayed with the second image IM2 superimposed around the real image of the second user U2 in the first image IM1 shown in FIG. 9. The first user U1 can check the second image IM2 displayed around the real image of the second user U2 in the first image IM1a. This allows the first user U1 to easily check the second image IM2.
<第2の具体例>
続いて、図13から図14を参照して、ステップST11からステップST13の第2の具体例について説明する。
<Second Specific Example>
Next, a second specific example of steps ST11 to ST13 will be described with reference to FIGS.
ステップST11では、図2に示す制御部14Aが、図13に示す第1の映像IM1bを第1のHMD10Aの表示部11Aに表示させる。同様に、図2に示す制御部24が、図13に示す第2の映像IM2bを第2のHMD20Aの表示部21に表示させる。第1の映像IM1bは、撮像部16によって生成された実空間像R1及び第1のコンテンツC1を示す。第2の映像IM2bは、撮像部26によって生成された実空間像R2及び第2のコンテンツC2を示す。第1のユーザU1は第1の映像IM1bを視聴しており、第2のユーザU2は第2の映像IM2bを視聴している。 In step ST11, the control unit 14A shown in FIG. 2 causes the display unit 11A of the first HMD 10A to display the first image IM1b shown in FIG. 13. Similarly, the control unit 24 shown in FIG. 2 causes the display unit 21 of the second HMD 20A to display the second image IM2b shown in FIG. 13. The first image IM1b shows the real space image R1 and first content C1 generated by the imaging unit 16. The second image IM2b shows the real space image R2 and second content C2 generated by the imaging unit 26. The first user U1 is viewing the first image IM1b, and the second user U2 is viewing the second image IM2b.
ステップST12では、制御部14Aは第2のユーザU2が第1のユーザU1の視野内に位置すると判定し(ST12:YES)、ステップST13に進む。 In step ST12, the control unit 14A determines that the second user U2 is located within the field of view of the first user U1 (ST12: YES) and proceeds to step ST13.
本実施例では、ステップST13として、第2の映像IM21を表示させず、第1のコンテンツC1を第1の映像IM1c内における第2のユーザU2の実像から離隔した位置に表示させる。ステップST13では、制御部14Aが、図14に示す第1の映像IM1cを表示部11Aに表示させる。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1の映像IM1cは、第1のユーザU1の目前の実空間像R1、第1のコンテンツC1を示し、実空間像R1には第2のユーザU2が表示される。すなわち第1のユーザU1は表示部11Aに表示される実空間に存在する第2のユーザU2を視認できる。第1の映像IM1c内において、第1のコンテンツC1は、第2のユーザU2の実像から離隔した位置に表示される。これによって、第1のユーザU1は、第1の映像IM1c内において第2のユーザU2の実像と第1のコンテンツC1とを容易に確認することができる。 In this embodiment, in step ST13, the second image IM21 is not displayed, and the first content C1 is displayed at a position in the first image IM1c that is spaced apart from the real image of the second user U2. In step ST13, the control unit 14A displays the first image IM1c shown in FIG. 14 on the display unit 11A. When the second user U2 is located within the field of view of the first user U1, the first image IM1c shows the real space image R1 and the first content C1 in front of the first user U1, and the second user U2 is displayed in the real space image R1. In other words, the first user U1 can see the second user U2 who exists in the real space displayed on the display unit 11A. In the first image IM1c, the first content C1 is displayed at a position spaced apart from the real image of the second user U2. This allows the first user U1 to easily confirm the real image of the second user U2 and the first content C1 in the first image IM1c.
なお、本例のステップST13では、制御部14Aは、表示部11Aによって、第1のコンテンツC1を第1の映像IM1c内における第2のユーザU2の実像から離隔した位置に表示させたが、表示部11Aによる第1のコンテンツC1の表示を停止させてもよい。これによって、第1のユーザU1は、第1の映像IM1c内において第2のユーザU2の実像を容易に確認することができる。 In step ST13 of this example, the control unit 14A causes the display unit 11A to display the first content C1 at a position separated from the real image of the second user U2 in the first image IM1c. However, the control unit 14A may also stop the display of the first content C1 by the display unit 11A. This allows the first user U1 to easily confirm the real image of the second user U2 in the first image IM1c.
<第3の具体例>
続いて、図13及び図15を参照して、ステップST11からステップST13の第3の具体例について説明する。
<Third Specific Example>
Next, a third specific example of steps ST11 to ST13 will be described with reference to FIGS.
ステップST11からステップST12について、上述した第2の具体例と同様に、実行する。続いて、ステップST13では、制御部14Aが、図15に示す第1の映像IM1dを表示部11Aに表示させる。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1の映像IM1dは、第1のユーザU1の目前の実空間像R1、第1のコンテンツC1及び第2のコンテンツC2を示す。実空間像R1には第2のユーザU2が表示される。すなわち、第1のユーザU1は表示部11Aに表示される実空間に存在する第2のユーザU2を視認できる。制御部14Aは、表示部11Aによって、第1のコンテンツC1を第1の映像IM1d内における第2のユーザU2の実像から離隔した位置に表示させつつ、第2のコンテンツC2を、第1の映像IM1d内における第2のユーザU2の実像の周辺に表示させる。これによって、第1のユーザU1は、第1の映像IM1d内において、自身が視聴する第1のコンテンツC1と、第2のユーザU2が視聴する第2のコンテンツC2とを容易に確認することができる。 Steps ST11 and ST12 are performed in the same manner as in the second specific example described above. Next, in step ST13, the control unit 14A causes the display unit 11A to display the first image IM1d shown in FIG. 15. When the second user U2 is located within the field of view of the first user U1, the first image IM1d shows a real space image R1, first content C1, and second content C2 in front of the first user U1. The second user U2 is displayed in the real space image R1. In other words, the first user U1 can see the second user U2 existing in the real space displayed on the display unit 11A. The control unit 14A causes the display unit 11A to display the first content C1 at a position separated from the real image of the second user U2 in the first image IM1d, while displaying the second content C2 in the periphery of the real image of the second user U2 in the first image IM1d. This allows the first user U1 to easily confirm the first content C1 that he or she is viewing and the second content C2 that the second user U2 is viewing within the first video IM1d.
<第4の具体例>
続いて、図16から図17を参照して、ステップST11からステップST13の第4の具体例について説明する。
<Fourth Specific Example>
Next, a fourth specific example of steps ST11 to ST13 will be described with reference to FIGS.
ステップST11からステップST12について、上述した第3の具体例と同様に、実行する。続いて、ステップST13では、制御部14Aは、第3の具体例と同様に、第2のコンテンツC2を、第1の映像IM1内における第2のユーザU2の実像の周辺に表示させ、第1のコンテンツC1を第1の映像IM1内における第2のユーザU2の実像から離隔した位置に表示させる。また、本ステップST13では、制御部14Aは、第1のユーザU1の第1の注視度に基づいて、第1のコンテンツC1のサイズを変更する。 Steps ST11 and ST12 are executed in the same manner as in the third specific example described above. Next, in step ST13, as in the third specific example, the control unit 14A displays the second content C2 in the periphery of the real image of the second user U2 in the first image IM1, and displays the first content C1 at a position separated from the real image of the second user U2 in the first image IM1. Also, in this step ST13, the control unit 14A changes the size of the first content C1 based on the first gaze degree of the first user U1.
例えば、制御部14Aは、第1のユーザU1が第1のコンテンツC1を注視する度合いを示す第1の注視度が所定の値よりも高い場合、図15に示す第1のコンテンツC1のサイズを拡大させる。制御部14Aが、図16に示す第1の映像IM1eを表示部11Aに表示させる。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1の映像IM1eは、第1のユーザU1の目前の実空間像R1、第1のコンテンツC1e及び第2のコンテンツC2を示す。実空間像R1には第2のユーザU2が表示される。第1のユーザU1は表示部11Aに表示される実空間に存在する第2のユーザU2を視認できる。第1のコンテンツC1eは、サイズを除いて、図15に示す第1のコンテンツC1と同じである。第1のコンテンツC1eのサイズは、第1のコンテンツC1のサイズと比較して大きい。これによって、第1のユーザU1は、第1のコンテンツC1eを視認して、自身が視聴する第1のコンテンツC1を容易に確認できる。 For example, when the first gaze level, which indicates the degree to which the first user U1 is gazing at the first content C1, is higher than a predetermined value, the control unit 14A enlarges the size of the first content C1 shown in FIG. 15. The control unit 14A causes the display unit 11A to display the first image IM1e shown in FIG. 16. When the second user U2 is located within the field of view of the first user U1, the first image IM1e shows the real space image R1, the first content C1e, and the second content C2 in front of the first user U1. The second user U2 is displayed in the real space image R1. The first user U1 can see the second user U2 present in the real space displayed on the display unit 11A. The first content C1e is the same as the first content C1 shown in FIG. 15, except for its size. The size of the first content C1e is larger than the size of the first content C1. This allows the first user U1 to view the first content C1e and easily confirm the first content C1 that they are viewing.
例えば、制御部14Aは、第1のユーザU1が第1のコンテンツC1を注視する度合いを示す第1の注視度が所定の値よりも低い場合、図15に示す第1のコンテンツC1のサイズを縮小させる。制御部14Aは、図17に示す第1のコンテンツC1fを表示する。第1のコンテンツC1fは、サイズを除いて、図15に示す第1のコンテンツC1と同じである。第1のコンテンツC1fのサイズは、第1のコンテンツC1のサイズと比較して小さい。これによって、第1のユーザU1は、第1の映像IM1fにおける第1のコンテンツC1f以外の部分、例えば、第2のユーザU2及び、第2のユーザU2が視聴する第2のコンテンツC2を容易に確認できる。なお、本実施例では、第2のユーザU2が第1のユーザU1の視野内に位置すると判定した場合に、第1のコンテンツC1のサイズを拡大または縮小させたが、第1のユーザU1の第1の注視度が所定の値よりも高い場合または低い場合、第2のユーザU2が第1のユーザU1の視野内に位置するか否かに関わらず、ステップST11において第1の映像IM1に表示される第1のコンテンツC1のサイズを拡大または縮小してから、第1の映像IM1を表示させてもよい。 For example, when the first degree of attention, which indicates the degree to which the first user U1 is gazing at the first content C1, is lower than a predetermined value, the control unit 14A reduces the size of the first content C1 shown in FIG. 15. The control unit 14A displays the first content C1f shown in FIG. 17. The first content C1f is the same as the first content C1 shown in FIG. 15 except for its size. The size of the first content C1f is smaller than the size of the first content C1. This allows the first user U1 to easily check parts of the first image IM1f other than the first content C1f, such as the second user U2 and the second content C2 that the second user U2 is watching. In this embodiment, the size of the first content C1 is enlarged or reduced when it is determined that the second user U2 is located within the field of view of the first user U1. However, if the first gaze level of the first user U1 is higher or lower than a predetermined value, the size of the first content C1 displayed in the first image IM1 may be enlarged or reduced in step ST11 before the first image IM1 is displayed, regardless of whether the second user U2 is located within the field of view of the first user U1.
<第5の具体例>
続いて、図18から図19を参照して、ステップST11からステップST13の第5の具体例について説明する。
<Fifth Specific Example>
Next, a fifth specific example of steps ST11 to ST13 will be described with reference to FIGS.
ステップST11からステップST12について、上述した第3の具体例と同様に、実行する。続いて、ステップST13では、制御部14Aは、第3の具体例と同様に、第2のコンテンツC2を、第1の映像IM1内における第2のユーザU2の実像の周辺に表示させ、第1のコンテンツC1を第1の映像IM1内における第2のユーザU2の実像から離隔した位置に表示させる。また、本ステップST13では、制御部14Aは、第1のユーザU1の第1の注視度に基づいて、第1のコンテンツC1の解像度を変更する。 Steps ST11 and ST12 are executed in the same manner as in the third specific example described above. Next, in step ST13, as in the third specific example, the control unit 14A displays the second content C2 in the periphery of the real image of the second user U2 in the first image IM1, and displays the first content C1 at a position separated from the real image of the second user U2 in the first image IM1. Also, in this step ST13, the control unit 14A changes the resolution of the first content C1 based on the first gaze degree of the first user U1.
例えば、制御部14Aは、第1のユーザU1が第1のコンテンツC1を注視する度合いを示す第1の注視度が所定の値よりも高い場合、図15に示す第1のコンテンツC1の解像度を上げてもよい。制御部14A、図18に示す第1の映像IM1gを表示部11Aに表示させる。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1の映像IM1gは、第1のユーザU1の目前の実空間像R1、第1のコンテンツC1g及び第2のコンテンツC2を示す。実空間像R1には第2のユーザU2が表示される。すなわち、第1のユーザU1は表示部11Aに表示される実空間に存在する第2のユーザU2を視認できる。第1のコンテンツC1gは、解像度を除いて、図15に示す第1のコンテンツC1と同じである。第1のコンテンツC1gの解像度は、第1のコンテンツC1の解像度と比較して高い。これによって、第1のユーザU1は、第1のコンテンツC1gを視認して、自身が視聴する第1のコンテンツC1を容易に確認できる。 For example, the control unit 14A may increase the resolution of the first content C1 shown in FIG. 15 when the first gaze level, which indicates the degree to which the first user U1 is gazing at the first content C1, is higher than a predetermined value. The control unit 14A causes the display unit 11A to display the first image IM1g shown in FIG. 18. When the second user U2 is located within the field of view of the first user U1, the first image IM1g shows the real space image R1, the first content C1g, and the second content C2 in front of the first user U1. The second user U2 is displayed in the real space image R1. In other words, the first user U1 can see the second user U2 existing in the real space displayed on the display unit 11A. The first content C1g is the same as the first content C1 shown in FIG. 15 except for the resolution. The resolution of the first content C1g is higher than the resolution of the first content C1. This allows the first user U1 to view the first content C1g and easily confirm the first content C1 that they are viewing.
例えば、制御部14Aは、第1のユーザU1が第1のコンテンツC1を注視する度合いを示す第1の注視度が所定の値よりも低い場合、図15に示す第1のコンテンツC1の解像度を下げてもよい。制御部14Aが、図19に示す第1の映像IM1hを表示部11Aに表示させる。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1の映像IM1hは、第1のユーザU1の目前の実空間像R1、第1のコンテンツC1h及び第2のコンテンツC2を示す。実空間像R1には第2のユーザU2が表示される。すなわち、第1のユーザU1は表示部11Aに表示される実空間に存在する第2のユーザU2を視認できる。第1のコンテンツC1hは、解像度を除いて、図15に示す第1のコンテンツC1と同じである。第1のコンテンツC1hの解像度は、第1のコンテンツC1の解像度と比較して低い。これによって、第1のユーザU1は、自己があまり注視しない第1のコンテンツC1の解像度を下げるため、第1の映像IM1hにおける第1のコンテンツC1hの周辺部分、例えば第2のユーザU2及び、第2のユーザU2が視聴する第2のコンテンツC2を確認し易くてよい。 For example, the control unit 14A may lower the resolution of the first content C1 shown in FIG. 15 when the first gaze level, which indicates the degree to which the first user U1 is gazing at the first content C1, is lower than a predetermined value. The control unit 14A causes the display unit 11A to display the first image IM1h shown in FIG. 19. When the second user U2 is located within the field of view of the first user U1, the first image IM1h shows the real space image R1, the first content C1h, and the second content C2 in front of the first user U1. The second user U2 is displayed in the real space image R1. In other words, the first user U1 can see the second user U2 existing in the real space displayed on the display unit 11A. The first content C1h is the same as the first content C1 shown in FIG. 15 except for the resolution. The resolution of the first content C1h is lower than the resolution of the first content C1. This allows the first user U1 to lower the resolution of the first content C1, which they do not pay much attention to, making it easier for them to see the surrounding areas of the first content C1h in the first image IM1h, such as the second user U2 and the second content C2 that the second user U2 is viewing.
なお、本例のステップST13では、制御部14Aは、第1のユーザU1の第1の注視度に基づいて、第1のコンテンツC1の透過度を変更してもよい。具体的には、ステップST13では、制御部14Aは、第1のユーザU1の第1の注視度が所定の値よりも高い場合、図15に示す第1のコンテンツC1の透過度を下げてもよい。また、制御部14Aは、第1のユーザU1の第1の注視度が所定の値よりも低い場合、図15に示す第1のコンテンツC1の透過度を上げてもよい。なお、本実施例では、第2のユーザU2が第1のユーザU1の視野内に位置すると判定した場合に、第1のコンテンツC1の解像度または透過度を変更させたが、第1のユーザU1の第1の注視度が所定の値よりも高い場合または低い場合、第2のユーザU2が第1のユーザU1の視野内に位置するか否かに関わらず、ステップST11において第1の映像IM1に表示される第1のコンテンツC1の解像度または透過度を変更して、第1の映像IM1を表示させてもよい。 In addition, in step ST13 of this example, the control unit 14A may change the transparency of the first content C1 based on the first gaze degree of the first user U1. Specifically, in step ST13, the control unit 14A may lower the transparency of the first content C1 shown in FIG. 15 if the first gaze degree of the first user U1 is higher than a predetermined value. Also, the control unit 14A may increase the transparency of the first content C1 shown in FIG. 15 if the first gaze degree of the first user U1 is lower than a predetermined value. In this embodiment, if it is determined that the second user U2 is located within the field of view of the first user U1, the resolution or transparency of the first content C1 is changed. However, if the first gaze degree of the first user U1 is higher or lower than a predetermined value, the resolution or transparency of the first content C1 displayed in the first image IM1 may be changed in step ST11, and the first image IM1 may be displayed, regardless of whether the second user U2 is located within the field of view of the first user U1.
<第6の具体例>
続いて、図20及び図21を参照して、ステップST11からステップST13の第6の具体例について説明する。
<Sixth Specific Example>
Next, a sixth specific example of steps ST11 to ST13 will be described with reference to FIGS.
ステップST11からステップST12について、上述した第3の具体例と同様に、実行する。続いて、ステップST13では、制御部14Aは、第3の具体例と同様に、第2のコンテンツC2を、第1の映像IM1内における第2のユーザU2の実像の周辺に表示させ、第1のコンテンツC1を第1の映像IM1内における第2のユーザU2の実像から離隔した位置に表示させる。また、本ステップST13では、制御部14Aは、第2のユーザU2が第2のコンテンツC2を注視する度合いを示す第2の注視度に基づいて、第2のコンテンツC2のサイズ、解像度及び透過度の少なくとも1つを変更する。 Steps ST11 and ST12 are executed in the same manner as in the third specific example described above. Next, in step ST13, as in the third specific example, the control unit 14A displays the second content C2 in the periphery of the real image of the second user U2 in the first image IM1, and displays the first content C1 at a position separated from the real image of the second user U2 in the first image IM1. Also, in this step ST13, the control unit 14A changes at least one of the size, resolution, and transparency of the second content C2 based on a second gaze level indicating the degree to which the second user U2 is gazing at the second content C2.
例えば、制御部14Aは、第2のユーザU2が第2のコンテンツC2を注視する度合いを示す第2の注視度が所定の値よりも高い場合、図15に示す第2のコンテンツC2の透過度を下げる。制御部14Aが、図20に示す第1の映像IM1iを表示部11Aに表示させる。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1の映像IM1iは、第1のユーザU1の目前の実空間像R1、第1のコンテンツC1及び第2のコンテンツC2iを示す。実空間像R1には第2のユーザU2が表示される。すなわち、第1のユーザU1は表示部11Aに表示される実空間に存在する第2のユーザU2を視認できる。第2のコンテンツC2iは、透過度を除き、図15に示す第2のコンテンツC2と同じである。第2のコンテンツC2iの透過度は、第2のコンテンツC2の透過度と比較して低い。これによって、第1のユーザU1は、第2のコンテンツC2iを視認して、第2のユーザU2が視聴する第2のコンテンツC2を容易に確認することができる。 For example, when the second gaze level, which indicates the degree to which the second user U2 is gazing at the second content C2, is higher than a predetermined value, the control unit 14A reduces the transparency of the second content C2 shown in FIG. 15. The control unit 14A causes the display unit 11A to display the first image IM1i shown in FIG. 20. When the second user U2 is located within the field of view of the first user U1, the first image IM1i shows the real space image R1, the first content C1, and the second content C2i in front of the first user U1. The second user U2 is displayed in the real space image R1. In other words, the first user U1 can see the second user U2 existing in the real space displayed on the display unit 11A. The second content C2i is the same as the second content C2 shown in FIG. 15 except for the transparency. The transparency of the second content C2i is lower than the transparency of the second content C2. This allows the first user U1 to visually recognize the second content C2i and easily confirm the second content C2 being viewed by the second user U2.
例えば、制御部14Aは、第2のユーザU2が第2のコンテンツC2を注視する度合いを示す第2の注視度が所定の値よりも低い場合、図15に示す第2のコンテンツC2の透過度を上げる。制御部14Aが、図21に示す第1の映像IM1jを表示部11に表示させる。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1の映像IM1jは、第1のユーザU1の目前の実空間像R1、第1のコンテンツC1及び第2のコンテンツC2jを示す。実空間像R1には第2のユーザU2が表示される。すなわち、第1のユーザU1は表示部11Aに表示される実空間に存在する第2のユーザU2を視認できる。第2のコンテンツC2jは、透過度を除き、図15に示す第2のコンテンツC2と同じである。第2のコンテンツC2jの透過度は、第2のコンテンツC2の透過度と比較して高い。これによって、第1のユーザU1は、第2のコンテンツC2jを視認して、第2のユーザU2が視聴する第2のコンテンツC2を容易に確認するとともに、第2のユーザU2が第2のコンテンツC2jを注視していないことを把握することができる。 For example, when the second gaze level, which indicates the degree to which the second user U2 is gazing at the second content C2, is lower than a predetermined value, the control unit 14A increases the transparency of the second content C2 shown in FIG. 15. The control unit 14A causes the display unit 11 to display the first image IM1j shown in FIG. 21. When the second user U2 is located within the field of view of the first user U1, the first image IM1j shows the real space image R1, the first content C1, and the second content C2j in front of the first user U1. The second user U2 is displayed in the real space image R1. In other words, the first user U1 can see the second user U2 existing in the real space displayed on the display unit 11A. The second content C2j is the same as the second content C2 shown in FIG. 15 except for the transparency. The transparency of the second content C2j is higher than the transparency of the second content C2. This allows the first user U1 to view the second content C2j, easily confirm the second content C2 that the second user U2 is viewing, and understand that the second user U2 is not focusing on the second content C2j.
<第7の具体例>
続いて、図22から図24、図27を参照して、ステップST11からステップST13の第7の具体例について説明する。
<Seventh Specific Example>
Next, a seventh specific example of steps ST11 to ST13 will be described with reference to FIGS. 22 to 24 and 27.
ステップST11では、図2に示す制御部14Aが、図22に示す第1の映像IM1kを第1のHMD10Aの表示部11Aに表示させる。同様に、図2に示す制御部24Aが、図22に示す第2の映像IM2bを第2のHMD20Aの表示部21に表示させる。第1の映像IM1kは第1のユーザU1の目前の実空間像R1、第1のコンテンツC11及び第3のコンテンツC13を示す。第2の映像IM2bは第2のユーザU2の目前の実空間像R2、及び第2のコンテンツC2を示す。第1のユーザU1は第1の映像IM1kを視認でき、第2のユーザU2は第2の映像IM2bを視認できる。 In step ST11, the control unit 14A shown in FIG. 2 displays the first image IM1k shown in FIG. 22 on the display unit 11A of the first HMD 10A. Similarly, the control unit 24A shown in FIG. 2 displays the second image IM2b shown in FIG. 22 on the display unit 21 of the second HMD 20A. The first image IM1k shows the real space image R1 in front of the first user U1, the first content C11, and the third content C13. The second image IM2b shows the real space image R2 in front of the second user U2, and the second content C2. The first user U1 can view the first image IM1k, and the second user U2 can view the second image IM2b.
ステップST12では、制御部14Aは第2のユーザU2が第1のユーザU1の視野内に位置すると判定し(ST12:YES)、ステップST13に進む。 In step ST12, the control unit 14A determines that the second user U2 is located within the field of view of the first user U1 (ST12: YES) and proceeds to step ST13.
ステップST13では、制御部14Aは、第1のユーザU1の注視度に基づいて、第1のコンテンツC11及び第3のコンテンツC13のサイズ、解像度及び透過度の少なくとも1つを変更する。上述した第1のユーザU1の注視度は、第1のユーザU1が第1のコンテンツC11及び第3のコンテンツC13を注視する度合いをそれぞれ示す2つの注視度を含む。 In step ST13, the control unit 14A changes at least one of the size, resolution, and transparency of the first content C11 and the third content C13 based on the attention level of the first user U1. The attention level of the first user U1 described above includes two attention levels that indicate the degree to which the first user U1 is gazing at the first content C11 and the third content C13, respectively.
例えば、制御部14Aは、図22に示す第1のコンテンツC11への第1のユーザU1の注視度が第3のコンテンツC13への第1のユーザU1の注視度と比較して高い場合、第3のコンテンツC13に対する第1のコンテンツC1のサイズを拡大させる。制御部14Aが、図23に示す第1の映像IM1mを表示部11に表示させる。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1の映像IM1mは、第1のユーザU1の目前の実空間像R1、第1のコンテンツC11m及び第3のコンテンツC13mを示す。実空間像R1には第2のユーザU2が表示される。すなわち、第1のユーザU1は表示部11Aに表示される実空間に存在する第2のユーザU2を視認できる。第1のコンテンツC11mは、サイズを除いて、図22に示す第1のコンテンツC11と同じである。第3のコンテンツC13mは、サイズを除いて、図22に示す第3のコンテンツC13と同じである。第3のコンテンツC13mに対する第1のコンテンツC11mのサイズは、図22に示す第3のコンテンツC13に対する第1のコンテンツC11のサイズと比較して大きい。これによって、注視度の高い第1のコンテンツC11について、第3のコンテンツC13に対するサイズを拡大させた第1のコンテンツC11mを表示できる。第1のユーザU1は、第1のコンテンツC11mを視認し易く、自身が視聴する第1のコンテンツC1を容易に確認できてよい。 For example, if the first user U1's degree of attention to the first content C11 shown in FIG. 22 is higher than the first user U1's degree of attention to the third content C13, the control unit 14A increases the size of the first content C1 relative to the third content C13. The control unit 14A displays the first image IM1m shown in FIG. 23 on the display unit 11. When the second user U2 is located within the first user U1's field of view, the first image IM1m shows the real space image R1, the first content C11m, and the third content C13m in front of the first user U1. The second user U2 is displayed in the real space image R1. In other words, the first user U1 can see the second user U2 present in the real space displayed on the display unit 11A. The first content C11m is the same as the first content C11 shown in FIG. 22, except for the size. The third content C13m is the same as the third content C13 shown in FIG. 22 except for its size. The size of the first content C11m relative to the third content C13m is larger than the size of the first content C11 relative to the third content C13 shown in FIG. 22. This allows the first content C11m, which is larger in size relative to the third content C13, to be displayed for the first content C11 that receives a high level of attention. The first user U1 can easily view the first content C11m and easily confirm the first content C1 that he or she is viewing.
例えば、制御部14Aは、図22に示す第1のコンテンツC11への第1のユーザU1の注視度が第3のコンテンツC13への第1のユーザU1の注視度と比較して高い場合、第1のコンテンツC11が第3のコンテンツC13を透過するように表示させてもよい。制御部14Aが、図24に示す第1の映像IM1nを表示部11に表示させる。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1の映像IM1nは、第1のユーザU1の目前の実空間像R1、第1のコンテンツC11m及び第3のコンテンツC13mを示す。実空間像R1には第2のユーザU2が表示される。すなわち、第1のユーザU1は表示部11Aに表示される実空間に存在する第2のユーザU2を視認できる。第3のコンテンツC13nは、透過度を除いて、図23に示す第3のコンテンツC13mと同じである。第3のコンテンツC13nが第1のコンテンツC11mを透過させるように、第3のコンテンツC13nの透過度は設定されるとよい。第3のコンテンツC13nは、第1のコンテンツC11mよりも紙面手前側に配置され、第3のコンテンツC13nの一部は、第1のコンテンツC11mの一部に重なる。この重なった第1のコンテンツC11mの一部が第3のコンテンツC13nの一部を透過する。これによって、第1のコンテンツC11mが第3のコンテンツC13nを透過するよう第1のコンテンツC11mを表示でき、第1のユーザU1が第1のコンテンツC11mを視認し易く、自身が視聴する第1のコンテンツC1を容易に確認できてよい。 For example, if the first user U1's degree of attention to the first content C11 shown in FIG. 22 is higher than the first user U1's degree of attention to the third content C13, the control unit 14A may display the first content C11 so that the third content C13 is transparent. The control unit 14A displays the first image IM1n shown in FIG. 24 on the display unit 11. When the second user U2 is located within the first user U1's field of view, the first image IM1n shows the real space image R1, the first content C11m, and the third content C13m in front of the first user U1. The second user U2 is displayed in the real space image R1. In other words, the first user U1 can see the second user U2 present in the real space displayed on the display unit 11A. The third content C13n is the same as the third content C13m shown in FIG. 23, except for the transparency. The transparency of the third content C13n may be set so that the third content C13n is transparent to the first content C11m. The third content C13n is positioned closer to the front of the page than the first content C11m, and a portion of the third content C13n overlaps a portion of the first content C11m. This overlapping portion of the first content C11m transmits a portion of the third content C13n. This allows the first content C11m to be displayed so that the first content C11m is transparent to the third content C13n, making it easier for the first user U1 to view the first content C11m and easily confirm the first content C1 that they are viewing.
なお、ステップST13では、制御部14Aは、上述した第1のユーザU1の注視度に基づいて、第1のコンテンツC11及び第3のコンテンツC13の少なくとも1つを表示し、その残りの表示を停止してもよい。さらに、制御部14Aは、第2のコンテンツC2を、第1の映像IM1k内における第2のユーザU2の実像の周辺に表示させてもよい。 In step ST13, the control unit 14A may display at least one of the first content C11 and the third content C13, and stop displaying the remaining content, based on the gaze level of the first user U1 described above. Furthermore, the control unit 14A may display the second content C2 in the vicinity of the real image of the second user U2 in the first image IM1k.
例えば、制御部14Aは、図22に示す第1のコンテンツC11への第1のユーザU1の注視度が第3のコンテンツC13への第1のユーザU1の注視度と比較して高い場合、第1のコンテンツC11を表示しつつ第3のコンテンツC13の表示を停止させる。制御部14Aが、図27に示す第1の映像IM1rを表示部11に表示させる。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1の映像IM1rは、第1のユーザU1の目前の実空間像R1、第1のコンテンツC11及び第2のコンテンツC2を示す。実空間像R1には第2のユーザU2が表示される。第1のユーザU1は表示部11Aに表示される実空間に存在する第2のユーザU2を視認できる。制御部14Aは、第1のコンテンツC11を表示する一方、第3のコンテンツC13の表示を停止する。また、制御部14Aは、第2のコンテンツC2を、第1の映像IM1r内における第2のユーザU2の実像の周辺に表示させる。これによって、第1のユーザU1の注視度が高い第1のコンテンツC11のみを表示し、第2のユーザU2の実像の周辺に第2のコンテンツC2を表示する。これによって、第1のユーザU1が注視していた第1のコンテンツC11とともに、第2のユーザU2及び第2のユーザU2が視聴する第2のコンテンツC2を容易に確認できる。 For example, if the first user U1's degree of attention to the first content C11 shown in FIG. 22 is higher than the first user U1's degree of attention to the third content C13, the control unit 14A displays the first content C11 while stopping the display of the third content C13. The control unit 14A causes the display unit 11 to display the first image IM1r shown in FIG. 27. If the second user U2 is located within the first user U1's field of view, the first image IM1r shows the real space image R1, the first content C11, and the second content C2 in front of the first user U1. The second user U2 is displayed in the real space image R1. The first user U1 can see the second user U2 present in the real space displayed on the display unit 11A. The control unit 14A displays the first content C11 while stopping the display of the third content C13. The control unit 14A also displays the second content C2 in the vicinity of the real image of the second user U2 in the first image IM1r. This displays only the first content C11 that the first user U1 is paying close attention to, and displays the second content C2 in the vicinity of the real image of the second user U2. This makes it easy to confirm the second user U2 and the second content C2 that the second user U2 is viewing, along with the first content C11 that the first user U1 is paying attention to.
<第8の具体例>
続いて、図25及び図26を参照して、ステップST11からステップST13の第8の具体例について説明する。
<Eighth Specific Example>
Next, an eighth specific example of steps ST11 to ST13 will be described with reference to FIGS.
ステップST11からステップST12について、上述した第3の具体例と同様に、実行する。続いて、ステップST13では、制御部14Aは、第3の具体例と同様に、第2のコンテンツC2を、第1の映像IM1内における第2のユーザU2の実像の周辺に表示させ、第1のコンテンツC1を第1の映像IM1内における第2のユーザU2の実像から離隔した位置に表示させる。また、本ステップST13では、制御部14Aは、第1の映像IM1b内における第2のユーザU2の実像が第1の映像IM1bの中心領域内に位置すると判定した場合、第1のコンテンツC1及び第2のコンテンツC2のサイズ、解像度及び透過度の少なくとも1つを変更する。 Steps ST11 and ST12 are executed in the same manner as in the third specific example described above. Next, in step ST13, as in the third specific example, the control unit 14A displays the second content C2 in the periphery of the real image of the second user U2 in the first image IM1, and displays the first content C1 at a position separated from the real image of the second user U2 in the first image IM1. Also, in this step ST13, if the control unit 14A determines that the real image of the second user U2 in the first image IM1b is located within the central region of the first image IM1b, it changes at least one of the size, resolution, and transparency of the first content C1 and the second content C2.
例えば、制御部14Aは、図25に示す第1の映像IM1p内における第2のユーザU2の実像が第1の映像IM1pの中心領域AC内に位置しないと判定した場合、第2のコンテンツC2pの透過度を上げる。中心領域ACは、例えば、第1の映像IM1pの中心点PCを含む領域であればよく、予め任意に定められるとよい。制御部14Aが、図25に示す第1の映像IM1pを表示部11Aに表示させる。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1の映像IM1pは、第1のユーザU1の目前の実空間像R1、第1のコンテンツC1及び第2のコンテンツC2pを示す。実空間像R1には第2のユーザU2が表示される。第1のユーザU1は表示部11Aに表示される実空間に存在する第2のユーザU2を視認できる。第2のコンテンツC2pは、透過度を除き、図15に示す第2のコンテンツC2と同じである。第2のコンテンツC2pの透過度は、第2のコンテンツC2の透過度と比較して高い。これによって、第1のユーザU1は、第2のコンテンツC2pを視認し、第2のユーザU2が視聴する第2のコンテンツC2を容易に確認することができる。 For example, if the control unit 14A determines that the real image of the second user U2 in the first image IM1p shown in FIG. 25 is not located within the central region AC of the first image IM1p, it increases the transparency of the second content C2p. The central region AC may be, for example, an area that includes the center point PC of the first image IM1p, and may be arbitrarily determined in advance. The control unit 14A displays the first image IM1p shown in FIG. 25 on the display unit 11A. When the second user U2 is located within the field of view of the first user U1, the first image IM1p shows the real space image R1, the first content C1, and the second content C2p in front of the first user U1. The second user U2 is displayed in the real space image R1. The first user U1 can see the second user U2 existing in the real space displayed on the display unit 11A. The second content C2p is the same as the second content C2 shown in FIG. 15 except for its transparency. The transparency of the second content C2p is higher than that of the second content C2. This allows the first user U1 to view the second content C2p and easily confirm the second content C2 being viewed by the second user U2.
例えば、制御部14Aは、図26に示す第1の映像IM1q内における第2のユーザU2の実像が第1の映像IM1qの中心領域AC内に位置すると判定した場合、第2のコンテンツC2qの透過度を下げる。中心領域ACは、予め定められた第1の映像IM1qの中心点PCに位置する領域であればよい。制御部14Aが、図26に示す第1の映像IM1qを表示部11Aに表示させる。第2のユーザU2が第1のユーザU1の視野内に位置する場合、第1の映像IM1pは、第1のユーザU1の目前の実空間像R1、第1のコンテンツC1及び第2のコンテンツC2qを示す。実空間像R1には第2のユーザU2が表示される。すなわち、第1のユーザU1は表示部11A実空間に存在する第2のユーザU2を視認できる。第2のコンテンツC2qは、透過度を除き、図15に示す第2のコンテンツC2と同じである。第2のコンテンツC2qの透過度は、第2のコンテンツC2の透過度と比較して低い。第2のユーザU2の実像が第1の映像IM1qの中心領域AC内に位置する場合、第1のユーザU1は第2のユーザU2を注視している可能性が高い。そのため、第1のユーザU1は、透過度の低い第2のコンテンツC2qを視認して、第2のユーザU2が視聴する第2のコンテンツC2を容易に確認できる。また、制御部14Aは、第2のユーザU2の実像が第1の映像IM1qの中心領域ACに近づくにつれて、第2のコンテンツC2のサイズを大きくする、第2のコンテンツC2の解像度を上げる、又は第2のコンテンツC2の透過度を下げてもよい。これによって、第2のユーザU2が第1のユーザU1の視界の中心に近づくにつれて、第2のユーザU2が視聴する第2のコンテンツC2の確認が容易になる。なお、上述したように、第3から第8の具体例では、制御部14Aは、第2のコンテンツC2、C2i、C2j、C2p、C2qを、第1の映像IM1d~IM1j、IM1p~IM1r内における第2のユーザU2の実像の周辺に表示させる。また、同時並行して、制御部14Aは、第1のコンテンツC1、C1e~C1h、C11を第1の映像IM1d~IM1j、IM1p~IM1r内における第2のユーザU2の実像から離隔した位置に表示させる。さらに、同時並行して、制御部14Aは、第1のコンテンツC1等または第2のコンテンツC2等のサイズ、解像度及び透過度を変更する。一方、制御部14Aは、第1の映像IM1等内における第1のコンテンツC1等の位置を移動させることなく第1のコンテンツC1等または第2のコンテンツC2等のサイズ、解像度及び透過度を変更してもよい。 For example, if the control unit 14A determines that the real image of the second user U2 in the first image IM1q shown in FIG. 26 is located within the central region AC of the first image IM1q, it reduces the transparency of the second content C2q. The central region AC may be any region located at the predetermined center point PC of the first image IM1q. The control unit 14A causes the display unit 11A to display the first image IM1q shown in FIG. 26. When the second user U2 is located within the field of view of the first user U1, the first image IM1p shows the real space image R1, the first content C1, and the second content C2q in front of the first user U1. The second user U2 is displayed in the real space image R1. In other words, the first user U1 can see the second user U2 present in the real space of the display unit 11A. The second content C2q is the same as the second content C2 shown in FIG. 15, except for the transparency. The transparency of the second content C2q is lower than the transparency of the second content C2. When the real image of the second user U2 is located within the central region AC of the first image IM1q, it is highly likely that the first user U1 is gazing at the second user U2. Therefore, the first user U1 can easily confirm the second content C2 being viewed by the second user U2 by viewing the second content C2q, which has low transparency. Furthermore, the control unit 14A may increase the size of the second content C2, increase the resolution of the second content C2, or decrease the transparency of the second content C2 as the real image of the second user U2 approaches the central region AC of the first image IM1q. This makes it easier for the second user U2 to confirm the second content C2 being viewed by the second user U2 as the second user U2 approaches the center of the first user U1's field of view. As described above, in the third to eighth specific examples, the control unit 14A displays the second content C2, C2i, C2j, C2p, and C2q in the vicinity of the real image of the second user U2 in the first images IM1d-IM1j and IM1p-IM1r. Simultaneously, the control unit 14A displays the first content C1, C1e-C1h, and C11 at positions spaced apart from the real image of the second user U2 in the first images IM1d-IM1j and IM1p-IM1r. Simultaneously, the control unit 14A changes the size, resolution, and transparency of the first content C1, etc. or the second content C2, etc. Alternatively, the control unit 14A may change the size, resolution, and transparency of the first content C1, etc. or the second content C2, etc. without moving the position of the first content C1, etc. in the first image IM1, etc.
(他の実施の形態等)
なお、上記の実施の形態に係るヘッドマウントディスプレイシステム100、100A、100Bは、制御部14、14A、14B、24、24Bによって実行されるプログラムとして表すことができる。上述した制御部14、14A、14B、24、24Bは、図示しないプロセッサ及びメモリを備える。上述した実施の形態で説明した制御部14、14A、14B、24、24Bの構成は、プロセッサがメモリに記憶されたプログラムを読み込んで実行することにより実現される。つまり、このプログラムは、プロセッサをヘッドマウントディスプレイシステム100、100A、100B、又はその一部として機能させるための制御プログラムである。
(Other embodiments, etc.)
The head-mounted display systems 100, 100A, and 100B according to the above-described embodiments can be expressed as programs executed by the control units 14, 14A, 14B, 24, and 24B. The above-described control units 14, 14A, 14B, 24, and 24B include a processor and memory (not shown). The configuration of the control units 14, 14A, 14B, 24, and 24B described in the above-described embodiments is realized by the processor reading and executing a program stored in the memory. In other words, this program is a control program that causes the processor to function as the head-mounted display system 100, 100A, and 100B, or as a part thereof.
上述したプログラムは、コンピュータに読み込まれた場合に、実施の形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、光ディスクストレージ、磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、またはその他の形式の伝搬信号を含む。 The above-described program includes a set of instructions (or software code) that, when loaded into a computer, causes the computer to perform one or more functions described in the embodiments. The program may be stored on a non-transitory computer-readable medium or a tangible storage medium. By way of example and not limitation, computer-readable medium or tangible storage medium includes random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drive (SSD) or other memory technologies, optical disk storage, and magnetic storage devices. The program may also be transmitted on a transitory computer-readable medium or communication medium. By way of example and not limitation, transitory computer-readable medium or communication medium includes electrical, optical, or other forms of propagated signals.
さらに、上述した様々な実施の形態において、ヘッドマウントディスプレイシステム100、100A、100Bにおける処理の手順を説明したように、本開示は、ヘッドマウントディスプレイシステム100、100A、100Bの制御方法としての形態も採り得る。また、上述のプログラムは、ヘッドマウントディスプレイシステム100、100A、100Bにこのような制御方法を実行させるための制御プログラムであると言える。 Furthermore, as described above in the various embodiments regarding the processing procedures in head-mounted display systems 100, 100A, and 100B, the present disclosure may also be embodied as a control method for head-mounted display systems 100, 100A, and 100B. Furthermore, the above-described program can be considered a control program for causing head-mounted display systems 100, 100A, and 100B to execute such a control method.
なお、本発明は上記の実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。また、本発明は、上記の実施の形態やその一例を適宜組み合わせて実施してもよい。例えば、図1に示すヘッドマウントディスプレイシステム100は、第1のHMD10と、第2のHMD20とを備えたが、さらに別のHMDを1つ又は複数備えてもよい。同様に、ヘッドマウントディスプレイシステム100A、100Bはさらに別のHMDを1つ又は複数備えてもよい。 Note that the present invention is not limited to the above-described embodiments and can be modified as appropriate without departing from the spirit of the present invention. The present invention may also be implemented by appropriately combining the above-described embodiments or examples thereof. For example, the head-mounted display system 100 shown in FIG. 1 includes a first HMD 10 and a second HMD 20, but may also include one or more additional HMDs. Similarly, head-mounted display systems 100A and 100B may also include one or more additional HMDs.
また、ヘッドマウントディスプレイシステム100において第2のHMD20の構成は、第1のHMD10の構成と異なっていてもよい。第1のHMD10及び第2のHMD20の少なくとも一方は、図1に示す第1のHMD10と同じ構成を備えると、第1のHMD10及び第2のHMD20の他方を装着したユーザに表示された映像を確認することができる。ヘッドマウントディスプレイシステム100A、100Bについても同様である。例えば、ヘッドマウントディスプレイシステム100Aは、第1のHMD10B及び第2のHMD20Bの一方を備えてもよい。同様に、ヘッドマウントディスプレイシステム100Bは、第1のHMD10A及び第2のHMD20Aの一方を備えてもよい。 Furthermore, the configuration of the second HMD 20 in the head-mounted display system 100 may be different from the configuration of the first HMD 10. If at least one of the first HMD 10 and the second HMD 20 has the same configuration as the first HMD 10 shown in FIG. 1, the user wearing the other of the first HMD 10 and the second HMD 20 can confirm the displayed image. The same applies to the head-mounted display systems 100A and 100B. For example, the head-mounted display system 100A may include either the first HMD 10B or the second HMD 20B. Similarly, the head-mounted display system 100B may include either the first HMD 10A or the second HMD 20A.
また、第1のHMD10及び第2のHMD20が、完全没入型ヘッドマウントディスプレイである場合、上記のビデオ透過型ヘッドマウントディスプレイと切り替えることによって、本発明は実施可能である。例えば、制御部14は、第2のユーザが、第1のユーザの視野内に位置すると判定された場合、実空間像R1を表示部11に表示させ(ビデオ透過型に切替)、第2のユーザの実像及び第2の映像を第2のユーザの周囲に表示させる。また、制御部14は、第1のユーザの所定の距離範囲内に第2のユーザが検出された場合に、周辺映像を表示部11に表示させ(ビデオ透過型に切替)、視野内に位置すると判定された場合に、第2の映像を第2のユーザの周囲に表示させる。 Furthermore, if the first HMD 10 and the second HMD 20 are fully immersive head-mounted displays, the present invention can be implemented by switching them to the above-mentioned video-transparent head-mounted displays. For example, when the control unit 14 determines that the second user is located within the first user's field of view, it causes the display unit 11 to display the real space image R1 (switching to video-transparent type), and causes the real image of the second user and the second image to be displayed around the second user. Furthermore, when the second user is detected within a predetermined distance range of the first user, the control unit 14 causes the display unit 11 to display the peripheral image (switching to video-transparent type), and when it is determined that the second user is located within the field of view, it causes the second image to be displayed around the second user.
100、100A、100B ヘッドマウントディスプレイシステム
10、10A、10B 第1のHMD
20、20A、20B 第2のHMD
11、11A、11B、21 表示部
11c、21c 表示面
12、12A、22 通信部
13、13A、23 位置検出部
14、14A、14B、24 制御部
15、15A、25 向き検出部
16 撮像部
U1 第1のユーザ
U2 第2のユーザ
IM1、IM1a~IM1k、IM1m~IM1q 第1の映像
IM2、IM2b、 第2の映像
IM31 第3の映像
R1、R2 実空間像
C1、C1e~C1h、C11、C11m 第1のコンテンツ
C2、C2i、C2j、C2p、C2q 第2のコンテンツ
C13、C13m、C13n 第3のコンテンツ
AC 中心領域
PC 中心点
100, 100A, 100B Head-mounted display system 10, 10A, 10B First HMD
20, 20A, 20B Second HMD
11, 11A, 11B, 21 Display units 11c, 21c Display surfaces 12, 12A, 22 Communication units 13, 13A, 23 Position detection units 14, 14A, 14B, 24 Control units 15, 15A, 25 Orientation detection unit 16 Imaging unit U1 First user U2 Second user IM1, IM1a to IM1k, IM1m to IM1q First images IM2, IM2b Second images IM31 Third images R1, R2 Real space images C1, C1e to C1h, C11, C11m First content C2, C2i, C2j, C2p, C2q Second content C13, C13m, C13n Third content AC Central region PC Central point
Claims (5)
第2のユーザが装着した第2のHMDと、を備え、
前記第1のHMDは、
第1の映像を前記第1のユーザに表示する表示部と、
前記第2のHMDが前記第2のユーザに表示する第2の映像を前記第2のHMDから取得する通信部と、
前記第1のHMDと前記第2のHMDとの位置関係を検出する位置検出部と、
前記第1のHMDの向きを検出する向き検出部と、
制御部と、を備え、
前記表示部は、前記第1のユーザの視野内の実空間を視認可能に構成され、前記制御部は、前記位置関係と前記第1のHMDの向きとに基づいて、前記第2のユーザが前記第1のユーザの視野内に位置すると判定した場合、前記第2の映像を、前記表示部における前記第1のユーザが視認する前記第2のユーザの実像の周辺に表示させる、
ヘッドマウントディスプレイシステム。 a first HMD (head mounted display) worn by a first user;
a second HMD worn by a second user;
The first HMD includes:
a display unit that displays a first video to the first user;
a communication unit that acquires, from the second HMD, a second image that the second HMD displays to the second user;
a position detection unit that detects a positional relationship between the first HMD and the second HMD;
an orientation detection unit that detects an orientation of the first HMD;
a control unit,
the display unit is configured to be able to view a real space within a visual field of the first user, and when the control unit determines that the second user is located within the visual field of the first user based on the positional relationship and the orientation of the first HMD, the control unit displays the second video around a real image of the second user viewed by the first user on the display unit.
Head-mounted display system.
請求項1に記載のヘッドマウントディスプレイシステム。 the control unit changes at least one of a size, a resolution, and a transparency of the second image based on a distance between the first HMD and the second HMD.
The head-mounted display system according to claim 1 .
前記第2の映像は、第2のコンテンツを含み、
前記制御部は、前記位置関係と前記第1のHMDの向きとに基づいて、前記第2のユーザが前記第1のユーザの視野内に位置すると判定した場合、
前記表示部によって、前記第1のコンテンツを、前記表示部内における前記第2のユーザの実像から離隔した位置に表示させつつ、前記第2のコンテンツを、前記表示部内における前記第2のユーザの実像の周辺に表示させる、
請求項1又は2に記載のヘッドマウントディスプレイシステム。 the first video includes a first content;
the second video includes second content;
When the control unit determines that the second user is located within the field of view of the first user based on the positional relationship and the orientation of the first HMD,
displaying the first content at a position separated from the real image of the second user on the display unit, and displaying the second content around the real image of the second user on the display unit, by the display unit;
The head-mounted display system according to claim 1 or 2.
前記第2の映像は、第2のコンテンツを含み、
前記第1のHMDは、前記第1のユーザが前記第1のコンテンツを注視する度合いを示す第1の注視度を取得し、
前記第2のHMDは、前記第2のユーザが前記第2のコンテンツを注視する度合いを示す第2の注視度を取得し、
前記制御部は、前記位置関係と前記第1のHMDの向きとに基づいて、前記第2のユーザが前記第1のユーザの視野内に位置すると判定した場合、前記第1の注視度又は前記第2の注視度に基づいて、前記第1及び前記第2のコンテンツのサイズ、解像度及び透過度の少なくとも1つを変更する、
請求項1又は2に記載のヘッドマウントディスプレイシステム。 the first video includes a first content;
the second video includes second content;
the first HMD acquires a first gaze degree indicating a degree to which the first user gazes at the first content;
the second HMD acquires a second gaze degree indicating a degree to which the second user gazes at the second content;
When the control unit determines that the second user is located within the field of view of the first user based on the positional relationship and the orientation of the first HMD, the control unit changes at least one of a size, a resolution, and a transparency of the first and second contents based on the first gaze degree or the second gaze degree.
The head-mounted display system according to claim 1 or 2.
前記第2の映像は、第2のコンテンツを含み、
前記制御部は、前記表示部における前記第2のユーザの実像が前記表示部の中心領域に近づくにつれて、前記第1及び前記第2のコンテンツのサイズ、解像度及び透過度の少なくとも1つを変化させる、
請求項1又は2に記載のヘッドマウントディスプレイシステム。 the first video includes a first content;
the second video includes second content;
the control unit changes at least one of a size, a resolution, and a transparency of the first and second contents as the real image of the second user on the display unit approaches a central region of the display unit.
The head-mounted display system according to claim 1 or 2.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024119615A JP2026018315A (en) | 2024-07-25 | 2024-07-25 | Head-mounted display system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024119615A JP2026018315A (en) | 2024-07-25 | 2024-07-25 | Head-mounted display system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2026018315A true JP2026018315A (en) | 2026-02-05 |
Family
ID=98651138
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024119615A Pending JP2026018315A (en) | 2024-07-25 | 2024-07-25 | Head-mounted display system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2026018315A (en) |
-
2024
- 2024-07-25 JP JP2024119615A patent/JP2026018315A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12506953B2 (en) | Device, methods, and graphical user interfaces for capturing and displaying media | |
| CN111886564B (en) | Information processing device, information processing method, and program | |
| US10009542B2 (en) | Systems and methods for environment content sharing | |
| US10114466B2 (en) | Methods and systems for hands-free browsing in a wearable computing device | |
| US9076033B1 (en) | Hand-triggered head-mounted photography | |
| US9213185B1 (en) | Display scaling based on movement of a head-mounted display | |
| US20250029319A1 (en) | Devices, methods, and graphical user interfaces for sharing content in a communication session | |
| KR102350300B1 (en) | Gaze swipe selection | |
| US8831278B2 (en) | Method of identifying motion sickness | |
| US9684374B2 (en) | Eye reflection image analysis | |
| US20240104843A1 (en) | Methods for depth conflict mitigation in a three-dimensional environment | |
| US20150003819A1 (en) | Camera auto-focus based on eye gaze | |
| US12524142B2 (en) | Devices, methods, and graphical user interfaces for displaying sets of controls in response to gaze and/or gesture inputs | |
| CN109983755A (en) | The image capture system focused automatically, device and method are tracked based on eyes | |
| US12411927B2 (en) | Devices, methods, and graphical user interfaces for user authentication and device management | |
| WO2013012603A2 (en) | Manipulating and displaying an image on a wearable computing system | |
| EP4407413A1 (en) | Mixed reality interaction with eye-tracking techniques | |
| US12530113B2 (en) | Devices, methods, and graphical user interfaces for adjusting device settings | |
| JP2017191546A (en) | Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display | |
| CN114581514B (en) | Method for determining binocular gaze points and electronic device | |
| JP2017189498A (en) | Medical head-mounted display, program of medical head-mounted display, and control method of medical head-mounted display | |
| JP2026018315A (en) | Head-mounted display system | |
| JP7802561B2 (en) | Electronic device, electronic device control method, program, and recording medium | |
| JP2024018719A (en) | Control device, glasses-type information display device, control method, and control program | |
| US12517995B2 (en) | Devices, methods, and graphical user interfaces for transitioning between multiple modes of operation |