[go: up one dir, main page]

JP2018165066A - Head-mounted display device and control method thereof - Google Patents

Head-mounted display device and control method thereof Download PDF

Info

Publication number
JP2018165066A
JP2018165066A JP2017062099A JP2017062099A JP2018165066A JP 2018165066 A JP2018165066 A JP 2018165066A JP 2017062099 A JP2017062099 A JP 2017062099A JP 2017062099 A JP2017062099 A JP 2017062099A JP 2018165066 A JP2018165066 A JP 2018165066A
Authority
JP
Japan
Prior art keywords
head
display device
unit
mounted display
drone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017062099A
Other languages
Japanese (ja)
Inventor
直人 有賀
Naoto Ariga
直人 有賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017062099A priority Critical patent/JP2018165066A/en
Priority to CN201810171935.4A priority patent/CN108664037B/en
Priority to US15/925,381 priority patent/US11046429B2/en
Publication of JP2018165066A publication Critical patent/JP2018165066A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】目的地まで精度良く航行させることのできる、無人機の操縦に関する制御を行うことが可能な頭部装着型表示装置を提供する。【解決手段】頭部装着型表示装置100は、GPS情報を取得するGPS情報取得部と、前記無人機との間の無線通信を利用した通信を行い得る通信部500と、制御部10と、を備える。前記制御部は、前記無人機が、前記GPS情報取得部によって取得される前記GPS情報で示される位置に向けて移動する自動航行モードで航行しているときに、表示部20によって視認可能な視界内に前記無人機が侵入したか否かを判定し、前記視界内に前記無人機が侵入したと判定されたときに、前記自動航行モードでの航行を前記無人機に対し中止させ、前記自動航行モードとは異なる特定の航行モードで前記無人機を航行させる。【選択図】図10A head-mounted display device capable of controlling the operation of an unmanned aerial vehicle is provided. A head-mounted display device (100) includes a GPS information acquisition unit that acquires GPS information, a communication unit (500) that can communicate with the unmanned aircraft using wireless communication, a control unit (10), Prepare. The control unit controls the field of view visible by the display unit 20 when the unmanned aircraft is navigating in an automatic navigation mode moving toward a position indicated by the GPS information acquired by the GPS information acquisition unit. When it is determined that the unmanned aircraft has entered the field of view, the unmanned aircraft is stopped from flying in the automatic navigation mode, and the automatic Said drone is operated in a particular flight mode different from the flight mode. [Selection drawing] Fig. 10

Description

本発明は、頭部装着型表示装置と、頭部装着型表示装置の制御方法と、に関する。   The present invention relates to a head-mounted display device and a method for controlling the head-mounted display device.

近年、ドローン(Drone)と呼ばれる、遠隔操縦または自律飛行が可能な無人航空機の開発が進んでいる。従来の無人航空機は、例えば、特許文献1に記載されているように、GPS電波を受信してGPS情報を取得するGPS受信部を搭載している。無人航空機は、GPS情報によって、機体の姿勢や位置を推定することができる。無人航空機は、専用のリモコン装置以外にも、スマートフォンやタブレット等の他の装置で操縦することができる。   In recent years, development of an unmanned aerial vehicle capable of remote control or autonomous flight, called a drone, is in progress. A conventional unmanned aerial vehicle is equipped with a GPS receiving unit that receives GPS radio waves and acquires GPS information, as described in Patent Document 1, for example. An unmanned aerial vehicle can estimate the attitude and position of the aircraft from GPS information. An unmanned aerial vehicle can be operated by other devices such as a smartphone and a tablet in addition to a dedicated remote control device.

特開2008−304260号公報JP 2008-304260 A

無人航空機では、GPS情報を利用することで、目的地まで自動的に航行させることが考えられる。しかしながら、GPS情報に含まれる位置情報は、数m〜数十mと比較的、誤差が大きいため、従来の無人航空機では、目的地まで精度良く航行させることができないことがあった。例えば、山岳部や山間部、ビルの谷などでは、位置情報は誤差の大きいものとなり、目的地から大きく離れた地点に到達してしまった。そのため、無人航空機を操縦する装置において、目的地まで精度良く航行させることができる技術が望まれていた。なお、このような課題は、無人航空機に限らず、遠隔操作や自動運転される種々の人が搭乗しないヴィークル(すなわち、無人機)に共通する課題であった。   In an unmanned aerial vehicle, it is conceivable to automatically navigate to a destination by using GPS information. However, since the position information included in the GPS information has a relatively large error of several meters to several tens of meters, the conventional unmanned aircraft may not be able to navigate accurately to the destination. For example, in mountainous areas, mountainous areas, valleys of buildings, etc., the positional information has a large error, and has reached a point far away from the destination. Therefore, there has been a demand for a technology capable of accurately navigating to a destination in an apparatus for maneuvering an unmanned aerial vehicle. Such a problem is not limited to unmanned aerial vehicles but is a problem common to vehicles (that is, unmanned aircraft) on which various people who are remotely operated or automatically operated do not board.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態によれば、無人機の操縦に関する制御を行うことが可能な頭部装着型表示装置が提供される。この頭部装着型表示装置は、GPS情報を取得するGPS情報取得部と、前記無人機との間の無線通信を利用した通信を行い得る通信部と、制御部と、を備える。前記制御部は、前記無人機が、前記GPS情報取得部によって取得される前記GPS情報で示される位置に向けて移動する自動航行モードで航行しているときに、前記表示部によって視認可能な視界内に前記無人機が侵入したか否かを判定し、前記視界内に前記無人機が侵入したと判定されたときに、前記自動航行モードでの航行を前記無人機に対し中止させ、前記自動航行モードとは異なる特定の航行モードで前記無人機を航行させる。この形態の頭部装着型表示装置によれば、自動航行モードで航行しているときに、表示部によって視認可能な視界内に無人機が侵入した場合に、自動航行モードでの航行が中止され、自動航行モードとは異なる特定の航行モードで、無人機は航行する。このため、この形態の頭部装着型表示装置によれば、精度の低いGPS情報を利用した自動航行モードでの航行を取りやめることができることから、目的地まで高い精度で航行させることが可能となる。 (1) According to one aspect of the present invention, a head-mounted display device capable of performing control related to the operation of the drone is provided. The head-mounted display device includes a GPS information acquisition unit that acquires GPS information, a communication unit that can perform communication using wireless communication with the drone, and a control unit. The control unit has a field of view that is visible by the display unit when the drone is navigating in an automatic navigation mode that moves toward the position indicated by the GPS information acquired by the GPS information acquisition unit. Determining whether or not the drone has entered, and when it is determined that the drone has entered the field of view, causing the drone to stop traveling in the automatic navigation mode, The drone is caused to navigate in a specific navigation mode different from the navigation mode. According to this form of the head-mounted display device, when the drone enters the field of view visible by the display unit while navigating in the automatic navigation mode, the navigation in the automatic navigation mode is stopped. The drone navigates in a specific navigation mode different from the automatic navigation mode. For this reason, according to the head-mounted display device of this embodiment, navigation in the automatic navigation mode using low-accuracy GPS information can be canceled, so that it is possible to navigate to the destination with high accuracy. .

(2)前記頭部装着型表示装置において、更に、前記視界を撮像するカメラを有し、前記制御部は、前記カメラの撮像画像を取得し、前記無人機を特定するために予め準備された目的画像と前記撮像画像とをパターンマッチングすることによって、前記無人機が前記視界に侵入したか否かの判定を行ってもよい。この形態の頭部装着型表示装置によれば、表示部によって視認可能な視界内に無人機が侵入したか否かを高精度に判定することができる。 (2) The head-mounted display device further includes a camera that captures the field of view, and the control unit is prepared in advance to acquire a captured image of the camera and identify the drone. It may be determined whether or not the drone has entered the field of view by performing pattern matching between a target image and the captured image. According to the head-mounted display device of this form, it is possible to determine with high accuracy whether or not the drone has entered the field of view visible by the display unit.

(3)前記頭部装着型表示装置において、更に、前記無人機から送られてくる無線電波を受信する無線電波受信部を備え、前記特定の航行モードは、前記無線電波受信部によって受信される無線電波の強度を測定し、測定した前記強度の変化から航行ルートを定めるモードであってもよい。無線電波の強度に基づく航行モードは高い精度での航行を可能とすることから、この形態の表示装置によれば、目的地までの航行をより高い精度で行うことができる。 (3) The head-mounted display device further includes a radio wave receiver that receives radio waves transmitted from the drone, and the specific navigation mode is received by the radio wave receiver. The mode may be a mode in which the intensity of the radio wave is measured and a navigation route is determined from the measured change in the intensity. Since the navigation mode based on the intensity of the radio wave enables navigation with high accuracy, according to the display device of this embodiment, navigation to the destination can be performed with higher accuracy.

(4)前記頭部装着型表示装置において、前記無人機が、機体の動きを検出する第1慣性センサーを備え、前記第1慣性センサーの検出値を逐次積算することによって、機体の位置を求め、前記特定の航行モードは、前記頭部装着型表示装置が、前記無人機が求めた前記機体の位置を取得し、取得した前記機体の位置から航行ルートを定めるモードであってもよい。この形態の表示装置によれば、目的地までの航行を高い精度で行うことができる。 (4) In the head-mounted display device, the drone includes a first inertial sensor that detects movement of the airframe, and obtains the position of the airframe by sequentially integrating the detection values of the first inertial sensor. The specific navigation mode may be a mode in which the head-mounted display device acquires the position of the aircraft obtained by the unmanned aerial vehicle and determines a navigation route from the acquired position of the aircraft. According to the display device of this embodiment, navigation to the destination can be performed with high accuracy.

(5)前記頭部装着型表示装置において、動きを検出する第2慣性センサーを有し、前記特定の航行モードは、前記頭部装着型表示装置が、前記第2慣性センサーの検出値を逐次積算することによって、前記頭部装着型表示装置の位置を求め、求めた前記頭部装着型表示装置の位置と、取得した前記機体の位置と、から航行ルートを定めるモードであってもよい。この形態の頭部装着型表示装置によれば、頭部装着型表示装置へ帰還させることを、より高い精度で行うことができる。 (5) The head-mounted display device includes a second inertial sensor that detects movement, and in the specific navigation mode, the head-mounted display device sequentially detects a detection value of the second inertial sensor. The mode may be a mode in which the position of the head-mounted display device is obtained by integrating and a navigation route is determined from the obtained position of the head-mounted display device and the obtained position of the aircraft. According to the head-mounted display device of this aspect, the feedback to the head-mounted display device can be performed with higher accuracy.

(6)前記頭部装着型表示装置において、更に、使用者によって操作され、前記無人機の動きを指示する操作部を有し、前記特定の航行モードは、前記頭部装着型表示装置が、前記操作部に対する指示に従って航行ルートを定めるモードであってもよい。この形態の頭部装着型表示装置によれば、頭部装着型表示装置へ帰還させることを、高い精度で行うことができる。 (6) In the head-mounted display device, the head-mounted display device further includes an operation unit that is operated by a user and directs the movement of the drone, and the specific navigation mode includes the head-mounted display device, In this mode, a navigation route may be determined according to an instruction to the operation unit. According to the head-mounted display device of this aspect, the feedback to the head-mounted display device can be performed with high accuracy.

(7)前記頭部装着型表示装置において、前記表示部は、外界を透過視認可能な表示部であり、前記制御部は、前記操作部のための操作画面を前記表示部に表示させ、前記視界内に前記無人機が侵入したと判定されたときに、前記表示部における前記無人機の位置を推定し、推定された前記位置から離れた位置に前記操作画面を移動させてもよい。この形態の頭部装着型表示装置によれば、操作者の視界において、無人機が操作画面によって隠されることがないことから、無人機を帰還させる操作性を向上することができる。 (7) In the head-mounted display device, the display unit is a display unit capable of seeing through the outside world, and the control unit displays an operation screen for the operation unit on the display unit, When it is determined that the drone has entered the field of view, the position of the drone on the display unit may be estimated, and the operation screen may be moved to a position away from the estimated position. According to the head-mounted display device of this aspect, since the drone is not hidden by the operation screen in the operator's field of view, the operability of returning the drone can be improved.

(8)前記頭部装着型表示装置において、前記GPS情報取得部は、前記GPS情報を受信するGPS受信部を備え、前記自動航行モードは、前記頭部装着型表示装置へ帰還させてもよい。この形態の頭部装着型表示装置によれば、頭部装着型表示装置の元へ帰還させることを、高い精度で行うことができる。 (8) In the head-mounted display device, the GPS information acquisition unit may include a GPS receiving unit that receives the GPS information, and the automatic navigation mode may be returned to the head-mounted display device. . According to the head-mounted display device of this aspect, it is possible to perform the return to the head-mounted display device with high accuracy.

(9)前記頭部装着型表示装置において、前記GPS情報取得部は、前記頭部装着型表示装置から離れた位置に備えられたGPS受信部から前記GPS情報を受信してもよい。この形態の頭部装着型表示装置によれば、GPS受信部が備えられた位置に向かって自動航行モードでの航行しているときに、特定の航行モードに航行を切り換えて、目的地まで高い精度で航行を行うことができる。 (9) In the head-mounted display device, the GPS information acquisition unit may receive the GPS information from a GPS receiving unit provided at a position away from the head-mounted display device. According to the head-mounted display device of this embodiment, when navigating in the automatic navigation mode toward the position where the GPS receiving unit is provided, the navigation is switched to the specific navigation mode and is high up to the destination. It is possible to navigate with accuracy.

本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置の制御方法、頭部装着型表示装置の備える各構成要素の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体等で実現できる。   The present invention can also be realized in various forms other than the head-mounted display device. For example, the present invention can be realized by a method for controlling the head-mounted display device, a computer program for realizing the function of each component included in the head-mounted display device, a recording medium on which the computer program is recorded, and the like.

本発明の第1実施形態における頭部装着型表示装置を備える無人航空機システムの概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the unmanned aircraft system provided with the head mounted display apparatus in 1st Embodiment of this invention. 画像表示部が備える光学系の構成を示す要部平面図である。It is a principal part top view which shows the structure of the optical system with which an image display part is provided. 使用者から見た画像表示部の要部構成を示す図である。It is a figure which shows the principal part structure of the image display part seen from the user. カメラの画角を説明するための図である。It is a figure for demonstrating the angle of view of a camera. HMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD functionally. 制御装置の構成を機能的に示すブロック図である。It is a block diagram which shows the structure of a control apparatus functionally. HMDによる拡張現実感表示の一例を示す説明図である。It is explanatory drawing which shows an example of the augmented reality display by HMD. 無人航空機の電気的な構成とリモコン装置の電気的な構成とを示すブロック図である。It is a block diagram which shows the electrical structure of an unmanned aerial vehicle and the electrical structure of a remote control device. 帰還処理を示すフローチャートである。It is a flowchart which shows a feedback process. 使用者によって画像表示部を通して視認可能な視界を説明するための図である。It is a figure for demonstrating the visual field visually recognizable through the image display part by the user. Wi−Fi航行モードを説明するための図である。It is a figure for demonstrating Wi-Fi navigation mode. 第2実施形態のHMDで実行される帰還処理を示すフローチャートである。It is a flowchart which shows the feedback process performed with HMD of 2nd Embodiment. 第3実施形態のHMDで実行される帰還処理を示すフローチャートである。It is a flowchart which shows the feedback process performed with HMD of 3rd Embodiment. 第3実施形態における操作画面を示す説明図である。It is explanatory drawing which shows the operation screen in 3rd Embodiment. 第4実施形態における操作画面を示す説明図である。It is explanatory drawing which shows the operation screen in 4th Embodiment. 変形例の画像表示部が備える光学系の構成を示す要部平面図である。It is a principal part top view which shows the structure of the optical system with which the image display part of a modification is provided.

A.第1実施形態:
A−1.全体の構成:
図1は、本発明の第1実施形態における頭部装着型表示装置を備える無人航空機システムの概略構成を示す説明図である。無人航空機システムは、頭部装着型表示装置100と、無人航空機400と、リモコン装置500と、を備えている。
A. First embodiment:
A-1. Overall configuration:
FIG. 1 is an explanatory diagram illustrating a schematic configuration of an unmanned aerial vehicle system including a head-mounted display device according to the first embodiment of the present invention. The unmanned aircraft system includes a head-mounted display device 100, an unmanned aircraft 400, and a remote control device 500.

無人航空機400は、GPSレシーバーやIMUセンサー等を搭載し、これらにより機体の姿勢や位置を把握しつつ飛行することができる。無人航空機400は、いわゆるドローンである。リモコン装置500は、無人航空機400を遠隔から操縦する装置である。無人航空機400は、リモコン装置500によって遠隔操縦されるが、自律飛行も可能である。リモコン装置500には、USBケーブル350を介して、頭部装着型表示装置100が接続されている。頭部装着型表示装置100は、リモコン装置500を介して、無人航空機400を操縦することができる。まず、頭部装着型表示装置100の構成について、詳述する。   The unmanned aerial vehicle 400 is equipped with a GPS receiver, an IMU sensor, and the like, and can fly while grasping the attitude and position of the aircraft. Unmanned aerial vehicle 400 is a so-called drone. Remote control device 500 is a device that remotely controls unmanned aerial vehicle 400. The unmanned aircraft 400 is remotely controlled by the remote control device 500, but autonomous flight is also possible. The head-mounted display device 100 is connected to the remote control device 500 via the USB cable 350. The head-mounted display device 100 can maneuver the unmanned aerial vehicle 400 via the remote control device 500. First, the configuration of the head-mounted display device 100 will be described in detail.

A−2.頭部装着型表示装置の構成:
頭部装着型表示装置100は、使用者の頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、グラスを通過して視認される外界の中に画像が浮かび上がるシースルー型(透過型)の頭部装着型表示装置である。HMD100は、使用者に画像を視認させる画像表示部20と、画像表示部20を制御する制御装置(コントローラー)10とを備えている。
A-2. Configuration of head mounted display device:
The head-mounted display device 100 is a display device that is mounted on a user's head, and is also referred to as a head mounted display (HMD). The HMD 100 is a see-through type (transmission type) head-mounted display device in which an image floats in an external environment visually recognized through a glass. The HMD 100 includes an image display unit 20 that allows a user to visually recognize an image, and a control device (controller) 10 that controls the image display unit 20.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20が「表示部」に相当する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する支持体に、右表示ユニット22と、左表示ユニット24と、右導光板26と、左導光板28とを備える。   The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 corresponds to a “display unit”. The image display unit 20 includes a right display unit 22, a left display unit 24, a right light guide plate 26, and a left light guide plate on a support having a right holding unit 21, a left holding unit 23, and a front frame 27. 28.

右保持部21および左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態における使用者の右側頭部に対応する位置まで延伸して設けられている。左保持部23は、前部フレーム27の端部ELから、画像表示部20の装着状態における使用者の左側頭部に対応する位置まで延伸して設けられている。   Each of the right holding unit 21 and the left holding unit 23 extends rearward from both end portions of the front frame 27 and holds the image display unit 20 on the user's head like a temple of glasses. Here, of both ends of the front frame 27, an end located on the right side of the user in the mounted state of the image display unit 20 is defined as an end ER, and an end located on the left side of the user is defined as an end EL. To do. The right holding unit 21 extends from the end ER of the front frame 27 to a position corresponding to the right side of the user when the image display unit 20 is worn. The left holding part 23 is provided to extend from the end EL of the front frame 27 to a position corresponding to the left side of the user when the image display part 20 is worn.

右導光板26および左導光板28は、前部フレーム27に設けられている。右導光板26は、画像表示部20の装着状態における使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態における使用者の左眼の眼前に位置し、左眼に画像を視認させる。   The right light guide plate 26 and the left light guide plate 28 are provided on the front frame 27. The right light guide plate 26 is positioned in front of the right eye of the user when the image display unit 20 is mounted, and causes the right eye to visually recognize the image. The left light guide plate 28 is positioned in front of the left eye of the user when the image display unit 20 is mounted, and causes the left eye to visually recognize the image.

前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有する。この連結位置は、画像表示部20の装着状態における使用者の眉間の位置に対応する。前部フレーム27には、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態において使用者の鼻に当接する鼻当て部が設けられていてもよい。この場合、鼻当て部と右保持部21と左保持部23とによって、画像表示部20を使用者の頭部に保持できる。また、右保持部21および左保持部23に対して、画像表示部20の装着状態において使用者の後頭部に接するベルトを連結してもよい。この場合、ベルトによって画像表示部20を使用者の頭部に強固に保持できる。   The front frame 27 has a shape in which one end of the right light guide plate 26 and one end of the left light guide plate 28 are connected to each other. This connection position corresponds to the position between the eyebrows of the user when the image display unit 20 is mounted. The front frame 27 may be provided with a nose pad portion that comes into contact with the user's nose when the image display unit 20 is mounted at a connection position between the right light guide plate 26 and the left light guide plate 28. In this case, the image display unit 20 can be held on the user's head by the nose pad, the right holding unit 21 and the left holding unit 23. Further, a belt that is in contact with the back of the user's head when the image display unit 20 is mounted may be connected to the right holding unit 21 and the left holding unit 23. In this case, the image display unit 20 can be firmly held on the user's head by the belt.

右表示ユニット22は、右導光板26による画像の表示を行う。右表示ユニット22は、右保持部21に設けられ、画像表示部20の装着状態における使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を行う。左表示ユニット24は、左保持部23に設けられ、画像表示部20の装着状態における使用者の左側頭部の近傍に位置する。なお、右表示ユニット22および左表示ユニット24を総称して「表示駆動部」とも呼ぶ。   The right display unit 22 displays an image by the right light guide plate 26. The right display unit 22 is provided in the right holding unit 21 and is located in the vicinity of the right side of the user when the image display unit 20 is worn. The left display unit 24 displays an image by the left light guide plate 28. The left display unit 24 is provided in the left holding unit 23 and is located in the vicinity of the user's left head when the image display unit 20 is worn. The right display unit 22 and the left display unit 24 are also collectively referred to as “display driving unit”.

本実施形態の右導光板26および左導光板28は、光透過性の樹脂等によって形成される光学部(例えばプリズム)であり、右表示ユニット22および左表示ユニット24が出力する画像光を使用者の眼に導く。なお、右導光板26および左導光板28の表面には、調光板が設けられてもよい。調光板は、光の波長域により透過率が異なる薄板状の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、前部フレーム27の表面(使用者の眼と対向する面とは反対側の面)を覆うように配置される。調光板の光学特性を適宜選択することにより、可視光、赤外光、および紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26および左導光板28に入射し、右導光板26および左導光板28を透過する外光の光量を調整できる。   The right light guide plate 26 and the left light guide plate 28 of the present embodiment are optical units (for example, prisms) formed of a light transmissive resin or the like, and use image light output from the right display unit 22 and the left display unit 24. Lead to the eyes of the person. A dimming plate may be provided on the surfaces of the right light guide plate 26 and the left light guide plate 28. The light control plate is a thin plate-like optical element having different transmittance depending on the wavelength region of light, and functions as a so-called wavelength filter. For example, the light control plate is disposed so as to cover the surface of the front frame 27 (the surface opposite to the surface facing the user's eyes). By appropriately selecting the optical characteristics of the light control plate, the transmittance of light in an arbitrary wavelength region such as visible light, infrared light, and ultraviolet light can be adjusted. The amount of external light incident on the light plate 28 and transmitted through the right light guide plate 26 and the left light guide plate 28 can be adjusted.

画像表示部20は、右表示ユニット22および左表示ユニット24がそれぞれ生成する画像光を、右導光板26および左導光板28に導き、この画像光によって画像(拡張現実感(AR)画像)を使用者に視認させる(これを「画像を表示する」とも呼ぶ)。使用者の前方から右導光板26および左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、画像を構成する画像光と、外光とが入射する。このため、使用者における画像の視認性は、外光の強さに影響を受ける。   The image display unit 20 guides the image light generated by the right display unit 22 and the left display unit 24 to the right light guide plate 26 and the left light guide plate 28, respectively, and an image (augmented reality (AR) image) is generated by the image light. The user visually recognizes (this is also referred to as “display an image”). When external light enters the user's eyes through the right light guide plate 26 and the left light guide plate 28 from the front of the user, image light constituting the image and external light are incident on the user's eyes. To do. For this reason, the visibility of the image for the user is affected by the intensity of external light.

このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、画像の視認のしやすさを調整することができる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を選択することができる。調光板を用いると、右導光板26および左導光板28を保護し、右導光板26および左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、あるいは、右導光板26および左導光板28のそれぞれに対して着脱可能としてもよい。また、複数種類の調光板を交換して着脱可能としてもよく、調光板を省略してもよい。   For this reason, for example, by attaching a light control plate to the front frame 27 and appropriately selecting or adjusting the optical characteristics of the light control plate, it is possible to adjust the ease of visual recognition of the image. In a typical example, it is possible to select a dimming plate having a light transmittance that allows a user wearing the HMD 100 to visually recognize at least the outside scenery. Use of the light control plate can be expected to protect the right light guide plate 26 and the left light guide plate 28, and to suppress damage to the right light guide plate 26 and the left light guide plate 28, adhesion of dirt, and the like. The light control plate may be detachable from the front frame 27 or each of the right light guide plate 26 and the left light guide plate 28. In addition, a plurality of types of light control plates may be exchanged and removable, or the light control plates may be omitted.

カメラ61は、画像表示部20の前部フレーム27に配置されている。カメラ61は、前部フレーム27の前面において、右導光板26および左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61は、前部フレーム27の端部ER側に配置されている。カメラ61は、前部フレーム27の端部EL側に配置されていてもよく、右導光板26と左導光板28との連結部に配置されていてもよい。   The camera 61 is disposed on the front frame 27 of the image display unit 20. The camera 61 is provided on the front surface of the front frame 27 at a position that does not block outside light that passes through the right light guide plate 26 and the left light guide plate 28. In the example of FIG. 1, the camera 61 is disposed on the end ER side of the front frame 27. The camera 61 may be disposed on the end EL side of the front frame 27 or may be disposed at a connection portion between the right light guide plate 26 and the left light guide plate 28.

カメラ61は、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラを採用してもよい。カメラ61は、HMD100の表側方向、換言すれば、画像表示部20の装着状態において使用者が視認する視界方向の、少なくとも一部の外界(実空間)を撮像する。換言すれば、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が視認する方向を撮像する。カメラ61の画角の広さは適宜設定できる。本実施形態では、カメラ61の画角の広さは、使用者が右導光板26および左導光板28を透過して視認可能な使用者の視界の全体と一致するように設定される。カメラ61は、制御機能部150(図6)の制御に従って撮像を実行し、得られた撮像データを制御機能部150へ出力する。   The camera 61 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like. The camera 61 of this embodiment is a monocular camera, but a stereo camera may be adopted. The camera 61 images at least a part of the outside world (real space) in the front side direction of the HMD 100, in other words, in the viewing direction that the user visually recognizes when the image display unit 20 is mounted. In other words, the camera 61 images a range or direction that overlaps the user's field of view, and images a direction that the user visually recognizes. The angle of view of the camera 61 can be set as appropriate. In the present embodiment, the width of the angle of view of the camera 61 is set so as to match the entire field of view of the user that can be viewed through the right light guide plate 26 and the left light guide plate 28. The camera 61 performs imaging according to the control of the control function unit 150 (FIG. 6), and outputs the obtained imaging data to the control function unit 150.

HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する測距センサーを備えていてもよい。測距センサーは、例えば、前部フレーム27の右導光板26と左導光板28との連結部分に配置することができる。測距センサーの測定方向は、MD100の表側方向(カメラ61の撮像方向と重複する方向)とすることができる。測距センサーは、例えば、LEDやレーザーダイオード等の発光部と、光源が発する光が測定対象物に反射する反射光を受光する受光部と、により構成できる。この場合、三角測距処理や、時間差に基づく測距処理により距離を求める。測距センサーは、例えば、超音波を発する発信部と、測定対象物で反射する超音波を受信する受信部と、により構成してもよい。この場合、時間差に基づく測距処理により距離を求める。測距センサーはカメラ61と同様に、制御機能部150(図6)により制御され、検出結果を制御機能部150へ出力する。   The HMD 100 may include a distance measuring sensor that detects a distance to a measurement object positioned in a preset measurement direction. The distance measuring sensor can be disposed, for example, at a connection portion between the right light guide plate 26 and the left light guide plate 28 of the front frame 27. The measurement direction of the distance measuring sensor can be the front side direction of the MD 100 (the direction overlapping the imaging direction of the camera 61). The distance measuring sensor can be composed of, for example, a light emitting unit such as an LED or a laser diode, and a light receiving unit that receives reflected light that is reflected from the light to be measured by the light source. In this case, the distance is obtained by triangular distance measurement processing or distance measurement processing based on a time difference. The distance measuring sensor may be configured by, for example, a transmission unit that emits ultrasonic waves and a reception unit that receives ultrasonic waves reflected by the measurement object. In this case, the distance is obtained by distance measurement processing based on the time difference. The distance measuring sensor is controlled by the control function unit 150 (FIG. 6) similarly to the camera 61, and outputs the detection result to the control function unit 150.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。説明の便宜上、図2には使用者の右眼REおよび左眼LEを図示する。図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成されている。   FIG. 2 is a principal plan view showing the configuration of the optical system provided in the image display unit 20. For convenience of explanation, FIG. 2 shows a user's right eye RE and left eye LE. As shown in FIG. 2, the right display unit 22 and the left display unit 24 are configured symmetrically.

右眼REに画像(AR画像)を視認させる構成として、右表示ユニット22は、OLED(Organic Light Emitting Diode)ユニット221と、右光学系251とを備える。OLEDユニット221は、画像光を発する。右光学系251は、レンズ群等を備え、OLEDユニット221が発する画像光Lを右導光板26へと導く。   As a configuration for allowing the right eye RE to visually recognize an image (AR image), the right display unit 22 includes an OLED (Organic Light Emitting Diode) unit 221 and a right optical system 251. The OLED unit 221 emits image light. The right optical system 251 includes a lens group and the like, and guides the image light L emitted from the OLED unit 221 to the right light guide plate 26.

OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光し、R(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子により構成される自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素とした複数の画素が、マトリクス状に配置されている。   The OLED unit 221 includes an OLED panel 223 and an OLED drive circuit 225 that drives the OLED panel 223. The OLED panel 223 is a self-luminous display panel configured by light emitting elements that emit light by organic electroluminescence and emit color lights of R (red), G (green), and B (blue). In the OLED panel 223, a plurality of pixels each having a unit including one R, G, and B element as one pixel are arranged in a matrix.

OLED駆動回路225は、制御機能部150(図6)の制御に従って、OLEDパネル223が備える発光素子の選択および通電を実行し、発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面、すなわち発光面の裏側に、ボンディング等により固定されている。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板に実装されてもよい。この基板には、後述する温度センサー217(図5)が実装される。なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成を採用してもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加えて、W(白)の光を放射する発光素子を備えるWRGB構成のOLEDパネル223が採用されてもよい。   The OLED drive circuit 225 performs selection and energization of the light emitting elements included in the OLED panel 223 under the control of the control function unit 150 (FIG. 6), and causes the light emitting elements to emit light. The OLED drive circuit 225 is fixed to the back surface of the OLED panel 223, that is, the back side of the light emitting surface by bonding or the like. The OLED drive circuit 225 may be configured by a semiconductor device that drives the OLED panel 223, for example, and may be mounted on a substrate that is fixed to the back surface of the OLED panel 223. A temperature sensor 217 (FIG. 5) described later is mounted on this board. Note that the OLED panel 223 may employ a configuration in which light emitting elements that emit white light are arranged in a matrix, and color filters corresponding to the colors R, G, and B are stacked. Further, an OLED panel 223 having a WRGB configuration including a light emitting element that emits W (white) light in addition to the light emitting elements that respectively emit R, G, and B color light may be employed.

右光学系251は、OLEDパネル223から射出された画像光Lを平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射後、右導光板26から右眼REへと射出され、この画像光Lが右眼REの網膜で像を結ぶことで、使用者に画像を視認させる。   The right optical system 251 includes a collimator lens that converts the image light L emitted from the OLED panel 223 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimator lens enters the right light guide plate 26. A plurality of reflecting surfaces that reflect the image light L are formed in an optical path that guides light inside the right light guide plate 26. The image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 26. A half mirror 261 (reflection surface) located in front of the right eye RE is formed on the right light guide plate 26. The image light L is reflected by the half mirror 261 and then emitted from the right light guide plate 26 to the right eye RE. The image light L forms an image with the retina of the right eye RE, thereby allowing the user to visually recognize the image.

左眼LEに画像(AR画像)を視認させる構成として、左表示ユニット24は、OLEDユニット241と、左光学系252とを備える。OLEDユニット241は画像光を発する。左光学系252は、レンズ群等を備え、OLEDユニット241が発する画像光Lを左導光板28へと導く。OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245を有する。各部の詳細は、OLEDユニット221、OLEDパネル223、OLED駆動回路225と同じである。OLEDパネル243の裏面に固定される基板には、温度センサー239(図5)が実装される。また、左光学系252の詳細は右光学系251と同じである。   As a configuration for causing the left eye LE to visually recognize an image (AR image), the left display unit 24 includes an OLED unit 241 and a left optical system 252. The OLED unit 241 emits image light. The left optical system 252 includes a lens group and the like, and guides the image light L emitted from the OLED unit 241 to the left light guide plate 28. The OLED unit 241 includes an OLED panel 243 and an OLED drive circuit 245 that drives the OLED panel 243. Details of each part are the same as those of the OLED unit 221, the OLED panel 223, and the OLED drive circuit 225. A temperature sensor 239 (FIG. 5) is mounted on the substrate fixed to the back surface of the OLED panel 243. The details of the left optical system 252 are the same as those of the right optical system 251.

以上説明した構成によれば、HMD100は、シースルー型の表示装置として機能することができる。すなわち使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。使用者の左眼LEには、ハーフミラー281で反射した画像光Lと、左導光板28を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させる。この結果、使用者にとっては、右導光板26および左導光板28を透かして外界(実世界)が見えると共に、この外界に重なるようにして画像光Lによる画像(AR画像)が視認される。   According to the configuration described above, the HMD 100 can function as a see-through display device. That is, the image light L reflected by the half mirror 261 and the external light OL transmitted through the right light guide plate 26 enter the right eye RE of the user. The image light L reflected by the half mirror 281 and the external light OL transmitted through the left light guide plate 28 enter the left eye LE of the user. As described above, the HMD 100 causes the image light L of the image processed inside and the external light OL to overlap and enter the user's eyes. As a result, for the user, the outside world (real world) can be seen through the right light guide plate 26 and the left light guide plate 28, and an image (AR image) by the image light L is visually recognized so as to overlap the outside world.

ハーフミラー261およびハーフミラー281は、右表示ユニット22および左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す「画像取り出し部」として機能する。また、右光学系251および右導光板26を総称して「右導光部」とも呼び、左光学系252および左導光板28を総称して「左導光部」とも呼ぶ。右導光部および左導光部の構成は、上述した例に限定されず、画像光を用いて使用者の眼前に画像を形成する限りにおいて任意の方式を用いることができる。例えば、右導光部および左導光部には、回折格子を用いてもよいし、半透過反射膜を用いてもよい。   The half mirror 261 and the half mirror 281 function as an “image extraction unit” that reflects image light output from the right display unit 22 and the left display unit 24 and extracts an image. Further, the right optical system 251 and the right light guide plate 26 are collectively referred to as a “right light guide”, and the left optical system 252 and the left light guide plate 28 are also collectively referred to as a “left light guide”. The configurations of the right light guide unit and the left light guide unit are not limited to the above-described examples, and any method can be used as long as an image is formed in front of the user's eyes using image light. For example, a diffraction grating or a transflective film may be used for the right light guide and the left light guide.

図1において、制御装置10と画像表示部20とは、接続ケーブル40によって接続される。接続ケーブル40は、制御装置10の下部に設けられるコネクターに着脱可能に接続され、左保持部23の先端ALから、画像表示部20内部の各種回路に接続する。接続ケーブル40には、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有する。接続ケーブル40にはさらに、アナログデータを伝送するメタルケーブルを含んでもよい。接続ケーブル40の途中には、コネクター46が設けられている。   In FIG. 1, the control device 10 and the image display unit 20 are connected by a connection cable 40. The connection cable 40 is detachably connected to a connector provided at the lower part of the control device 10, and is connected to various circuits inside the image display unit 20 from the tip AL of the left holding unit 23. The connection cable 40 includes a metal cable or an optical fiber cable that transmits digital data. The connection cable 40 may further include a metal cable that transmits analog data. A connector 46 is provided in the middle of the connection cable 40.

コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。図1に示す本実施形態の例では、コネクター46には、ステレオヘッドホンを構成する右イヤホン32および左イヤホン34と、マイク63を有するヘッドセット30とが接続されている。   The connector 46 is a jack for connecting a stereo mini-plug, and the connector 46 and the control device 10 are connected by a line for transmitting an analog audio signal, for example. In the example of the present embodiment shown in FIG. 1, a right earphone 32 and a left earphone 34 constituting stereo headphones and a headset 30 having a microphone 63 are connected to the connector 46.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置されている。マイク63は、音声を集音し、音声信号を音声インターフェース182(図5)に出力する。マイク63は、モノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであっても無指向性のマイクであってもよい。   For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collection unit of the microphone 63 faces the line of sight of the user. The microphone 63 collects sound and outputs a sound signal to the sound interface 182 (FIG. 5). The microphone 63 may be a monaural microphone or a stereo microphone, and may be a directional microphone or an omnidirectional microphone.

制御装置10は、HMD100(特に画像表示部20)を制御するための装置である。制御装置10は、点灯部12と、タッチパッド14と、方向キー16と、決定キー17と、電源スイッチ18とを含んでいる。点灯部12は、HMD100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。   The control device 10 is a device for controlling the HMD 100 (particularly the image display unit 20). The control device 10 includes a lighting unit 12, a touch pad 14, a direction key 16, a determination key 17, and a power switch 18. The lighting unit 12 notifies the operation state of the HMD 100 (for example, ON / OFF of the power supply) by its light emission mode. For example, an LED (Light Emitting Diode) can be used as the lighting unit 12.

タッチパッド14は、タッチパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド14としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。決定キー17は、押下操作を検出して、制御装置10において操作された内容を決定するための信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源の状態を切り替える。   The touch pad 14 detects a contact operation on the operation surface of the touch pad 14 and outputs a signal corresponding to the detected content. As the touch pad 14, various touch pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The determination key 17 detects a pressing operation and outputs a signal for determining the content operated in the control device 10. The power switch 18 switches the power state of the HMD 100 by detecting a slide operation of the switch.

図3は、使用者から見た画像表示部20の要部構成を示す図である。図3では、接続ケーブル40、右イヤホン32、左イヤホン34の図示を省略している。図3の状態では、右導光板26および左導光板28の裏側が視認できると共に、右眼REに画像光を照射するためのハーフミラー261、および、左眼LEに画像光を照射するためのハーフミラー281が略四角形の領域として視認できる。使用者は、これらハーフミラー261、281を含む左右の導光板26、28の全体を透過して外界を視認すると共に、ハーフミラー261、281の位置に矩形の表示画像を視認する。   FIG. 3 is a diagram illustrating a main configuration of the image display unit 20 as viewed from the user. In FIG. 3, the connection cable 40, the right earphone 32, and the left earphone 34 are not shown. In the state of FIG. 3, the back sides of the right light guide plate 26 and the left light guide plate 28 can be visually recognized, the half mirror 261 for irradiating the right eye RE with image light, and the image light for irradiating the left eye LE with image light. The half mirror 281 can be visually recognized as a substantially rectangular area. The user sees the outside through the entire left and right light guide plates 26 and 28 including the half mirrors 261 and 281, and visually recognizes a rectangular display image at the position of the half mirrors 261 and 281.

図4は、カメラ61の画角を説明するための図である。図4では、カメラ61と、使用者の右眼REおよび左眼LEとを平面視で模式的に示すと共に、カメラ61の画角(撮像範囲)をλで示す。なお、カメラ61の画角λは図示のように水平方向に拡がっているほか、一般的なデジタルカメラと同様に鉛直方向にも拡がっている。   FIG. 4 is a diagram for explaining the angle of view of the camera 61. In FIG. 4, the camera 61 and the right eye RE and left eye LE of the user are schematically shown in plan view, and the angle of view (imaging range) of the camera 61 is indicated by λ. In addition, the angle of view λ of the camera 61 extends in the horizontal direction as shown in the figure, and also extends in the vertical direction in the same manner as a general digital camera.

上述のようにカメラ61は、画像表示部20において右側の端部に配置され、使用者の視線の方向(すなわち使用者の前方)を撮像する。このためカメラ61の光軸は、右眼REおよび左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外界は、無限遠とは限らない。例えば、使用者が両眼で対象物OBを注視すると、使用者の視線は、図中の符号RD、LDに示すように、対象物OBに向けられる。この場合、使用者から対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4mであることがより多い。そこで、HMD100について、通常使用時における使用者から対象物OBまでの距離の上限および下限の目安を定めてもよい。この目安は、予め求められHMD100にプリセットされていてもよいし、使用者が設定してもよい。カメラ61の光軸および画角は、このような通常使用時における対象物OBまでの距離が、設定された上限および下限の目安に相当する場合において対象物OBが画角に含まれるように設定されることが好ましい。   As described above, the camera 61 is arranged at the right end of the image display unit 20 and images the direction of the user's line of sight (that is, the front of the user). For this reason, the optical axis of the camera 61 is a direction including the line-of-sight directions of the right eye RE and the left eye LE. The outside world that can be visually recognized by the user wearing the HMD 100 is not limited to infinity. For example, when the user gazes at the object OB with both eyes, the user's line of sight is directed toward the object OB as indicated by reference numerals RD and LD in the figure. In this case, the distance from the user to the object OB is often about 30 cm to 10 m, and more often 1 m to 4 m. Therefore, for the HMD 100, an upper limit and a lower limit of the distance from the user to the object OB during normal use may be determined. This standard may be obtained in advance and preset in the HMD 100, or may be set by the user. The optical axis and the angle of view of the camera 61 are set so that the object OB is included in the angle of view when the distance to the object OB during normal use corresponds to the set upper and lower limits. It is preferred that

なお、一般的に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされる。そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45〜70度程度とされている。この場合、注視点が対象物OB(図4)であるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45〜70度程度が安定注視野である。使用者が画像表示部20を透過して右導光板26および左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。実視野は、視野角および安定注視野より狭いが、有効視野より広い。   In general, a human viewing angle is approximately 200 degrees in the horizontal direction and approximately 125 degrees in the vertical direction. Among them, the effective visual field with excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. A stable gaze field in which a gaze point that a person gazes at appears quickly and stably is set to 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. In this case, when the gazing point is the object OB (FIG. 4), the effective visual field is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction around the lines of sight RD and LD. Further, the stable focus is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. The actual field of view that the user permeates through the image display unit 20 and permeates through the right light guide plate 26 and the left light guide plate 28 is referred to as a real field of view (FOV). The real field of view is narrower than the viewing angle and stable focus field, but wider than the effective field of view.

本実施形態のカメラ61の画角λは、使用者の視野と一致する範囲を撮像可能に設定される。カメラ61の画角λは、少なくとも使用者の有効視野より広い範囲を撮像可能に設定される構成としてもよい。実視野よりも広い範囲を撮像可能に設定される構成としてもよい。カメラ61の画角λは、使用者の安定注視野より広い範囲を撮像可能に設定される構成としてもよく、使用者の両眼の視野角と一致する範囲を撮像可能に設定される構成としてもよい。このため、カメラ61には、撮像レンズとしていわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよい。また、カメラ61には、単焦点レンズを含んでもよく、ズームレンズを含んでもよく、複数のレンズからなるレンズ群を含んでもよい。   The angle of view λ of the camera 61 of the present embodiment is set so as to be able to image a range that matches the user's field of view. The angle of view λ of the camera 61 may be configured to be able to image at least a range wider than the effective visual field of the user. It is good also as a structure set so that imaging of the range wider than a real visual field is possible. The angle of view λ of the camera 61 may be set so as to be able to image a range wider than the user's stable visual field, or as a configuration set to be able to image a range that matches the viewing angle of both eyes of the user. Also good. For this reason, the camera 61 may include a so-called wide-angle lens as an imaging lens so that a wide angle of view can be captured. The wide-angle lens may include a lens called an ultra-wide-angle lens or a quasi-wide-angle lens. The camera 61 may include a single focus lens, a zoom lens, or a lens group including a plurality of lenses.

図5は、HMD100の電気的な構成を示すブロック図である。制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140と、記憶部と、入出力部と、センサー類と、インターフェースと、電源部130とを備える。メインプロセッサー140には、これらの記憶部、入出力部、センサー類、インターフェース、電源部130がそれぞれ接続されている。メインプロセッサー140は、制御装置10が内蔵しているコントローラー基板120に実装されている。   FIG. 5 is a block diagram showing an electrical configuration of the HMD 100. The control device 10 includes a main processor 140 that controls the HMD 100 by executing a program, a storage unit, an input / output unit, sensors, an interface, and a power supply unit 130. The storage unit, input / output unit, sensors, interface, and power supply unit 130 are connected to the main processor 140. The main processor 140 is mounted on the controller board 120 built in the control device 10.

記憶部には、メモリー118と、不揮発性記憶部121とが含まれている。メモリー118は、メインプロセッサー140によって実行されるコンピュータープログラム、および、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するコンピュータープログラムや、メインプロセッサー140によって処理される各種のデータを記憶する。本実施形態において、これらの記憶部はコントローラー基板120に実装されている。   The storage unit includes a memory 118 and a nonvolatile storage unit 121. The memory 118 constitutes a work area for temporarily storing a computer program executed by the main processor 140 and data to be processed. The nonvolatile storage unit 121 is configured by a flash memory or an eMMC (embedded Multi Media Card). The nonvolatile storage unit 121 stores a computer program executed by the main processor 140 and various data processed by the main processor 140. In the present embodiment, these storage units are mounted on the controller board 120.

入出力部には、タッチパッド14と、操作部110とが含まれている。操作部110には、制御装置10に備えられた方向キー16と、決定キー17と、電源スイッチ18とが含まれる。メインプロセッサー140は、これら各入出力部を制御すると共に、各入出力部から出力される信号を取得する。   The input / output unit includes a touch pad 14 and an operation unit 110. The operation unit 110 includes a direction key 16, a determination key 17, and a power switch 18 provided in the control device 10. The main processor 140 controls these input / output units and acquires signals output from the input / output units.

センサー類には、6軸センサー111と、磁気センサー113と、GPS(Global Positioning System)レシーバー115とが含まれている。6軸センサー111は、3軸加速度センサーと3軸ジャイロ(角速度)センサーとを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、これらセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。磁気センサー113は、例えば、3軸の地磁気センサーである。   The sensors include a six-axis sensor 111, a magnetic sensor 113, and a GPS (Global Positioning System) receiver 115. The 6-axis sensor 111 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 111 may employ an IMU (Inertial Measurement Unit) in which these sensors are modularized. The magnetic sensor 113 is, for example, a triaxial geomagnetic sensor.

GPSレシーバー115は、図示しないGPSアンテナを用いて、GPS衛星から送信される電波を受信し、図示しないGPS回路を用いて、受信された電波を解析することにより、GPS情報を取得する。GPS情報は、緯度、経度、高度を含む位置情報や、撮影時刻および日付の情報を有する。   The GPS receiver 115 receives a radio wave transmitted from a GPS satellite using a GPS antenna (not shown), and acquires GPS information by analyzing the received radio wave using a GPS circuit (not shown). The GPS information includes position information including latitude, longitude, and altitude, and shooting time and date information.

これらセンサー類(6軸センサー111、磁気センサー113、GPSレシーバー115)は、検出値を予め指定されたサンプリング周波数に従って、メインプロセッサー140へと出力する。各センサーが検出値を出力するタイミングは、メインプロセッサー140からの指示に応じてもよい。   These sensors (six-axis sensor 111, magnetic sensor 113, GPS receiver 115) output detection values to the main processor 140 according to a sampling frequency designated in advance. The timing at which each sensor outputs a detection value may be in accordance with an instruction from the main processor 140.

インターフェースには、無線通信部117と、音声コーデック180と、外部コネクター184と、外部メモリーインターフェース186と、USB(Universal Serial Bus)コネクター188と、センサーハブ192と、FPGA194と、インターフェース196とが含まれている。これらは、外部とのインターフェースとして機能する。無線通信部117は、HMD100と外部機器との間における無線通信を実行する。無線通信部117は、図示しないアンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、あるいはこれらが統合されたデバイスとして構成されている。無線通信部117は、例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)を含む無線LAN等の規格に準拠した無線通信を行う。   The interface includes a wireless communication unit 117, an audio codec 180, an external connector 184, an external memory interface 186, a USB (Universal Serial Bus) connector 188, a sensor hub 192, an FPGA 194, and an interface 196. ing. These function as an interface with the outside. The wireless communication unit 117 performs wireless communication between the HMD 100 and an external device. The wireless communication unit 117 includes an antenna, an RF circuit, a baseband circuit, a communication control circuit, and the like (not shown), or is configured as a device in which these are integrated. The wireless communication unit 117 performs wireless communication complying with a standard such as a wireless LAN including Bluetooth (registered trademark) and Wi-Fi (registered trademark), for example.

音声コーデック180は、音声インターフェース182に接続され、音声インターフェース182を介して入出力される音声信号のエンコード/デコードを行う。音声インターフェース182は、音声信号を入出力するインターフェースである。音声コーデック180は、アナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、および、その逆の変換を行うD/Aコンバーターを備えてもよい。本実施形態のHMD100は、音声を右イヤホン32(図1)および左イヤホン34から出力し、マイク63により集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換し、音声インターフェース182を介して出力する。また、音声コーデック180は、音声インターフェース182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。   The audio codec 180 is connected to the audio interface 182 and encodes / decodes an audio signal input / output via the audio interface 182. The audio interface 182 is an interface for inputting and outputting audio signals. The audio codec 180 may include an A / D converter that converts analog audio signals to digital audio data, and a D / A converter that performs the reverse conversion. The HMD 100 of the present embodiment outputs audio from the right earphone 32 (FIG. 1) and the left earphone 34 and collects sound by the microphone 63. The audio codec 180 converts the digital audio data output from the main processor 140 into an analog audio signal, and outputs the analog audio signal via the audio interface 182. The audio codec 180 converts an analog audio signal input to the audio interface 182 into digital audio data and outputs the digital audio data to the main processor 140.

外部コネクター184は、メインプロセッサー140に対して、メインプロセッサー140と通信する外部装置(例えば、パーソナルコンピューター、スマートフォン、ゲーム機器等)を接続するためのコネクターである。外部コネクター184に接続された外部装置は、コンテンツの供給元となり得るほか、メインプロセッサー140が実行するコンピュータープログラムのデバッグや、HMD100の動作ログの収集に使用できる。外部コネクター184は種々の態様を採用できる。外部コネクター184としては、例えば、USBインターフェース、マイクロUSBインターフェース、メモリーカード用インターフェース等の有線接続に対応したインターフェースや、無線LANインターフェース、Bluetoothインターフェース等の無線接続に対応したインターフェースを採用できる。   The external connector 184 is a connector for connecting an external device (for example, a personal computer, a smart phone, a game device, etc.) that communicates with the main processor 140 to the main processor 140. The external device connected to the external connector 184 can be a content supply source, and can be used for debugging a computer program executed by the main processor 140 and collecting an operation log of the HMD 100. The external connector 184 can employ various modes. As the external connector 184, for example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, a memory card interface, or an interface corresponding to a wireless connection such as a wireless LAN interface or a Bluetooth interface can be adopted.

外部メモリーインターフェース186は、可搬型のメモリーデバイスを接続可能なインターフェースである。外部メモリーインターフェース186は、例えば、カード型記録媒体を装着してデータの読み書きを行うメモリーカードスロットと、インターフェース回路とを含む。カード型記録媒体のサイズ、形状、規格等は適宜選択できる。USBコネクター188は、USB規格に準拠したメモリーデバイス、スマートフォン、パーソナルコンピューター等を接続可能なインターフェースである。   The external memory interface 186 is an interface to which a portable memory device can be connected. The external memory interface 186 includes, for example, a memory card slot in which a card-type recording medium is mounted and data is read and written, and an interface circuit. The size, shape, standard, etc. of the card type recording medium can be selected as appropriate. The USB connector 188 is an interface that can connect a memory device, a smartphone, a personal computer, or the like that conforms to the USB standard.

USBコネクター188は、例えば、USB規格に準拠したコネクターと、インターフェース回路とを含む。USBコネクター188のサイズ、形状、USB規格のバージョン等は適宜選択できる。   The USB connector 188 includes, for example, a connector conforming to the USB standard and an interface circuit. The size, shape, USB standard version, etc. of the USB connector 188 can be selected as appropriate.

センサーハブ192およびFPGA194は、インターフェース(I/F)196を介して画像表示部20に接続されている。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得して、メインプロセッサー140に出力する。FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信されるデータの処理およびインターフェース196を介した伝送を実行する。インターフェース196は、画像表示部20の右表示ユニット22と、左表示ユニット24とに対してそれぞれ接続されている。本実施形態の例では、左保持部23に接続ケーブル40(図1)が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24とのそれぞれが、制御装置10のインターフェース196に接続される。   The sensor hub 192 and the FPGA 194 are connected to the image display unit 20 via an interface (I / F) 196. The sensor hub 192 acquires detection values of various sensors included in the image display unit 20 and outputs them to the main processor 140. The FPGA 194 executes processing of data transmitted and received between the main processor 140 and each unit of the image display unit 20 and transmission via the interface 196. The interface 196 is connected to each of the right display unit 22 and the left display unit 24 of the image display unit 20. In the example of the present embodiment, the connection cable 40 (FIG. 1) is connected to the left holding unit 23, and the wiring connected to the connection cable 40 is laid inside the image display unit 20, and the right display unit 22 and the left display unit 24 Are connected to the interface 196 of the control device 10.

また、HMD100は、バイブレーター19を備える。バイブレーター19は、図示しないモーターと、偏芯した回転子等を備え、メインプロセッサー140の制御に従って振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合や、HMD100の電源がオンオフされた場合等に所定の振動パターンでバイブレーター19により振動を発生させる。   Further, the HMD 100 includes a vibrator 19. The vibrator 19 includes a motor (not shown), an eccentric rotor, and the like, and generates vibrations under the control of the main processor 140. The HMD 100 causes the vibrator 19 to generate a vibration with a predetermined vibration pattern when, for example, an operation on the operation unit 110 is detected or when the power of the HMD 100 is turned on / off.

電源部130には、バッテリー132と、電源制御回路134とが含まれている。電源部130は、制御装置10が動作するための電力を供給する。バッテリー132は、充電可能な電池である。電源制御回路134は、バッテリー132の残容量の検出と、OS143への充電の制御を行う。電源制御回路134は、メインプロセッサー140に接続され、バッテリー132の残容量の検出値や、バッテリー132の電圧の検出値をメインプロセッサー140へと出力する。なお、電源部130が供給する電力に基づいて、制御装置10から画像表示部20へと電力を供給してもよい。電源部130から制御装置10の各部および画像表示部20への電力の供給状態を、メインプロセッサー140により制御可能な構成としてもよい。   The power supply unit 130 includes a battery 132 and a power supply control circuit 134. The power supply unit 130 supplies power for operating the control device 10. The battery 132 is a rechargeable battery. The power control circuit 134 detects the remaining capacity of the battery 132 and controls the charging of the OS 143. The power supply control circuit 134 is connected to the main processor 140 and outputs a detected value of the remaining capacity of the battery 132 and a detected value of the voltage of the battery 132 to the main processor 140. Note that power may be supplied from the control device 10 to the image display unit 20 based on the power supplied by the power supply unit 130. The power supply state from the power supply unit 130 to each unit of the control device 10 and the image display unit 20 may be configured to be controllable by the main processor 140.

右表示ユニット22は、表示ユニット基板210と、OLEDユニット221と、カメラ61と、照度センサー65と、LEDインジケーター67と、温度センサー217とを備える。表示ユニット基板210には、インターフェース196に接続されるインターフェース(I/F)211と、受信部(Rx)213と、EEPROM(Electrically Erasable Programmable Read-Only Memory)215とが実装されている。受信部213は、インターフェース211を介して制御装置10から入力されるデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データをOLED駆動回路225(図2)へと出力する。   The right display unit 22 includes a display unit substrate 210, an OLED unit 221, a camera 61, an illuminance sensor 65, an LED indicator 67, and a temperature sensor 217. An interface (I / F) 211 connected to the interface 196, a receiving unit (Rx) 213, and an EEPROM (Electrically Erasable Programmable Read-Only Memory) 215 are mounted on the display unit substrate 210. The receiving unit 213 receives data input from the control device 10 via the interface 211. When receiving image data of an image to be displayed on the OLED unit 221, the receiving unit 213 outputs the received image data to the OLED drive circuit 225 (FIG. 2).

EEPROM215は、各種のデータをメインプロセッサー140が読み取り可能な態様で記憶する。EEPROM215は、例えば、画像表示部20のOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24のセンサー特性に関するデータ等を記憶する。具体的には、例えば、OLEDユニット221、241のガンマ補正に係るパラメーター、後述する温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。出荷後は、メインプロセッサー140がEEPROM215のデータを読み込んで各種の処理に利用する。   The EEPROM 215 stores various data in a form that can be read by the main processor 140. The EEPROM 215 stores, for example, data on the light emission characteristics and display characteristics of the OLED units 221 and 241 of the image display unit 20, data on the sensor characteristics of the right display unit 22 or the left display unit 24, and the like. Specifically, for example, parameters relating to gamma correction of the OLED units 221 and 241 and data for compensating detection values of temperature sensors 217 and 239 described later are stored. These data are generated by the factory inspection of the HMD 100 and are written in the EEPROM 215. After shipment, the main processor 140 reads the data in the EEPROM 215 and uses it for various processes.

カメラ61は、インターフェース211を介して入力される信号に従って撮像を実行し、撮像画像データあるいは撮像結果を表す信号を制御装置10へと出力する。照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するように配置される。照度センサー65は、受光量(受光強度)に対応した検出値を出力する。LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。   The camera 61 executes imaging in accordance with a signal input via the interface 211 and outputs captured image data or a signal representing the imaging result to the control device 10. As shown in FIG. 1, the illuminance sensor 65 is provided at an end ER of the front frame 27 and is arranged to receive external light from the front of the user wearing the image display unit 20. The illuminance sensor 65 outputs a detection value corresponding to the amount of received light (received light intensity). As shown in FIG. 1, the LED indicator 67 is disposed near the camera 61 at the end ER of the front frame 27. The LED indicator 67 is lit during execution of imaging by the camera 61 to notify that imaging is in progress.

温度センサー217は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー217は、OLEDパネル223(図3)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は主としてOLEDパネル223の温度を検出する。なお、温度センサー217は、OLEDパネル223あるいはOLED駆動回路225に内蔵されてもよい。例えば、OLEDパネル223がSi−OLEDとしてOLED駆動回路225と共に統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー217を実装してもよい。   The temperature sensor 217 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature. The temperature sensor 217 is mounted on the back side of the OLED panel 223 (FIG. 3). For example, the temperature sensor 217 may be mounted on the same substrate as the OLED drive circuit 225. With this configuration, the temperature sensor 217 mainly detects the temperature of the OLED panel 223. The temperature sensor 217 may be incorporated in the OLED panel 223 or the OLED drive circuit 225. For example, when the OLED panel 223 is mounted as an Si-OLED as an integrated circuit on an integrated semiconductor chip together with the OLED drive circuit 225, the temperature sensor 217 may be mounted on the semiconductor chip.

左表示ユニット24は、表示ユニット基板230と、OLEDユニット241と、温度センサー239とを備える。表示ユニット基板230には、インターフェース196に接続されるインターフェース(I/F)231と、受信部(Rx)233と、6軸センサー235と、磁気センサー237とが実装されている。受信部233は、インターフェース231を介して制御装置10から入力されるデータを受信する。受信部233は、OLEDユニット241で表示する画像の画像データを受信した場合に、受信した画像データをOLED駆動回路245(図2)へと出力する。   The left display unit 24 includes a display unit substrate 230, an OLED unit 241, and a temperature sensor 239. On the display unit substrate 230, an interface (I / F) 231 connected to the interface 196, a receiving unit (Rx) 233, a six-axis sensor 235, and a magnetic sensor 237 are mounted. The receiving unit 233 receives data input from the control device 10 via the interface 231. When receiving image data of an image to be displayed on the OLED unit 241, the receiving unit 233 outputs the received image data to the OLED drive circuit 245 (FIG. 2).

6軸センサー235は、3軸加速度センサーおよび3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMUを採用してもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。6軸センサー235と磁気センサー237は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。検出された頭部の動きから画像表示部20の向き、すなわち、使用者の視界が特定される。   The 6-axis sensor 235 is a motion sensor (inertia sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 235 may employ an IMU in which the above sensors are modularized. The magnetic sensor 237 is, for example, a triaxial geomagnetic sensor. Since the 6-axis sensor 235 and the magnetic sensor 237 are provided in the image display unit 20, when the image display unit 20 is mounted on the user's head, the movement of the user's head is detected. The direction of the image display unit 20, that is, the field of view of the user is specified from the detected head movement.

温度センサー239は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー239は、OLEDパネル243(図3)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は主としてOLEDパネル243の温度を検出する。温度センサー239は、OLEDパネル243あるいはOLED駆動回路245に内蔵されてもよい。詳細は温度センサー217と同様である。   The temperature sensor 239 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature. The temperature sensor 239 is mounted on the back side of the OLED panel 243 (FIG. 3). The temperature sensor 239 may be mounted on the same substrate as the OLED drive circuit 245, for example. With this configuration, the temperature sensor 239 mainly detects the temperature of the OLED panel 243. The temperature sensor 239 may be incorporated in the OLED panel 243 or the OLED drive circuit 245. Details are the same as those of the temperature sensor 217.

右表示ユニット22のカメラ61、照度センサー65、温度センサー217と、左表示ユニット24の6軸センサー235、磁気センサー237、温度センサー239は、制御装置10のセンサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定および初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。センサーハブ192は、予め設定されたタイミングで、右表示ユニット22および左表示ユニット24が備える各センサーの検出値をメインプロセッサー140へ出力する。センサーハブ192は、各センサーの検出値を一時的に保持するキャッシュ機能を備えてもよい。センサーハブ192は、各センサーの検出値の信号形式やデータ形式の変換機能(例えば、統一形式への変換機能)を備えてもよい。   The camera 61, the illuminance sensor 65, and the temperature sensor 217 of the right display unit 22, and the 6-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 of the left display unit 24 are connected to the sensor hub 192 of the control device 10. The sensor hub 192 sets and initializes the sampling period of each sensor according to the control of the main processor 140. The sensor hub 192 executes energization to each sensor, transmission of control data, acquisition of a detection value, and the like in accordance with the sampling period of each sensor. The sensor hub 192 outputs detection values of the sensors included in the right display unit 22 and the left display unit 24 to the main processor 140 at a preset timing. The sensor hub 192 may have a cache function that temporarily holds the detection value of each sensor. The sensor hub 192 may be provided with a conversion function (for example, a conversion function to a unified format) of a signal format or a data format of a detection value of each sensor.

FPGA194は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始および停止させることで、LEDインジケーター67を点灯または消灯させる。   The FPGA 194 turns on or off the LED indicator 67 by starting and stopping energization of the LED indicator 67 according to the control of the main processor 140.

図6は、制御装置10の構成を機能的に示すブロック図である。制御装置10は、機能的には、記憶機能部122と、制御機能部150とを備える。記憶機能部122は、不揮発性記憶部121(図5)により構成される論理的な記憶部である。記憶機能部122は、記憶機能部122のみを使用する構成に替えて、不揮発性記憶部121に組み合わせてEEPROM215やメモリー118を使用する構成としてもよい。制御機能部150は、メインプロセッサー140がコンピュータープログラムを実行することにより、すなわち、ハードウェアとソフトウェアとが協働することにより構成される。   FIG. 6 is a block diagram functionally showing the configuration of the control device 10. Functionally, the control device 10 includes a storage function unit 122 and a control function unit 150. The storage function unit 122 is a logical storage unit configured by the nonvolatile storage unit 121 (FIG. 5). The storage function unit 122 may be configured to use the EEPROM 215 or the memory 118 in combination with the nonvolatile storage unit 121 instead of the configuration using only the storage function unit 122. The control function unit 150 is configured when the main processor 140 executes a computer program, that is, when hardware and software cooperate.

記憶機能部122には、制御機能部150における処理に供する種々のデータが記憶されている。具体的には、本実施形態の記憶機能部122には、設定データ123と、コンテンツデータ124と、が記憶されている。設定データ123は、HMD100の動作に係る各種の設定値を含む。例えば、設定データ123には、制御機能部150がHMD100を制御する際のパラメーター、行列式、演算式、LUT(Look Up Table)等が含まれている。   The storage function unit 122 stores various data used for processing in the control function unit 150. Specifically, the storage function unit 122 of the present embodiment stores setting data 123 and content data 124. The setting data 123 includes various setting values related to the operation of the HMD 100. For example, the setting data 123 includes parameters, determinants, arithmetic expressions, LUTs (Look Up Tables), and the like when the control function unit 150 controls the HMD 100.

コンテンツデータ124には、制御機能部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータ(画像データ、映像データ、音声データ等)が含まれている。なお、コンテンツデータ124には、双方向型のコンテンツのデータが含まれてもよい。双方向型のコンテンツとは、操作部110によって使用者の操作を取得して、取得した操作内容に応じた処理を制御機能部150が実行し、処理内容に応じたコンテンツを画像表示部20に表示するタイプのコンテンツを意味する。この場合、コンテンツのデータには、使用者の操作を取得するためのメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理を定めるデータ等を含みうる。映像データは、動画を示す動画データである。   The content data 124 includes content data (image data, video data, audio data, etc.) including images and video displayed by the image display unit 20 under the control of the control function unit 150. The content data 124 may include interactive content data. Bi-directional content refers to a user's operation acquired by the operation unit 110, processing corresponding to the acquired operation content is executed by the control function unit 150, and content corresponding to the processing content is stored in the image display unit 20. Means the type of content to display. In this case, the content data may include image data of a menu screen for acquiring a user's operation, data defining a process corresponding to an item included in the menu screen, and the like. Video data is video data indicating a video.

制御機能部150は、記憶機能部122が記憶しているデータを利用して各種処理を実行することにより、OS143、画像処理部145、表示制御部147、撮像制御部149、入出力制御部151、通信制御部153、無人航空機制御部155としての機能を実行する。本実施形態では、OS143以外の各機能部は、OS143上で実行されるコンピュータープログラムとして構成されている。   The control function unit 150 executes various processes using the data stored in the storage function unit 122, whereby the OS 143, the image processing unit 145, the display control unit 147, the imaging control unit 149, and the input / output control unit 151. The functions as the communication control unit 153 and the unmanned aircraft control unit 155 are executed. In the present embodiment, each functional unit other than the OS 143 is configured as a computer program executed on the OS 143.

画像処理部145は、画像表示部20により表示する画像/映像の画像データに基づいて、右表示ユニット22および左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。画像処理部145は、メインプロセッサー140がコンピュータープログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。   The image processing unit 145 generates a signal to be transmitted to the right display unit 22 and the left display unit 24 based on image / video image data displayed by the image display unit 20. The signal generated by the image processing unit 145 may be a vertical synchronization signal, a horizontal synchronization signal, a clock signal, an analog image signal, or the like. The image processing unit 145 may be configured by hardware (for example, DSP (Digital Signal Processor)) different from the main processor 140 in addition to the configuration realized by the main processor 140 executing a computer program.

なお、画像処理部145は、必要に応じて、解像度変換処理、画像調整処理、2D/3D変換処理等を実行してもよい。解像度変換処理は、画像データの解像度を右表示ユニット22および左表示ユニット24に適した解像度へと変換する処理である。画像調整処理は、画像データの輝度や彩度を調整する処理や、ガンマ補正等である。2D/3D変換処理は、三次元画像データから二次元画像データを生成し、あるいは、二次元画像データから三次元画像データを生成する処理である。画像処理部145は、これらの処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成し、接続ケーブル40を介して画像表示部20へと送信する。   Note that the image processing unit 145 may execute resolution conversion processing, image adjustment processing, 2D / 3D conversion processing, and the like as necessary. The resolution conversion process is a process for converting the resolution of the image data into a resolution suitable for the right display unit 22 and the left display unit 24. The image adjustment processing includes processing for adjusting the brightness and saturation of image data, gamma correction, and the like. The 2D / 3D conversion process is a process of generating 2D image data from 3D image data or generating 3D image data from 2D image data. When these processes are executed, the image processing unit 145 generates a signal for displaying an image based on the processed image data, and transmits the signal to the image display unit 20 via the connection cable 40.

表示制御部147は、右表示ユニット22および左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22および左表示ユニット24のそれぞれによる画像光の生成と射出とを制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づいて、OLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。   The display control unit 147 generates a control signal for controlling the right display unit 22 and the left display unit 24, and controls the generation and emission of image light by each of the right display unit 22 and the left display unit 24 based on the control signal. To do. Specifically, the display control unit 147 controls the OLED drive circuits 225 and 245 to cause the OLED panels 223 and 243 to display an image. The display control unit 147 controls the timing at which the OLED drive circuits 225 and 245 draw on the OLED panels 223 and 243 and controls the luminance of the OLED panels 223 and 243 based on the signal output from the image processing unit 145.

撮像制御部149は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶機能部122に一時的に記憶させる。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は、撮像画像データをカメラ61から取得して、記憶機能部122に一時的に記憶させる。   The imaging control unit 149 controls the camera 61 to execute imaging, generates captured image data, and temporarily stores it in the storage function unit 122. When the camera 61 is configured as a camera unit including a circuit that generates captured image data, the imaging control unit 149 acquires captured image data from the camera 61 and temporarily stores the captured image data in the storage function unit 122.

入出力制御部151は、タッチパッド14(図1)と、方向キー16と、決定キー17とを適宜、制御して、これらから入力指令を取得する。取得した指令は、OS143、またはOS143と共にOS143上で動作するコンピュータープログラムに出力される。OS143、またはOS143上で動作するコンピュータープログラムは、これらの入力指令に基づいて、画像表示部20の画面に表示されるカーソルを移動させる。通信制御部153は、無線通信部117を制御して、外部機器との間で無線通信を行う。   The input / output control unit 151 appropriately controls the touch pad 14 (FIG. 1), the direction key 16, and the determination key 17, and acquires an input command therefrom. The acquired command is output to the OS 143 or a computer program operating on the OS 143 together with the OS 143. The OS 143 or the computer program operating on the OS 143 moves the cursor displayed on the screen of the image display unit 20 based on these input commands. The communication control unit 153 controls the wireless communication unit 117 to perform wireless communication with an external device.

無人航空機制御部155は、無人航空機400との間で直接もしくは間接的に信号を送受信することによって、HMD100側から無人航空機400を操縦することを可能としている。無人航空機制御部155の詳細については、後述する。   The unmanned aerial vehicle control unit 155 can control the unmanned aerial vehicle 400 from the HMD 100 side by directly or indirectly transmitting and receiving signals to and from the unmanned aircraft 400. Details of the unmanned aircraft control unit 155 will be described later.

図7は、HMD100による拡張現実感表示の一例を示す説明図である。図7では、使用者の視界VTを例示している。上述のようにして、HMD100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は拡張現実感(AR)としての画像AIを視認する。図7の例では、画像AIは、HMD100のOSのメニュー画面である。メニュー画面には、例えば、「メッセージ」、「電話」、「カメラ」、「ブラウザー」、「無人航空機」の各アプリケーションプログラムを起動するためのアイコンICが含まれる。また、右左の導光板26,28が外界SCからの光を透過することで、使用者は外界SCを視認する。このように、本実施形態のHMDの使用者は、視界VTのうち画像VIが表示された部分については、外界SCに重なるようにして画像AIを見ることができる。また、視界VTのうち画像AIが表示されていない部分については、外界SCだけを見ることができる。   FIG. 7 is an explanatory diagram illustrating an example of augmented reality display by the HMD 100. FIG. 7 illustrates the user's field of view VT. As described above, the image light guided to both eyes of the user of the HMD 100 forms an image on the retina of the user, so that the user visually recognizes the image AI as augmented reality (AR). In the example of FIG. 7, the image AI is a menu screen of the OS of the HMD 100. The menu screen includes, for example, icon ICs for starting application programs “message”, “phone”, “camera”, “browser”, and “unmanned aerial vehicle”. Further, the right and left light guide plates 26 and 28 transmit light from the outside world SC, so that the user visually recognizes the outside world SC. As described above, the user of the HMD according to the present embodiment can view the image AI so that the portion of the field of view VT where the image VI is displayed overlaps the outside SC. Further, only the outside SC can be seen in the portion of the field of view VT where the image AI is not displayed.

A−3.無人航空機とリモコン装置の構成:
図1に示すように、無人航空機400は、4基のプロペラ410(2基は図示を省略)と、カメラ420と、を有する。無人航空機400は、4基のプロペラ410によって、空中を自在にかつ安定的に飛び回ることができ、カメラ420によって、上空から地上を撮影することができる。
A-3. Configuration of unmanned aerial vehicle and remote control device:
As shown in FIG. 1, the unmanned aerial vehicle 400 includes four propellers 410 (two are not shown) and a camera 420. The unmanned aerial vehicle 400 can fly freely and stably in the air by the four propellers 410, and the ground can be taken from the sky by the camera 420.

図8は、無人航空機400の電気的な構成とリモコン装置500の電気的な構成とを示すブロック図である。無人航空機400は、4個のモーター430と、4個のESC(Electronic Speed Controller)435と、GPSレシーバー440と、6軸センサー450と、無線通信部460と、Wi−Fi通信部470と、バッテリー480と、制御部490と、を備える。   FIG. 8 is a block diagram showing an electrical configuration of unmanned aerial vehicle 400 and an electrical configuration of remote control device 500. The unmanned aerial vehicle 400 includes four motors 430, four ESCs (Electronic Speed Controllers) 435, a GPS receiver 440, a six-axis sensor 450, a wireless communication unit 460, a Wi-Fi communication unit 470, and a battery. 480 and a control unit 490.

各モーター430は、各プロペラ410と接続され、各プロペラ410を駆動する。各ESCは、各モーター430と接続され、入力信号に応じて各モーター430の回転数を制御する。   Each motor 430 is connected to each propeller 410 and drives each propeller 410. Each ESC is connected to each motor 430 and controls the number of revolutions of each motor 430 according to an input signal.

GPSレシーバー440は、図示しないGPSアンテナを用いて、GPS衛星から送信される電波を受信し、図示しないGPS回路を用いて、受信された電波を解析することにより、GPS情報を取得する。GPS情報は、緯度、経度、高度を含む位置情報や、撮影時刻および日付の情報を有する。GPS情報によって、無人航空機400は、機体(=無人航空機400)の現在位置(緯度、経度、高度)を知ることができる。   The GPS receiver 440 receives radio waves transmitted from GPS satellites using a GPS antenna (not shown), and acquires GPS information by analyzing the received radio waves using a GPS circuit (not shown). The GPS information includes position information including latitude, longitude, and altitude, and shooting time and date information. From the GPS information, the unmanned aerial vehicle 400 can know the current position (latitude, longitude, altitude) of the aircraft (= unmanned aircraft 400).

6軸センサー450は、3軸加速度センサーと3軸ジャイロ(角速度)センサーとを備えるモーションセンサー(慣性センサー)である。6軸センサー450は、これらセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。6軸センサー450によって、無人航空機400は、機体の姿勢・速度などを知ることができる。   The 6-axis sensor 450 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 450 may employ an IMU (Inertial Measurement Unit) in which these sensors are modularized. The 6-axis sensor 450 allows the unmanned aircraft 400 to know the attitude and speed of the aircraft.

無線通信部460は、リモコン装置500の有する無線通信部540との間における無線通信を実行する。Wi−Fi通信部470は、Wi−Fi(登録商標)を含む無線LANの規格に準拠した無線通信を行う。本実施形態では、後述するWi−Fi航行モード時において、Wi−Fi通信部470は、HMD100の制御装置10に備えられる無線通信部117との間でWi−Fiの電波のやり取りを行う。   Radio communication unit 460 performs radio communication with radio communication unit 540 of remote control device 500. The Wi-Fi communication unit 470 performs wireless communication conforming to a wireless LAN standard including Wi-Fi (registered trademark). In the present embodiment, in a Wi-Fi navigation mode, which will be described later, the Wi-Fi communication unit 470 exchanges Wi-Fi radio waves with the wireless communication unit 117 provided in the control device 10 of the HMD 100.

バッテリー480は、無人航空機400全体の電源であり、本実施形態では、リチウムポリマーバッテリーが採用されている。   The battery 480 is a power source for the entire unmanned aircraft 400, and a lithium polymer battery is employed in this embodiment.

制御部490には、カメラ420、各ESC435、GPSレシーバー440、6軸センサー450、無線通信部460、Wi−Fi通信部470、およびバッテリー480がそれぞれ接続されている。制御部490は、メインプロセッサーと記憶部とを備えるマイクロコンピュータによって構成され、記憶部にプログラムを読み込んで実行することにより、種々の機能を実行する。具体的には、制御部490は、無線通信部460を介してリモコン装置500との間で無線通信を行って、リモコン装置500からの制御指令に従って各モーター430の回転数を個別に制御する。この結果、制御部490は、リモコン装置500からの指令に従って、機体を上昇、下降、前進、後進、左移動、右移動、ホバリングさせることができる。また、制御部490は、リモコン装置500からの指令に従って、カメラ420による撮影を行うことができ、撮影画像をディスプレイ510に表示する。   To the control unit 490, a camera 420, each ESC 435, a GPS receiver 440, a 6-axis sensor 450, a wireless communication unit 460, a Wi-Fi communication unit 470, and a battery 480 are connected. The control unit 490 is configured by a microcomputer including a main processor and a storage unit, and executes various functions by reading and executing programs in the storage unit. Specifically, control unit 490 performs wireless communication with remote control device 500 via wireless communication unit 460, and individually controls the rotation speed of each motor 430 in accordance with a control command from remote control device 500. As a result, the control unit 490 can raise, lower, advance, reverse, move left, move right, and hover according to a command from the remote control device 500. In addition, the control unit 490 can perform shooting by the camera 420 in accordance with a command from the remote control device 500, and displays a captured image on the display 510.

制御部490は、さらに、自動航行モードM1にて、機体を移動することができる。自動航行モードM1は、目的地を示す位置情報を設定することによって、機体を自動的に目的地まで航行させるモードである。無人航空機400は、前述したように、GPSレシーバー440によって機体の現在位置を知ることができることから、制御部490は、自動航行モードM1において、現在位置から目的地の位置までの方向と距離を常に演算し、方向と距離に応じて各モーター430の回転数を制御することによって、機体を目的地に自動的に移動することができる。   Control unit 490 can further move the aircraft in automatic navigation mode M1. The automatic navigation mode M1 is a mode for automatically navigating the aircraft to the destination by setting position information indicating the destination. Since the unmanned aircraft 400 can know the current position of the aircraft by the GPS receiver 440 as described above, the control unit 490 always determines the direction and distance from the current position to the destination position in the automatic navigation mode M1. By calculating and controlling the rotation speed of each motor 430 according to the direction and distance, the aircraft can be automatically moved to the destination.

自動航行モードM1を利用する機能の一つとして、例えば、無人航空機400とリモコン装置500との間の通信が途絶えた場合に、無人航空機400を離陸地点に戻す機能がある。制御部490は、自動航行モードM1において、予め記憶しておいた離陸地点のGPS情報に含まれる位置情報を目的地に設定することによって、機体を離陸地点に戻すことができる。   As one of the functions using the automatic navigation mode M1, for example, when communication between the unmanned aircraft 400 and the remote control device 500 is interrupted, there is a function of returning the unmanned aircraft 400 to the takeoff point. In the automatic navigation mode M1, the control unit 490 can return the aircraft to the takeoff point by setting the position information included in the GPS information of the takeoff point stored in advance as the destination.

図1に示すように、リモコン装置500は、ディスプレイ510と、ジョイスティックタイプの操作部520と、を有する。また、図8に示すように、リモコン装置500は、GPSレシーバー530と、無線通信部540と、USBコネクター550と、制御部590と、を備える。   As shown in FIG. 1, the remote control device 500 includes a display 510 and a joystick type operation unit 520. As shown in FIG. 8, the remote control device 500 includes a GPS receiver 530, a wireless communication unit 540, a USB connector 550, and a control unit 590.

GPSレシーバー530は、図示しないGPSアンテナを用いて、GPS衛星から送信される電波を受信し、図示しないGPS回路を用いて、受信された電波を解析することにより、GPS情報を取得する。GPS情報は、緯度、経度、高度を含む位置情報や、撮影時刻および日付の情報を有する。GPS情報によって、リモコン装置500は、リモコン装置500の現在位置(緯度、経度、高度)を知ることができる。   The GPS receiver 530 receives radio waves transmitted from GPS satellites using a GPS antenna (not shown), and acquires GPS information by analyzing the received radio waves using a GPS circuit (not shown). The GPS information includes position information including latitude, longitude, and altitude, and shooting time and date information. From the GPS information, the remote controller 500 can know the current position (latitude, longitude, altitude) of the remote controller 500.

無線通信部540は、無人航空機400の有する無線通信部460との間における無線通信を実行する。USBコネクター550は、例えば、USB規格に準拠したコネクターと、インターフェース回路とを含む。USBコネクター550は、USB規格に準拠したメモリーデバイス、スマートフォン、パーソナルコンピューター等を接続可能なインターフェースである。本実施形態では、USBコネクター550は、USBケーブル350を介して、HMD100の制御装置10に備えられたUSBコネクター188と接続されている。制御装置10に備えられたUSBコネクター188が、「無人航空機400との間の無線通信を利用した通信を行い得る通信部」に相当する。なお、リモコン装置500と制御装置10との間の接続は、USB接続に限る必要はなく、その他の有線の接続によるものであってもよい。さらに、有線に替えて、無線によってリモコン装置500と制御装置10との間を接続する構成であってもよい。   The wireless communication unit 540 performs wireless communication with the wireless communication unit 460 of the unmanned aircraft 400. The USB connector 550 includes, for example, a connector conforming to the USB standard and an interface circuit. The USB connector 550 is an interface that can connect a memory device, a smartphone, a personal computer, or the like that conforms to the USB standard. In the present embodiment, the USB connector 550 is connected to the USB connector 188 provided in the control device 10 of the HMD 100 via the USB cable 350. The USB connector 188 provided in the control device 10 corresponds to “a communication unit capable of performing communication using wireless communication with the unmanned aircraft 400”. Note that the connection between the remote control device 500 and the control device 10 is not limited to the USB connection, but may be another wired connection. Furthermore, the configuration may be such that the remote control device 500 and the control device 10 are connected wirelessly instead of wired.

制御部590には、ディスプレイ510、操作部520、GPSレシーバー530、無線通信部540、およびUSBコネクター550がそれぞれ接続されている。制御部590は、メインプロセッサーと記憶部とを備えるマイクロコンピュータによって構成され、記憶部にプログラムを読み込んで実行することにより、種々の機能を実行する。具体的には、制御部590は、操作部520からの操作指令を、無人航空機400に対して送信することによって、無人航空機400に、上昇、下降、前進、後進、左移動、右移動、ホバリングといった飛行形態を指令する。また、制御部590は、無人航空機400に対して、カメラ420による撮影を指令する。   A display 510, an operation unit 520, a GPS receiver 530, a wireless communication unit 540, and a USB connector 550 are connected to the control unit 590, respectively. The control unit 590 is configured by a microcomputer including a main processor and a storage unit, and executes various functions by reading and executing programs in the storage unit. Specifically, the control unit 590 transmits an operation command from the operation unit 520 to the unmanned aircraft 400, thereby causing the unmanned aircraft 400 to rise, descend, advance, reverse, left move, right move, and hover. The flight form is commanded. Control unit 590 instructs unmanned aircraft 400 to take a picture with camera 420.

A−4.HMDによる帰還処理:
図6を用いて先に説明したように、HMD100に備えられた制御装置10は、制御機能部150の一つとして、無人航空機400を操縦する無人航空機制御部155を備える。無人航空機制御部155は、リモコン装置500の操作部520をソフトウェア的に実現した操作画面(例えば、図14の操作画面CB)を、画像表示部20に表示させ、HMD100の使用者によってこの操作画面に入力された操作指令を、リモコン装置500に送信することによって、リモコン装置500の有する機能を利用して、HMD100側から無人航空機400を操縦する。無人航空機制御部155は、リモコン装置500の全ての機能を有してもよく、リモコン装置500の全ての機能のうちの一部だけでもよい。また、無人航空機制御部155は、上記の操作画面から撮影指令を受けたときに、撮影指令をリモコン装置500に送信することによって、リモコン装置500の有する機能を利用して、HMD100側から無人航空機400に対して、カメラ420による撮影を指令する。
A-4. Return processing by HMD:
As described above with reference to FIG. 6, the control device 10 provided in the HMD 100 includes the unmanned aircraft control unit 155 that controls the unmanned aircraft 400 as one of the control function units 150. The unmanned aerial vehicle control unit 155 displays an operation screen (for example, the operation screen CB in FIG. 14) obtained by implementing the operation unit 520 of the remote control device 500 in software on the image display unit 20, and this operation screen is displayed by the user of the HMD 100. By transmitting the operation command input to the remote control device 500, the unmanned aircraft 400 is operated from the HMD 100 side using the functions of the remote control device 500. Unmanned aerial vehicle control unit 155 may have all the functions of remote control device 500 or only a part of all the functions of remote control device 500. The unmanned aerial vehicle control unit 155 transmits a shooting command to the remote control device 500 when receiving the shooting command from the operation screen, thereby using the functions of the remote control device 500 to perform the unmanned aircraft from the HMD 100 side. 400 is instructed to shoot by the camera 420.

また、操作部520をソフトウェア的に実現した操作画面には、「リターン・トゥ・HMD」と呼ばれるソフトウェアボタンが用意されている。このソフトウェアボタンが方向キー16(図1)と決定キー17(図1)とによって操作されたときに、無人航空機制御部155は、HMD100の元に無人航空機400を帰還させる帰還処理を実行する(帰還処理部155a)。   In addition, a software button called “return to HMD” is prepared on the operation screen in which the operation unit 520 is realized as software. When this software button is operated by the direction key 16 (FIG. 1) and the enter key 17 (FIG. 1), the unmanned aerial vehicle control unit 155 executes a feedback process for returning the unmanned aircraft 400 to the HMD 100 ( Feedback processor 155a).

図9は、帰還処理を示すフローチャートである。この帰還処理は、図6に示した帰還処理部155aによる処理であり、HMD100のメインプロセッサー140によって実行される。図7に例示したメニュー画面の「無人航空機」のアイコンICが方向キー16(図1)と決定キー17(図1)とによって指示され、その後に、起動された「無人航空機」のアプリケーションプログラムにおいて、「リターン・トゥ・HMD」のソフトウェアボタンが操作されたときに、帰還処理は実行開始される。   FIG. 9 is a flowchart showing the feedback process. This feedback processing is processing by the feedback processing unit 155a shown in FIG. 6 and is executed by the main processor 140 of the HMD 100. In the application program of the “unmanned aircraft” that is activated by the direction key 16 (FIG. 1) and the decision key 17 (FIG. 1) indicated by the icon IC of “unmanned aircraft” on the menu screen illustrated in FIG. When the “Return to HMD” software button is operated, the feedback process is started.

処理が開始されると、HMD100のメインプロセッサー140は、まず、GPSレシーバー115からGPS情報を取得する(ステップS110)。メインプロセッサー140とステップS110の処理が、「GPS情報取得部」に相当する。   When the process is started, the main processor 140 of the HMD 100 first acquires GPS information from the GPS receiver 115 (step S110). The processing of the main processor 140 and step S110 corresponds to a “GPS information acquisition unit”.

次いで、メインプロセッサー140は、取得したGPS情報に含まれる位置情報(緯度、経度、高度)を目的地に設定した自動航行モードM1(図8)での航行を、無人航空機400に対して指示する(ステップS120)。この指示は、リモコン装置500に行うことで、リモコン装置500を介して無人航空機400に対して行う。すなわち、ステップS120では、HMD100の制御装置10の現在位置に無人航空機400を帰還させる指示を、リモコン装置500を介して無人航空機400に対して行う。   Next, the main processor 140 instructs the unmanned aircraft 400 to navigate in the automatic navigation mode M1 (FIG. 8) in which the position information (latitude, longitude, altitude) included in the acquired GPS information is set as the destination. (Step S120). This instruction is given to the unmanned aircraft 400 via the remote control device 500 by being given to the remote control device 500. That is, in step S120, an instruction to return the unmanned aircraft 400 to the current position of the control device 10 of the HMD 100 is given to the unmanned aircraft 400 via the remote control device 500.

続いて、メインプロセッサー140は、カメラ61を起動して、使用者の視線方向の外界を撮影する(ステップS130)。この撮影される外界は、使用者によって画像表示部20を通して視認可能な視界に相当する。   Subsequently, the main processor 140 activates the camera 61 to photograph the outside world in the user's line of sight (step S130). The photographed external world corresponds to a visual field that can be visually recognized through the image display unit 20 by the user.

続いて、メインプロセッサー140は、カメラ61により撮影された画像の中に無人航空機400が含まれるか否かを判定する(ステップS140)。この判定は、無人航空機400の形状的な特徴を示す画像を目的画像として準備し、パターンマッチングによって、撮影された画像の中から目的画像と一致度の高い画像部分が検出されたときに、撮影された画像の中に無人航空機400が含まれていると判定する。   Subsequently, the main processor 140 determines whether or not the unmanned aircraft 400 is included in the image captured by the camera 61 (step S140). This determination is performed when an image showing the shape characteristics of the unmanned aircraft 400 is prepared as a target image, and an image portion having a high degree of coincidence with the target image is detected from the captured images by pattern matching. It is determined that the unmanned aircraft 400 is included in the obtained image.

なお、無人航空機400の形状的な特徴を示す画像を目的画像とする構成に替えて、無人航空機400に予めマーカーを貼り付け、マーカーを目的画像としてもよい。マーカーは、二次元マーカーであり、パターンマッチングする目的画像を指定するための標識となる。   It should be noted that a marker may be pasted on the unmanned aerial vehicle 400 in advance and the marker may be used as the target image instead of the configuration in which the image showing the shape characteristics of the unmanned aircraft 400 is the target image. The marker is a two-dimensional marker and serves as a mark for designating a target image for pattern matching.

図10は、使用者によって画像表示部20を通して視認可能な視界を説明するための図である。図中において、例えば、2点鎖線で示した範囲が、画像表示部20を通して視認可能な視界WAである。ステップS140による判定処理によって、視界WA内に無人航空機400が侵入したか否かが判定されることになる。   FIG. 10 is a diagram for explaining a field of view that can be visually recognized by the user through the image display unit 20. In the figure, for example, a range indicated by a two-dot chain line is a visual field WA that can be visually recognized through the image display unit 20. By the determination process in step S140, it is determined whether or not the unmanned aircraft 400 has entered the field of view WA.

図9に戻り、ステップS140で、撮影された画像の中に無人航空機400が含まれていないと判定されたとき、すなわち、視界WA内に無人航空機400が侵入していないと判定されたときには、メインプロセッサー140は、無人航空機400がステップS120で設定した目的地に到着したか否かを判定する(ステップS150)。目的地に到着したか否かは、リモコン装置500が無人航空機400と通信することによって把握しており、リモコン装置500に問い合わせることによって、ステップS150の判定がなされる。   Returning to FIG. 9, when it is determined in step S140 that the unmanned aircraft 400 is not included in the captured image, that is, when it is determined that the unmanned aircraft 400 has not entered the field of view WA, The main processor 140 determines whether or not the unmanned aircraft 400 has arrived at the destination set in step S120 (step S150). Whether or not the vehicle has arrived at the destination is known by the remote control device 500 communicating with the unmanned aircraft 400, and the remote control device 500 is inquired to make a determination in step S150.

ステップS150で、目的地に到着していないと判定された場合、すなわち、視界WA内に無人航空機400が侵入しておらず、かつ目的地に到着していないと判定された場合には、メインプロセッサー140は、ステップS110に処理を戻して、自動航行モードM1での帰還を継続して実行させる。図10に例示するように、無人航空機400は、視界WAの外側を飛行している場合には、自動航行モードM1で航行する。   If it is determined in step S150 that the destination has not arrived, that is, if it is determined that the unmanned aircraft 400 has not entered the field of view WA and has not arrived at the destination, the main The processor 140 returns the process to step S110 to continue the return in the automatic navigation mode M1. As illustrated in FIG. 10, the unmanned aircraft 400 navigates in the automatic navigation mode M1 when flying outside the field of view WA.

メインプロセッサー140は、ステップS110からステップS140までの処理を繰り返し実行し、ステップS140で、撮影された画像の中に無人航空機400が含まれていると判定されたとき、すなわち、視界WA内に無人航空機400が侵入していると判定されたときには、無人航空機400に対して、自動航行モードでの航行を中止し、Wi−Fi航行モードでの航行を指示する(ステップS160)。   The main processor 140 repeatedly executes the processing from step S110 to step S140, and when it is determined in step S140 that the unmanned aircraft 400 is included in the photographed image, that is, the unmanned in the field of view WA. When it is determined that the aircraft 400 has entered, the unmanned aircraft 400 is stopped from traveling in the automatic navigation mode and instructed to travel in the Wi-Fi navigation mode (step S160).

図11は、Wi−Fi航行モードを説明するための図である。Wi−Fi航行モードM2(図6参照)では、HMD100の制御装置10と無人航空機400との間でWi−Fiの電波B1,B2のやりとりを行い、Wi−Fiの電波強度の変化から無人航空機400の航行ルートを定める。具体的には、Wi−Fiの電波強度が強くなる方向に航行ルートを定める。メインプロセッサー140は、Wi−Fi航行モードM2において、無人航空機400からのWi−Fiの電波強度を測定し、電波強度の変化から、電波強度が強くなる方向を推定し、この電波強度が強くなる方向を航行ルートとし、この航行ルートを飛行するように、リモコン装置500を介して無人航空機400に対して飛行形態を指示する。飛行形態とは、上昇、下降、前進、後進、左移動、右移動、ホバリング等の機体の動きである。   FIG. 11 is a diagram for explaining the Wi-Fi navigation mode. In the Wi-Fi navigation mode M2 (see FIG. 6), the Wi-Fi radio waves B1 and B2 are exchanged between the control device 10 of the HMD 100 and the unmanned aircraft 400. Define 400 navigation routes. Specifically, the navigation route is determined in a direction in which the Wi-Fi radio wave intensity increases. The main processor 140 measures the Wi-Fi radio wave intensity from the unmanned aerial vehicle 400 in the Wi-Fi navigation mode M2, estimates the direction in which the radio wave intensity increases from the change in the radio wave intensity, and the radio wave intensity increases. The direction is a navigation route, and the flight form is instructed to the unmanned aircraft 400 via the remote control device 500 so as to fly along this navigation route. The flight form is the movement of the aircraft such as ascending, descending, moving forward, moving backward, moving left, moving right, and hovering.

なお、リモコン装置500を介して無人航空機400に飛行形態を指示する構成に替えて、制御装置10が、無線通信部117から直接、無人航空機400に飛行形態を指示する構成としてもよい。さらに、電波強度が強くなる方向を推定し、この電波強度が強くなる方向を航行ルートと求める処理を、制御装置10の側で行うのではなく、無人航空機400の制御部490で行い、この求めた航行ルートに従って、制御部490が、無人航空機400の飛行形態を制御する構成としてもよい。   Instead of the configuration in which the unmanned aircraft 400 is instructed to fly through the remote control device 500, the control device 10 may directly instruct the unmanned aircraft 400 from the wireless communication unit 117. Further, the process of estimating the direction in which the radio field strength is increased and obtaining the direction in which the radio field intensity is increased as the navigation route is not performed on the control device 10 side, but performed by the control unit 490 of the unmanned aircraft 400, The control unit 490 may be configured to control the flight form of the unmanned aircraft 400 according to the navigation route.

図9のステップS160の実行後、メインプロセッサー140は、無人航空機400がHMD100の制御装置10の位置まで到着したか否かを判定し(ステップS170)、到着するまで、Wi−Fi航行モードM2での帰還を継続して実行させる。図10に例示するように、無人航空機400は、視界WA内を飛行している場合には、Wi−Fi航行モードM2で航行する。ただし、到着する直前においては、無人航空機400がHMD100や使用者に衝突しないように、無人航空機400は、カメラ420で障害物(ここでは、HMD100や使用者)を認識し、予め設定した距離を離して自動着陸する。   After execution of step S160 in FIG. 9, the main processor 140 determines whether or not the unmanned aircraft 400 has arrived at the position of the control device 10 of the HMD 100 (step S170), and in the Wi-Fi navigation mode M2 until it arrives. Continue to perform the return. As illustrated in FIG. 10, the unmanned aerial vehicle 400 navigates in the Wi-Fi navigation mode M2 when flying in the field of view WA. However, immediately before arrival, the unmanned aircraft 400 recognizes an obstacle (here, the HMD 100 or the user) with the camera 420 so that the unmanned aircraft 400 does not collide with the HMD 100 or the user, and sets a predetermined distance. Release and automatically land.

ステップS170またはステップS150で、到着したと判定されたときには、メインプロセッサー140は、この帰還処理を終了する。   When it is determined in step S170 or step S150 that it has arrived, the main processor 140 ends this feedback processing.

A−5.実施形態の効果について:
以上のように構成された第1実施形態のHMD100によれば、無人航空機400が自動航行モードM1で制御装置10へ向かって航行しているときに、画像表示部20を通して視認可能な視界WA内に無人航空機400が侵入した場合に、自動航行モードM1を中止して、Wi−Fiの電波強度の変化から航行ルートを定めるWi−Fi航行モードM2で、無人航空機400を航行させる。このため、HMD100によれば、精度の低いGPS情報を利用した自動航行モードM1での航行を取りやめることができることから、HMD100まで高い精度で帰還させることが可能となる。特に本実施形態では、自動航行モードM1から切り替えられるWi−Fi航行モードM2は、Wi−Fi電波の強度の変化から航行ルートを定めるもので、高い精度での航行を可能とする。このため、HMD100までの帰還をより高い精度で行うことができる。
A-5. About effect of embodiment:
According to the HMD 100 of the first embodiment configured as described above, when the unmanned aircraft 400 is traveling toward the control device 10 in the automatic navigation mode M1, the field of view WA is visible through the image display unit 20. When the unmanned aircraft 400 enters the vehicle, the automatic navigation mode M1 is stopped, and the unmanned aircraft 400 is navigated in the Wi-Fi navigation mode M2 in which the navigation route is determined from the change in the Wi-Fi radio wave intensity. For this reason, according to the HMD 100, it is possible to cancel the navigation in the automatic navigation mode M1 using GPS information with low accuracy, and therefore it is possible to return to the HMD 100 with high accuracy. In particular, in the present embodiment, the Wi-Fi navigation mode M2 that is switched from the automatic navigation mode M1 determines the navigation route from the change in the intensity of the Wi-Fi radio wave, and enables navigation with high accuracy. For this reason, the feedback to the HMD 100 can be performed with higher accuracy.

第1実施形態の変形例として、Wi−Fi航行モードM2に替えて、Wi−Fi以外の電波、例えば、無線LANや、Bluetooth(登録商標)、iBeacon(登録商標)等の強度によって、航行ルートを定めるモードとしてもよい。   As a modification of the first embodiment, instead of the Wi-Fi navigation mode M2, the navigation route is changed depending on the intensity of radio waves other than Wi-Fi, for example, wireless LAN, Bluetooth (registered trademark), iBeacon (registered trademark), etc. It is good also as a mode which determines.

B.第2実施形態:
図12は、第2実施形態のHMDで実行される帰還処理を示すフローチャートである。第2実施形態のHMDで実行される帰還処理は、第1実施形態における帰還処理(図9)と比較して、ステップS160に対応するステップS260の処理が相違し、その他のステップの処理は同一である。第2実施形態のHMDのハードウェア構成は、第1実施形態のHMDのハードウェア構成と同一である。なお、以下の説明において、第1実施形態と同一のパーツについては、第1実施形態と同じ符号を付ける。
B. Second embodiment:
FIG. 12 is a flowchart illustrating feedback processing executed by the HMD of the second embodiment. The feedback processing executed in the HMD of the second embodiment is different from the feedback processing (FIG. 9) in the first embodiment in the processing of step S260 corresponding to step S160, and the processing of other steps is the same. It is. The hardware configuration of the HMD of the second embodiment is the same as the hardware configuration of the HMD of the first embodiment. In the following description, the same parts as those in the first embodiment are denoted by the same reference numerals as those in the first embodiment.

図12の帰還処理におけるステップS260では、メインプロセッサー140は、無人航空機400に対して、自動航行モードでの航行を中止し、デッドレコニング航行モードでの航行を指示する。すなわち、画像表示部20を通して視認可能な視界WA内に無人航空機400が侵入したときに、第1実施形態の帰還処理では、自動航行モードM1からWi−Fi航行モードM2への切り替えを行っていたが、これに替えて、第2実施形態の帰還処理では、自動航行モードM1からデッドレコニング航行モードへの切り替えを行う。   In step S260 in the return process of FIG. 12, the main processor 140 stops the navigation in the automatic navigation mode and instructs the unmanned aircraft 400 to navigate in the dead reckoning navigation mode. That is, when the unmanned aerial vehicle 400 enters the field of view WA that can be visually recognized through the image display unit 20, the feedback processing of the first embodiment switches from the automatic navigation mode M1 to the Wi-Fi navigation mode M2. However, instead of this, in the feedback processing of the second embodiment, the automatic navigation mode M1 is switched to the dead reckoning navigation mode.

無人航空機400には、6軸センサー450が備えられている。6軸センサー450の検出信号から、無人航空機400の機体の姿勢・速度などを知ることができる。このため、無人航空機400が離陸前の状態にあるときの6軸センサー450の検出信号の値(=検出値)を初期値とし、その初期値に6軸センサー450の検出値を逐次足し合わせる(積算する)ことによって、その初期値に該当する位置を基準とした相対的な位置と姿勢(無人航空機400の位置と姿勢)を求めることができる。この対称の位置と姿勢を求める方法が、「デッドレコニング(Dead-Reckoning)」と呼ばれるものである。   The unmanned aerial vehicle 400 is provided with a six-axis sensor 450. From the detection signal of the 6-axis sensor 450, the attitude and speed of the unmanned aircraft 400 can be known. Therefore, the detection signal value (= detection value) of the 6-axis sensor 450 when the unmanned aerial vehicle 400 is in the state before takeoff is set as an initial value, and the detection value of the 6-axis sensor 450 is sequentially added to the initial value ( By adding up), it is possible to obtain a relative position and posture (position and posture of the unmanned aerial vehicle 400) based on the position corresponding to the initial value. This method of obtaining the symmetric position and orientation is called “Dead-Reckoning”.

一方、第2実施形態のHMDの制御装置にも、第1実施形態と同様に6軸センサー111(図5)が設けられている。このため、デッドレコニングの手法を採用することによって、初期値に該当する位置と姿勢を基準とした相対的な位置と姿勢(HMDの制御装置の位置と姿勢)を求めることができる。帰還処理を実行する前に、無人航空機400についての前記初期値に該当する位置と姿勢を、HMDの制御装置の前記初期値に該当する位置にキャリブレーションした上で、無人航空機400側、HMDの制御装置側ともにデッドレコニングを行うことによって、HMDの制御装置の現在の位置と姿勢に対する、無人航空機400の現在の位置と姿勢とを求めることができる。   On the other hand, the HMD control device of the second embodiment is also provided with a six-axis sensor 111 (FIG. 5), as in the first embodiment. For this reason, by adopting the dead reckoning technique, it is possible to obtain the relative position and posture (position and posture of the HMD control device) based on the position and posture corresponding to the initial values. Before executing the return processing, the position and posture corresponding to the initial value of the unmanned aircraft 400 are calibrated to the position corresponding to the initial value of the control device of the HMD, and then the unmanned aircraft 400 side, By performing dead reckoning on both the control device side, the current position and posture of the unmanned aerial vehicle 400 with respect to the current position and posture of the control device of the HMD can be obtained.

ステップS260で実行されるデッドレコニング航行モードにおいて、制御装置のメインプロセッサーは、上述したようにして、HMDの制御装置の現在の位置と姿勢に対する、無人航空機400の現在の位置と姿勢とを求め、求めた位置と姿勢とから航行ルートを求め、この航行ルートを飛行するように、リモコン装置500を介して無人航空機400に対して飛行形態を指示する。飛行形態とは、上昇、下降、前進、後進、左移動、右移動、ホバリング等の機体の動きである。   In the dead reckoning navigation mode executed in step S260, the main processor of the control device obtains the current position and posture of the unmanned aircraft 400 with respect to the current position and posture of the control device of the HMD, as described above. A navigation route is obtained from the obtained position and posture, and the flight form is instructed to the unmanned aircraft 400 via the remote control device 500 so as to fly along this navigation route. The flight form is the movement of the aircraft such as ascending, descending, moving forward, moving backward, moving left, moving right, and hovering.

なお、リモコン装置500を介して無人航空機400に飛行形態を指示する構成に替えて、制御装置が、無線通信部117(図5)から直接、無人航空機400に飛行形態を指示する構成としてもよい。さらに、HMDの制御装置の現在の位置と姿勢に対する、無人航空機400の現在の位置と姿勢とを求め、求めた位置と姿勢とから航行ルートを求める処理を、制御装置10の側で行うのではなく、無人航空機400の制御部490で行い、この求めた航行ルートに従って、制御部490が、無人航空機400の飛行形態を制御する構成としてもよい。   Instead of the configuration in which the unmanned aircraft 400 is instructed to fly through the remote control device 500, the control device may directly instruct the unmanned aircraft 400 from the wireless communication unit 117 (FIG. 5). . Further, the control device 10 performs processing for obtaining the current position and posture of the unmanned aerial vehicle 400 with respect to the current position and posture of the HMD control device and obtaining a navigation route from the obtained position and posture. Alternatively, the control unit 490 of the unmanned aircraft 400 may be configured so that the control unit 490 controls the flight form of the unmanned aircraft 400 according to the obtained navigation route.

デッドレコニング航行モードによれば、6軸センサー111,450の検出信号を利用して、HMDの制御装置の現在の位置と姿勢に対する、無人航空機400の現在の位置と姿勢とを、高精度に求めることができる。このため、第2実施形態のHMDによれば、第1実施形態のHMD100と同様に、無人航空機400をHMDまで高い精度で帰還させることができる。   According to the dead reckoning navigation mode, the current position and posture of the unmanned aerial vehicle 400 with respect to the current position and posture of the control device of the HMD are obtained with high accuracy using detection signals of the six-axis sensors 111 and 450. be able to. For this reason, according to the HMD of the second embodiment, the unmanned aircraft 400 can be returned to the HMD with high accuracy, like the HMD 100 of the first embodiment.

C.第3実施形態:
図13は、第3実施形態のHMDで実行される帰還処理を示すフローチャートである。第3実施形態のHMDで実行される帰還処理は、第1実施形態における帰還処理(図9)と比較して、ステップS160に対応するステップS260の処理が相違し、その他のステップの処理は同一である。第3実施形態のHMDのハードウェア構成は、第1実施形態のHMDのハードウェア構成と同一である。以下の説明において、第1実施形態と同一のパーツについては、第1実施形態と同じ符号を付ける。
C. Third embodiment:
FIG. 13 is a flowchart illustrating feedback processing executed by the HMD of the third embodiment. The feedback process executed by the HMD of the third embodiment is different from the feedback process (FIG. 9) in the first embodiment in the process of step S260 corresponding to step S160, and the other steps are the same. It is. The hardware configuration of the HMD of the third embodiment is the same as the hardware configuration of the HMD of the first embodiment. In the following description, the same parts as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment.

図13の帰還処理におけるステップS160では、メインプロセッサー140は、無人航空機400に対して、自動航行モードでの航行を中止し、手動航行モードでの航行を指示する。すなわち、画像表示部20を通して視認可能な視界WA内に無人航空機400が侵入したときに、第1実施形態の帰還処理では、自動航行モードM1からWi−Fi航行モードM2への切り替えを行っていたが、これに替えて、第3実施形態の帰還処理では、自動航行モードM1から手動航行モードへの切り替えを行う。   In step S160 in the return process of FIG. 13, the main processor 140 stops the navigation in the automatic navigation mode and instructs the unmanned aircraft 400 to navigate in the manual navigation mode. That is, when the unmanned aerial vehicle 400 enters the field of view WA that can be visually recognized through the image display unit 20, the feedback processing of the first embodiment switches from the automatic navigation mode M1 to the Wi-Fi navigation mode M2. However, instead of this, in the feedback processing of the third embodiment, switching from the automatic navigation mode M1 to the manual navigation mode is performed.

図14は、リモコン装置500(図1)の操作部520をソフトウェア的に実現した操作画面CBを示す説明図である。操作画面CBは画像表示部20によって表示される。操作者は、方向キー16(図1)と決定キー17(図1)とを用いて操作画面CBに対して入力操作を行う。手動航行モードでは、メインプロセッサー140は、操作画面CBに入力された操作指令を、リモコン装置500に送信することによって、リモコン装置500の有する機能を利用して、HMD100側から無人航空機400を操縦する。   FIG. 14 is an explanatory diagram showing an operation screen CB in which the operation unit 520 of the remote control device 500 (FIG. 1) is realized in software. The operation screen CB is displayed by the image display unit 20. The operator performs an input operation on the operation screen CB using the direction key 16 (FIG. 1) and the enter key 17 (FIG. 1). In the manual navigation mode, the main processor 140 controls the unmanned aircraft 400 from the HMD 100 side using the functions of the remote control device 500 by transmitting the operation command input to the operation screen CB to the remote control device 500. .

なお、操作画面に入力された操作指令を、リモコン装置500を介して無人航空機400に送る構成に替えて、制御装置が、無線通信部117(図5)から直接、無人航空機400に送る構成としてもよい。   In addition, it replaces with the structure which sends the operation command input into the operation screen to the unmanned aircraft 400 via the remote control device 500, and the control device sends the unmanned aircraft 400 directly from the wireless communication unit 117 (FIG. 5). Also good.

以上のように構成された第3実施形態のHMDによれば、無人航空機400が自動航行モードM1で制御装置10へ向かって航行しているときに、画像表示部20を通して視認可能な視界WA内に無人航空機400が侵入した場合に、GPS情報を利用した自動航行モードM1を中止して、手動航行モードで無人航空機400を航行させる。このため、第3実施形態のHMDによれば、精度の低いGPS情報を利用した自動航行モードM1での航行を取りやめることができることから、第1および第2実施形態と同様に、HMD100まで高い精度で帰還させることが可能となる。   According to the HMD of the third embodiment configured as described above, when the unmanned aircraft 400 is sailing toward the control device 10 in the automatic navigation mode M1, the inside of the field of view WA that can be visually recognized through the image display unit 20. When the unmanned aerial vehicle 400 enters, the automatic navigation mode M1 using the GPS information is stopped, and the unmanned aircraft 400 is navigated in the manual navigation mode. For this reason, according to the HMD of the third embodiment, it is possible to cancel the navigation in the automatic navigation mode M1 using low-accuracy GPS information, so that the high accuracy up to the HMD 100 is achieved as in the first and second embodiments. It is possible to return with.

第3実施形態の変形例として、6軸センサー111、450を、3軸の加速度センサーだけを有する慣性センサーに替えてもよい。   As a modification of the third embodiment, the six-axis sensors 111 and 450 may be replaced with an inertial sensor having only a three-axis acceleration sensor.

D.第4実施形態:
図15は、第4実施形態のHMDにおいて表示される操作画面CBXを示す説明図である。操作画面CBXは、第3実施形態における操作画面CB(図14)に相当するものである。操作画面CBXは、第3実施形態における操作画面CBと比較して、画像表示部20による表示位置が相違するだけで、形状や機能は同一である。その他のソフトウェア構成やハードウェア構成は、第3実施形態のHMDと同一である。
D. Fourth embodiment:
FIG. 15 is an explanatory diagram illustrating an operation screen CBX displayed in the HMD of the fourth embodiment. The operation screen CBX corresponds to the operation screen CB (FIG. 14) in the third embodiment. The operation screen CBX has the same shape and function as the operation screen CB in the third embodiment, except that the display position by the image display unit 20 is different. Other software configurations and hardware configurations are the same as those of the HMD of the third embodiment.

図15において、破線は、第3実施形態の操作画面CBの表示位置を示している。第3実施形態では、視界VT内に無人航空機400が侵入したときに、視界VT内の無人航空機400の位置と操作画面CBとが重なることがあった。これに対して、第4実施形態のHMDでは、視界VT内の無人航空機400の位置から離れた位置となるように、操作画面CBXの位置が変更される。具体的には、図9のステップS140で、パターンマッチングによって無人航空機400が検出される位置を求め、その位置から視界VT内の無人航空機400の位置を推定し、推定された位置から離れた位置に操作画面CBXを移動する。この結果、視界VT内の無人航空機400の位置およびその周囲は、外界を透過することができ、無人航空機400を使用者は確実に確認することができる。   In FIG. 15, the broken line indicates the display position of the operation screen CB of the third embodiment. In the third embodiment, when the unmanned aerial vehicle 400 enters the view VT, the position of the unmanned aircraft 400 in the view VT may overlap with the operation screen CB. On the other hand, in the HMD of the fourth embodiment, the position of the operation screen CBX is changed so that the position is away from the position of the unmanned aircraft 400 in the field of view VT. Specifically, in step S140 of FIG. 9, a position where the unmanned aircraft 400 is detected by pattern matching is obtained, the position of the unmanned aircraft 400 in the field of view VT is estimated from the position, and a position away from the estimated position Move the operation screen CBX. As a result, the position of the unmanned aircraft 400 in the field of view VT and its surroundings can pass through the outside world, and the user can confirm the unmanned aircraft 400 reliably.

したがって、第4実施形態のHMDでは、第3実施形態と同様に、HMD100まで高い精度で帰還させることができる。特に第4実施形態のHMDでは、視界VTにおいて、無人航空機400が操作画面CBXによって隠されることがないことから、無人航空機400を手動にて帰還させる操作性を向上することができる。なお、本実施形態における、無人航空機400の位置と操作画面CBとが重ならないように操作画面CBの表示位置を変更する構成は、第1実施形態、および第2実施形態においても採用するようにしてもよい。   Therefore, in the HMD of the fourth embodiment, it is possible to feed back to the HMD 100 with high accuracy, as in the third embodiment. Particularly in the HMD of the fourth embodiment, since the unmanned aircraft 400 is not hidden by the operation screen CBX in the field of view VT, the operability of manually returning the unmanned aircraft 400 can be improved. Note that the configuration for changing the display position of the operation screen CB so that the position of the unmanned aircraft 400 and the operation screen CB do not overlap in this embodiment is also adopted in the first embodiment and the second embodiment. May be.

E.変形例:
なお、この発明は第1〜第4実施形態およびそれらの変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
E. Variation:
The present invention is not limited to the first to fourth embodiments and their modifications, and can be carried out in various modes without departing from the gist thereof. For example, the following modifications are possible. Is also possible.

・変形例1:
各実施形態および変形例では、無人航空機システムは、HMD100と、無人航空機400と、リモコン装置500と、を備えていた。これに対して、変形例として、無人航空機システムは、リモコン装置500を備えずに、HMD100と、無人航空機400と、を備えた構成としてもよい。この場合には、リモコン装置500の機能を全て、HMD100がソフトウェアによって実現する構成とする。
・ Modification 1:
In each embodiment and modification, the unmanned aerial vehicle system includes the HMD 100, the unmanned aircraft 400, and the remote control device 500. On the other hand, as a modification, the unmanned aerial vehicle system may include the HMD 100 and the unmanned aircraft 400 without including the remote control device 500. In this case, all functions of the remote control device 500 are configured to be realized by the HMD 100 by software.

・変形例2:
各実施形態および変形例では、自動航行モードでの行き先となるGPS情報は、HMD100の制御装置10に備えられたGPSレシーバー115によって取得する構成とした。これに対して、変形例として、HMD100の画像表示部20にGPSレシーバーを設け、そのGPSレシーバーからGPS情報を取得するようにしてもよい。また、リモコン装置500に備えられたGPSレシーバー530によって取得されたGPS情報を、リモコン装置500から取得する構成としてもよい。
Modification 2
In each embodiment and modification, the GPS information that is the destination in the automatic navigation mode is acquired by the GPS receiver 115 provided in the control device 10 of the HMD 100. On the other hand, as a modification, a GPS receiver may be provided in the image display unit 20 of the HMD 100, and GPS information may be acquired from the GPS receiver. Further, the GPS information acquired by the GPS receiver 530 provided in the remote control device 500 may be acquired from the remote control device 500.

・変形例3:
各実施形態および変形例では、HMD100の制御装置10にGPSレシーバー115を設け、自動航行モードは、HMD100の制御装置10の現在位置に無人航空機400を帰還させる構成とした。これに対して、変形例として、GPSレシーバーを頭部装着型表示装置から離れた位置に設けて、そのGPSレシーバーの位置まで無人航空機400を航行させる構成としてもよい。例えば、所定の施設内の予め定められた位置にGPSレシーバーを配置し、その位置を自動航行モードでの行き先としてもよい。この場合には、無人航空機は、自動航行モードで所定の施設内までの航行を行っており、HMDの使用者は、この施設に出向いた上で、自動航行モードとは異なる特定の航行モードで無人航空機を航行させることが可能となる。
・ Modification 3:
In each embodiment and modification, the GPS receiver 115 is provided in the control device 10 of the HMD 100, and the automatic navigation mode is configured to return the unmanned aircraft 400 to the current position of the control device 10 of the HMD 100. On the other hand, as a modification, a GPS receiver may be provided at a position away from the head-mounted display device, and the unmanned aircraft 400 may be navigated to the position of the GPS receiver. For example, a GPS receiver may be arranged at a predetermined position in a predetermined facility, and the position may be set as a destination in the automatic navigation mode. In this case, the unmanned aerial vehicle navigates to a predetermined facility in the automatic navigation mode, and the user of the HMD goes to this facility and operates in a specific navigation mode different from the automatic navigation mode. It is possible to navigate unmanned aircraft.

・変形例4:
各実施形態および変形例では、カメラ61の撮像画像が画像表示部20によって視認可能な視界WAと一致するものとして、カメラ61の撮像画像を用いて、視界WA内に無人航空機400が侵入したか否かを判定していた。これに対して、変形例として、画像表示部20に備えられた6軸センサー235と磁気センサー237から、画像表示部20が向いている方位を求め、この方位が画像表示部20によって視認可能な視界WAを特定しうるとして、この方位と、無人航空機400のGPSレシーバー440によって取得したGPS情報で示される位置とから、視界WA内に無人航空機400が侵入したか否かを判定する構成としてもよい。この構成によっても、各実施形態および変形例と同様の効果を奏することができる。
-Modification 4:
In each embodiment and the modified example, whether the unmanned aircraft 400 has entered the field of view WA using the captured image of the camera 61 on the assumption that the captured image of the camera 61 matches the field of view WA visible by the image display unit 20. It was judged whether or not. On the other hand, as a modified example, the orientation in which the image display unit 20 faces is obtained from the 6-axis sensor 235 and the magnetic sensor 237 provided in the image display unit 20, and this orientation can be visually recognized by the image display unit 20. Assuming that the field of view WA can be specified, it is possible to determine whether or not the unmanned aircraft 400 has entered the field of view WA from this direction and the position indicated by the GPS information acquired by the GPS receiver 440 of the unmanned aircraft 400. Good. Even with this configuration, the same effects as those of the embodiments and the modified examples can be obtained.

さらに、他の変形例として、先に説明した測距センサーによって無人航空機までの距離を検出し、検出した距離が所定値以下であるときに、視界WA内に無人航空機400が侵入したと判定してもよい。人間は、約10mまでは両眼視差が最も支配的であり、奥行き感度が最も高い。このため、上記所定値を例えば11m〜9mとし、無人航空機までの距離が所定値以下であるときに、視界WA内に無人航空機400が侵入したと判定する。この構成によっても、各実施形態および変形例と同様の効果を奏することができる。上記所定値は、例えば10mとすることもできる。   Furthermore, as another modification, the distance to the unmanned aircraft is detected by the distance measuring sensor described above, and it is determined that the unmanned aircraft 400 has entered the field of view WA when the detected distance is equal to or less than a predetermined value. May be. For humans, binocular parallax is the most dominant up to about 10 m, and the depth sensitivity is the highest. For this reason, the predetermined value is set to 11 m to 9 m, for example, and when the distance to the unmanned aircraft is equal to or less than the predetermined value, it is determined that the unmanned aircraft 400 has entered the field of view WA. Even with this configuration, the same effects as those of the embodiments and the modified examples can be obtained. The predetermined value may be 10 m, for example.

さらに、他の変形例として、カメラ61の撮像画像に換えて、無人航空機400側のカメラ420の撮像画像を利用して、視界WA内に無人航空機400が侵入したか否かを判定する構成としてもよい。具体的には、無人航空機400側のカメラ420の撮像画像に、HMDを装着した使用者が含まれるか否かから、視界WA内に無人航空機400が侵入したか否かを判定する構成とする。この構成によっても、各実施形態および変形例と同様の効果を奏することができる。また、リモコン装置500(図8参照)のディスプレイ510に表示しているカメラ420の撮像画像をリモコン装置500から取得し、この撮像画像を利用して、視界WA内に無人航空機400が侵入したか否かを判定する構成としてもよい。   Furthermore, as another modified example, as a configuration for determining whether or not the unmanned aircraft 400 has entered the field of view WA using the captured image of the camera 420 on the unmanned aircraft 400 side instead of the captured image of the camera 61. Also good. Specifically, it is configured to determine whether or not the unmanned aircraft 400 has entered the field of view WA based on whether or not a user wearing the HMD is included in the captured image of the camera 420 on the unmanned aircraft 400 side. . Even with this configuration, the same effects as those of the embodiments and the modified examples can be obtained. In addition, a captured image of the camera 420 displayed on the display 510 of the remote control device 500 (see FIG. 8) is acquired from the remote control device 500, and whether the unmanned aircraft 400 has entered the field of view WA using the captured image. It may be configured to determine whether or not.

・変形例5:
各実施形態および変形例では、自動航行モードでの航行中に、視界WA内に無人航空機400が侵入したときに、自動航行モードからWi−Fi航行モードへの切り替えを行う構成であった。これに対して、変形例として、上記Wi−Fi航行モードへの切り替えの後、無人航空機400が使用者から離れる方向に旋回し、視界WAの外に無人航空機400が移動したときには、Wi−Fi航行モードから自動航行モードへの切り替えを行う構成としてもよい。さらに、使用者の視界から出た後に、視界内に再び侵入した場合等、繰り返し視界を出入りする場合であっても、本発明を適用可能である。
-Modification 5:
In each embodiment and the modification, when the unmanned aircraft 400 enters the field of view WA during the navigation in the automatic navigation mode, the automatic navigation mode is switched to the Wi-Fi navigation mode. On the other hand, as a modification, after switching to the Wi-Fi navigation mode, when the unmanned aircraft 400 turns in a direction away from the user and the unmanned aircraft 400 moves outside the field of view WA, the Wi-Fi The navigation mode may be switched to the automatic navigation mode. Furthermore, the present invention can be applied even when the user repeatedly enters and leaves the field of view, such as when the user enters the field of view again after leaving the user's field of view.

・変形例6:
第2実施形態では、HMDの制御装置の位置と姿勢を6軸センサー111(図5)の検出信号に基づいて求めていた。これに対して、変形例として、6軸センサー111の検出信号に加えて、GPSの検出信号やカメラの撮像画像を利用して、HMDの制御装置の位置と姿勢をより高精度に求める構成としてもよい。また、カメラと通信装置を備えた他のHMDにおいて、使用者のHMD(本発明を適用したHMD)の位置と姿勢を観察可能な構成とし、観察された位置と姿勢を他のHMDから通信によって受信することによって、使用者のHMDの位置と姿勢を求めるようにしてもよい。
Modification 6:
In the second embodiment, the position and orientation of the control device of the HMD are obtained based on the detection signal of the 6-axis sensor 111 (FIG. 5). On the other hand, as a modification, in addition to the detection signal of the six-axis sensor 111, a configuration that obtains the position and orientation of the HMD control device with higher accuracy by using a GPS detection signal and a captured image of the camera. Also good. In another HMD equipped with a camera and a communication device, the position and posture of the user's HMD (HMD to which the present invention is applied) can be observed, and the observed position and posture are communicated from the other HMD. By receiving, the position and posture of the user's HMD may be obtained.

・変形例7:
第2実施形態におけるデッドレコニング航行モードでは、無人航空機400が離陸前の状態にあるときの6軸センサー450の検出信号の値(=検出値)を初期値としていた。これに対して、変形例として、無人航空機400が離陸前の状態にあるときの位置と姿勢を、HMD側のカメラ61の撮像画像から求めて、その求めた位置と姿勢を初期値としてもよい。カメラ61は、ステレオカメラとしてもよい。また、カメラ61は単眼カメラとし、2枚以上の撮像画像から三角測量の原理に基づいて距離を算出することによって、位置と姿勢を求め、それを初期値としてもよい。さらに、無人航空機400が離陸前の状態にあるときに換えて、離陸後の所定の状態のときとすることもできる。具体的には、無人航空機を離陸後、予め定めた所定の高さでホバリングさせ、そのときの位置と姿勢を初期値としてもよい。
Modification 7:
In the dead reckoning navigation mode in the second embodiment, the value of the detection signal (= detection value) of the six-axis sensor 450 when the unmanned aircraft 400 is in the state before takeoff is set as the initial value. On the other hand, as a modification, the position and orientation when the unmanned aircraft 400 is in the state before takeoff may be obtained from the captured image of the camera 61 on the HMD side, and the obtained position and orientation may be used as initial values. . The camera 61 may be a stereo camera. The camera 61 may be a monocular camera, and the position and orientation may be obtained by calculating the distance from two or more captured images based on the principle of triangulation, and may be used as the initial value. Furthermore, it can be changed to when the unmanned aerial vehicle 400 is in a state before take-off, and when it is in a predetermined state after take-off. Specifically, after the unmanned aircraft takes off, it may be hovered at a predetermined height, and the position and orientation at that time may be set as initial values.

・変形例8:
各実施形態および変形例では、ドローンのような遠隔操縦または自律飛行が可能な無人航空機を例として説明したが、これに限定されるものではなく、無人地上車両、無人水上艦、無人水上艇、無人水上船、無人潜水艦、無人潜水艇、無人宇宙機などの無人機に対しても本発明を適用可能である。
-Modification 8:
In each embodiment and modification, an unmanned aerial vehicle capable of remote control or autonomous flight such as a drone has been described as an example. However, the present invention is not limited thereto, and is not limited to this. An unmanned ground vehicle, an unmanned surface ship, an unmanned surface boat, The present invention can also be applied to unmanned aerial vehicles such as unmanned surface ships, unmanned submarines, unmanned submersibles, and unmanned spacecraft.

・変形例9:
各実施形態および変形例において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。
-Modification 9:
In each embodiment and modification, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. It may be.

・変形例10:
上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
Modification 10:
In the said embodiment, it illustrated about the structure of HMD. However, the configuration of the HMD can be arbitrarily determined without departing from the gist of the present invention, and for example, addition / deletion / conversion of components can be performed.

上記実施形態では、右導光板26および左導光板28が外光を透過する、いわゆる透過型のHMD100について説明した。しかし、本発明は、例えば、外界を透過しないで画像を表示する、いわゆる非透過型のHMD100に適用することもできる。また、非透過型のHMD100には、カメラで外界を撮像して、その撮像画像を表示部に表示すれば良い。これらのHMD100では、上記実施形態で説明した実空間に重畳して画像を表示するAR(Augmented Reality)表示のほか、撮像した実空間の画像と仮想画像とを組み合わせて表示するMR(Mixed Reality)表示、あるいは、仮想空間を表示するVR(Virtual Reality)表示を行うこともできる。   In the above embodiment, the so-called transmission type HMD 100 in which the right light guide plate 26 and the left light guide plate 28 transmit external light has been described. However, the present invention can also be applied to, for example, a so-called non-transmissive HMD 100 that displays an image without passing through the outside world. Further, the non-transmissive HMD 100 may be configured to capture the outside world with a camera and display the captured image on the display unit. In these HMDs 100, in addition to AR (Augmented Reality) display that displays an image superimposed on the real space described in the above embodiment, MR (Mixed Reality) that displays a combination of the captured real space image and a virtual image. Display or VR (Virtual Reality) display for displaying a virtual space can also be performed.

上記実施形態では、制御装置10および画像表示部20の機能部について説明したが、これらは任意に変更することができる。例えば、次のような態様を採用してもよい。制御装置10に記憶機能部122および制御機能部150を搭載し、画像表示部20には表示機能のみを搭載する態様。制御装置10と画像表示部20との両方に、記憶機能部122および制御機能部150を搭載する態様。制御装置10と画像表示部20とを一体化した態様。この場合、例えば、画像表示部20に制御装置10の構成要素が全て含まれ、眼鏡型のウェアラブルコンピューターとして構成される。制御装置10の代わりにスマートフォンや携帯型ゲーム機器を使用する態様。制御装置10と画像表示部20とを無線通信により接続し、接続ケーブル40を配した態様。この場合、例えば、制御装置10や画像表示部20に対する給電についても無線で実施してよい。   In the above embodiment, the functional units of the control device 10 and the image display unit 20 have been described, but these can be arbitrarily changed. For example, the following aspects may be adopted. A mode in which the storage function unit 122 and the control function unit 150 are mounted on the control device 10 and only the display function is mounted on the image display unit 20. A mode in which the storage function unit 122 and the control function unit 150 are mounted on both the control device 10 and the image display unit 20. The aspect which integrated the control apparatus 10 and the image display part 20. FIG. In this case, for example, the image display unit 20 includes all the components of the control device 10 and is configured as a glasses-type wearable computer. A mode in which a smartphone or a portable game device is used instead of the control device 10. The aspect which connected the control apparatus 10 and the image display part 20 by radio | wireless communication, and arranged the connection cable 40. FIG. In this case, for example, power supply to the control device 10 and the image display unit 20 may be performed wirelessly.

・変形例11:
上記実施形態では、制御装置の構成について例示した。しかし、制御装置の構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
Modification 11:
In the said embodiment, it illustrated about the structure of the control apparatus. However, the configuration of the control device can be arbitrarily determined without departing from the gist of the present invention, and for example, addition / deletion / conversion of components can be performed.

上記実施形態では、制御装置10が備える入力手段の一例について説明した。しかし、制御装置10は、例示した一部の入力手段を省略して構成されてもよく、上述しない他の入力手段を備えていてもよい。例えば、制御装置10は、操作スティック、キーボード、マウス等を備えていてもよい。例えば、制御装置10は、使用者の身体の動き等に対応付けられたコマンドを解釈する入力手段を備えていてもよい。使用者の身体の動き等とは、例えば、視線を検出する視線検出、手の動きを検出するジェスチャー検出、足の動きを検出するフットスイッチ等により取得できる。なお、視線検出は、例えば、画像表示部20の内側を撮像するカメラにより実現できる。ジェスチャー検出は、例えば、カメラ61により経時的に撮影された画像を画像解析することにより実現できる。   In the above embodiment, an example of the input unit provided in the control device 10 has been described. However, the control device 10 may be configured by omitting some of the illustrated input means, and may include other input means not described above. For example, the control device 10 may include an operation stick, a keyboard, a mouse, and the like. For example, the control device 10 may include an input unit that interprets a command associated with the movement of the user's body. The user's body movement or the like can be acquired by, for example, line-of-sight detection for detecting line-of-sight, gesture detection for detecting hand movement, foot switch for detecting foot movement, or the like. The line-of-sight detection can be realized by, for example, a camera that images the inside of the image display unit 20. Gesture detection can be realized, for example, by analyzing an image taken with the camera 61 over time.

上記実施形態では、制御機能部150は、メインプロセッサー140が記憶機能部122内のコンピュータープログラムを実行することにより動作するとした。しかし、制御機能部150は種々の構成を採用することができる。例えば、コンピュータープログラムは、記憶機能部122に代えて、または記憶機能部122と共に、不揮発性記憶部121、EEPROM215、メモリー118、他の外部記憶装置(各種インターフェースに挿入されているUSBメモリー等の記憶装置、ネットワークを介して接続されているサーバー等の外部装置を含む)に格納されていてもよい。また、制御機能部150の各機能は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit)を用いて実現されてもよい。   In the above embodiment, the control function unit 150 is operated by the main processor 140 executing the computer program in the storage function unit 122. However, the control function unit 150 can employ various configurations. For example, the computer program can be stored in the nonvolatile storage unit 121, the EEPROM 215, the memory 118, and other external storage devices (such as a USB memory inserted in various interfaces) instead of or together with the storage function unit 122. Or an external device such as a server connected via a network). Further, each function of the control function unit 150 may be realized using an ASIC (Application Specific Integrated Circuit) designed to realize the function.

・変形例12:
上記実施形態では、画像表示部の構成について例示した。しかし、画像表示部の構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
Modification 12:
In the said embodiment, it illustrated about the structure of the image display part. However, the configuration of the image display unit can be arbitrarily determined without departing from the gist of the present invention, and for example, addition / deletion / conversion of components can be performed.

図16は、変形例の画像表示部が備える光学系の構成を示す要部平面図である。変形例の画像表示部では、使用者の右眼REに対応したOLEDユニット221aと、左眼LEに対応したOLEDユニット241aと、が設けられている。右眼REに対応したOLEDユニット221aは、白色で発色するOLEDパネル223aと、OLEDパネル223aを駆動して発光させるOLED駆動回路225とを備えている。OLEDパネル223aと右光学系251との間には、変調素子227(変調装置)が配置されている。変調素子227は、例えば、透過型液晶パネルで構成され、OLEDパネル223aが発する光を変調して画像光Lを生成する。変調素子227を透過して変調された画像光Lは、右導光板26によって右眼REに導かれる。   FIG. 16 is a plan view of a principal part showing a configuration of an optical system provided in an image display unit according to a modification. In the image display unit of the modified example, an OLED unit 221a corresponding to the user's right eye RE and an OLED unit 241a corresponding to the left eye LE are provided. The OLED unit 221a corresponding to the right eye RE includes an OLED panel 223a that develops white color and an OLED drive circuit 225 that drives the OLED panel 223a to emit light. A modulation element 227 (modulation device) is arranged between the OLED panel 223a and the right optical system 251. The modulation element 227 is configured by, for example, a transmissive liquid crystal panel, and generates image light L by modulating light emitted from the OLED panel 223a. The image light L that has been transmitted through the modulation element 227 and modulated is guided to the right eye RE by the right light guide plate 26.

左眼LEに対応したOLEDユニット241aは、白色で発光するOLEDパネル243aと、OLEDパネル243aを駆動して発光させるOLED駆動回路245とを備えている。OLEDパネル243aと左光学系252との間には、変調素子247(変調装置)が配置されている。変調素子247は、例えば、透過型液晶パネルで構成され、OLEDパネル243aが発する光を変調して画像光Lを生成する。変調素子247を透過して変調された画像光Lは、左導光板28によって左眼LEに導かれる。変調素子227、247は、図示しない液晶ドライバー回路に接続される。この液晶ドライバー回路(変調装置駆動部)は、例えば変調素子227、247の近傍に配置される基板に実装される。   The OLED unit 241a corresponding to the left eye LE includes an OLED panel 243a that emits white light and an OLED drive circuit 245 that drives the OLED panel 243a to emit light. A modulation element 247 (modulation device) is arranged between the OLED panel 243a and the left optical system 252. The modulation element 247 is constituted by, for example, a transmissive liquid crystal panel, and generates image light L by modulating light emitted from the OLED panel 243a. The image light L that has been modulated through the modulation element 247 is guided to the left eye LE by the left light guide plate 28. The modulation elements 227 and 247 are connected to a liquid crystal driver circuit (not shown). The liquid crystal driver circuit (modulation device driving unit) is mounted on a substrate disposed in the vicinity of the modulation elements 227 and 247, for example.

変形例の画像表示部によれば、右表示ユニット22および左表示ユニット24は、それぞれ、光源部としてのOLEDパネル223a、243aと、光源部が発する光を変調して複数の色光を含む画像光を出力する変調素子227、247と、を備える映像素子として構成される。なお、OLEDパネル223a、243aが発する光を変調する変調装置は、透過型液晶パネルが採用される構成に限定されない。例えば、透過型液晶パネルに代えて反射型液晶パネルを用いてもよいし、デジタル・マイクロミラー・デバイスを用いてもよいし、レーザー網膜投影型のHMD100としてもよい。   According to the image display unit of the modified example, the right display unit 22 and the left display unit 24 respectively include OLED panels 223a and 243a as light source units and image light including a plurality of color lights by modulating light emitted from the light source units. Are provided as modulation elements 227 and 247 that output a video signal. Note that the modulation device that modulates the light emitted from the OLED panels 223a and 243a is not limited to a configuration in which a transmissive liquid crystal panel is employed. For example, a reflective liquid crystal panel may be used instead of the transmissive liquid crystal panel, a digital micromirror device may be used, or a laser retinal projection type HMD 100 may be used.

上記実施形態では、眼鏡型の画像表示部20について説明したが、画像表示部20の態様は任意に変更することができる。例えば、画像表示部20を帽子のように装着する態様としてもよく、ヘルメット等の身体防護具に内蔵された態様としてもよい。また、画像表示部20を、自動車や飛行機等の車両、またはその他の交通手段に搭載されるHUD(Head Up Display)として構成してもよい。   In the above embodiment, the spectacle-type image display unit 20 has been described, but the aspect of the image display unit 20 can be arbitrarily changed. For example, the image display unit 20 may be mounted like a hat, or may be built in a body protector such as a helmet. Further, the image display unit 20 may be configured as a HUD (Head Up Display) mounted on a vehicle such as an automobile or an airplane, or other transportation means.

上記実施形態では、画像光を使用者の眼に導く光学系として、右導光板26および左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。しかし、この構成は任意に変更することができる。たとえば、右導光板26および左導光板28の全面(または大部分)を占める領域に虚像が形成されてもよい。この場合、画像の表示位置を変化させる動作によって画像を縮小してもよい。また、本発明の光学素子は、ハーフミラー261、281を有する右導光板26および左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品(例えば、回折格子、プリズム、ホログラフィー等)を用いる限り任意の態様を採用できる。   In the above embodiment, a configuration in which virtual images are formed by the half mirrors 261 and 281 on a part of the right light guide plate 26 and the left light guide plate 28 as an optical system that guides image light to the user's eyes has been exemplified. However, this configuration can be arbitrarily changed. For example, a virtual image may be formed in a region that occupies the entire surface (or most) of the right light guide plate 26 and the left light guide plate 28. In this case, the image may be reduced by an operation for changing the display position of the image. The optical element of the present invention is not limited to the right light guide plate 26 and the left light guide plate 28 having the half mirrors 261 and 281, but is an optical component (for example, a diffraction grating, a prism, or the like) that makes image light incident on the user's eyes. Any form can be adopted as long as holography or the like is used.

本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。   The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御装置、12…点灯部、14…タッチパッド、16…方向キー、17…決定キー、18…電源スイッチ、19…バイブレーター、20…画像表示部、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、46…コネクター、61…カメラ、63…マイク、65…照度センサー、67…LEDインジケーター、100…頭部装着型表示装置(HMD)、110…操作部、111…6軸センサー、113…磁気センサー、115…GPSレシーバー、117…無線通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶機能部、123…設定データ、124…コンテンツデータ、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、145…画像処理部、147…表示制御部、149…撮像制御部、150…制御機能部、151…入出力制御部、153…通信制御部、155…無人航空機制御部、155a…帰還処理部、180…音声コーデック、182…音声インターフェース、184…外部コネクター、186…外部メモリーインターフェース、188…USBコネクター、192…センサーハブ、196…インターフェース、210…表示ユニット基板、211…インターフェース、213…受信部、215…EEPROM、217…温度センサー、221、221a…OLEDユニット、223、223a…OLEDパネル、225…OLED駆動回路、227…変調素子、230…表示ユニット基板、231…インターフェース、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241、241a…OLEDユニット、243、243a…OLEDパネル、245…OLED駆動回路、247…変調素子、251…右光学系、252…左光学系、261…ハーフミラー、281…ハーフミラー、400…無人航空機、410…プロペラ、420…カメラ、430…モーター、440…GPSレシーバー、450…6軸センサー、460…無線通信部、470…Wi−Fi通信部、480…バッテリー、490…制御部、500…リモコン装置、510…ディスプレイ、520…操作部、530…GPSレシーバー、540…無線通信部、550…USBコネクター、590…制御部、WA…外界     DESCRIPTION OF SYMBOLS 10 ... Control apparatus, 12 ... Lighting part, 14 ... Touchpad, 16 ... Direction key, 17 ... Decision key, 18 ... Power switch, 19 ... Vibrator, 20 ... Image display part, 21 ... Right holding part, 22 ... Right display Unit: 23 ... Left holding unit, 24 ... Left display unit, 26 ... Right light guide plate, 27 ... Front frame, 28 ... Left light guide plate, 30 ... Headset, 32 ... Right earphone, 34 ... Left earphone, 40 ... Connection Cable, 46 ... Connector, 61 ... Camera, 63 ... Microphone, 65 ... Illuminance sensor, 67 ... LED indicator, 100 ... Head-mounted display device (HMD), 110 ... Operation unit, 111 ... 6-axis sensor, 113 ... Magnetic Sensor, 115 ... GPS receiver, 117 ... Wireless communication unit, 118 ... Memory, 120 ... Controller board, 121 ... Non-volatile storage unit, 122 ... Memory Function unit, 123: Setting data, 124: Content data, 130: Power supply unit, 132 ... Battery, 134 ... Power supply control circuit, 140 ... Main processor, 145 ... Image processing unit, 147 ... Display control unit, 149 ... Imaging control unit , 150: control function unit, 151: input / output control unit, 153 ... communication control unit, 155 ... unmanned aircraft control unit, 155a ... feedback processing unit, 180 ... voice codec, 182 ... voice interface, 184 ... external connector, 186 ... External memory interface, 188 ... USB connector, 192 ... sensor hub, 196 ... interface, 210 ... display unit board, 211 ... interface, 213 ... receiver, 215 ... EEPROM, 217 ... temperature sensor, 221,221a ... OLED unit, 223 223a ... LED panel, 225 ... OLED drive circuit, 227 ... modulation element, 230 ... display unit substrate, 231 ... interface, 233 ... receiver, 235 ... 6-axis sensor, 237 ... magnetic sensor, 239 ... temperature sensor, 241,241a ... OLED Unit, 243, 243a ... OLED panel, 245 ... OLED drive circuit, 247 ... modulation element, 251 ... right optical system, 252 ... left optical system, 261 ... half mirror, 281 ... half mirror, 400 ... unmanned aircraft, 410 ... propeller , 420 ... Camera, 430 ... Motor, 440 ... GPS receiver, 450 ... 6-axis sensor, 460 ... Wireless communication unit, 470 ... Wi-Fi communication unit, 480 ... Battery, 490 ... Control unit, 500 ... Remote control device, 510 ... Display, 520 ... operation unit, 530 ... GPS receiver -Bar, 540 ... Wireless communication unit, 550 ... USB connector, 590 ... Control unit, WA ... External

Claims (10)

無人機の操縦に関する制御を行うことが可能な頭部装着型表示装置であって、
外界を視認可能な表示部と、
GPS情報を取得するGPS情報取得部と、
前記無人機との間の無線通信を利用した通信を行い得る通信部と、
制御部と、
を備え、
前記制御部は、
前記無人機が、前記GPS情報取得部によって取得される前記GPS情報で示される位置に向けて移動する自動航行モードで航行しているときに、前記表示部によって視認可能な視界内に前記無人機が侵入したか否かを判定し、
前記視界内に前記無人機が侵入したと判定されたときに、前記自動航行モードでの航行を前記無人機に対し中止させ、前記自動航行モードとは異なる特定の航行モードで前記無人機を航行させる、頭部装着型表示装置。
A head-mounted display device capable of performing control related to the operation of the drone,
A display that can visually recognize the outside world;
A GPS information acquisition unit for acquiring GPS information;
A communication unit capable of performing communication using wireless communication with the drone; and
A control unit;
With
The controller is
When the drone is navigating in an automatic navigation mode that moves toward the position indicated by the GPS information acquired by the GPS information acquisition unit, the drone is within the field of view visible by the display unit. Determine whether or not
When it is determined that the drone has entered the field of view, the drone is stopped in the automatic navigation mode, and the drone is operated in a specific navigation mode different from the automatic navigation mode. A head-mounted display device.
請求項1に記載の頭部装着型表示装置であって、更に、
前記視界を撮像するカメラを有し、
前記制御部は、
前記カメラの撮像画像を取得し、前記無人機を特定するために予め準備された目的画像と前記撮像画像とをパターンマッチングすることによって、前記無人機が前記視界に侵入したか否かの判定を行う、頭部装着型表示装置。
The head-mounted display device according to claim 1, further comprising:
A camera for imaging the field of view;
The controller is
A determination is made as to whether or not the drone has entered the field of view by acquiring a captured image of the camera and pattern-matching a target image prepared in advance to identify the drone and the captured image. A head mounted display device.
請求項1または請求項2に記載の頭部装着型表示装置であって、更に、
前記無人機から送られてくる無線電波を受信する無線電波受信部を備え、
前記特定の航行モードは、
前記無線電波受信部によって受信される無線電波の強度を測定し、測定した前記強度の変化から航行ルートを定めるモードである、頭部装着型表示装置。
The head-mounted display device according to claim 1 or 2, further comprising:
A radio wave receiver for receiving radio waves sent from the drone,
The specific navigation mode is:
A head-mounted display device that is a mode in which the intensity of a radio wave received by the radio wave receiver is measured and a navigation route is determined from the measured change in the intensity.
請求項1または請求項2に記載の頭部装着型表示装置であって、
前記無人機が、機体の動きを検出する第1慣性センサーを備え、前記第1慣性センサーの検出値を逐次積算することによって、機体の位置を求め、
前記特定の航行モードは、
前記頭部装着型表示装置が、前記無人機が求めた前記機体の位置を取得し、取得した前記機体の位置から航行ルートを定めるモードである、頭部装着型表示装置。
The head-mounted display device according to claim 1 or 2,
The drone includes a first inertial sensor that detects the movement of the aircraft, and obtains the position of the aircraft by sequentially integrating the detection values of the first inertial sensor,
The specific navigation mode is:
The head-mounted display device is a mode in which the head-mounted display device acquires a position of the airframe obtained by the drone and determines a navigation route from the acquired position of the airframe.
請求項4に記載の頭部装着型表示装置であって、更に、
動きを検出する第2慣性センサーを有し、
前記特定の航行モードは、
前記頭部装着型表示装置が、前記第2慣性センサーの検出値を逐次積算することによって、前記頭部装着型表示装置の位置を求め、求めた前記頭部装着型表示装置の位置と、取得した前記機体の位置と、から航行ルートを定めるモードである、頭部装着型表示装置。
The head-mounted display device according to claim 4, further comprising:
A second inertial sensor for detecting movement;
The specific navigation mode is:
The head-mounted display device obtains the position of the head-mounted display device by sequentially integrating the detection values of the second inertial sensor, and obtains the obtained position of the head-mounted display device. A head-mounted display device which is a mode for determining a navigation route from the position of the aircraft.
請求項1または請求項2に記載の頭部装着型表示装置であって、更に、
使用者によって操作され、前記無人機の動きを指示する操作部を有し、
前記特定の航行モードは、
前記頭部装着型表示装置が、前記操作部に対する指示に従って航行ルートを定めるモードである、頭部装着型表示装置。
The head-mounted display device according to claim 1 or 2, further comprising:
Operated by a user, having an operation unit for instructing the movement of the drone,
The specific navigation mode is:
The head-mounted display device, wherein the head-mounted display device is in a mode for determining a navigation route in accordance with an instruction to the operation unit.
請求項6に記載の頭部装着型表示装置であって、
前記表示部は、外界を透過視認可能な表示部であり、
前記制御部は、
前記操作部のための操作画面を前記表示部に表示させ、
前記視界内に前記無人機が侵入したと判定されたときに、前記表示部における前記無人機の位置を推定し、推定された前記位置から離れた位置に前記操作画面を移動させる、頭部装着型表示装置。
The head-mounted display device according to claim 6,
The display unit is a display unit that is visible through the outside world,
The controller is
An operation screen for the operation unit is displayed on the display unit,
A head-mounted device that estimates the position of the drone on the display unit and moves the operation screen to a position away from the estimated position when it is determined that the drone has entered the field of view. Type display device.
請求項1から請求項7までのいずか一項に記載の頭部装着型表示装置であって、
前記GPS情報取得部は、前記GPS情報を受信するGPS受信部を備え、
前記自動航行モードは、前記頭部装着型表示装置へ帰還させるものである、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 7,
The GPS information acquisition unit includes a GPS reception unit that receives the GPS information,
The automatic navigation mode is a head-mounted display device that returns to the head-mounted display device.
請求項1から請求項7までのいずか一項に記載の頭部装着型表示装置であって、
前記GPS情報取得部は、
前記頭部装着型表示装置から離れた位置に備えられたGPS受信部から前記GPS情報を受信する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 7,
The GPS information acquisition unit
A head-mounted display device that receives the GPS information from a GPS receiver provided at a position distant from the head-mounted display device.
無人機の操縦に関する制御を行うことが可能な頭部装着型表示装置の制御方法であって、
前記無人機が、GPS情報で示される位置に向けて移動する自動航行モードで航行しているときに、前記頭部装着型表示装置によって視認可能な視界内に前記無人機が侵入したか否かを判定し、
前記視界内に前記無人機が侵入したと判定されたときに、前記自動航行モードでの航行を前記無人機に対し中止させ、前記自動航行モードとは異なる特定の航行モードで前記無人機を航行させる、頭部装着型表示装置の制御方法。
A method for controlling a head-mounted display device capable of performing control related to the operation of the drone,
Whether the drone has entered the field of view visible by the head-mounted display device when the drone is navigating in the automatic navigation mode that moves toward the position indicated by the GPS information. And
When it is determined that the drone has entered the field of view, the drone is stopped in the automatic navigation mode, and the drone is operated in a specific navigation mode different from the automatic navigation mode. A method for controlling a head-mounted display device.
JP2017062099A 2017-03-28 2017-03-28 Head-mounted display device and control method thereof Pending JP2018165066A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017062099A JP2018165066A (en) 2017-03-28 2017-03-28 Head-mounted display device and control method thereof
CN201810171935.4A CN108664037B (en) 2017-03-28 2018-03-01 Head-mounted display device and method for operating unmanned aerial vehicle
US15/925,381 US11046429B2 (en) 2017-03-28 2018-03-19 Head mounted display and method for maneuvering vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017062099A JP2018165066A (en) 2017-03-28 2017-03-28 Head-mounted display device and control method thereof

Publications (1)

Publication Number Publication Date
JP2018165066A true JP2018165066A (en) 2018-10-25

Family

ID=63922264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017062099A Pending JP2018165066A (en) 2017-03-28 2017-03-28 Head-mounted display device and control method thereof

Country Status (1)

Country Link
JP (1) JP2018165066A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6586257B1 (en) * 2018-08-16 2019-10-02 楽天株式会社 Unmanned aircraft control system, unmanned aircraft control method, and program
WO2020105147A1 (en) * 2018-11-21 2020-05-28 楽天株式会社 Flight path guide system, flight path guide device, and flight path guide method
WO2020110292A1 (en) * 2018-11-30 2020-06-04 楽天株式会社 Display control system, display control device, and display control method
WO2020110293A1 (en) * 2018-11-30 2020-06-04 楽天株式会社 Display control system, display control device, and display control method
JP2020098500A (en) * 2018-12-18 2020-06-25 株式会社リアルグローブ Commanding device
JP2020131768A (en) * 2019-02-13 2020-08-31 株式会社リコー Maneuvering system, maneuvering device, maneuvering control method, and program
WO2020195456A1 (en) * 2019-03-27 2020-10-01 株式会社豊田自動織機 Automated guided vehicle operation system
JP2020165727A (en) * 2019-03-28 2020-10-08 東邦瓦斯株式会社 Inspection equipment
CN113311856A (en) * 2021-05-31 2021-08-27 中煤航测遥感集团有限公司 Unmanned aerial vehicle data management method, device, equipment and storage medium
JP2022113698A (en) * 2018-05-15 2022-08-04 東邦ガスネットワーク株式会社 inspection equipment
JP2023081259A (en) * 2021-11-30 2023-06-09 仁寶電腦工業股▲ふん▼有限公司 Control device for unmanned aircraft and control method thereof

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7250198B2 (en) 2018-05-15 2023-03-31 東邦ガスネットワーク株式会社 inspection equipment
JP2022113698A (en) * 2018-05-15 2022-08-04 東邦ガスネットワーク株式会社 inspection equipment
JP6586257B1 (en) * 2018-08-16 2019-10-02 楽天株式会社 Unmanned aircraft control system, unmanned aircraft control method, and program
WO2020105147A1 (en) * 2018-11-21 2020-05-28 楽天株式会社 Flight path guide system, flight path guide device, and flight path guide method
JPWO2020105147A1 (en) * 2018-11-21 2021-02-15 楽天株式会社 Flight route guidance system, flight route guidance device and flight route guidance method
US12019441B2 (en) 2018-11-30 2024-06-25 Rakuten Group, Inc. Display control system, display control device and display control method
WO2020110293A1 (en) * 2018-11-30 2020-06-04 楽天株式会社 Display control system, display control device, and display control method
US11492115B2 (en) 2018-11-30 2022-11-08 Rakuten Group, Inc. Unmanned aerial vehicle display control system, display control device and display control method
CN112105559A (en) * 2018-11-30 2020-12-18 乐天株式会社 Display control system, display control device, and display control method
CN112119013A (en) * 2018-11-30 2020-12-22 乐天株式会社 Display control system, display control device and display control method
JPWO2020110292A1 (en) * 2018-11-30 2021-02-15 楽天株式会社 Display control system, display control device and display control method
JPWO2020110293A1 (en) * 2018-11-30 2021-02-15 楽天株式会社 Display control system, display control device and display control method
WO2020110292A1 (en) * 2018-11-30 2020-06-04 楽天株式会社 Display control system, display control device, and display control method
JP2020098500A (en) * 2018-12-18 2020-06-25 株式会社リアルグローブ Commanding device
JP2020131768A (en) * 2019-02-13 2020-08-31 株式会社リコー Maneuvering system, maneuvering device, maneuvering control method, and program
JP2020160911A (en) * 2019-03-27 2020-10-01 株式会社豊田自動織機 Operation system for automatic guided vehicle
WO2020195456A1 (en) * 2019-03-27 2020-10-01 株式会社豊田自動織機 Automated guided vehicle operation system
JP7051743B2 (en) 2019-03-28 2022-04-11 東邦瓦斯株式会社 Inspection equipment
JP2020165727A (en) * 2019-03-28 2020-10-08 東邦瓦斯株式会社 Inspection equipment
CN113311856A (en) * 2021-05-31 2021-08-27 中煤航测遥感集团有限公司 Unmanned aerial vehicle data management method, device, equipment and storage medium
JP2023081259A (en) * 2021-11-30 2023-06-09 仁寶電腦工業股▲ふん▼有限公司 Control device for unmanned aircraft and control method thereof
US11921523B2 (en) 2021-11-30 2024-03-05 Compal Electronics, Inc. Control device for unmanned aerial vehicle and control method therefor
JP7482923B2 (en) 2021-11-30 2024-05-14 仁寶電腦工業股▲ふん▼有限公司 Unmanned aerial vehicle control device and control method thereof

Similar Documents

Publication Publication Date Title
CN108664037B (en) Head-mounted display device and method for operating unmanned aerial vehicle
US10972668B2 (en) Display device and control method for display device
JP2018165066A (en) Head-mounted display device and control method thereof
JP6919206B2 (en) Display device and control method of display device
US10310502B2 (en) Head-mounted display device, control method therefor, and computer program
US10643390B2 (en) Head mounted display, method for controlling head mounted display, and computer program
JP7087481B2 (en) Head-mounted display device, display control method, and computer program
US11025826B2 (en) Display system, display device, and control method for display device
JP7003633B2 (en) Transparent display device, display control method, and computer program
US11804052B2 (en) Method for setting target flight path of aircraft, target flight path setting system, and program for setting target flight path
JP2019164420A (en) Transmission type head-mounted display device, control method of transmission type head-mounted display device, and computer program for control of transmission type head-mounted display device
JP2019081456A (en) Head-mounted type display device and steering method of unmanned aircraft
US12243187B2 (en) Eyewear synchronized with UAV image capturing system
JP2017182413A (en) Head-mounted display device, control method therefor, and computer program
JP2018067160A (en) Head-mounted display device and control method therefor, and computer program
JP2017134630A (en) Display device, display device control method, and program
JP2017182460A (en) Head-mounted display device, head-mounted display device control method, computer program
US12314465B2 (en) Eyewear controlling an UAV