[go: up one dir, main page]

JP2017058840A - Display system, display device control method, and program - Google Patents

Display system, display device control method, and program Download PDF

Info

Publication number
JP2017058840A
JP2017058840A JP2015181843A JP2015181843A JP2017058840A JP 2017058840 A JP2017058840 A JP 2017058840A JP 2015181843 A JP2015181843 A JP 2015181843A JP 2015181843 A JP2015181843 A JP 2015181843A JP 2017058840 A JP2017058840 A JP 2017058840A
Authority
JP
Japan
Prior art keywords
display
unit
display device
control unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015181843A
Other languages
Japanese (ja)
Other versions
JP6740584B2 (en
Inventor
小林 伸一
Shinichi Kobayashi
伸一 小林
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015181843A priority Critical patent/JP6740584B2/en
Priority to US14/976,761 priority patent/US20160196693A1/en
Priority to CN201511030028.0A priority patent/CN105759422B/en
Priority to EP16150303.2A priority patent/EP3043237A1/en
Publication of JP2017058840A publication Critical patent/JP2017058840A/en
Application granted granted Critical
Publication of JP6740584B2 publication Critical patent/JP6740584B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】使用者の頭部に装着される表示装置を、より直感的な入力操作により制御できる表示システム、表示装置の制御方法、及び、プログラムを提供する。【解決手段】頭部装着型表示装置100は、使用者の頭部に装着される表示部を有する頭部装着型表示装置100と、表示部とは別体として構成される操作デバイス3とを備える。頭部装着型表示装置100は、操作デバイス3に対応して、画像表示部20を透過する外景に関連するAR表示を、画像表示部20によって行う。【選択図】図1PROBLEM TO BE SOLVED: To provide a display system capable of controlling a display device worn on a user's head by a more intuitive input operation, a control method of the display device, and a program. A head-mounted display device 100 includes a head-mounted display device 100 having a display unit mounted on a user's head, and an operation device 3 configured as a separate body from the display unit. Be prepared. The head-mounted display device 100 corresponds to the operation device 3 and performs AR display related to the outside view transmitted through the image display unit 20 by the image display unit 20. [Selection diagram] Fig. 1

Description

本発明は、表示装置を備える表示システム、表示装置の制御方法、及び、プログラムに関する。   The present invention relates to a display system including a display device, a control method for the display device, and a program.

従来、使用者が頭部に装着して使用するヘッドマウントディスプレイ(Head Mounted Display:HMD)等の表示装置に対する入力操作の方法として、手指に装置を装着し、この装置により手指の動きを検出する方法が提案された(例えば、特許文献1、2参照)。特許文献1には、指に装着される装置を利用してテキスト入力を行う構成が開示されている。また、特許文献2には、HMDと指に装着される発光体とを用いて、マウスと同等の操作を行う構成が開示されている。   2. Description of the Related Art Conventionally, as an input operation method for a display device such as a head mounted display (HMD) used by a user wearing on the head, the device is attached to a finger, and the movement of the finger is detected by this device. A method has been proposed (see, for example, Patent Documents 1 and 2). Patent Document 1 discloses a configuration for inputting text using a device worn on a finger. Patent Document 2 discloses a configuration in which an operation equivalent to that of a mouse is performed using an HMD and a light emitter that is worn on a finger.

特開2000−284886号公報JP 2000-284886 A 特開2000−29619号公報JP 2000-29619 A

HMDにおいてテキスト入力やマウスと同等の入力操作を行う場合、誤入力があると、使用者の意図に反した結果を招く。このため、使用者は、入力される文字、或いは、指示位置を示すカーソルを注視して、正確で誤りの無いように操作を行う。このため、使用者には、表示装置の表示に注視して慎重に操作することが求められ、より直感的な操作でHMDを制御できる方法が望まれていた。
本発明は上記事情に鑑みてなされたものであり、使用者の頭部に装着される表示装置を、より直感的な入力操作により制御できる表示システム、表示装置の制御方法、及び、プログラムを提供することを目的とする。
When an input operation equivalent to a text input or a mouse is performed in the HMD, if there is an erroneous input, a result contrary to the user's intention is brought about. For this reason, the user pays attention to the input character or the cursor indicating the indicated position, and performs an operation so as to be accurate and error-free. For this reason, the user is required to pay careful attention to the display on the display device and carefully operate it, and a method capable of controlling the HMD with a more intuitive operation is desired.
The present invention has been made in view of the above circumstances, and provides a display system, a display device control method, and a program capable of controlling a display device mounted on a user's head by a more intuitive input operation. The purpose is to do.

上記目的を達成するために、本発明の表示システムは、使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部を有する表示装置と、前記表示部とは別体として構成される操作対象物とを備え、前記表示装置は、前記操作対象物に対応して、前記表示部を透過する前記外景に関連するAR表示を前記表示部によって行う制御部を備えること、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置が、表示装置とは別体の操作デバイスの操作に対応して、外景に関連するAR表示を行うので、直感的な入力操作によってAR表示を制御できる。
In order to achieve the above object, a display system according to the present invention includes a display device that is mounted on a user's head and has a transmissive display unit that allows the user to see through the outside scene, and the display unit. And an operation object configured as a separate body, and the display device includes a control unit that performs AR display related to the outside scene that is transmitted through the display unit by the display unit, corresponding to the operation object. It is characterized by providing.
According to the present invention, since the display device mounted on the user's head performs AR display related to the outside scene in response to the operation of the operation device separate from the display device, intuitive input operation Can control the AR display.

本発明は、上記表示システムにおいて、前記表示装置は、前記操作対象物に対応付けられた制御対象対応画像を、前記操作対象物に関連付けて前記表示部によってAR表示すること、を特徴とする。
本発明によれば、操作対象物の操作に関する情報を、直感的に把握しやすい形態で表示できる。
The present invention is characterized in that, in the display system, the display device displays the control target corresponding image associated with the operation target in an AR display by the display unit in association with the operation target.
According to the present invention, it is possible to display information related to the operation of the operation target in a form that is easy to grasp intuitively.

また、本発明は、上記表示システムにおいて、前記操作対象物は、前記使用者の操作を受け付ける操作部と、前記操作部が受け付けた操作を示すデータを前記表示装置に送信する通信部と、を備えた操作デバイスであり、前記表示装置の前記制御部は、前記操作デバイスの操作に基づき、前記表示部によってAR表示を行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置が、表示装置とは別体の操作デバイスの操作を速やかに検出し、この操作に対応するAR表示を行うことができる。
In the display system according to the present invention, the operation target includes an operation unit that receives an operation of the user, and a communication unit that transmits data indicating the operation received by the operation unit to the display device. The control unit of the display device performs AR display by the display unit based on an operation of the operation device.
According to the present invention, a display device mounted on a user's head can quickly detect an operation of an operation device separate from the display device, and can perform an AR display corresponding to the operation.

本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスの操作に基づき、前記操作部に対応付けられた態様で、前記表示部を透過する前記外景に関連するAR表示を前記表示部によって行うこと、を特徴とする。
本発明によれば、操作デバイスにおける操作を、表示装置において確実に検出できる。また、操作の検出に係る表示装置の負荷を軽減できる。
According to the present invention, in the display system, the control unit of the display device displays an AR display related to the outside scene that is transmitted through the display unit in a mode associated with the operation unit based on an operation of the operation device. Is performed by the display unit.
According to the present invention, the operation on the operation device can be reliably detected in the display device. Further, it is possible to reduce the load on the display device related to the operation detection.

本発明は、上記表示システムにおいて、前記制御部は、前記操作デバイスから送信されるデータに基づいて前記操作部の操作を検出し、検出した操作に対応して、前記表示部に表示中の前記AR表示を変更すること、を特徴とする。
本発明によれば、AR表示を行っている間に、操作デバイスを操作することにより、AR表示を変更させることができる。
According to the present invention, in the display system, the control unit detects an operation of the operation unit based on data transmitted from the operation device, and the display unit displays the operation corresponding to the detected operation. It is characterized by changing the AR display.
According to the present invention, the AR display can be changed by operating the operation device while the AR display is being performed.

本発明は、上記表示システムにおいて、前記制御部は、前記操作部に対する前記AR表示の割り当てを設定可能であってもよい。
この場合において、前記制御部は、前記操作部に対する前記AR表示の割り当てを更新する処理を実行可能であってもよい。
In the display system according to the present invention, the control unit may be capable of setting the allocation of the AR display to the operation unit.
In this case, the control unit may be capable of executing a process for updating the allocation of the AR display to the operation unit.

本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスと前記表示装置との相対位置を求め、求めた相対位置に基づき前記表示部でAR表示を行うこと、を特徴とする。
本発明によれば、操作デバイスと表示装置との相対位置に対応して表示を制御できる。
In the display system according to the present invention, the control unit of the display device obtains a relative position between the operation device and the display device, and performs AR display on the display unit based on the obtained relative position. And
According to the present invention, display can be controlled corresponding to the relative position between the operation device and the display device.

本発明は、上記表示システムにおいて、前記操作部は接触操作を検出するタッチ操作部を備え、前記タッチ操作部は複数の操作領域を有し、前記制御部は、前記タッチ操作部で操作された操作領域に割り当てられた前記AR表示を、前記表示部によって表示すること、を特徴とする。
本発明によれば、操作デバイスでタッチ操作を行うことにより、AR表示に対する様々な操作が可能となる。
In the display system according to the aspect of the invention, the operation unit includes a touch operation unit that detects a contact operation, the touch operation unit includes a plurality of operation areas, and the control unit is operated by the touch operation unit. The AR display assigned to the operation area is displayed by the display unit.
According to the present invention, various operations for AR display can be performed by performing a touch operation with an operation device.

本発明は、上記表示システムにおいて、前記操作デバイスが有する前記操作部は、前記操作デバイスの動きを操作として検出すること、を特徴とする。
本発明によれば、操作デバイスを動かすことで表示装置に対する操作を行える。
The present invention is characterized in that, in the display system, the operation unit of the operation device detects a movement of the operation device as an operation.
According to the present invention, the display device can be operated by moving the operation device.

本発明は、上記表示システムにおいて、前記操作デバイスは撮像部を備え、前記撮像部の撮像画像を含むデータを前記通信部により前記表示装置に送信すること、を特徴とする。
本発明によれば、表示装置とは別体の操作デバイスで撮像を行い、撮像画像を表示装置で表示できる。
The present invention is characterized in that, in the display system, the operation device includes an imaging unit, and data including a captured image of the imaging unit is transmitted to the display device by the communication unit.
According to the present invention, it is possible to capture an image with an operation device separate from the display device and display the captured image on the display device.

上記目的を達成するために、本発明の表示システムは、使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部を有する表示装置と、前記表示部とは別体として構成される操作対象物とを備え、前記表示装置は、前記操作対象物への操作に基づき、前記表示部により表示する制御画面を遷移させる処理を含む表示制御を行う制御部を備えること、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置に対し、表示装置とは別体の操作デバイスの操作に応じて画面を遷移させるので、より直感的な入力操作により表示装置を制御できる。
In order to achieve the above object, a display system according to the present invention includes a display device that is mounted on a user's head and has a transmissive display unit that allows the user to see through the outside scene, and the display unit. And a control unit that performs display control including a process of transitioning a control screen displayed by the display unit based on an operation on the operation target. It is characterized by providing.
According to the present invention, the screen is changed according to the operation of the operation device separate from the display device with respect to the display device mounted on the user's head. Can be controlled.

本発明は、上記表示システムにおいて、前記操作対象物は、前記使用者の操作を受け付ける操作部を備える操作デバイスであること、を特徴とする。
本発明によれば、表示装置とは別体の操作デバイスに対する操作を検出できる。
In the display system according to the present invention, the operation target is an operation device including an operation unit that receives an operation of the user.
According to the present invention, it is possible to detect an operation on an operation device separate from the display device.

本発明は、上記表示システムにおいて、前記操作デバイスは、前記操作部が受け付けた操作を示すデータを前記表示装置に送信する通信部を備え、前記表示装置の前記制御部は、前記操作デバイスから送信されるデータに基づき、前記操作デバイスの操作を検出すること、を特徴とする。
本発明によれば、操作デバイスにおける操作を、表示装置において確実に検出できる。また、操作の検出に係る表示装置の負荷を軽減できる。
In the display system according to the aspect of the invention, the operation device includes a communication unit that transmits data indicating the operation accepted by the operation unit to the display device, and the control unit of the display device transmits the data from the operation device. The operation of the operation device is detected based on the data to be processed.
According to the present invention, the operation on the operation device can be reliably detected in the display device. Further, it is possible to reduce the load on the display device related to the operation detection.

本発明は、上記表示システムにおいて、前記操作デバイスが有する前記操作部は、回転を伴う操作を検出し、前記表示装置の前記制御部は、前記操作デバイスから回転を伴う操作を示すデータが送信された場合に、前記操作の回転方向に対応して、前記表示部により表示する画面を遷移させること、を特徴とする。
本発明によれば、回転を伴う操作により、回転方向に対応して表示される画面が遷移するので、より直感的な操作を実現できる。また、操作の方向と画面の遷移の方向とが対応するため、例えば手探りの操作を行うことが可能となる。
In the display system according to the aspect of the invention, the operation unit included in the operation device detects an operation involving rotation, and the control unit of the display device transmits data indicating the operation accompanied by rotation from the operation device. In this case, the screen displayed by the display unit is changed corresponding to the rotation direction of the operation.
According to the present invention, since the screen displayed corresponding to the rotation direction is changed by an operation involving rotation, a more intuitive operation can be realized. Further, since the direction of operation corresponds to the direction of transition of the screen, for example, a groping operation can be performed.

本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスから送信されるデータに基づき、前記表示部により表示する画像の拡大、縮小或いは回転のいずれかを含む表示制御を行うこと、を特徴とする。
本発明によれば、直感的な操作により表示装置が表示する画像の表示制御が可能となる。
In the display system according to the aspect of the invention, the control unit of the display device performs display control including any of enlargement, reduction, and rotation of an image displayed by the display unit based on data transmitted from the operation device. It is characterized by performing.
According to the present invention, it is possible to control display of an image displayed on a display device through an intuitive operation.

本発明は、上記表示システムにおいて、前記表示装置は、前記操作デバイスに出力用のデータを送信し、前記操作デバイスは、前記表示装置が送信する出力用のデータを前記通信部で受信し、受信した出力用のデータを出力すること、を特徴とする。
本発明によれば、操作デバイスを、データを出力する装置として利用できる。
In the display system according to the aspect of the invention, the display device transmits output data to the operation device, and the operation device receives the output data transmitted from the display device at the communication unit, and receives the output data. The output data is output.
According to the present invention, the operation device can be used as an apparatus for outputting data.

本発明は、上記表示システムにおいて、前記操作デバイスは撮像部を備え、前記撮像部の撮像画像を含むデータを前記通信部により前記表示装置に送信すること、を特徴とする。
本発明によれば、表示装置とは別体の操作デバイスで撮像を行い、撮像画像を表示装置で表示できる。
The present invention is characterized in that, in the display system, the operation device includes an imaging unit, and data including a captured image of the imaging unit is transmitted to the display device by the communication unit.
According to the present invention, it is possible to capture an image with an operation device separate from the display device and display the captured image on the display device.

本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスから撮像画像を含むデータを受信し、受信したデータに基づいて、前記操作デバイスと前記表示装置との相対位置を求めること、を特徴とする。
本発明によれば、操作デバイスと表示装置との相対位置を速やかに求めることができる。
According to the present invention, in the display system, the control unit of the display device receives data including a captured image from the operation device, and determines a relative position between the operation device and the display device based on the received data. It is characterized by seeking.
According to the present invention, the relative position between the operation device and the display device can be quickly obtained.

本発明は、上記表示システムにおいて、前記操作デバイスが有する前記操作部は、前記操作デバイスの動きを操作として検出すること、を特徴とする。
本発明によれば、操作デバイスを動かすことで表示装置に対する操作を行える。
The present invention is characterized in that, in the display system, the operation unit of the operation device detects a movement of the operation device as an operation.
According to the present invention, the display device can be operated by moving the operation device.

本発明は、上記表示システムにおいて、前記表示装置の前記制御部は、前記操作デバイスと前記表示装置との相対位置を求め、求めた相対位置に基づき前記表示部の表示を制御すること、を特徴とする。
本発明によれば、操作デバイスと表示装置との相対位置に対応して表示を制御できる。
The present invention is characterized in that, in the display system, the control unit of the display device obtains a relative position between the operation device and the display device, and controls display of the display unit based on the obtained relative position. And
According to the present invention, display can be controlled corresponding to the relative position between the operation device and the display device.

本発明は、上記表示システムにおいて、前記表示装置は撮像部を備え、前記制御部は、前記撮像部の撮像画像に基づいて、前記操作デバイスと前記表示装置との相対位置を求めること、を特徴とする。
本発明によれば、操作デバイスと表示装置との相対位置を速やかに求めることができる。
In the display system according to the present invention, the display device includes an imaging unit, and the control unit obtains a relative position between the operation device and the display device based on a captured image of the imaging unit. And
According to the present invention, the relative position between the operation device and the display device can be quickly obtained.

本発明は、上記表示システムにおいて、前記表示部は、外景を透過して前記使用者に視認させる透過型の表示部であること、を特徴とする。
本発明によれば、使用者が外景を見ながら操作デバイスを操作して、表示装置の表示を制御できる。表示装置のみを注視せず、直感的に操作できるため、外景を見ながら表示装置を使用する場合に好適である。
The present invention is characterized in that, in the above display system, the display unit is a transmissive display unit that allows the user to visually recognize an outside scene.
According to the present invention, the user can control the display of the display device by operating the operation device while looking at the outside scene. Since it can be operated intuitively without gazing at only the display device, it is suitable when the display device is used while looking at the outside scene.

本発明は、上記表示システムにおいて、前記操作デバイスは、前記使用者の身体に装着される装着部を有すること、を特徴とする。
本発明によれば、使用者の身体に装着される操作デバイスを用いて、より直感的な入力操作を行い、表示装置を制御できる。
The present invention is characterized in that, in the above display system, the operation device has a mounting portion to be mounted on the user's body.
ADVANTAGE OF THE INVENTION According to this invention, more intuitive input operation can be performed using the operation device with which a user's body is mounted | worn, and a display apparatus can be controlled.

本発明は、上記表示システムにおいて、前記表示装置が備える前記制御部は、前記操作対象物を検出した場合に、前記操作対象物に対応付けられた制御対象対応画像を、前記操作対象物に対応して前記表示部に表示すること、を特徴とする。
本発明によれば、表示装置とは別体の操作対象物に関する情報を、使用者にわかりやすく提供できる。
In the display system according to the aspect of the invention, when the control unit included in the display device detects the operation target, the control target corresponding image associated with the operation target corresponds to the operation target. And displaying on the display unit.
ADVANTAGE OF THE INVENTION According to this invention, the information regarding the operation target separate from a display apparatus can be provided in a user-friendly manner.

本発明は、上記表示システムにおいて、前記表示装置が備える前記制御部は、前記制御対象対応画像を表示した前記操作対象物に対する操作を検出した場合に、操作内容と前記制御対象対応画像とに対応する処理を実行すること、を特徴とする。
本発明によれば、操作対象物に対する操作に対応して表示装置が処理を実行するので、操作対象物を使用して直感的な操作を実現できる。
In the display system according to the aspect of the invention, when the control unit included in the display device detects an operation on the operation target object that displays the control target corresponding image, the control unit corresponds to the operation content and the control target corresponding image. It is characterized by executing a process to perform.
According to the present invention, since the display device executes processing in response to an operation on the operation target, an intuitive operation can be realized using the operation target.

本発明は、上記表示システムにおいて、前記表示装置は、前記操作対象物に対する操作を検出する検出部を備えること、を特徴とする。
本発明によれば、操作対象物に対する操作を表示装置が速やかに検出できる。また、操作対象物が通信機能を有していなくても、表示装置が操作対象物の操作に対応して処理を実行できる。
The present invention is characterized in that, in the display system, the display device includes a detection unit that detects an operation on the operation target.
According to the present invention, the display device can quickly detect an operation on the operation target. Moreover, even if the operation target does not have a communication function, the display device can execute processing corresponding to the operation of the operation target.

本発明は、上記表示システムにおいて、前記表示装置は撮像部を備え、前記制御部は、前記撮像部の撮像画像に基づいて前記操作対象物を検出し、前記操作対象物に対する操作を検出すること、を特徴とする。
本発明によれば、操作対象物が通信を実行しなくても、表示装置が操作対象物を検出し、操作対象物に対する操作を検出できる。
In the display system according to the aspect of the invention, the display device includes an imaging unit, and the control unit detects the operation target based on a captured image of the imaging unit, and detects an operation on the operation target. It is characterized by.
According to the present invention, even if the operation target does not execute communication, the display device can detect the operation target and detect an operation on the operation target.

本発明は、上記表示システムにおいて、前記表示装置は、前記操作対象物が有する操作部に対応する操作用の画像をAR表示するためのAR表示用のデータを記憶するデータ記憶部を備え、前記制御部は、前記データ記憶部が記憶する前記AR表示用のデータを変更可能であること、を特徴とする。
本発明によれば、操作対象物に対応してAR表示を行う機能について、データを変更できるので、新しい操作対象物や未知の操作対象物に対応するようデータを変更できる。これにより、AR表示の対象とする操作対象物に関する制約を減らすことができ、利便性の向上を図ることができる。
In the display system according to the present invention, the display device includes a data storage unit that stores data for AR display for AR display of an operation image corresponding to the operation unit included in the operation target, The control unit can change the AR display data stored in the data storage unit.
According to the present invention, since the data can be changed for the function of performing the AR display corresponding to the operation target, the data can be changed to correspond to a new operation target or an unknown operation target. Thereby, the restrictions regarding the operation target object which is the target of AR display can be reduced, and the convenience can be improved.

本発明は、上記表示システムにおいて、前記データ記憶部が記憶する前記AR表示用のデータは、前記操作用の画像と前記操作対象物が有する前記操作部とを対応付けるデータを含み、前記制御部は、前記データ記憶部が記憶する前記AR表示用のデータにおいて、前記操作用の画像と前記操作対象物が有する前記操作部との対応を変更可能であること、を特徴とする。
本発明によれば、操作対象物とAR表示との対応を変更可能である。
In the display system, the AR display data stored in the data storage unit includes data that associates the operation image with the operation unit included in the operation target, and the control unit includes: In the AR display data stored in the data storage unit, the correspondence between the operation image and the operation unit included in the operation object can be changed.
According to the present invention, the correspondence between the operation object and the AR display can be changed.

また、上記目的を達成するために、本発明は、使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部を有する表示装置を制御する制御部が実行可能なプログラムであって、前記制御部により、前記表示部とは別体として構成される操作対象物を検出し、前記操作対象物が備える操作部を検出し、検出した前記操作対象物の操作部に対応する位置に、操作用の画像を表示し、前記操作用の画像に関する操作を検出し、操作を検出した前記操作用の画像に対応する処理を実行すること、を特徴とする。
本発明によれば、使用者の頭部に装着される表示装置が、表示装置とは別体の操作対象物に対応する操作用の画像を表示し、この操作用の画像に関する操作に応じて処理を実行する。このため、操作対象物を利用して表示装置に処理を実行させることが可能となり、表示装置に対する直感的な操作が可能となる。
In order to achieve the above object, the present invention is implemented by a control unit that controls a display device that is mounted on the user's head and has a transmissive display unit that allows the user to see through the outside scene. The control unit detects an operation target configured as a separate body from the display unit, detects an operation unit included in the operation target, and operates the detected operation target An operation image is displayed at a position corresponding to the unit, an operation related to the operation image is detected, and processing corresponding to the operation image from which the operation has been detected is executed.
According to the present invention, the display device mounted on the user's head displays an operation image corresponding to an operation target separate from the display device, and according to an operation related to the operation image. Execute the process. For this reason, it becomes possible to make a display apparatus perform a process using an operation target object, and intuitive operation with respect to a display apparatus is attained.

また、上記目的を達成するために、本発明は、使用者の頭部に装着される表示部を有する表示装置を制御するコンピューターが実行可能なプログラムであって、前記表示部とは別体として構成される操作対象物が前記使用者の操作を受け付けた場合に、前記操作対象物の操作に基づき、前記表示部を透過する外景に関連するAR表示を前記表示部によって行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示部を有する表示装置が、外景に関連するAR表示を行う際に、表示装置とは別体の操作対象物の操作を反映する。このため、直感的な入力操作によってAR表示を制御できる。
In order to achieve the above object, the present invention is a program executable by a computer for controlling a display device having a display unit mounted on a user's head, which is separate from the display unit. When the configured operation target receives an operation of the user, the display unit performs AR display related to an outside scene that is transmitted through the display unit based on the operation of the operation target. To do.
According to the present invention, when a display device having a display unit mounted on a user's head performs AR display related to an outside scene, the operation of an operation target separate from the display device is reflected. For this reason, the AR display can be controlled by an intuitive input operation.

また、上記目的を達成するために、本発明の表示装置の制御方法は、使用者の頭部に装着される表示部を有する表示装置を、前記表示部とは別体として構成される操作対象物を用いて制御する制御方法において、前記操作対象物の操作部により前記使用者の操作を受け付け、前記表示装置により、前記操作対象物の操作に基づき、前記表示部を透過する外景に関連するAR表示を前記表示部によって行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示部を有する表示装置が、外景に関連するAR表示を行う際に、表示装置とは別体の操作対象物の操作を反映する。このため、直感的な入力操作によってAR表示を制御できる。
In order to achieve the above object, a method for controlling a display device according to the present invention includes: a display device having a display unit mounted on a user's head; an operation target configured separately from the display unit. In a control method using an object, the operation unit of the operation object receives an operation of the user, and the display device is related to an outside scene that is transmitted through the display unit based on the operation of the operation object. The AR display is performed by the display unit.
According to the present invention, when a display device having a display unit mounted on a user's head performs AR display related to an outside scene, the operation of an operation target separate from the display device is reflected. For this reason, the AR display can be controlled by an intuitive input operation.

また、上記目的を達成するために、本発明は、使用者の頭部に装着される表示部を有する表示装置を制御するコンピューターが実行可能なプログラムであって、前記表示部とは別体として構成される操作対象物が前記使用者の操作を受け付けた場合に、前記操作対象物の操作に基づき、前記表示部により表示する画面を遷移させる処理を含む表示制御を行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示部を有する表示装置に対し、表示装置とは別体の操作対象物を操作し、画面を遷移させるので、より直感的な入力操作により表示装置を制御できる。
In order to achieve the above object, the present invention is a program executable by a computer for controlling a display device having a display unit mounted on a user's head, which is separate from the display unit. When a configured operation target receives an operation of the user, display control including a process of transitioning a screen displayed by the display unit is performed based on the operation of the operation target. .
According to the present invention, for a display device having a display unit mounted on the user's head, an operation object separate from the display device is operated and the screen is changed. Thus, the display device can be controlled.

また、上記目的を達成するために、本発明のサーバー装置は、通信回線に接続され、上記のプログラムを前記通信回線により送信すること、を特徴とする。
本発明によれば、使用者の頭部に装着される表示部を有する表示装置に対し、表示装置とは別体の操作対象物を操作し、画面を遷移させるので、より直感的な入力操作により表示装置を制御できる。
In order to achieve the above object, the server device of the present invention is connected to a communication line, and transmits the above program through the communication line.
According to the present invention, for a display device having a display unit mounted on the user's head, an operation object separate from the display device is operated and the screen is changed. Thus, the display device can be controlled.

また、上記目的を達成するために、本発明の表示装置の制御方法は、使用者の頭部に装着される表示部を有する表示装置を、前記表示部とは別体として構成される操作対象物を用いて制御する制御方法において、前記操作対象物により前記使用者の操作を受け付け、受け付けた操作を示すデータを前記表示部に送信し、前記表示装置により、前記操作対象物から送信されるデータに基づき、前記表示部により表示する画面を他の画面に遷移させる処理を含む表示制御を行うこと、を特徴とする。
本発明によれば、使用者の頭部に装着される表示部を有する表示装置に対し、表示装置とは別体の操作対象物を操作し、画面を遷移させるので、より直感的な入力操作により表示装置を制御できる。
In order to achieve the above object, a method for controlling a display device according to the present invention includes: a display device having a display unit mounted on a user's head; an operation target configured separately from the display unit. In a control method for controlling using an object, the user's operation is accepted by the operation object, data indicating the accepted operation is transmitted to the display unit, and transmitted from the operation object by the display device Based on the data, display control including a process of transitioning the screen displayed by the display unit to another screen is performed.
According to the present invention, for a display device having a display unit mounted on the user's head, an operation object separate from the display device is operated and the screen is changed. Thus, the display device can be controlled.

本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置の制御方法、頭部装着型表示装置を有する情報システム、頭部装着型表示装置の制御方法および前記情報システムを実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、コンピュータープログラムを配信するためのサーバー装置、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。   The present invention can also be realized in various forms other than the head-mounted display device. For example, a head-mounted display device control method, an information system having a head-mounted display device, a head-mounted display device control method, a computer program for realizing the information system, and the computer program recorded The present invention can be realized in the form of a recording medium, a server device for distributing a computer program, a data signal including the computer program and embodied in a carrier wave.

実施形態に係る表示システムの概略構成を示す説明図。Explanatory drawing which shows schematic structure of the display system which concerns on embodiment. 操作デバイスの構成を示す説明図。Explanatory drawing which shows the structure of an operation device. 操作デバイスの機能ブロック図。The functional block diagram of an operation device. 頭部装着型表示装置の機能ブロック図。The functional block diagram of a head mounted type display apparatus. 操作デバイスの動作を示すフローチャート。The flowchart which shows operation | movement of an operation device. 頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation | movement of a head mounting | wearing type display apparatus. 設定用のAR表示の例を示す説明図。Explanatory drawing which shows the example of AR display for a setting. 操作デバイスの操作に応じて実行される処理の例を示す図。The figure which shows the example of the process performed according to operation of an operation device. 頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation | movement of a head mounting | wearing type display apparatus. 頭部装着型表示装置の動作の別の例を示すフローチャート。The flowchart which shows another example of operation | movement of a head mounted type display apparatus. 操作デバイスの操作に応じて実行される処理の例を示す図。The figure which shows the example of the process performed according to operation of an operation device. 操作デバイスの操作に応じて実行される処理の別の例を示す図。The figure which shows another example of the process performed according to operation of an operation device. 操作対象物の構成例を示す説明図。Explanatory drawing which shows the structural example of the operation target object. 操作対象物の別の構成例を示す説明図。Explanatory drawing which shows another structural example of an operation target object. 頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation | movement of a head mounting | wearing type display apparatus. 操作対象物に対応するAR表示の例を示す説明図。Explanatory drawing which shows the example of AR display corresponding to an operation target object. 操作対象物に対応するAR表示の別の例を示す説明図。Explanatory drawing which shows another example of AR display corresponding to an operation target object. 記憶部が記憶するデータの構成例を示す図。The figure which shows the structural example of the data which a memory | storage part memorize | stores. ARコンテンツデータを編集する処理を示すフローチャート。The flowchart which shows the process which edits AR content data. ARコンテンツデータをダウンロードする処理を示すフローチャート。The flowchart which shows the process which downloads AR content data. ARコンテンツデータをダウンロードする処理を示すフローチャート。The flowchart which shows the process which downloads AR content data.

[システム構成]
図1は、本発明を適用した実施形態に係る表示システム1の概略構成を示す図である。
表示システム1は、使用者の身体に装着される頭部装着型表示装置100及び操作デバイス3を備える。
頭部装着型表示装置100は、図1に示すように、使用者の頭部に装着される画像表示部20を有する。頭部装着型表示装置100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備えている。画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状のフレーム2(本体)を有する。また、制御装置10は、使用者が頭部装着型表示装置100を操作するコントローラーとしても機能する。制御装置10は、使用者の衣服のポケットに収容され、或いは、使用者の腰のベルトに取り付けられる。
また、操作デバイス3は、使用者の身体に装着可能な、いわゆるウェアラブルデバイスであり、本実施形態では使用者の腕に装着される腕時計状の形状とする。
[System configuration]
FIG. 1 is a diagram showing a schematic configuration of a display system 1 according to an embodiment to which the present invention is applied.
The display system 1 includes a head-mounted display device 100 and an operation device 3 that are worn on a user's body.
As shown in FIG. 1, the head-mounted display device 100 includes an image display unit 20 that is mounted on the user's head. The head-mounted display device 100 includes an image display unit 20 (display unit) that allows the user to visually recognize a virtual image while being mounted on the user's head, and a control device 10 that controls the image display unit 20. I have. The image display unit 20 is a mounting body to be mounted on the user's head, and has a glasses-shaped frame 2 (main body) in the present embodiment. The control device 10 also functions as a controller for the user to operate the head-mounted display device 100. The control device 10 is accommodated in the pocket of the user's clothes or attached to the belt on the user's waist.
The operation device 3 is a so-called wearable device that can be worn on the user's body. In the present embodiment, the operation device 3 has a watch-like shape that is worn on the user's arm.

[操作デバイスの構成]
図2は、操作デバイス3の構成を示す説明図であり、図2(A)は操作デバイス3の要部正面図であり、(B)及び(C)はLCD303の表示例を示す図である。また、図3は操作デバイス3の機能ブロック図である。これら図1〜図3を参照して操作デバイス3の構成を説明する。
[Operation device configuration]
FIG. 2 is an explanatory diagram showing a configuration of the operation device 3, FIG. 2A is a front view of a main part of the operation device 3, and FIGS. 2B and 2C are diagrams showing display examples on the LCD 303. . FIG. 3 is a functional block diagram of the operation device 3. The configuration of the operation device 3 will be described with reference to FIGS.

操作デバイス3は、腕時計のバンドと同様の形状であるバンド部300を有する。バンド部300は、図示しないバックル等の固定部を有し、例えば使用者の前腕部に巻き付けて固定できる。操作デバイス3のバンド部300には、時計の文字盤に相当する位置に、略円盤状の平面部300Aが形成される。平面部300Aには、ベゼル301、LCD303、ボタン305、リュウズ型操作子307、複数のボタン309、及び光学部310が設けられる。   The operation device 3 has a band portion 300 having a shape similar to that of a wristwatch band. The band part 300 has a fixing part such as a buckle (not shown), and can be wound and fixed around, for example, a user's forearm. In the band portion 300 of the operation device 3, a substantially disc-shaped plane portion 300A is formed at a position corresponding to a dial of a watch. The plane portion 300A is provided with a bezel 301, an LCD 303, a button 305, a crown-type operation element 307, a plurality of buttons 309, and an optical unit 310.

ベゼル301は、リング形状の操作子であり、平面部300Aの周縁部に配置される。ベゼル301は、バンド部300に対して円周方向に回転可能に設けられる。操作デバイス3は、後述するように、ベゼル301の回転方向、及び回転量を検出する機構を備える。また、ベゼル301を回転可能にバンド部300に指示する機構は、回転に応じてさせる際にノッチ音を発生する記憶を備えてもよい。   The bezel 301 is a ring-shaped operation element, and is disposed on the peripheral portion of the flat surface portion 300A. The bezel 301 is provided so as to be rotatable in the circumferential direction with respect to the band unit 300. As will be described later, the operation device 3 includes a mechanism for detecting the rotation direction and the rotation amount of the bezel 301. The mechanism that instructs the band unit 300 to rotate the bezel 301 may include a memory that generates a notch sound when the bezel 301 is rotated.

LCD303は、文字や画像を表示するLCD(Liquid Crystal Display:液晶ディスプレイ)である。LCD303の表面には図3に示すタッチパネル304(タッチ操作部)が重畳して配置される。   The LCD 303 is an LCD (Liquid Crystal Display) that displays characters and images. A touch panel 304 (touch operation unit) shown in FIG.

ボタン305は、ベゼル301の外側に配置される押しボタン式スイッチである。ボタン305は、例えば図1、図2(A)に示すように、装着状態において、使用者から見てベゼル301の下方に位置する。ボタン305は、後述するリュウズ型操作子307やボタン309に比べて大型であり、手探りでも操作が可能である。   The button 305 is a push button type switch disposed outside the bezel 301. For example, as shown in FIGS. 1 and 2A, the button 305 is positioned below the bezel 301 when viewed from the user in the mounted state. The button 305 is larger than the crown-type operation element 307 and the button 309 described later, and can be operated by groping.

リュウズ型操作子307は、腕時計の竜頭を模した形状の操作子であり、図中矢印で示すように回転させることが可能である。操作デバイス3は、使用者がリュウズ型操作子307を回転させた場合に、リュウズ型操作子307の回転方向、及び回転量を検出する機構を備える。また、リュウズ型操作子307を回転可能にバンド部300に指示する機構は、回転に応じてさせる際にノッチ音を発生する記憶を備えてもよい。   The crown-type operation element 307 is an operation element having a shape imitating a crown of a wristwatch, and can be rotated as indicated by an arrow in the drawing. The operation device 3 includes a mechanism for detecting the rotation direction and the rotation amount of the crown-type operation element 307 when the user rotates the crown-type operation element 307. In addition, the mechanism that instructs the band unit 300 to rotate the crown-type operation element 307 may include a memory that generates a notch sound when the crown unit 307 is rotated.

ボタン309は、平面部300Aの外周部に設けられた押しボタン式のスイッチである。ボタン309の数について特に制限はなく、本実施形態では4つのボタン309を設けた例を示す。
ボタン309には異なる機能を割り当てることが可能であり、各々のボタン309に割り当てられた機能を、LCD303に表示できる。
The button 309 is a push button type switch provided on the outer peripheral portion of the plane portion 300A. The number of buttons 309 is not particularly limited, and in the present embodiment, an example in which four buttons 309 are provided is shown.
Different functions can be assigned to the buttons 309, and the functions assigned to the buttons 309 can be displayed on the LCD 303.

図2(B)は、LCD303に、ボタン309の機能を表示する例を示す。この例では、4つのボタン309に割り当てられた機能をそれぞれ示す機能表示331、332、333、334がLCD303に表示される。機能表示331、332、333、334の表示位置は、機能表示の対象のボタン309の位置に対応する。例えばLCD303の右上部に表示された機能表示331は、平面部300Aの右上に位置するボタン309に割り当てられた機能を示す。   FIG. 2B shows an example in which the function of the button 309 is displayed on the LCD 303. In this example, function displays 331, 332, 333, and 334 that indicate functions assigned to the four buttons 309 are displayed on the LCD 303. The display positions of the function displays 331, 332, 333, and 334 correspond to the position of the function display target button 309. For example, a function display 331 displayed on the upper right portion of the LCD 303 indicates a function assigned to the button 309 located on the upper right portion of the plane portion 300A.

さらに、LCD303には、ベゼル301を回転させることで選択可能な機能を表示できる。図2(C)は、LCD303にベゼル301の操作に割り当てられた機能を表示する例を示す。この例では、ベゼル301を回転させることで選択可能な4つの機能をそれぞれ示す機能表示341、342、343、344がLCD303に表示される。機能表示341、342、343、344の表示位置は、ベゼル301の回転位置に対応する。すなわち、ベゼル301を回転させると、機能表示341、342、343、及び344が、順に切り替えて選択される。例えば、ベゼル301を時計回り(CW)に回転させると、機能表示341、342、343、及び344が、順に切り替えて選択される。   Further, the LCD 303 can display selectable functions by rotating the bezel 301. FIG. 2C shows an example in which functions assigned to the operation of the bezel 301 are displayed on the LCD 303. In this example, function displays 341, 342, 343, and 344 indicating four functions that can be selected by rotating the bezel 301 are displayed on the LCD 303. The display positions of the function displays 341, 342, 343, and 344 correspond to the rotational position of the bezel 301. That is, when the bezel 301 is rotated, the function displays 341, 342, 343, and 344 are selected by switching in order. For example, when the bezel 301 is rotated clockwise (CW), the function displays 341, 342, 343, and 344 are sequentially switched and selected.

また、機能表示345はボタン305に割り当てられた機能を示し、図2(C)の例では「決定」機能である。ベゼル301の回転により、機能表示341、342、343、及び344のいずれかが選択された状態で、ボタン305が操作されると、機能表示341、342、343、及び344の選択が決定される。そして、ベゼル301の回転で選択された機能が実行される。   A function display 345 indicates a function assigned to the button 305, which is a “decision” function in the example of FIG. When the button 305 is operated in a state where any of the function displays 341, 342, 343, and 344 is selected by the rotation of the bezel 301, the selection of the function displays 341, 342, 343, and 344 is determined. . Then, the function selected by the rotation of the bezel 301 is executed.

ボタン309に割り当てられる機能、及び、ベゼル301の回転により選択される機能は、一通りに限定されず、より多数の機能を切り替えて割り当てることが可能である。この場合、操作デバイス3において、機能を切り替えることが可能な構成とすることができる。この場合、機能の切り替えに伴って、LCD303の機能表示331、332、333、334、或いは機能表示341、342、343、344が切り替わる構成としてもよい。   The function assigned to the button 309 and the function selected by the rotation of the bezel 301 are not limited to one, and more functions can be switched and assigned. In this case, the operation device 3 can be configured to be able to switch functions. In this case, the function display 331, 332, 333, 334 or the function display 341, 342, 343, 344 of the LCD 303 may be switched as the function is switched.

光学部310は、2つのカメラ311(撮像部)、及び、LED313を備える。カメラ311は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。操作デバイス3が有する2つのカメラ311の撮像範囲は、それぞれ異なる範囲であってもよいし、同一の範囲であってもよい。本実施形態では、2つのカメラ311で、操作デバイス3を装着た利用者の両眼を撮像し、撮像画像に基づき使用者の目線を検出可能である。従って、2つのカメラ311の一方は、平面部300Aを正面視する使用者の右眼を撮像し、他方は左眼を撮像できる構成である。
LED(Light Emitting Diode)313は、赤外光を発する赤外LEDである。LED313は、カメラ311で撮像をする場合の照明として利用される。また、操作デバイス3は、LED313を点灯あるいは点滅させることで、光信号を送信できる。
The optical unit 310 includes two cameras 311 (imaging unit) and an LED 313. The camera 311 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like. The imaging ranges of the two cameras 311 included in the operation device 3 may be different ranges or the same range. In the present embodiment, the two cameras 311 can capture both eyes of the user wearing the operation device 3, and can detect the user's line of sight based on the captured image. Therefore, one of the two cameras 311 is configured to capture the right eye of the user who views the plane portion 300A from the front, and the other can capture the left eye.
An LED (Light Emitting Diode) 313 is an infrared LED that emits infrared light. The LED 313 is used as illumination when the camera 311 captures an image. The operation device 3 can transmit an optical signal by turning on or blinking the LED 313.

図3には操作デバイス3の制御系の構成を示す。
操作デバイス3は、操作デバイス3の各部を制御する制御部350を備える。制御部350は、図示しないCPU、ROM、RAM等を備え、ROMに記憶したプログラムを実行することにより、操作デバイス3の機能を実現する。
制御部350には、通信用の機能部として、無線通信部361(通信部)及びNFC(Near Field Communication)部362を備える。無線通信部361は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。NFC部362は、NFC規格に準拠した近距離無線通信を実行する。
FIG. 3 shows the configuration of the control system of the operation device 3.
The operation device 3 includes a control unit 350 that controls each unit of the operation device 3. The control unit 350 includes a CPU, ROM, RAM, and the like (not shown), and realizes the function of the operation device 3 by executing a program stored in the ROM.
The control unit 350 includes a wireless communication unit 361 (communication unit) and an NFC (Near Field Communication) unit 362 as functional units for communication. The wireless communication unit 361 performs wireless data communication conforming to a standard such as a wireless LAN (WiFi (registered trademark)), Miracast (registered trademark), Bluetooth (registered trademark), or the like. The NFC unit 362 performs short-range wireless communication based on the NFC standard.

制御部350には、LCD303、タッチパネル304、2つのカメラ311、及びLED313が接続される。制御部350は、LCD303を制御して画像や文字を表示させる。また、タッチパネル304は、LCD303の表面に重畳して配置され、LCD303の表面における接触操作を検出する。タッチパネル304は、例えば、静電容量式または感圧式のセンサーを用いることができる。制御部350は、タッチパネル304により接触操作を検出し、操作位置を特定する。タッチパネル304は、1点の接触操作を検出してもよいし、複数の点における操作を同時に検出可能な、いわゆるマルチタッチ操作に対応してもよい。
制御部350は、2つのカメラ311をそれぞれ制御して、撮像を実行させて撮像画像データを生成する。また、制御部350は、LED313に流れる電流をON/OFFして、LED313を任意のタイミングで点灯、或いは点滅させる。
The control unit 350 is connected to the LCD 303, the touch panel 304, the two cameras 311, and the LED 313. The control unit 350 controls the LCD 303 to display images and characters. The touch panel 304 is arranged so as to overlap the surface of the LCD 303 and detects a touch operation on the surface of the LCD 303. For the touch panel 304, for example, a capacitance type sensor or a pressure sensitive sensor can be used. The control unit 350 detects a contact operation using the touch panel 304 and specifies an operation position. The touch panel 304 may detect a single contact operation or may correspond to a so-called multi-touch operation that can simultaneously detect operations at a plurality of points.
The control unit 350 controls each of the two cameras 311 to execute imaging and generate captured image data. Further, the control unit 350 turns on / off the current flowing through the LED 313, and turns on or blinks the LED 313 at an arbitrary timing.

制御部350には、マイク365、ボタン操作部366、回転検出部367、9軸センサー368、バイブレーター369、及び、スピーカー370が接続される。マイク365は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。マイク365が指向性を有する場合、マイク365は、例えば平面部300A(図2)またはその近傍で、平面部300Aの正面方向の音を集音する。また、マイク365は、使用者の身体に接触する骨伝導型のマイクであってもよい。制御部350は、マイク365が集音した音声のアナログ音声信号を取得してディジタル音声データを生成する。   A microphone 365, a button operation unit 366, a rotation detection unit 367, a 9-axis sensor 368, a vibrator 369, and a speaker 370 are connected to the control unit 350. The microphone 365 may be, for example, a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone. When the microphone 365 has directivity, the microphone 365 collects sound in the front direction of the plane portion 300A, for example, at or near the plane portion 300A (FIG. 2). The microphone 365 may be a bone conduction microphone that contacts the user's body. The control unit 350 acquires an analog audio signal of the audio collected by the microphone 365 and generates digital audio data.

ボタン操作部366は、ボタン305、及び、ボタン309の操作を検出し、操作されたボタンに対応する操作信号を制御部350に出力する。回転検出部367は、ベゼル301の回転、及び、リュウズ型操作子307の回転を検出する。回転検出部367は、ベゼル301の回転方向と回転量を示す信号を制御部350に出力し、リュウズ型操作子307についても同様に回転方向と回転量を示す信号を制御部350に出力する。ここで、回転検出部367は、ベゼル301が所定量回転する毎に、回転方向を示す信号を出力してもよい。この場合、回転検出部367の出力信号を制御部350がカウントすることで、制御部350が回転量を取得でき、回転検出部367が回転量を積算する必要がない。リュウズ型操作子307の回転操作についても同様に、リュウズ型操作子307が所定量回転する毎に、回転検出部367が回転方向を示す信号を出力してもよい。   The button operation unit 366 detects the operation of the buttons 305 and 309 and outputs an operation signal corresponding to the operated button to the control unit 350. The rotation detection unit 367 detects the rotation of the bezel 301 and the rotation of the crown type manipulator 307. The rotation detection unit 367 outputs a signal indicating the rotation direction and the rotation amount of the bezel 301 to the control unit 350, and similarly outputs a signal indicating the rotation direction and the rotation amount to the control unit 350 for the crown-shaped operation element 307. Here, the rotation detection unit 367 may output a signal indicating the rotation direction every time the bezel 301 rotates by a predetermined amount. In this case, since the control unit 350 counts the output signal of the rotation detection unit 367, the control unit 350 can acquire the rotation amount, and the rotation detection unit 367 does not need to integrate the rotation amount. Similarly, for the rotation operation of the crown-type operation element 307, the rotation detection unit 367 may output a signal indicating the rotation direction every time the crown-type operation element 307 rotates by a predetermined amount.

9軸センサー368は、慣性センサーを備えたユニットであり、本実施形態では、3軸の加速度センサー、3軸の角速度センサー、及び、3軸の磁気センサーを具備する。9軸センサー368が検出を行う軸は、例えば、平面部300Aを含む平面内における上下方向、左右方向、及び平面部300Aを含む平面に直交する方向に沿って設定できる。
バイブレーター369は、制御部350の制御に従って回転するモーター(図示略)を備える。このモーターの回転軸には錘が偏心して取り付けられ、モーターの回転に伴い操作デバイス3を振動させる。スピーカー370は、制御部350が出力する音声信号に基づき音声を出力する。
The 9-axis sensor 368 is a unit including an inertial sensor, and in this embodiment, includes a 3-axis acceleration sensor, a 3-axis angular velocity sensor, and a 3-axis magnetic sensor. The axis on which the nine-axis sensor 368 detects can be set, for example, in the vertical direction, the horizontal direction, and the direction orthogonal to the plane including the plane portion 300A in the plane including the plane portion 300A.
Vibrator 369 includes a motor (not shown) that rotates under the control of control unit 350. A weight is eccentrically attached to the rotation shaft of the motor, and the operation device 3 is vibrated as the motor rotates. The speaker 370 outputs audio based on the audio signal output from the control unit 350.

制御部350を含む操作デバイス3の各部には、一次電池または二次電池を有する電源部360から電源が供給される。電源部360は、二次電池とともに、二次電池への充電を制御する回路を備えてもよい。   Power is supplied to each unit of the operation device 3 including the control unit 350 from a power supply unit 360 having a primary battery or a secondary battery. The power supply unit 360 may include a circuit that controls charging of the secondary battery together with the secondary battery.

制御部350は、プログラムを実行することにより、操作検出部351、出力制御部352、撮像制御部353、通信制御部354、及び音声処理部355の各部の機能を実現する。
操作検出部351は、ボタン操作部366及び回転検出部367から入力される信号に基づき、操作デバイス3が備える操作子の操作を検出し、操作内容を特定する。具体的には、操作検出部351は、ボタン305、リュウズ型操作子307、及びボタン309の操作を検出する。また、操作検出部351は、9軸センサー368から入力される信号に基づいて、操作デバイス3を振る、動かす等の操作を検出する。さらに、操作検出部351は、タッチパネル304から入力される信号に基づき、LCD303に対する接触操作を検出し、操作位置を特定する。ここで、操作検出部351は、操作位置においてLCD303が表示する画像を特定することにより、操作位置に割り当てられる機能を特定することも可能である。
The control unit 350 realizes the functions of the operation detection unit 351, the output control unit 352, the imaging control unit 353, the communication control unit 354, and the sound processing unit 355 by executing a program.
The operation detection unit 351 detects the operation of the operator included in the operation device 3 based on the signals input from the button operation unit 366 and the rotation detection unit 367, and specifies the operation content. Specifically, the operation detection unit 351 detects the operation of the button 305, the crown type operation element 307, and the button 309. Further, the operation detection unit 351 detects an operation such as shaking or moving the operation device 3 based on a signal input from the 9-axis sensor 368. Further, the operation detection unit 351 detects a touch operation on the LCD 303 based on a signal input from the touch panel 304 and specifies an operation position. Here, the operation detection unit 351 can specify the function assigned to the operation position by specifying the image displayed on the LCD 303 at the operation position.

出力制御部352は、通信制御部354が無線通信部361やNFC部362により受信するデータ、又は、操作検出部351が検出する操作に対応して、出力を実行する。出力制御部352は、LCD303に文字や画像を表示する。また、出力制御部352は、バイブレーター369のモーターを動作させて操作デバイス3を振動させる。
撮像制御部353は、カメラ311を制御して撮像を実行させ、撮像画像データを取得する。
通信制御部354は、無線通信部361またはNFC部362により、外部の機器とデータを送受信する。通信制御部354は、無線通信部361により頭部装着型表示装置100とデータ通信を実行できる。また、通信制御部354は、NFC部362により、近接通信が可能な機器を検出した場合に、この機器とデータを送受信する。また、通信制御部354は、LED313を点滅させて、光信号によりデータを送信できる。この場合、通信制御部354は、カメラ311により光信号を検出して受信する構成としてもよい。
The output control unit 352 executes output in response to data received by the communication control unit 354 by the wireless communication unit 361 or the NFC unit 362 or an operation detected by the operation detection unit 351. The output control unit 352 displays characters and images on the LCD 303. The output control unit 352 operates the motor of the vibrator 369 to vibrate the operation device 3.
The imaging control unit 353 controls the camera 311 to execute imaging, and acquires captured image data.
The communication control unit 354 transmits / receives data to / from an external device through the wireless communication unit 361 or the NFC unit 362. The communication control unit 354 can execute data communication with the head-mounted display device 100 through the wireless communication unit 361. Further, when the NFC unit 362 detects a device capable of near field communication, the communication control unit 354 transmits and receives data to and from this device. Further, the communication control unit 354 can transmit data using an optical signal by blinking the LED 313. In this case, the communication control unit 354 may be configured to detect and receive an optical signal with the camera 311.

音声処理部355は、マイク365が集音した音声のディジタル音声データを生成して、必要に応じて解析を行う。例えば、音声処理部355は、マイク365が集音した使用者の音声を解析し、操作を指示する音声を検出した場合に、操作検出部351に対して操作の指示を出力してもよい。この場合、使用者は操作デバイス3を音声により操作できる。また、音声処理部355は、スピーカー370に音声信号を出力して音声を出力させる。   The sound processing unit 355 generates digital sound data of the sound collected by the microphone 365 and performs analysis as necessary. For example, the voice processing unit 355 may analyze the user's voice collected by the microphone 365 and output an operation instruction to the operation detection unit 351 when detecting a voice instructing the operation. In this case, the user can operate the operation device 3 by voice. In addition, the audio processing unit 355 outputs an audio signal to the speaker 370 to output audio.

制御部350は、操作デバイス3の動作モードとして、時計モードと、UIモードとを含む複数の動作モードを実行でこる。時計モードは、制御部350により現在時刻を計時し、LCD303に現在時刻を表示する動作モードである。時計モードは操作デバイス3を時計として動作させるので、消費電力が小さいという利点がある。UIモードは、操作デバイス3を、頭部装着型表示装置100を操作するユーザーインターフェイス(UI)として機能させる動作モードである。UIモードでは、操作デバイス3に対する操作に基づき、操作デバイス3が頭部装着型表示装置100にデータを送信し、このデータに従って頭部装着型表示装置100が動作する。時計モードからUIモードへの切り替え、及び、UIモードから時計モードへの切り替えは、後述するように、制御部350の制御により行われる。   The control unit 350 can execute a plurality of operation modes including a clock mode and a UI mode as operation modes of the operation device 3. The clock mode is an operation mode in which the control unit 350 measures the current time and displays the current time on the LCD 303. The clock mode has an advantage that the power consumption is small because the operation device 3 is operated as a clock. The UI mode is an operation mode in which the operation device 3 functions as a user interface (UI) for operating the head-mounted display device 100. In the UI mode, the operation device 3 transmits data to the head-mounted display device 100 based on an operation on the operation device 3, and the head-mounted display device 100 operates according to this data. Switching from the clock mode to the UI mode and switching from the UI mode to the clock mode are performed under the control of the control unit 350, as will be described later.

[頭部装着型表示装置の構成]
頭部装着型表示装置100において、画像表示部20のフレーム2は、右保持部21及び左保持部23を有する。右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21は使用者の頭部において右耳またはその近傍に当接し、左保持部23は使用者の左耳またはその近傍に当接して、使用者の頭部に画像表示部20を保持する。
[Configuration of head-mounted display device]
In the head-mounted display device 100, the frame 2 of the image display unit 20 includes a right holding unit 21 and a left holding unit 23. The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 contacts the right ear or the vicinity thereof on the user's head, and the left holding unit 23 contacts the user's left ear or the vicinity thereof and holds the image display unit 20 on the user's head. To do.

フレーム2には、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61(撮像部)と、マイク63とが設けられる。
右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結されている。
The frame 2 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61 ( An imaging unit) and a microphone 63 are provided.
The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. The right display drive unit 22 and the left display drive unit 24 are collectively referred to simply as “display drive unit”, and the right optical image display unit 26 and the left optical image display unit 28 are simply referred to as “optical image display unit”. Also called.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、頭部装着型表示装置100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
そして、頭部装着型表示装置100は、内部で処理する画像の画像光と外光とを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光による画像が視認される。このように、頭部装着型表示装置100は、シースルー型の表示装置として機能する。
The display driving units 22 and 24 include liquid crystal displays 241 and 242 (Liquid Crystal Display, hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252, and the like.
The right optical image display unit 26 and the left optical image display unit 28 include light guide plates 261 and 262 (FIG. 2) and a light control plate 20A. The light guide plates 261 and 262 are formed of a light transmissive resin or the like, and guide the image light output from the display driving units 22 and 24 to the user's eyes. The light control plate 20A is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. As the light control plate 20A, various materials such as a material that has almost no light transmission, a material that is nearly transparent, a material that attenuates the amount of light and transmits light, and a material that attenuates or reflects light of a specific wavelength may be used. it can. By appropriately selecting the optical characteristics (light transmittance, etc.) of the light control plate 20A, the external light amount incident on the right optical image display unit 26 and the left optical image display unit 28 from the outside is adjusted to visually recognize the virtual image. You can adjust the ease. In the present embodiment, a case will be described in which at least a light control plate 20A having such a light transmittance that a user wearing the head-mounted display device 100 can visually recognize an outside scene is used. The light control plate 20A protects the right light guide plate 261 and the left light guide plate 262, and suppresses damage to the right light guide plate 261 and the left light guide plate 262, adhesion of dirt, and the like.
The dimming plate 20A may be detachable from the right optical image display unit 26 and the left optical image display unit 28, or may be mounted by replacing a plurality of types of dimming plates 20A, or may be omitted. .
Then, the head-mounted display device 100 causes the image light of the image to be processed inside and the external light to overlap and enter the user's eyes, and the user can see the outside scene through the dimming plate 20A, An image of image light is visually recognized over the outside scene. Thus, the head-mounted display device 100 functions as a see-through display device.

カメラ61は、右光学像表示部26と左光学像表示部28との境目部分に配置される。使用者が画像表示部20を装着した状態で、カメラ61の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
カメラ61は、頭部装着型表示装置100の表側方向、換言すれば、頭部装着型表示装置100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。カメラ61の画角の広さは適宜設定可能であるが、カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む範囲であることが好ましい。さらに、調光板20Aを通した使用者の視界の全体を撮像できるようにカメラ61の撮像範囲が設定されているとより好ましい。
カメラ61は、制御部140(図4)の制御に従って撮像を実行し、撮像画像データを制御部140に出力する。
The camera 61 is disposed at the boundary between the right optical image display unit 26 and the left optical image display unit 28. In a state where the user wears the image display unit 20, the position of the camera 61 is substantially in the middle of both eyes of the user in the horizontal direction and above the eyes of the user in the vertical direction. The camera 61 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like, and may be a monocular camera or a stereo camera.
The camera 61 images at least a part of the outside view in the front side direction of the head-mounted display device 100, in other words, the user's view direction when the head-mounted display device 100 is mounted. The width of the angle of view of the camera 61 can be set as appropriate, but the imaging range of the camera 61 is a range that includes the outside world visually recognized by the user through the right optical image display unit 26 and the left optical image display unit 28. preferable. Furthermore, it is more preferable that the imaging range of the camera 61 is set so that the entire field of view of the user through the light control plate 20A can be imaged.
The camera 61 executes imaging under the control of the control unit 140 (FIG. 4), and outputs captured image data to the control unit 140.

画像表示部20は、制御装置10に接続部40を介して接続する。接続部40は、制御装置10に接続される本体コード48、右コード42、左コード44、及び、連結部材46を備える。右コード42及び左コード44は、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続される。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。   The image display unit 20 is connected to the control device 10 via the connection unit 40. The connection unit 40 includes a main body cord 48, a right cord 42, a left cord 44, and a connecting member 46 that are connected to the control device 10. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the housing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and is connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24.

連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有する。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸する。イヤホンプラグ30の近傍にはマイク63が設けられる。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がる。   The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. A microphone 63 is provided in the vicinity of the earphone plug 30. The earphone plug 30 to the microphone 63 are combined into one cord, and the cord branches from the microphone 63 and is connected to each of the right earphone 32 and the left earphone 34.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図3)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。   For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collection unit of the microphone 63 faces the user's line of sight, collects sound, and sends the sound signal to the sound processing unit 187 (FIG. 3). Output. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone.

右コード42、左コード44、及び、本体コード48は、デジタルデータを伝送可能なものであればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード42と左コード44とを一本のコードにまとめた構成としてもよい。   The right cord 42, the left cord 44, and the main body cord 48 only need to be capable of transmitting digital data, and can be constituted by, for example, a metal cable or an optical fiber. Further, the right cord 42 and the left cord 44 may be combined into a single cord.

画像表示部20と制御装置10とは、接続部40を介して各種信号を伝送する。本体コード48の連結部材46とは反対側の端部、及び、制御装置10には、互いに嵌合するコネクター(図示略)が設けられる。本体コード48のコネクターと制御装置10のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置10と画像表示部20とを接離できる。   The image display unit 20 and the control device 10 transmit various signals via the connection unit 40. The end of the main body cord 48 opposite to the connecting member 46 and the control device 10 are provided with connectors (not shown) that fit together. By fitting the connector of the main body cord 48 and the connector of the control device 10 or removing this fitting, the control device 10 and the image display unit 20 can be contacted and separated.

制御装置10は、頭部装着型表示装置100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が手指で操作するトラックパッド14を備える。   The control device 10 controls the head-mounted display device 100. The control device 10 includes switches including an enter key 11, a lighting unit 12, a display switching key 13, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. In addition, the control device 10 includes a track pad 14 that is operated by a user with fingers.

決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、LED等の光源を備え、光源の点灯状態により、頭部装着型表示装置100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。   The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control device 10. The lighting unit 12 includes a light source such as an LED, and notifies the operating state (for example, power ON / OFF) of the head-mounted display device 100 according to the lighting state of the light source. The display switching key 13 outputs, for example, a signal instructing switching of the image display mode in response to the pressing operation.

トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、頭部装着型表示装置100の電源ON/OFFを切り替えるスイッチである。   The track pad 14 has an operation surface for detecting a contact operation, and outputs an operation signal according to an operation on the operation surface. The detection method on the operation surface is not limited, and an electrostatic method, a pressure detection method, an optical method, or the like can be adopted. The luminance switching key 15 outputs a signal instructing increase / decrease of the luminance of the image display unit 20 in response to the pressing operation. The direction key 16 outputs an operation signal in response to a pressing operation on a key corresponding to the up / down / left / right direction. The power switch 18 is a switch for switching on / off the power of the head-mounted display device 100.

図4は、頭部装着型表示装置100を構成する各部の機能ブロック図である。
頭部装着型表示装置100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス125を備える。インターフェイス125は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、頭部装着型表示装置100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
FIG. 4 is a functional block diagram of each part constituting the head-mounted display device 100.
The head-mounted display device 100 includes an interface 125 for connecting various external devices OA that are content supply sources. As the interface 125, for example, an interface corresponding to wired connection such as a USB interface, a micro USB interface, a memory card interface, or the like may be used, and the interface 125 may be configured by a wireless communication interface. The external device OA is an image supply device that supplies an image to the head-mounted display device 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used.

制御装置10は、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52を有する。
入力情報取得部110は、操作部111に接続される。操作部111は、制御装置10の各操作子に接続され、これら各操作子の操作を検出し、検出した操作子に対応する操作信号を入力情報取得部110に出力する。入力情報取得部110は、操作部111から入力される信号に基づき、制御装置10の操作により入力される入力内容を取得する。
The control device 10 includes a control unit 140, an input information acquisition unit 110, a storage unit 120, a transmission unit (Tx) 51, and a transmission unit (Tx) 52.
The input information acquisition unit 110 is connected to the operation unit 111. The operation unit 111 is connected to each operation element of the control device 10, detects an operation of each operation element, and outputs an operation signal corresponding to the detected operation element to the input information acquisition unit 110. The input information acquisition unit 110 acquires the input content input by the operation of the control device 10 based on the signal input from the operation unit 111.

記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
制御装置10は、一次電池や二次電池を有する電源部130を備え、制御装置10及び画像表示部20の各部に電源部130から電源を供給する。
The storage unit 120 is a nonvolatile storage device, and stores various computer programs and data related to these programs. The storage unit 120 may store still image data or moving image data to be displayed on the image display unit 20.
The control device 10 includes a power supply unit 130 including a primary battery and a secondary battery, and supplies power from the power supply unit 130 to each unit of the control device 10 and the image display unit 20.

制御部140には、3軸センサー113、音声認識部114、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得する。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。   A three-axis sensor 113, a voice recognition unit 114, a GPS 115, and a communication unit 117 are connected to the control unit 140. The triaxial sensor 113 is a triaxial acceleration sensor, and the control unit 140 acquires the detection value of the triaxial sensor 113. The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and calculates the current position of the control device 10. The GPS 115 outputs the current position and the current time obtained based on the GPS signal to the control unit 140. The GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140.

通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス125に有線接続された場合、制御部140は、コンテンツデータをインターフェイス125より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス125は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
The communication unit 117 executes wireless data communication conforming to a standard such as a wireless LAN (WiFi (registered trademark)), Miracast (registered trademark), or Bluetooth (registered trademark).
When the external device OA is wirelessly connected to the communication unit 117, the control unit 140 acquires content data from the communication unit 117 and causes the image display unit 20 to display an image. On the other hand, when the external device OA is wired to the interface 125, the control unit 140 acquires content data from the interface 125 and causes the image display unit 20 to display an image. The communication unit 117 and the interface 125 function as a data acquisition unit DA that acquires content data from the external device OA.

制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を有する。制御部140は、CPUにより制御プログラムを実行することで、頭部装着型表示装置100の各部を制御する。また、制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、制御部140の各種機能を実現するコンピューターに相当する。制御部140は、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、撮像処理部181、デバイス制御部183、AR表示制御部185、及び、音声処理部187として機能する。   The control unit 140 stores a CPU (not shown) for executing a program, a RAM (not shown) for temporarily storing a program and data executed by the CPU, and a basic control program and data executed by the CPU in a nonvolatile manner. ROM (not shown). The control unit 140 controls each unit of the head-mounted display device 100 by executing a control program by the CPU. The control unit 140 corresponds to a computer that reads and executes a computer program stored in the storage unit 120 and realizes various functions of the control unit 140. The control unit 140 functions as an operating system (OS) 150, an image processing unit 160, a display control unit 170, an imaging processing unit 181, a device control unit 183, an AR display control unit 185, and an audio processing unit 187.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). The image processing unit 160 stores the converted digital image signal in the RAM of the control unit 140 for each frame as image data of the target image (Data in the figure). This image data is, for example, RGB data.
Note that the image processing unit 160 may perform a resolution conversion process for converting the resolution of the image data into a resolution suitable for the right display driving unit 22 and the left display driving unit 24 as necessary. The image processing unit 160 also performs image adjustment processing for adjusting the brightness and saturation of image data, 2D image data is created from 3D image data, or 2D / 3D conversion processing is performed to generate 3D image data from 2D image data. May be executed.

画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。送信部51、52は、トランシーバーとして機能し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。   The image processing unit 160 transmits the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data stored in the RAM via the transmission units 51 and 52, respectively. The transmission units 51 and 52 function as a transceiver and execute serial transmission between the control device 10 and the image display unit 20. The image data Data transmitted via the transmission unit 51 is referred to as “right eye image data”, and the image data Data transmitted via the transmission unit 52 is referred to as “left eye image data”.

表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。   The display control unit 170 generates a control signal for controlling the right display drive unit 22 and the left display drive unit 24, and generates and generates image light by each of the right display drive unit 22 and the left display drive unit 24 based on the control signal. Control injection. Specifically, the right LCD 241 is controlled to be turned on / off by the right LCD control unit 211, and the right backlight 221 is turned on / off by the right backlight control unit 201. In addition, the display control unit 170 controls the driving of the left LCD 242 by the left LCD control unit 212 and the driving of the left backlight 222 by the left backlight control unit 202.

音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。   The audio processing unit 187 acquires an audio signal included in the content, amplifies the acquired audio signal, and outputs the amplified audio signal to the right earphone 32 and the left earphone 34. In addition, the sound processing unit 187 acquires sound collected by the microphone 63 and converts it into digital sound data. The voice processing unit 187 may perform a preset process on the digital voice data.

画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、振動センサー65と、9軸センサー66とを備えている。   The image display unit 20 includes an interface 25, a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, and a left light guide plate 262 as a left optical image display unit 28. A camera 61, a vibration sensor 65, and a nine-axis sensor 66.

振動センサー65は、加速度センサーを利用して構成され、例えば図1に示すように、右保持部21において右光学像表示部26の端部ERの近傍に内蔵される。振動センサー65は、使用者が端部ERを叩く操作(ノック操作)を行った場合に、この操作による振動を検出して、検出結果を制御部140に出力する。この振動センサー65の検出結果により、制御部140は、使用者によるノック操作を検出する。   The vibration sensor 65 is configured using an acceleration sensor, and is built in the vicinity of the end ER of the right optical image display unit 26 in the right holding unit 21 as shown in FIG. When the user performs an operation of hitting the end ER (knock operation), the vibration sensor 65 detects vibration caused by this operation and outputs the detection result to the control unit 140. Based on the detection result of the vibration sensor 65, the control unit 140 detects a knocking operation by the user.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。制御部140は、画像表示部20が使用者の頭部に装着されているとき、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。例えば、制御部140は、9軸センサー66の検出値に基づき、画像表示部20の傾きの大きさと傾きの向きを推定できる。
9軸センサー66が内蔵する加速度センサー及び角速度センサーの検出軸は、例えば、図1に示すX,Y,Zの3軸とすることができる。この例では、画像表示部20を装着する使用者の頭部に対し左右方向をX軸、前後方向をY軸、上下方向をZ軸とする。より詳細には、頭部装着型表示装置100の装着状態において、画像表示部20は左右の眼に対し、使用者が知覚する水平な位置にある。頭部装着型表示装置100の標準的な装着位置において、9軸センサー66の検出軸(X軸、Y軸、Z軸)が、使用者が知覚する左右、前後、及び上下に一致する構成である。9軸センサー66の加速度センサーは、X軸方向、Y軸方向、及びZ軸方向の加速度を検出する。また、9軸センサー66が備える角速度センサーは、X軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)を検出する。
The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). When the image display unit 20 is mounted on the user's head, the control unit 140 can detect the movement of the user's head based on the detection value of the 9-axis sensor 66. For example, the control unit 140 can estimate the magnitude of the tilt and the tilt direction of the image display unit 20 based on the detection value of the 9-axis sensor 66.
The detection axes of the acceleration sensor and the angular velocity sensor built in the nine-axis sensor 66 can be, for example, three axes of X, Y, and Z shown in FIG. In this example, the left-right direction is the X axis, the front-rear direction is the Y-axis, and the vertical direction is the Z-axis with respect to the head of the user wearing the image display unit 20. More specifically, when the head-mounted display device 100 is worn, the image display unit 20 is in a horizontal position that is perceived by the user with respect to the left and right eyes. In a standard mounting position of the head-mounted display device 100, the detection axis (X axis, Y axis, Z axis) of the 9-axis sensor 66 is aligned with the left, right, front, back, and top perceived by the user. is there. The acceleration sensor of the 9-axis sensor 66 detects acceleration in the X-axis direction, the Y-axis direction, and the Z-axis direction. The angular velocity sensor included in the nine-axis sensor 66 detects rotation (pitch) around the X axis, rotation (yaw) around the Y axis, and rotation (roll) around the Z axis.

インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、カメラ61、振動センサー65及び9軸センサー66を接続するインターフェイスである。振動センサー65による振動の検出結果や、9軸センサー66による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出結果は、インターフェイス25を介して制御部140に送られる。
The interface 25 includes a connector to which the right cord 42 and the left cord 44 are connected. The interface 25 outputs the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data transmitted from the transmission unit 51 to the corresponding reception units (Rx) 53 and 54. Further, the interface 25 outputs a control signal transmitted from the display control unit 170 to the corresponding reception units 53 and 54, the right backlight control unit 201, or the left backlight control unit 202.
The interface 25 is an interface for connecting the camera 61, the vibration sensor 65, and the 9-axis sensor 66. The detection result of vibration by the vibration sensor 65 and the detection result of acceleration (three axes), angular velocity (three axes), and geomagnetism (three axes) by the nine-axis sensor 66 are sent to the control unit 140 via the interface 25.

右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、受信部53、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。   The right display drive unit 22 includes the right backlight 221, the right LCD 241, and the right projection optical system 251 described above. The right display driving unit 22 includes a receiving unit 53, a right backlight (BL) control unit 201 that controls the right backlight (BL) 221, and a right LCD control unit 211 that drives the right LCD 241.

受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。   The reception unit 53 operates as a receiver corresponding to the transmission unit 51 and executes serial transmission between the control device 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data input via the reception unit 53. .

左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、受信部54、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes the left backlight 222, the left LCD 242 and the left projection optical system 252 described above. The left display driving unit 24 includes a receiving unit 54, a left backlight control unit 202 that drives the left backlight 222, and a left LCD control unit 212 that drives the left LCD 242.

受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD242を駆動する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。   The reception unit 54 operates as a receiver corresponding to the transmission unit 52 and executes serial transmission between the control device 10 and the image display unit 20. The left backlight control unit 202 drives the left backlight 222 based on the input control signal. The left LCD control unit 212 drives the left LCD 242 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right-eye image data Data input via the reception unit 54. . The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as a right “image light generation unit”. Similarly, the left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are collectively referred to as a left “image light generation unit”.

撮像処理部181は、カメラ61を制御して撮像を実行させ、撮像画像データを取得する。
デバイス制御部183は、通信部117を制御して操作デバイス3との間でデータ通信を行い、操作デバイス3から受信するデータを解析する。また、デバイス制御部183は、カメラ61の撮像画像データに基づき、操作デバイス3が備えるLED313の点滅パターンが特定のパターンに該当する場合に、このパターンを復号化して、データを受信する。
The imaging processing unit 181 controls the camera 61 to execute imaging, and acquires captured image data.
The device control unit 183 controls the communication unit 117 to perform data communication with the operation device 3 and analyzes data received from the operation device 3. Further, when the blinking pattern of the LED 313 provided in the operation device 3 corresponds to a specific pattern based on the captured image data of the camera 61, the device control unit 183 decodes this pattern and receives data.

AR表示制御部185は、ARコンテンツのデータに基づき、画像処理部160及び表示制御部170を制御して、AR表示用の画像を画像表示部20により表示させる。ARコンテンツのデータは、例えば、記憶部120が記憶する。また、AR表示制御部185は、ARコンテンツデータ123が音声データを含む場合、音声処理部187を制御して、右イヤホン32、左イヤホン34からコンテンツの音声を出力させる。   The AR display control unit 185 controls the image processing unit 160 and the display control unit 170 based on the AR content data, and causes the image display unit 20 to display an image for AR display. For example, the storage unit 120 stores the AR content data. In addition, when the AR content data 123 includes audio data, the AR display control unit 185 controls the audio processing unit 187 so that the audio of the content is output from the right earphone 32 and the left earphone 34.

AR表示制御部185は、使用者が画像表示部20越しに対象物を見ている状態でARコンテンツを表示する。AR表示制御部185は、対象物に対応する位置に画像や文字等を表示するAR表示を行うことで、対象物に関する情報を提供し、或いは、画像表示部20越しに見える対象物の姿の見え方を変える。ARコンテンツは、対象物に対応する位置に表示される画像や文字のデータを含む。また、ARコンテンツに、対象物を特定するデータ、及び、画像や文字の表示位置に関するデータ等を含んでもよい。ARコンテンツの表示位置は対象物に重なる位置であっても対象物の周囲であってもよい。対象物は物体であればよく、建物等の不動産であってもよいし、自動車や電車などの移動体であってもよく、人間や動物などの生物であってもよい。AR表示制御部185は、撮像処理部181が取得する撮像画像データから、使用者の視界に位置する対象物を検出する。そして、AR表示制御部185は、検出した対象物に対応するARコンテンツの表示位置を決定し、ARコンテンツを表示する。   The AR display control unit 185 displays the AR content while the user is looking at the object through the image display unit 20. The AR display control unit 185 provides information about the object by performing AR display that displays an image, characters, or the like at a position corresponding to the object, or the shape of the object seen through the image display unit 20 Change how it looks. The AR content includes image and character data displayed at a position corresponding to the object. In addition, the AR content may include data for specifying an object and data regarding the display position of an image or a character. The display position of the AR content may be a position overlapping the target object or may be around the target object. The object may be an object, may be a real estate such as a building, may be a moving body such as an automobile or a train, or may be a living organism such as a human being or an animal. The AR display control unit 185 detects an object located in the user's field of view from the captured image data acquired by the imaging processing unit 181. Then, the AR display control unit 185 determines the display position of the AR content corresponding to the detected object, and displays the AR content.

ARコンテンツは、使用者が対象物を視認する位置に重なるように、或いは、対象物を視認する位置に合わせて、表示することが望ましい。このため、AR表示制御部185は、撮像処理部181の撮像画像データから対象物の画像を検出し、検出した対象物の画像と撮像画像全体との位置関係に基づき、カメラ61の撮像範囲における対象物の位置を特定する。AR表示制御部185は、カメラ61の撮像範囲と、画像表示部20の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。   It is desirable to display the AR content so as to overlap the position where the user visually recognizes the target object or according to the position where the user visually recognizes the target object. For this reason, the AR display control unit 185 detects the image of the target object from the captured image data of the imaging processing unit 181, and in the imaging range of the camera 61 based on the positional relationship between the detected target image and the entire captured image. Identify the position of the object. The AR display control unit 185 determines the display position of the AR content corresponding to the position of the object based on the positional relationship between the imaging range of the camera 61 and the display area of the image display unit 20.

音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。   The audio processing unit 187 acquires an audio signal included in the content, amplifies the acquired audio signal, and outputs the amplified audio signal to the right earphone 32 and the left earphone 34. In addition, the sound processing unit 187 acquires sound collected by the microphone 63 and converts it into digital sound data. The voice processing unit 187 may perform a preset process on the digital voice data.

[表示システムの動作]
図5は、表示システム1の動作を示すフローチャートであり、特に、操作デバイス3の動作を示す。
操作デバイス3は、表示システム1の操作を行わない間は、時計モードで動作する(ステップS11)。時計モードにおいて、UIモードへの移行を指示する操作が行われると(ステップS12)、操作デバイス3の制御部350は、カメラ311、311により撮像を実行して使用者の視線を検出する(ステップS13)。制御部350は、視線を検出するまで撮像および撮像画像の解析を行う(ステップS13;NO)。
[Display system operation]
FIG. 5 is a flowchart showing the operation of the display system 1, and particularly shows the operation of the operation device 3.
The operation device 3 operates in the clock mode while the display system 1 is not operated (step S11). When an operation for instructing the transition to the UI mode is performed in the timepiece mode (step S12), the control unit 350 of the operation device 3 performs imaging with the cameras 311 and 311 to detect the user's line of sight (step S12). S13). The control unit 350 performs imaging and analysis of the captured image until a line of sight is detected (step S13; NO).

制御部350は、視線を検出した場合(ステップS13;YES)、頭部装着型表示装置100がONになっているか否かを判定する(ステップS14)。ステップS14では、例えば、無線通信部361により頭部装着型表示装置100の通信部117と通信を行い、頭部装着型表示装置100の動作状態を検出することで、判定を行う。また、例えば、撮像制御部353の制御によりカメラ311で撮像を実行し、撮像画像に基づき頭部装着型表示装置100の動作状態を判定してもよい。例えば、画像表示部20が表示する画像が調光板20Aを透過して撮像画像に写った場合に、頭部装着型表示装置100がONであると判定してもよい。また、画像表示部20に、動作状態に応じて発光する発光部を設け、撮像画像から発光部の発光状態を特定して、動作状態を判定してもよい。   When detecting the line of sight (step S13; YES), the controller 350 determines whether or not the head-mounted display device 100 is ON (step S14). In step S <b> 14, for example, the wireless communication unit 361 communicates with the communication unit 117 of the head-mounted display device 100 to detect the operating state of the head-mounted display device 100, thereby performing the determination. Further, for example, the camera 311 may perform imaging under the control of the imaging control unit 353, and the operation state of the head-mounted display device 100 may be determined based on the captured image. For example, when the image displayed by the image display unit 20 passes through the light control plate 20A and appears in the captured image, it may be determined that the head-mounted display device 100 is ON. In addition, the image display unit 20 may be provided with a light emitting unit that emits light according to the operating state, and the operating state may be determined by specifying the light emitting state of the light emitting unit from the captured image.

頭部装着型表示装置100がONでないと判定した場合(ステップS14;NO)、制御部350は、無線通信部361により通信を実行し、頭部装着型表示装置100に対して起動を指示するデータを送信する(ステップS15)。制御部350は、頭部装着型表示装置100から起動したことを示す制御データを受信し、ステップS17に移行する。また、頭部装着型表示装置100がONであると判定した場合(ステップS14;YES)、制御部350はステップS17に移行する。   When it is determined that the head-mounted display device 100 is not ON (step S14; NO), the control unit 350 performs communication by the wireless communication unit 361 and instructs the head-mounted display device 100 to start. Data is transmitted (step S15). The control unit 350 receives control data indicating activation from the head-mounted display device 100, and proceeds to step S17. When it is determined that the head-mounted display device 100 is ON (step S14; YES), the control unit 350 proceeds to step S17.

ステップS17で、制御部350は、頭部装着型表示装置100の認証が済んでいるか否かを判定する。制御部350は、頭部装着型表示装置100と組み合わせて使用される場合に、頭部装着型表示装置100の認証を行い、認証に成功した頭部装着型表示装置100のユーザーインターフェイスとして動作する。認証が済んでいないと判定した場合(ステップS17;NO)、制御部350は、ステップS14でONになっているか否かを判定した頭部装着型表示装置100と、認証用のデータを送受信して認証する(ステップS18)。認証に必要なデータを送受信した場合、イヤホンプラグ30は、頭部装着型表示装置100とペアリング、即ちユーザーインターフェイスとして動作する1対1の対応付けを行い(ステップS19)、ステップS20に移行する。この対応付けは1対多であってもよい。また、頭部装着型表示装置100の認証が済んだ場合は(ステップS17;YES)、制御部350はステップS20に移行する。   In step S17, control unit 350 determines whether or not authentication of head-mounted display device 100 has been completed. When used in combination with the head-mounted display device 100, the control unit 350 authenticates the head-mounted display device 100 and operates as a user interface of the head-mounted display device 100 that has been successfully authenticated. . If it is determined that the authentication has not been completed (step S17; NO), the control unit 350 transmits / receives authentication data to / from the head-mounted display device 100 that has determined whether or not the authentication is ON in step S14. To authenticate (step S18). When data necessary for authentication is transmitted / received, the earphone plug 30 performs pairing with the head-mounted display device 100, that is, one-to-one association that operates as a user interface (step S19), and proceeds to step S20. . This association may be one-to-many. When the head-mounted display device 100 has been authenticated (step S17; YES), the control unit 350 proceeds to step S20.

ステップS20で、制御部350は、LCD303に操作用の画面を表示し、操作に対して待機する。操作用の画面は、例えば、図2(B)や図2(C)に例示した画面である。
制御部350は、操作を待機し、操作検出部351により操作を検出すると(ステップS21)、検出した操作を示す操作データを頭部装着型表示装置100に送信する(ステップS22)。
In step S20, control unit 350 displays an operation screen on LCD 303 and stands by for the operation. The operation screen is, for example, the screen illustrated in FIG. 2B or 2C.
Control unit 350 waits for an operation, and when operation is detected by operation detection unit 351 (step S21), operation data indicating the detected operation is transmitted to head-mounted display device 100 (step S22).

その後、制御部350は、終了条件が成立したか否かを判定する(ステップS23)。終了条件が成立している場合(ステップS23;YES)、制御部350は時計モードに移行して(ステップS24)、本処理を終了する。また、終了条件が成立していない場合は(ステップS23;NO)、ステップS21に戻る。
終了条件は、例えば、タッチパネル304、ボタン305、リュウズ型操作子307、或いはボタン309によりUIモードの終了を指示する操作が行われたこと、頭部装着型表示装置100から終了を指示する制御データを受信したこと、等である。
Thereafter, the control unit 350 determines whether or not an end condition is satisfied (step S23). When the end condition is satisfied (step S23; YES), the control unit 350 shifts to the clock mode (step S24) and ends the process. If the end condition is not satisfied (step S23; NO), the process returns to step S21.
The end condition is, for example, that the operation for instructing the end of the UI mode is performed by the touch panel 304, the button 305, the crown-type operation element 307, or the button 309, and the control data for instructing the end from the head-mounted display device 100. , Etc.

表示システム1では、頭部装着型表示装置100が、操作デバイス3による操作に対応したAR画像を表示できる。
図6は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、操作デバイス3に対応したAR表示を行う動作を示す。
制御部140は、デバイス制御部183により、操作デバイス3が送信する操作データを通信部117で受信して解析し(ステップS31)、操作の種別を特定する(ステップS32)。ステップS31で受信するデータは、操作デバイス3が操作に対応して送信する操作データ(図5のステップS22)である。デバイス制御部183は、操作データが示す操作に対応する指示が、操作デバイス3の操作の設定に関する指示であるか否かを判定する(ステップS33)。操作の設定以外の指示である場合(ステップS33;NO)、デバイス制御部183は、ステップS32で特定した操作に対応する処理を実行し(ステップS34)、本処理を終了する。ステップS34では、例えば、撮像開始を指示する操作データに従ってカメラ61の撮像を開始する処理や、AR表示の開始又は終了を指示する操作データに従って、AR表示制御部185でAR表示を開始/終了する。
In the display system 1, the head-mounted display device 100 can display an AR image corresponding to the operation by the operation device 3.
FIG. 6 is a flowchart showing the operation of the head-mounted display device 100, and particularly shows the operation of performing AR display corresponding to the operation device 3.
The control unit 140 causes the device control unit 183 to receive and analyze the operation data transmitted from the operation device 3 by the communication unit 117 (step S31), and specify the type of operation (step S32). The data received in step S31 is operation data (step S22 in FIG. 5) transmitted by the operation device 3 in response to the operation. The device control unit 183 determines whether or not the instruction corresponding to the operation indicated by the operation data is an instruction related to the operation setting of the operation device 3 (step S33). When the instruction is other than the operation setting (step S33; NO), the device control unit 183 executes a process corresponding to the operation specified in step S32 (step S34), and ends this process. In step S34, for example, the AR display control unit 185 starts / ends the AR display according to the process of starting the imaging of the camera 61 according to the operation data instructing the start of imaging or the operation data instructing the start or end of the AR display. .

一方、操作データが示す操作に対応する指示が、操作の設定に関する指示である場合(ステップS33;YES)、AR表示制御部185が、操作設定用のAR表示を行う(ステップS35)。ここで、デバイス制御部183は、AR表示中の操作デバイス3における操作に対応して操作デバイス3が操作データを送信すると、この操作データを受信して、受信した操作データに基づき、設定、及び設定の更新を行う。   On the other hand, when the instruction corresponding to the operation indicated by the operation data is an instruction related to operation setting (step S33; YES), the AR display control unit 185 performs AR display for operation setting (step S35). Here, when the operation device 3 transmits operation data in response to an operation on the operation device 3 during AR display, the device control unit 183 receives the operation data, and sets and sets the operation data based on the received operation data. Update the settings.

図7は、操作設定用のAR表示の例を示し、(A)はベゼル301の操作について設定を行うためのAR表示の例を示し、(B)はボタン309の操作について設定を行うためのAR表示の例を示す。
図7(A)の例では、使用者の視野VRに実物の操作デバイス3が視認され、この操作デバイス3に対応する位置に、ARコンテンツが画像表示部20により表示される。ARコンテンツは、割り当て候補表示A1、A2、A3、A4及び設定候補A11、A12、A13、A14である。割り当て候補表示A1、A2、A3、A4は、ベゼル301の回転に割り当てる機能の候補を示す画像であり、この例では、ベゼル301を回転させる操作で選択可能な機能の組合せを示すテキストを含む。割り当て候補表示A1は、「Home」、「戻る」、「メニュー」、「アプリ終了」の4つの文字列(テキスト)を含む。割り当て候補表示A2は、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列を含む。操作デバイス3において、ベゼル301を回転する操作が行われると、割り当て候補A1〜A4のいずれかが順に選択できる。
7A and 7B show an example of AR display for operation setting, FIG. 7A shows an example of AR display for setting the operation of the bezel 301, and FIG. 7B shows the setting for operation of the button 309. An example of AR display is shown.
In the example of FIG. 7A, the actual operation device 3 is visually recognized in the user's visual field VR, and the AR content is displayed by the image display unit 20 at a position corresponding to the operation device 3. The AR contents are assignment candidate displays A1, A2, A3, A4 and setting candidates A11, A12, A13, A14. The assignment candidate displays A1, A2, A3, and A4 are images showing candidate functions to be assigned to the rotation of the bezel 301. In this example, the assignment candidate displays A1, A2, A3, and A4 include text indicating combinations of functions that can be selected by rotating the bezel 301. The assignment candidate display A1 includes four character strings (text) of “Home”, “Return”, “Menu”, and “App end”. The allocation candidate display A2 includes four character strings of “forward”, “return”, “imaging”, and “imaging end”. When the operation of rotating the bezel 301 is performed on the operation device 3, any of the allocation candidates A1 to A4 can be selected in order.

図7(A)の例では割り当て候補A2が選択されている。このため、視野VRの中央に見える操作デバイス3に重なるように、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列が配置される。これらの文字列は、割り当てる機能の候補、すなわち、設定候補A11、A12、A13、A14である。ベゼル301の操作により、割り当て候補表示A2から、他の割り当て候補表示に切り替えられると、設定候補A11、A12、A13、A14の文字列が変更される。従って、使用者は、ベゼル301の回転操作に割り当てる機能を、割り当て候補表示A1、A2、A3、A4の中から選択して設定できる。操作デバイス3で、ボタン305が操作されると、ベゼル301の操作で選択された割り当て候補表示が確定され、設定が更新される。   In the example of FIG. 7A, the allocation candidate A2 is selected. For this reason, four character strings of “forward”, “return”, “imaging”, and “imaging end” are arranged so as to overlap the operation device 3 visible in the center of the visual field VR. These character strings are candidate functions to be assigned, that is, setting candidates A11, A12, A13, and A14. When the assignment candidate display A2 is switched to another assignment candidate display by operating the bezel 301, the character strings of the setting candidates A11, A12, A13, and A14 are changed. Therefore, the user can select and set the function assigned to the rotation operation of the bezel 301 from the assignment candidate displays A1, A2, A3, and A4. When the button 305 is operated on the operation device 3, the assignment candidate display selected by the operation of the bezel 301 is confirmed and the setting is updated.

図7(B)の例では、実物の操作デバイス3に対応する位置に、ARコンテンツとして、割り当て候補表示A21、A22、A23、A24及び設定候補A31、A32、A33、A34が表示される。割り当て候補表示A21、A22、A23、A24は、4個のボタン309に割り当てる機能の候補を示す画像であり、この例では、4つのボタン309のそれぞれが操作されたときに実行される機能を示すテキストを含む。割り当て候補表示A21は、「Home」、「戻る」、「メニュー」、「アプリ終了」の4つの文字列(テキスト)を含む。割り当て候補表示A22は、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列を含む。操作デバイス3において、ベゼル301を回転する操作が行われると、割り当て候補A21〜A24のいずれかが順に選択できる。   In the example of FIG. 7B, assignment candidate displays A21, A22, A23, and A24 and setting candidates A31, A32, A33, and A34 are displayed as AR contents at positions corresponding to the actual operation device 3. The assignment candidate displays A21, A22, A23, and A24 are images showing function candidates to be assigned to the four buttons 309. In this example, the functions executed when each of the four buttons 309 are operated are shown. Contains text. The allocation candidate display A21 includes four character strings (text) of “Home”, “Return”, “Menu”, and “App end”. The allocation candidate display A22 includes four character strings of “forward”, “return”, “imaging”, and “imaging end”. When the operation of rotating the bezel 301 is performed on the operation device 3, any of the allocation candidates A21 to A24 can be selected in order.

図7(B)の例では割り当て候補A22が選択されている。このため、視野VRの中央に見える操作デバイス3に重なるように、「進む」、「戻る」、「撮像」、「撮像終了」の4つの文字列が配置される。これらの文字列は、割り当てる機能の候補、すなわち、設定候補A31、A32、A33、A34であり、機能を割り当てるボタン309に対応する位置に表示される。ベゼル301の操作により、割り当て候補表示A22から、他の割り当て候補表示に切り替えられると、設定候補A31、A32、A33、A34の文字列が変更される。従って、使用者は、ベゼル301の回転操作に割り当てる機能を、割り当て候補表示A21、A22、A23、A24の中から選択して設定できる。操作デバイス3で、ボタン305が操作されると、ベゼル301の操作で選択された割り当て候補表示が確定され、設定が更新される。   In the example of FIG. 7B, allocation candidate A22 is selected. For this reason, four character strings of “forward”, “return”, “imaging”, and “imaging end” are arranged so as to overlap the operation device 3 visible in the center of the visual field VR. These character strings are candidates for functions to be assigned, that is, setting candidates A31, A32, A33, and A34, and are displayed at positions corresponding to buttons 309 to which functions are assigned. When the assignment candidate display A22 is switched to another assignment candidate display by the operation of the bezel 301, the character strings of the setting candidates A31, A32, A33, and A34 are changed. Therefore, the user can select and set the function assigned to the rotation operation of the bezel 301 from the assignment candidate displays A21, A22, A23, and A24. When the button 305 is operated on the operation device 3, the assignment candidate display selected by the operation of the bezel 301 is confirmed and the setting is updated.

図7(A)、(B)の例は、操作デバイス3が送信する操作データに対応して頭部装着型表示装置100が実行する機能を設定する動作を示す。機能の割り当てを設定し、更新できるので、操作デバイス3により頭部装着型表示装置100の様々な機能について操作を行える。また、AR表示を利用することで、容易に設定を行うことができる。   The examples of FIGS. 7A and 7B show an operation of setting a function to be executed by the head-mounted display device 100 corresponding to the operation data transmitted by the operation device 3. Since the assignment of functions can be set and updated, various functions of the head-mounted display device 100 can be operated by the operation device 3. Moreover, the setting can be easily performed by using the AR display.

図8は、操作デバイス3の操作に応じて頭部装着型表示装置100が実行する動作の例を示す説明図である。図8には、AR表示制御部185の制御により画像表示部20が表示するAR表示の表示態様を、操作デバイス3の操作に応じて変化させる例を示す。図8(A)は画像表示部20によるAR表示の例を示し、(B)はAR表示の表示態様を変化させた例を示す。   FIG. 8 is an explanatory diagram illustrating an example of an operation performed by the head-mounted display device 100 in response to an operation of the operation device 3. FIG. 8 shows an example in which the display mode of the AR display displayed on the image display unit 20 is changed according to the operation of the operation device 3 under the control of the AR display control unit 185. FIG. 8A shows an example of AR display by the image display unit 20, and FIG. 8B shows an example in which the display mode of the AR display is changed.

図8(A)の例では、視野VRに、実際の外景として、ステージ、出演者、及び、客席が見えている。この例では、実際の外景に重なるように、舞台上で上演されている演目に関連する文字列A51が表示される。文字列A51は、例えば舞台の台詞を示すテキストであって、ステージに重なる位置にAR表示される。
頭部装着型表示装置100は、操作デバイス3の操作に応じて、文字列A51の表示サイズを変更し、例えば図8(B)に示すように、縮小して表示する。この動作は、操作デバイス3が送信する操作データを、デバイス制御部183が解析し、AR表示の縮小に相当する操作が行われたことをデバイス制御部183が検出すると、AR表示制御部185が表示サイズを変更する。
In the example of FIG. 8A, a stage, performers, and audience seats are visible as an actual outside scene in the visual field VR. In this example, the character string A51 related to the performance being performed on the stage is displayed so as to overlap the actual outside scene. The character string A51 is, for example, text indicating a dialogue of the stage, and AR is displayed at a position overlapping the stage.
The head-mounted display device 100 changes the display size of the character string A51 according to the operation of the operation device 3, and displays the reduced size as shown in FIG. 8B, for example. In this operation, the device control unit 183 analyzes the operation data transmitted by the operation device 3, and when the device control unit 183 detects that the operation corresponding to the reduction of the AR display has been performed, the AR display control unit 185 Change the display size.

頭部装着型表示装置100では、図6及び図7を参照して説明したように、操作デバイス3における操作に、頭部装着型表示装置100が実行する動作を対応付けることができる。この対応付けは、ボタン309の操作、及び、ベゼル301の回転操作に限定されない。例えば、ボタン305の押圧操作、及びリュウズ型操作子307を回転させる操作であってもよい。また、例えば、タッチパネル304に対し指で接触する操作を含んでもよい。   In the head-mounted display device 100, as described with reference to FIGS. 6 and 7, the operation performed by the head-mounted display device 100 can be associated with the operation on the operation device 3. This association is not limited to the operation of the button 309 and the rotation operation of the bezel 301. For example, an operation of pressing the button 305 and an operation of rotating the crown-type operation element 307 may be used. Further, for example, an operation of touching the touch panel 304 with a finger may be included.

具体的には、ベゼル301を右に回す操作に対応して表示画像を拡大し、ベゼル301を左に回す操作に対応して表示画像を縮小してもよい。また、タッチパネル304の中央部に対する指の接触を検出した場合に表示画像を拡大し、タッチパネル304の周縁部(例えば、左下枠近傍)への指の接触を検出した場合に表示画像を縮小してもよい。また、タッチパネル304に接触した指が、接触したまま右回し、左回し等の回転運動をした場合に、この回転に合わせて表示画像を回転させてもよい。
また、これらの操作に対応して、頭部装着型表示装置100は、画像表示部20で表示する画像(文字を含む)の拡大、縮小に限らず、回転、コピー、ページ送り等を行ってもよい。
Specifically, the display image may be enlarged in response to an operation of turning the bezel 301 to the right, and the display image may be reduced in response to an operation of turning the bezel 301 to the left. Further, the display image is enlarged when a finger contact with the center of the touch panel 304 is detected, and the display image is reduced when a finger contact with the peripheral edge of the touch panel 304 (for example, near the lower left frame) is detected. Also good. Further, when the finger touching the touch panel 304 rotates in a clockwise direction or in a counterclockwise direction while being in contact, the display image may be rotated in accordance with the rotation.
In response to these operations, the head-mounted display device 100 performs not only enlargement / reduction of an image (including characters) displayed on the image display unit 20, but also rotation, copying, page turning, and the like. Also good.

さらに、操作デバイス3は、9軸センサー368の検出値を頭部装着型表示装置100に送信することもできる。また、操作デバイス3がGPS検出部を備えた構成とし、GPS検出部で検出する現在位置を、頭部装着型表示装置100に送信してもよい。この場合、制御部140は、操作デバイス3から受信する検出値と3軸センサー113の検出値とに基づき、操作デバイス3と頭部装着型表示装置100との相対位置を検出できる。   Furthermore, the operation device 3 can transmit the detection value of the 9-axis sensor 368 to the head-mounted display device 100. Further, the operation device 3 may include a GPS detection unit, and the current position detected by the GPS detection unit may be transmitted to the head-mounted display device 100. In this case, the control unit 140 can detect the relative position between the operation device 3 and the head-mounted display device 100 based on the detection value received from the operation device 3 and the detection value of the three-axis sensor 113.

そして、制御部140は、操作デバイス3の動き、或いは、操作デバイス3と頭部装着型表示装置100との相対位置の変化に対応して、表示画像の拡大、縮小、回転など表示の変更を行っても良く、画像のフェードイン表示、フェードアウト表示を行ってもよい。この場合、操作デバイス3を頭部装着型表示装置100に近づけたり、遠ざけたりする操作により、表示を変更できる。   Then, the control unit 140 changes display such as enlargement, reduction, and rotation of the display image in response to the movement of the operation device 3 or the change in the relative position between the operation device 3 and the head-mounted display device 100. You may perform, and you may perform fade-in display and fade-out display of an image. In this case, the display can be changed by an operation of bringing the operation device 3 close to or away from the head-mounted display device 100.

表示システム1の動作は上記の例に限定されず、例えば、次のような動作を実行できる。
操作デバイス3においてベゼル301を回転させる操作により、複数の候補を、順に切り替えて選択する操作を実現できる。この操作によれば、例えば、ファイルやフォルダーを選択する場合、仮想キーボードにおいて仮想キーを選択する場合に、ベゼル301を回転させればよい。ベゼル301は、直感的に操作が可能であり、操作デバイス3の平面部300Aの外周部に位置するため、手探りによる操作が可能である。このため、使用者は、画像表示部20により表示されるAR表示に注目しながらベゼル301を操作できる。さらに、平面部300Aとは離れた位置に設けられ、他のスイッチ式の操作子よりも大型のボタン305により、選択を確定できるので、より容易に操作を行える。ボタン305は、位置及びサイズが、ボタン309やリュウズ型操作子307とは異なるので、ベゼル301と同様に、手探りによる操作が容易である。このため、画像表示部20が表示する画像を見ながら、直感的で確実な操作を行える。
Operation | movement of the display system 1 is not limited to said example, For example, the following operations can be performed.
By the operation of rotating the bezel 301 in the operation device 3, it is possible to realize an operation of sequentially switching and selecting a plurality of candidates. According to this operation, for example, when selecting a file or folder, or when selecting a virtual key on the virtual keyboard, the bezel 301 may be rotated. The bezel 301 can be operated intuitively and is located on the outer peripheral portion of the flat surface portion 300A of the operation device 3, so that it can be operated by groping. Therefore, the user can operate the bezel 301 while paying attention to the AR display displayed by the image display unit 20. Furthermore, since the selection can be confirmed by a button 305 which is provided at a position apart from the plane portion 300A and is larger than other switch type operation elements, the operation can be performed more easily. Since the position and size of the button 305 are different from those of the button 309 and the crown-type operation element 307, the operation by groping is easy like the bezel 301. Therefore, an intuitive and reliable operation can be performed while viewing the image displayed by the image display unit 20.

また、ベゼル301を回転させる操作に応じて、制御部140は、画像表示部20が表示する画面を遷移させる動作を行ってもよい。頭部装着型表示装置100のオペレーティングシステム150は、iOS(登録商標)やAndroid(登録商標)のように、複数の画面を切り替え、遷移させる構成とすることが考えられる。この場合、ベゼル301を回転させる操作に応じて、画面を遷移させることで、ベゼル301の操作をより効果的に使用できる。   Further, the control unit 140 may perform an operation of changing a screen displayed by the image display unit 20 in accordance with an operation of rotating the bezel 301. It is conceivable that the operating system 150 of the head-mounted display device 100 has a configuration in which a plurality of screens are switched and changed like iOS (registered trademark) or Android (registered trademark). In this case, the operation of the bezel 301 can be used more effectively by changing the screen according to the operation of rotating the bezel 301.

複数の候補から一つの候補を選択する操作では、ベゼル301の操作に代えて、音声による選択が可能な構成としてもよい。この場合、候補に付された固有の名称、番号、符号等を音声で指定すると、この音声を操作デバイス3がマイク365で検出し、検出した音声のデータを頭部装着型表示装置100に送信し、制御部140が設定を行ってもよい。   In the operation of selecting one candidate from a plurality of candidates, instead of the operation of the bezel 301, it may be possible to select by voice. In this case, when a unique name, number, code, or the like assigned to the candidate is designated by voice, the operation device 3 detects this voice with the microphone 365 and transmits the detected voice data to the head-mounted display device 100. Then, the control unit 140 may perform the setting.

また、頭部装着型表示装置100が操作デバイス3に制御データを送信して、操作デバイス3を動作させることも可能である。例えば、制御部140のデバイス制御部183は、タッチパネル304、及び9軸センサー368の検出開始や、不検出状態への移行を指示する制御データを送信してもよい。この場合、操作デバイス3におけるセンシングの実行/不実行を頭部装着型表示装置100が制御でき、誤操作を防止し、電源部360の消耗を防止できる。また、デバイス制御部183は、カメラ311の撮像開始および撮像停止を指示する制御データを送信してもよい。また、デバイス制御部183は、LCD303の点灯、消灯、点滅を制御する制御データを送信してもよい。   It is also possible for the head-mounted display device 100 to operate the operation device 3 by transmitting control data to the operation device 3. For example, the device control unit 183 of the control unit 140 may transmit control data instructing to start detection of the touch panel 304 and the 9-axis sensor 368 or to shift to a non-detection state. In this case, execution / non-execution of sensing in the operation device 3 can be controlled by the head-mounted display device 100, so that an erroneous operation can be prevented and consumption of the power supply unit 360 can be prevented. In addition, the device control unit 183 may transmit control data instructing to start and stop imaging of the camera 311. In addition, the device control unit 183 may transmit control data for controlling lighting, extinguishing, and blinking of the LCD 303.

また、操作デバイス3は、頭部装着型表示装置100が送信するデータに基づく出力を行うこともできる。例えば、デバイス制御部183が、通信部117によりテキストデータや画像データを送信し、操作デバイス3が、頭部装着型表示装置100から受信するテキストデータや画像データをLCD303に表示してもよい。この場合、頭部装着型表示装置100の動作状態(ステータス)を、LCD303に表示させて、使用者が頭部装着型表示装置100の動作状態を容易に把握できる。例えば、頭部装着型表示装置100を装着していない状態で、使用者が、頭部装着型表示装置100の動作状態を知りたい場合に、有用である。また、操作デバイス3が、頭部装着型表示装置100から受信するデータに従ってスピーカー370から音声を出力してもよいし、バイブレーター369を動かして振動を発生してもよい。   The operation device 3 can also perform output based on data transmitted from the head-mounted display device 100. For example, the device control unit 183 may transmit text data and image data through the communication unit 117, and the operation device 3 may display text data and image data received from the head-mounted display device 100 on the LCD 303. In this case, the operation state (status) of the head-mounted display device 100 is displayed on the LCD 303 so that the user can easily grasp the operation state of the head-mounted display device 100. For example, it is useful when the user wants to know the operating state of the head-mounted display device 100 without wearing the head-mounted display device 100. The operation device 3 may output sound from the speaker 370 according to data received from the head-mounted display device 100, or may generate vibration by moving the vibrator 369.

さらに、デバイス制御部183が操作デバイス3に対し、撮像実行と撮像画像データの送信を指示する制御データを送信し、操作デバイス3が撮像を行って、撮像画像データを画像表示部20に表示することもできる。この場合、頭部装着型表示装置100が備えるカメラ61では撮像できない角度から撮像を行い、撮像画像を画像表示部20に表示できる。また、この撮像画像データを制御部140が解析してもよい。   Further, the device control unit 183 transmits control data instructing execution of imaging and transmission of captured image data to the operation device 3, and the operation device 3 performs imaging and displays the captured image data on the image display unit 20. You can also. In this case, imaging can be performed from an angle that cannot be captured by the camera 61 included in the head-mounted display device 100, and the captured image can be displayed on the image display unit 20. Further, the control unit 140 may analyze the captured image data.

また、表示システム1では、操作デバイス3のNFC部362により、非接触型ICカードや、RFIDタグに記録されたデータを読み取り、読み取ったデータを無線通信部361から通信部117に送信してもよい。この場合、ICカード型電子マネーの残高等を画像表示部20により表示できる。   In the display system 1, even if the NFC unit 362 of the operation device 3 reads data recorded on a non-contact type IC card or an RFID tag, the read data is transmitted from the wireless communication unit 361 to the communication unit 117. Good. In this case, the balance or the like of the IC card type electronic money can be displayed by the image display unit 20.

このように、表示システム1では、シースルー方式の頭部装着型表示装置100と、時計型の操作デバイス3とを組み合わせ、操作デバイス3の操作により頭部装着型表示装置100を動作させる。これにより、操作時以外はハンズフリーを実現し、操作時でも自然な動きで操作できる。また、操作デバイス3は、時計モードで動作することにより腕時計として使用できる。この操作デバイス3を、操作用のユーザーインターフェイスとして使うことで、操作時以外はハンズフリーを実現し、操作時でも自然な動きで操作することを可能とする。また、画像表示部20の表示により、操作デバイス3に関する情報を見ることもでき、LCD303を直視する必要がなくなるので、LCD303の表示を見るために手を使う必要がないという利点もある。   Thus, in the display system 1, the see-through head-mounted display device 100 and the clock-type operation device 3 are combined, and the head-mounted display device 100 is operated by operating the operation device 3. As a result, hands-free operation is realized except during operation, and operation can be performed with natural movement even during operation. The operation device 3 can be used as a wristwatch by operating in the clock mode. By using the operation device 3 as a user interface for operation, hands-free operation is realized except during operation, and operation can be performed with natural movement even during operation. In addition, the display on the image display unit 20 allows the user to see information related to the operation device 3, and it is not necessary to look directly at the LCD 303. Therefore, there is an advantage that it is not necessary to use a hand to view the display on the LCD 303.

また、タッチパネル304がいわゆるマルチタッチ操作に対応する場合、タッチパネル304に対する複数の操作点の間隔を拡大、或いは縮小させる操作等に対応して、頭部装着型表示装置100の表示画像を拡大、縮小、或いは回転させる動作を行ってもよい。   Further, when the touch panel 304 supports a so-called multi-touch operation, the display image of the head-mounted display device 100 is enlarged or reduced in response to an operation for expanding or reducing the interval between a plurality of operation points on the touch panel 304. Alternatively, a rotating operation may be performed.

また、表示システム1では、頭部装着型表示装置100が、操作デバイス3との相対位置を検出することが可能である。この位置検出には種々の方法を用いることが可能であるが、本実施形態では、頭部装着型表示装置100が操作デバイス3を含む範囲を撮像し、撮像画像データに基づき相対位置を特定する例を説明する。   In the display system 1, the head-mounted display device 100 can detect a relative position with the operation device 3. Although various methods can be used for this position detection, in the present embodiment, the head-mounted display device 100 images the range including the operation device 3 and specifies the relative position based on the captured image data. An example will be described.

図9は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、頭部装着型表示装置100と操作デバイス3との相対位置を検出する位置検出処理を示す。
制御部140は、撮像処理部181によりカメラ61を制御して撮像を実行する(ステップS51)。制御部140は、カメラ61の撮像画像データを取得し、取得した撮像画像データを解析して、操作デバイス3の画像を検出する(ステップS52)。これにより、カメラ61の撮像画像において、操作デバイス3が写っている位置や操作デバイス3の画像の形状を検出できる。
FIG. 9 is a flowchart showing the operation of the head-mounted display device 100, and particularly shows position detection processing for detecting the relative position between the head-mounted display device 100 and the operation device 3.
The control unit 140 controls the camera 61 by the imaging processing unit 181 and executes imaging (step S51). The control unit 140 acquires captured image data of the camera 61, analyzes the acquired captured image data, and detects an image of the operation device 3 (step S52). Thereby, in the captured image of the camera 61, the position where the operation device 3 is reflected and the shape of the image of the operation device 3 can be detected.

続いて、制御部140は、撮像画像における操作デバイス3の画像の位置及びサイズに基づき、操作デバイス3とカメラ61との相対位置を算出する(ステップS53)。すなわち、制御部140は、操作デバイス3の画像の位置からカメラ61の画角の中心軸、例えばカメラ61の撮像レンズの光軸に対する操作デバイス3の位置を算出する。また、制御部140は、撮像画像における操作デバイス3の画像のサイズから、操作デバイス3とカメラ61の撮像面との距離を求める。ここで、制御部140は、カメラ61の撮像条件(ズーム倍率等)を用いて算出を行ってもよい。   Subsequently, the control unit 140 calculates the relative position between the operation device 3 and the camera 61 based on the position and size of the image of the operation device 3 in the captured image (step S53). That is, the control unit 140 calculates the position of the operation device 3 with respect to the central axis of the angle of view of the camera 61, for example, the optical axis of the imaging lens of the camera 61, from the image position of the operation device 3. In addition, the control unit 140 obtains the distance between the operation device 3 and the imaging surface of the camera 61 from the size of the image of the operation device 3 in the captured image. Here, the control unit 140 may perform the calculation using the imaging conditions (zoom magnification, etc.) of the camera 61.

ステップS53で、制御部140は、カメラ61と操作デバイス3との相対位置を求めた後、求めた相対位置を、頭部装着型表示装置100と操作デバイス3との相対位置に変換してもよい。
頭部装着型表示装置100及び操作デバイス3は、撮像画像における座標に比べて大きいため、基準点を設定することが現実的である。すなわち、頭部装着型表示装置100と操作デバイス3との相対位置は、頭部装着型表示装置100において設定される基準点と、操作デバイス3において設定される基準点との相対位置として求められる。頭部装着型表示装置100における基準点がカメラ61の撮像面において光軸に重なる点である場合、ステップS53で求めた相対位置は、そのまま、操作デバイス3と頭部装着型表示装置100との相対位置となる。頭部装着型表示装置100の基準点がカメラ61の撮像面とは異なる位置にある場合、制御部140は、上述した変換を行えばよい。また、操作デバイス3における基準点は、例えば、ベゼル301の中心とすればよい。
In step S53, after obtaining the relative position between the camera 61 and the operation device 3, the control unit 140 converts the obtained relative position into the relative position between the head-mounted display device 100 and the operation device 3. Good.
Since the head-mounted display device 100 and the operation device 3 are larger than the coordinates in the captured image, it is realistic to set a reference point. That is, the relative position between the head-mounted display device 100 and the operation device 3 is obtained as the relative position between the reference point set in the head-mounted display device 100 and the reference point set in the operation device 3. . When the reference point in the head-mounted display device 100 is a point that overlaps the optical axis on the imaging surface of the camera 61, the relative position obtained in step S53 remains as it is between the operation device 3 and the head-mounted display device 100. Relative position. When the reference point of the head-mounted display device 100 is at a position different from the imaging surface of the camera 61, the control unit 140 may perform the above-described conversion. The reference point in the operation device 3 may be the center of the bezel 301, for example.

制御部140は、撮像画像における操作デバイス3の画像の形状に基づき、操作デバイス3のLCD303の向きを特定する(ステップS54)。ステップS54で、制御部140は、撮像画像における操作デバイス3のベゼル301の形状、バンド部300を含む操作デバイス3の全体形状、或いは、LCD303の形状に基づいて向きを算出できる。また、例えば図2(A)に示したように、操作デバイス3がLCD303に矢印等の図形を表示している場合や、LCD303に時刻を表示している場合に、これらLCD303の表示画像に基づいて向きを求めてもよい。   The control unit 140 identifies the orientation of the LCD 303 of the operation device 3 based on the shape of the image of the operation device 3 in the captured image (step S54). In step S <b> 54, the control unit 140 can calculate the orientation based on the shape of the bezel 301 of the operation device 3 in the captured image, the entire shape of the operation device 3 including the band unit 300, or the shape of the LCD 303. Also, for example, as shown in FIG. 2A, when the operation device 3 displays a graphic such as an arrow on the LCD 303 or when the time is displayed on the LCD 303, the display image of the LCD 303 is used. You may ask for direction.

その後、制御部140は、ステップS53で算出した操作デバイス3と頭部装着型表示装置100との相対位置を示すデータ、及び、ステップS54で特定した頭部装着型表示装置100に対する操作デバイス3の向きを示すデータを生成する。制御部140は、生成したデータを含む相対位置データを、記憶部120に記憶する(ステップS55)。   Thereafter, the control unit 140 includes data indicating the relative position between the operation device 3 calculated in step S53 and the head-mounted display device 100, and the operation device 3 corresponding to the head-mounted display device 100 specified in step S54. Data indicating the direction is generated. The control unit 140 stores the relative position data including the generated data in the storage unit 120 (step S55).

例えば、図6のステップS35に示した動作で、AR表示制御部185は、頭部装着型表示装置100の使用者が画像表示部20越しに操作デバイス3を見ている状態で、操作デバイス3に重なって見えるように、ARコンテンツを表示する。ここで、AR表示制御部185は、図9に示した動作で検出した操作デバイス3と頭部装着型表示装置100との相対位置、及び、頭部装着型表示装置100に対する操作デバイス3の向きに基づき、ARコンテンツの表示位置を決定する。この処理で、AR表示制御部185は、カメラ61の撮像範囲と、画像表示部20の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。この位置関係は、記憶部120に記憶した相対位置データから求めることができる。
AR表示制御部185は、操作デバイス3と頭部装着型表示装置100との間の距離に対応して、ARコンテンツの表示サイズを調整してもよい。また、AR表示制御部185は、頭部装着型表示装置100に対する操作デバイス3のLCD303の向きに対応して、ARコンテンツの表示位置を調整してもよいし、ARコンテンツに含まれる画像を変形してもよい。
For example, in the operation shown in step S35 of FIG. 6, the AR display control unit 185 causes the operation device 3 to be displayed while the user of the head-mounted display device 100 is looking at the operation device 3 through the image display unit 20. AR content is displayed so that it appears to overlap. Here, the AR display control unit 185 determines the relative position between the operation device 3 and the head-mounted display device 100 detected by the operation shown in FIG. 9 and the direction of the operation device 3 with respect to the head-mounted display device 100. Based on the above, the display position of the AR content is determined. In this process, the AR display control unit 185 determines the display position of the AR content corresponding to the position of the object based on the positional relationship between the imaging range of the camera 61 and the display area of the image display unit 20. This positional relationship can be obtained from the relative position data stored in the storage unit 120.
The AR display control unit 185 may adjust the display size of the AR content according to the distance between the operation device 3 and the head-mounted display device 100. In addition, the AR display control unit 185 may adjust the display position of the AR content in accordance with the direction of the LCD 303 of the operation device 3 with respect to the head-mounted display device 100, or deform an image included in the AR content. May be.

頭部装着型表示装置100が操作デバイス3との相対位置を検出する方法は、図9に示した方法に限定されず、例えば、操作デバイス3と頭部装着型表示装置100とがデータ通信を行い、相互の検出結果を利用してもよい。この動作例を図10に示す。   The method for detecting the relative position of the head-mounted display device 100 with the operation device 3 is not limited to the method shown in FIG. 9. For example, the operation device 3 and the head-mounted display device 100 perform data communication. And mutual detection results may be used. An example of this operation is shown in FIG.

図10は、表示システム1の動作を示すフローチャートであり、(A)は操作デバイス3の動作を示し、(B)は頭部装着型表示装置100の動作を示す。
図10の動作は、例えば、操作デバイス3がUIモードである場合に実行する。
操作デバイス3の制御部350は、カメラ311、311により撮像を実行して使用者の視線を検出する(ステップS61)。制御部350は、視線を検出するまで撮像および撮像画像の解析を行う(ステップS61;NO)。
FIG. 10 is a flowchart showing the operation of the display system 1, (A) shows the operation of the operation device 3, and (B) shows the operation of the head-mounted display device 100.
The operation in FIG. 10 is executed when the operation device 3 is in the UI mode, for example.
The control unit 350 of the operation device 3 detects the user's line of sight by performing imaging with the cameras 311 and 311 (step S61). The control unit 350 performs imaging and analysis of the captured image until a line of sight is detected (step S61; NO).

制御部350は、視線を検出した場合(ステップS61;YES)、カメラ311、311による撮像を実行し(ステップS62)、撮像画像データを取得する(ステップS63)。制御部350は、撮像画像データを無線通信部361により送信する(ステップS64)。ステップS62では、カメラ311、311のいずれか一方のみを用いて撮像をしてもよいし、2つのカメラ311、311の両方で撮像を行い、両方の撮像画像データを取得して送信してもよい。   When the line of sight is detected (step S61; YES), the control unit 350 performs imaging with the cameras 311 and 311 (step S62), and acquires captured image data (step S63). The control unit 350 transmits the captured image data by the wireless communication unit 361 (step S64). In step S62, imaging may be performed using only one of the cameras 311 and 311. Alternatively, both of the two cameras 311 and 311 may be captured, and both captured image data may be acquired and transmitted. Good.

制御部140は、通信部117によって撮像画像データを操作デバイス3から受信し(ステップS71)、受信した撮像画像データを解析して、頭部装着型表示装置100の画像を検出する(ステップS72)。これにより、撮像画像において、頭部装着型表示装置100が写っている位置や頭部装着型表示装置100の画像の形状を検出できる。   The control unit 140 receives captured image data from the operation device 3 through the communication unit 117 (step S71), analyzes the received captured image data, and detects an image of the head-mounted display device 100 (step S72). . Thereby, in the captured image, the position where the head-mounted display device 100 is reflected and the shape of the image of the head-mounted display device 100 can be detected.

続いて、制御部140は、撮像画像における頭部装着型表示装置100の画像の位置及びサイズに基づき、操作デバイス3と頭部装着型表示装置100との相対位置を算出する(ステップS73)。例えば、制御部140は、頭部装着型表示装置100の画像の位置から、カメラ311、311の画角の中心軸に対する頭部装着型表示装置100の位置を算出する。また、制御部140は、撮像画像における頭部装着型表示装置100の画像のサイズから、頭部装着型表示装置100と操作デバイス3との距離を求める。ここで、制御部140は、カメラ311、311の撮像条件(ズーム倍率等)を用いて算出を行ってもよい。   Subsequently, the control unit 140 calculates the relative position between the operation device 3 and the head-mounted display device 100 based on the position and size of the image of the head-mounted display device 100 in the captured image (step S73). For example, the control unit 140 calculates the position of the head-mounted display device 100 with respect to the center axis of the angle of view of the cameras 311 and 311 from the position of the image of the head-mounted display device 100. In addition, the control unit 140 obtains the distance between the head-mounted display device 100 and the operation device 3 from the size of the image of the head-mounted display device 100 in the captured image. Here, the control unit 140 may perform the calculation using the imaging conditions (such as zoom magnification) of the cameras 311 and 311.

ステップS73で、制御部140は、複数のカメラ311、311の撮像画像を用いて、より高精度な検出を行ってもよい。例えば、これら複数の撮像画像の視差を算出し、この視差から、操作デバイス3と頭部装着型表示装置100との間の距離を求めてもよい。
その後、制御部140は、ステップS73で算出した操作デバイス3と頭部装着型表示装置100との相対位置を示すデータを生成する(ステップS74)。制御部140は、生成したデータを含む相対位置データを、記憶部120に記憶する。
In step S <b> 73, the control unit 140 may perform detection with higher accuracy using captured images of the plurality of cameras 311 and 311. For example, the parallax of the plurality of captured images may be calculated, and the distance between the operation device 3 and the head-mounted display device 100 may be obtained from the parallax.
Thereafter, the control unit 140 generates data indicating the relative position between the operation device 3 calculated in step S73 and the head-mounted display device 100 (step S74). The control unit 140 stores relative position data including the generated data in the storage unit 120.

このように、操作デバイス3と頭部装着型表示装置100とが連動して、操作デバイス3と頭部装着型表示装置100との相対位置を求める処理を行ってもよい。この図10の動作において、ステップS72〜S73の処理を、制御部350が実行し、制御部350が相対位置を示すデータを生成して、頭部装着型表示装置100に送信してもよい。   As described above, the operation device 3 and the head-mounted display device 100 may be linked to perform processing for obtaining a relative position between the operation device 3 and the head-mounted display device 100. In the operation of FIG. 10, the processing of steps S72 to S73 may be executed by the control unit 350, and the control unit 350 may generate data indicating the relative position and transmit the data to the head-mounted display device 100.

図9及び図10を参照して説明したように、頭部装着型表示装置100は、頭部装着型表示装置100に対する操作デバイス3の位置を検出できる。そして、頭部装着型表示装置100は、操作デバイス3の位置に対応してARコンテンツの表示を行うことができる。さらに、上記相対位置の検出を繰り返し実行することで、操作デバイス3を基準として、頭部装着型表示装置100の動きを求めることができる。また、操作デバイス3の位置や向きに対応して、例えば、画像表示部20に表示する画面を遷移させてもよい。この場合、操作デバイス3と頭部装着型表示装置100との相対位置を変化させることが、頭部装着型表示装置100に対する操作に相当する。   As described with reference to FIGS. 9 and 10, the head-mounted display device 100 can detect the position of the operation device 3 with respect to the head-mounted display device 100. The head-mounted display device 100 can display AR content corresponding to the position of the operation device 3. Furthermore, by repeatedly executing the detection of the relative position, the movement of the head-mounted display device 100 can be obtained with the operation device 3 as a reference. Further, for example, the screen displayed on the image display unit 20 may be changed in accordance with the position and orientation of the operation device 3. In this case, changing the relative position between the operation device 3 and the head-mounted display device 100 corresponds to an operation on the head-mounted display device 100.

例えば、図6のステップS35で、AR表示制御部185は、頭部装着型表示装置100の使用者が画像表示部20越しに操作デバイス3を見ている状態で、操作デバイス3に重なって見えるように、ARコンテンツを表示する。ここで、AR表示制御部185は、例えば操作デバイス3と頭部装着型表示装置100との相対位置、及び、頭部装着型表示装置100に対する操作デバイス3の向きに基づき、ARコンテンツの表示位置を決定する。この処理で、AR表示制御部185は、カメラ61の撮像範囲と、画像表示部20の表示領域との位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。この位置関係は、例えば記憶部120に記憶する相対位置データから求めることができる。
AR表示制御部185は、操作デバイス3と頭部装着型表示装置100との間の距離に対応して、ARコンテンツの表示サイズを調整してもよい。また、AR表示制御部185は、頭部装着型表示装置100に対する操作デバイス3のLCD303の向きに対応して、ARコンテンツの表示位置を調整してもよいし、ARコンテンツに含まれる画像を変形してもよい。
For example, in step S35 of FIG. 6, the AR display control unit 185 appears to overlap the operation device 3 while the user of the head-mounted display device 100 is looking at the operation device 3 through the image display unit 20. Thus, the AR content is displayed. Here, the AR display control unit 185 displays the AR content display position based on, for example, the relative position between the operation device 3 and the head-mounted display device 100 and the orientation of the operation device 3 with respect to the head-mounted display device 100. To decide. In this process, the AR display control unit 185 determines the display position of the AR content corresponding to the position of the object based on the positional relationship between the imaging range of the camera 61 and the display area of the image display unit 20. This positional relationship can be obtained from relative position data stored in the storage unit 120, for example.
The AR display control unit 185 may adjust the display size of the AR content according to the distance between the operation device 3 and the head-mounted display device 100. In addition, the AR display control unit 185 may adjust the display position of the AR content in accordance with the direction of the LCD 303 of the operation device 3 with respect to the head-mounted display device 100, or deform an image included in the AR content. May be.

また、制御部140は、図9または図10の動作で特定した操作デバイス3との相対位置及び向きに基づき、9軸センサー66の検出軸(図1のX,Y,Z軸)と、LCD303の向き(傾き)との対応付けを行ってもよい。これにより、頭部装着型表示装置100の傾きとLCD303の傾きとの双方に連動して、画像表示部20の表示画像や、LCD303における表示画像を変化させることができる。   Further, the control unit 140 determines the detection axes (X, Y, Z axes in FIG. 1) of the 9-axis sensor 66 and the LCD 303 based on the relative position and orientation with the operation device 3 specified by the operation of FIG. Correlation with the direction (inclination) may be performed. Thereby, the display image on the image display unit 20 and the display image on the LCD 303 can be changed in conjunction with both the tilt of the head-mounted display device 100 and the tilt of the LCD 303.

このほか、操作デバイス3と頭部装着型表示装置100とが連動して動作する例としては、例えば、制御部350の制御により、LCD303にマーカーを表示し、このマーカーを頭部装着型表示装置100が認識する態様が挙げられる。制御部140は、カメラ61の撮像画像からマーカーを検出する。LCD303が表示するマーカーが、バーコードや二次元コード等、情報を含めることが可能なマーカーである場合、制御部140は読取結果から情報を取得できる。制御部140は、取得した情報に基づき、通信部117により操作デバイス3との間の通信を確立する動作等を行える。また、複数の操作デバイス3がある場合に、これらの操作デバイス3を識別することも可能となる。この場合、特定の操作デバイス3と頭部装着型表示装置100との相対位置を検出する動作や、特定の操作デバイス3と通信を確立するといった動作が可能となる。   In addition, as an example in which the operation device 3 and the head-mounted display device 100 operate in conjunction with each other, for example, a marker is displayed on the LCD 303 under the control of the control unit 350, and this marker is displayed on the head-mounted display device. The aspect which 100 recognizes is mentioned. The control unit 140 detects a marker from the captured image of the camera 61. When the marker displayed on the LCD 303 is a marker that can include information such as a barcode or a two-dimensional code, the control unit 140 can acquire information from the reading result. The control unit 140 can perform an operation of establishing communication with the operation device 3 by the communication unit 117 based on the acquired information. Further, when there are a plurality of operation devices 3, it is possible to identify these operation devices 3. In this case, an operation for detecting the relative position between the specific operation device 3 and the head-mounted display device 100 and an operation for establishing communication with the specific operation device 3 are possible.

[操作デバイスの別の構成例]
ここで、操作対象物の別の構成例として、操作対象物4、5を使用する場合について説明する。
上記実施形態の表示システム1の説明では、頭部装着型表示装置100と通信を実行可能な操作デバイス3を使用者が使用する場合を例示した。
頭部装着型表示装置100は、操作デバイス3に限らず、例えば通信機能を有しないような操作対象物を使用者が操作する場合も、操作対象物の操作に対応する処理を実行できる。
[Another configuration example of the operation device]
Here, the case where the operation objects 4 and 5 are used as another configuration example of the operation object will be described.
In the description of the display system 1 of the above embodiment, the case where the user uses the operation device 3 that can communicate with the head-mounted display device 100 is illustrated.
The head-mounted display device 100 is not limited to the operation device 3 and can execute processing corresponding to the operation of the operation object even when the user operates an operation object that does not have a communication function, for example.

図13は、操作対象物の構成例として、操作対象物4の構成を示す外観図である。
操作対象物4は、操作デバイス3と同様に腕時計型のデバイスであるが、操作デバイス3のような通信機能は必須ではないため、ここでは操作対象物と称する。操作対象物4は、例えば、一般的に使用される腕時計である。
図13に例示する操作対象物4は、腕時計の本体ケースに、リュウズ401、ベゼル402、文字盤403、長針404、短針405、インデックス406、及び日付窓407を備えるアナログ式の腕時計である。リュウズ401は通常位置において回転させることが可能であり、リュウズ401を図中右方向に引き出して回転させることにより、長針404及び短針405を回転させ、日付窓407の日付表示を送り、日時の調整を行える。
FIG. 13 is an external view showing a configuration of the operation target object 4 as a configuration example of the operation target object.
Although the operation target 4 is a wristwatch type device like the operation device 3, a communication function like the operation device 3 is not indispensable. The operation target 4 is, for example, a commonly used watch.
The operation target 4 illustrated in FIG. 13 is an analog type wristwatch including a crown 401, a bezel 402, a dial 403, a long hand 404, a short hand 405, an index 406, and a date window 407 in a wristwatch body case. The crown 401 can be rotated at the normal position. By pulling the crown 401 rightward in the figure and rotating it, the long hand 404 and the short hand 405 are rotated, the date display of the date window 407 is sent, and the date and time are adjusted. Can be done.

なお、文字盤403の位置に液晶表示パネルを備え、この液晶表示パネルに長針404、短針405、及びインデックス406の画像を表示する腕時計であってもよい。また、インデックス406は、数字であってもよいし、記号であってもよいし、その他、長針404及び短針405の位置の目印となる形状であれば何でもよい。また、日付窓407は必須ではなく、日付窓407を備えていない構成であってもよい。また、操作対象物4は、プッシュ操作が可能なボタン408を備える。図13の例では4個のボタン408を備えているが、ボタン408の数や位置は任意に変更可能である。また、ベゼル402も必須ではないが、図13の例ではベゼル402は図中矢印で示すように、使用者の操作によって左右に手動で回転させることができる。   A wristwatch that includes a liquid crystal display panel at the position of the dial 403 and displays images of the long hands 404, the short hands 405, and the index 406 on the liquid crystal display panel may be used. The index 406 may be a number, a symbol, or any other shape that serves as a mark for the positions of the long hand 404 and the short hand 405. Further, the date window 407 is not essential, and the date window 407 may be omitted. In addition, the operation target 4 includes a button 408 that can be pushed. In the example of FIG. 13, four buttons 408 are provided, but the number and position of the buttons 408 can be arbitrarily changed. Also, the bezel 402 is not essential, but in the example of FIG. 13, the bezel 402 can be manually rotated to the left and right by the user's operation, as indicated by the arrows in the figure.

操作対象物4は一般的な腕時計の一例として示すものであり、例えば、文字盤403の代わりに数字を7セグメント表示する液晶表示パネルを備えたディジタル式の腕時計を、頭部装着型表示装置100が操作対象物として認識する構成としてもよい。また、文字盤403及びケースの形状は円形に限らず、三角形や四角形であってもよい。   The operation object 4 is shown as an example of a general wristwatch. For example, instead of the dial 403, a digital wristwatch including a liquid crystal display panel that displays numerals in seven segments is used as the head-mounted display device 100. It is good also as a structure which recognizes as an operation target object. The shapes of the dial 403 and the case are not limited to a circle, and may be a triangle or a rectangle.

図14は、操作対象物の他の例を示す図である。図14に示す操作対象物5は、操作対象物4(図13)と同様に、腕時計の本体ケースに、リュウズ501、ベゼル502、及び、ボタン508を備える。また、操作対象物5は、操作対象物4の文字盤403と同じ位置に、表示面503を備える。表示面503は、液晶表示パネル、有機ELパネル、或いは、電子ペーパーで構成される表示画面である。
リュウズ501は手動で回転させることが可能な構成であってもよいし、プッシュボタンであってもよい。ベゼル502は手動で回転させることが可能な構成であってもよいし、固定された装飾であってもよい。ボタン508はプッシュ式のボタンであってもよい。
FIG. 14 is a diagram illustrating another example of the operation target object. 14 includes a crown 501, a bezel 502, and a button 508 in the main body case of the wristwatch, similarly to the operation target 4 (FIG. 13). Further, the operation target 5 includes a display surface 503 at the same position as the dial 403 of the operation target 4. The display surface 503 is a display screen configured by a liquid crystal display panel, an organic EL panel, or electronic paper.
The crown 501 may be configured to be manually rotated or may be a push button. The bezel 502 may be configured to be manually rotated, or may be a fixed decoration. The button 508 may be a push button.

操作対象物5は、表示面503に、マーカー510を表示する。マーカー510は、複数のマーク511を含む。マーク511の位置は予め定められた位置であり、複数のマーク511の表示色、模様等が異なっていてもよい。操作対象物5は、通常時は表示面503に日付、時、分、秒、曜日等を表示し、ボタン508等の操作に応じて、マーカー510を表示する。また、操作対象物5の表示面503に代えて、文字盤403(図13)を備えてもよく、粘着性のシール(ステッカー)でマーカー510を構成し、このシールを文字盤403や表示面503に貼付してもよい。また、操作対象物5が撮像部(図示略)を備え、撮像部(図示略)の撮像画像により画像表示部20を認識した場合に、操作対象物5の制御により表示面503にマーカー510を表示してもよい。   The operation target 5 displays a marker 510 on the display surface 503. The marker 510 includes a plurality of marks 511. The position of the mark 511 is a predetermined position, and the display color, pattern, etc. of the plurality of marks 511 may be different. The operation target 5 normally displays the date, hour, minute, second, day of the week, etc. on the display surface 503, and displays the marker 510 according to the operation of the button 508 or the like. Moreover, it may replace with the display surface 503 of the operation target object 5, and may provide the dial 403 (FIG. 13), and the marker 510 is comprised with the adhesive seal | sticker (sticker), and this seal | sticker is used for the dial 403 or the display surface. You may stick to 503. In addition, when the operation target 5 includes an imaging unit (not shown) and the image display unit 20 is recognized by a captured image of the imaging unit (not shown), the marker 510 is placed on the display surface 503 by the control of the operation target 5. It may be displayed.

図13の操作対象物4は4個のボタン408を備えているが、ボタン408の数や位置は任意に変更可能である。操作対象物5が備えるボタン508についても同様である。また、ボタン408、508はタッチセンサー式の操作部であってもよいし、ベゼル402、502は必須ではなく、操作対象物4、5のベルト等の形状も任意である。   Although the operation target 4 in FIG. 13 includes four buttons 408, the number and positions of the buttons 408 can be arbitrarily changed. The same applies to the button 508 provided in the operation target 5. The buttons 408 and 508 may be touch-sensitive operation units, the bezels 402 and 502 are not essential, and the shapes of the operation objects 4 and 5 such as belts are arbitrary.

図15は頭部装着型表示装置100の動作を示すフローチャートであり、操作対象物4、5を使用者が使用する場合の動作を示す。
制御部140は、撮像処理部181によりカメラ61を制御して撮像を実行させ(ステップS101)、撮像画像データを取得する。制御部140は、AR表示制御部185により、撮像画像から操作対象物4または操作対象物5の画像を検出する(ステップS102)。AR表示制御部185が操作対象物4、5の画像を検出する処理は、例えば、予め記憶部120に記憶する操作対象物4、5の画像の特徴量を示すデータを用いることで実現できる。
FIG. 15 is a flowchart showing the operation of the head-mounted display device 100, and shows the operation when the user uses the operation objects 4 and 5.
The control unit 140 controls the camera 61 by the imaging processing unit 181 to execute imaging (step S101), and acquires captured image data. The control unit 140 causes the AR display control unit 185 to detect the image of the operation target 4 or the operation target 5 from the captured image (step S102). The process in which the AR display control unit 185 detects the images of the operation objects 4 and 5 can be realized by using, for example, data indicating the feature amount of the image of the operation objects 4 and 5 stored in the storage unit 120 in advance.

制御部140は、ステップS102で検出した操作対象物を、操作に使用する操作対象物として決定する(ステップS103)。カメラ61の撮像画像で複数の操作対象物4、5が検出された場合には、例えば使用者の制御装置10に対する操作によって、操作に使用する操作対象物を選択し決定してもよい。   The control unit 140 determines the operation target detected in step S102 as the operation target used for the operation (step S103). When a plurality of operation objects 4 and 5 are detected in the captured image of the camera 61, for example, an operation object to be used for the operation may be selected and determined by an operation on the control device 10 by the user.

制御部140は、AR表示制御部185によって、ステップS103で決定した操作対象物に対応する操作用画像(制御対象対応画像)を表示する(ステップS104)。操作用画像は、操作対象物の形状等に対応する画像であり、操作対象物ごとに予め用意されて記憶部120に記憶される。   The control unit 140 causes the AR display control unit 185 to display an operation image (control target corresponding image) corresponding to the operation target determined in step S103 (step S104). The operation image is an image corresponding to the shape or the like of the operation target, and is prepared in advance for each operation target and stored in the storage unit 120.

図16は、操作用画像を表示した状態の例を示す図であり、操作対象物4に対応する操作用画像を表示した状態を示す。
使用者の視野VRには実空間の操作対象物4が、画像表示部20を透過して視認される。AR表示制御部185は、操作対象物4に対応する位置に見えるように、操作表示B11〜B19を含む操作用画像を表示する。操作表示B11〜B19のそれぞれは、操作対象物4の部分(制御オブジェクト)に対応する。操作表示B11〜B19のそれぞれは、図16に示すように、対応する部分を示す矢印を含んでもよい。また、操作表示B11〜B19のそれぞれは、操作対象物4の部分に対する操作により実行される処理内容を、テキストや画像により案内する。
FIG. 16 is a diagram illustrating an example of a state in which an operation image is displayed, and illustrates a state in which an operation image corresponding to the operation target 4 is displayed.
In the user's visual field VR, the operation object 4 in real space is seen through the image display unit 20. The AR display control unit 185 displays an operation image including the operation displays B11 to B19 so that the AR display control unit 185 can be seen at a position corresponding to the operation target 4. Each of the operation displays B11 to B19 corresponds to a portion (control object) of the operation target object 4. Each of the operation displays B11 to B19 may include an arrow indicating a corresponding portion as shown in FIG. In addition, each of the operation displays B11 to B19 guides the processing contents executed by the operation on the operation target object 4 by text and images.

図16の例で、操作表示B11は、長針404の操作により表示倍率を拡大することを示す。操作表示B12は、短針405の操作により表示倍率を縮小することを示す。長針404及び短針405の位置は時刻により変化する。このため、AR表示制御部185は、カメラ61の撮像画像から長針404及び短針405の位置を特定し、長針404及び/又は短針405の位置に合わせて操作表示B11、B12の表示位置を変更あるいは調整してもよい。操作表示B13はリュウズ401を回転させる操作により頭部装着型表示装置100がメニュー画面を表示し、例えば図11(A)、(B)を参照して説明したように画面表示を遷移させることを示す。操作表示B14は日付窓407の操作により確定が指示されることを示し、操作表示B15は6時位置のインデックス406の操作によって履歴が表示されることを示す。操作表示B16は12時位置のインデックス406の操作によってカメラ61が撮像を行うことを示す。操作表示B17はベゼル402の6時位置に対する操作によって操作対象物4に対する操作をロックすることを示す。また、操作表示B18、B19は、ベゼル402を回転させる操作により、表示を右回転或いは左回転させることを示す。   In the example of FIG. 16, the operation display B <b> 11 indicates that the display magnification is enlarged by operating the long hand 404. The operation display B12 indicates that the display magnification is reduced by operating the short hand 405. The positions of the long hand 404 and the short hand 405 change with time. For this reason, the AR display control unit 185 specifies the positions of the long hand 404 and the short hand 405 from the image captured by the camera 61, and changes the display positions of the operation displays B11 and B12 according to the positions of the long hand 404 and / or the short hand 405. You may adjust. The operation display B13 indicates that the head-mounted display device 100 displays a menu screen by an operation of rotating the crown 401, and the screen display is changed as described with reference to FIGS. 11A and 11B, for example. Show. The operation display B14 indicates that confirmation is instructed by operating the date window 407, and the operation display B15 indicates that a history is displayed by operating the index 406 at the 6 o'clock position. The operation display B16 indicates that the camera 61 performs imaging by operating the index 406 at the 12 o'clock position. The operation display B17 indicates that the operation on the operation target object 4 is locked by the operation on the 6 o'clock position of the bezel 402. The operation displays B18 and B19 indicate that the display is rotated right or left by an operation of rotating the bezel 402.

図17は、操作用画像を表示した状態の別の例を示す図であり、操作対象物5に対応する操作用画像を表示した状態を示す。
使用者の視野VRには実空間の操作対象物5が、画像表示部20を透過して視認される。AR表示制御部185は、操作対象物5に対応する位置に見えるように、操作表示B31〜B39を含む操作用画像を表示する。操作表示B31〜B39のそれぞれは、マーカー510のマーク511(制御オブジェクト)に対応する。操作表示B31〜B39のそれぞれは、図17に示すように、対応するマーク511を示す矢印を含んでもよい。また、操作表示B31〜B39のそれぞれは、マーク511に対する操作により実行される処理内容を、テキストや画像により案内する。
FIG. 17 is a diagram illustrating another example of the state in which the operation image is displayed, and illustrates a state in which the operation image corresponding to the operation target object 5 is displayed.
In the user's visual field VR, the operation object 5 in real space is seen through the image display unit 20. The AR display control unit 185 displays an operation image including the operation displays B31 to B39 so that the AR display control unit 185 can be seen at a position corresponding to the operation target 5. Each of the operation displays B31 to B39 corresponds to a mark 511 (control object) of the marker 510. Each of the operation displays B31 to B39 may include an arrow indicating a corresponding mark 511 as shown in FIG. Further, each of the operation displays B31 to B39 guides the processing content executed by the operation on the mark 511 by text or an image.

図17の例で、操作表示B31はマーク511の操作によりカメラ61が撮像を行うことを示す。操作表示B32はマーク511の操作により操作対象物4に対する操作をロックすることを示す。操作表示B33はマーク511の操作により確定が指示されることを示す。操作表示B34、B35は、マーク511の操作により、表示を右回転或いは左回転させることを示す。操作表示B36は、マーク511の操作により表示倍率を縮小することを示す。操作表示B37は、マーク511の操作により表示倍率を拡大することを示す。操作表示B38はマーク511の操作によりホーム画面が表示されることを示す。操作表示B39はマーク511の操作により頭部装着型表示装置100がメニュー画面を表示し、例えば図11(A)、(B)を参照して説明したように画面表示を遷移させることを示す。   In the example of FIG. 17, the operation display B31 indicates that the camera 61 performs imaging by operating the mark 511. The operation display B32 indicates that the operation on the operation target object 4 is locked by the operation of the mark 511. The operation display B33 indicates that confirmation is instructed by operating the mark 511. The operation displays B34 and B35 indicate that the display is rotated right or left by the operation of the mark 511. The operation display B36 indicates that the display magnification is reduced by operating the mark 511. The operation display B37 indicates that the display magnification is enlarged by operating the mark 511. The operation display B38 indicates that the home screen is displayed by operating the mark 511. The operation display B39 indicates that the head-mounted display device 100 displays a menu screen by operating the mark 511, and transitions the screen display as described with reference to FIGS. 11A and 11B, for example.

図17に示す操作用画像は、操作対象物5に対応する操作用画像ということもできるが、マーカー510に対応する操作用画像ということもできる。つまり、制御部140は、カメラ61の撮像画像からマーカー510が検出された場合に、図17の操作用画像を表示する構成であってもよい。この場合、操作対象物5が備えるボタン508等の構成は特に制限されず、例えば、使用者の腕にマーカー510のシールを貼付し、このマーカー510(またはマーカー510が付着した腕)を操作対象物とすることができる。従って、画像表示部20とは別体であって、カメラ61により撮像可能な状態でマーカー510を有するものであれば、どのような物であっても操作対象物とすることができる。   The operation image illustrated in FIG. 17 can be referred to as an operation image corresponding to the operation object 5, but can also be referred to as an operation image corresponding to the marker 510. That is, the control unit 140 may be configured to display the operation image of FIG. 17 when the marker 510 is detected from the captured image of the camera 61. In this case, the configuration of the button 508 and the like included in the operation target 5 is not particularly limited. For example, a marker 510 is attached to the user's arm, and the marker 510 (or the arm to which the marker 510 is attached) is the operation target. It can be a thing. Therefore, any object that is separate from the image display unit 20 and has the marker 510 in a state where the image can be captured by the camera 61 can be used as the operation object.

図16の操作表示B11〜B19を含む操作用画像が表示された状態で、操作対象物4に対する操作は、例えば、使用者の手指を操作対象物4の部分に重ねることで行われる。この場合、制御部140は、デバイス制御部183により、カメラ61の撮像画像から使用者の手指の画像を検出して、指先の位置に近い操作対象物4の部分を特定する。これにより、特定された部分が操作されたと見なして、制御部140は操作表示B11〜B19に示される処理を実行する。
図17の操作表示B31〜B39を含む操作用画像が表示された状態で、操作対象物5に対する操作は、例えば、使用者の手指をマーク511に重ねることで行われる。この場合、制御部140は、デバイス制御部183により、カメラ61の撮像画像から使用者の手指の画像を検出して、指先の位置に近いマーク511を特定し、このマーク511のマーカー510における位置を特定する。これにより、特定されたマーク511が操作されたと見なして、制御部140は操作表示B31〜B39に示される処理を実行する。
In the state in which the operation image including the operation displays B11 to B19 in FIG. 16 is displayed, the operation on the operation target 4 is performed, for example, by superimposing the user's fingers on the operation target 4 portion. In this case, the control unit 140 uses the device control unit 183 to detect the image of the user's finger from the captured image of the camera 61 and identify the portion of the operation target 4 that is close to the position of the fingertip. Thereby, it is assumed that the specified part has been operated, and the control unit 140 executes processing shown in the operation displays B11 to B19.
In the state where the operation image including the operation displays B31 to B39 in FIG. 17 is displayed, the operation on the operation target 5 is performed by, for example, overlapping the user's finger on the mark 511. In this case, the control unit 140 uses the device control unit 183 to detect the image of the user's finger from the image captured by the camera 61, identifies the mark 511 close to the position of the fingertip, and positions the mark 511 in the marker 510. Is identified. Thereby, it is assumed that the specified mark 511 has been operated, and the control unit 140 executes the processing shown in the operation displays B31 to B39.

図15のステップS104で、図16や図17に例示した操作用画像を表示した後、制御部140は、操作の検出を開始する(ステップS105)。制御部140は、デバイス制御部183によって操作の有無を判定し(ステップS106)、操作された場合には(ステップS106;YES)、操作された位置や部分に対応して操作用画像が示す処理を実行する(ステップS107)。この処理の実行後、制御部140はステップS108に移行する。また、操作用画像に対応する操作が検出されない場合(ステップS106;NO)、制御部140はステップS108に移行する。   After displaying the operation image illustrated in FIG. 16 or 17 in step S104 of FIG. 15, the control unit 140 starts detecting the operation (step S105). The control unit 140 determines whether or not an operation has been performed by the device control unit 183 (step S106), and when operated (step S106; YES), the process indicated by the operation image corresponding to the operated position or portion. Is executed (step S107). After executing this process, the control unit 140 proceeds to step S108. If no operation corresponding to the operation image is detected (step S106; NO), the control unit 140 proceeds to step S108.

ステップS108で、制御部140は、操作用画像を用いた操作を終了するか否かを判定する。ここで、使用者の操作によって操作の終了が指示された場合や、使用者の視野VRにおいて操作対象物が視認されない状態になったことを検出した場合(ステップS108;YES)、制御部140は、本処理を終了する。また、操作を終了しない場合(ステップS108;NO)、制御部140はステップS106に戻る。   In step S108, the control unit 140 determines whether or not to end the operation using the operation image. Here, when the end of the operation is instructed by the user's operation or when it is detected that the operation target is not visually recognized in the user's visual field VR (step S108; YES), the control unit 140 This process is terminated. Moreover, when not ending operation (step S108; NO), the control part 140 returns to step S106.

本実施形態では、操作デバイス3,或いは操作対象物4、5を頭部装着型表示装置100がカメラ61の撮像画像等に基づき認識した場合に、AR表示制御部185が記憶部120からARコンテンツのデータを読み出して、表示する。
図7(A)に示した操作設定用のAR表示、図16及び図17に示した操作用画像は、ARコンテンツの一例である。
In the present embodiment, when the head-mounted display device 100 recognizes the operation device 3 or the operation object 4 or 5 based on the captured image of the camera 61 or the like, the AR display control unit 185 stores the AR content from the storage unit 120. The data is read and displayed.
The AR display for operation setting shown in FIG. 7A and the operation images shown in FIGS. 16 and 17 are examples of AR content.

図18は、記憶部120に記憶されるデータのうちARコンテンツに係るデータの構成例を示す。なお、記憶部120は、図18に示すARコンテンツデータ123及び対象デバイスデータ127に限らず、他のデータを記憶するが、図示を省略する。これらARコンテンツデータ123及び対象デバイスデータ127を記憶する記憶部120は、データ記憶部に相当する。   FIG. 18 illustrates a configuration example of data related to the AR content among the data stored in the storage unit 120. The storage unit 120 stores not only the AR content data 123 and the target device data 127 shown in FIG. 18 but also other data, but the illustration is omitted. The storage unit 120 that stores the AR content data 123 and the target device data 127 corresponds to a data storage unit.

ARコンテンツに係るデータは、ARコンテンツデータ123、及び対象デバイスデータ127で構成される。ARコンテンツデータ123は、AR要素表示データ123a、位置属性データ123b、及び対応処理データ123cを含む。
ARコンテンツデータ123は、ARコンテンツを表示するためのデータであり、図7(A)の操作設定用のAR表示、図16及び図17の操作用画像を表示するデータに該当する。AR要素表示データ123aは、操作用のARコンテンツの要素(操作用の画像)を表示するためのデータである。ARコンテンツの要素とは、操作デバイスまたは操作対象物の操作部に対応付けて表示される文字や画像であり、矢印等の付属的な画像を伴ってもよい。図7(A)の例では割り当て候補表示A1、A2、A3、A4及び設定候補A11、A12、A13、A14が要素に相当する。図7(B)の例では割り当て候補表示A21、A22、A23、A24及び設定候補A31、A32、A33、A34が要素に相当する。また、図16の例では操作表示B11〜B19が要素に相当し、図17の例では操作表示B31〜B39が要素に相当する。AR要素表示データ123aは、例えば、上記要素を表示するための画像データ、テキストデータ、画像やテキストの表示属性(色、サイズ、フォント、背景など)を指定するデータ等を含む。
Data related to the AR content includes AR content data 123 and target device data 127. The AR content data 123 includes AR element display data 123a, position attribute data 123b, and correspondence processing data 123c.
The AR content data 123 is data for displaying the AR content, and corresponds to data for displaying the AR display for operation setting in FIG. 7A and the operation images in FIGS. 16 and 17. The AR element display data 123a is data for displaying an element of an AR content for operation (an image for operation). The element of the AR content is a character or an image displayed in association with the operation device or the operation unit of the operation target, and may be accompanied by an additional image such as an arrow. In the example of FIG. 7A, allocation candidate displays A1, A2, A3, and A4 and setting candidates A11, A12, A13, and A14 correspond to elements. In the example of FIG. 7B, assignment candidate displays A21, A22, A23, A24 and setting candidates A31, A32, A33, A34 correspond to elements. In the example of FIG. 16, the operation displays B11 to B19 correspond to elements, and in the example of FIG. 17, the operation displays B31 to B39 correspond to elements. The AR element display data 123a includes, for example, image data for displaying the element, text data, data for specifying display attributes (color, size, font, background, etc.) of the image and text, and the like.

位置属性データ123bは、要素の表示位置を指定するためのデータである。要素の表示位置は、AR要素表示データ123aが含むそれぞれの要素について設定される。位置属性データ123bは、要素の表示位置を、右表示駆動部22及び左表示駆動部24における固定的な位置で指定するデータであってもよい。また、位置属性データ123bは、操作デバイス3または操作対象物4、5に対する相対的な位置として、要素の表示位置を指定するデータであってもよい。また、位置属性データ123bは、操作デバイス3または操作対象物4、5の操作部に対する相対的な位置として、要素の表示位置を指定するデータであってもよい。例えば、位置属性データ123bは、図7(A)、(B)の設定候補A11〜A14、A31〜A34の表示位置を、操作デバイス3のベゼル301に対する相対位置として指定するデータとすることができる。例えば、図16の操作表示B11〜B19の表示位置を、操作対象物4のリュウズ401、ベゼル402、文字盤403、長針404、短針405、インデックス406、日付窓407、及びボタン408等に対する相対位置として指定するデータであってもよい。例えば、図17の操作表示B31〜B39の表示位置を、操作対象物5のマーカー510及びマーク511等に対する相対位置として指定するデータであってもよい。   The position attribute data 123b is data for designating the display position of the element. The element display position is set for each element included in the AR element display data 123a. The position attribute data 123b may be data that designates the display position of an element at a fixed position in the right display drive unit 22 and the left display drive unit 24. Further, the position attribute data 123b may be data that specifies the display position of an element as a relative position with respect to the operation device 3 or the operation objects 4 and 5. Further, the position attribute data 123b may be data that designates a display position of an element as a relative position with respect to the operation unit 3 or the operation objects 4 and 5. For example, the position attribute data 123b can be data that designates the display positions of the setting candidates A11 to A14 and A31 to A34 in FIGS. 7A and 7B as relative positions to the bezel 301 of the operation device 3. . For example, the display positions of the operation displays B11 to B19 in FIG. 16 are the relative positions of the operation target 4 with respect to the crown 401, bezel 402, dial 403, long hand 404, short hand 405, index 406, date window 407, button 408, and the like. May be specified as. For example, the display position of the operation displays B31 to B39 in FIG. 17 may be data specifying the relative position of the operation target 5 with respect to the marker 510, the mark 511, and the like.

対応処理データ123cは、使用者の操作によって、AR要素表示データ123aに含まれる要素が選択または指定された場合に、制御部140が実行する処理を定めるデータである。図7(A)の例では、操作デバイス3の操作部(例えば、ベゼル301)の操作に応じて、制御部140が、複数の候補を順に切り替える処理、画像表示部20が表示する画面を遷移させる動作等を実行する。また、操作デバイス3の操作に応じて、デバイス制御部183が、タッチパネル304、及び9軸センサー368の検出開始や、不検出状態への移行を指示する制御データを送信する処理を実行してもよい。
図16の例で、制御部140は、長針404に対する操作に応じて表示倍率を拡大し、短針405に対する操作に応じて表示倍率を縮小する。また、リュウズ401を回転させる操作に応じてメニュー画面を表示し、画面表示を遷移させる。また、日付窓407の操作に応じて確定の指示を受け付ける処理を行い、6時位置のインデックス406に対する操作に応じて履歴を表示する。また、12時位置のインデックス406に対する操作によってカメラ61で撮像を行い、ベゼル402の6時位置に対する操作に応じて操作対象物4に対する操作をロックする。また、ベゼル402を回転させる操作に応じて、表示を右回転或いは左回転させる。
図17の例で、制御部140は、マーク511の操作に応じて、カメラ61の撮像、操作対象物4に対する操作のロック、確定の指示の受付、表示の回転、表示倍率の拡大/縮小、ホーム画面の表示、メニュー画面の表示、画面表示の遷移等の処理を行う。
対応処理データ123cは、これらの処理を指定するデータを含む。
The corresponding process data 123c is data that defines a process to be executed by the control unit 140 when an element included in the AR element display data 123a is selected or designated by a user operation. In the example of FIG. 7A, the control unit 140 performs a process of sequentially switching a plurality of candidates according to the operation of the operation unit (for example, the bezel 301) of the operation device 3, and the screen displayed by the image display unit 20 is changed. The operation etc. to perform are performed. In addition, even if the device control unit 183 performs a process of transmitting control data instructing to start detection of the touch panel 304 and the 9-axis sensor 368 or to shift to a non-detection state according to the operation of the operation device 3. Good.
In the example of FIG. 16, the control unit 140 enlarges the display magnification according to the operation on the long hand 404 and reduces the display magnification according to the operation on the short hand 405. Further, a menu screen is displayed according to an operation of rotating the crown 401, and the screen display is changed. Further, a process for accepting a confirmation instruction is performed according to the operation of the date window 407, and a history is displayed according to the operation for the index 406 at the 6 o'clock position. Further, an image is taken by the camera 61 by an operation on the index 406 at the 12 o'clock position, and the operation on the operation target 4 is locked according to the operation on the 6 o'clock position of the bezel 402. Further, the display is rotated clockwise or counterclockwise according to the operation of rotating the bezel 402.
In the example of FIG. 17, in accordance with the operation of the mark 511, the control unit 140 captures the camera 61, locks the operation on the operation target 4, accepts a confirmation instruction, rotates the display, enlarges / reduces the display magnification, Processing such as home screen display, menu screen display, and screen display transition is performed.
The corresponding process data 123c includes data designating these processes.

対象デバイスデータ127は、ARコンテンツデータ123に対応する操作デバイスまたは操作対象物を示すデータであり、例えば、カメラ61の撮像画像から操作デバイスまたは操作対象物を検出するための画像特徴量のデータ等を含む。
対象デバイスデータ127は、制御部140が、例えばステップS52(図9)で操作デバイス3を検出する場合、ステップS102(図15)で操作対象物4、5を検出する場合に参照される。制御部140は、対象デバイスデータ127に基づき、操作デバイスまたは操作対象物を検出または認識し、対応するARコンテンツを特定して、ARコンテンツデータ123に基づきARコンテンツを表示できる。
The target device data 127 is data indicating an operation device or an operation target corresponding to the AR content data 123. For example, image feature amount data for detecting the operation device or the operation target from the captured image of the camera 61, and the like. including.
The target device data 127 is referred to when the control unit 140 detects the operation device 3 in step S52 (FIG. 9), for example, and detects the operation objects 4 and 5 in step S102 (FIG. 15). The control unit 140 can detect or recognize the operation device or the operation target based on the target device data 127, identify the corresponding AR content, and display the AR content based on the AR content data 123.

ここで、記憶部120には、複数のARコンテンツデータ123を記憶できる。また、複数のARコンテンツに関するデータを一つのARコンテンツデータ123に含めてもよい。対象デバイスデータ127は、ARコンテンツごとに、対応する操作デバイスまたは操作対象物を指定するデータであり、データの対応付けの具体的態様は任意である。例えば、記憶部120に、ARコンテンツデータ123と同数の対象デバイスデータ127を記憶してもよい。また、対象デバイスデータ127が、複数のARコンテンツデータ123のそれぞれについて、対応する操作デバイスまたは操作対象物を指定するデータを含んでもよい。また、対象デバイスデータ127に、ARコンテンツデータ123が含む複数のARコンテンツに対応する操作デバイスまたは操作対象物を示すデータを含んでもよい。
また、対象デバイスデータ127を、ARコンテンツデータ123に含めてもよい。この場合、ARコンテンツデータ123は、ARコンテンツ毎に、AR要素表示データ123a、位置属性データ123b、対応処理データ123c、及び対象デバイスデータ127を対応付けて含む態様となる。
Here, the storage unit 120 can store a plurality of AR content data 123. Further, data regarding a plurality of AR contents may be included in one AR content data 123. The target device data 127 is data for designating a corresponding operation device or operation target for each AR content, and a specific mode of data association is arbitrary. For example, the same number of target device data 127 as the AR content data 123 may be stored in the storage unit 120. Further, the target device data 127 may include data for designating a corresponding operation device or operation target for each of the plurality of AR content data 123. Further, the target device data 127 may include data indicating an operation device or an operation target corresponding to a plurality of AR contents included in the AR content data 123.
Further, the target device data 127 may be included in the AR content data 123. In this case, the AR content data 123 is configured to include AR element display data 123a, position attribute data 123b, correspondence processing data 123c, and target device data 127 in association with each AR content.

ARコンテンツにおける要素の種類、位置、数等については、使用者の操作に応じて変更することが可能であり、この変更を反映してARコンテンツデータ123を編集できる。
図19は、ARコンテンツデータ123を編集する処理を示すフローチャートである。
制御部140は、使用者の操作に応じて、ARコンテンツデータ123の編集を開始する(ステップS121)。以下の説明では、使用者の操作は、操作部111で受け付けられる操作、及び、カメラ61で検出した使用者の手等の指示体によるジェスチャー操作のいずれであってもよい。
The type, position, number, and the like of elements in the AR content can be changed according to the user's operation, and the AR content data 123 can be edited by reflecting this change.
FIG. 19 is a flowchart showing a process for editing the AR content data 123.
The control unit 140 starts editing the AR content data 123 in accordance with a user operation (step S121). In the following description, the user's operation may be either an operation received by the operation unit 111 or a gesture operation by an indicator such as the user's hand detected by the camera 61.

制御部140は、例えばステップS51〜S52で実行する処理と同様に、操作デバイスまたは操作対象物を検出する(ステップS122)。制御部140は、検出した操作デバイスまたは操作対象物に対応するARコンテンツを、ARコンテンツデータ123に基づき表示する(ステップS123)。ここで、未知の操作デバイスまたは操作対象物を対象とする場合は、この操作デバイスまたは操作対象物に対応するARコンテンツデータ123が記憶部120に記憶されていない。この場合、制御部140が、未知の操作デバイスまたは操作対象物であることを検出してもよいし、使用者の操作により未知の操作デバイスまたは操作対象物であることが指示されてもよい。制御部140は、予め記憶部120に記憶する汎用のARコンテンツデータ123、または、使用者の操作または事前の設定により指定されるARコンテンツデータ123を使用して、ARコンテンツを表示する。   The control unit 140 detects an operation device or an operation target, for example, similarly to the processing executed in steps S51 to S52 (step S122). The control unit 140 displays the AR content corresponding to the detected operation device or operation target based on the AR content data 123 (step S123). Here, when an unknown operation device or operation target is targeted, the AR content data 123 corresponding to the operation device or operation target is not stored in the storage unit 120. In this case, the control unit 140 may detect that it is an unknown operation device or operation target, or may be instructed to be an unknown operation device or operation target by a user operation. The control unit 140 displays the AR content using the general-purpose AR content data 123 stored in the storage unit 120 in advance, or the AR content data 123 specified by the user's operation or prior settings.

ステップS123で表示されたARコンテンツの要素について、使用者の操作によりARコンテンツの位置の変更(移動)、追加、削除の指示が入力されると、制御部140は、入力に従ってARコンテンツの位置変更、追加、削除を行う(ステップS124)。
また、表示中のARコンテンツの要素について、使用者の操作により、ARコンテンツの要素に対応して制御部140が実行する処理が指定されると、制御部140は、入力に従って制御部140が実行する処理の指定または変更を行う(ステップS125)。
なお、ステップS124、S125の処理の実行順序は変更可能であり、ステップS124、S125の処理を並列的に実行してもよい。
When an instruction to change (move), add, or delete the position of the AR content is input by the user's operation for the element of the AR content displayed in step S123, the control unit 140 changes the position of the AR content according to the input. Addition and deletion are performed (step S124).
Further, when a process to be executed by the control unit 140 corresponding to the element of the AR content is designated by the user's operation for the element of the AR content being displayed, the control unit 140 executes the control unit 140 according to the input. The process to be performed is designated or changed (step S125).
Note that the execution order of the processes of steps S124 and S125 can be changed, and the processes of steps S124 and S125 may be executed in parallel.

制御部140は、ARコンテンツデータ123の編集が終了したか否かを判定する(ステップS126)。編集が終了していない場合(ステップS126;NO)、制御部140はステップS124に戻る。編集が終了した場合(ステップS126;YES)、制御部140は、ステップS122で検出した操作デバイスまたは操作対象物を対象デバイスとして設定する対象デバイスデータ127を生成する(ステップS127)。制御部140は、ステップS124、S125の編集内容を反映したARコンテンツデータ123と、ステップS127で生成される対象デバイスデータ127とを対応付けて、記憶部120に記憶し(ステップS128)、本処理を終了する。   The control unit 140 determines whether or not the editing of the AR content data 123 has been completed (step S126). If the editing has not ended (step S126; NO), the control unit 140 returns to step S124. When the editing is completed (step S126; YES), the control unit 140 generates target device data 127 that sets the operation device or the operation target detected in step S122 as the target device (step S127). The control unit 140 associates the AR content data 123 reflecting the edited contents of steps S124 and S125 with the target device data 127 generated in step S127, and stores it in the storage unit 120 (step S128). Exit.

このように、使用者の操作によって、操作デバイス3、操作対象物4、5等に対応して表示されるARコンテンツの表示態様、要素の種類、位置、数、要素に対応して実行される処理を指定し、変更できる。このため、使用者の用途や嗜好に適合するARコンテンツを表示することができ、より一層の利便性の向上を図ることができる。   As described above, the display mode of the AR content displayed corresponding to the operation device 3, the operation target object 4, 5, etc., the type, position, number, and element of the AR content are executed by the user's operation. You can specify and change the process. For this reason, it is possible to display AR content that suits the user's application and preferences, and to further improve convenience.

また、頭部装着型表示装置100は、通信部117により外部の機器と通信を行うことにより、ARコンテンツデータ123、及び、対象デバイスデータ127をダウンロードしてもよい。この場合、頭部装着型表示装置100は、スマートフォンやルーター等、他の通信ネットワークと頭部装着型表示装置100との通信を中継する外部の機器と通信を行い、当該通信ネットワークを経由してサーバー装置(図示略)からダウンロードしてもよい。また、頭部装着型表示装置100は、通信部117により接続する外部の機器(例えば、パーソナルコンピューターやスマートフォン)から、ARコンテンツデータ123及び対象デバイスデータ127をダウンロードしてもよい。   The head-mounted display device 100 may download the AR content data 123 and the target device data 127 by communicating with an external device through the communication unit 117. In this case, the head-mounted display device 100 communicates with an external device that relays communication between the head-mounted display device 100 and another communication network, such as a smartphone or a router, via the communication network. You may download from a server apparatus (not shown). The head-mounted display device 100 may download the AR content data 123 and the target device data 127 from an external device (for example, a personal computer or a smartphone) connected by the communication unit 117.

図20は、頭部装着型表示装置100がARコンテンツデータをダウンロードする処理を示すフローチャートである。
制御部140は、使用者の操作または外部の機器からのアクセスに応じてダウンロードを開始する(ステップS141)。制御部140は、ARコンテンツデータ123をダウンロードして取得する(ステップS142)。制御部140は、取得したARコンテンツデータ123のAR要素表示データ123a、位置属性データ123b、及び対応処理データ123cについて記憶部120に記憶する(ステップS143)。制御部140は、必要ならば、ステップS143において、記憶したデータを使用可能とする設定を行ってもよい。
FIG. 20 is a flowchart illustrating a process in which the head-mounted display device 100 downloads AR content data.
The control unit 140 starts downloading in response to a user operation or access from an external device (step S141). The control unit 140 downloads and acquires the AR content data 123 (step S142). The control unit 140 stores the AR element display data 123a, the position attribute data 123b, and the corresponding processing data 123c of the acquired AR content data 123 in the storage unit 120 (Step S143). If necessary, the control unit 140 may perform setting so that the stored data can be used in step S143.

制御部140は、ダウンロードしたデータに対象デバイスデータ127、または、対応する操作デバイス又は操作対象物を指定するデータが含まれているか否かを判定する(ステップS144)。該当するデータが含まれている場合(ステップS144;YES)、制御部140は、対象デバイスデータ127を、ARコンテンツデータ123に対応付けて記憶部120に記憶し(ステップS145)、本処理を終了する。   The control unit 140 determines whether or not the downloaded device data includes target device data 127 or data that specifies a corresponding operation device or operation target (step S144). If the corresponding data is included (step S144; YES), the control unit 140 stores the target device data 127 in association with the AR content data 123 in the storage unit 120 (step S145), and ends this process. To do.

また、対象デバイスデータ127、または、対応する操作デバイス又は操作対象物を指定するデータが含まれていない場合(ステップS144;NO)、制御部140は、対象デバイスデータ127を生成する処理を開始する。すなわち、制御部140は、カメラ61による撮像を実行して撮像画像データを取得し(ステップS146)、撮像画像データに基づき、対象デバイスデータ127を生成する(ステップS147)。これにより、カメラ61の撮像範囲にある操作デバイスまたは操作対象物が、ダウンロードしたARコンテンツデータ123に対応する操作デバイスまたは操作対象物に設定される。   When the target device data 127 or the data specifying the corresponding operation device or operation target is not included (step S144; NO), the control unit 140 starts processing for generating the target device data 127. . That is, the control unit 140 executes imaging with the camera 61 to acquire captured image data (step S146), and generates target device data 127 based on the captured image data (step S147). Thereby, the operation device or the operation target in the imaging range of the camera 61 is set as the operation device or the operation target corresponding to the downloaded AR content data 123.

制御部140は、ARコンテンツデータ123と対象デバイスデータ127との対応に関する調整を行うか否かを判定する(ステップS148)。この調整は、ステップS146で撮像した操作デバイスまたは操作対象物にARコンテンツデータ123を対応付けるために必要な調整である。具体的には、制御部140は、ステップS147で、撮像画像データから操作デバイスまたは操作対象物の画像を抽出し、操作部を検出し、操作部の位置関係を算出し、対象デバイスデータ127を生成する。検出された各操作部に、ARコンテンツデータ123のどの要素を対応付けるかは、操作部の検出状態に影響される。そこで、例えば制御部140は、操作部とARコンテンツの要素との対応付けを調整するか否かを、使用者の指示に基づき判定する。ここで、使用者に対して指示を求めるメッセージの表示等を行ってもよい。   The control unit 140 determines whether or not to adjust the correspondence between the AR content data 123 and the target device data 127 (Step S148). This adjustment is necessary for associating the AR content data 123 with the operation device or operation target imaged in step S146. Specifically, in step S147, the control unit 140 extracts an image of the operation device or the operation target from the captured image data, detects the operation unit, calculates the positional relationship of the operation unit, and stores the target device data 127. Generate. Which element of the AR content data 123 is associated with each detected operation unit is affected by the detection state of the operation unit. Therefore, for example, the control unit 140 determines whether or not to adjust the association between the operation unit and the AR content element based on a user instruction. Here, a message requesting an instruction from the user may be displayed.

調整を行う場合(ステップS148;YES)、制御部140は、ARコンテンツデータを編集する処理を行う(ステップS149)。ステップS149では、例えば、図19で説明した処理(ステップS121〜S128)を実行することができる。その後、制御部140は、編集されたARコンテンツデータ123と、ステップS147で生成しステップS149で編集された対象デバイスデータ127とを対応付けて、記憶部120に記憶し(ステップS150)、本処理を終了する。また、調整を行わない場合(ステップS148;NO)、制御部140は、ステップS149を実行せずステップS150に移行し、ステップS147で生成した対象デバイスデータ127をダウンロードしたARコンテンツデータ123に対応付けて記憶部120に記憶する。   When the adjustment is performed (step S148; YES), the control unit 140 performs a process of editing the AR content data (step S149). In step S149, for example, the processing described in FIG. 19 (steps S121 to S128) can be executed. Thereafter, the control unit 140 associates the edited AR content data 123 with the target device data 127 generated in step S147 and edited in step S149, and stores it in the storage unit 120 (step S150). Exit. If no adjustment is made (step S148; NO), the control unit 140 does not execute step S149, proceeds to step S150, and associates the target device data 127 generated in step S147 with the downloaded AR content data 123. Is stored in the storage unit 120.

操作デバイス3は、予め記憶するデータに基づき、制御部350がLCD303に画像を表示する。操作対象物5は、予め記憶するデータに基づいて制御部(図示略)の機能によりマーカー510を表示する。これら表示用のデータは、固定的なデータに限定されず、例えば頭部装着型表示装置100または他の外部の機器からダウンロードして追加できる構成としてもよい。   In the operation device 3, the control unit 350 displays an image on the LCD 303 based on data stored in advance. The operation target 5 displays a marker 510 by a function of a control unit (not shown) based on data stored in advance. The display data is not limited to fixed data, and may be configured to be downloaded and added from the head-mounted display device 100 or other external devices, for example.

例えば、操作対象物5は、マーカー510を編集し、或いは追加できる構成としてもよい。図14及び図17を参照して説明したように、操作対象物5は、LCDまたは電子ペーパー型ディスプレイで構成される表示面503にマーカー510を表示する。このマーカー510は、頭部装着型表示装置100が認識可能な態様であれば変更可能である。
頭部装着型表示装置100は、操作対象物5が表示するマーカー510におけるマーク511を操作部として検出し、マーク511に対応する位置に、ARコンテンツとしての操作表示B31〜B39を表示する。操作表示B31〜B39は、例えば、マーク511の色に対応付けられる。制御部140は、マーク511の色により、マーク511を識別し、操作表示B31〜B39を予め対応付けられた色のマーク511に対応する位置に表示する。この場合、マーカー510におけるマーク511の位置に関係なく、操作表示B31〜B39が表示される。
For example, the operation target 5 may be configured such that the marker 510 can be edited or added. As described with reference to FIGS. 14 and 17, the operation target 5 displays the marker 510 on the display surface 503 configured by an LCD or an electronic paper display. The marker 510 can be changed as long as the head-mounted display device 100 can recognize the marker 510.
The head-mounted display device 100 detects a mark 511 on the marker 510 displayed by the operation target 5 as an operation unit, and displays operation displays B31 to B39 as AR contents at positions corresponding to the mark 511. The operation displays B31 to B39 are associated with the color of the mark 511, for example. The control unit 140 identifies the mark 511 based on the color of the mark 511, and displays the operation displays B31 to B39 at positions corresponding to the color marks 511 associated in advance. In this case, the operation displays B31 to B39 are displayed regardless of the position of the mark 511 in the marker 510.

この例では、位置属性データ123bにはマーク511の色を指定するデータが含まれる。詳細には、AR要素表示データ123aの画像を、特定の色のマーク511に対応する位置に表示するよう指定するデータが含まれる。
従って、マーク511の色が共通で、マーク511の位置が異なる複数のマーカー510は、頭部装着型表示装置100に対して同様の機能を実行させることができる。この場合、使用者は、マーク511の位置が異なり色が共通する複数のマーカー510を、頭部装着型表示装置100に実行させる処理を変更することなく、使い分けることができる。
In this example, the position attribute data 123b includes data specifying the color of the mark 511. In detail, data specifying that the image of the AR element display data 123a is displayed at a position corresponding to the mark 511 of a specific color is included.
Accordingly, the plurality of markers 510 having the same color of the mark 511 and different positions of the mark 511 can cause the head-mounted display device 100 to execute the same function. In this case, the user can selectively use a plurality of markers 510 whose positions of the marks 511 are different and have the same color without changing the process of causing the head-mounted display device 100 to execute.

この場合、例えば操作対象物5が備えるボタン508の操作によって、マーカー510を切り替えて表示可能な構成としてもよい。また、操作対象物5は、頭部装着型表示装置100の通信部117と、近距離無線通信を実行して、頭部装着型表示装置100が送信する制御データに基づいてマーカー510を切り替えてもよい。
これはあくまで一例であり、頭部装着型表示装置100がマーク511の模様(テクスチャー)に基づきマーク511を識別する構成、マーク511の形状によりマーク511を識別する構成とすることもできる。この場合、マーク511の模様や形状が変化しない範囲において、マーク511の位置が異なるマーカー510を、頭部装着型表示装置100の機能に影響を与えることなく使い分けることができる。
この場合、操作対象物5を使用する使用者の好みで、着せ替えをするように、表示面503における表示を切り替えることができる。操作対象物5は、マーカー510のデータを取得する場合に、無線通信または通信用のケーブルにより、頭部装着型表示装置100、或いは外部の機器に接続してもよい。
In this case, for example, the marker 510 may be switched and displayed by operating the button 508 provided in the operation target 5. In addition, the operation target 5 performs short-range wireless communication with the communication unit 117 of the head-mounted display device 100 and switches the marker 510 based on control data transmitted by the head-mounted display device 100. Also good.
This is merely an example, and the head-mounted display device 100 may be configured to identify the mark 511 based on the pattern (texture) of the mark 511, or may be configured to identify the mark 511 based on the shape of the mark 511. In this case, as long as the pattern and shape of the mark 511 do not change, the markers 510 having different positions of the mark 511 can be used properly without affecting the function of the head-mounted display device 100.
In this case, the display on the display surface 503 can be switched so as to change the clothes according to the preference of the user who uses the operation target 5. When acquiring the data of the marker 510, the operation target 5 may be connected to the head-mounted display device 100 or an external device by wireless communication or a communication cable.

さらに、頭部装着型表示装置100が実行する機能に影響する範囲において、マーカー510を変更する構成としてもよい。この場合、頭部装着型表示装置100が実行する機能が変更することから、頭部装着型表示装置100においても、ARコンテンツデータ123及び対象デバイスデータ127を変更することが好ましい。例えば、頭部装着型表示装置100が、外部の機器(図示略)からARコンテンツデータ123及び対象デバイスデータ127をダウンロードし、このARコンテンツデータ123及び対象デバイスデータ127に対応するマーカー510を、操作対象物5が頭部装着型表示装置100から取得する構成が挙げられる。この例について図21を参照して説明する。   Furthermore, it is good also as a structure which changes the marker 510 in the range which affects the function which the head mounted display apparatus 100 performs. In this case, since the function executed by the head-mounted display device 100 is changed, it is preferable to change the AR content data 123 and the target device data 127 also in the head-mounted display device 100. For example, the head-mounted display device 100 downloads the AR content data 123 and target device data 127 from an external device (not shown), and operates the marker 510 corresponding to the AR content data 123 and target device data 127. The structure which the target object 5 acquires from the head mounted display apparatus 100 is mentioned. This example will be described with reference to FIG.

図21は、頭部装着型表示装置100及び操作対象物5が、ARコンテンツデータ123及び関連するデータをダウンロードする動作を示すフローチャートである。図21中、(A)は頭部装着型表示装置100の動作を示し、(B)は操作対象物5の動作を示す。図21に示す動作を行う操作対象物5は、頭部装着型表示装置100と通信する通信部(図示略)を具備する構成を有する。例えば、通信部117と無線通信を実行する無線通信部(図示略)、或いは、通信部117やインターフェイス125に有線接続されるコネクターを含む通信インターフェイス(図示略)を備える。   FIG. 21 is a flowchart illustrating an operation in which the head-mounted display device 100 and the operation target 5 download the AR content data 123 and related data. 21A shows the operation of the head-mounted display device 100, and FIG. 21B shows the operation of the operation target 5. The operation target 5 that performs the operation shown in FIG. 21 has a configuration including a communication unit (not shown) that communicates with the head-mounted display device 100. For example, a wireless communication unit (not shown) that performs wireless communication with the communication unit 117 or a communication interface (not shown) including a connector that is wired to the communication unit 117 and the interface 125 is provided.

制御部140は、使用者の操作または外部の機器からのアクセスに応じてダウンロードを開始する(ステップS161)。制御部140は、ARコンテンツデータ123をダウンロードして取得する(ステップS162)。制御部140は、取得したARコンテンツデータ123のAR要素表示データ123a、位置属性データ123b、及び対応処理データ123cについて記憶部120に記憶する(ステップS163)。制御部140は、必要ならば、ステップS163において、記憶したデータを使用可能とする設定を行ってもよい。   The control unit 140 starts downloading in response to a user operation or access from an external device (step S161). The control unit 140 downloads and acquires the AR content data 123 (step S162). The control unit 140 stores the AR element display data 123a, the position attribute data 123b, and the corresponding processing data 123c of the acquired AR content data 123 in the storage unit 120 (Step S163). If necessary, the control unit 140 may perform setting so that the stored data can be used in step S163.

制御部140は、ダウンロードしたデータに対象デバイスデータ127に対応付けられる対象デバイスデータ127を、ARコンテンツデータ123に対応付けて記憶部120に記憶する(ステップS144)。この対象デバイスデータ127は、例えば、ステップS162においてARコンテンツデータ123とともに外部の機器から取得される。   The control unit 140 stores target device data 127 associated with the downloaded device data in association with the target device data 127 in the storage unit 120 in association with the AR content data 123 (step S144). The target device data 127 is acquired from an external device together with the AR content data 123 in step S162, for example.

制御部140は、操作対象物5に接続してデータ通信可能な状態に移行する(ステップS165)。操作対象物5においても、頭部装着型表示装置100に接続してデータ通信可能な状態に移行する(ステップS171)。   The control unit 140 is connected to the operation target 5 and shifts to a state where data communication is possible (step S165). The operation target 5 is also connected to the head-mounted display device 100 and shifts to a state where data communication is possible (step S171).

制御部140は、ステップS165で接続した機器(操作対象物5)が、ステップS164で記憶した対象デバイスデータ127に該当する機器であることについて認証を行う(ステップS166)。ここで、操作対象物5は、頭部装着型表示装置100の要求に応じて、製品名や製品の型番等の認証用のデータを送信して、頭部装着型表示装置100とともに認証を行う(ステップS172)。   The control unit 140 authenticates that the device (operation object 5) connected in step S165 is a device corresponding to the target device data 127 stored in step S164 (step S166). Here, in response to a request from the head-mounted display device 100, the operation target 5 transmits authentication data such as a product name and a product model number, and performs authentication with the head-mounted display device 100. (Step S172).

認証に成功した後、制御部140は、操作対象物5に対して、マーカー510を表示するためのデータを送信する(ステップS167)。このデータは、例えば、ステップS162において、対象デバイスデータ127とともに外部の機器から取得する。操作対象物5は、頭部装着型表示装置100が送信するマーカー510表示用のデータを受信して、記憶する(ステップS173)。   After the authentication is successful, the control unit 140 transmits data for displaying the marker 510 to the operation target 5 (step S167). For example, this data is acquired from an external device together with the target device data 127 in step S162. The operation target 5 receives and stores the data for displaying the marker 510 transmitted from the head-mounted display device 100 (step S173).

この図21の処理により、操作対象物5は新たなマーカー510を表示するためのデータを取得し、記憶し、このデータに基づき新たなマーカー510を表示可能となる。また、頭部装着型表示装置100は、操作対象物5が表示するマーカー510に対応して、ARコンテンツを表示する。このARコンテンツは、図17に例示した操作表示B31〜B39のように操作表示を含むので、操作対象物5がマーカー510を表示した状態で、カメラ61で操作対象物5を撮像することにより、マーカー510に対応する位置にARコンテンツを表示できる。頭部装着型表示装置100は、新たなマーカー510が含むマーク511を検出し、このマーク511に対応する操作表示を含むARコンテンツを表示できる。また、新しいマーカー510が含むマーク511の操作を検出した場合、このマーク511に対応して表示される操作表示で指定される処理を実行できる。   By the processing of FIG. 21, the operation target 5 acquires and stores data for displaying the new marker 510, and can display the new marker 510 based on this data. The head-mounted display device 100 displays AR content corresponding to the marker 510 displayed by the operation target 5. Since this AR content includes operation displays like the operation displays B31 to B39 illustrated in FIG. 17, by imaging the operation target 5 with the camera 61 while the operation target 5 displays the marker 510, The AR content can be displayed at a position corresponding to the marker 510. The head-mounted display device 100 can detect the mark 511 included in the new marker 510 and display the AR content including the operation display corresponding to the mark 511. Further, when an operation on the mark 511 included in the new marker 510 is detected, a process specified by the operation display displayed corresponding to the mark 511 can be executed.

この場合、操作対象物5において表示できるマーカー510の種類を増やすことができる。新しいマーカー510は、以前に表示可能であったマーカー510とマーク511を共通化する等の制約がないため、様々なデザインのマーカー510を表示できるという利点がある。さらに、頭部装着型表示装置100では、操作を検出可能なマーク511の種類を変更し、或いは追加できる。さらに、マーク511に対する操作に応じて実行する機能を、追加できる。例えば、操作対象物5と頭部装着型表示装置100との間で実行する通信プロトコルを変更したり、操作対象物5の外観に合わせた新しいデザインの操作表示を表示したり、新しい機能を実行したりすることが可能となる。これにより、従って、頭部装着型表示装置100に対して使用する操作対象物5を追加することが可能となり、操作対象物5の変更に伴って頭部装着型表示装置100が実行する機能、用途を変更できる。   In this case, the types of markers 510 that can be displayed on the operation target 5 can be increased. The new marker 510 has an advantage that the marker 510 of various designs can be displayed because there is no restriction such as the common use of the marker 510 and the mark 511 that can be displayed before. Furthermore, in the head-mounted display device 100, the type of the mark 511 that can detect an operation can be changed or added. Furthermore, a function to be executed in response to an operation on the mark 511 can be added. For example, the communication protocol executed between the operation target 5 and the head-mounted display device 100 is changed, a new design operation display that matches the appearance of the operation target 5 is displayed, or a new function is executed. It becomes possible to do. Accordingly, it becomes possible to add the operation target 5 to be used for the head-mounted display device 100, and the function that the head-mounted display device 100 executes in accordance with the change of the operation target 5. The usage can be changed.

ここで、ARコンテンツデータ123及び対象デバイスデータ127は、頭部装着型表示装置100が有する機能を設定するデータに限定されない。例えば、ARコンテンツデータ123と、対象デバイスデータ127に加え、ARコンテンツデータ123に基づいて制御部140が実行する機能に対応したプログラムを含んでもよい。また、ARコンテンツデータ123と対象デバイスデータ127に、プログラムを含めた、一つのアプリケーションプログラムとすることもできる。この場合、制御部140が実行する機能そのものを追加あるいは変更できる。例えば、オペレーティングシステム150が、Android(登録商標)OS、iOS(登録商標)、Windows(登録商標)等、モバイルデバイス(スマートフォンやタブレット型コンピューター)用のOSである場合が想定される。この場合、ARコンテンツデータ123と対象デバイスデータ127とを含むアプリケーションプログラムとすることで、容易に、ARコンテンツデータ123と対象デバイスデータ127とを一体としてダウンロードし設定できる。使用者が新しい操作対象物5を購入した場合、或いは、新しいマーカー510を使用する場合に、この新しい操作対象物5やマーカー510に対応する頭部装着型表示装置100の設定を、容易に行うことが可能となる。   Here, the AR content data 123 and the target device data 127 are not limited to data for setting the functions of the head-mounted display device 100. For example, in addition to the AR content data 123 and the target device data 127, a program corresponding to a function executed by the control unit 140 based on the AR content data 123 may be included. Also, the AR content data 123 and the target device data 127 may be a single application program including a program. In this case, the function itself executed by the control unit 140 can be added or changed. For example, it is assumed that the operating system 150 is an OS for a mobile device (smart phone or tablet computer) such as an Android (registered trademark) OS, an iOS (registered trademark), or a Windows (registered trademark). In this case, by using an application program including the AR content data 123 and the target device data 127, the AR content data 123 and the target device data 127 can be easily downloaded and set as a unit. When the user purchases a new operation object 5 or uses a new marker 510, the head-mounted display device 100 corresponding to the new operation object 5 or the marker 510 is easily set. It becomes possible.

以上説明したように、本発明を適用した実施形態の表示システム1は、頭部装着型表示装置100と、画像表示部20とは別体として構成される操作デバイス3とを備える。頭部装着型表示装置100は、使用者の頭部に装着され、外景を透過して使用者に視認させる透過型の画像表示部20を有する。操作デバイス3は、使用者の操作を受け付ける操作部として、ベゼル301、タッチパネル304、ボタン305、リュウズ型操作子307、及び、ボタン309を備える。操作部に9軸センサー368を含んでもよいし、9軸センサー368を有するバンド部300を操作部としてもよい。頭部装着型表示装置100は、画像表示部20の表示を制御する制御部140を備える。制御部140は、操作デバイス3に対する操作に基づき、画像表示部20を透過する外景に関連するAR表示を画像表示部20によって行う。この構成によれば、頭部装着型表示装置100が外景に関連するAR表示を行う際に、頭部装着型表示装置100とは別体の操作デバイス3の操作を反映するので、直感的な入力操作によってAR表示を制御できる。   As described above, the display system 1 according to the embodiment to which the present invention is applied includes the head-mounted display device 100 and the operation device 3 configured separately from the image display unit 20. The head-mounted display device 100 includes a transmissive image display unit 20 that is mounted on the user's head and allows the user to visually recognize the outside scene. The operation device 3 includes a bezel 301, a touch panel 304, a button 305, a crown type operator 307, and a button 309 as an operation unit that receives a user's operation. The operation unit may include a 9-axis sensor 368, or the band unit 300 having the 9-axis sensor 368 may be used as the operation unit. The head-mounted display device 100 includes a control unit 140 that controls the display of the image display unit 20. Based on an operation on the operation device 3, the control unit 140 causes the image display unit 20 to perform an AR display related to an outside scene that passes through the image display unit 20. According to this configuration, when the head-mounted display device 100 performs AR display related to the outside scene, the operation of the operation device 3 separate from the head-mounted display device 100 is reflected, which is intuitive. The AR display can be controlled by an input operation.

例えば、操作デバイス3において、図7(A)に示した設定によりバンド部300の操作部に対して機能が割り当てられた後、操作部に接触する、指を動かす、等の操作デバイス3に対する操作を、頭部装着型表示装置100が検出してもよい。具体的には、カメラ61の撮像画像データにもとづき、操作デバイス3に対する操作を制御部140が検出してもよい。
また、操作デバイス3は、操作部が受け付けた操作を示すデータを頭部装着型表示装置100に送信する無線通信部361を備えてもよい。この場合、制御部140は、操作デバイス3から送信されるデータに基づき、操作部に対応付けられた態様で、画像表示部20を透過する外景に関連するAR表示を画像表示部20によって行う。
For example, in the operation device 3, after a function is assigned to the operation unit of the band unit 300 according to the setting illustrated in FIG. 7A, an operation on the operation device 3 such as touching the operation unit or moving a finger. May be detected by the head-mounted display device 100. Specifically, the control unit 140 may detect an operation on the operation device 3 based on the captured image data of the camera 61.
In addition, the operation device 3 may include a wireless communication unit 361 that transmits data indicating the operation received by the operation unit to the head-mounted display device 100. In this case, the control unit 140 causes the image display unit 20 to perform AR display related to the outside scene that is transmitted through the image display unit 20 in a manner associated with the operation unit based on the data transmitted from the operation device 3.

また、制御部140は、操作デバイス3から送信されるデータに基づいて操作部の操作を検出し、検出した操作に対応して、画像表示部20に表示中のAR表示を変更する。このため、AR表示を行っている間に、操作デバイス3を操作することにより、AR表示を変更させることができる。   Further, the control unit 140 detects the operation of the operation unit based on the data transmitted from the operation device 3, and changes the AR display being displayed on the image display unit 20 in accordance with the detected operation. For this reason, the AR display can be changed by operating the operation device 3 while performing the AR display.

制御部140は、操作部に対するAR表示の割り当てを設定可能であってもよい。
この場合において、制御部140は、操作部に対するAR表示の割り当てを更新する処理を実行可能であってもよい。
The control unit 140 may be capable of setting the allocation of AR display to the operation unit.
In this case, the control unit 140 may be able to execute processing for updating the allocation of the AR display to the operation unit.

また、操作部は接触操作を検出するタッチパネル304を備える。タッチパネル304は、複数の操作領域を有し、制御部140は、タッチパネル304で操作された操作領域に割り当てられたAR表示を、画像表示部20によって表示する。このため、操作デバイス3でタッチ操作を行うことにより、AR表示に対する様々な操作が可能となる。
また、操作デバイス3が有する制御部350は、操作デバイス3の動きを操作として検出してもよい。
操作デバイス3を動かすことで頭部装着型表示装置100に対する操作を行える。
In addition, the operation unit includes a touch panel 304 that detects a contact operation. The touch panel 304 has a plurality of operation areas, and the control unit 140 causes the image display unit 20 to display an AR display assigned to the operation area operated on the touch panel 304. For this reason, by performing a touch operation with the operation device 3, various operations for the AR display can be performed.
The control unit 350 included in the operation device 3 may detect the movement of the operation device 3 as an operation.
The head-mounted display device 100 can be operated by moving the operation device 3.

また、操作デバイス3はカメラ311を備え、カメラ311の撮像画像を含むデータを無線通信部361により頭部装着型表示装置100に送信してもよい。この場合、頭部装着型表示装置100とは別体の操作デバイス3で撮像した撮像画像を、頭部装着型表示装置100で表示できる。また、表示システム1では、操作デバイス3で、頭部装着型表示装置100の認証を行うことができる。   Further, the operation device 3 may include the camera 311, and data including a captured image of the camera 311 may be transmitted to the head-mounted display device 100 by the wireless communication unit 361. In this case, the captured image captured by the operation device 3 separate from the head-mounted display device 100 can be displayed by the head-mounted display device 100. In the display system 1, the head-mounted display device 100 can be authenticated by the operation device 3.

図11及び図12は、操作デバイス3の操作に対応して頭部装着型表示装置100が実行する機能の例を示す図である。
図11(A)は、ファイル及びフォルダーを選択する選択用画面A41を、使用者の視野VRに表示した例を示す。このように選択候補(この例ではフォルダー)が複数並べて表示された状態で、ベゼル301を回転させる操作が行われると、候補が順に選択される。
また、図11(B)には、操作デバイス3または制御装置10の操作により表示される仮想キーボードA43を示す。仮想キーボードA43には文字及び記号に対応する仮想キーが複数配置される。仮想キーボードA43の表示中にベゼル301を回転させる操作が行われると、仮想キーボードA43において仮想キーが順に選択される。
11 and 12 are diagrams illustrating examples of functions executed by the head-mounted display device 100 in response to the operation of the operation device 3.
FIG. 11A shows an example in which a selection screen A41 for selecting files and folders is displayed in the visual field VR of the user. When an operation for rotating the bezel 301 is performed in a state where a plurality of selection candidates (folders in this example) are displayed side by side as described above, the candidates are sequentially selected.
FIG. 11B shows a virtual keyboard A43 displayed by operating the operation device 3 or the control device 10. A plurality of virtual keys corresponding to characters and symbols are arranged on the virtual keyboard A43. When an operation for rotating the bezel 301 is performed while the virtual keyboard A43 is displayed, virtual keys are sequentially selected on the virtual keyboard A43.

図11(A)、(B)に示すように、使用者の視野VRに表示される複数の候補から一つの候補を選択する操作では、ベゼル301を回転させる操作が好適である。この場合、ベゼル301の回転方向に合わせて、候補が順に切り替えて選択される方向を変更してもよい。また、選択を確定する操作は、例えば、操作デバイス3が備えるボタン305で行うことができる。ベゼル301は、直感的に操作が可能であり、操作デバイス3の平面部300Aの外周部に位置するため、手探りによる操作が可能である。このため、使用者は、画像表示部20により表示されるAR表示に注目しながらベゼル301を操作できる。さらに、平面部300Aとは離れた位置に設けられ、他のスイッチ式の操作子よりも大型のボタン305により、選択を確定できるので、より容易に操作を行える。ボタン305は、位置及びサイズが、ボタン309やリュウズ型操作子307とは異なるので、ベゼル301と同様に、手探りによる操作が容易である。このため、画像表示部20が表示する画像を見ながら、直感的で確実な操作を行える。   As shown in FIGS. 11A and 11B, in the operation of selecting one candidate from a plurality of candidates displayed in the visual field VR of the user, an operation of rotating the bezel 301 is preferable. In this case, in accordance with the rotation direction of the bezel 301, the direction in which candidates are switched in order may be changed. In addition, the operation for confirming the selection can be performed by, for example, a button 305 provided in the operation device 3. The bezel 301 can be operated intuitively and is located on the outer peripheral portion of the flat surface portion 300A of the operation device 3, so that it can be operated by groping. Therefore, the user can operate the bezel 301 while paying attention to the AR display displayed by the image display unit 20. Furthermore, since the selection can be confirmed by a button 305 which is provided at a position apart from the plane portion 300A and is larger than other switch type operation elements, the operation can be performed more easily. Since the position and size of the button 305 are different from those of the button 309 and the crown-type operation element 307, the operation by groping is easy like the bezel 301. Therefore, an intuitive and reliable operation can be performed while viewing the image displayed by the image display unit 20.

なお、図11(A)、(B)に示すように、使用者の視野VRに表示される複数の候補から一つの候補を選択する操作で、音声による選択が可能な構成としてもよい。この場合、候補に付された固有の名称、番号、符号等を音声で指定すると、この音声を操作デバイス3がマイク365で検出し、検出した音声のデータを頭部装着型表示装置100に送信し、制御部140が設定を行ってもよい。   In addition, as shown to FIG. 11 (A) and (B), it is good also as a structure which can be selected with an audio | voice by operation which selects one candidate from the some candidate displayed on a user's visual field VR. In this case, when a unique name, number, code, or the like assigned to the candidate is designated by voice, the operation device 3 detects this voice with the microphone 365 and transmits the detected voice data to the head-mounted display device 100. Then, the control unit 140 may perform the setting.

図12は、ベゼル301の操作に応じて画面を遷移させる例について、遷移される画面の構成を模式的に示す。
頭部装着型表示装置100のオペレーティングシステム150が、iOS(登録商標)やAndroid(登録商標)のように、複数の画面を切り替え、遷移させる構成である場合、ベゼル301の操作をより効果的に使用できる。図12の例では、ベゼル301を回転させる操作により、画面1〜4の4つの画面を順に切り替えて表示できる。また、画面1〜4を順次選択する場合の送り方向は、ベゼル301の操作方向に対応して、正方向と逆方向にしてもよい。
FIG. 12 schematically shows the configuration of the transitioned screen for an example in which the screen is transitioned according to the operation of the bezel 301.
When the operating system 150 of the head-mounted display device 100 is configured to switch and change a plurality of screens like iOS (registered trademark) and Android (registered trademark), the operation of the bezel 301 is more effectively performed. Can be used. In the example of FIG. 12, four screens of screens 1 to 4 can be sequentially switched and displayed by rotating the bezel 301. Further, the feeding direction when the screens 1 to 4 are sequentially selected may be opposite to the forward direction corresponding to the operation direction of the bezel 301.

頭部装着型表示装置100では、画面1〜4のうち画面2が表示された状態で、ボタン305の操作により表示画面を確定した後、さらに、ベゼル301の操作により画面2、2−1、2−2、2−3の4つの画面を遷移させることができる。この場合も、4つの画面を順次選択する場合の送り方向は、ベゼル301の操作方向に対応して、正方向と逆方向にしてもよい。
図12に示す例ではボタン305の確定操作を経ずにベゼル301を回転させることで、素早く表示画面を遷移させることができる。
In the head mounted display device 100, after the screen 2 is displayed among the screens 1 to 4, the display screen is determined by operating the button 305, and then the screens 2, 2-1, The four screens 2-2 and 2-3 can be changed. Also in this case, the feeding direction when sequentially selecting the four screens may be opposite to the forward direction corresponding to the operation direction of the bezel 301.
In the example illustrated in FIG. 12, the display screen can be quickly changed by rotating the bezel 301 without performing the confirmation operation of the button 305.

表示システム1の動作は上記の例に限定されず、例えば、次のような動作を実行できる。
頭部装着型表示装置100は、操作デバイス3の操作に対応して、画像表示部20で表示する画像(文字を含む)の拡大、縮小、回転、コピー、ページ送り等を行ってもよい。この場合、操作デバイス3における操作は、ベゼル301の回転、ボタン309の押圧操作、ボタン305の押圧操作、及びリュウズ型操作子307を回転させる操作だけでなく、例えば、タッチパネル304に対し指で接触する操作を含んでもよい。例えば、ベゼル301を右に回す操作に対応して表示画像を拡大し、ベゼル301を左に回す操作に対応して表示画像を縮小してもよい。また、タッチパネル304の中央部に対する指の接触を検出した場合に表示画像を拡大し、タッチパネル304の周縁部(例えば、左下枠近傍)への指の接触を検出した場合に表示画像を縮小してもよい。また、タッチパネル304に接触した指が、接触したまま右回し、左回し等の回転運動をした場合に、この回転に合わせて表示画像を回転させてもよい。
Operation | movement of the display system 1 is not limited to said example, For example, the following operations can be performed.
The head-mounted display device 100 may perform enlargement, reduction, rotation, copy, page feed, and the like of an image (including characters) displayed on the image display unit 20 in response to the operation of the operation device 3. In this case, the operation of the operation device 3 is not only the rotation of the bezel 301, the pressing operation of the button 309, the pressing operation of the button 305, and the operation of rotating the crown-shaped operation element 307, but for example, touching the touch panel 304 with a finger. The operation to perform may be included. For example, the display image may be enlarged in response to an operation of turning the bezel 301 to the right, and the display image may be reduced in response to an operation of turning the bezel 301 to the left. Further, the display image is enlarged when a finger contact with the center of the touch panel 304 is detected, and the display image is reduced when a finger contact with the peripheral edge of the touch panel 304 (for example, near the lower left frame) is detected. Also good. Further, when the finger touching the touch panel 304 rotates in a clockwise direction or in a counterclockwise direction while being in contact, the display image may be rotated in accordance with the rotation.

また、タッチパネル304がいわゆるマルチタッチ操作に対応する場合、タッチパネル304に対する複数の操作点の間隔を拡大、或いは縮小させる操作等に対応して、頭部装着型表示装置100の表示画像を拡大、縮小、或いは回転させる動作を行ってもよい。   Further, when the touch panel 304 supports a so-called multi-touch operation, the display image of the head-mounted display device 100 is enlarged or reduced in response to an operation for expanding or reducing the interval between a plurality of operation points on the touch panel 304. Alternatively, a rotating operation may be performed.

操作デバイス3は、9軸センサー368の検出値を頭部装着型表示装置100に送信することもできる。また、操作デバイス3がGPS検出部を備えた構成とし、GPS検出部で検出する現在位置を、頭部装着型表示装置100に送信してもよい。この場合、頭部装着型表示装置100の制御部140は、操作デバイス3から受信する検出値と3軸センサー113の検出値とに基づき、操作デバイス3と頭部装着型表示装置100との相対位置を検出できる。そして、検出した相対位置の変化に対応して、表示画像の拡大、縮小、回転など表示の変更を行っても良く、画像のフェードイン表示、フェードアウト表示を行ってもよい。この場合、操作デバイス3を頭部装着型表示装置100に近づけたり、遠ざけたりする操作により、表示を変更できる。さらに、操作デバイス3が、9軸センサー368の検出値のデータを頭部装着型表示装置100に送信することで、操作デバイス3を動かす操作を、頭部装着型表示装置100が検出できる。   The operation device 3 can also transmit the detection value of the 9-axis sensor 368 to the head-mounted display device 100. Further, the operation device 3 may include a GPS detection unit, and the current position detected by the GPS detection unit may be transmitted to the head-mounted display device 100. In this case, the control unit 140 of the head-mounted display device 100 determines the relative relationship between the operation device 3 and the head-mounted display device 100 based on the detection value received from the operation device 3 and the detection value of the three-axis sensor 113. The position can be detected. Then, in response to the detected change in relative position, display changes such as enlargement, reduction, and rotation of the display image may be performed, and fade-in display and fade-out display of the image may be performed. In this case, the display can be changed by an operation of bringing the operation device 3 close to or away from the head-mounted display device 100. Furthermore, the head-mounted display device 100 can detect an operation of moving the operation device 3 by the operation device 3 transmitting the detection value data of the 9-axis sensor 368 to the head-mounted display device 100.

このように、頭部装着型表示装置100は、使用者の頭部に装着される表示部を有する頭部装着型表示装置100と、表示部とは別体として構成される操作デバイス3とを備える。操作デバイス3は、使用者の操作を受け付ける操作部として、ベゼル301、タッチパネル304、ボタン305、リュウズ型操作子307、及び、ボタン309を備える。操作部に9軸センサー368を含んでもよいし、9軸センサー368を有するバンド部300を操作部としてもよい。頭部装着型表示装置100は、画像表示部20の表示を制御する制御部140を備え、制御部140は、操作デバイス3の操作に基づき、画像表示部20で表示する画面を遷移させる処理を含む表示制御を行う。このため、頭部装着型表示装置100とは別体の操作デバイス3を操作し、画面を遷移させるので、より直感的な入力操作により頭部装着型表示装置100を制御できる。   As described above, the head-mounted display device 100 includes the head-mounted display device 100 having a display unit that is mounted on the user's head, and the operation device 3 that is configured separately from the display unit. Prepare. The operation device 3 includes a bezel 301, a touch panel 304, a button 305, a crown type operator 307, and a button 309 as an operation unit that receives a user's operation. The operation unit may include a 9-axis sensor 368, or the band unit 300 having the 9-axis sensor 368 may be used as the operation unit. The head-mounted display device 100 includes a control unit 140 that controls the display of the image display unit 20, and the control unit 140 performs a process of changing the screen displayed on the image display unit 20 based on the operation of the operation device 3. Including display control. For this reason, since the operation device 3 separate from the head-mounted display device 100 is operated and the screen is changed, the head-mounted display device 100 can be controlled by a more intuitive input operation.

また、操作デバイス3は、操作部が受け付けた操作を示すデータを頭部装着型表示装置100に送信する無線通信部361を備える。頭部装着型表示装置100の制御部140は、操作デバイス3から送信されるデータに基づき、操作デバイス3の操作を検出する。このため、操作デバイス3における操作を、頭部装着型表示装置100において確実に検出できる。また、操作の検出に係る頭部装着型表示装置100の負荷を軽減できる。   In addition, the operation device 3 includes a wireless communication unit 361 that transmits data indicating the operation received by the operation unit to the head-mounted display device 100. The control unit 140 of the head-mounted display device 100 detects the operation of the operation device 3 based on the data transmitted from the operation device 3. For this reason, the operation on the operation device 3 can be reliably detected by the head-mounted display device 100. Further, it is possible to reduce the load on the head-mounted display device 100 related to the detection of the operation.

また、操作デバイス3は、使用者の身体に装着される装着部としてのバンド部300を有し、使用者の身体に装着される操作デバイス3を用いて、より直感的な入力操作を行い、頭部装着型表示装置100を制御できる。
また、操作デバイス3が有する操作部は、例えばベゼル301及び回転検出部367により、回転を伴う操作を検出する。頭部装着型表示装置100の制御部140は、操作デバイス3から回転を伴う操作を示すデータが送信された場合に、操作の回転方向に対応して、画像表示部20で表示する画面を、例えば図10に示すように遷移させる。このため、回転を伴う操作により画面を遷移させることができ、より直感的な操作を実現できる。また、操作の方向と画面の遷移の方向とが対応するため、例えば手探りの操作を行うことが可能となる。
In addition, the operation device 3 includes a band unit 300 as a mounting unit that is mounted on the user's body, and performs a more intuitive input operation using the operation device 3 that is mounted on the user's body. The head-mounted display device 100 can be controlled.
Moreover, the operation part which the operation device 3 has detects operation with rotation by the bezel 301 and the rotation detection part 367, for example. The control unit 140 of the head-mounted display device 100 displays a screen to be displayed on the image display unit 20 corresponding to the rotation direction of the operation when data indicating an operation involving rotation is transmitted from the operation device 3. For example, the transition is made as shown in FIG. For this reason, a screen can be changed by operation with rotation, and more intuitive operation can be realized. Further, since the direction of operation corresponds to the direction of transition of the screen, for example, a groping operation can be performed.

また、頭部装着型表示装置100の制御部140は、操作デバイス3から送信されるデータに基づき、画像表示部20で表示する画像の拡大、縮小或いは回転のいずれかを含む表示制御を行ってもよい。
また、操作デバイス3が有する制御部350は、操作デバイス3の動きを操作として検出してもよい。
また、画像表示部20は、外景を透過して使用者に視認させる透過型の表示部であってもよい。この場合、使用者が外景を見ながら操作デバイス3を操作して、頭部装着型表示装置100の表示を制御できる。頭部装着型表示装置100のみを注視せず、直感的に操作できるため、外景を見ながら頭部装着型表示装置100を使用する場合に好適である。
The control unit 140 of the head-mounted display device 100 performs display control including any of enlargement, reduction, and rotation of the image displayed on the image display unit 20 based on the data transmitted from the operation device 3. Also good.
The control unit 350 included in the operation device 3 may detect the movement of the operation device 3 as an operation.
The image display unit 20 may be a transmissive display unit that allows the user to visually recognize the outside scene. In this case, the user can control the display of the head-mounted display device 100 by operating the operation device 3 while looking at the outside scene. Since it can be operated intuitively without gazing only at the head-mounted display device 100, it is suitable when the head-mounted display device 100 is used while looking at the outside scene.

また、頭部装着型表示装置100は、操作デバイス3に出力用のデータを送信し、操作デバイス3は、頭部装着型表示装置100が送信する出力用のデータを通信部で受信し、受信した出力用のデータを出力することができる。   The head-mounted display device 100 transmits output data to the operation device 3, and the operation device 3 receives the output data transmitted from the head-mounted display device 100 by the communication unit, and receives the data. Output data can be output.

また、制御部140は、カメラ61の撮像画像から操作対象物4、5を検出した場合に、操作対象物4、5に対応付けられた操作用画像を、操作対象物4、5に対応して画像表示部20に表示する。これにより、頭部装着型表示装置100とは別体の操作対象物4、5に関する情報を、使用者にわかりやすく提供できる。   When the control unit 140 detects the operation objects 4 and 5 from the captured image of the camera 61, the control unit 140 associates the operation images associated with the operation objects 4 and 5 with the operation objects 4 and 5. Are displayed on the image display unit 20. Thereby, the information regarding the operation objects 4 and 5 that are separate from the head-mounted display device 100 can be provided to the user in an easily understandable manner.

また、制御部140は、操作用画像を表示した操作対象物4、5に対する操作を検出した場合に、操作内容と操作用画像とに対応する処理を実行する。これにより、操作対象物4、5に対する操作に対応して頭部装着型表示装置100が処理を実行するので、操作対象物4、5を使用して直感的な操作を実現できる。   In addition, when detecting an operation on the operation objects 4 and 5 on which the operation image is displayed, the control unit 140 executes processing corresponding to the operation content and the operation image. As a result, the head-mounted display device 100 executes processing in response to an operation on the operation objects 4 and 5, so that an intuitive operation can be realized using the operation objects 4 and 5.

また、制御部140は、操作対象物4、5に対する操作を検出する検出部として機能するので、操作対象物4、5に対する操作を速やかに検出できる。また、操作対象物4、5が通信機能を有していなくても、頭部装着型表示装置100が操作対象物4、5の操作に対応して処理を実行できる。制御部140は、カメラ61の撮像画像に基づいて、操作対象物4、5を検出し、操作対象物4、5に対する操作を検出する。これにより、操作対象物4、5が通信を実行しなくても、頭部装着型表示装置100が操作対象物4、5を検出し、操作対象物4、5に対する操作を検出できる。   Further, since the control unit 140 functions as a detection unit that detects an operation on the operation objects 4 and 5, it is possible to quickly detect an operation on the operation objects 4 and 5. Even if the operation objects 4 and 5 do not have a communication function, the head-mounted display device 100 can execute processing corresponding to the operation of the operation objects 4 and 5. The control unit 140 detects the operation objects 4 and 5 based on the captured image of the camera 61 and detects an operation on the operation objects 4 and 5. Thereby, even if the operation objects 4 and 5 do not perform communication, the head-mounted display device 100 can detect the operation objects 4 and 5 and can detect an operation on the operation objects 4 and 5.

頭部装着型表示装置100は、操作対象物が有する操作部に対応する操作用の画像をAR表示するためのARコンテンツデータ123を記憶する記憶部120を備える。制御部140は、記憶部120が記憶するAR表示用のデータを変更可能である。これにより、操作対象物に対応してAR表示を行う機能について、データを変更できるので、新しい操作対象物や未知の操作対象物に対応するようデータを変更できる。従って、AR表示の対象とする操作対象物に関する制約を減らすことができ、利便性の向上を図ることができる。   The head-mounted display device 100 includes a storage unit 120 that stores AR content data 123 for AR display of an operation image corresponding to the operation unit included in the operation target. The control unit 140 can change the AR display data stored in the storage unit 120. Thereby, since the data can be changed for the function of performing the AR display corresponding to the operation target, the data can be changed to correspond to a new operation target or an unknown operation target. Therefore, it is possible to reduce the restrictions on the operation target to be displayed on the AR, and to improve the convenience.

また、記憶部120が記憶するARコンテンツデータ123は、操作用の画像である要素と操作対象物が有する操作部とを対応付ける位置属性データ123bを含む。制御部140は、ARコンテンツデータ123における操作用の画像と操作対象物が有する操作部との対応を変更可能できる。   The AR content data 123 stored in the storage unit 120 includes position attribute data 123b that associates an element that is an operation image with an operation unit included in the operation target. The control unit 140 can change the correspondence between the operation image in the AR content data 123 and the operation unit included in the operation target.

また、本発明は、使用者の頭部に装着され、外景を透過して使用者に視認させる透過型の画像表示部20を有する頭部装着型表示装置100を制御する制御部140が実行可能なプログラムとして実現できる。このプログラムを制御部140のCPUが実行することにより、画像表示部20とは別体として構成される操作デバイス3、操作対象物4、5を検出できる。また、制御部140は、操作デバイス3、操作対象物4、5が備える操作部を検出し、検出した操作部に対応する位置に、操作用の画像をAR表示する。また、制御部140は、操作用の画像に関する操作を検出し、操作を検出した操作用の画像に対応する処理を実行する。これにより、頭部装着型表示装置100が、頭部装着型表示装置100とは別体の操作デバイス3、操作対象物4、5に対応する操作用の画像を表示し、この操作用の画像に関する操作に応じて処理を実行する。このため、操作デバイス3、操作対象物4、5を利用して頭部装着型表示装置100に処理を実行させることが可能となり、頭部装着型表示装置100に対する直感的な操作が可能となる。   In addition, the present invention can be executed by the control unit 140 that controls the head-mounted display device 100 that is mounted on the user's head and has the transmissive image display unit 20 that allows the user to see through the outside scene. Can be realized as a simple program. When the CPU of the control unit 140 executes this program, the operation device 3 and the operation objects 4 and 5 that are configured separately from the image display unit 20 can be detected. In addition, the control unit 140 detects an operation unit included in the operation device 3 and the operation objects 4 and 5 and displays an operation image as an AR at a position corresponding to the detected operation unit. Further, the control unit 140 detects an operation related to the operation image, and executes processing corresponding to the operation image from which the operation is detected. As a result, the head-mounted display device 100 displays an operation image corresponding to the operation device 3 and the operation objects 4 and 5 separate from the head-mounted display device 100, and the operation image is displayed. Process is executed according to the operation related to. For this reason, it becomes possible to cause the head-mounted display device 100 to execute processing using the operation device 3 and the operation objects 4 and 5, and an intuitive operation on the head-mounted display device 100 becomes possible. .

なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
本実施形態では、頭部装着型表示装置100のユーザーインターフェイスとして使用される操作デバイス3が、腕時計の形状を有する例を説明した。本発明はこれに限定されず、頭部装着型表示装置100を使用する使用者の身体に装着するのに適した形状であればよい。例えば、指輪型、ブローチ型、ペンダントまたはネックレス型、或いはペン型のデバイスとすることができる。また、使用者の頭部や耳に装着されるヘッドホン型、イヤホン型、ヘッドセット型のデバイスとしてもよい。この場合、音声を出力するヘッドホンやイヤホンに、本発明の操作デバイスとしての機能を実装してもよい。音声を出力するスピーカーと、使用者が発話する音声を集音するマイクとを備えたヘッドセットに、本発明の操作デバイスとしての機能を実装してもよい。この構成においてヘッドホン、イヤホン、スピーカーは骨伝導スピーカーであってもよく、マイクは骨伝導マイクであってもよい。この場合、デバイスは、少なくとも、接触操作または押圧操作を検出する操作子を備え、無線通信部361、LED313、カメラ311、及び9軸センサー368を備えた構成とすることが望ましい。これらの構成では、表示に係る動作を除き、上記実施形態と同様の効果を得ることができる。
In addition, this invention is not restricted to the structure of the said embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.
In the present embodiment, the example in which the operation device 3 used as the user interface of the head-mounted display device 100 has the shape of a wristwatch has been described. The present invention is not limited to this, and any shape that is suitable for being worn on the body of a user who uses the head-mounted display device 100 may be used. For example, it can be a ring type, brooch type, pendant or necklace type, or pen type device. Moreover, it is good also as a headphone type | mold, earphone type | mold, or headset type device with which a user's head and ear | edge are mounted | worn. In this case, the function as the operation device of the present invention may be mounted on headphones or earphones that output sound. The function as the operation device of the present invention may be implemented in a headset including a speaker that outputs audio and a microphone that collects audio uttered by the user. In this configuration, the headphones, earphones, and speakers may be bone conduction speakers, and the microphone may be a bone conduction microphone. In this case, the device preferably includes at least an operation element that detects a contact operation or a pressing operation, and includes a wireless communication unit 361, an LED 313, a camera 311, and a 9-axis sensor 368. In these configurations, the same effects as those in the above-described embodiment can be obtained except for operations related to display.

また、上記実施形態の頭部装着型表示装置100は、バンド部300により使用者の身体に固定され保持される構成としたが、本発明の操作デバイスの構成は、これに限定されない。すなわち、操作デバイスは、バンド部300等により固定することは必須ではなく、使用者の身体に装着可能であればよい。従って、上述のようにペンダントまたはネックレス型、或いは他のアクセサリーを模した形状等であってもよく、帽子やヘルメットの形状としてもよく、その他の衣服の形態とすることもできる。
さらに、本発明の操作デバイスは、使用者の身体に直接装着され、或いは固定される態様に限定されない。例えば、使用者の身体に装着または固定される腕時計、アクセサリー、衣服、鞄、帽子、ヘルメットに、操作デバイスに相当する機器を固定してもよい。この場合の操作デバイスは、例えば、操作デバイス3からバンド部300を除いた構成とすることができる。
Moreover, although the head mounted display apparatus 100 of the said embodiment was set as the structure fixed to a user's body by the band part 300, the structure of the operation device of this invention is not limited to this. That is, it is not essential that the operation device is fixed by the band unit 300 or the like, as long as it can be attached to the user's body. Therefore, it may be a pendant or necklace shape as described above, or a shape imitating other accessories, may be a hat or helmet shape, or may be other clothing.
Furthermore, the operating device of the present invention is not limited to a mode in which it is directly attached to or fixed to the user's body. For example, an apparatus corresponding to an operation device may be fixed to a wristwatch, an accessory, clothes, a bag, a hat, or a helmet that is attached or fixed to the user's body. The operation device in this case can be configured, for example, by removing the band unit 300 from the operation device 3.

また、表示システム1は、複数の操作デバイスを備えた構成としてもよい。例えば操作デバイス3のように腕時計型の操作デバイスと、ペン型の操作デバイスなど、異なる形態の操作デバイスを含んでもよい。この場合、複数の操作デバイスにおける操作に基づき、頭部装着型表示装置100における表示画面を遷移させてもよい。複数の操作デバイスにおける操作を頭部装着型表示装置100が検出する方法は、複数の操作デバイスから操作を示すデータを送信する方法等が挙げられる。   The display system 1 may be configured to include a plurality of operation devices. For example, the operation device 3 may include a different type of operation device such as a wristwatch-type operation device and a pen-type operation device. In this case, the display screen of the head-mounted display device 100 may be changed based on operations on a plurality of operation devices. Examples of the method in which the head-mounted display device 100 detects operations on a plurality of operation devices include a method of transmitting data indicating operations from the plurality of operation devices.

さらに、操作デバイス3が慣性センサーである9軸センサー368の検出値を示すデータを頭部装着型表示装置100に送信することで、操作デバイス3の動きを操作として表示システム1が動作してもよい。
例えば、9軸センサー368の検出値と、頭部装着型表示装置100が備える9軸センサー66の検出値とを用いて、制御部140が、画像表示部20を透過して視認される外景と画像表示部20の表示領域との対応付けを行ってもよい。この場合、複数の装置が備えるセンサーの検出値を用いることで、より高精度で対応付けを行うことができる。この対応付けは、画像表示部20においてARコンテンツを表示する場合等に利用できる。
Further, the operation device 3 transmits data indicating the detection value of the nine-axis sensor 368 that is an inertial sensor to the head-mounted display device 100, so that even if the display system 1 operates using the movement of the operation device 3 as an operation. Good.
For example, using the detection value of the 9-axis sensor 368 and the detection value of the 9-axis sensor 66 included in the head-mounted display device 100, the control unit 140 transmits an external scene that can be viewed through the image display unit 20. You may perform matching with the display area of the image display part 20. FIG. In this case, association can be performed with higher accuracy by using detection values of sensors provided in a plurality of apparatuses. This association can be used when the AR content is displayed on the image display unit 20.

また、操作デバイス3は、使用者の心拍数を計測するセンサーを備えてもよい。具体的には、使用者の腕に光を照射して拍動を検出するセンサー等を用いることができる。この場合、操作デバイス3は、計測した心拍数に関するデータを頭部装着型表示装置100に送信し、頭部装着型表示装置100において心拍数に係るデータを表示してもよい。例えば、心拍数を統計的に処理した結果の表示や、心拍数のリアルタイム表示、心拍数と9軸センサー368の検出値とを処理し、使用者の活動量や体調管理に関するデータを表示してもよい。また、心拍数に基づき使用者の興奮度や疲労度を推定し、画像表示部20における表示色や表示する画像の内容を、使用者に快適性をもたらすように変更してもよい。   The operation device 3 may include a sensor that measures the heart rate of the user. Specifically, a sensor or the like that detects light by irradiating light on the user's arm can be used. In this case, the operation device 3 may transmit data relating to the measured heart rate to the head-mounted display device 100, and display data relating to the heart rate on the head-mounted display device 100. For example, display of the result of statistical processing of heart rate, real-time display of heart rate, heart rate and detection value of 9-axis sensor 368, and display data related to user activity and physical condition management Also good. Further, the user's excitement level and fatigue level may be estimated based on the heart rate, and the display color in the image display unit 20 and the content of the image to be displayed may be changed to bring comfort to the user.

また、上記実施形態では、操作デバイス3が電源部360により動作する電子機器である構成を例に挙げて説明したが、本発明はこれに限定されない。例えば、操作デバイス3のベゼル301、及び/又は、平面部300Aでベゼル301に隣接する位置に、ベゼル301の回転方向における位置を特定するためのマーカーを設けてもよい。この場合、デバイス制御部183が、カメラ61で撮像する撮像画像データに基づき、ベゼル301の回転方向と回転量を求めることができる。また、操作デバイス3が電源部360を備えている場合であっても、上記の動作により、頭部装着型表示装置100がベゼル301の回転方向と回転量とを求める構成としてもよい。この動作は、例えば、電源部360の消費を抑える省電力動作モードの動作として実現できる。電源部360の残容量が少ない場合に、操作デバイス3または頭部装着型表示装置100の制御で、表示システム1が省電力動作モードに移行する構成とすることができる。   In the above-described embodiment, the configuration in which the operation device 3 is an electronic device that is operated by the power supply unit 360 has been described as an example. However, the present invention is not limited to this. For example, a marker for specifying the position of the bezel 301 in the rotational direction may be provided at a position adjacent to the bezel 301 on the operation device 3 and / or the planar portion 300A. In this case, the device control unit 183 can determine the rotation direction and the rotation amount of the bezel 301 based on the captured image data captured by the camera 61. Even when the operation device 3 includes the power supply unit 360, the head-mounted display device 100 may obtain the rotation direction and the rotation amount of the bezel 301 by the above operation. This operation can be realized, for example, as a power saving operation mode operation that suppresses the consumption of the power supply unit 360. When the remaining capacity of the power supply unit 360 is small, the display system 1 can be shifted to the power saving operation mode under the control of the operation device 3 or the head-mounted display device 100.

また、操作対象物4、5は、頭部装着型表示装置100が有する画像表示部20とは別体として構成されるものであって、操作用画像を表示する対象であるリュウズ401、ベゼル402などの各部またはマーカー510を有するものであればよい。このため、例えば、筆記具を含む文房具、工具、家具、コンピューター周辺機器、電話機などの各種電子機器など、画像表示部20と別体であれば何であってもよく、使用者が身体に装着するものに限定されないし、その本来の機能も制限はない。   In addition, the operation objects 4 and 5 are configured separately from the image display unit 20 included in the head-mounted display device 100, and are crowns 401 and bezels 402 that are objects for displaying an operation image. It is sufficient that each part has a marker 510 or the like. For this reason, for example, stationery including writing instruments, tools, furniture, computer peripheral devices, various electronic devices such as telephones, and the like may be anything as long as they are separate from the image display unit 20, and worn by the user. The original function is not limited.

また、上記実施形態の画像表示部20に代えて、例えば、帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。   Further, instead of the image display unit 20 of the above-described embodiment, for example, an image display unit of another method such as an image display unit worn like a hat may be adopted, corresponding to the left eye of the user. What is necessary is just to provide the display part which displays an image, and the display part which displays an image corresponding to a user's right eye. The display device of the present invention may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet. In this case, the part for positioning the position with respect to the user's body and the part positioned with respect to the part can be used as the mounting portion.

さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20と分離して構成され、制御装置10と画像表示部20との間で無線通信により各種信号を送受信する構成としてもよい。
Furthermore, in the above-described embodiment, the configuration in which the image display unit 20 and the control device 10 are separated and connected via the connection unit 40 has been described as an example. The present invention is not limited to this, and the control device 10 and the image display unit 20 may be configured integrally and mounted on the user's head.
As the control device 10, a notebook computer, a tablet computer, or a desktop computer may be used. The control device 10 may be a game machine, a portable phone, a portable electronic device including a smartphone or a portable media player, other dedicated devices, or the like. Further, the control device 10 may be configured separately from the image display unit 20, and various signals may be transmitted and received between the control device 10 and the image display unit 20 by wireless communication.

また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。   For example, as a configuration for generating image light in the image display unit 20, a configuration including an organic EL (Organic Electro-Luminescence) display and an organic EL control unit may be used. Further, as a configuration for generating image light, LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like can be used.

また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。
例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。
The optical system that guides the image light to the user's eyes may include an optical member that transmits external light that is incident on the apparatus from the outside and that is incident on the user's eyes together with the image light. Moreover, you may use the optical member which is located ahead of a user's eyes and overlaps a part or all of a user's visual field. Further, a scanning optical system that scans a laser beam or the like to obtain image light may be employed. Further, the optical member is not limited to guiding the image light inside the optical member, and may have only a function of guiding the image light by refracting and / or reflecting it toward the user's eyes.
For example, the present invention can also be applied to a laser retinal projection type head mounted display. That is, the light emitting unit includes a laser light source and an optical system that guides the laser light source to the user's eyes, and the laser light is incident on the user's eyes to scan the retina and form an image on the retina. A configuration that allows the user to visually recognize an image may be employed.
Further, the present invention can be applied to a display device that employs a scanning optical system using a MEMS mirror and uses MEMS display technology. That is, a light emitting unit includes a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and an optical member on which a virtual image is formed by light scanned by the scanning optical system. You may prepare. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. When the MEMS mirror scans the light, a virtual image is formed on the virtual image forming surface, and the user recognizes the virtual image with the eyes, thereby recognizing the image. The optical component in this case may be one that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above embodiment, and may use a half mirror surface. .

また、図3及び図4に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよい。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117又はインターフェイス125を介して取得して実行する構成としてもよい。
また、制御装置10に形成された構成のうち、操作部111のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、制御部140に相当する制御部が制御装置10と画像表示部20との両方に形成されていてもよい。また、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行う機能が別々に分けられている構成としてもよい。
In addition, at least a part of the functional blocks illustrated in FIGS. 3 and 4 may be realized by hardware, or may be configured by cooperation of hardware and software. Further, the program executed by the control unit 140 may be stored in the storage unit 120 or the storage device in the control device 10, or the program stored in the external device is acquired via the communication unit 117 or the interface 125. It is good also as a structure to execute.
Moreover, only the operation part 111 among the structures formed in the control apparatus 10 may be formed as a single user interface (UI). Further, the configuration formed in the control device 10 may be formed in the image display unit 20 in an overlapping manner. For example, a control unit corresponding to the control unit 140 may be formed in both the control device 10 and the image display unit 20. Moreover, it is good also as a structure by which the function which the control part 140 formed in the control apparatus 10 and the CPU formed in the image display part 20 perform separately is divided | segmented.

また、本発明は、頭部装着型表示装置100以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置100の制御方法、頭部装着型表示装置100を有する情報システム、頭部装着型表示装置100の制御方法および前記情報システムを実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、コンピュータープログラムを配信するための、インターネット等の通信回線に接続されたサーバー装置、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。   In addition, the present invention can be realized in various forms other than the head-mounted display device 100. For example, a control method of the head-mounted display device 100, an information system having the head-mounted display device 100, a control method of the head-mounted display device 100, a computer program for realizing the information system, and the computer program Can be realized in the form of a recording medium on which the computer program is recorded, a server device connected to a communication line such as the Internet for distributing the computer program, a data signal including the computer program and embodied in a carrier wave.

1…表示システム、2…フレーム、3…操作デバイス、4、5…操作対象物、10…制御装置、20…画像表示部(表示部)、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、61…カメラ、66…9軸センサー、100…頭部装着型表示装置(表示装置)、117…通信部、120…記憶部、140…制御部、150…オペレーティングシステム、160…画像処理部、170…表示制御部、181…撮像処理部、183…デバイス制御部、185…AR表示制御部、187…音声処理部、300…バンド部、300A…平面部、301…ベゼル、303…LCD、304…タッチパネル(タッチ操作部)、305…ボタン、307…リュウズ型操作子、309…ボタン、310…光学部、311…カメラ(撮像部)、313…LED、331〜334、341〜345…機能表示、350…制御部、351…操作検出部、352…出力制御部、353…撮像制御部、354…通信制御部、355…音声処理部、360…電源部、361…無線通信部、362…NFC部、365…マイク、366…ボタン操作部、367…回転検出部、368…9軸センサー、369…バイブレーター、370…スピーカー。   DESCRIPTION OF SYMBOLS 1 ... Display system, 2 ... Frame, 3 ... Operation device, 4, 5 ... Operation object, 10 ... Control apparatus, 20 ... Image display part (display part), 21 ... Right holding part, 22 ... Right display drive part, DESCRIPTION OF SYMBOLS 23 ... Left holding part, 24 ... Left display drive part, 26 ... Right optical image display part, 28 ... Left optical image display part, 61 ... Camera, 66 ... 9 axis | shaft sensor, 100 ... Head-mounted display apparatus (display apparatus) 117 ... Communication unit, 120 ... Storage unit, 140 ... Control unit, 150 ... Operating system, 160 ... Image processing unit, 170 ... Display control unit, 181 ... Imaging processing unit, 183 ... Device control unit, 185 ... AR display Control unit, 187 ... voice processing unit, 300 ... band unit, 300A ... flat surface part, 301 ... bezel, 303 ... LCD, 304 ... touch panel (touch operation unit), 305 ... button, 307 ... crown type operator, 30 ... button, 310 ... optical part, 311 ... camera (imaging part), 313 ... LED, 331-334, 341-345 ... function display, 350 ... control part, 351 ... operation detection part, 352 ... output control part, 353 ... Imaging control unit, 354 ... communication control unit, 355 ... audio processing unit, 360 ... power supply unit, 361 ... wireless communication unit, 362 ... NFC unit, 365 ... microphone, 366 ... button operation unit, 367 ... rotation detection unit, 368 ... 9-axis sensor, 369 ... vibrator, 370 ... speaker.

Claims (32)

使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部を有する表示装置と、前記表示部とは別体として構成される操作対象物とを備え、
前記表示装置は、前記操作対象物に対応して、前記表示部を透過する前記外景に関連するAR表示を前記表示部によって行う制御部を備えること、
を特徴とする表示システム。
A display device that is mounted on the user's head and has a transmissive display unit that allows the user to see through the outside scene, and an operation object configured separately from the display unit;
The display device includes a control unit that performs AR display related to the outside scene that is transmitted through the display unit, by the display unit, corresponding to the operation target,
A display system characterized by
前記表示装置は、前記操作対象物に対応付けられた制御対象対応画像を、前記操作対象物に関連付けて前記表示部によって表示すること、
を特徴とする請求項1記載の表示システム。
The display device displays a control target corresponding image associated with the operation target by the display unit in association with the operation target;
The display system according to claim 1.
前記操作対象物は、前記使用者の操作を受け付ける操作部と、
前記操作部が受け付けた操作を示すデータを前記表示装置に送信する通信部と、を備えた操作デバイスであり、
前記表示装置の前記制御部は、前記操作デバイスの操作に基づき、前記表示部によってAR表示を行うこと、
を特徴とする請求項1または2記載の表示システム。
The operation object includes an operation unit that receives an operation of the user;
A communication unit that transmits data indicating an operation received by the operation unit to the display device, and an operation device.
The control unit of the display device performs AR display by the display unit based on an operation of the operation device;
The display system according to claim 1, wherein:
前記表示装置の前記制御部は、前記操作デバイスの操作に基づき、前記操作部に対応付けられた態様で、前記表示部を透過する前記外景に関連するAR表示を前記表示部によって行うこと、
を特徴とする請求項3記載の表示システム。
The control unit of the display device performs an AR display related to the outside scene that is transmitted through the display unit by the display unit in a mode associated with the operation unit based on an operation of the operation device.
The display system according to claim 3.
前記制御部は、前記操作デバイスから送信されるデータに基づいて前記操作部の操作を検出し、検出した操作に対応して、前記表示部に表示中の前記AR表示を変更すること、
を特徴とする請求項3または4記載の表示システム。
The control unit detects an operation of the operation unit based on data transmitted from the operation device, and changes the AR display being displayed on the display unit in response to the detected operation;
The display system according to claim 3 or 4, characterized in that:
前記制御部は、前記操作部に対する前記AR表示の割り当てを設定可能であること、
を特徴とする請求項3から5のいずれかに記載の表示システム。
The control unit can set the allocation of the AR display to the operation unit;
The display system according to claim 3, wherein:
前記制御部は、前記操作部に対する前記AR表示の割り当てを更新する処理を実行可能であること、
を特徴とする請求項6記載の表示システム。
The control unit is capable of executing a process of updating the allocation of the AR display to the operation unit;
The display system according to claim 6.
前記表示装置の前記制御部は、前記操作デバイスと前記表示装置との相対位置を求め、求めた相対位置に基づき前記表示部でAR表示を行うこと、
を特徴とする請求項3から7のいずれかに記載の表示システム。
The control unit of the display device obtains a relative position between the operation device and the display device, and performs AR display on the display unit based on the obtained relative position;
The display system according to claim 3, wherein:
前記操作部は接触操作を検出するタッチ操作部を備え、
前記タッチ操作部は複数の操作領域を有し、
前記制御部は、前記タッチ操作部で操作された操作領域に割り当てられた前記AR表示を、前記表示部によって表示すること、
を特徴とする請求項3から8のいずれかに記載の表示システム。
The operation unit includes a touch operation unit that detects a contact operation,
The touch operation unit has a plurality of operation areas,
The control unit displays the AR display assigned to the operation area operated by the touch operation unit by the display unit.
The display system according to any one of claims 3 to 8, wherein:
前記操作デバイスは撮像部を備え、前記撮像部の撮像画像を含むデータを前記通信部により前記表示装置に送信すること、
を特徴とする請求項3から9のいずれかに記載の表示システム。
The operation device includes an imaging unit, and transmits data including a captured image of the imaging unit to the display device by the communication unit;
The display system according to claim 3, wherein:
使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部を有する表示装置と、前記表示部とは別体として構成される操作対象物とを備え、
前記表示装置は、前記操作対象物に対する操作に基づき、前記表示部により表示する画面を遷移させる処理を含む表示制御を行う制御部を備えること、
を特徴とする表示システム。
A display device that is mounted on the user's head and has a transmissive display unit that allows the user to see through the outside scene, and an operation object configured separately from the display unit;
The display device includes a control unit that performs display control including a process of transitioning a screen displayed by the display unit based on an operation on the operation target;
A display system characterized by
前記操作対象物は、前記使用者の操作を受け付ける操作部を備える操作デバイスであること、
を特徴とする請求項11記載の表示システム。
The operation object is an operation device including an operation unit that receives an operation of the user;
The display system according to claim 11.
前記操作デバイスは、前記操作部が受け付けた操作を示すデータを前記表示装置に送信する通信部を備え、
前記表示装置の前記制御部は、前記操作デバイスから送信されるデータに基づき、前記操作デバイスの操作を検出すること、
を特徴とする請求項12記載の表示システム。
The operation device includes a communication unit that transmits data indicating the operation received by the operation unit to the display device.
The control unit of the display device detects an operation of the operation device based on data transmitted from the operation device;
The display system according to claim 12.
前記操作デバイスが有する前記操作部は、回転を伴う操作を検出し、
前記表示装置の前記制御部は、前記操作デバイスから回転を伴う操作を示すデータが送信された場合に、前記操作の回転方向に対応して、前記表示部により表示する画面を遷移させること、
を特徴とする請求項12または13のいずれかに記載の表示システム。
The operation unit of the operation device detects an operation involving rotation,
The control unit of the display device transitions a screen displayed by the display unit in response to a rotation direction of the operation when data indicating an operation involving rotation is transmitted from the operation device.
The display system according to claim 12, wherein:
前記表示装置の前記制御部は、前記操作デバイスから送信されるデータに基づき、前記表示部により表示する画像の拡大、縮小或いは回転のいずれかを含む表示制御を行うこと、
を特徴とする請求項12から14のいずれかに記載の表示システム。
The control unit of the display device performs display control including any of enlargement, reduction, or rotation of an image displayed by the display unit based on data transmitted from the operation device;
The display system according to any one of claims 12 to 14, wherein:
前記表示装置は、前記操作デバイスに出力用のデータを送信し、
前記操作デバイスは、前記表示装置が送信する出力用のデータを前記通信部で受信し、受信した出力用のデータを出力すること、
を特徴とする請求項12から15のいずれかに記載の表示システム。
The display device transmits output data to the operation device,
The operation device receives the output data transmitted by the display device at the communication unit, and outputs the received output data.
The display system according to claim 12, wherein:
前記操作デバイスは撮像部を備え、前記撮像部の撮像画像を含むデータを前記通信部により前記表示装置に送信すること、
を特徴とする請求項12から16のいずれかに記載の表示システム。
The operation device includes an imaging unit, and transmits data including a captured image of the imaging unit to the display device by the communication unit;
The display system according to any one of claims 12 to 16, wherein:
前記表示装置の前記制御部は、前記操作デバイスから撮像画像を含むデータを受信し、受信したデータに基づいて、前記操作デバイスと前記表示装置との相対位置を求めること、
を特徴とする請求項17記載の表示システム。
The control unit of the display device receives data including a captured image from the operation device, and obtains a relative position between the operation device and the display device based on the received data;
The display system according to claim 17.
前記操作デバイスが有する前記操作部は、前記操作デバイスの動きを操作として検出すること、
を特徴とする請求項11から18のいずれかに記載の表示システム。
The operation unit of the operation device detects movement of the operation device as an operation;
The display system according to claim 11, wherein:
前記表示装置の前記制御部は、前記操作デバイスと前記表示装置との相対位置を求め、求めた相対位置に基づき前記表示部の表示を制御すること、
を特徴とする請求項11から19のいずれかに記載の表示システム。
The control unit of the display device obtains a relative position between the operation device and the display device, and controls display of the display unit based on the obtained relative position;
The display system according to claim 11, wherein:
前記表示装置は撮像部を備え、前記制御部は、前記撮像部の撮像画像に基づいて、前記操作デバイスと前記表示装置との相対位置を求めること、
を特徴とする請求項20記載の表示システム。
The display device includes an imaging unit, and the control unit obtains a relative position between the operation device and the display device based on a captured image of the imaging unit.
The display system according to claim 20.
前記表示部は、外景を透過して前記使用者に視認させる透過型の表示部であること、
を特徴とする請求項11から21のいずれかに記載の表示システム。
The display unit is a transmissive display unit that allows the user to see through the outside scene;
The display system according to claim 11, wherein:
前記操作デバイスは、前記使用者の身体に装着される装着部を有すること、
を特徴とする請求項1から22のいずれかに記載の表示システム。
The operating device has a mounting portion to be mounted on the user's body;
The display system according to claim 1, wherein:
前記表示装置が備える前記制御部は、前記操作対象物を検出した場合に、前記操作対象物に対応付けられた制御対象対応画像を、前記操作対象物に対応して前記表示部に表示すること、
を特徴とする請求項1または11記載の表示システム。
When the operation target is detected, the control unit included in the display device displays a control target corresponding image associated with the operation target on the display unit corresponding to the operation target. ,
The display system according to claim 1, wherein:
前記表示装置が備える前記制御部は、前記制御対象対応画像を表示した前記操作対象物に対する操作を検出した場合に、操作内容と前記制御対象対応画像とに対応する処理を実行すること、
を特徴とする請求項24記載の表示システム。
The control unit included in the display device performs processing corresponding to an operation content and the control target corresponding image when detecting an operation on the operation target displaying the control target corresponding image.
25. A display system according to claim 24.
前記表示装置は、前記操作対象物に対する操作を検出する検出部を備えること、
を特徴とする請求項24または25記載の表示システム。
The display device includes a detection unit that detects an operation on the operation object;
26. A display system according to claim 24 or 25.
前記表示装置は撮像部を備え、
前記制御部は、前記撮像部の撮像画像に基づいて前記操作対象物を検出し、前記操作対象物に対する操作を検出すること、
を特徴とする請求項24または25記載の表示システム。
The display device includes an imaging unit,
The control unit detects the operation target based on a captured image of the imaging unit, and detects an operation on the operation target;
26. A display system according to claim 24 or 25.
前記表示装置は、前記操作対象物が有する操作部に対応する操作用の画像をAR表示するためのAR表示用のデータを記憶するデータ記憶部を備え、
前記制御部は、前記データ記憶部が記憶する前記AR表示用のデータを変更可能であること、
を特徴とする請求項1から27のいずれかに記載の表示システム。
The display device includes a data storage unit that stores data for AR display for AR display of an operation image corresponding to the operation unit included in the operation target,
The control unit is capable of changing the AR display data stored in the data storage unit,
The display system according to any one of claims 1 to 27.
前記データ記憶部が記憶する前記AR表示用のデータは、前記操作用の画像と前記操作対象物が有する前記操作部とを対応付けるデータを含み、
前記制御部は、前記データ記憶部が記憶する前記AR表示用のデータにおいて、前記操作用の画像と前記操作対象物が有する前記操作部との対応を変更可能であること、
を特徴とする請求項28記載の表示システム。
The AR display data stored in the data storage unit includes data associating the operation image with the operation unit included in the operation object,
The control unit can change a correspondence between the operation image and the operation unit included in the operation object in the AR display data stored in the data storage unit,
29. A display system according to claim 28.
使用者の頭部に装着される表示部を有する表示装置を、前記表示部とは別体として構成される操作対象物を用いて制御する制御方法において、
前記表示装置により、前記操作対象物に対応して、前記表示部を透過する外景に関連するAR表示を前記表示部によって行うこと、
を特徴とする表示装置の制御方法。
In a control method for controlling a display device having a display unit mounted on a user's head using an operation object configured as a separate body from the display unit,
The display unit performs AR display related to an outside scene that is transmitted through the display unit, corresponding to the operation object, by the display unit.
A control method of a display device characterized by the above.
使用者の頭部に装着される表示部を有する表示装置を、前記表示部とは別体として構成される操作対象物を用いて制御する制御方法において、
前記表示装置により、前記操作対象物に対する操作に基づき、前記表示部により表示する画面を遷移させる処理を含む表示制御を行うこと、
を特徴とする表示装置の制御方法。
In a control method for controlling a display device having a display unit mounted on a user's head using an operation object configured as a separate body from the display unit,
Performing display control including a process of transitioning a screen displayed by the display unit based on an operation on the operation target by the display device;
A control method of a display device characterized by the above.
使用者の頭部に装着され、外景を透過して前記使用者に視認させる透過型の表示部を有する表示装置を制御する制御部が実行可能なプログラムであって、
前記制御部により、
前記表示部とは別体として構成される操作対象物を検出し、
前記操作対象物が備える操作部を検出し、
検出した前記操作対象物の操作部に対応する位置に、操作用の画像を表示し、
前記操作用の画像に関する操作を検出し、
操作を検出した前記操作用の画像に対応する処理を実行すること、
を特徴とするプログラム。
A program that can be executed by a control unit that controls a display device that is mounted on a user's head and has a transmissive display unit that allows the user to see through the outside scene.
By the control unit,
An operation object configured as a separate body from the display unit is detected,
Detecting an operation unit included in the operation object,
An operation image is displayed at a position corresponding to the operation portion of the detected operation object,
Detecting an operation related to the operation image;
Executing a process corresponding to the operation image in which the operation is detected;
A program characterized by
JP2015181843A 2015-01-06 2015-09-15 Display system, display device control method, and program Active JP6740584B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015181843A JP6740584B2 (en) 2015-09-15 2015-09-15 Display system, display device control method, and program
US14/976,761 US20160196693A1 (en) 2015-01-06 2015-12-21 Display system, control method for display device, and computer program
CN201511030028.0A CN105759422B (en) 2015-01-06 2015-12-31 Display system and control method of display device
EP16150303.2A EP3043237A1 (en) 2015-01-06 2016-01-06 Display system, control method for display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015181843A JP6740584B2 (en) 2015-09-15 2015-09-15 Display system, display device control method, and program

Publications (2)

Publication Number Publication Date
JP2017058840A true JP2017058840A (en) 2017-03-23
JP6740584B2 JP6740584B2 (en) 2020-08-19

Family

ID=58390356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015181843A Active JP6740584B2 (en) 2015-01-06 2015-09-15 Display system, display device control method, and program

Country Status (1)

Country Link
JP (1) JP6740584B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173288A1 (en) * 2017-03-24 2018-09-27 サン電子株式会社 Image display unit
WO2019003571A1 (en) * 2017-06-28 2019-01-03 シャープ株式会社 Electronic device, method for controlling electronic device, and program
JP2019021237A (en) * 2017-07-21 2019-02-07 株式会社コロプラ Information processing method, computer, and program
JP2019023869A (en) * 2018-08-03 2019-02-14 株式会社コロプラ Information processing method, computer, and program
JP2019101811A (en) * 2017-12-04 2019-06-24 富士通株式会社 Processing program, processing method, processing apparatus, display program, display method, and display controller
CN110134197A (en) * 2019-06-26 2019-08-16 北京小米移动软件有限公司 Wearable control device, virtual/augmented reality system and control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011249906A (en) * 2010-05-24 2011-12-08 Nikon Corp Head-mounted display
JP2014093036A (en) * 2012-11-06 2014-05-19 Konica Minolta Inc Guide information display device
JP2014190965A (en) * 2013-03-28 2014-10-06 Biglobe Inc Information processor, mounting state detection method and program
JP2015043180A (en) * 2013-08-26 2015-03-05 ブラザー工業株式会社 Image processing program
JP2015090530A (en) * 2013-11-05 2015-05-11 セイコーエプソン株式会社 Image display system, method for controlling image display system, and head-mounted display device
JP2015118556A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Augmented reality overlay for control devices

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011249906A (en) * 2010-05-24 2011-12-08 Nikon Corp Head-mounted display
JP2014093036A (en) * 2012-11-06 2014-05-19 Konica Minolta Inc Guide information display device
JP2014190965A (en) * 2013-03-28 2014-10-06 Biglobe Inc Information processor, mounting state detection method and program
JP2015043180A (en) * 2013-08-26 2015-03-05 ブラザー工業株式会社 Image processing program
JP2015090530A (en) * 2013-11-05 2015-05-11 セイコーエプソン株式会社 Image display system, method for controlling image display system, and head-mounted display device
JP2015118556A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Augmented reality overlay for control devices

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173288A1 (en) * 2017-03-24 2018-09-27 サン電子株式会社 Image display unit
JPWO2018173288A1 (en) * 2017-03-24 2020-01-23 サン電子株式会社 Image display unit
JP2021100252A (en) * 2017-03-24 2021-07-01 サン電子株式会社 Image display unit
JP7051155B2 (en) 2017-03-24 2022-04-11 サン電子株式会社 Image display unit
WO2019003571A1 (en) * 2017-06-28 2019-01-03 シャープ株式会社 Electronic device, method for controlling electronic device, and program
JPWO2019003571A1 (en) * 2017-06-28 2020-04-02 シャープ株式会社 Electronic device, control method and program for electronic device
JP2019021237A (en) * 2017-07-21 2019-02-07 株式会社コロプラ Information processing method, computer, and program
JP2019101811A (en) * 2017-12-04 2019-06-24 富士通株式会社 Processing program, processing method, processing apparatus, display program, display method, and display controller
JP2019023869A (en) * 2018-08-03 2019-02-14 株式会社コロプラ Information processing method, computer, and program
CN110134197A (en) * 2019-06-26 2019-08-16 北京小米移动软件有限公司 Wearable control device, virtual/augmented reality system and control method

Also Published As

Publication number Publication date
JP6740584B2 (en) 2020-08-19

Similar Documents

Publication Publication Date Title
CN105759422B (en) Display system and control method of display device
US10635182B2 (en) Head mounted display device and control method for head mounted display device
JP6740584B2 (en) Display system, display device control method, and program
CN106168848B (en) Display device and control method of display device
JP2018101019A (en) Display unit and method for controlling display unit
US10949055B2 (en) Display system, display apparatus, control method for display apparatus
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
KR20160113903A (en) The mobile terminal and control method thereof
US10884498B2 (en) Display device and method for controlling display device
JP2019128693A (en) Head-mounted display, and method for controlling head-mounted display
JP6996115B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP2018124651A (en) Display system
JP6439448B2 (en) Display system, program, and control method for display device
JP2018124721A (en) Head-mounted display device and control method for head-mounted display device
JP6932917B2 (en) Head-mounted display, program, and head-mounted display control method
JP2018206080A (en) Head-mounted display device, program, and control method for head-mounted display device
US12321526B2 (en) Wearable electronic device for displaying virtual object and method of controlling the same
JP6776578B2 (en) Input device, input method, computer program
JP2018022426A (en) Display device, head-mounted display device, and method for controlling display device
JP2017120302A (en) Display device, display system, control method of display device, and program
JP6638392B2 (en) Display device, display system, display device control method, and program
JP6459516B2 (en) Display system, program, server device, and display device control method
US20190086677A1 (en) Head mounted display device and control method for head mounted display device
JP2019053714A (en) Head-mounted display device and control method for head-mounted display device
JP2017182460A (en) Head-mounted display device, head-mounted display device control method, computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200518

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200706

R150 Certificate of patent or registration of utility model

Ref document number: 6740584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150