[go: up one dir, main page]

JP2017139000A - Display device and method of controlling display device - Google Patents

Display device and method of controlling display device Download PDF

Info

Publication number
JP2017139000A
JP2017139000A JP2017051591A JP2017051591A JP2017139000A JP 2017139000 A JP2017139000 A JP 2017139000A JP 2017051591 A JP2017051591 A JP 2017051591A JP 2017051591 A JP2017051591 A JP 2017051591A JP 2017139000 A JP2017139000 A JP 2017139000A
Authority
JP
Japan
Prior art keywords
image
display
input
unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017051591A
Other languages
Japanese (ja)
Other versions
JP6350705B2 (en
Inventor
高野 正秀
Masahide Takano
正秀 高野
由貴 藤巻
Yuki Fujimaki
由貴 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017051591A priority Critical patent/JP6350705B2/en
Publication of JP2017139000A publication Critical patent/JP2017139000A/en
Application granted granted Critical
Publication of JP6350705B2 publication Critical patent/JP6350705B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】画像として表示される仮想的な指標に基づいて操作を行う際の操作性の向上を図る。【解決手段】頭部装着型表示装置HMによれば、外光に画像光Lを重ねて出力し、画像を視認させる表示駆動部および光学像表示部と、画像に入力補助画像を配置して表示駆動部および光学像表示部に表示させる入力補助画像処理部146と、入力補助画像に対応する位置指示操作を受け付ける入力検出部142と、を備え、入力補助画像処理部146は画像における入力補助像の態様を変更可能である。【選択図】図3To improve operability when performing an operation based on a virtual index displayed as an image. According to a head-mounted display device HM, a display drive unit and an optical image display unit that output an image light L superimposed on external light and visually recognize the image, and an input auxiliary image are arranged on the image. An input auxiliary image processing unit 146 to be displayed on the display drive unit and the optical image display unit, and an input detection unit 142 that receives a position instruction operation corresponding to the input auxiliary image, and the input auxiliary image processing unit 146 includes input assistance for an image. The aspect of the image can be changed. [Selection] Figure 3

Description

本発明は、表示装置、および、表示装置の制御方法に関する。   The present invention relates to a display device and a control method for the display device.

従来、表示装置によってユーザーに仮想の入力エリアを認識させ、この仮想の入力エリアに対する入力操作を可能とした装置が知られている(例えば、特許文献1参照)。特許文献1の装置は、ユーザーの頭部に装着されるHMD(ヘッドマウントディスプレイ)によって、ユーザーの前方の風景と、仮想入力デバイスとなるキーボードの画像とを重畳して表示する。ユーザーがキーボードに合わせて手指を動かすと、この手指の位置がキーボードに対する入力操作として検出される。   2. Description of the Related Art Conventionally, there has been known a device that allows a user to recognize a virtual input area by a display device and perform an input operation on the virtual input area (see, for example, Patent Document 1). The apparatus of Patent Literature 1 displays a landscape in front of the user and a keyboard image serving as a virtual input device in a superimposed manner by an HMD (head mounted display) attached to the user's head. When the user moves his / her finger according to the keyboard, the position of the finger is detected as an input operation on the keyboard.

特開2002−318652号公報JP 2002-318652 A

特許文献1記載の装置は、カメラによりユーザーの前方に存在する面を検出し、この面に合わせて仮想入力デバイスの画像を生成し、カメラの撮影画像に仮想入力デバイスを重畳して表示する。この仮想入力デバイスは固定的なものであるため、ユーザーは、表示されている仮想入力デバイスに合わせて操作を行う必要があった。つまり、ユーザーは、装置が検出した面で操作を行わなくてはならないという制限があった。
本発明は、上述した事情に鑑みてなされたものであり、画像として表示される仮想的な指標に基づいて操作を行う際の操作性の向上を図ることを目的とする。
The apparatus described in Patent Document 1 detects a surface existing in front of the user with a camera, generates an image of a virtual input device in accordance with the surface, and displays the virtual input device superimposed on the captured image of the camera. Since this virtual input device is fixed, the user needs to perform an operation in accordance with the displayed virtual input device. In other words, there is a restriction that the user must perform an operation on the surface detected by the apparatus.
The present invention has been made in view of the above-described circumstances, and an object thereof is to improve operability when an operation is performed based on a virtual index displayed as an image.

上記目的を達成するために、本発明は、外光に画像光を重ねて出力し、画像を視認させる表示手段と、前記画像に操作エリアを配置して前記表示手段に表示させる表示制御手段と、前記操作エリアに対応する位置指示操作を受け付ける入力手段と、を備え、前記表示制御手段は前記画像における前記操作エリアの態様を変更すること、を特徴とする。
本発明によれば、外光に重ねて出力される画像光により画像を表示するため、ユーザーは画像光により表示される操作エリアとともに、外光により外景を見ることができ、この外景の任意の場所を見て操作を行うことができる。そして、表示される操作エリアの態様を変更することにより、操作の状況に応じて操作エリアの表示態様を変更して、快適な操作性を実現することができ、操作性の向上を図ることができる。
In order to achieve the above object, the present invention provides display means for superimposing and outputting image light on external light to visually recognize the image, and display control means for arranging an operation area on the image and causing the display means to display the display means. Input means for receiving a position indicating operation corresponding to the operation area, and the display control means changes a mode of the operation area in the image.
According to the present invention, since the image is displayed by the image light output to be superimposed on the external light, the user can see the external scene by the external light together with the operation area displayed by the image light. You can operate by looking at the place. And by changing the mode of the displayed operation area, it is possible to change the display mode of the operation area according to the status of the operation, to realize comfortable operability, and to improve operability. it can.

また、本発明は、上記表示装置であって、前記表示制御手段は、前記位置指示操作が行われる仮想入力面までの距離に応じて、前記操作エリアの態様を変更することを特徴とする。
本発明によれば、ユーザーが操作を行う位置に対応した態様で操作エリアを表示し、より快適な操作性を実現できる。
Further, the present invention is the display device described above, wherein the display control unit changes a mode of the operation area according to a distance to a virtual input surface on which the position instruction operation is performed.
ADVANTAGE OF THE INVENTION According to this invention, an operation area is displayed in the aspect corresponding to the position which a user operates, and more comfortable operativity is realizable.

また、本発明は、上記表示装置であって、前記仮想入力面までの距離を検出する距離検出手段を備え、前記表示制御手段は、前記距離検出手段により検出された距離に応じて、前記操作エリアの態様を変更することを特徴とする。
本発明によれば、ユーザーが操作を行う仮想入力面までの距離を検出するので、仮想入力面までの距離を入力または設定する操作を省略することができ、より一層の操作性の向上を図ることができる。
In addition, the present invention provides the display device described above, further comprising a distance detection unit that detects a distance to the virtual input surface, and the display control unit performs the operation according to the distance detected by the distance detection unit. The aspect of the area is changed.
According to the present invention, since the distance to the virtual input surface on which the user operates is detected, the operation of inputting or setting the distance to the virtual input surface can be omitted, and the operability is further improved. be able to.

また、本発明は、上記表示装置であって、前記距離検出手段は、前記外光により視認される面を検出し、この面までの距離を検出することを特徴とする。
本発明によれば、ユーザーが操作に利用する可能性がある面を検出するので、より正確に仮想入力面までの距離を検出できる。
Moreover, the present invention is the display device described above, wherein the distance detecting unit detects a surface visually recognized by the external light and detects a distance to the surface.
According to the present invention, since the surface that the user may use for the operation is detected, the distance to the virtual input surface can be detected more accurately.

また、本発明は、上記表示装置であって、前記表示制御手段は、前記位置指示操作をガイドする入力補助画像を含む前記操作エリアを配置し、前記入力補助画像のサイズを変更することを特徴とする。
本発明によれば、ユーザーの操作の指標となる入力補助画像のサイズを変更することにより、文字入力等の細かい入力操作を容易に、正確に行うことが可能となる。
Further, the present invention is the display device described above, wherein the display control unit arranges the operation area including an input auxiliary image for guiding the position indicating operation, and changes a size of the input auxiliary image. And
According to the present invention, it is possible to easily and accurately perform fine input operations such as character input by changing the size of the input auxiliary image serving as an index of user operation.

また、本発明は、上記表示装置であって、前記表示手段は、マトリクス状に配置された複数の画素により前記画像を形成し、前記表示制御手段は、前記入力補助画像のサイズを変更する場合、前記入力補助画像を構成する画素数を変更することを特徴とする。
本発明によれば、入力補助画像を構成する画素数を変更することにより、入力補助画像のサイズを変更した場合に、サイズの拡大に伴う解像度の低下や、サイズの縮小に伴う視認性の低下等を防止できる。
Also, the present invention is the above display device, wherein the display unit forms the image with a plurality of pixels arranged in a matrix, and the display control unit changes the size of the input auxiliary image. The number of pixels constituting the input auxiliary image is changed.
According to the present invention, when the size of the input auxiliary image is changed by changing the number of pixels constituting the input auxiliary image, the resolution decreases as the size increases or the visibility decreases as the size decreases. Etc. can be prevented.

また、本発明は、上記表示装置であって、前記表示制御手段は、前記入力補助画像として複数の補助線を含む画像を前記表示手段により表示させ、前記補助線の間隔を変更することを特徴とする。
本発明によれば、入力補助画像の補助線の間隔を変更することにより、文字入力等の細かい入力操作をより容易に、正確に行うことが可能となる。
Further, the present invention is the above display device, wherein the display control unit displays an image including a plurality of auxiliary lines as the input auxiliary image by the display unit, and changes the interval of the auxiliary lines. And
According to the present invention, it is possible to more easily and accurately perform a fine input operation such as character input by changing the interval between the auxiliary lines of the input auxiliary image.

また、本発明は、上記表示装置であって、前記表示制御手段は、前記入力補助画像として、前記位置指示操作により文字入力を行うための仮想キーボードの画像を前記表示手段により表示させ、前記仮想キーボードの表示サイズ、表示色、表示領域の少なくともいずれかを変更することを特徴とする。
本発明によれば、仮想キーボードを表示することにより、容易に文字入力を行うことが可能になる。そして、この仮想キーボードの表示サイズ、表示色あるいは表示領域を変更することで、ユーザーがより快適に入力操作を行うことができる。
Further, the present invention is the above-described display device, wherein the display control unit causes the display unit to display an image of a virtual keyboard for inputting characters by the position instruction operation as the input auxiliary image, It is characterized in that at least one of the display size, display color, and display area of the keyboard is changed.
According to the present invention, it is possible to easily input characters by displaying a virtual keyboard. Then, by changing the display size, display color, or display area of the virtual keyboard, the user can perform an input operation more comfortably.

また、本発明は、上記表示装置であって、前記表示制御手段は、前記入力手段により受け付けた操作位置に対応する位置で前記操作エリアの表示態様を変化させることを特徴とする。
本発明によれば、操作エリアの表示態様の変化によって、表示装置が検出した操作位置をユーザーに示すことができる。また、操作エリアの表示態様を変えることで、この操作に続く操作を行い易くし、より一層の操作性の向上を図ることができる。
Further, the present invention is the display device described above, wherein the display control means changes the display mode of the operation area at a position corresponding to the operation position received by the input means.
According to the present invention, the operation position detected by the display device can be indicated to the user by the change in the display mode of the operation area. Further, by changing the display mode of the operation area, it is possible to easily perform an operation following this operation, and to further improve the operability.

また、本発明は、上記表示装置であって、前記表示装置は、使用者に画像を視認させる頭部装着型表示装置であり、前記表示手段は、表示用画像データを用いて画像を表す画像光を生成し射出させる画像光生成部と、射出された前記画像光を前記使用者の眼に導く光学部材と、を含み、前記外光は前記光学部材を透過して前記画像光とともに前記使用者の眼に入射することを特徴とする。
本発明によれば、光学部材により使用者の眼に画像光を導くとともに、この光学部材を透過して外光を使用者の眼に導くシースルー型の表示装置によって、より簡単に入力操作を行うことが可能となる。
Further, the present invention is the display device, wherein the display device is a head-mounted display device that allows a user to visually recognize an image, and the display means displays an image using display image data. An image light generation unit that generates and emits light; and an optical member that guides the emitted image light to the user's eyes, and the external light passes through the optical member and is used together with the image light. It is characterized by being incident on a person's eyes.
According to the present invention, an input operation is more easily performed by a see-through display device that guides image light to a user's eye by an optical member and transmits external light to the user's eye through the optical member. It becomes possible.

また、上記目的を達成するため、本発明は、外光に画像光を重ねて出力し、画像を視認させるシースルー型の表示装置の制御方法であって、前記画像に操作エリアを配置し、前記操作エリアに対応する位置における位置指示操作を受け付け、前記画像における前記操作エリアの態様を可変としたこと、を特徴とする。
本発明によれば、外光に重ねて出力される画像光により画像を表示するため、ユーザーは画像光により表示される操作エリアとともに外景を見ることができ、この外景の任意の場所を見て操作を行うことができる。そして、表示される操作エリアの態様を変更するため、操作の状況に応じて操作エリアの表示態様を変更し、快適な操作性を実現することができ、操作性の向上を図ることができる。
In order to achieve the above object, the present invention provides a control method for a see-through type display device that outputs image light superimposed on external light and visually recognizes the image, and arranges an operation area on the image, A position instruction operation at a position corresponding to the operation area is accepted, and the mode of the operation area in the image is variable.
According to the present invention, since the image is displayed by the image light that is output to be superimposed on the external light, the user can view the external scene together with the operation area displayed by the image light, and can view an arbitrary place of the external scene. The operation can be performed. And since the mode of the displayed operation area is changed, the display mode of the operation area can be changed according to the state of the operation, comfortable operability can be realized, and operability can be improved.

本発明によれば、操作の状況に応じて操作エリアの表示態様を変更して、快適な操作性を実現することができ、操作性の向上を図ることができる。   According to the present invention, it is possible to realize a comfortable operability by changing the display mode of the operation area according to the operation state, and to improve the operability.

本発明の実施形態に係る頭部装着型表示装置の外観図である。1 is an external view of a head-mounted display device according to an embodiment of the present invention. 頭部装着型表示装置の光学系の概略構成を示す図である。It is a figure which shows schematic structure of the optical system of a head mounting type display apparatus. 頭部装着型表示装置の制御系の機能ブロック図である。It is a functional block diagram of a control system of a head mounted display device. 頭部装着型表示装置により表示される入力補助画像および入力操作の例を示す説明図であり、(A)は仮想キーボードを利用する例を示し、(B)および(C)は入力補助線を含む仮想入力ボードを利用する例を示す。It is explanatory drawing which shows the example of the input auxiliary | assistant image displayed by a head mounted display apparatus, and input operation, (A) shows the example using a virtual keyboard, (B) and (C) show an input auxiliary line. An example of using a virtual input board is shown. 入力補助画像の表示例を示す説明図であり、(A)はユーザーが遠方を注視する場合の例を示し、(B)はユーザーが近くを注視する場合の例を示す。It is explanatory drawing which shows the example of a display of an input auxiliary image, (A) shows the example in case a user gazes at a distant place, (B) shows the example in case a user gazes near. 頭部装着型表示装置HMの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the head mounted display apparatus HM. 入力補助画像の表示例を示す説明図であり、(A)は入力操作中の状態を示し、(B)は入力内容が確定された状態を示す。It is explanatory drawing which shows the example of a display of an input auxiliary image, (A) shows the state during input operation, (B) shows the state by which the input content was decided. 入力補助画像の別の表示例を示す説明図である。図8(A)は入力操作中の指示位置を強調表示する例を示し、(B)は表示用の領域と入力補助画像とを並べて表示する例を示す。It is explanatory drawing which shows another example of a display of an input auxiliary image. FIG. 8A shows an example in which the designated position during the input operation is highlighted, and FIG. 8B shows an example in which the display area and the input auxiliary image are displayed side by side.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明の実施形態に係る頭部装着型表示装置の外観図である。
頭部装着型表示装置HMは、ユーザーの頭部に装着される頭部装着型表示装置であり、ヘッドマウントディスプレイ(HMD:Head Mounted Display)と呼ばれる。本実施形態の頭部装着型表示装置HMは、ユーザーが、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an external view of a head-mounted display device according to an embodiment of the present invention.
The head-mounted display device HM is a head-mounted display device mounted on the user's head and is called a head mounted display (HMD). The head-mounted display device HM of the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly view an outside scene.

図1に示すように、頭部装着型表示装置HMは、ユーザーの頭部に装着される画像表示部20と、画像表示部20を制御する制御装置(コントローラー)10とを備えている。画像表示部20は、右保持部21、右表示駆動部22、左保持部23、左表示駆動部24および右光学像表示部26を備えている。
右光学像表示部26および左光学像表示部28は、それぞれユーザーの右眼および左眼の眼前に位置し、ユーザーの眉間に対応する位置で相互に接続されて一体となっている。右光学像表示部26の端部ERからは右保持部21が延伸し、左光学像表示部28の端部ELからは左保持部23が延伸している。
As shown in FIG. 1, the head-mounted display device HM includes an image display unit 20 that is mounted on the user's head and a control device (controller) 10 that controls the image display unit 20. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, and a right optical image display unit 26.
The right optical image display unit 26 and the left optical image display unit 28 are located in front of the user's right eye and left eye, respectively, and are connected and integrated with each other at a position corresponding to the user's eyebrow. The right holding unit 21 extends from the end ER of the right optical image display unit 26, and the left holding unit 23 extends from the end EL of the left optical image display unit 28.

右保持部21は、ユーザーの右側頭部の側方に位置し、その先端はユーザーの右耳に係合する。また、左保持部23はユーザー左側頭部の側方に位置し、その先端はユーザーの左耳に係合する。これら右保持部21および左保持部23の先端と、右光学像表示部26および左光学像表示部28の接合部の下端に設けられた鼻当て部(図示略)とによって頭部装着型表示装置HMが支持される。
右保持部21の基端部には右表示駆動部22が内蔵され、左保持部23の基端部には左表示駆動部24が内蔵される。これら右表示駆動部22および左表示駆動部24により、頭部装着型表示装置HMはユーザーの右眼と左眼の各々に画像を視認させる。
The right holding part 21 is located on the side of the right side of the user, and its tip engages with the right ear of the user. Moreover, the left holding part 23 is located on the side of the left side of the user, and the tip thereof engages with the user's left ear. A head-mounted display is provided by the tips of the right holding unit 21 and the left holding unit 23 and a nose pad (not shown) provided at the lower end of the joint of the right optical image display unit 26 and the left optical image display unit 28. The device HM is supported.
A right display driving unit 22 is built in the base end of the right holding unit 21, and a left display driving unit 24 is built in the base end of the left holding unit 23. With the right display drive unit 22 and the left display drive unit 24, the head-mounted display device HM causes the user's right eye and left eye to visually recognize an image.

右光学像表示部26および左光学像表示部28の前面側すなわち表面側には、調光板20Aが設けられている。調光板20Aは右光学像表示部26および左光学像表示部28に対し着脱可能であり、複数種類の調光板20Aを交換して装着できる。調光板20Aは薄板状の光学素子であり、光透過性がほぼゼロのもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰または反射するもの等、種々のものを用いることができ、調光板20Aの光学特性を適宜選択することにより、外部から右光学像表示部26および左光学像表示部28に入射する外光の光量を調整できる。本実施形態では、少なくとも、頭部装着型表示装置HMを装着したユーザーが外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、後述する右導光板261、左導光板262を損傷や、汚れの付着等から保護する機能も有する。
また、頭部装着型表示装置HMの前面において右光学像表示部26と左光学像表示部28の境目部分には、カメラ61が配置されている。カメラ61の位置は頭部装着型表示装置HMの前面のほぼ中央であり、ユーザーの左右の眼の中間位置となっている。
A dimming plate 20A is provided on the front side, that is, the front side of the right optical image display unit 26 and the left optical image display unit 28. The light control plate 20A can be attached to and detached from the right optical image display unit 26 and the left optical image display unit 28, and a plurality of types of light control plates 20A can be exchanged and mounted. The light control plate 20A is a thin plate-like optical element that has substantially no light transmission, is nearly transparent, has a light amount attenuated to transmit light, has a specific wavelength attenuated or reflected, etc. Various types can be used, and the amount of external light incident on the right optical image display unit 26 and the left optical image display unit 28 from the outside can be adjusted by appropriately selecting the optical characteristics of the light control plate 20A. In the present embodiment, a case will be described in which at least a light control plate 20A having such a light transmittance that a user wearing the head-mounted display device HM can visually recognize an outside scene is used. The light control plate 20A also has a function of protecting the right light guide plate 261 and the left light guide plate 262, which will be described later, from damage, adhesion of dirt, and the like.
Further, a camera 61 is disposed at the boundary between the right optical image display unit 26 and the left optical image display unit 28 on the front surface of the head-mounted display device HM. The position of the camera 61 is approximately the center of the front surface of the head-mounted display device HM, and is an intermediate position between the left and right eyes of the user.

カメラ61の撮影方向すなわち画角は、頭部装着型表示装置HMの表側方向、換言すれば、頭部装着型表示装置HMを装着した状態におけるユーザーの視界方向の少なくとも一部の外景を撮像する方向となっており、好ましくは面262Aを通してユーザーが視認する範囲の外景を撮影する方向であり、より好ましくは、面262Aを通して視認される範囲を含み、この範囲より広い範囲を撮影する。カメラ61は、静止画像の間欠撮影または動画像を撮影して撮影画像データを出力する。なお、本実施形態においてカメラ61は、1つのデジタルカメラとして例示するが、複数のデジタルカメラからなるステレオビデオカメラを採用してもよい。   The shooting direction of the camera 61, that is, the angle of view, images at least a part of the outside view in the direction of the user's field of view when the head-mounted display device HM is worn, in other words, the front-side direction of the head-mounted display device HM. It is a direction, and is preferably a direction in which an outside scene in a range visually recognized by the user through the surface 262A is photographed. More preferably, the range including the range visually recognized through the surface 262A is captured and a range wider than this range is photographed. The camera 61 shoots a still image intermittently or captures a moving image and outputs captured image data. In the present embodiment, the camera 61 is exemplified as one digital camera, but a stereo video camera including a plurality of digital cameras may be employed.

図2は、画像表示部20における光学系の概略構成を示す図である。この図2には、ユーザーの左眼LEに虚像を視認させる左表示駆動部24および左導光板262の構成を平面図により示す。ユーザーの左眼と右眼に虚像を視認させる各構成は左右対称であるため、ここでは左表示駆動部24および左導光板262についてのみ説明する。
画像表示部20の左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD(Liquid Crystal Display:液晶ディスプレイ)242、および、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備えている。
左投写光学系252は、左LCD242から射出された画像光Lを並行状態の光束にするコリメートレンズによって構成される。左投写光学系252を経た画像光Lは左導光板262に入射する。左導光板262は画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。そして、左眼LEの眼前に位置する面262Aで反射した画像光Lは左眼LEに向けて右光学像表示部26から射出され、この画像光Lが左眼LEの網膜に像を結び、ユーザーに画像を視認させる。
なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。この導光部は、画像光を用いてユーザーの眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
FIG. 2 is a diagram illustrating a schematic configuration of an optical system in the image display unit 20. FIG. 2 is a plan view showing the configurations of the left display drive unit 24 and the left light guide plate 262 that allow the user's left eye LE to visually recognize a virtual image. Since each configuration for allowing the user's left eye and right eye to visually recognize a virtual image is bilaterally symmetric, only the left display drive unit 24 and the left light guide plate 262 will be described here.
The left display driving unit 24 of the image display unit 20 includes a left backlight 222 having a light source such as an LED and a diffusion plate, and a transmissive left LCD disposed on the optical path of light emitted from the diffusion plate of the left backlight 222. (Liquid Crystal Display: liquid crystal display) 242 and a left projection optical system 252 including a lens group that guides the image light L transmitted through the left LCD 242 are provided.
The left projection optical system 252 is configured by a collimating lens that converts the image light L emitted from the left LCD 242 to light beams in a parallel state. The image light L that has passed through the left projection optical system 252 enters the left light guide plate 262. The left light guide plate 262 is a prism formed with a plurality of reflecting surfaces that reflect the image light L, and the image light L is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 262. The image light L reflected by the surface 262A located in front of the left eye LE is emitted from the right optical image display unit 26 toward the left eye LE, and this image light L forms an image on the retina of the left eye LE. Let the user see the image.
The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “light guide unit”. As long as this light guide unit forms a virtual image in front of the user's eyes using image light, any method can be used. For example, a diffraction grating or a transflective film may be used. .

面262Aはハーフミラーで構成される。このため、ユーザーの左眼LEには、面262Aで反射した画像光Lだけでなく、調光板20Aを透過した外光OLが入射する。つまり、頭部装着型表示装置HMは、内部で処理した画像の画像光Lと外光OLとを重ねてユーザーの眼に入射させ、ユーザーにとっては、頭部装着型表示装置HMの調光板20Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このため、頭部装着型表示装置HMは、シースルー型の表示装置であるということができる。   The surface 262A is formed of a half mirror. For this reason, not only the image light L reflected by the surface 262A but also the external light OL transmitted through the light control plate 20A is incident on the user's left eye LE. That is, the head-mounted display device HM superimposes the image light L of the internally processed image and the external light OL on the eyes of the user, and for the user, the light control plate of the head-mounted display device HM. The outside scene can be seen through 20A, and the image by the image light L is visually recognized over the outside scene. For this reason, it can be said that the head-mounted display device HM is a see-through display device.

頭部装着型表示装置HMのユーザーの両眼に導かれた画像光Lがユーザーの網膜に結像することにより、ユーザーは虚像を視認する。ここで、ユーザーにとっての外景と虚像の視認性は外光OLと画像光Lの光量のバランスに影響され、外光OLの光量が画像光Lよりも大きい場合には外景がよく見える一方で頭部装着型表示装置HMが処理(表示)する虚像の視認性は低い。反対に、画像光Lの光量が外光OLに比べて大きい場合は、頭部装着型表示装置HMが処理(表示)する虚像の視認性が高いのに対し、外景の視認性は低い。   The image light L guided to both eyes of the user of the head-mounted display device HM forms an image on the retina of the user, so that the user visually recognizes the virtual image. Here, the visibility of the outside scene and the virtual image for the user is affected by the balance of the light amount of the external light OL and the image light L. When the light amount of the external light OL is larger than the image light L, the external scene can be seen well while the head is visible. The visibility of the virtual image processed (displayed) by the part-mounted display device HM is low. On the other hand, when the light amount of the image light L is larger than the external light OL, the visibility of the virtual image processed (displayed) by the head-mounted display device HM is high, but the visibility of the outside scene is low.

図1に戻り、頭部装着型表示装置HMは、画像表示部20を制御装置10に接続する接続部40を有している。接続部40は、制御装置10に接続される本体コード48と、本体コード48から連結部材46を介して分岐する2本の右コード42および左コード44とを有する。右コード42は、右保持部21の筐体内に挿入され、右表示駆動部22に接続される。左コード44は、左保持部23の筐体内に挿入され、左表示駆動部24に接続される。
画像表示部20と制御装置10とは、接続部40を介して各種信号の伝送を行う。右コード42、左コード44、および本体コード48には、例えば、金属ケーブルや、光ファイバーを採用することができる。
Returning to FIG. 1, the head-mounted display device HM includes a connection unit 40 that connects the image display unit 20 to the control device 10. The connection unit 40 includes a main body cord 48 connected to the control device 10, and two right cords 42 and a left cord 44 that branch from the main body cord 48 via a connecting member 46. The right cord 42 is inserted into the housing of the right holding unit 21 and connected to the right display driving unit 22. The left cord 44 is inserted into the housing of the left holding unit 23 and connected to the left display driving unit 24.
The image display unit 20 and the control device 10 transmit various signals via the connection unit 40. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御装置10は、頭部装着型表示装置HMを操作するための装置である。制御装置10は、点灯部12と、タッチパッド14と、十字キー16と、電源スイッチ18とを含んでいる。
点灯部12は、LED等からなるインジケーターを備え、頭部装着型表示装置HMの動作状態(例えば、電源のON/OFF等)を、その発光状態によって通知する。タッチパッド14は、ユーザーの指による接触操作を検出して、検出内容に応じた信号を出力する。十字キー16は、上下左右方向に対応するキーであり、押下操作に応じた信号を出力する。電源スイッチ18は、頭部装着型表示装置HMの電源状態を切り替えるスイッチである。
The control device 10 is a device for operating the head-mounted display device HM. The control device 10 includes a lighting unit 12, a touch pad 14, a cross key 16, and a power switch 18.
The lighting unit 12 includes an indicator composed of an LED or the like, and notifies the operation state (for example, power ON / OFF, etc.) of the head-mounted display device HM according to the light emission state. The touch pad 14 detects a contact operation with a user's finger and outputs a signal corresponding to the detected content. The cross key 16 is a key corresponding to the up / down / left / right directions, and outputs a signal corresponding to the pressing operation. The power switch 18 is a switch for switching the power state of the head-mounted display device HM.

図3は、頭部装着型表示装置HMの制御系の構成を示す機能ブロック図である。
制御装置10は、入力情報取得部110と、記憶部120と、電源130と、制御部140と、インターフェイス180と、送信部(Tx)51および52と、を備える。前述の各部はバス(図示省略)により相互に接続されている。
FIG. 3 is a functional block diagram showing the configuration of the control system of the head-mounted display device HM.
The control device 10 includes an input information acquisition unit 110, a storage unit 120, a power supply 130, a control unit 140, an interface 180, and transmission units (Tx) 51 and 52. The aforementioned units are connected to each other by a bus (not shown).

入力情報取得部110は、例えば、タッチパッド14、十字キー16、電源スイッチ18等による入力に応じた信号を取得する。記憶部120は、半導体メモリー素子や磁気的記憶装置等によりプログラムやデータを記憶する。電源130は、例えば2次電池を備え、頭部装着型表示装置HMの各部に電力を供給する。   The input information acquisition unit 110 acquires a signal corresponding to an input from the touch pad 14, the cross key 16, the power switch 18, and the like, for example. The storage unit 120 stores programs and data using a semiconductor memory element, a magnetic storage device, or the like. The power source 130 includes, for example, a secondary battery and supplies power to each unit of the head-mounted display device HM.

制御部140は、CPU、ROM、RAM等を備え、ROMまたは記憶部120に記憶されたプログラムを実行することにより、頭部装着型表示装置HMの各部を制御する。制御部140は、上記プログラムを実行することにより、入力検出部142(入力手段)、距離検出部144(距離検出手段)、入力補助画像処理部146(表示制御手段)、画像処理部160、音声処理部170、表示制御部190としても機能する。   The control unit 140 includes a CPU, a ROM, a RAM, and the like, and controls each unit of the head-mounted display device HM by executing a program stored in the ROM or the storage unit 120. The control unit 140 executes the above-described program, thereby allowing the input detection unit 142 (input unit), the distance detection unit 144 (distance detection unit), the input auxiliary image processing unit 146 (display control unit), the image processing unit 160, the sound. It also functions as the processing unit 170 and the display control unit 190.

画像処理部160は、インターフェイス180を介して入力されるコンテンツ等に基づいて画像表示部20に供給する信号を生成し、画像表示部20へ送信する。画像処理部160は、インターフェイス180を介してアナログ信号が入力された場合には、A/D変換処理を行ってデジタル画像データ(Data)を生成し、クロック信号(PCLK)と、垂直同期信号(VSync)と、水平同期信号(HSync)とともに出力する。また、画像処理部160は、デジタル画像データがインターフェイス180に入力された場合、フレームレートの変換や解像度変換等の各種処理を行って、処理後のデジタル画像データをクロック信号、垂直同期信号および水平同期信号を出力する。   The image processing unit 160 generates a signal to be supplied to the image display unit 20 based on content input via the interface 180 and transmits the signal to the image display unit 20. When an analog signal is input via the interface 180, the image processing unit 160 performs A / D conversion processing to generate digital image data (Data), and generates a clock signal (PCLK) and a vertical synchronization signal ( VSync) and a horizontal synchronizing signal (HSync). In addition, when digital image data is input to the interface 180, the image processing unit 160 performs various processes such as frame rate conversion and resolution conversion, and the processed digital image data is converted into a clock signal, a vertical synchronization signal, and a horizontal signal. Output sync signal.

画像処理部160が出力する信号は送信部51を介して画像表示部20の右表示駆動部22に入力され、送信部52を介して左表示駆動部24に入力される。
表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFF、などを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。
表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。
A signal output from the image processing unit 160 is input to the right display drive unit 22 of the image display unit 20 through the transmission unit 51 and input to the left display drive unit 24 through the transmission unit 52.
The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 uses the control signal to turn on / off the right LCD 241 by the right LCD control unit 211, turn on / off the right backlight 221 by the right backlight control unit 201, and control the left LCD. The left display drive unit 22 and the left display drive unit 24 are controlled by individually controlling the ON / OFF of the left LCD 242 by the unit 212 and the ON / OFF of the left backlight 222 by the left backlight control unit 202. Each controls the generation and emission of image light. For example, the display control unit 190 may cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, generate only one image light, or neither may generate image light.
The display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals for the right backlight control unit 201 and the left backlight control unit 202, respectively.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、画像表示部20の右イヤホン32および左イヤホン34に対し、接続部40を介して供給する。
インターフェイス180は、制御装置10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。インターフェイス180は、頭部装着型表示装置HMの外部の機器OAに有線接続される各種コネクターおよびインターフェイス回路、および/又は、外部の機器OAと無線信号を送受信する無線通信部およびインターフェイス回路を備えている。インターフェイス180は、例えば、USB規格に準拠したインターフェイス、メモリーカード用インターフェイス、無線LANやBluetooth(登録商標)規格に準拠した無線通信インターフェイス、その他の近距離無線通信インターフェイス等を備えることができる。機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。また、インターフェイス180にアナログ信号を入力するコネクター等を設けてもよい。
The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and supplies the acquired audio signal to the right earphone 32 and the left earphone 34 of the image display unit 20 via the connection unit 40.
The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control device 10. The interface 180 includes various connectors and interface circuits that are wired to the external device OA of the head-mounted display device HM, and / or a wireless communication unit and interface circuit that transmit and receive radio signals to and from the external device OA. Yes. The interface 180 can include, for example, an interface conforming to the USB standard, an interface for a memory card, a wireless communication interface conforming to a wireless LAN or Bluetooth (registered trademark) standard, another short-range wireless communication interface, or the like. Examples of the device OA include a personal computer PC, a mobile phone terminal, and a game terminal. In addition, a connector for inputting an analog signal may be provided in the interface 180.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、右イヤホン32と、左イヤホン34とを備えている。
右表示駆動部22は、受信部(Rx)53と、右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを備える。
受信部53は、送信部51から入力される信号を受信する。右バックライト制御部201は、受信部53に入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53に入力されたクロック信号と、垂直同期信号と、水平同期信号と、右眼用の画像データとに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルであり、右LCD制御部211により駆動されて各種画像を描画する。
The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a camera 61. And a right earphone 32 and a left earphone 34.
The right display driving unit 22 includes a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221, a right LCD control unit 211 and a right LCD 241 that function as display elements, A projection optical system 251.
The reception unit 53 receives a signal input from the transmission unit 51. The right backlight control unit 201 drives the right backlight 221 based on the control signal input to the reception unit 53. The right LCD control unit 211 drives the right LCD 241 based on the clock signal, vertical synchronization signal, horizontal synchronization signal, and right-eye image data input to the reception unit 53. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix, and is driven by the right LCD control unit 211 to draw various images.

同様に、左表示駆動部24は、受信部(Rx)54と、左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD242および左LCD242と、左投写光学系252とを備える。
なお、右バックライト制御部201、右LCD制御部211、右バックライト221、および右LCD241を総称して右側の「画像光生成部」と呼び、左バックライト制御部202、左LCD制御部212、左バックライト222、および左LCD242を総称して、左側の「画像光生成部」と呼ぶ。また、右保持部21および左保持部23を総称して単に「保持部」と、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」と、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
そして、これら表示駆動部と、画像光生成部とによって本発明の表示手段が構成される。表示手段には、光学像表示部を含んでもよいし、導光部を含んでもよい。
Similarly, the left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222, a left LCD 242 and a left LCD 242 that function as display elements, A projection optical system 252.
The right backlight control unit 201, the right LCD control unit 211, the right backlight 221, and the right LCD 241 are collectively referred to as an “image light generation unit” on the right side, and the left backlight control unit 202 and the left LCD control unit 212. The left backlight 222 and the left LCD 242 are collectively referred to as the “image light generation unit” on the left side. Further, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, the right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”, and the right optical image display unit. 26 and the left optical image display unit 28 are also simply referred to as “optical image display unit”.
The display drive unit and the image light generation unit constitute the display means of the present invention. The display means may include an optical image display unit or a light guide unit.

受信部54は、送信部52から入力される信号を受信する。左バックライト制御部202は、受信部54に入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54に入力されたクロック信号と、垂直同期信号と、水平同期信号と、左眼用の画像データとに基づいて、左LCD242を駆動する。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルであり、左LCD制御部212により駆動されて各種画像を描画する。
以下の説明では、頭部装着型表示装置HMによりユーザーが視認する虚像を「画像」と呼ぶ。この画像は、右LCD241、左LCD242に形成される画像がユーザーの網膜に結像して認識されるものである。また、頭部装着型表示装置HMがユーザーに虚像を視認させることを、「表示」と呼ぶ。
The reception unit 54 receives a signal input from the transmission unit 52. The left backlight control unit 202 drives the left backlight 222 based on the control signal input to the reception unit 54. The left LCD control unit 212 drives the left LCD 242 based on the clock signal, vertical synchronization signal, horizontal synchronization signal, and left-eye image data input to the reception unit 54. The left LCD 242 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix, and is driven by the left LCD control unit 212 to draw various images.
In the following description, a virtual image visually recognized by the user with the head-mounted display device HM is referred to as an “image”. This image is recognized by forming an image formed on the right LCD 241 and the left LCD 242 on the retina of the user. In addition, letting the user visually recognize a virtual image by the head-mounted display device HM is referred to as “display”.

本実施形態の頭部装着型表示装置HMでは、文字や図形を入力するための入力補助画像を表示した状態で、カメラ61の撮影範囲において入力補助画像に基づく操作を行うことにより、文字や図形を入力することができる。
この操作は、カメラ61の撮影範囲内において、ユーザーの手指、ペン型や棒形状の操作デバイス、或いはレーザーポインターやLED等の光源等の指示体を動かすことにより行われる。
入力補助画像は、指示体により文字や図形を入力するために画像表示部20が表示する画像であり、例えば文字が配列された仮想キーボードや手書き文字入力を行うための罫線等である。入力補助画像については後に詳述する。
In the head-mounted display device HM of the present embodiment, characters and figures are displayed by performing operations based on the input auxiliary images in the shooting range of the camera 61 in a state where the input auxiliary images for inputting characters and figures are displayed. Can be entered.
This operation is performed by moving an indicator such as a user's finger, a pen-shaped or stick-shaped operation device, or a light source such as a laser pointer or LED within the shooting range of the camera 61.
The input auxiliary image is an image displayed by the image display unit 20 in order to input a character or a figure with an indicator, and is, for example, a virtual keyboard on which characters are arranged, a ruled line for inputting handwritten characters, or the like. The input auxiliary image will be described in detail later.

制御部140は、入力検出部142を備えている。入力検出部142は、カメラ61の撮影画像データを取得し、この撮影画像データを解析して指示体の位置、および/又は動きを検出する。記憶部120には、指示体の形状や色の特徴を含む操作検出用データ122が記憶されている。入力検出部142は、操作検出用データ122に基づいて撮影画像データから指示体の画像を抽出し、指示体の指示位置を検出する。指示体の指示位置は、例えば、ユーザーの指の先端、操作デバイスの先端、光源の発光位置等である。さらに、入力検出部142は、連続して撮影された複数の静止画像の撮影画像データ、または、動画像データを構成する複数のフレームから指示体の指示位置を検出し、これら複数の指示位置を比較することによって、指示位置の計時的変化、換言すれば指示位置の動きまたは軌跡を検出する。
操作検出用データ122には、指示位置の動きまたは軌跡の条件を示すデータが含まれている。このデータは、例えば、指示位置の動きの方向、動きの大きさ、動きの速度、一続きの動きの時間、軌跡の形状を示すデータ等である。入力検出部142は、撮影画像データから検出した指示位置の動きまたは軌跡が操作検出用データ122に含まれる条件に該当する場合には、特定の操作が行われたものとして検出する。入力検出部142は、操作検出用データ122に含まれる複数の異なる条件を用いて、複数種類の操作を検出するものであってもよい。
The control unit 140 includes an input detection unit 142. The input detection unit 142 acquires captured image data of the camera 61 and analyzes the captured image data to detect the position and / or movement of the indicator. The storage unit 120 stores operation detection data 122 including the shape and color characteristics of the indicator. The input detection unit 142 extracts an image of the indicator from the captured image data based on the operation detection data 122 and detects the indication position of the indicator. The indication position of the indicator is, for example, the tip of the user's finger, the tip of the operation device, the light emission position of the light source, and the like. Furthermore, the input detection unit 142 detects the indication position of the indicator from a plurality of still image captured image data or a plurality of frames constituting the moving image data, and the plurality of indication positions are detected. By comparing, the time change of the designated position, in other words, the movement or locus of the designated position is detected.
The operation detection data 122 includes data indicating the movement of the indicated position or the condition of the locus. This data is, for example, data indicating the direction of movement of the designated position, the magnitude of the movement, the speed of movement, the time of a continuous movement, the shape of the locus, and the like. The input detection unit 142 detects that a specific operation has been performed when the movement or locus of the designated position detected from the captured image data satisfies the condition included in the operation detection data 122. The input detection unit 142 may detect a plurality of types of operations using a plurality of different conditions included in the operation detection data 122.

また、制御部140は、画像表示部20の前方すなわちカメラ61の撮影方向に位置する対象物までの距離を検出する距離検出部144を備える。距離検出部144は、例えば、カメラ61の焦点(フォーカス)調整を行うための距離測定機能を利用して、前方の物体(対象物)までの距離を検出する。なお、距離検出部144は、赤外線センサーや超音波センサーを備え、これらのセンサーにより距離を検出する構成としてもよい。
本実施形態では、距離検出部144は、画像表示部20の前方に位置する面までの距離を検出する。検出される面は、固定的な面であっても移動可能な物体の面であってもよく、例えば、壁面、家具什器類の側面や上面、床面、地面、本や紙またはユーザーの掌を含む物体の面等が挙げられる。
距離検出部144が検出する面は平面に限定されず、曲面であってもよい。例えば、距離検出部144は、画像表示部20の前方において複数の方向の距離検出を行い、検出された距離から一つの面が存在することが明らかな場合に、この面までの距離を検出する。この場合、距離検出部144が一つの面であることを認識可能であることが望ましく、例えば極端に曲率の高い曲面でないことが好ましい。また、距離検出部144は、画像表示部20の前方における距離検出結果と合わせて、カメラ61により撮影された撮影画像データから面を抽出することにより、画像表示部20の前方の面を認識してもよい。
In addition, the control unit 140 includes a distance detection unit 144 that detects a distance to an object located in front of the image display unit 20, that is, in the shooting direction of the camera 61. The distance detection unit 144 detects a distance to a front object (target object), for example, using a distance measurement function for adjusting the focus of the camera 61. Note that the distance detection unit 144 may include an infrared sensor or an ultrasonic sensor and detect the distance using these sensors.
In the present embodiment, the distance detection unit 144 detects the distance to the surface located in front of the image display unit 20. The detected surface may be a fixed surface or a surface of a movable object, for example, a wall surface, a side surface or top surface of furniture fixtures, a floor surface, the ground, a book or paper, or a user's palm. For example, the surface of the object to be included.
The surface detected by the distance detection unit 144 is not limited to a flat surface, and may be a curved surface. For example, the distance detection unit 144 performs distance detection in a plurality of directions in front of the image display unit 20, and detects the distance to this surface when it is clear that one surface exists from the detected distance. . In this case, it is desirable that the distance detection unit 144 can recognize that it is one surface, and for example, it is preferable that the curved surface is not an extremely high curved surface. The distance detection unit 144 also recognizes the front surface of the image display unit 20 by extracting the surface from the captured image data captured by the camera 61 together with the distance detection result in front of the image display unit 20. May be.

さらに、制御部140は、入力補助画像処理部146を備えている。入力補助画像処理部146は、上記指示体による入力操作を行う場合に、入力補助画像を表示するためのデータを生成して表示制御部190に出力し、右表示駆動部22および左表示駆動部24によって表示させる。
記憶部120には、例えば上記の仮想キーボードや罫線を表示するための画像データやベクトルデータを含む入力補助画像データ124が記憶されている。入力補助画像データ124には、複数種類の入力補助画像を表示するためのデータが含まれていてもよく、この場合、入力補助画像処理部146は入力補助画像データ124からデータを選択して使用する。
Further, the control unit 140 includes an input auxiliary image processing unit 146. The input auxiliary image processing unit 146 generates data for displaying the input auxiliary image and outputs the data to the display control unit 190 when performing an input operation using the indicator, and the right display driving unit 22 and the left display driving unit. 24.
The storage unit 120 stores input auxiliary image data 124 including image data and vector data for displaying the virtual keyboard and ruled lines, for example. The input auxiliary image data 124 may include data for displaying a plurality of types of input auxiliary images. In this case, the input auxiliary image processing unit 146 selects and uses data from the input auxiliary image data 124. To do.

図4は、頭部装着型表示装置HMにより表示される入力補助画像および入力操作の例を示す説明図である。図4(A)は仮想キーボードを利用した例を示し、(B)および(C)は入力補助線を利用した例を示す。これら図4(A)〜(C)はユーザーが視認する像として示したものである。
図4(A)に示す例では、入力補助画像処理部146の制御により仮想キーボード301が表示されている。仮想キーボード301は、一般的なQWERTYキーボードと同様に文字が配列され、各文字を選択するための枠が表示されている。
ユーザーには、仮想キーボード301と外景とが重ねて視認されるため、図4(A)の例のように手指Fを指示体として用いる場合、自分の手指Fが仮想キーボード301上の所望の文字に重なるように操作を行う。図4(A)の例では手指Fの先端が文字「O」に重なる位置にある。ここで、例えば、手指Fを所定時間静止させる、手指Fの先(例えば第1関節)を曲げる、手指Fの先を特定の方向に動かす等の動作を行うと、手指Fの先に重なる文字(図の例では「O」)が選択され、入力される。
頭部装着型表示装置HMにおいては、入力検出部142が、カメラ61の撮影画像データに基づき手指Fによる操作を検出し、ユーザーの視界における仮想キーボード301の表示位置(ユーザーが視認する位置)と、検出された手指Fの先端の位置とを対照することにより、手指Fの操作により選択された文字を特定する。
FIG. 4 is an explanatory diagram illustrating an example of an input auxiliary image and an input operation displayed by the head-mounted display device HM. FIG. 4A shows an example using a virtual keyboard, and FIGS. 4B and C show examples using input auxiliary lines. 4A to 4C are shown as images visually recognized by the user.
In the example shown in FIG. 4A, the virtual keyboard 301 is displayed under the control of the input auxiliary image processing unit 146. The virtual keyboard 301 has characters arranged in the same manner as a general QWERTY keyboard, and a frame for selecting each character is displayed.
Since the user can visually recognize the virtual keyboard 301 and the outside scene in an overlapping manner, when the finger F is used as an indicator as in the example of FIG. Operate so that it overlaps with. In the example of FIG. 4A, the tip of the finger F is at a position where it overlaps the character “O”. Here, for example, when an operation such as holding the finger F stationary for a predetermined time, bending the tip of the finger F (for example, the first joint), or moving the tip of the finger F in a specific direction, a character overlapping the tip of the finger F is performed. ("O" in the example in the figure) is selected and input.
In the head-mounted display device HM, the input detection unit 142 detects an operation with the finger F based on the captured image data of the camera 61, and the display position of the virtual keyboard 301 in the user's field of view (the position where the user visually recognizes). The character selected by the operation of the finger F is specified by comparing the detected position of the tip of the finger F.

図4(B)に示す例では、入力補助画像処理部146の制御により、縦方向および横方向にそれぞれ等間隔に罫線が配置された仮想入力ボード302が表示されている。仮想入力ボード302は指示体の動きにより文字や図形を描いて入力する場合に利用される。例えば図4(B)に示すように、仮想入力ボード302の罫線が形成するマスに文字が1文字ずつ入力される。仮想入力ボード302が表示された場合、ユーザーは、仮想入力ボード302に重ねて視認される指示体(この例では手指F)をマスの中で移動させて文字や図形を描く。入力検出部142は、手指Fの先端の位置を検出し、仮想入力ボード302の表示位置と照合し、1つのマスの中における手指Fの軌跡が特定の文字を示していると判定した場合には、その文字を入力された文字として判定する。図4(B)の例では仮想入力ボード302の左上隅のマスに文字「W」が入力され、その隣のマスに文字「O」が描かれている。   In the example shown in FIG. 4B, the virtual input board 302 in which ruled lines are arranged at equal intervals in the vertical direction and the horizontal direction is displayed under the control of the input auxiliary image processing unit 146. The virtual input board 302 is used when characters and figures are drawn and input by the movement of the indicator. For example, as shown in FIG. 4B, characters are input one by one into the square formed by the ruled line of the virtual input board 302. When the virtual input board 302 is displayed, the user draws a character or a figure by moving an indicator (a finger F in this example) that is visually recognized while being superimposed on the virtual input board 302 in the square. The input detection unit 142 detects the position of the tip of the finger F, compares it with the display position of the virtual input board 302, and determines that the trajectory of the finger F in one square indicates a specific character. Determines that the character is the input character. In the example of FIG. 4B, the letter “W” is input to the upper left corner of the virtual input board 302, and the letter “O” is drawn on the adjacent box.

また、入力補助画像処理部146は、図4(C)に示すように、より多くのマスを有する仮想入力ボード303を表示させることもできる。仮想入力ボード303は、同図(B)の仮想入力ボード302に比べて罫線の数が多く、罫線の間隔が狭い。このため各マスが小さく、マスの数が多い。入力操作の態様は仮想入力ボード302と同様であり、マス内で手指Fの先端で文字や図形を描くと、そのマスに対する入力として文字や図形が入力される。
仮想キーボード301および仮想入力ボード302、303を表示するための画像データまたはベクトルデータは入力補助画像データ124として記憶部120に記憶されている。
Further, as shown in FIG. 4C, the input auxiliary image processing unit 146 can display a virtual input board 303 having more cells. The virtual input board 303 has a larger number of ruled lines and a smaller interval between the ruled lines than the virtual input board 302 of FIG. For this reason, each square is small and the number of squares is large. The mode of input operation is the same as that of the virtual input board 302. When a character or figure is drawn at the tip of the finger F in the square, the character or figure is input as an input to the square.
Image data or vector data for displaying the virtual keyboard 301 and the virtual input boards 302 and 303 is stored in the storage unit 120 as input auxiliary image data 124.

また、入力補助画像である仮想キーボード301、仮想入力ボード302、303が表示された領域は、ユーザーが操作可能な領域、すなわち操作エリアに相当する。入力補助画像は、右表示駆動部22および左表示駆動部24が右LCD241および左LCD242に画像を形成可能な最大範囲、すなわち表示可能領域いっぱいに配置されてもよく、この場合は表示可能領域全体が操作エリアに相当する。また、入力補助画像が表示可能領域の一部に配置されるようにしてもよい。   Further, the area where the virtual keyboard 301 and the virtual input boards 302 and 303 which are input auxiliary images are displayed corresponds to an area that can be operated by the user, that is, an operation area. The input auxiliary image may be arranged in the maximum range in which the right display drive unit 22 and the left display drive unit 24 can form an image on the right LCD 241 and the left LCD 242, that is, the entire displayable region. Corresponds to the operation area. Further, the input auxiliary image may be arranged in a part of the displayable area.

ところで、頭部装着型表示装置HMを装着するユーザーは右表示駆動部22および左表示駆動部24が視認させる虚像と外景とを重ねて見るので、虚像の見え方が外景に影響されることがある。具体的には、ユーザーが視認する外景までの距離の遠近により、虚像の大きさが異なって見える。
図5は入力補助画像の表示例を示す説明図であり、(A)はユーザーが遠方を注視する場合の例を示し、(B)はユーザーが近くを注視する場合の例を示す。図5(A)、(B)の例は画像表示部20の表示可能領域全体に仮想入力ボード302、303を表示した例である。また、図中の符号VAはユーザーの視野を示している。
By the way, the user wearing the head-mounted display device HM sees the virtual image visually recognized by the right display driving unit 22 and the left display driving unit 24 and the outside scene so that the appearance of the virtual image is affected by the outside scene. is there. Specifically, the size of the virtual image looks different depending on the distance to the outside scene visually recognized by the user.
FIGS. 5A and 5B are explanatory diagrams showing an example of display of the input auxiliary image. FIG. 5A shows an example in which the user gazes far away, and FIG. 5B shows an example in which the user gazes near. 5A and 5B are examples in which virtual input boards 302 and 303 are displayed in the entire displayable area of the image display unit 20. In addition, reference numeral VA in the figure indicates the user's field of view.

図2に示した面262Aのように、右導光板261および左導光板262においてユーザーの眼に向けて画像光Lを反射するハーフミラー面のサイズは変化せず、右LCD241、左LCD242の大きさも変化しない。従って、ユーザーの視界全体に対して画像光Lにより形成される像の相対的な大きさも変化しない。これに対し、ユーザーが遠方に注視している場合、ユーザーの視界に広い範囲が収まり、ユーザーが近くを注視する場合には、視界の大半が小さい範囲で占められる。
例えば図5(A)に示すように、ユーザーが遠方の風景等を注視している場合には、仮想入力ボード302に重なる外景は、非常に広い範囲の景色である。このため、ユーザーには仮想入力ボード302そのものが大きなもののように感じられる。
図5(B)は、ユーザーが、ユーザーの近くに位置する机Dを注視している例であり、視野VAのほぼ全体に机Dの天面が見えている。この場合、仮想入力ボード303に重なる外景はほぼ机Dの大きさとなっており、図5(A)の例に比べて小さい。このため、ユーザーには仮想入力ボード303が机Dと同じ大きさであるように見える。
このような見え方の差に関しては、ユーザーに見える外景においてユーザーが注視する場所までの距離が、支配的な要因となっている。
Like the surface 262A illustrated in FIG. 2, the size of the half mirror surface that reflects the image light L toward the user's eyes in the right light guide plate 261 and the left light guide plate 262 does not change, and the size of the right LCD 241 and the left LCD 242 is large. It does not change. Therefore, the relative size of the image formed by the image light L with respect to the entire field of view of the user does not change. On the other hand, when the user is gazing at a distance, a wide range is accommodated in the user's field of view, and when the user is gazing near, the majority of the field of view is occupied by a small range.
For example, as shown in FIG. 5A, when the user is gazing at a distant landscape or the like, the outside scene that overlaps the virtual input board 302 is a very wide range of scenery. Therefore, the user feels that the virtual input board 302 itself is large.
FIG. 5B is an example in which the user is gazing at the desk D located near the user, and the top surface of the desk D is visible in almost the entire visual field VA. In this case, the outside scene overlapping the virtual input board 303 is almost the size of the desk D, which is smaller than the example of FIG. For this reason, it seems to the user that the virtual input board 303 is the same size as the desk D.
Regarding such a difference in appearance, the distance to the place where the user gazes in the outside scene visible to the user is a dominant factor.

そこで、頭部装着型表示装置HMは、ユーザーが注視している外景までの距離に応じて、入力補助画像の表示態様を変更する。
具体的には、図5(A)に示すように、ユーザーが注視する外景が遠方の場合には、入力補助画像として、罫線の間隔が広い仮想入力ボード302を表示し、図5(B)に示すようにユーザーが近景を注視している場合には、入力補助画像として、罫線の間隔が狭い仮想入力ボード303を表示する。
Therefore, the head-mounted display device HM changes the display mode of the input auxiliary image according to the distance to the outside scene that the user is gazing at.
Specifically, as shown in FIG. 5A, when the outside scene that the user gazes at is far away, a virtual input board 302 with a wide ruled line interval is displayed as an input auxiliary image, and FIG. When the user is gazing at the near view, the virtual input board 303 having a narrow ruled line interval is displayed as the input auxiliary image.

この場合、入力補助画像処理部146は、入力補助画像データ124に基づき表示可能な入力補助画像の中から、距離検出部144が検出した距離に適合する入力補助画像を選択して、表示制御部190により表示させる。入力補助画像の数は任意であり、例えば、距離検出部144が検出した距離を複数段階に分け、各段階に対応する複数の入力補助画像を表示してもよい。
距離検出部144は、上述した距離検出機能によってユーザーの視界方向の物体までの距離を検出する。距離検出部144は、例えばユーザーの視線を検出する機構を備え、ユーザーの視線方向に位置する物体までの距離を検出してもよい。
In this case, the input auxiliary image processing unit 146 selects an input auxiliary image suitable for the distance detected by the distance detection unit 144 from the input auxiliary images that can be displayed based on the input auxiliary image data 124, and displays the display control unit. It is displayed by 190. The number of input auxiliary images is arbitrary. For example, the distance detected by the distance detection unit 144 may be divided into a plurality of stages, and a plurality of input auxiliary images corresponding to each stage may be displayed.
The distance detection unit 144 detects the distance to the object in the user's visual field direction by using the distance detection function described above. The distance detection unit 144 may include, for example, a mechanism for detecting a user's line of sight, and may detect a distance to an object positioned in the user's line of sight.

この構成によれば、ユーザーにとって感じられる入力補助画像の大きさに対応して入力補助画像の態様を変化させることで、ユーザーが違和感なく入力操作を行うことができ、操作性の向上を図ることができる。   According to this configuration, by changing the mode of the input auxiliary image corresponding to the size of the input auxiliary image felt for the user, the user can perform an input operation without feeling uncomfortable, and the operability is improved. Can do.

さらに、距離検出部144は仮想入力面までの距離を検出する。図5(B)の例ではユーザーの視界に机Dの天面があり、距離検出部144は机Dまでの距離を検出する。この場合、ユーザーは机Dの天面に手指を置いて文字や図形を描く操作を行うことが考えられる。ユーザーの視界に壁面や床面がある場合も同様である。従って、距離検出部144が面までの距離を検出することで、ユーザーが入力操作のために注視している対象までの距離を適切に検出し、入力補助画像の態様を、より適切に変化させることができる。このため、距離検出部144が距離を検出する面を、ユーザーが入力操作を行う面として、仮想入力面と呼ぶ。   Further, the distance detection unit 144 detects the distance to the virtual input surface. In the example of FIG. 5B, the user's field of view includes the top surface of the desk D, and the distance detection unit 144 detects the distance to the desk D. In this case, it is conceivable that the user performs an operation of placing a finger on the top of the desk D and drawing a character or a figure. The same applies when the user's field of view has a wall or floor. Therefore, the distance detection unit 144 detects the distance to the surface, thereby appropriately detecting the distance to the object that the user is gazing for the input operation, and changing the mode of the input auxiliary image more appropriately. be able to. For this reason, the surface on which the distance detection unit 144 detects the distance is referred to as a virtual input surface as a surface on which the user performs an input operation.

また、距離検出部144によって指示体までの距離を検出し、この指示体までの距離に基づいて入力補助画像処理部146が入力補助画像の表示態様を決定してもよい。上述した仮想入力面は指示体が操作される面であるから、指示体までの距離を仮想入力面までの距離とみなすこともできる。すなわち、距離検出部144が仮想入力面となり得る面そのものを検出せず、指示体までの距離を検出することで仮想入力面までの距離を間接的に検出する。入力検出部142がカメラ61の撮影画像データから指示体を検出する構成であるため、距離検出部144が指示体を検出することは容易である。従って、距離検出部144が面までの距離を検出しにくい場合に、有用である。また、指示体に限らず、距離検出部144によってユーザーの視界に存在する物体(特定の面を持つか持たないかは限定されない)までの距離を検出し、この距離を、仮想入力面までの距離としてもよい。   Alternatively, the distance detection unit 144 may detect the distance to the indicator, and the input auxiliary image processing unit 146 may determine the display mode of the input auxiliary image based on the distance to the indicator. Since the virtual input surface described above is a surface on which the indicator is operated, the distance to the indicator can be regarded as the distance to the virtual input surface. That is, the distance detection unit 144 does not detect the surface itself that can be a virtual input surface, but indirectly detects the distance to the virtual input surface by detecting the distance to the indicator. Since the input detection unit 142 is configured to detect the indicator from the captured image data of the camera 61, the distance detection unit 144 can easily detect the indicator. Therefore, it is useful when it is difficult for the distance detection unit 144 to detect the distance to the surface. In addition to the indicator, the distance detection unit 144 detects the distance to an object (whether or not having a specific surface is not limited) that exists in the user's field of view, and the distance to the virtual input surface is detected. It may be a distance.

図6は、頭部装着型表示装置HMの動作を示すフローチャートであり、特に、入力補助画像を用いた入力操作に関する動作を示す。
頭部装着型表示装置HMの電源がオンの状態で、制御装置10のタッチパッド14や十字キー16に対する操作により、入力開始が指示されると(ステップS11)、制御部140は図6の動作を開始する。
まず、距離検出部144が仮想入力面までの距離を検出する(ステップS12)。次いで、入力補助画像処理部146が、距離検出部144により検出された距離に基づいて入力補助画像の表示態様を決定して表示制御部190に画像データを出力する(ステップS13)。これにより入力補助画像が右表示駆動部22、左表示駆動部24により表示される。ここで、入力検出部142は、カメラ61の撮影画像データに基づく入力操作の検出を開始する。
FIG. 6 is a flowchart showing the operation of the head-mounted display device HM, and particularly shows the operation related to the input operation using the input auxiliary image.
When the head-mounted display device HM is turned on and an input start is instructed by an operation on the touch pad 14 or the cross key 16 of the control device 10 (step S11), the control unit 140 operates as shown in FIG. To start.
First, the distance detection unit 144 detects the distance to the virtual input surface (step S12). Next, the input auxiliary image processing unit 146 determines the display mode of the input auxiliary image based on the distance detected by the distance detection unit 144, and outputs the image data to the display control unit 190 (step S13). As a result, the input auxiliary image is displayed by the right display driving unit 22 and the left display driving unit 24. Here, the input detection unit 142 starts detecting an input operation based on the captured image data of the camera 61.

その後、入力検出部142は、入力内容が確定されるまで入力操作の検出を行い(ステップS15)、入力内容が確定されると(ステップS15;Yes)、確定した内容に基づいて処理を実行する(ステップS16)。例えば、制御部140は、制御装置10がウェブブラウザーの機能を実行し、ウェブブラウザーによってウェブ検索エンジンへの検索キーワードの入力を行う状態に移行し、仮想入力ボード302を表示する。仮想入力ボード302を用いた操作によって複数の文字が入力されると、制御部140は、入力された文字からなる文字列を検索キーワードとして検索エンジンに送信し、検索結果をウェブブラウザーにより表示する処理を行う。   Thereafter, the input detection unit 142 detects an input operation until the input content is confirmed (step S15). When the input content is confirmed (step S15; Yes), the process is executed based on the confirmed content. (Step S16). For example, the control unit 140 shifts to a state in which the control device 10 executes the function of the web browser and inputs a search keyword to the web search engine by the web browser, and displays the virtual input board 302. When a plurality of characters are input by an operation using the virtual input board 302, the control unit 140 transmits a character string including the input characters to the search engine as a search keyword, and displays the search result using a web browser. I do.

制御部140は、タッチパッド14や十字キー16の操作により入力操作の終了が指示されたか否かを判定し(ステップS17)、入力操作の終了が指示されるまでは(ステップS17;No)、ステップS15に戻って入力補助画像の表示を継続する。そして、入力操作の終了が指示された場合は(ステップS17;Yes)、入力補助画像処理部146が入力補助画像の表示を停止させて(ステップS18)、本処理を終了する。   The control unit 140 determines whether or not the input operation is instructed by operating the touch pad 14 or the cross key 16 (step S17), and until the input operation is instructed (step S17; No). Returning to step S15, the display of the input auxiliary image is continued. When an instruction to end the input operation is given (step S17; Yes), the input auxiliary image processing unit 146 stops the display of the input auxiliary image (step S18), and the process ends.

図7は入力補助画像の表示例を示す説明図であり、(A)は入力操作中の状態を示し、(B)は入力内容が確定された状態を示す。
図7(A)および(B)には、上述したように制御部140がウェブブラウザーを実行し、検索エンジンに入力する検索キーワードを入力する動作を例示する。
図7(A)では表示可能領域の一部に仮想入力ボード302が表示され、仮想入力ボード302に並べて、検索文字列の入力ボックス305が表示され、仮想入力ボード302を用いて入力ボックス305への入力を行う状態である。この例では仮想入力ボード302のマスに合わせて、文字を描くように手指Fを動かすことで、制御部140が描かれた文字を認識し、認識された文字が仮想入力ボード302の各マスに表示される。
FIG. 7 is an explanatory diagram showing a display example of an input auxiliary image, where (A) shows a state during an input operation, and (B) shows a state in which the input content is confirmed.
7A and 7B illustrate an operation in which the control unit 140 executes a web browser and inputs a search keyword to be input to the search engine as described above.
In FIG. 7A, the virtual input board 302 is displayed in a part of the displayable area, arranged in the virtual input board 302, the search character string input box 305 is displayed, and the virtual input board 302 is used to enter the input box 305. This is the state where the input is performed. In this example, the control unit 140 recognizes the drawn character by moving the finger F so as to draw a character in accordance with the square of the virtual input board 302, and the recognized character is applied to each square of the virtual input board 302. Is displayed.

仮想入力ボード302に基づく入力内容が確定されると、入力補助画像処理部146は仮想入力ボード302の表示を終了する。図7(B)に示す例では、仮想入力ボード302に代わって、入力内容を表示する入力内容表示部306が切り替えて表示される。また、入力内容表示部306に表示された文字からなる文字列が入力ボックス305に入力された状態となっている。入力内容表示部306が表示された状態で、再び入力操作を行う旨の指示がタッチパッド14や十字キー16等により入力されると、再び仮想入力ボード302が切り替えて表示される。   When the input content based on the virtual input board 302 is confirmed, the input auxiliary image processing unit 146 ends the display of the virtual input board 302. In the example shown in FIG. 7B, instead of the virtual input board 302, an input content display unit 306 that displays input content is switched and displayed. In addition, a character string composed of characters displayed on the input content display unit 306 is in a state of being input to the input box 305. When the input content display unit 306 is displayed and an instruction for performing an input operation again is input by the touch pad 14, the cross key 16, or the like, the virtual input board 302 is switched and displayed again.

図7の例では、仮想入力ボード302は、その背景全体が暗色(例えば、暗灰色)で表示されている。図2を参照して説明したように、ユーザーが外景を視認する視認性は、調光板20Aを透過してユーザーの眼に入射する外光OLの光量と、右導光板261、左導光板262からユーザーの眼に入射する画像光L(図2)の光量とのバランスに影響される。このため、仮想入力ボード302を暗色で表示すれば、ユーザーが外景を視認しやすくなる。これにより、ユーザーが注視する物体までの距離に対応して仮想入力ボード302の表示態様を変更した効果がより顕著になり、より一層の操作性の向上が期待できる。なお、仮想入力ボード302の一部のみを暗色で表示してもよい。
また、仮想入力ボード302と入力内容表示部306とを切り替えた際の違和感を防ぐため、入力内容表示部306は仮想入力ボード302と同様に、暗色の背景を有する画像となっている。図7の例では、仮想入力ボード302および入力内容表示部306の罫線や枠線は、背景色よりもさらに暗色で表示され、入力された文字は、視認性を確保するため明度の高い色(例えば白色)で表示される。また、背景を黒にして罫線や枠線を灰色で表示するなど、罫線や枠線を背景より明度の高い色としてもよい。背景、罫線、枠線、文字等は無彩色に限らず、より彩度の高い色で表示してもよい。
In the example of FIG. 7, the entire background of the virtual input board 302 is displayed in a dark color (for example, dark gray). As described with reference to FIG. 2, the visibility with which the user visually recognizes the outside scene is the amount of the external light OL that passes through the light control plate 20 </ b> A and enters the user's eyes, the right light guide plate 261, and the left light guide plate. It is influenced by the balance with the light quantity of the image light L (FIG. 2) which injects into a user's eyes from 262. For this reason, if the virtual input board 302 is displayed in a dark color, the user can easily view the outside scene. As a result, the effect of changing the display mode of the virtual input board 302 corresponding to the distance to the object to be watched by the user becomes more prominent, and further improvement in operability can be expected. Only a part of the virtual input board 302 may be displayed in a dark color.
Also, in order to prevent a sense of discomfort when switching between the virtual input board 302 and the input content display unit 306, the input content display unit 306 is an image having a dark background, like the virtual input board 302. In the example of FIG. 7, the ruled lines and frame lines of the virtual input board 302 and the input content display unit 306 are displayed in a darker color than the background color, and the input characters have a high brightness ( For example, white). In addition, the ruled lines and the frame lines may be colored with a higher brightness than the background, such as displaying the ruled lines and the frame lines in gray with the background black. The background, ruled lines, frame lines, characters, and the like are not limited to achromatic colors, and may be displayed in colors with higher saturation.

制御部140は、入力補助画像処理部146が入力補助画像を表示して、入力検出部142により操作を検出している間に、距離検出部144による距離検出を間欠的に実行し、検出された距離に基づいて入力補助画像の表示態様を変更してもよい。この場合、指示体による操作中に、ユーザーが注視する対象が変わった場合に、この変化に入力補助画像の表示態様を適合させ、良好な操作性を保つことができる。
さらに、カメラ61の撮像画像データの変化やユーザーの視線を検出する機構により、入力補助画像の表示中にユーザーの視線方向が動いたことを検出した場合に、移動後のユーザーの視線方向に位置する対象物までの距離を距離検出部144により検出し、入力補助画像の表示態様を変更してもよい。
そして、上記の例のように入力補助画像の表示中に入力補助画像の表示態様を変更する場合には、いったん入力補助画像の表示を停止して、入力補助画像が表示されない状態を所定時間保ち、その後に変更後の入力補助画像を表示してもよい。
While the input auxiliary image processing unit 146 displays the input auxiliary image and the input detection unit 142 detects an operation, the control unit 140 intermittently performs distance detection by the distance detection unit 144 and is detected. The display mode of the input auxiliary image may be changed based on the distance. In this case, when the object to be watched by the user changes during the operation by the indicator, the display mode of the input auxiliary image can be adapted to the change, and good operability can be maintained.
Furthermore, when it is detected that the user's line-of-sight direction has moved during the display of the input auxiliary image by the mechanism for detecting the change in the captured image data of the camera 61 and the user's line-of-sight, the position in the user's line-of-sight direction after the movement is detected. The distance to the object to be detected may be detected by the distance detection unit 144, and the display mode of the input auxiliary image may be changed.
When the display mode of the input auxiliary image is changed during the display of the input auxiliary image as in the above example, the display of the input auxiliary image is temporarily stopped and the state where the input auxiliary image is not displayed is maintained for a predetermined time. Then, the changed input auxiliary image may be displayed.

また、カメラ61の撮像画像データの変化やユーザーの視線を検出する機構により、入力補助画像の表示中にユーザーの視線方向が動いたことを検出した場合に、入力補助画像の表示を停止し、ユーザーの視線方向が元の位置または元の位置から所定範囲内に戻った場合に、再び、元の表示態様で入力補助画像を表示する構成としてもよい。
さらに、入力補助画像が表示可能領域の一部に表示される場合において、入力補助画像の表示中にユーザーの視線方向が動いたことを検出した場合に、この視線方向の移動が所定範囲内であれば、視線方向の移動を相殺する方向に、表示可能領域における入力補助画像の表示位置を変更することもできる。この場合、ユーザーの視線や頭の位置のゆらぎにより視線方向が移動した場合に、入力補助画像を安定して同じ位置に表示することで、ゆらぎの影響を感じさせず、より入力操作が容易になる。画像表示部20がジャイロセンサー等を用いて姿勢を検出可能な場合に、検出した画像表示部20の姿勢の変化に基づいて、上記のように入力補助画像の表示位置を移動させてもよい。
In addition, when it is detected that the direction of the user's line of sight has moved during the display of the input auxiliary image by the mechanism that detects the change in the captured image data of the camera 61 or the user's line of sight, the display of the input auxiliary image is stopped. When the user's line-of-sight direction returns to the original position or the predetermined range from the original position, the input auxiliary image may be displayed again in the original display mode.
Further, when the input auxiliary image is displayed in a part of the displayable area, when it is detected that the user's line of sight moves while the input auxiliary image is displayed, the movement in the line of sight is within a predetermined range. If present, the display position of the input auxiliary image in the displayable area can be changed in a direction that cancels the movement in the line-of-sight direction. In this case, when the line of sight moves due to fluctuations in the user's line of sight or head position, the input auxiliary image is stably displayed at the same position, making the input operation easier without feeling the effects of fluctuations. Become. When the image display unit 20 can detect the posture using a gyro sensor or the like, the display position of the input auxiliary image may be moved as described above based on the detected change in the posture of the image display unit 20.

また、入力補助画像処理部146は、タッチパッド14や十字キー16の操作に応じて、入力補助画像の表示態様を変更してもよい。入力補助画像の表示態様は、距離検出部144が検出した仮想入力面までの距離に応じて入力補助画像処理部146が決定する。この入力補助画像を、ユーザーの意思により変更したい場合には、制御装置10のタッチパッド14や十字キー16を操作することで、変更可能としてもよい。さらに、ユーザーがタッチパッド14や十字キー16または入力検出部142が検出する指示体の操作によって、仮想入力面までの距離を入力し、入力された距離に基づいて入力補助画像処理部146が入力補助画像の表示態様を決定・変更してもよい。   The input auxiliary image processing unit 146 may change the display mode of the input auxiliary image in accordance with the operation of the touch pad 14 or the cross key 16. The display mode of the input auxiliary image is determined by the input auxiliary image processing unit 146 according to the distance to the virtual input surface detected by the distance detection unit 144. When it is desired to change the input auxiliary image according to the user's intention, the input auxiliary image may be changed by operating the touch pad 14 or the cross key 16 of the control device 10. Further, the user inputs a distance to the virtual input surface by operating the touch pad 14, the cross key 16 or the indicator detected by the input detection unit 142, and the input auxiliary image processing unit 146 inputs based on the input distance. The display mode of the auxiliary image may be determined / changed.

入力補助画像処理部146は、仮想入力ボード302、303の罫線の数を変更するだけでなく、入力補助画像としての仮想入力ボード302、303の表示サイズを、距離検出部144が検出した距離に応じて変更してもよい。
この場合、入力補助画像処理部146は、表示制御部190に出力する入力補助画像の画像データを変更することにより、マトリクス状に配置された複数の画素により画像を形成する右LCD241および左LCD242において、入力補助画像を構成する画素数を変更可能である。
The input auxiliary image processing unit 146 not only changes the number of ruled lines of the virtual input boards 302 and 303 but also changes the display size of the virtual input boards 302 and 303 as input auxiliary images to the distance detected by the distance detection unit 144. It may be changed accordingly.
In this case, the input auxiliary image processing unit 146 changes the image data of the input auxiliary image to be output to the display control unit 190, so that the right LCD 241 and the left LCD 242 form an image with a plurality of pixels arranged in a matrix. The number of pixels constituting the input auxiliary image can be changed.

入力補助画像処理部146は、カメラ61が撮影した撮影画像データに基づいて指示体の種類を判別し、指示体の種類に対応して入力補助画像の表示態様を変更してもよい。例えば、指示体がユーザーの手指である場合には、入力補助画像として、罫線の間隔が広い仮想入力ボード302を表示し、指示体が棒状の操作デバイスである場合は仮想入力ボード303を表示してもよい。操作デバイスの先端はユーザーの手指より細い形状にすることが可能であるため、操作デバイスを用いる場合は細かい入力操作が可能となり、手指を用いる場合は罫線の間隔を広くすることで文字や図形の認識性を確保することができ、操作性の向上が期待できる。   The input auxiliary image processing unit 146 may determine the type of the indicator based on the captured image data captured by the camera 61, and may change the display mode of the input auxiliary image according to the type of the indicator. For example, when the indicator is a user's finger, a virtual input board 302 with a wide ruled line interval is displayed as an input auxiliary image, and when the indicator is a bar-shaped operation device, a virtual input board 303 is displayed. May be. Since the tip of the operation device can be made thinner than the user's finger, fine input operations are possible when using the operation device, and when using the finger, the spacing between the ruled lines is widened to increase the size of characters and figures. Recognizability can be ensured and operability can be expected to improve.

入力補助画像の表示態様は、上記の例に限定されない。
図8は入力補助画像の別の表示例を示す説明図である。図8(A)は入力操作中の指示位置を強調表示する例を示し、(B)は表示用の領域と入力補助画像とを並べて表示する例を示す。
図8(A)の例では、図7(A)と同様に表示可能領域の一部に仮想入力ボード302が表示され、仮想入力ボード302に並べて、検索文字列の入力ボックス305が表示され、仮想入力ボード302を用いて入力ボックス305への入力を行う状態である。この図8(A)の例では、指示位置である手指Fの先端を含む指示領域302Aが強調表示されている。例えば、仮想入力ボード302が暗色の背景で表示されている場合に、指示領域302Aは背景色が無い、「透かし」の表示状態となっており、手指Fの先端がより視認しやすい状態とされている。この場合、入力補助画像処理部146は、入力検出部142が検出した指示位置を含む所定面積の範囲を指示領域302Aに設定して、指示領域302Aの表示状態を、仮想入力ボード302における他の部分とは異なる表示とする。指示領域302Aは、図に示した透かし表示の他、仮想入力ボード302の背景色よりも外景を視認しやすい他の色としたり、指示領域302Aの枠を視認しやすい高彩度の色としたりする方法も挙げられる。
The display mode of the input auxiliary image is not limited to the above example.
FIG. 8 is an explanatory diagram showing another display example of the input auxiliary image. FIG. 8A shows an example in which the designated position during the input operation is highlighted, and FIG. 8B shows an example in which the display area and the input auxiliary image are displayed side by side.
In the example of FIG. 8A, the virtual input board 302 is displayed in a part of the displayable area as in FIG. 7A, and the search character string input box 305 is displayed side by side on the virtual input board 302. This is a state in which input to the input box 305 is performed using the virtual input board 302. In the example of FIG. 8A, the designated area 302A including the tip of the finger F that is the designated position is highlighted. For example, when the virtual input board 302 is displayed with a dark background, the indication area 302A has no background color and is in a “watermark” display state, and the tip of the finger F is more easily visible. ing. In this case, the input auxiliary image processing unit 146 sets a range of a predetermined area including the designated position detected by the input detection unit 142 in the designated area 302A, and changes the display state of the designated area 302A to other virtual input boards 302. The display is different from the part. In addition to the watermark display shown in the figure, the instruction area 302A is a color that makes it easier to visually recognize the outside scene than the background color of the virtual input board 302, or a method of making the frame of the instruction area 302A a highly saturated color that is easy to visually recognize. Also mentioned.

上述した各表示例ではいずれも表示可能領域の中央に入力補助画像が表示されていたが、入力補助画像を表示可能領域の端に寄せて配置してもよく、他の画像とともに表示してもよい。
図8(B)の例では、アプリケーション画面307と、仮想入力ボード309とがともに表示されている。アプリケーション画面307は、制御部140が実行するアプリケーションプログラムの処理結果等を表示する画面である。例えば制御部140がウェブブラウザーを実行して検索エンジンへの入力を行う場合、アプリケーション画面307には検索キーワードを入力する入力ボックス308が配置され、その下方には検索結果が一覧表示される。この例ではアプリケーション画面307は外景に比べて視認性が高まるよう、明色の背景で表示される。
仮想入力ボード309は、アプリケーション画面307の表示を隠さないようにアプリケーション画面307の下方に並べて配置される。仮想入力ボード309は、アプリケーション画面307の横に並べて配置してもよいし、アプリケーション画面307の周囲に複数の仮想入力ボード309を配置してもよい。
仮想入力ボード309は、仮想入力ボード302(図8(A))と同様に入力補助画像として表示され、外景の視認性を確保するように暗色の背景を有する。入力補助画像処理部146は、距離検出部144が検出した距離に応じて仮想入力ボード309の罫線の間隔や数を変化させることができる。これにより、ユーザーが外景を見ながら、ユーザーの手指や操作デバイス等による入力操作を容易に行うことができ、この入力操作の内容により実行されるアプリケーションプログラムの結果をアプリケーション画面307により視認できる。
In each of the display examples described above, the input auxiliary image is displayed at the center of the displayable area. However, the input auxiliary image may be arranged near the end of the displayable area, or may be displayed together with other images. Good.
In the example of FIG. 8B, an application screen 307 and a virtual input board 309 are both displayed. The application screen 307 is a screen for displaying the processing result of the application program executed by the control unit 140. For example, when the control unit 140 executes a web browser and inputs to a search engine, an input box 308 for inputting a search keyword is arranged on the application screen 307, and a search result is displayed in a list below the input box. In this example, the application screen 307 is displayed with a light background so that the visibility is higher than that of the outside scene.
The virtual input board 309 is arranged below the application screen 307 so as not to hide the display of the application screen 307. The virtual input board 309 may be arranged next to the application screen 307, or a plurality of virtual input boards 309 may be arranged around the application screen 307.
The virtual input board 309 is displayed as an auxiliary input image similarly to the virtual input board 302 (FIG. 8A), and has a dark background so as to ensure the visibility of the outside scene. The input auxiliary image processing unit 146 can change the interval and the number of ruled lines of the virtual input board 309 according to the distance detected by the distance detection unit 144. As a result, the user can easily perform an input operation with the user's fingers, operation device, or the like while looking at the outside scene, and the result of the application program executed according to the content of the input operation can be visually recognized on the application screen 307.

以上説明したように、本発明を適用した実施形態に係る頭部装着型表示装置HMによれば、外光に画像光Lを重ねて出力し、画像を視認させる表示駆動部および光学像表示部と、画像に入力補助画像を配置して表示駆動部および光学像表示部に表示させる入力補助画像処理部146と、入力補助画像に対応する位置指示操作を受け付ける入力検出部142と、を備え、入力補助画像処理部146は画像における入力補助画像の態様を変更可能である。この構成によれば、外光に重ねて出力される画像光Lにより画像を表示するため、ユーザーは画像光Lにより表示される入力補助画像とともに外景を見ることができ、この外景の任意の場所を見て操作を行うことができる。そして、表示される入力補助画像の態様を変更可能であるため、操作の状況に応じて入力補助画像の表示態様を変更し、快適な操作性を実現することができ、操作性の向上を図ることができる。
また、入力補助画像処理部146は、位置指示操作が行われる仮想入力面までの距離に応じて、入力補助画像の態様を変更可能であるため、ユーザーが操作を行う位置に対応した態様で入力補助画像を表示し、より快適な操作性を実現できる。
As described above, according to the head-mounted display device HM according to the embodiment to which the present invention is applied, the display driving unit and the optical image display unit that output the image light L superimposed on the external light and visually recognize the image. An input auxiliary image processing unit 146 that arranges the input auxiliary image in the image and displays the input auxiliary image on the display drive unit and the optical image display unit, and an input detection unit 142 that receives a position instruction operation corresponding to the input auxiliary image, The input auxiliary image processing unit 146 can change the mode of the input auxiliary image in the image. According to this configuration, since the image is displayed by the image light L output superimposed on the outside light, the user can view the outside scene together with the input auxiliary image displayed by the image light L. You can perform operations. And since the mode of the displayed input auxiliary image can be changed, the display mode of the input auxiliary image can be changed according to the state of operation, and comfortable operability can be realized, thereby improving operability. be able to.
Further, since the input auxiliary image processing unit 146 can change the mode of the input auxiliary image according to the distance to the virtual input surface where the position instruction operation is performed, the input auxiliary image processing unit 146 is input in a mode corresponding to the position where the user performs the operation. Auxiliary images can be displayed for more comfortable operability.

頭部装着型表示装置HMは、仮想入力面までの距離を検出する距離検出部144を備え、入力補助画像処理部146は、距離検出部144により検出された距離に応じて、入力補助画像の態様を変更可能であるため、仮想入力面までの距離を入力または設定する操作を省略することができ、より一層の操作性の向上を図ることができる。   The head-mounted display device HM includes a distance detection unit 144 that detects a distance to the virtual input surface, and the input auxiliary image processing unit 146 displays an input auxiliary image according to the distance detected by the distance detection unit 144. Since the aspect can be changed, an operation of inputting or setting the distance to the virtual input surface can be omitted, and the operability can be further improved.

また、入力補助画像処理部146は、指示体の操作をガイドする仮想入力ボード302、303を含む入力補助画像を配置し、入力補助画像のサイズを変更可能であるため、ユーザーの操作の指標となる入力補助画像のサイズを変更することにより、文字入力等の細かい入力操作を容易に、正確に行うことが可能となる。
さらに、画像表示部20の右LCD241および左LCD242は、マトリクス状に配置された複数の画素により画像を形成し、入力補助画像処理部146は、入力補助画像を構成する画素数を変更可能であるため、入力補助画像のサイズを変更した場合に、サイズの拡大に伴う解像度の低下や、サイズの縮小に伴う視認性の低下等を防止できる。
Further, the input auxiliary image processing unit 146 can arrange the input auxiliary image including the virtual input boards 302 and 303 for guiding the operation of the indicator and can change the size of the input auxiliary image. By changing the size of the input auxiliary image, it is possible to easily and accurately perform fine input operations such as character input.
Further, the right LCD 241 and the left LCD 242 of the image display unit 20 form an image with a plurality of pixels arranged in a matrix, and the input auxiliary image processing unit 146 can change the number of pixels constituting the input auxiliary image. Therefore, when the size of the input auxiliary image is changed, it is possible to prevent a decrease in resolution associated with the increase in size and a decrease in visibility associated with the decrease in size.

さらに、仮想入力ボード302、303、309等の入力補助画像は複数の補助線を含み、入力補助画像処理部146は、入力補助画像に含まれる補助線の間隔を変更可能であり、文字入力等の細かい入力操作をより容易に、正確に行うことが可能となる。
また、入力補助画像処理部146は、入力検出部142により受け付けた操作位置に対応する位置で入力補助画像の表示態様を変化させるので、検出した操作位置をユーザーに示すことができる。また、入力補助画像の表示態様を変えることで、この操作に続く操作を行い易くし、より一層の操作性の向上を図ることができる。
Further, the input auxiliary images such as the virtual input boards 302, 303, and 309 include a plurality of auxiliary lines, and the input auxiliary image processing unit 146 can change the interval of the auxiliary lines included in the input auxiliary images, and character input and the like. This makes it possible to perform detailed input operations more easily and accurately.
Further, the input auxiliary image processing unit 146 changes the display mode of the input auxiliary image at a position corresponding to the operation position received by the input detection unit 142, so that the detected operation position can be shown to the user. In addition, by changing the display mode of the input auxiliary image, it is possible to easily perform the operation following this operation, and to further improve the operability.

なお、上述した実施形態は本発明を適用した一例を示すものであって、本発明の構成および本発明の適用範囲は上記実施形態の構成に限定されない。例えば、入力補助画像としては、仮想入力ボード302、303、309に限定されず、ユーザーの入力操作の補助となる画像であればよく、罫線に限らず他の図形等により操作を案内するものであってもよい。
また、上記実施形態では、頭部装着型表示装置の一例として、ユーザーが眼鏡のように装着する画像表示部20を備えた構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、画像表示部20に代えて、例えば帽子のように装着する画像表示部や、ヘルメット等に組み込まれた画像表示部を備えた構成としてもよい。また、イヤホン32、34は耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。
The above-described embodiment shows an example to which the present invention is applied, and the configuration of the present invention and the scope of application of the present invention are not limited to the configuration of the above-described embodiment. For example, the input auxiliary image is not limited to the virtual input boards 302, 303, and 309, and may be any image that assists the user's input operation. The input auxiliary image is not limited to ruled lines, and guides the operation using other graphics. There may be.
In the above-described embodiment, as an example of the head-mounted display device, the configuration including the image display unit 20 worn by the user like glasses is described as an example, but the present invention is limited to this. Instead of the image display unit 20, for example, an image display unit worn like a hat or an image display unit incorporated in a helmet or the like may be provided. Further, the earphones 32 and 34 may adopt an ear hook type or a headband type, or may be omitted.

さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが一体に構成され、ユーザーの頭部に装着される構成とすることも可能である。さらに、制御装置10と画像表示部20とが、より長いケーブルまたは無線通信回線により接続され、制御装置10として、ノート型コンピューター、タブレット型コンピューターまたはデスクトップ型コンピューターのディスプレイ、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器が有するディスプレイ等を用いてもよい。   Furthermore, in the above embodiment, the image display unit 20 and the control device 10 are separated and connected by way of the connection unit 40, but the control device 10 and the image display unit 20 are integrated. It is also possible to adopt a configuration that is configured on the user's head. Further, the control device 10 and the image display unit 20 are connected by a longer cable or a wireless communication line. As the control device 10, a notebook computer, a tablet computer or a desktop computer display, a game machine, a portable phone, You may use the display etc. which a portable electronic device containing a smart phone and a portable media player, and another dedicated apparatus have.

また、上記実施形態では、例えば、画像光生成部が左右のバックライト221、222と、左右のバックライト制御部201、202と、左右のLCD241、242と、左右のLCD制御部211、212とを備えた構成として説明した。この実施形態の態様はあくまで一例であり、画像光生成部は、上記の構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていても良い。例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)パネル等の自発光型のディスプレイと、その発光を制御する制御部とを備える構成としても良い。また、例えば、画像生成部は、LCDに代えて、LCOS(登録商標)(Liquid crystal on silicon)や、デジタル・マイクロミラー・デバイス(DMD)等を用いることもできる。この場合、画像生成部はLED等の光源を備え、この光源が発する光をLCOSやDMDにより変調して画像光を生成する。   In the above embodiment, for example, the image light generation unit includes the left and right backlights 221, 222, the left and right backlight control units 201, 202, the left and right LCDs 241, 242 and the left and right LCD control units 211, 212. It was described as a configuration comprising The aspect of this embodiment is merely an example, and the image light generation unit may include a configuration unit for realizing another method together with the configuration unit described above or instead of the configuration unit. For example, the image light generation unit may include a self-luminous display such as an organic EL (Organic Electro-Luminescence) panel and a control unit that controls the light emission. In addition, for example, the image generation unit may use LCOS (registered trademark) (Liquid crystal on silicon), a digital micromirror device (DMD), or the like instead of the LCD. In this case, the image generation unit includes a light source such as an LED, and generates light by modulating light emitted from the light source with LCOS or DMD.

また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、画像生成部が、レーザー光源と、レーザー光源をユーザーの眼に導く光学系とを備え、レーザー光をユーザーの眼に入射させて網膜上を走査し、網膜に結像させることにより、ユーザーに画像を視認させる構成を採用してもよい。レーザー網膜投影型のヘッドマウントディスプレイを採用する場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。   Further, for example, the present invention can be applied to a laser retinal projection type head mounted display. In other words, the image generation unit includes a laser light source and an optical system that guides the laser light source to the user's eye, makes the laser light enter the user's eye, scans the retina, and forms an image on the retina. You may employ | adopt the structure which makes an image visually recognize. When a laser retina projection type head-mounted display is employed, the “image light emitting area in the image light generation unit” can be defined as an image area recognized by the user's eyes.

ヘッドマウントディスプレイにおいて画像生成部が生成した画像光をユーザーの眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともにユーザーの眼に入射させる構成を採用できる。また、ユーザーの眼の前方に位置してユーザーの視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、ユーザーの眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。   The optical system that guides the image light generated by the image generation unit to the user's eye in the head-mounted display includes an optical member that transmits external light that is incident on the apparatus from the outside, and enters the user's eye together with the image light. Configuration can be adopted. Moreover, you may use the optical member which is located ahead of a user's eyes and overlaps a part or all of a user's visual field. Further, a scanning optical system that scans a laser beam or the like to obtain image light may be employed. Further, the optical member is not limited to guiding the image light inside the optical member, and may have only a function of guiding the image light by being refracted and / or reflected toward the user's eyes.

また、本発明を、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。
上記実施形態の頭部装着型表示装置HMは、左右のバックライト221、222と、左右のバックライト制御部201、202と、左右のLCD241、242と、左右のLCD制御部211、212とを備える画像光生成部を用い、画像光生成部が生成した光を右導光板261及び左導光板262によりユーザーの眼に導く構成とした。
これに対し、MEMSミラーを用いた走査光学系を採用してもよい。すなわち、画像表示素子として、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像をユーザーが眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、虚像形成面は、面262Aのようにハーフミラー面となっていてもよい。
In addition, the present invention can be applied to a display device using MEMS display technology.
The head-mounted display device HM of the above embodiment includes left and right backlights 221, 222, left and right backlight control units 201, 202, left and right LCDs 241, 242 and left and right LCD control units 211, 212. The image light generation unit provided is used to guide the light generated by the image light generation unit to the eyes of the user by the right light guide plate 261 and the left light guide plate 262.
On the other hand, a scanning optical system using a MEMS mirror may be employed. That is, as an image display element, a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and an optical member on which a virtual image is formed by light scanned by the scanning optical system May be provided. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. When the MEMS mirror scans the light, a virtual image is formed on the virtual image forming surface, and the user recognizes the image when the virtual image is captured by the user's eyes. The optical component in this case may be one that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above embodiment, and the virtual image forming surface is the surface 262A. It may be a half mirror surface.

また、画像光による画像を視認させる光学部材は、導光板261、262のように半透過の面を有する導光体による構成の他、ホログラム反射系の導光体を用いることもできる。この場合、画像光を発する光源として、干渉性の高いレーザーダイオードや有機EL素子を備えた構成が挙げられる。さらに、ユーザーの視界に位置する内部に導光する機能を持たない光学部材の面に、半透過反射膜やホログラム反射系を設け、この面により画像光をユーザーの眼に向けて反射する構成とすることも可能である。   Further, the optical member for visually recognizing the image by the image light may be a hologram reflecting light guide as well as a light guide having a semi-transmissive surface such as the light guide plates 261 and 262. In this case, as a light source that emits image light, a configuration including a laser diode or an organic EL element with high coherence can be given. In addition, a transflective film or a hologram reflection system is provided on the surface of an optical member that does not have a function of guiding light to the inside located in the user's field of view, and this surface reflects image light toward the user's eyes. It is also possible to do.

また、例えば、指示体はユーザーの手指や操作デバイス等の他、ユーザーの指に装着されるデバイスを用い、このデバイスの位置を入力検出部142が検出する構成としてもよい。具体的には、ユーザーが指輪型の器具を指に装着し、頭部装着型表示装置HMがカメラ61により撮影を行って、指輪型の器具の位置と傾きを検出する構成としてもよい。この場合、カメラ61の撮影画像データから、指輪型器具の画像を抽出し、指輪型器具の画像の形状(楕円か円か)やサイズに基づいて、指輪型の器具の位置と傾きを検出できる。また、ユーザーの手に手袋状の検出用デバイスを装着して、この検出用デバイスの位置や傾きなどを頭部装着型表示装置HMが検出する構成としてもよい。
また、本発明の表示装置は、上述した頭部装着型の表示装置に限定されず、フラットパネルディスプレイやプロジェクター等の各種の表示装置に適用できる。
さらに、制御部140が実行するプログラムを記憶部120に記憶する構成に限定されず、例えば上記プログラムを、コンピューター読み取り可能な可搬型の記録媒体や制御装置10に外部接続される記憶装置、或いは、制御装置10に有線または無線通信回線を介して接続される装置に記憶させ、必要に応じて制御装置10がプログラムを読み込んで実行するようにしてもよい。その他の頭部装着型表示装置HMの細部構成についても任意に変更可能であることは勿論である。
Further, for example, the indicator may be a device worn on the user's finger in addition to the user's finger or operation device, and the input detection unit 142 may detect the position of this device. Specifically, the configuration may be such that the user wears a ring-type instrument on his / her finger and the head-mounted display device HM takes a picture with the camera 61 to detect the position and inclination of the ring-type instrument. In this case, the image of the ring-type device can be extracted from the captured image data of the camera 61, and the position and inclination of the ring-type device can be detected based on the shape (ellipse or circle) and size of the image of the ring-type device. . Alternatively, a configuration may be adopted in which a glove-like detection device is attached to the user's hand, and the head-mounted display device HM detects the position and inclination of the detection device.
The display device of the present invention is not limited to the head-mounted display device described above, and can be applied to various display devices such as a flat panel display and a projector.
Furthermore, it is not limited to the structure which memorize | stores the program which the control part 140 performs in the memory | storage part 120, for example, the said program is a computer-readable portable recording medium, the memory | storage device externally connected to the control apparatus 10, or The program may be stored in a device connected to the control device 10 via a wired or wireless communication line, and the control device 10 may read and execute the program as necessary. Of course, the detailed configuration of the other head-mounted display device HM can be arbitrarily changed.

10…制御装置、14…タッチパッド、16…十字キー、20…画像表示部、20A…調光板、22…右表示駆動部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、61…カメラ、120…記憶部、122…操作検出用データ、124…入力補助画像データ、140…制御部、142…入力検出部(入力手段)、144…距離検出部(距離検出手段)、146…入力補助画像処理部(表示制御手段)、160…画像処理部、190…表示制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板(光学部材)、262…左導光板(光学部材)、262A…面、301…仮想キーボード、302、303、309…仮想入力ボード、302A…指示領域、305、308…入力ボックス、306…入力内容表示部、307…アプリケーション画面、M…頭部装着型表示装置(表示装置)、L…画像光、OL…外光。   DESCRIPTION OF SYMBOLS 10 ... Control apparatus, 14 ... Touch pad, 16 ... Cross key, 20 ... Image display part, 20A ... Light control board, 22 ... Right display drive part, 24 ... Left display drive part, 26 ... Right optical image display part, 28 DESCRIPTION OF SYMBOLS ... Left optical image display part, 61 ... Camera, 120 ... Memory | storage part, 122 ... Operation detection data, 124 ... Input auxiliary image data, 140 ... Control part, 142 ... Input detection part (input means), 144 ... Distance detection part (Distance detection means), 146 ... input auxiliary image processing section (display control means), 160 ... image processing section, 190 ... display control section, 221 ... right backlight, 222 ... left backlight, 241 ... right LCD, 242 ... Left LCD, 251 ... right projection optical system, 252 ... left projection optical system, 261 ... right light guide plate (optical member), 262 ... left light guide plate (optical member), 262A ... surface, 301 ... virtual keyboard, 302, 303, 3 9 ... Virtual input board, 302A ... Instruction area, 305, 308 ... Input box, 306 ... Input content display section, 307 ... Application screen, M ... Head-mounted display device (display device), L ... Image light, OL ... Outside light.

Claims (11)

外光に画像光を重ねて出力し、画像を視認させる表示手段と、
前記画像に操作エリアを配置して前記表示手段に表示させる表示制御手段と、
前記操作エリアに対応する位置指示操作を受け付ける入力手段と、を備え、
前記表示制御手段は前記画像における前記操作エリアの態様を変更可能であること、
を特徴とする表示装置。
Display means for superimposing and outputting image light on external light to visually recognize the image;
Display control means for arranging an operation area on the image and displaying the operation area on the display means;
Input means for receiving a position instruction operation corresponding to the operation area,
The display control means can change a mode of the operation area in the image;
A display device.
請求項1記載の表示装置であって、
前記表示制御手段は、前記位置指示操作が行われる仮想入力面までの距離に応じて、前記操作エリアの態様を変更することを特徴とする表示装置。
The display device according to claim 1,
The display control means, wherein the display control unit changes a mode of the operation area according to a distance to a virtual input surface on which the position instruction operation is performed.
請求項2記載の表示装置であって、
前記仮想入力面までの距離を検出する距離検出手段を備え、
前記表示制御手段は、前記距離検出手段により検出された距離に応じて、前記操作エリアの態様を変更することを特徴とする表示装置。
The display device according to claim 2,
A distance detecting means for detecting a distance to the virtual input surface;
The display control unit changes a mode of the operation area according to the distance detected by the distance detection unit.
請求項3記載の表示装置であって、
前記距離検出手段は、前記外光により視認される面を検出し、この面までの距離を検出することを特徴とする表示装置。
The display device according to claim 3,
The distance detecting means detects a surface visually recognized by the external light and detects a distance to the surface.
請求項1ないし4のいずれか一項記載の表示装置であって、
前記表示制御手段は、前記位置指示操作をガイドする入力補助画像を含む前記操作エリアを配置し、前記入力補助画像のサイズ、表示色、表示領域の少なくともいずれかを変更することを特徴とする表示装置。
The display device according to any one of claims 1 to 4,
The display control means arranges the operation area including an input auxiliary image for guiding the position indicating operation, and changes at least one of a size, a display color, and a display area of the input auxiliary image. apparatus.
請求項5記載の表示装置であって、
前記表示手段は、マトリクス状に配置された複数の画素により前記画像を形成し、
前記表示制御手段は、前記入力補助画像のサイズを変更する場合、前記入力補助画像を構成する画素数を変更することを特徴とする表示装置。
The display device according to claim 5,
The display means forms the image with a plurality of pixels arranged in a matrix,
The display control means, when changing the size of the input auxiliary image, changes the number of pixels constituting the input auxiliary image.
請求項6記載の表示装置であって、
前記表示制御手段は、前記入力補助画像として複数の補助線を含む画像を前記表示手段により表示させ、前記補助線の間隔を変更することを特徴とする表示装置。
The display device according to claim 6,
The display control unit displays an image including a plurality of auxiliary lines as the input auxiliary image by the display unit, and changes an interval between the auxiliary lines.
請求項1ないし7のいずれか一項記載の表示装置であって、
前記表示制御手段は、前記入力補助画像として、前記位置指示操作により文字入力を行うための仮想キーボードの画像を前記表示手段により表示させ、前記仮想キーボードの表示サイズ、表示色、表示領域の少なくともいずれかを変更することを特徴とする表示装置。
The display device according to any one of claims 1 to 7,
The display control means causes the display means to display an image of a virtual keyboard for performing character input by the position instruction operation as the input auxiliary image, and at least one of display size, display color, and display area of the virtual keyboard. A display device characterized by changing the above.
請求項1ないし8のいずれか一項記載の表示装置であって、
前記表示制御手段は、前記入力手段により受け付けた操作位置に対応する位置で前記操作エリアの表示態様を変化させることを特徴とする表示装置。
A display device according to any one of claims 1 to 8,
The display device, wherein the display control unit changes a display mode of the operation area at a position corresponding to the operation position received by the input unit.
請求項1ないし9のいずれか一項記載の表示装置であって、
前記表示装置は、使用者に画像を視認させる頭部装着型表示装置であり、
前記表示手段は、
表示用画像データを用いて画像を表す画像光を生成し射出させる画像光生成部と、
射出された前記画像光を前記使用者の眼に導く光学部材と、
を含み、
前記外光は前記光学部材を透過して前記画像光とともに前記使用者の眼に入射することを特徴とする表示装置。
The display device according to any one of claims 1 to 9,
The display device is a head-mounted display device that allows a user to visually recognize an image,
The display means includes
An image light generation unit that generates and emits image light representing an image using display image data;
An optical member for guiding the emitted image light to the eyes of the user;
Including
The display device, wherein the external light passes through the optical member and enters the user's eyes together with the image light.
外光に画像光を重ねて出力し、画像を視認させるシースルー型の表示装置の制御方法であって、
前記画像に操作エリアを配置し、前記操作エリアに対応する位置における位置指示操作を受け付け、
前記画像における前記操作エリアの態様を変更すること、
を特徴とする表示装置の制御方法。
A control method for a see-through display device that outputs image light superimposed on external light and visually recognizes the image,
An operation area is arranged on the image, and a position instruction operation at a position corresponding to the operation area is accepted.
Changing the mode of the operation area in the image;
A control method of a display device characterized by the above.
JP2017051591A 2017-03-16 2017-03-16 Display device and control method of display device Expired - Fee Related JP6350705B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017051591A JP6350705B2 (en) 2017-03-16 2017-03-16 Display device and control method of display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017051591A JP6350705B2 (en) 2017-03-16 2017-03-16 Display device and control method of display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012286584A Division JP6111659B2 (en) 2012-12-28 2012-12-28 Display device and control method of display device

Publications (2)

Publication Number Publication Date
JP2017139000A true JP2017139000A (en) 2017-08-10
JP6350705B2 JP6350705B2 (en) 2018-07-04

Family

ID=59564962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017051591A Expired - Fee Related JP6350705B2 (en) 2017-03-16 2017-03-16 Display device and control method of display device

Country Status (1)

Country Link
JP (1) JP6350705B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075978A (en) * 1993-06-18 1995-01-10 Sony Corp Input device
JPH0778055A (en) * 1993-06-25 1995-03-20 Casio Comput Co Ltd Data processing device
JP2008009490A (en) * 2006-06-27 2008-01-17 Konica Minolta Holdings Inc Information input device
JP2008185609A (en) * 2007-01-26 2008-08-14 Sony Corp Display device and display method
JP2009033592A (en) * 2007-07-30 2009-02-12 Kyocera Mita Corp Image forming device
JP2011128220A (en) * 2009-12-15 2011-06-30 Toshiba Corp Information presenting device, information presenting method, and program
JP2011209965A (en) * 2010-03-29 2011-10-20 Sony Corp Information processor, information processing method and program
JP2011243157A (en) * 2010-05-21 2011-12-01 Panasonic Corp Electronic apparatus, button size control method, and program
JP2012108793A (en) * 2010-11-18 2012-06-07 Nec Corp Information display system, device, method and program
JP2012248067A (en) * 2011-05-30 2012-12-13 Canon Inc Information input device, control method for the same and control program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075978A (en) * 1993-06-18 1995-01-10 Sony Corp Input device
JPH0778055A (en) * 1993-06-25 1995-03-20 Casio Comput Co Ltd Data processing device
JP2008009490A (en) * 2006-06-27 2008-01-17 Konica Minolta Holdings Inc Information input device
JP2008185609A (en) * 2007-01-26 2008-08-14 Sony Corp Display device and display method
JP2009033592A (en) * 2007-07-30 2009-02-12 Kyocera Mita Corp Image forming device
JP2011128220A (en) * 2009-12-15 2011-06-30 Toshiba Corp Information presenting device, information presenting method, and program
JP2011209965A (en) * 2010-03-29 2011-10-20 Sony Corp Information processor, information processing method and program
JP2011243157A (en) * 2010-05-21 2011-12-01 Panasonic Corp Electronic apparatus, button size control method, and program
JP2012108793A (en) * 2010-11-18 2012-06-07 Nec Corp Information display system, device, method and program
JP2012248067A (en) * 2011-05-30 2012-12-13 Canon Inc Information input device, control method for the same and control program

Also Published As

Publication number Publication date
JP6350705B2 (en) 2018-07-04

Similar Documents

Publication Publication Date Title
JP6111659B2 (en) Display device and control method of display device
JP6089705B2 (en) Display device and control method of display device
JP5884576B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6149403B2 (en) Display device and control method of display device
JP6232763B2 (en) Head-mounted display device and method for controlling head-mounted display device
US10140768B2 (en) Head mounted display, method of controlling head mounted display, and computer program
US20150168729A1 (en) Head mounted display device
JP6264871B2 (en) Information processing apparatus and information processing apparatus control method
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
US20160187653A1 (en) Display device, and method of controlling display device
JP2015023381A (en) Transmission display device and control method of transmission display device
JP6036291B2 (en) Display device, display system, and display device control method
JP6459380B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP2016004340A (en) Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program
US20160021360A1 (en) Display device, method of controlling display device, and program
JP5990958B2 (en) Head-mounted display device
JP6394108B2 (en) Head-mounted display device, control method therefor, and computer program
JP6428024B2 (en) Display device, display device control method, and program
JP6350705B2 (en) Display device and control method of display device
JP6669183B2 (en) Head mounted display and control method of head mounted display
JP6217772B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6268704B2 (en) Display device, display device control method, and program
JP6308249B2 (en) Head-mounted display device and method
JP2013201636A (en) Electronic apparatus
JP2014127968A (en) Display device and control method for display device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R150 Certificate of patent or registration of utility model

Ref document number: 6350705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees