以下、本発明の一実施形態による情報入出力装置及び頭部装着表示装置について、図面を参照して説明する。
以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
Hereinafter, an information input / output device and a head-mounted display device according to an embodiment of the present invention will be described with reference to the drawings.
In the following description, an XYZ orthogonal coordinate system is set as necessary, and the positional relationship of each part will be described with reference to this XYZ orthogonal coordinate system. A predetermined direction in the horizontal plane is defined as an X-axis direction, a direction orthogonal to the X-axis direction in the horizontal plane is defined as a Y-axis direction, and a direction orthogonal to each of the X-axis direction and the Y-axis direction (that is, a vertical direction) is defined as a Z-axis direction. Further, the rotation (inclination) directions around the X axis, Y axis, and Z axis are the θX, θY, and θZ directions, respectively.
図1は、本実施形態のヘッドマウントディスプレイの斜視図である。図2は、ヘッドマウントディスプレイを背面側から見た斜視図である。図3は、本実施形態のヘッドマウントディスプレイの装着形態を示す図である。
FIG. 1 is a perspective view of the head mounted display of the present embodiment. FIG. 2 is a perspective view of the head mounted display as viewed from the back side. FIG. 3 is a diagram showing a mounting form of the head mounted display of the present embodiment.
ヘッドマウントディスプレイ1(頭部装着表示装置)は、ディスプレイ本体20と、ユーザー(使用者)の頭部に装着されディスプレイ本体20を支持するヘッドバンド40(装着部)と、を備えた単眼式のヘッドマウントディスプレイである。本実施形態のヘッドマウントディスプレイ1は、図3に示すように、両眼どちらでも使用可能である。図3(A)には、ユーザーが右眼(右目)で表示部60を見ている状態、図3(B)には左眼(左目)で見ている状態が示されている。ここで、ヘッドバンド40は、ディスプレイ本体20をユーザーの頭部に装着する。
また、図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。
なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
The head-mounted display 1 (head-mounted display device) is a monocular type equipped with a display body 20 and a headband 40 (mounting part) that is mounted on the head of a user (user) and supports the display body 20. It is a head mounted display. The head mounted display 1 of the present embodiment can be used with both eyes as shown in FIG. 3A shows a state where the user is viewing the display unit 60 with the right eye (right eye), and FIG. 3B shows a state where the user is viewing with the left eye (left eye). Here, the headband 40 attaches the display body 20 to the user's head.
As shown in FIG. 2, the display main body 20 and the headband 40 are configured to be detachable via a connecting pin 41.
1 and 2, the longitudinal direction of the display main body 20 is defined as the Y-axis direction, and the direction in which the headband 40 sandwiches the user's head is defined as the X-axis direction.
以下、ヘッドマウントディスプレイ1の各部の構成について詳細に説明する。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インタフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
Hereinafter, the configuration of each part of the head mounted display 1 will be described in detail.
The display main body 20 includes a device main body 21 that includes a main circuit and includes an operation unit and various interfaces, and a display unit 60 that is connected to the tip of the device main body 21.
装置本体部21は、概略板状の筐体21A(図4)を有する。本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。
The apparatus main body 21 has a substantially plate-shaped casing 21A (FIG. 4). In the present embodiment, an end portion (+ Y side end portion) on the side where the connection portion with the headband 40 is provided in the apparatus main body portion 21 is a base end portion, and an end portion on the opposite side of the base end portion ( The end on the -Y side) is the tip. Further, in a state where the apparatus main body 21 is attached to the headband 40, the headband 40 side (+ X side) of the apparatus main body 21 is the inside, and the opposite side (−X side) from the headband 40 is the outside.
装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ34と、集音マイク24とが、筐体21Aの長手方向に沿って配置されている。
メインスイッチ28は、ディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりヘッドマウントディスプレイ1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
As shown in FIG. 1, a main switch 28, a touch switch 34, and a sound collecting microphone 24 are arranged on the outer surface of the apparatus main body 21 along the longitudinal direction of the housing 21A.
The main switch 28 is a switch for performing an on / off operation of the display main body 20. The touch switch 34 is a touch panel that can perform various operations of the head mounted display 1 by touching the surface with a finger or the like. The sound collection microphone 24 is an external microphone that collects environmental sounds.
装置本体部21内面の基端部側に、図2に示すように、耳元スピーカー23と、オーディオコネクター26と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内面の中央部に心拍数センサー137が設けられている。装置本体部21の内側面の先端部には通話マイク37が設けられている。
As shown in FIG. 2, an ear speaker 23, an audio connector 26, and a headband hinge 32 having a connection hole 31 are provided on the base end side of the inner surface of the apparatus main body 21. A heart rate sensor 137 is provided at the center of the inner surface of the apparatus main body 21. A call microphone 37 is provided at the tip of the inner side surface of the apparatus main body 21.
耳元スピーカー23は、ユーザーの耳の近傍に配置される。耳元スピーカー23からユーザーに音声情報が伝えられる。オーディオコネクター26は、例えば図6に示すイヤホンが接続される音声入出力端子である。ヘッドバンドヒンジ32は、ヘッドバンド40とのジョイント部である。通話マイク37にはユーザーの音声が入力される。
The ear speaker 23 is disposed in the vicinity of the user's ear. Audio information is transmitted from the ear speaker 23 to the user. The audio connector 26 is an audio input / output terminal to which, for example, the earphone shown in FIG. 6 is connected. The headband hinge 32 is a joint part with the headband 40. The voice of the user is input to the call microphone 37.
心拍数センサー137は、ユーザーの顔の表面に接触させることでユーザーの心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、ユーザーの皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数をカウントする。心拍数センサー137はユーザーの目の近くに配置されるが、発光部から赤外域の光を射出させる構成とすればユーザーにまぶしさを感じさせることはない。
The heart rate sensor 137 is a sensor that measures a user's heart rate by contacting the surface of the user's face. The heart rate sensor 137 includes a light emitting unit including a light emitting diode and the like, and a light receiving unit that detects light reflected inside the user's skin. The heart rate sensor 137 counts the heart rate by detecting a change in the amount of reflected light due to a change in blood flow. The heart rate sensor 137 is disposed near the user's eyes, but if the configuration is such that infrared light is emitted from the light emitting unit, the user will not feel glare.
装置本体部21の基端部側の側端面には、USBコネクター25と、操作スイッチ30と、ビデオコネクター27とが設けられている。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば、図5に示すリモコン(リモートコントローラー)140が接続される。
A USB connector 25, an operation switch 30, and a video connector 27 are provided on the side end surface of the apparatus main body 21 on the base end side.
The USB connector 25 is a connection terminal of a USB (Universal Serial Bus) device. In the present embodiment, for example, a remote controller (remote controller) 140 shown in FIG. 5 is connected.
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
The operation switch 30 is a pointing device such as a trackball or a stick. The operation switch 30 is provided so as to face the screen displayed on the display unit 60. As a result, the left-right direction of the operation on the operation switch 30 matches the left-right direction of the screen, so that the user can intuitively operate the operation switch 30 while looking at the screen.
The video connector 27 is a video input / output terminal.
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
As shown in FIG. 2, the headband 40 includes a pair of head pads (mounting members) 46 and 47 that sandwich the user's head, a first headband 43, a second headband 44, and a rotation mechanism 56. , 57.
第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。
The first headband 43 is an elastic member having an arc shape as a whole. A joint portion 43 a for bending the first headband 43 is provided on the top of the first headband 43. At both ends of the first headband 43, bearing portions 43b and 43c constituting the rotation mechanisms 56 and 57 are provided, respectively. Bearing portions 43d and 43e to which the head pads 46 and 47 are connected are provided further on the front end side of the band than the bearing portions 43b and 43c.
第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。
The second headband 44 is an elastic member having an arc shape as a whole. A joint portion 44 a for bending the second headband 44 is provided on the top of the second headband 44. At both ends of the second headband 44, shaft members 44b and 44c constituting rotation mechanisms 56 and 57 are provided.
また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48においてユーザーの頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。
In the present embodiment, the second headband 44 has a configuration in which the surface of the spring member 48 made of a metal such as stainless steel is covered with a flexible material such as a resin. The spring member 48 of the second headband 44 generates a spring force that holds the user's head. The second headband 44 is formed wider than the first headband 43. The formation part of the joint part 44a is a mark display part 49 formed wider than the other band parts. A product tag or the like is attached to the mark display section 49 by sticker or printing. The entire second headband 44 may be made of metal.
ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。
The head pad 46 includes a plate-like support plate 46a and an elastic member 46b having an arched cross section provided on one surface side of the support plate 46a. On the surface of the support plate 46a opposite to the elastic member 46b, a substantially hexagonal column-shaped connecting pin 41 is erected in a posture perpendicular to the surface. The connecting pin 41 is pivotally supported by a bearing portion 43 d provided at one end of the first headband 43. As a result, the head pad 46 can rotate around the connecting pin 41.
ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。
The head pad 47 includes a plate-like support plate 47a and an elastic member 47b having an arcuate cross section provided on one surface of the support plate 47a. A shaft member 47c is provided on the surface of the support plate 47a opposite to the elastic member 47b. The shaft member 47 c is pivotally supported by a bearing portion 43 e provided at the tip of the first headband 43. Thereby, the head pad 47 can rotate around the shaft member 47c.
図4は、ディスプレイ本体20の水平断面図である。
図4に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、不図示の制御回路、電源回路等が実装されており、不図示の配線を介してディスプレイ本体20の各部と電気的に接続されている。
FIG. 4 is a horizontal sectional view of the display body 20.
As shown in FIG. 4, the apparatus body 21 includes a plate-like circuit board 29 extending along the longitudinal direction of the housing 21 </ b> A and a battery 33. A control circuit, a power supply circuit, and the like (not shown) are mounted on the circuit board 29, and are electrically connected to each part of the display main body 20 via a wiring (not shown).
装置本体部21の外面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36及びバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。
A display panel 36 made of a liquid crystal panel and a backlight 35 are arranged inside the touch switch 34 exposed on the outer surface of the apparatus main body 21. In the present embodiment, the display image on the display panel 36 is displayed through the touch switch 34. The display panel 36 and the backlight 35 may be an organic EL panel or an electrophoresis panel.
ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部を有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。
The headband hinge 32 is a ball joint composed of a concavely curved housing portion 32a provided in the housing 21A and a spherical portion 32b fitted to the housing portion 32a. The spherical portion 32b has a spherical side surface portion and two plane portions formed in parallel to each other so as to sandwich the side surface portion. A connecting hole 31 is formed so as to penetrate the two flat portions vertically. The connection hole 31 is formed in a hexagonal shape when viewed in the axial direction. The display main body 20 and the headband 40 are connected by inserting the connection pin 41 of the headband 40 into the connection hole 31.
ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270°程度とされる。このX軸回りの回転動作により、図3(A)に示す右目で画像を観察する形態と、図3(B)に示す左目で画像を観察する形態との切替機能が実現される。
By providing the headband hinge 32, the display main body 20 can be rotated in the A direction (around the X axis centering on the headband hinge 32) shown in FIG. In the present embodiment, the rotatable range of the display body 20 is about 270 °. By the rotation operation around the X axis, a switching function between the form in which the image is observed with the right eye shown in FIG. 3A and the form in which the image is observed with the left eye shown in FIG. 3B is realized.
また、ヘッドバンドヒンジ32は、ボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることもできる。この揺動操作により、ディスプレイ本体20のユーザーの目や耳に対する位置を調整することができる。
Further, since the headband hinge 32 is a ball joint, the display main body 20 can be swung in the B direction (around the Z axis centering on the headband hinge 32) shown in FIG. By this swinging operation, the position of the display main body 20 relative to the user's eyes and ears can be adjusted.
ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、ヘッドマウントディスプレイ1の装着時にユーザーの顔の表面に当接可能とされている。バッテリー33は、充電式電池、使い捨て電池のいずれであってもよい。
The heart rate sensor 137 in the vicinity of the headband hinge 32 is provided so as to protrude from the inner surface of the apparatus main body 21, and can contact the surface of the user's face when the head mounted display 1 is worn. The battery 33 may be a rechargeable battery or a disposable battery.
表示部60は、図1及び図2に示すように、装置本体部21の先端部に連結されている。本実施形態において、表示部60のヘッドバンド40側を内側、ヘッドバンド40と反対側を外側とする。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64が設けられている。
As shown in FIGS. 1 and 2, the display unit 60 is connected to the distal end portion of the apparatus main body unit 21. In the present embodiment, the headband 40 side of the display unit 60 is the inside, and the side opposite to the headband 40 is the outside. The display unit 60 is an arm member that has a curved shape in a top view (Z-axis view), and has a shape that curves inward from the connecting portion with the apparatus main body 21 toward the distal end side. A finder opening 67 is provided on the inner surface of the display unit 60. A camera 64 is provided on the outer surface of the display unit 60.
図4に示すように、表示部60は、ディスプレイヒンジ61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。
As shown in FIG. 4, the display unit 60 is connected to the apparatus main body 21 via a display hinge 61. The display hinge 61 is a ball joint composed of a concave curved housing 61a formed in the housing 60A of the display 60 and a spherical portion 61b formed in the apparatus main body 21 and fitted in the housing 61a. .
装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面に、この傾斜面の法線方向(図4のY’軸方向)に突出するようにして設けられている。表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自由に回転させることができる。
The spherical portion 61b of the apparatus main body 21 has an inclined surface extending obliquely with respect to the longitudinal direction of the casing 21A formed at the front end of the outer surface of the apparatus main body 21, and the normal direction of the inclined surface (Y in FIG. 4). It is provided so as to protrude in the “axial direction”. The display unit 60 can be freely rotated around the Y ′ axis with respect to the spherical portion 61 b of the display hinge 61.
ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。
The spherical portion 61b of the display hinge 61 is formed with a through hole 61c that penetrates the spherical portion 61b in the height direction (Y′-axis direction). The inside of the display unit 60 and the inside of the apparatus main body unit 21 are communicated with each other through the through hole 61c. A cable (not shown) is inserted through the through hole 61c. The circuit board 29 and each part of the display unit 60 are electrically connected via the inserted cable.
表示部60の内部には、バックライト62と、表示パネル63と、カメラ64と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70と、結像レンズ71と、撮像素子72とが設けられている。すなわち、表示部60は、バックライト62、表示パネル63、カメラ64、プリズム65、反射ミラー66、前方ライト68、前方スピーカー70、結像レンズ71、及び撮像素子72を備えている。
Inside the display unit 60, there are a backlight 62, a display panel 63, a camera 64, a prism 65, a reflection mirror 66, a front light 68, a front speaker 70, an imaging lens 71, and an image sensor 72. And are provided. That is, the display unit 60 includes a backlight 62, a display panel 63, a camera 64, a prism 65, a reflection mirror 66, a front light 68, a front speaker 70, an imaging lens 71, and an image sensor 72.
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67の略正面に位置する。
The prism 65 has a configuration in which a substantially triangular first prism 65a and a second prism 65b are bonded to each other on a top view (Z-axis view). A display panel 63 made of a liquid crystal panel is provided at a position facing one of the other two surfaces of the first prism 65a other than the bonding surface. A backlight 62 that transmits and illuminates the display panel 63 is disposed on the back surface of the display panel 63. A reflection mirror 66 is disposed at a position facing the other surface of the first prism 65a. The reflection mirror 66 is positioned substantially in front of the finder opening 67.
第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。
Of the two surfaces other than the bonding surface of the second prism 65 b, one surface is a viewfinder eyepiece disposed in the viewfinder opening 67. An imaging element 72 is disposed opposite to the other surface of the second prism 65b via the imaging lens 71.
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ているユーザーの目元は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。撮像素子72を介して取得された目元の画像は、ユーザーの視線の方向や瞬き、表情の解析に用いられる。すなわち、撮像素子72は、ユーザーの目元を撮像する撮像部として機能する。バックライト62は、撮像素子72による目元撮像の照明装置としても利用される。
In the display unit 60, the image displayed on the display panel 63 is emitted from the finder opening 67 through the first prism 65a, the reflection mirror 66, and the second prism 65b, and is observed by the user. The eye of the user looking at the finder opening 67 is imaged on the image sensor 72 via the second prism 65 b and the imaging lens 71. The eye image acquired through the image sensor 72 is used for analyzing the direction of the user's line of sight, blinking, and facial expression. That is, the imaging element 72 functions as an imaging unit that images the user's eyes. The backlight 62 is also used as an illuminating device for imaging the eye using the image sensor 72.
カメラ64(撮像部)は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。
本実施形態の場合、カメラ64の撮像方向は、ユーザーの視線方向と一致するように設定される。すなわち、カメラ64は、ヘッドマウントディスプレイ1を装着したユーザーの視線方向の画像(映像)を撮像する。なお、撮像方向と視線方向との調整は、機械的に行ってもよく、画像処理により行ってもよい。例えば、カメラ64を広角の映像を取得可能に構成し、ユーザーの目元画像から取得した視線方向の情報に基づいて、電気的に捕らえた映像の一部を、視線方向の映像として抜き出して表示パネル63に表示させる。これにより、カメラ64に調整機構を設けることなくユーザー正面の映像(画像)の撮像、表示が可能となる。
The camera 64 (imaging unit) has, for example, an image sensor with 5 to 10 million pixels, and is configured to be able to perform an autofocus operation.
In the case of this embodiment, the imaging direction of the camera 64 is set so as to coincide with the user's line-of-sight direction. That is, the camera 64 captures an image (video) in the viewing direction of the user wearing the head mounted display 1. The adjustment between the imaging direction and the line-of-sight direction may be performed mechanically or by image processing. For example, the camera 64 is configured to be able to acquire a wide-angle image, and a part of the electrically captured image is extracted as an image in the line-of-sight direction based on the information on the line-of-sight direction acquired from the user's eye image. 63 is displayed. Thereby, it is possible to capture and display a video (image) in front of the user without providing an adjustment mechanism in the camera 64.
前方ライト68は、例えば、LED(Light Emitting Diode)ライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮像する際の照明装置として用いてもよい。
The front light 68 is, for example, an LED (Light Emitting Diode) light. The front light 68 may include red, green, and blue light emitting elements, and may be configured to emit any color at any timing. The front light 68 may be used as a device that displays information to the outside depending on the light emission color and the light emission timing, or may be used as an illumination device when taking an image with the camera 64.
図5は、本実施形態のヘッドマウントディスプレイ1に付属のリモコンを示す斜視図である。
リモコン140は、筐体140Aと、タッチパッド141と、操作スイッチ147と、USBコネクター142と、インジケーター143a、143b、143cと、取付クリップ144と、インジケータースイッチ150と、を備えている。
FIG. 5 is a perspective view showing a remote controller attached to the head mounted display 1 of the present embodiment.
The remote controller 140 includes a housing 140A, a touch pad 141, an operation switch 147, a USB connector 142, indicators 143a, 143b, and 143c, a mounting clip 144, and an indicator switch 150.
リモコン140は、USBケーブル148の一方の端子をUSBコネクター142に接続し、他方の端子を装置本体部21のUSBコネクター25に接続することで、装置本体部21と電気的に接続される。USBケーブル148としては市販のUSBケーブルを用いることができる。本実施形態の場合、USBケーブル148の途中に複数のクリップ149が設けられている。複数のクリップ149は、例えばUSBケーブル148を第2ヘッドバンド44に沿わせた状態で固定するために用いることができる。
The remote controller 140 is electrically connected to the apparatus main body 21 by connecting one terminal of the USB cable 148 to the USB connector 142 and connecting the other terminal to the USB connector 25 of the apparatus main body 21. A commercially available USB cable can be used as the USB cable 148. In the present embodiment, a plurality of clips 149 are provided in the middle of the USB cable 148. The plurality of clips 149 can be used to fix the USB cable 148 along the second headband 44, for example.
リモコン140には、ディスプレイ本体20や他の電子機器と無線通信を行うための通信回路が内蔵されている。通信回路の通信方式としては、例えば、Bluetooth(登録商標)、無線LAN、赤外線通信、UWB(Ultra Wide Band)、Transfer Jetなどを用いることができる。かかる通信回路により、USBケーブル148を接続していなくてもディスプレイ本体20との通信が可能である。
The remote control 140 incorporates a communication circuit for performing wireless communication with the display main body 20 and other electronic devices. As a communication method of the communication circuit, for example, Bluetooth (registered trademark), wireless LAN, infrared communication, UWB (Ultra Wide Band), Transfer Jet, or the like can be used. With such a communication circuit, communication with the display main body 20 is possible even when the USB cable 148 is not connected.
リモコン140には、Gセンサーや加速度センサー、方位センサーが内蔵されていてもよい。これらのセンサーで検出した情報についても、上記した通信回路を介してディスプレイ本体20へ通信可能である。
The remote control 140 may incorporate a G sensor, an acceleration sensor, and a direction sensor. Information detected by these sensors can also be communicated to the display body 20 via the communication circuit described above.
タッチパッド141は、筐体140Aの一方の主面に設けられている。タッチパッド141は、ユーザーがタッチすることによりディスプレイ本体20を操作するための操作部である。タッチパッド141の背面側の筐体140A内部には、装置本体部21のタッチスイッチ34と同様に表示パネルやバックライトが設けられていてもよい。
The touch pad 141 is provided on one main surface of the housing 140A. The touch pad 141 is an operation unit for operating the display main body 20 when the user touches. A display panel and a backlight may be provided in the housing 140 </ b> A on the back side of the touch pad 141, similarly to the touch switch 34 of the apparatus main body 21.
操作スイッチ147は、リモコン140やディスプレイ本体20を手動操作するためのスイッチである。操作スイッチ147は、必要に応じて設けられていればよい。筐体140Aの側面に設けられたインジケータースイッチ150は、インジケーター143a〜143cを利用した所定動作を行わせるためのスイッチである。
The operation switch 147 is a switch for manually operating the remote controller 140 and the display main body 20. The operation switch 147 may be provided as necessary. The indicator switch 150 provided on the side surface of the housing 140A is a switch for performing a predetermined operation using the indicators 143a to 143c.
USBコネクター142は、装置本体部21との接続のほか、リモコン140が充電式のバッテリーを内蔵している場合にはリモコン140の充電端子や、PCとの接続にも用いられる。
また、USBコネクター142は、リモコン140がバッテリーを内蔵している場合には、装置本体部21への給電端子として用いることもできる。リモコン140のバッテリーを補助電源として使用可能にすることで、ヘッドマウントディスプレイ1は、装置本体部21のバッテリー容量を小さくでき、装置本体部21を小型軽量化することができる。
The USB connector 142 is used not only for connection with the apparatus main body 21 but also for connection with a charging terminal of the remote control 140 or a PC when the remote control 140 has a built-in rechargeable battery.
Further, the USB connector 142 can also be used as a power supply terminal to the apparatus main body 21 when the remote control 140 has a built-in battery. By making the battery of the remote control 140 usable as an auxiliary power source, the head mounted display 1 can reduce the battery capacity of the device main body 21 and reduce the size and weight of the device main body 21.
インジケーター143a、143b、143cは、タッチパッド141の周囲に配置されている。本実施形態では、タッチパッド141の一辺に沿う位置にインジケーター143aが配置され、インジケーター143aに対してタッチパッド141を挟んだ反対側にインジケーター143bとインジケーター143cとが配置されている。
Indicators 143a, 143b, and 143c are arranged around the touch pad 141. In the present embodiment, the indicator 143a is arranged at a position along one side of the touch pad 141, and the indicator 143b and the indicator 143c are arranged on the opposite side of the touch pad 141 with respect to the indicator 143a.
インジケーター143a〜143cはLED等の発光素子を備えている。本実施形態では、インジケーター143aは緑色の発光素子、インジケーター143bはオレンジ色の発光素子、インジケーター143cは青色の発光素子をそれぞれ備えている。これらの発光素子は制御されたタイミングでパターン発光可能に構成されている。インジケーター143a〜143cの上記パターン発光は、筐体140A側面のインジケータースイッチ150を操作することでオンオフすることができる。
The indicators 143a to 143c include light emitting elements such as LEDs. In the present embodiment, the indicator 143a includes a green light emitting element, the indicator 143b includes an orange light emitting element, and the indicator 143c includes a blue light emitting element. These light emitting elements are configured to be capable of pattern light emission at controlled timing. The pattern light emission of the indicators 143a to 143c can be turned on and off by operating the indicator switch 150 on the side surface of the housing 140A.
取付クリップ144は、筐体140Aのタッチパッド141と反対側の面に設けられている。本実施形態の場合、取付クリップ144は、一端を筐体140Aに固定された側面視S形のバネ板部材である。取付クリップ144により、リモコン140をユーザーの衣服やベルト等に装着することができる。
The attachment clip 144 is provided on the surface of the housing 140A opposite to the touch pad 141. In the case of this embodiment, the attachment clip 144 is an S-shaped spring plate member having one end fixed to the housing 140A. With the attachment clip 144, the remote controller 140 can be attached to a user's clothes, belt, or the like.
また、ヘッドマウントディスプレイ1は、取付クリップ144によりヘッドパット47の近傍を挟むことで、ヘッドバンド40にリモコン140を取り付けてもよい。ヘッドバンド40のヘッドパット46にディスプレイ本体20を取り付ける一方、ヘッドパット47側にリモコン140を取り付けることで、ヘッドマウントディスプレイ1における重量バランスの不均衡を低減することができる。
Further, the head mounted display 1 may attach the remote control 140 to the headband 40 by sandwiching the vicinity of the head pad 47 with the attachment clip 144. By attaching the display main body 20 to the head pad 46 of the headband 40 and attaching the remote controller 140 to the head pad 47 side, it is possible to reduce the imbalance in the weight balance in the head mounted display 1.
また、リモコン140をユーザーが手に持って操作スイッチ147を操作することで、インジケーター143a〜143cは、所定のパターンで点滅するように構成されている。例えば、インジケーター143aの色は緑、インジケーター143bはオレンジ、インジケーター143cは青色となっており、この3つのインジケーターの発光パターンを表示部60に設けられたカメラ64で捕らえることにより、リモコン140の上下左右の傾きを認識することが可能となっている。ここ結果、リモコン140とディスプレイ本体20とで後述するBluetooth(登録商標)による通信を行うことなく、すなわち消費電力を最小に押さえつつリモコン140の操作状態を本体側に伝えることが可能である。
The indicators 143a to 143c are configured to blink in a predetermined pattern when the user operates the operation switch 147 with the user holding the remote control 140. For example, the color of the indicator 143a is green, the indicator 143b is orange, and the indicator 143c is blue. Can be recognized. As a result, the operation state of the remote controller 140 can be transmitted to the main body side without performing communication by Bluetooth (registered trademark), which will be described later, between the remote controller 140 and the display main body 20, that is, while suppressing power consumption to a minimum.
図6は、本実施形態のヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有している。
FIG. 6 is a perspective view showing a stereo earphone attached to the head mounted display of the present embodiment.
The stereo earphone 100 includes a connector 101, a cable 102, a first speaker 103, a second speaker 104, a sound collecting microphone 105, and a plurality of clips 106.
コネクター101は、ケーブル102の一方の端部に設けられている。コネクター101は、例えば、一般的な4極φ3.5mmのミニプラグである。4極の内訳は、集音マイク105、第1スピーカー103、第2スピーカー104、グランド(GND)である。ケーブル102は、コネクター101の近傍において二分岐され、分岐されたケーブルの先端に第1スピーカー103が設けられている。ケーブル102の他方の端部には、第2スピーカー104と集音マイク105とが設けられている。複数のクリップ106は、ケーブル102上に所定の間隔で配置されている。
The connector 101 is provided at one end of the cable 102. The connector 101 is, for example, a general 4-pole φ3.5 mm mini plug. The breakdown of the four poles is the sound collection microphone 105, the first speaker 103, the second speaker 104, and the ground (GND). The cable 102 is bifurcated in the vicinity of the connector 101, and a first speaker 103 is provided at the end of the branched cable. A second speaker 104 and a sound collecting microphone 105 are provided at the other end of the cable 102. The plurality of clips 106 are arranged on the cable 102 at a predetermined interval.
ステレオイヤホン100の第1スピーカー103は、ディスプレイ本体20が配置された側のユーザーの耳に装着され、第2スピーカー104は第1スピーカー103と反対側の耳に装着される。このとき、ケーブル102は、クリップ106によって第2ヘッドバンド44に固定することができる。
The first speaker 103 of the stereo earphone 100 is attached to the ear of the user on the side where the display main body 20 is arranged, and the second speaker 104 is attached to the ear on the opposite side to the first speaker 103. At this time, the cable 102 can be fixed to the second headband 44 by the clip 106.
また、ステレオイヤホン100の集音マイク105と、ディスプレイ本体20において筐体21Aの外側面に設けられた集音マイク24とにより、ステレオ録音が可能である。例えば、図3(A)に示すようにディスプレイ本体20が右眼側に配置されているとすれば、ディスプレイ本体20の集音マイク24はユーザーの右側の音を収集し、左耳に装着された集音マイク105はユーザーの左側の音を収集する。なお、ステレオイヤホン100の第1スピーカー103から右チャンネルの音声が出力され、第2スピーカー104からは左チャンネルの音声が出力される。
Further, stereo recording can be performed by the sound collecting microphone 105 of the stereo earphone 100 and the sound collecting microphone 24 provided on the outer surface of the housing 21 </ b> A in the display main body 20. For example, if the display main body 20 is arranged on the right eye side as shown in FIG. 3A, the sound collecting microphone 24 of the display main body 20 collects sounds on the right side of the user and is attached to the left ear. The sound collecting microphone 105 collects the sound on the left side of the user. Note that the right channel sound is output from the first speaker 103 of the stereo earphone 100, and the left channel sound is output from the second speaker 104.
一方、図3(B)に示すように左眼側にディスプレイ本体20が配置されている場合には、ディスプレイ本体20の集音マイク24がユーザーの左側の音を収集し、右耳に装着された集音マイク105がユーザーの右側の音を収集する。ステレオイヤホン100の第1スピーカー103から左チャンネルの音声が出力され、第2スピーカー104からは右チャンネルの音声が出力される。
On the other hand, when the display main body 20 is arranged on the left eye side as shown in FIG. 3B, the sound collecting microphone 24 of the display main body 20 collects the sound of the left side of the user and is attached to the right ear. The sound collecting microphone 105 collects the sound on the right side of the user. The left channel sound is output from the first speaker 103 of the stereo earphone 100, and the right channel sound is output from the second speaker 104.
図7は、ヘッドマウントディスプレイ1の機能ブロック図である。
ヘッドマウントディスプレイ1は、処理部123を中心として種々の電気回路を備えている。ヘッドマウントディスプレイ1は、例えば、バックライト62、表示パネル63、カメラ64、撮像素子72、デコーダー121、フラッシュメモリー122、処理部123、LCDドライバ125、BLドライバ126、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、タッチスイッチ34、BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138を備えている。
なお、本実施形態において、カメラ64、撮像素子72、処理部123、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、タッチスイッチ34、BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138が入出力装置200(情報入出力装置)に対応する。すなわち、入出力装置200は、カメラ64、撮像素子72、処理部123、メモリー127、エンコーダー129、メインスイッチ28、操作スイッチ30、タッチスイッチ34、BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138を備えている。
FIG. 7 is a functional block diagram of the head mounted display 1.
The head mounted display 1 includes various electric circuits centering on the processing unit 123. The head mounted display 1 includes, for example, a backlight 62, a display panel 63, a camera 64, an image sensor 72, a decoder 121, a flash memory 122, a processing unit 123, an LCD driver 125, a BL driver 126, a memory 127, an encoder 129, and a main switch. 28, an operation switch 30, a touch switch 34, a BT communication circuit 130, a WiFi communication circuit 131, and a 3G / LTE communication circuit 138.
In the present embodiment, the camera 64, the image sensor 72, the processing unit 123, the memory 127, the encoder 129, the main switch 28, the operation switch 30, the touch switch 34, the BT communication circuit 130, the WiFi communication circuit 131, and 3G / LTE. The communication circuit 138 corresponds to the input / output device 200 (information input / output device). That is, the input / output device 200 includes a camera 64, an image sensor 72, a processing unit 123, a memory 127, an encoder 129, a main switch 28, an operation switch 30, a touch switch 34, a BT communication circuit 130, a WiFi communication circuit 131, and 3G / An LTE communication circuit 138 is provided.
処理部123は、例えば、CPU(Central Processing Unit)であり、ヘッドマウントディスプレイ1の各種回路と接続されるとともに、ヘッドマウントディスプレイ1を総合的に制御する。処理部123の詳細については、後述する。
本実施形態の場合、エンコーダー129、デコーダー121、電源回路120、操作スイッチ30、フラッシュメモリー122、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発振器73、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137、BLドライバ126、メモリー127、メインスイッチ28、及びタッチスイッチ34は、処理部123に接続されている。
The processing unit 123 is, for example, a CPU (Central Processing Unit), and is connected to various circuits of the head mounted display 1 and comprehensively controls the head mounted display 1. Details of the processing unit 123 will be described later.
In the case of the present embodiment, the encoder 129, the decoder 121, the power supply circuit 120, the operation switch 30, the flash memory 122, the BT communication circuit 130, the WiFi communication circuit 131, the acceleration sensor 132, the geomagnetic sensor 133, the front light 68, and 3G / LTE communication. The circuit 138, laser oscillator 73, angular velocity sensor 134, GPS sensor 135, temperature / humidity sensor 136, heart rate sensor 137, BL driver 126, memory 127, main switch 28, and touch switch 34 are connected to the processing unit 123. .
エンコーダー129は、音声信号及び映像信号を所定方式の音声データ及び映像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。
The encoder 129 encodes (encodes) the audio signal and the video signal into audio data and video data of a predetermined method. Connected to the encoder 129 are a camera 64, an image sensor 72, a sound collection microphone 24, a call microphone 37, an audio connector 26, and a video connector 27.
エンコーダー129は、集音マイク24、通話マイク37、及び、オーディオコネクター26から供給される音声信号をエンコード(符号化)し、エンコードした音声信号を処理部123に供給する。また、エンコーダー129は、カメラ64、ユーザーの目元を撮像する撮像素子72、及びビデオコネクター27から入力される映像(画像)信号をエンコード(符号化)し、エンコードした映像(画像)信号を処理部123に供給する。
The encoder 129 encodes the audio signal supplied from the sound collection microphone 24, the call microphone 37, and the audio connector 26, and supplies the encoded audio signal to the processing unit 123. The encoder 129 encodes (encodes) a video (image) signal input from the camera 64, the image sensor 72 that captures the user's eyes, and the video connector 27, and processes the encoded video (image) signal. 123.
デコーダー121は、音声データ及び映像データを音声信号及び映像信号にデコード(復号化)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、及びビデオコネクター27が接続されている。すなわち、デコーダー121は、音声データを音声信号にデコード(復号化)し、デコードした音声信号をスピーカーアンプ162又はオーディオコネクター26に供給する。また、デコーダー121は、映像(画像)データを映像(画像)信号にデコード(復号化)し、デコードした映像信号をLCDドライバ125又はビデオコネクター27に供給する。
The decoder 121 decodes (decodes) audio data and video data into audio signals and video signals. An LCD driver 125, a speaker amplifier 162, an audio connector 26, and a video connector 27 are connected to the decoder 121. That is, the decoder 121 decodes the audio data into an audio signal, and supplies the decoded audio signal to the speaker amplifier 162 or the audio connector 26. The decoder 121 decodes (decodes) video (image) data into a video (image) signal, and supplies the decoded video signal to the LCD driver 125 or the video connector 27.
LCDドライバ125は、例えば、液晶パネル用の駆動信号を生成する回路であり、表示パネル36及び表示パネル63に接続されている。すなわち、LCDドライバ125は、処理部123からデコーダー121を介して供給された映像(画像)信号に基づいて液晶パネル用の駆動信号を生成し、生成した液晶パネル用の駆動信号を表示パネル36又は表示パネル63に供給する。
表示パネル63(表示部)は、例えば、液晶表示パネルであり、LCDドライバ125から供給される駆動信号に基づいて、映像(画像)を表示する。表示パネル63は、例えば、カメラ64によって撮像された画像、及びメニュー画面などを表示する。
The LCD driver 125 is a circuit that generates a driving signal for a liquid crystal panel, for example, and is connected to the display panel 36 and the display panel 63. That is, the LCD driver 125 generates a drive signal for the liquid crystal panel based on the video (image) signal supplied from the processing unit 123 via the decoder 121, and the generated drive signal for the liquid crystal panel is displayed on the display panel 36 or This is supplied to the display panel 63.
The display panel 63 (display unit) is, for example, a liquid crystal display panel, and displays a video (image) based on a drive signal supplied from the LCD driver 125. The display panel 63 displays, for example, an image captured by the camera 64 and a menu screen.
BLドライバ126は、例えば、バックライト用の駆動信号を生成する回路であり、バックライト35及びバックライト62に接続されている。すなわち、BLドライバ126は、処理部123から供給された制御信号に基づいて、バックライト用の駆動信号を生成し、生成したバックライト用の駆動信号をバックライト35及びバックライト62に供給する。
The BL driver 126 is a circuit that generates a drive signal for backlight, for example, and is connected to the backlight 35 and the backlight 62. That is, the BL driver 126 generates a backlight driving signal based on the control signal supplied from the processing unit 123, and supplies the generated backlight driving signal to the backlight 35 and the backlight 62.
バッテリー33は、電源回路120を介してヘッドマウントディスプレイ1の各部に電力を供給する。
電源回路120は、処理部123から供給される制御信号に基づいて、バッテリー33から供給された電力の制御(例えば、電圧の変換、供給オンオフ)を行う。
The battery 33 supplies power to each part of the head mounted display 1 via the power supply circuit 120.
The power supply circuit 120 controls the power supplied from the battery 33 (for example, voltage conversion, supply on / off) based on the control signal supplied from the processing unit 123.
スピーカーアンプ162は、例えば、音声信号を増幅してスピーカーに出力する回路であり、耳元スピーカー23及び前方スピーカー70に接続されている。スピーカーアンプ162は、処理部123からデコーダー121を介して供給された音声信号を増幅し、増幅した音声信号を耳元スピーカー23又は前方スピーカー70に供給する。
The speaker amplifier 162 is, for example, a circuit that amplifies an audio signal and outputs the amplified signal to the speaker, and is connected to the ear speaker 23 and the front speaker 70. The speaker amplifier 162 amplifies the audio signal supplied from the processing unit 123 via the decoder 121 and supplies the amplified audio signal to the ear speaker 23 or the front speaker 70.
本実施形態の場合、耳元スピーカー23及び前方スピーカー70は、モノラル音声の使用を想定しており、耳元スピーカー23及び前方スピーカー70は、左右の音声信号が合成された音を出力する。
メモリー127は、処理部123によって実行される制御プログラムを記憶している。
In the present embodiment, the ear speaker 23 and the front speaker 70 are assumed to use monaural sound, and the ear speaker 23 and the front speaker 70 output a sound in which left and right audio signals are synthesized.
The memory 127 stores a control program executed by the processing unit 123.
メインスイッチ28は、全体の電源のオンオフを行うスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
操作スイッチ30は、画面内でのポインティング操作を行うためのスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
タッチスイッチ34は、タッチ操作により各種操作を行うスイッチであり、ユーザーが操作することにより、操作に基づく制御信号を処理部123に供給する。
なお、ディスプレイ本体20は、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を備えており、ディスプレイ本体20は、ユーザーの身体における右側及び左側のいずれかの位置に装着可能である。そのため、ディスプレイ本体20は、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34は、ユーザーの身体における右側及び左側のいずれかの位置に装着可能であって、情報入出力装置を操作する。
The main switch 28 is a switch for turning on and off the entire power supply, and supplies a control signal based on the operation to the processing unit 123 when operated by a user.
The operation switch 30 is a switch for performing a pointing operation on the screen, and supplies a control signal based on the operation to the processing unit 123 when operated by a user.
The touch switch 34 is a switch that performs various operations by a touch operation, and supplies a control signal based on the operation to the processing unit 123 when operated by a user.
The display main body 20 includes a main switch 28, an operation switch 30, and a touch switch 34. The display main body 20 can be mounted on either the right side or the left side of the user's body. For this reason, the main display switch 20, the operation switch 30, and the touch switch 34 of the display main body 20 can be mounted on either the right side or the left side of the user's body, and operate the information input / output device.
BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。
WiFi通信回路131(通信部)は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。
3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。
BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138は、他の機器との間で、音声データや映像(画像)データなどの情報の送信/受信を行う。
The BT communication circuit 130 is a communication circuit for performing Bluetooth (registered trademark) communication with other devices.
The WiFi communication circuit 131 (communication unit) is a communication circuit for performing wireless LAN communication (IEEE 802.11) with other devices.
The 3G / LTE communication circuit 138 is a communication circuit for performing mobile communication with other devices.
The BT communication circuit 130, the WiFi communication circuit 131, and the 3G / LTE communication circuit 138 transmit / receive information such as audio data and video (image) data to / from other devices.
加速度センサー132(Gセンサー)は、加速度情報(例えば、加速度及び重力)を検出し、ヘッドマウントディスプレイ1の傾き検出に用いられる。加速度センサー132は、検出した加速度情報を処理部123に供給する。
地磁気センサー133は、地磁気に基づいて方位情報を検出し、ヘッドマウントディスプレイ1の方角検出に用いられる。地磁気センサー133は、検出した方位情報を処理部123に供給する。
The acceleration sensor 132 (G sensor) detects acceleration information (for example, acceleration and gravity) and is used for detecting the tilt of the head mounted display 1. The acceleration sensor 132 supplies the detected acceleration information to the processing unit 123.
The geomagnetic sensor 133 detects azimuth information based on geomagnetism, and is used for detecting the direction of the head mounted display 1. The geomagnetic sensor 133 supplies the detected azimuth information to the processing unit 123.
角速度センサー134(ジャイロセンサー)は、角速度を検出し、ヘッドマウントディスプレイ1の回転検出に用いられる。角速度センサー134は、検出した角速度を処理部123に供給する。
GPSセンサー135は、GPS(Global Positioning System)を利用した測位検出に用いられ、ヘッドマウントディスプレイ1の緯度経度を測定する。GPSセンサー135は、測定したヘッドマウントディスプレイ1の緯度経度を処理部123に供給する。
The angular velocity sensor 134 (gyro sensor) detects the angular velocity and is used for detecting the rotation of the head mounted display 1. The angular velocity sensor 134 supplies the detected angular velocity to the processing unit 123.
The GPS sensor 135 is used for positioning detection using GPS (Global Positioning System), and measures the latitude and longitude of the head mounted display 1. The GPS sensor 135 supplies the measured latitude and longitude of the head mounted display 1 to the processing unit 123.
温湿度センサー136は、環境の温度、及び湿度を検出する。温湿度センサー136は、検出した環境の温度、及び湿度を処理部123に供給する。
心拍数センサー137は、ユーザーの頬に接触し、ユーザーの心拍数を検出する。すなわち、心拍数センサー137は、ヘッドマウントディスプレイ1がユーザーに装着されているか否かを検出する。心拍数センサー137は、検出したユーザーの心拍数を処理部123に供給する。
レーザー発振器73は、上述したように表示パネル63に表示された画像内の所定の位置に対応するターゲット(対象物)にレーザー光(スポット光)を照射する。
The temperature / humidity sensor 136 detects the temperature and humidity of the environment. The temperature / humidity sensor 136 supplies the detected temperature and humidity of the environment to the processing unit 123.
The heart rate sensor 137 contacts the user's cheek and detects the user's heart rate. That is, the heart rate sensor 137 detects whether or not the head mounted display 1 is worn by the user. The heart rate sensor 137 supplies the detected user's heart rate to the processing unit 123.
As described above, the laser oscillator 73 irradiates the target (object) corresponding to a predetermined position in the image displayed on the display panel 63 with laser light (spot light).
カメラ64(撮像部)は、オートフォーカス動作が可能に構成されており、光学系641と撮像素子642とを備えている。また、カメラ64は、比較的深い被写界深度を有しており、例えば、1m(メートル)〜無限遠方まではいわゆるパンフォーカスとして扱うことも可能である。したがって、カメラ64は、無限遠方の被写体に合焦していたとしても、例えば、1m以内にある手に対して、この段階では厳密に手にピントが合っていないとしても、手の検出は可能となっている。
The camera 64 (imaging unit) is configured to be able to perform an autofocus operation, and includes an optical system 641 and an image sensor 642. The camera 64 has a relatively deep depth of field, and can be handled as a so-called pan focus from 1 m (meters) to infinity, for example. Therefore, even if the camera 64 is focused on a subject at infinity, for example, a hand within 1 m can be detected even if the hand is not precisely in focus at this stage. It has become.
光学系641は、例えば、複数のレンズを備え、被写体像である画像を撮像素子642の受光面に結像させる。なお、光学系641は、オートフォーカス動作の再に、処理部123から供給される制御信号に基づいてレンズが駆動され、画像を撮像素子642に合焦する。
撮像素子642は、例えば、CCDイメージセンサ(Charge Coupled Device Image Sensor)などの撮像素子であり、光学系641によって結像された画像を撮像する。撮像素子642は、例えば、光学系641によって結像された被写体像を電気信号に変換し、画像データとしてエンコーダー129に出力する。
The optical system 641 includes, for example, a plurality of lenses, and forms an image that is a subject image on the light receiving surface of the image sensor 642. In the optical system 641, the lens is driven based on a control signal supplied from the processing unit 123 and the image is focused on the image sensor 642 after the autofocus operation is resumed.
The image sensor 642 is an image sensor such as a CCD image sensor (Charge Coupled Device Image Sensor), for example, and captures an image formed by the optical system 641. For example, the image sensor 642 converts an object image formed by the optical system 641 into an electric signal and outputs the electric signal to the encoder 129 as image data.
処理部123は、上述したようにヘッドマウントディスプレイ1を総合的に制御する。処理部123は、例えば、集音マイク24、通話マイク37、又はオーディオコネクター26からエンコーダー129を介して供給された音声データをフラッシュメモリー122に記憶させる。処理部123は、例えば、集音マイク24、通話マイク37、又はオーディオコネクター26からエンコーダー129を介して供給された音声データをBT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介して他の機器に送信する。
また、処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データをフラッシュメモリー122に記憶させる。処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データを、LCDドライバ125を介して表示パネル63に表示させる。処理部123は、例えば、カメラ64、撮像素子72、又はビデオコネクター27からエンコーダー129を介して供給された映像(画像)データをBT通信回路130、WiFi通信回路131、又は3G/LTE通信回路138を介して他の機器に送信する。
The processing unit 123 comprehensively controls the head mounted display 1 as described above. For example, the processing unit 123 stores the audio data supplied from the sound collection microphone 24, the call microphone 37, or the audio connector 26 via the encoder 129 in the flash memory 122. For example, the processing unit 123 converts the audio data supplied from the sound collection microphone 24, the call microphone 37, or the audio connector 26 via the encoder 129 to the BT communication circuit 130, the WiFi communication circuit 131, or the 3G / LTE communication circuit 138. To other devices.
Further, the processing unit 123 stores, for example, video (image) data supplied from the camera 64, the image sensor 72, or the video connector 27 via the encoder 129 in the flash memory 122. For example, the processing unit 123 displays video (image) data supplied from the camera 64, the image sensor 72, or the video connector 27 via the encoder 129 on the display panel 63 via the LCD driver 125. For example, the processing unit 123 converts video (image) data supplied from the camera 64, the image sensor 72, or the video connector 27 via the encoder 129 into the BT communication circuit 130, the WiFi communication circuit 131, or the 3G / LTE communication circuit 138. Send to other devices via
また、映像データを再生する場合、処理部123は、フラッシュメモリー122に記録された映像(画像)データ、あるいはエンコーダー129から入力される映像(画像)データを、デコーダー121及びLCDドライバ125を介して表示パネル36、63に供給する。これにより、映像信号が入力された表示パネル36又は表示パネル63に映像データに基づく映像が表示される。また、処理部123は、デコーダー121からビデオコネクター27に出力される映像信号を、ビデオコネクター27を介して外部機器に出力させる。
When playing back video data, the processing unit 123 receives video (image) data recorded in the flash memory 122 or video (image) data input from the encoder 129 via the decoder 121 and the LCD driver 125. It supplies to the display panels 36 and 63. Thereby, the video based on the video data is displayed on the display panel 36 or the display panel 63 to which the video signal is input. Further, the processing unit 123 causes the video signal output from the decoder 121 to the video connector 27 to be output to an external device via the video connector 27.
また、映像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。すなわち、処理部123は、BLドライバ126に制御信号を供給し、BLドライバ126はバックライト(35,62)を個々に点灯させる。
また、処理部123は、例えば、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
Further, when displaying an image, the processing unit 123 turns on the backlight 35 for the display panel 36 and the backlight 62 for the display panel 63 as necessary. That is, the processing unit 123 supplies a control signal to the BL driver 126, and the BL driver 126 lights the backlights (35, 62) individually.
Further, the processing unit 123 detects an operation based on, for example, a control signal, and executes an operation defined in the control program.
また、処理部123は、カメラ64によって撮像された撮像画像に含まれる手の態様に基づいて、撮像画像に重畳する情報(例えば、キャラクターやカーソルマークなど)を制御するとともに、撮像画像に情報を重畳した画像を出力する。すなわち、処理部123は、この手の態様に基づいて、撮像画像に情報を重畳する処理を制御するとともに、撮像画像に情報を重畳した画像を出力する。
例えば、処理部123は、撮像画像に基づいて、撮像画像に含まれる手の左右(右手及び左手のいずれかであるか)を判定し、判定した判定結果に基づいて重畳する情報を変更する。具体的に、処理部123は、例えば、右手である場合に右手用のキャラクターを表示するとともに、ヘッドマウントディスプレイ1の端末情報(システム情報)を表示パネル63に表示させる。処理部123は、例えば、左手である場合に左手用のキャラクターを表示するとともに、ユーザーに関する情報(パーソナル情報)を表示パネル63に表示させる。
In addition, the processing unit 123 controls information (for example, a character and a cursor mark) to be superimposed on the captured image based on the hand shape included in the captured image captured by the camera 64, and also displays information on the captured image. Output the superimposed image. That is, the processing unit 123 controls the process of superimposing information on the captured image based on this hand mode, and outputs an image in which information is superimposed on the captured image.
For example, the processing unit 123 determines the left and right hands (whether the right hand or the left hand) is included in the captured image based on the captured image, and changes the information to be superimposed based on the determined determination result. Specifically, for example, the processing unit 123 displays a right-hand character when it is a right hand, and displays terminal information (system information) of the head mounted display 1 on the display panel 63. For example, the processing unit 123 displays a character for the left hand when it is the left hand, and displays information about the user (personal information) on the display panel 63.
また、処理部123は、例えば、撮像画像に基づいて、撮像画像に含まれる手の表裏(手の甲及び手の平のいずれかであるか)を判定し、判定した判定結果に基づいて重畳する情報を変更する。具体的に、処理部123は、例えば、手の平(手の裏)である場合に、手の平の画像領域に所定のキャラクターを重畳させて表示パネル63に表示させる。また、処理部123は、例えば、手の甲(手の表)である場合に、手が指示する指示位置(例えば指先の位置)に、指示位置を示すカーソル(マーク)を重畳させて表示パネル63に表示させる。
Further, for example, the processing unit 123 determines the front and back of the hand included in the captured image (whether it is the back of the hand or the palm) based on the captured image, and changes the information to be superimposed based on the determined determination result. To do. Specifically, for example, when the palm 123 is the palm (the back of the hand), the processing unit 123 causes the display panel 63 to display a predetermined character superimposed on the palm image area. For example, when the processing unit 123 is the back of the hand (the front of the hand), the display unit 63 superimposes a cursor (mark) indicating the indicated position on the indicated position (for example, the position of the fingertip) indicated by the hand. Display.
また、処理部123は、撮像画像に基づいて、撮像画像に含まれる手がユーザーの手であるか否かを判定し、判定した判定結果に基づいて重畳する情報を変更する。具体的に、処理部123は、撮像画像に含まれる手がユーザー(本人)の手であると判定した場合に、ユーザー(本人)に関連付けられた情報(例えば、ユーザーの個人情報)を表示パネル63に表示させる。また、処理部123は、撮像画像に含まれる手がユーザーの手でないと判定した(他人の手である)場合に、手の所有者に関連付けられた情報(例えば、個人情報)を取得し、取得した情報を表示パネル63に表示させる。
また、処理部123は、例えば、カメラ64によって撮像された映像(画像)に基づいて、レーザー発振器73によるレーザー光の照射を制御する。
Further, the processing unit 123 determines whether or not the hand included in the captured image is a user's hand based on the captured image, and changes the information to be superimposed based on the determined determination result. Specifically, when the processing unit 123 determines that the hand included in the captured image is the hand of the user (person), the processing unit 123 displays information associated with the user (person) (for example, personal information of the user) on the display panel. 63 is displayed. In addition, when the processing unit 123 determines that the hand included in the captured image is not a user's hand (is another person's hand), the processing unit 123 acquires information (for example, personal information) associated with the owner of the hand, The acquired information is displayed on the display panel 63.
Further, the processing unit 123 controls the laser light irradiation by the laser oscillator 73 based on, for example, a video (image) captured by the camera 64.
また、本実施形態において、処理部123は、パターン認識部201、入力制御部202、AF(オートフォーカス)制御部203、メニュー選択処理部204、表示制御部205、目元検出部206、表示切替部207、及び角度検出部208を備えている。
図8は、本実施形態における処理部123の一例を示す機能ブロック図である。
以下、図7及び図8を参照して、本実施形態における処理部123の各部について説明する。
In the present embodiment, the processing unit 123 includes a pattern recognition unit 201, an input control unit 202, an AF (autofocus) control unit 203, a menu selection processing unit 204, a display control unit 205, an eye detection unit 206, and a display switching unit. 207 and an angle detection unit 208.
FIG. 8 is a functional block diagram illustrating an example of the processing unit 123 in the present embodiment.
Hereinafter, each unit of the processing unit 123 in the present embodiment will be described with reference to FIGS. 7 and 8.
パターン認識部201(認識部)は、カメラ64によって撮像された画像に含まれる人の手の形状を認識するともに手の態様を認識する。ここで手の態様とは、例えば、手の左右(右手又は左手)、手の表裏(手の甲又は手の平)などの状態である。また、本実施形態では、ヘッドマウントディスプレイ1は、例えば、ヘッドマウントディスプレイ1の操作(例えば、表示パネル63の画面上の所定の位置を指示、メニュー選択、及び情報の入力などの操作)を手の形状を認識することにより行う。
パターン認識部201は、例えば、予め定められている手の形状のパターンと画像に含まれるパターンとが一致するか否かを判定するパターンマッチングを用いて、人の手及び手の左右(右手又は左手)を認識する。また、パターン認識部201は、例えば、人の手と認識したパターン領域に手の掌紋(手のしわ)があるか否かに基づいて、手の表裏(手の甲又は手の平)を認識する。このように、パターン認識部201は、カメラ64によって撮像された撮像画像に基づいて、手の態様を認識する。
The pattern recognition unit 201 (recognition unit) recognizes the shape of the human hand included in the image captured by the camera 64 and recognizes the hand form. Here, the aspect of the hand is, for example, the state of the left and right of the hand (right hand or left hand), the front and back of the hand (back of hand or palm). Further, in the present embodiment, the head mounted display 1 is, for example, an operation of the head mounted display 1 (for example, an operation such as indicating a predetermined position on the screen of the display panel 63, selecting a menu, and inputting information). This is done by recognizing the shape.
The pattern recognition unit 201 uses, for example, pattern matching that determines whether or not a predetermined hand shape pattern matches a pattern included in the image, and the human hand and the left and right sides of the hand (right hand or Recognize (left hand). Also, the pattern recognition unit 201 recognizes the front and back of the hand (back of the hand or palm of the hand) based on whether there is a palm print (hand wrinkle) in the pattern area recognized as a human hand, for example. In this way, the pattern recognition unit 201 recognizes the hand mode based on the captured image captured by the camera 64.
なお、予め定められている手の形状のパターンは、メモリー127に記憶させておいてもよい。ここで、手の形状とは、カメラ64によって撮像された撮像画像における手の形状のパターン領域を示す。
パターン認識部201は、人の手を認識した場合に、認識した人の手に関する情報を入力制御部202及び角度検出部208に供給する。なお、人の手に関する情報とは、例えば、撮像された画像上の位置情報、手の形状の大きさ、指の位置や指の長さ、指の向きなどの情報である。また、パターン認識部201は、人の手を認識した場合に、認識した手の態様を入力制御部202に供給する。
Note that a predetermined hand shape pattern may be stored in the memory 127. Here, the hand shape indicates a pattern region of the hand shape in the captured image captured by the camera 64.
When recognizing a human hand, the pattern recognition unit 201 supplies information related to the recognized human hand to the input control unit 202 and the angle detection unit 208. In addition, the information regarding a human hand is information, such as position information on the imaged image, the size of the hand shape, the position of the finger, the length of the finger, and the direction of the finger. Also, when the pattern recognition unit 201 recognizes a human hand, the pattern recognition unit 201 supplies the recognized hand mode to the input control unit 202.
AF制御部203(合焦部)は、カメラ64の光学系641を駆動して撮像素子642に被写体像などの画像を合焦させる。AF制御部203は、入力制御部202から供給される制御指令に基づいて、カメラ64によって撮像される画像における所定の画素位置に合焦するように、光学系641を駆動する制御を行う。
The AF control unit 203 (focusing unit) drives the optical system 641 of the camera 64 to focus an image such as a subject image on the image sensor 642. The AF control unit 203 performs control to drive the optical system 641 so as to focus on a predetermined pixel position in an image captured by the camera 64 based on a control command supplied from the input control unit 202.
メニュー選択処理部204(操作部)は、後述する入力制御部202が算出した手が指示する指示位置に応じて、入力を操作する。例えば、メニュー選択処理部204は、表示パネル63に表示された複数の操作メニュー(例えば、アイコンなど)を、手による指示位置に応じて選択する。メニュー選択処理部204は、例えば、手による指示位置に応じて、少なくとも1つの操作メニューを選択するような操作処理を行う。すなわち、メニュー選択処理部204は、手による指示位置に応じて、操作メニューを操作する。
The menu selection processing unit 204 (operation unit) operates input according to the designated position indicated by the hand calculated by the input control unit 202 described later. For example, the menu selection processing unit 204 selects a plurality of operation menus (for example, icons, etc.) displayed on the display panel 63 according to the pointing position by hand. For example, the menu selection processing unit 204 performs an operation process such as selecting at least one operation menu in accordance with a manual pointing position. That is, the menu selection processing unit 204 operates the operation menu according to the instruction position by hand.
表示制御部205は、表示パネル63及び表示パネル36に映像(画像)及び各種表示を表示させる制御を行う。表示制御部205は、例えば、カメラ64によって撮像された映像(画像)内における入力制御部202によって指示された位置に、カーソルなどのマークやキャラクターを表示パネル63に表示させる制御を行う。表示制御部205は、表示パネル63に表示させる映像(画像)データを、表示切替部207を介してデコーダー121に供給する。
The display control unit 205 performs control to display a video (image) and various displays on the display panel 63 and the display panel 36. For example, the display control unit 205 performs control to display a mark such as a cursor or a character on the display panel 63 at a position designated by the input control unit 202 in a video (image) captured by the camera 64. The display control unit 205 supplies video (image) data to be displayed on the display panel 63 to the decoder 121 via the display switching unit 207.
目元検出部206は、ユーザーの目元を撮像する撮像素子72が撮像した画像に基づいて、ヘッドマウントディスプレイ1がユーザーに装着されているか否かを検出する。また、目元検出部206は、撮像素子72が撮像した画像に基づいて、例えば、ユーザーの目元のパターンマッチングを行うことにより、表示部60が装着されている左右の位置を検出する。すなわち、目元検出部206は、表示部60(操作スイッチ30)がユーザーに装着されている位置であって、例えば、ユーザーの身体における右側及び左側のいずれかの位置であるかを検出する。目元検出部206は、検出したユーザーの左右のいずれかに表示部60が装着されているかの情報を表示切替部207及び入力制御部202に供給する。
The eye detection unit 206 detects whether or not the head mounted display 1 is attached to the user based on an image captured by the image sensor 72 that captures the user's eye. Further, the eye detection unit 206 detects the left and right positions where the display unit 60 is mounted, for example, by performing pattern matching of the user's eyes based on the image captured by the image sensor 72. That is, the eye detection unit 206 detects whether the display unit 60 (operation switch 30) is attached to the user, for example, whether the display unit 60 is on the right side or the left side of the user's body. The eye detection unit 206 supplies information indicating whether the display unit 60 is attached to either the left or right of the detected user to the display switching unit 207 and the input control unit 202.
表示切替部207は、目元検出部206によって検出されたユーザーの左右のいずれかに表示部60が装着されているかの情報に応じて、表示制御部205から供給された画像情報を、ユーザーが正しく視認できるように表示を切り替える。表示の切り替え処理の詳細については、後述する。表示切替部207は、目元検出部206によって検出されたユーザーの左右のいずれかに表示部60が装着されているかの情報に応じて切り替えた画像データを、デコーダー121を介してLCDドライバ125に供給することにより、表示パネル63に表示させる。
The display switching unit 207 displays the image information supplied from the display control unit 205 according to information on whether the display unit 60 is mounted on either the left or right side of the user detected by the eye detection unit 206. Switch the display so that you can see it. Details of the display switching process will be described later. The display switching unit 207 supplies the image data switched according to the information on whether the display unit 60 is mounted on either the left or right side of the user detected by the eye detection unit 206 to the LCD driver 125 via the decoder 121. By doing so, it is displayed on the display panel 63.
角度検出部208は、カメラ64によって撮像された撮像画像に基づいて、撮像画像に含まれる手の方向が示す角度を手の角度として検出する。具体的に、角度検出部208は、パターン認識部201から供給される人の手に関する情報に基づいて、手の角度を検出する。角度検出部208は、例えば、撮像画像の水平方向に対する指の向きの角度を検出することにより、手の角度を検出する。なお、角度検出部208によって検出された手の角度は、後述するユーザーの手であるか否かの判定に用いられる。
The angle detection unit 208 detects an angle indicated by the hand direction included in the captured image as the hand angle based on the captured image captured by the camera 64. Specifically, the angle detection unit 208 detects the hand angle based on the information regarding the human hand supplied from the pattern recognition unit 201. The angle detection unit 208 detects the angle of the hand, for example, by detecting the angle of the finger orientation with respect to the horizontal direction of the captured image. Note that the hand angle detected by the angle detection unit 208 is used to determine whether or not the hand is a user's hand to be described later.
入力制御部202(制御部)は、パターン認識部201によって認識された手の大きさに応じて、予め定められた所定の処理を実行させるか否かを制御する。ここで、予め定められた所定の処理とは、例えば、AF制御部203に光学系641を合焦させる処理であるオートフォーカス処理やメニュー選択処理部204による操作メニューを選択する処理などである。
The input control unit 202 (control unit) controls whether to execute a predetermined process according to the size of the hand recognized by the pattern recognition unit 201. Here, the predetermined process is, for example, an autofocus process, which is a process for focusing the optical system 641 on the AF control unit 203, or a process for selecting an operation menu by the menu selection processing unit 204.
入力制御部202は、手の形状の大きさが予め定められた所定の大きさ以上である場合に、上述の所定の処理を実行させる。ここで、「予め定められた所定の大きさ」は、カメラ64によって撮像される画像において、カメラ64から予め定められた所定の距離に対応する手の大きさである。一般に、ヘッドマウントディスプレイ1を頭部に装着した場合には、ユーザーの手が最も遠い場合でも1m以上離れることはない。そこで、手の形状の「予め定められた所定の大きさ」とは、例えば、1m以内における手に対応する大きさである。例えば、「予め定められた所定の大きさ」は、パターン認識部201によって手の形状として認識されるパターンの横方向の画素数が、カメラ64の画素数とレンズの画角と手と頭との距離より算出される値として、例えば、手の幅が200画素以上であればユーザーの「手」とする。
The input control unit 202 causes the above-described predetermined processing to be executed when the size of the hand shape is equal to or larger than a predetermined size. Here, the “predetermined predetermined size” is the size of the hand corresponding to a predetermined distance from the camera 64 in the image captured by the camera 64. In general, when the head mounted display 1 is mounted on the head, the user's hand is not farther than 1 m even when the user's hand is farthest. Therefore, the “predetermined predetermined size” of the hand shape is a size corresponding to the hand within 1 m, for example. For example, the “predetermined predetermined size” indicates that the number of pixels in the horizontal direction of the pattern recognized as the shape of the hand by the pattern recognition unit 201 is the number of pixels of the camera 64, the angle of view of the lens, the hand and the head. For example, if the width of the hand is 200 pixels or more, the value calculated from the distance is the user's “hand”.
また、入力制御部202は、パターン認識部201によって複数の手の形状が認識された場合に、最も大きい手の形状の大きさに応じて、上述の所定の処理を実行させるか否かを制御する。これは、例えば、1m以内に複数の「手」があった場合に、入力制御部202は、最も近くにある手をユーザーの手として判定するためである。
また、入力制御部202は、例えば、画像を表示する表示パネル63にカメラ64によって撮像された画像が表示されている場合に、AF制御部203に手の形状の背景に対して光学系641を合焦させる制御を行う。すなわち、この場合、ユーザーが背景の部分を手によって差し示している可能性が高いため、入力制御部202は、手の形状の背景に対して光学系641を合焦させる制御を行う。ここで、背景とは、表示パネル63に表示されている画像のうちの手の形状を除く領域を示す。
Also, the input control unit 202 controls whether or not to execute the above-described predetermined processing according to the size of the largest hand shape when the pattern recognition unit 201 recognizes the shape of a plurality of hands. To do. This is because, for example, when there are a plurality of “hands” within 1 m, the input control unit 202 determines the nearest hand as the user's hand.
For example, when an image captured by the camera 64 is displayed on the display panel 63 that displays an image, the input control unit 202 sets the optical system 641 to the AF-shaped control unit 203 against the background of the hand shape. Control to focus. That is, in this case, since there is a high possibility that the user is pointing the background portion by hand, the input control unit 202 performs control to focus the optical system 641 on the hand-shaped background. Here, the background indicates an area excluding the hand shape in the image displayed on the display panel 63.
また、入力制御部202は、例えば、画像を表示する表示パネル63にカメラ64によって撮像された画像が表示されていない場合に、AF制御部203に手の形状に対して光学系641を合焦させる。すなわち、この場合、ユーザーが手によってメニュー選択処理部204により選択処理を行う可能性が高いため、手の形状を詳細に認識する必要があるので、入力制御部202は、手の形状に対して光学系641を合焦させる制御を行う。ここで、手の形状に対して光学系641を合焦させるとは、カメラ64によって撮像された画像内の手の形状の画素位置(画素領域)に合焦する(ピントを合わせる)ように、光学系641を駆動させることである。
また、入力制御部202は、例えば、パターン認識部201によって認識された手の形状に基づいて、手が物を持っている状態か否かを判定する。入力制御部202は、手が物を持っている状態であると判定した場合に、AF制御部203に、手の形状に対して光学系641を合焦させる。この場合、ユーザーは、手に持っている物を指し示している可能性が高いため、入力制御部202は、AF制御部203に手の形状に対して光学系641を合焦させる。
Further, for example, when the image picked up by the camera 64 is not displayed on the display panel 63 that displays an image, the input control unit 202 focuses the optical system 641 on the hand shape on the AF control unit 203. Let That is, in this case, since the user is likely to perform selection processing by the menu selection processing unit 204, it is necessary to recognize the shape of the hand in detail. Control for focusing the optical system 641 is performed. Here, focusing the optical system 641 on the shape of the hand means focusing (focusing) on the pixel position (pixel area) of the hand shape in the image captured by the camera 64. The optical system 641 is driven.
Further, the input control unit 202 determines whether or not the hand is holding an object based on the shape of the hand recognized by the pattern recognition unit 201, for example. When the input control unit 202 determines that the hand is in a state of holding an object, the input control unit 202 causes the AF control unit 203 to focus the optical system 641 on the shape of the hand. In this case, since there is a high possibility that the user is pointing to an object held by the hand, the input control unit 202 causes the AF control unit 203 to focus the optical system 641 on the shape of the hand.
また、入力制御部202は、例えば、パターン認識部201によって複数の手の形状が認識された場合、且つ、左右の手の形状が認識された場合に、目元検出部206によって検出された操作スイッチ30がユーザーに装着されている左右のいずれかの位置に応じて、左右の手の形状のうちのいずれかの手の形状を選択する。入力制御部202は、選択したこの左右のいずれかの手の形状の大きさに応じて、上述の所定の処理を実行させるか否かを制御する。
In addition, the input control unit 202 operates, for example, when the pattern recognition unit 201 recognizes the shape of a plurality of hands and when the shape of the left and right hands is recognized, the operation switch detected by the eye detection unit 206 30 selects one of the left and right hand shapes according to the left or right position on the user. The input control unit 202 controls whether or not to execute the above-described predetermined processing according to the selected size of the left or right hand shape.
例えば、ここでヘッドマウントディスプレイ1が図3(A)に示すように右目用で使用されている場合には、タッチスイッチ34や操作スイッチ30なども右側に配置されているため、ユーザーが右利きである可能性が高い。この場合には、例えば、ユーザーの左手は体を支えるなどの用途に使われており、右手は細かな操作及び指示に使われる可能性が高いので、入力制御部202は、右手を優先して選択する。
For example, when the head mounted display 1 is used for the right eye as shown in FIG. 3A, the touch switch 34 and the operation switch 30 are also arranged on the right side, so that the user is right-handed. Is likely. In this case, for example, the user's left hand is used for supporting the body, and the right hand is likely to be used for detailed operations and instructions. Therefore, the input control unit 202 gives priority to the right hand. select.
また、入力制御部202は、パターン認識部201によって認識された手の位置と、手が有する所定の部分(例えば、人差し指)の向き及び長さとに基づいて、ユーザーの手が指示する指示位置を算出する。なお、ここでの「手の位置」とは、カメラ64によって撮像された撮像画像上の位置のことである。例えば、入力制御部202は、手の先端(例えば、人差し指の先端)から人差し指の向きに人差し指の長さに応じて延長した位置を指示位置として算出する。具体的に、入力制御部202は、例えば、入力制御部202は、手の先端から人差し指の向きに人差し指の長さを所定の係数倍(例えば、2倍)して延長した位置を指示位置として算出する。この指示位置の算出処理の詳細については、後述する。
Further, the input control unit 202 determines an instruction position indicated by the user's hand based on the position of the hand recognized by the pattern recognition unit 201 and the direction and length of a predetermined portion (for example, the index finger) of the hand. calculate. The “hand position” here is a position on the captured image captured by the camera 64. For example, the input control unit 202 calculates a position extended from the tip of the hand (for example, the tip of the index finger) in the direction of the index finger according to the length of the index finger as the indication position. Specifically, for example, the input control unit 202 uses the position extended by multiplying the length of the index finger from the tip of the hand in the direction of the index finger by a predetermined factor (for example, 2 times) as the indication position. calculate. Details of the processing for calculating the designated position will be described later.
入力制御部202は、画像を表示する表示パネル63の表示画像における、算出した指示位置に対応する位置に指示位置を示すカーソル(マーク)を表示させる。例えば、入力制御部202は、算出した指示位置を表示制御部205に供給することにより、表示パネル63の指示位置に対応する位置にカーソル(マーク)を表示させる。
また、入力制御部202は、算出した指示位置に応じて、メニュー選択処理部204に入力を操作させる制御を行う。例えば、入力制御部202は、メニュー選択処理部204は、指示位置に応じて、複数の操作メニューのうちの1つを選択させるように制御を行う。
The input control unit 202 displays a cursor (mark) indicating the designated position at a position corresponding to the calculated designated position in the display image of the display panel 63 that displays the image. For example, the input control unit 202 supplies the calculated designated position to the display control unit 205 to display a cursor (mark) at a position corresponding to the designated position on the display panel 63.
Further, the input control unit 202 performs control for causing the menu selection processing unit 204 to operate an input in accordance with the calculated designated position. For example, the input control unit 202 controls the menu selection processing unit 204 to select one of a plurality of operation menus according to the designated position.
入力制御部202は、パターン認識部201に供給された手の態様に基づいて、撮像画像に含まれる手が右手及び左手のいずれかであるかを判定し、判定した判定結果に基づいて、撮像画像に重畳する情報を変更する制御を行う。入力制御部202は、例えば、右手である場合に右手用のキャラクター及びヘッドマウントディスプレイ1の端末情報(システム情報)を、表示制御部205に対して表示パネル63に表示させる。また、入力制御部202は、例えば、左手である場合に左手用のキャラクター及びユーザーに関する情報(パーソナル情報)を、表示制御部205に対して表示パネル63に表示させる。
The input control unit 202 determines whether the hand included in the captured image is the right hand or the left hand based on the hand aspect supplied to the pattern recognition unit 201, and performs imaging based on the determined determination result. Control to change the information to be superimposed on the image is performed. For example, the input control unit 202 causes the display control unit 205 to display the character for the right hand and the terminal information (system information) of the head mounted display 1 on the display panel 63 when it is the right hand. The input control unit 202 also causes the display control unit 205 to display information about the left hand character and the user (personal information) on the display panel 63 when the user has the left hand.
また、入力制御部202は、撮像画像に含まれる手が手の平及び手の甲のいずれかであるかを判定し、判定した判定結果に基づいて重畳する情報を変更する制御を行う。入力制御部202は、例えば、入力制御部202は、例えば、手の平である場合に、表示制御部205に対して手の平の画像領域に所定のキャラクターを重畳させて表示パネル63に表示させる。また、入力制御部202は、例えば、手の甲である場合に、表示制御部205に対して手が指示する指示位置(例えば指先の位置)に、指示位置を示すカーソル(マーク)を重畳させて表示パネル63に表示させる。
Further, the input control unit 202 determines whether the hand included in the captured image is the palm or the back of the hand, and performs control to change the information to be superimposed based on the determined determination result. For example, when the input control unit 202 is a palm, for example, the input control unit 202 causes the display control unit 205 to display a predetermined character on the display panel 63 by superimposing a predetermined character on the palm image area. For example, when the input control unit 202 is the back of the hand, the display control unit 205 displays the cursor by superimposing a cursor (mark) indicating the designated position on the designated position (for example, the position of the fingertip) designated by the hand. It is displayed on the panel 63.
また、入力制御部202は、撮像画像に含まれる手がユーザーの手であるか否かを判定し、判定した判定結果に基づいて重畳する情報を変更する制御を行う。入力制御部202は、例えば、撮像画像に含まれる手がユーザー(本人)の手であると判定した場合に、表示制御部205に対して、ユーザー(本人)に関連付けられた情報(例えば、ユーザーの個人情報)を表示パネル63に表示させる。また、入力制御部202は、例えば、撮像画像に含まれる手が他人の手である場合に、手の所有者に関連付けられた情報(例えば、個人情報)を、例えば、WiFi通信回路131を介して取得する。そして、入力制御部202は、表示制御部205に対して、取得した情報を表示パネル63に表示させる。
Further, the input control unit 202 determines whether or not the hand included in the captured image is a user's hand, and performs control to change the information to be superimposed based on the determined determination result. For example, when the input control unit 202 determines that the hand included in the captured image is the hand of the user (person), the input control unit 202 informs the display control unit 205 of information (for example, the user) Personal information) is displayed on the display panel 63. Further, for example, when the hand included in the captured image is another person's hand, the input control unit 202 transmits information (for example, personal information) associated with the owner of the hand via, for example, the WiFi communication circuit 131. Get. Then, the input control unit 202 causes the display control unit 205 to display the acquired information on the display panel 63.
図9は、ヘッドマウントディスプレイ1のネットワーク接続の一例を示す図である。
この図においてヘッドマウントディスプレイをHMDと表記する。なお、HMD1は、ユーザー(本人)が使用するヘッドマウントディスプレイであり、HMD500は、他人が使用するヘッドマウントディスプレイである。この図において、接続に関して必要な要素のみを記載し、他は省略している。
FIG. 9 is a diagram illustrating an example of a network connection of the head mounted display 1.
In this figure, the head mounted display is denoted as HMD. The HMD 1 is a head mounted display used by a user (person), and the HMD 500 is a head mounted display used by another person. In this figure, only elements necessary for connection are shown, and the others are omitted.
図9において、ヘッドマウントディスプレイ1(HMD1)は、ネットワーク220を介して、HMD500と、サーバー210とに接続されている。ここで、HMD1は、タッチスイッチ34、表示部63、カメラ64、地磁気センサー133、処理部123、フラッシュメモリー122、及び通信インタフェース(131,138)を備えている。ここで、通信インタフェースは、例えば、WiFi通信回路131及び3G/LTE通信回路138である。
In FIG. 9, the head mounted display 1 (HMD1) is connected to the HMD 500 and the server 210 via the network 220. The HMD 1 includes a touch switch 34, a display unit 63, a camera 64, a geomagnetic sensor 133, a processing unit 123, a flash memory 122, and communication interfaces (131, 138). Here, the communication interface is, for example, the WiFi communication circuit 131 and the 3G / LTE communication circuit 138.
また、HMD500は、HMD1と同様の通信手段を有するヘッドマウントディスプレイである。HMD500は、HMD1と同様に、タッチスイッチ534、表示パネル563(表示部)、カメラ564、地磁気センサー533、処理部523、フラッシュメモリー522、及び通信インタフェース(531,538)を備えている。HMD500の各機能部は、HMD1の各機能部と同等である。
The HMD 500 is a head mounted display having the same communication means as the HMD 1. Similar to the HMD 1, the HMD 500 includes a touch switch 534, a display panel 563 (display unit), a camera 564, a geomagnetic sensor 533, a processing unit 523, a flash memory 522, and communication interfaces (531, 538). Each function part of HMD500 is equivalent to each function part of HMD1.
サーバー210は、処理部211、記憶部212、及び通信インタフェース213を備えている。処理部211は、各端末(HMD1、HMD500)から通信インタフェース213を介して受信した画像データ(動画、静止画、線画等)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録を、記憶部212に記録(記憶)させる。処理部211は、各端末の要求に応じて、記憶部212に記録してある画像データを読み出し、読み出した画像データを、通信インタフェース213を介して各端末に送信する。
記憶部212には、各端末から受信した画像データ(動画、静止画)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録が記録(記憶)されている。
通信インタフェース213は、例えば、WiFi通信回路、3G通信回路、LTE通信回路、有線LAN回路等を備えている。
The server 210 includes a processing unit 211, a storage unit 212, and a communication interface 213. The processing unit 211 receives image data (moving image, still image, line drawing, etc.) received from each terminal (HMD1, HMD500) via the communication interface 213, audio data, environmental information of each terminal, and requests from each terminal. The communication record is recorded (stored) in the storage unit 212. The processing unit 211 reads the image data recorded in the storage unit 212 in response to a request from each terminal, and transmits the read image data to each terminal via the communication interface 213.
The storage unit 212 records (stores) communication records such as image data (moving images and still images) received from each terminal, audio data, environment information of each terminal, and requests from each terminal.
The communication interface 213 includes, for example, a WiFi communication circuit, a 3G communication circuit, an LTE communication circuit, a wired LAN circuit, and the like.
HMD1は、通信インタフェース(131,138)を介してネットワーク220に接続し、HMD1は、通信インタフェース(131,138)を介して、上述の手の所有者に関連付けられた情報をHMD500又はサーバー210から取得する。
The HMD 1 connects to the network 220 via the communication interface (131, 138), and the HMD 1 transmits information associated with the owner of the hand from the HMD 500 or the server 210 via the communication interface (131, 138). get.
次に、本実施形態におけるヘッドマウントディスプレイ1の動作について説明する。
まず、本実施形態におけるヘッドマウントディスプレイ1の動作を説明する上で前提となるカメラ64の撮像範囲について、図10及び図11を参照して説明する。
図10は、本実施形態におけるヘッドマウントディスプレイ1の右目装着時の撮像範囲を示す模式図である。
この図において、表示部60は、右目の正面を向いた場合の視線方向に対して角度αの方向の下方に配置されている。この場合、カメラ64は、撮像範囲Pの範囲を撮像する。なお、撮像範囲Pには、撮像範囲Pのうちの右目装着時の上半分の範囲Qと、下半分の範囲Rとが含まれている。
Next, the operation of the head mounted display 1 in this embodiment will be described.
First, the imaging range of the camera 64, which is a premise for describing the operation of the head mounted display 1 in the present embodiment, will be described with reference to FIGS.
FIG. 10 is a schematic diagram showing an imaging range when the right eye is mounted on the head mounted display 1 in the present embodiment.
In this figure, the display unit 60 is disposed below the direction of the angle α with respect to the line-of-sight direction when facing the front of the right eye. In this case, the camera 64 images the range of the imaging range P. The imaging range P includes the upper half range Q and the lower half range R of the imaging range P when the right eye is worn.
また、図11は、本実施形態におけるヘッドマウントディスプレイ1の左目装着時の撮像範囲を示す模式図である。
この図において、表示部60は、左目の正面を向いた場合の視線方向に対して角度αの方向の下方に配置されている。この場合、カメラ64は、撮像範囲Pの範囲を撮像する。なお、撮像範囲Pには、撮像範囲Pのうちの右目装着時の上半分の範囲Rと、下半分の範囲Qとが含まれている。
FIG. 11 is a schematic diagram showing an imaging range when the left eye of the head mounted display 1 in this embodiment is mounted.
In this figure, the display unit 60 is disposed below the direction of the angle α with respect to the line-of-sight direction when facing the front of the left eye. In this case, the camera 64 images the range of the imaging range P. The imaging range P includes an upper half range R and a lower half range Q when the right eye is mounted in the imaging range P.
次に、図12及び図13を参照して、ヘッドマウントディスプレイ1における撮像範囲及び表示範囲の切り替え処理について説明する。
図12は、本実施形態におけるヘッドマウントディスプレイ1の撮像範囲及び表示範囲の切り替えを示す図である。
図12において、撮像範囲Pは、カメラ64の全撮像範囲を示している。ここでは、4対3のアスペクト比を有するカメラ64(撮像素子642)を用いて、撮像範囲が縦長になるようにカメラが配置されている。
また、図13は、本実施形態におけるヘッドマウントディスプレイ1の撮像範囲及び表示範囲の切り替え処理を示すフローチャートである。
Next, with reference to FIG. 12 and FIG. 13, switching processing of the imaging range and display range in the head mounted display 1 will be described.
FIG. 12 is a diagram illustrating switching of the imaging range and the display range of the head mounted display 1 in the present embodiment.
In FIG. 12, the imaging range P indicates the entire imaging range of the camera 64. Here, a camera 64 (imaging element 642) having an aspect ratio of 4 to 3 is used to arrange the camera so that the imaging range is vertically long.
FIG. 13 is a flowchart showing the switching process of the imaging range and the display range of the head mounted display 1 in this embodiment.
図13において、まず、ヘッドマウントディスプレイ1の処理部123は、ユーザーがまず右目で表示パネル63を見ていることを想定して、映像(画像)の読み出し範囲(表示範囲)として範囲Qを選択する(ステップS1)。すなわち、処理部123は、図10に示すように、撮像範囲Pにおけるユーザーから見た上の方(上半分)の範囲Qを読み出して、表示制御部205及び表示切替部207により表示パネル63に表示させる。
In FIG. 13, first, the processing unit 123 of the head mounted display 1 selects the range Q as a video (image) reading range (display range) on the assumption that the user is first viewing the display panel 63 with the right eye. (Step S1). That is, as shown in FIG. 10, the processing unit 123 reads the upper range Q (upper half) as viewed from the user in the imaging range P, and displays it on the display panel 63 by the display control unit 205 and the display switching unit 207. Display.
次に、処理部123は、ユーザーが右目で観察しているか否かを判定する(ステップS2)。ここで、処理部123は、ユーザーが観察している目に関する情報(ユーザーの左右のいずれかに表示部60が装着されているかの情報)を検出する。すなわち、処理部123の目元検出部206は、撮像素子72によってユーザーの瞼を含めた目元を撮影した画像に基づいて、ユーザーが観察している目に関する情報を検出する。
処理部123は、ユーザーが右目で観察していると判定した場合(ステップS2:Yes)に、処理をステップS6に進める。また、処理部123は、ユーザーが右目で観察していない(左目で観察している)と判定した場合(ステップS2:No)に、処理をステップS3に進める。この場合、ユーザーは、図11に示すようにヘッドマウントディスプレイ1を装着していることになる。
Next, the processing unit 123 determines whether or not the user is observing with the right eye (step S2). Here, the processing unit 123 detects information regarding the eyes being observed by the user (information indicating whether the display unit 60 is mounted on either the left or right side of the user). That is, the eye detection unit 206 of the processing unit 123 detects information related to the eye being observed by the user based on an image obtained by photographing the eye including the user's eyelid using the image sensor 72.
When it is determined that the user is observing with the right eye (step S2: Yes), the processing unit 123 proceeds with the process to step S6. Further, when the processing unit 123 determines that the user is not observing with the right eye (observing with the left eye) (step S2: No), the processing proceeds to step S3. In this case, the user is wearing the head mounted display 1 as shown in FIG.
次に、ステップS3において、処理部123は、映像(画像)の読み出し範囲(表示範囲)として範囲Rを選択する。範囲Rは、図12における下側の点線で示された枠であるが、図11に示すように左目でヘッドマウントディスプレイ1を使用する場合には、撮像範囲Pにおけるユーザーから見た上の方が読み出されることになる。すなわち、処理部123は、図11に示すように、撮像範囲Pにおけるユーザーから見た上の方(上半分)の範囲Rを読み出して、表示制御部205及び表示切替部207を介して、表示パネル63に出力する。
Next, in step S <b> 3, the processing unit 123 selects the range R as a video (image) readout range (display range). The range R is a frame indicated by a dotted line on the lower side in FIG. 12, but when the head mounted display 1 is used with the left eye as shown in FIG. 11, the upper side as viewed from the user in the imaging range P Will be read out. That is, as shown in FIG. 11, the processing unit 123 reads the upper range (upper half) range R as viewed from the user in the imaging range P, and displays the range R via the display control unit 205 and the display switching unit 207. Output to panel 63.
次に、処理部123は、撮像範囲Pにおける読み出し範囲の上下を反転させる(ステップS4)。すなわち、処理部123は、カメラ64が180度回転していることから、読み出し範囲におけるカメラの映像(画像)を180度回転させる。
Next, the processing unit 123 inverts the reading range in the imaging range P upside down (step S4). That is, the processing unit 123 rotates the video (image) of the camera in the reading range by 180 degrees because the camera 64 is rotated by 180 degrees.
次に、処理部123は、表示画像を180度回転させる(ステップS5)。すなわち、処理部123の表示切替部207は、目元検出部206によって検出されたユーザーが観察している目に関する情報に応じて、表示制御部205から供給された画像を180度回転させるか否かを切り替える。
Next, the processing unit 123 rotates the display image by 180 degrees (step S5). That is, the display switching unit 207 of the processing unit 123 determines whether or not to rotate the image supplied from the display control unit 205 by 180 degrees according to the information about the eyes observed by the user detected by the eye detection unit 206. Switch.
次に、処理部123は、被写体までの測距値とズーム値とに応じて、画像の読み出し範囲を変更する(ステップS6)。すなわち、処理部123は、被写体とカメラのズーム倍率に応じて、撮像範囲Pのうちの画像の読み出し範囲(表示範囲)を変更する。例えば、表示部60が右目で観察されている場合(ヘッドマウントディスプレイ1を右目で使用している場合)には、処理部123は、図12に示す読み出し範囲Qを表示パネル63に表示させている。この場合においてユーザーが被写体の一部を拡大するズーミング指示を操作スイッチ30などによって行った場合に、処理部123は、まず、被写体までの距離を、カメラ64を用いた公知の測距技術により測距する。処理部123は、被写体までの距離が十分に遠い場合には、遠方を見る人間の目も顔の正面を見ているので、読み出し範囲として画面の中央の範囲S(図12)を読み出し、表示パネル63に表示させる。また、処理部123は、被写体までの距離が極近い場合には、人の目は中央に寄ることから、範囲T(図12)を読み出し、表示パネル63に表示させる。なお、処理部123は、この読み出し範囲Tから範囲Sまでを被写体までの距離に応じて略連続的に変化させる。
また、処理部123は、広い範囲を映したい場合、すなわちズーミングがワイド側にある場合には、特に読み出し範囲の移動は行わない。
Next, the processing unit 123 changes the image reading range in accordance with the distance measurement value and the zoom value to the subject (step S6). That is, the processing unit 123 changes the image reading range (display range) in the imaging range P according to the zoom magnification of the subject and the camera. For example, when the display unit 60 is observed with the right eye (when the head mounted display 1 is used with the right eye), the processing unit 123 causes the display panel 63 to display the readout range Q shown in FIG. Yes. In this case, when the user gives a zooming instruction to enlarge a part of the subject using the operation switch 30 or the like, the processing unit 123 first measures the distance to the subject using a known distance measuring technique using the camera 64. Distance. When the distance to the subject is sufficiently long, the processing unit 123 reads the range S (FIG. 12) in the center of the screen as the reading range because the human eye looking at the distance also looks at the front of the face. It is displayed on the panel 63. Further, when the distance to the subject is extremely close, the processing unit 123 reads the range T (FIG. 12) and displays it on the display panel 63 because the human eye is close to the center. The processing unit 123 changes the reading range T to the range S substantially continuously according to the distance to the subject.
The processing unit 123 does not move the reading range particularly when it is desired to display a wide range, that is, when zooming is on the wide side.
また、例えば、表示部60が左目で観察されている場合(ヘッドマウントディスプレイ1を左目で使用している場合)には、処理部123は、図12に示す読み出し範囲Rを表示パネル63に表示させている。この場合においても上記と同様に、処理部123は、被写体がズーミングされて被写体までの距離が十分に遠い場合には範囲U(図12)を読み出し、また、被写体までの距離が極近い場合には範囲V(図12)を読み出し、表示パネル63に出力する。
このように、本実施形態におけるヘッドマウントディスプレイ1は、ユーザーが見ている範囲と、カメラ64によって撮像される範囲との差異を低減し、使用時に違和感のない使い易い(利便性のよい)システムを提供することができる。
For example, when the display unit 60 is observed with the left eye (when the head mounted display 1 is used with the left eye), the processing unit 123 displays the readout range R illustrated in FIG. 12 on the display panel 63. I am letting. Also in this case, as described above, the processing unit 123 reads the range U (FIG. 12) when the subject is zoomed and the distance to the subject is sufficiently long, and when the distance to the subject is very close. Reads out the range V (FIG. 12) and outputs it to the display panel 63.
As described above, the head mounted display 1 according to the present embodiment reduces the difference between the range that the user is viewing and the range that is captured by the camera 64, and is easy to use (good for convenience) with no sense of incongruity during use. Can be provided.
次に、処理部123は、スピーカー(第1スピーカー103、第2スピーカー104)の左右の音を設定する(ステップS7)。すなわち、処理部123は、上述したユーザーが観察している目に関する情報(ユーザーの左右のいずれかに表示部60が装着されているかの情報)に応じて、スピーカー(第1スピーカー103、第2スピーカー104)の左右の音を設定する。
Next, the processing unit 123 sets the left and right sounds of the speakers (the first speaker 103 and the second speaker 104) (step S7). That is, the processing unit 123 determines the speaker (the first speaker 103, the second speaker) according to the information related to the eyes observed by the user (information indicating whether the display unit 60 is mounted on either the left or right side of the user). The left and right sounds of the speaker 104) are set.
次に、処理部123は、ステレオマイク(集音マイク105、集音マイク24)の左右の音を設定する(ステップS8)。すなわち、処理部123は、上述したユーザーが観察している目に関する情報(ユーザーの左右のいずれかに表示部60が装着されているかの情報)に応じて、ステレオマイク(集音マイク105、集音マイク24)の左右の音を設定する。
Next, the processing unit 123 sets the left and right sounds of the stereo microphone (sound collection microphone 105, sound collection microphone 24) (step S8). That is, the processing unit 123 determines the stereo microphone (the sound collecting microphone 105, the sound collecting microphone 105) according to the information related to the eyes observed by the user (information indicating whether the display unit 60 is mounted on either the left or right side of the user). The left and right sounds of the sound microphone 24) are set.
次に、処理部123は、切り替えた画像データを表示パネル63に表示させる(ステップS9)。表示切替部207は、切り替えた画像データを、デコーダー121を介してLCDドライバ125に供給することにより、表示パネル63に表示させる。
Next, the processing unit 123 displays the switched image data on the display panel 63 (step S9). The display switching unit 207 displays the switched image data on the display panel 63 by supplying the switched image data to the LCD driver 125 via the decoder 121.
図10〜図13を参照して説明したように、本実施形態におけるヘッドマウントディスプレイ1は、ディスプレイ本体20や表示部60をユーザーの目の正面に配置する必要がなく、正面よりも下に配置することができるので通話マイク37を口の比較的近傍に配置することが可能である。このため、本実施形態におけるヘッドマウントディスプレイ1は、音声を明瞭に記録することができる。
また、本実施形態におけるヘッドマウントディスプレイ1は、右目で表示部60を観察する場合及び左目で表示部60を観察する場合のいずれの場合においても、適切な範囲を読み出して表示パネル63に表示させることができる。そのため、本実施形態におけるヘッドマウントディスプレイ1は、利便性の高いシステムを提供することができる。さらに、本実施形態におけるヘッドマウントディスプレイ1は、被写体までの距離が近い場合にも、ユーザーが観察する方向とカメラ64の撮影範囲の中心とが一致するので、パララックスの無い使い易いシステムを提供することができる。
As described with reference to FIGS. 10 to 13, the head mounted display 1 in the present embodiment does not require the display main body 20 and the display unit 60 to be disposed in front of the user's eyes, and is disposed below the front. Therefore, it is possible to place the call microphone 37 relatively near the mouth. For this reason, the head mounted display 1 in this embodiment can record a sound clearly.
Further, the head mounted display 1 according to the present embodiment reads out an appropriate range and displays it on the display panel 63 in both cases of observing the display unit 60 with the right eye and observing the display unit 60 with the left eye. be able to. Therefore, the head mounted display 1 in this embodiment can provide a highly convenient system. Furthermore, the head-mounted display 1 according to the present embodiment provides an easy-to-use system without parallax because the direction observed by the user matches the center of the shooting range of the camera 64 even when the distance to the subject is short. can do.
次に、ヘッドマウントディスプレイ1が備えている入出力装置200の動作について説明する。
図14A、図14B及び図14Cは、本実施形態における入出力装置200の処理を示すフローチャートである。
この図において、まずはカメラ64が図15(B)に示すように、横長の範囲の画像G2を撮影しており、その全ての撮影範囲が読み取られて、表示部60の表示パネル63に表示される場合について説明する。
Next, the operation of the input / output device 200 provided in the head mounted display 1 will be described.
14A, 14B, and 14C are flowcharts showing processing of the input / output device 200 according to the present embodiment.
In this figure, first, as shown in FIG. 15 (B), the camera 64 captures an image G2 in a horizontally long range, and the entire imaging range is read and displayed on the display panel 63 of the display unit 60. A description will be given of the case.
まず、入出力装置200は、カメラ64からの画像が表示されているか否かを判定する(ステップS101)。すなわち、処理部123の入力制御部202は、カメラ64によって撮像された画像が、表示部60の表示パネル63に表示されているか否かを判定する。入力制御部202は、カメラ64によって撮像された画像が表示部60の表示パネル63に表示されている場合(ステップS101:Yes)に、処理をステップS102に進める。また、入力制御部202は、カメラ64によって撮像された画像が表示部60の表示パネル63に表示されていない場合(ステップS101:No)に、処理をステップS117(図14B)に進める。なお、カメラ64によって撮像された画像が表示部60の表示パネル63に表示されていない場合には、表示パネル63は、例えば、図15(A)に示すようなメニューアイコンI1〜I9などを含む画像G1が表示されている。ここで、この画像G1は、カメラ64によって撮像された画像に依存しない画像である。
First, the input / output device 200 determines whether an image from the camera 64 is displayed (step S101). That is, the input control unit 202 of the processing unit 123 determines whether an image captured by the camera 64 is displayed on the display panel 63 of the display unit 60. When the image captured by the camera 64 is displayed on the display panel 63 of the display unit 60 (step S101: Yes), the input control unit 202 advances the process to step S102. Moreover, the input control part 202 advances a process to step S117 (FIG. 14B), when the image imaged with the camera 64 is not displayed on the display panel 63 of the display part 60 (step S101: No). When an image captured by the camera 64 is not displayed on the display panel 63 of the display unit 60, the display panel 63 includes menu icons I1 to I9 as shown in FIG. An image G1 is displayed. Here, the image G <b> 1 is an image that does not depend on the image captured by the camera 64.
図14Bに示すように、ステップS117において、入出力装置200は、カメラ64によって撮像された画像に予め定められた所定以上の大きさの手があるか否かを判定する。すなわち、入出力装置200は、カメラ64においてユーザーの「手」が認識できるか否かを手の大きさによって判定する。この場合、まず、例えば、処理部123のパターン認識部201は、カメラ64によって撮像された画像に含まれる人の手を認識し、認識した手に関する情報を入力制御部202に供給する。なお、ここでは、人の手に合焦されていなくてもよく、大雑把に手をパターン認識部201が認識できればよい。入力制御部202は、パターン認識部201から供給された手に関する情報に基づいてユーザーの「手」が認識できるか否かを判定する。例えば、入力制御部202は、パターン認識部201によって手として認識されるパターンの横方向の画素数が、カメラ64の画素数とレンズの画角と手と頭との距離より算出される値として、例えば、手の幅が200画素以上(例えば、1m以内の手)であればユーザーの「手」と判定する。
As shown in FIG. 14B, in step S117, the input / output device 200 determines whether or not there is a hand of a predetermined size or larger in an image captured by the camera 64. That is, the input / output device 200 determines whether or not the user's “hand” can be recognized by the camera 64 based on the size of the hand. In this case, first, for example, the pattern recognition unit 201 of the processing unit 123 recognizes a human hand included in the image captured by the camera 64 and supplies information related to the recognized hand to the input control unit 202. Here, it is not necessary to focus on the hand of the person, and it is sufficient that the pattern recognition unit 201 can roughly recognize the hand. The input control unit 202 determines whether or not the user's “hand” can be recognized based on the information regarding the hand supplied from the pattern recognition unit 201. For example, the input control unit 202 determines that the number of pixels in the horizontal direction of the pattern recognized as a hand by the pattern recognition unit 201 is calculated from the number of pixels of the camera 64, the angle of view of the lens, and the distance between the hand and the head. For example, if the width of the hand is 200 pixels or more (for example, a hand within 1 m), the user's “hand” is determined.
入力制御部202は、手の形状の大きさが予め定められた所定の大きさ以上である場合(ステップS117:Yes)に、処理をステップS118に進める。また、入力制御部202は、手の形状の大きさが予め定められた所定の大きさ未満である場合(ステップS117:No)に、処理を終了させる。
When the size of the hand shape is equal to or larger than a predetermined size (step S117: Yes), the input control unit 202 advances the process to step S118. Further, the input control unit 202 ends the process when the size of the hand shape is less than a predetermined size (step S117: No).
次に、ステップS118において、入出力装置200は、至近の「手」にピントを合わせる。すなわち、入力制御部202は、AF制御部203に至近の手の形状に対して光学系641を合焦させる。これは、入力制御部202は、1m以内に複数の「手」があった場合に、最も近くにある手をユーザーの「手」として判定するためである。
さらに、入力制御部202は、ユーザーの右手と左手の両方が存在される場合には、いずれかの手を優先させる。ここで、ヘッドマウントディスプレイ1が図3(A)のように右目用で使用されている場合には、タッチスイッチ34、操作スイッチ30なども右側に配置されており、ユーザーが右利きである可能性が高い。この場合には、ユーザーの左手は体を支えるなどの用途に使われており、右手は細かな操作及び指示に使われる可能性が高いので、入力制御部202は、右手を優先してピントを合わせる(AF制御部203に光学系641を合焦させる)。
Next, in step S <b> 118, the input / output device 200 focuses on the nearest “hand”. That is, the input control unit 202 focuses the optical system 641 on the hand shape closest to the AF control unit 203. This is because the input control unit 202 determines the closest hand as the user's “hand” when there are a plurality of “hands” within 1 m.
Further, the input control unit 202 gives priority to either hand when both the right hand and the left hand of the user are present. Here, when the head mounted display 1 is used for the right eye as shown in FIG. 3A, the touch switch 34, the operation switch 30 and the like are also arranged on the right side, and the user may be right-handed. High nature. In this case, the left hand of the user is used to support the body, and the right hand is likely to be used for detailed operations and instructions. Therefore, the input control unit 202 prioritizes the right hand. Align (focus the optical system 641 on the AF control unit 203).
次に、入出力装置200は、公知のパターン認識の処理によって手の形を認識する(ステップS119)。すなわち、パターン認識部201は、公知のパターン認識の処理によって手の形を認識し、認識した手の形状に関する情報を入力制御部202に供給する。
次に、入出力装置200は、操作スイッチ30等の操作部が操作されているか否かを検出する(ステップS120)。すなわち、入力制御部202は、操作スイッチ30等の操作部が操作されているか否かを検出する。入力制御部202は、操作スイッチ30等が操作されている場合(ステップS120:Yes)に、ユーザーの手が操作スイッチ30等に置かれているはずであるから、他人の手が写っている可能性もあるので、操作スイッチ30等の操作を優先し、処理をステップS121に進める。また、入力制御部202は、操作スイッチ30等が操作されていない場合(ステップS120:No)に、処理をステップS122に進める。
Next, the input / output device 200 recognizes the shape of the hand by a known pattern recognition process (step S119). That is, the pattern recognition unit 201 recognizes the shape of the hand by a known pattern recognition process, and supplies information related to the recognized hand shape to the input control unit 202.
Next, the input / output device 200 detects whether an operation unit such as the operation switch 30 is operated (step S120). That is, the input control unit 202 detects whether an operation unit such as the operation switch 30 is operated. Since the user's hand should be placed on the operation switch 30 or the like when the operation switch 30 or the like is being operated (step S120: Yes), the input control unit 202 may show the other person's hand Therefore, priority is given to the operation of the operation switch 30 or the like, and the process proceeds to step S121. Moreover, the input control part 202 advances a process to step S122, when the operation switch 30 grade | etc., Is not operated (step S120: No).
ステップS121において、入出力装置200は、操作スイッチ30等が操作された場合の所定の表示を表示パネル63に行い、操作スイッチ30等が操作された場合の操作に従った処理を行う。
一方、ステップS122において、入出力装置200は、人差し指の位置に対応して画面にカーソル(図15(A)のカーソルM1)を重畳表示する。すなわち、入力制御部202は、例えば、図15に示すように、表示制御部205に対して、人差し指の長さを2倍した人差し指の延長方向に対応する位置にカーソルM1を表示させる。ここでは、図15(A)に示すように、封筒のアイコンI8が選択されていることが分かる。
In step S121, the input / output device 200 performs a predetermined display on the display panel 63 when the operation switch 30 or the like is operated, and performs processing according to the operation when the operation switch 30 or the like is operated.
On the other hand, in step S122, the input / output device 200 displays a cursor (cursor M1 in FIG. 15A) in a superimposed manner on the screen corresponding to the position of the index finger. That is, for example, as illustrated in FIG. 15, the input control unit 202 causes the display control unit 205 to display the cursor M1 at a position corresponding to the extending direction of the index finger that is twice the length of the index finger. Here, as shown in FIG. 15A, it can be seen that the envelope icon I8 is selected.
ここで、カメラ64には、図15(B)に示すようにユーザーの手H1が撮影されており、入力制御部202は、パターン認識によって破線で示すように、ユーザーの人差し指の延長線上であって、画面上で測定できる人差し指の長さL1を約2倍延長した位置P1(指先から距離L2の位置)を計算する。入力制御部202は、表示制御部205に対して、位置P1に対応する表示パネル63の表示画像上の位置に、図15(A)で示すように、カーソルM1を表示させる。すなわち、入力制御部202は、パターン認識部201によって認識された手の位置と、手の所定の部分(例えば、人差し指)の向き及び長さとに基づいて、ユーザーの手が指示する指示位置(位置P1)を算出する。入力制御部202は、算出した指示位置に対応する表示パネル63の表示画像における位置に指示位置(位置P1)を示すカーソルM1(マーク)を表示させる。
なお、入力制御部202は、下記の式(1)及び式(2)に基づいて、位置P1を算出する。
Here, the user's hand H1 is photographed on the camera 64 as shown in FIG. 15B, and the input control unit 202 is on the extension line of the user's index finger as shown by the broken line by pattern recognition. Then, a position P1 (position of distance L2 from the fingertip) obtained by extending the index finger length L1 that can be measured on the screen by about twice is calculated. The input control unit 202 causes the display control unit 205 to display a cursor M1 at a position on the display image of the display panel 63 corresponding to the position P1, as shown in FIG. That is, the input control unit 202 indicates the indicated position (position) indicated by the user's hand based on the position of the hand recognized by the pattern recognition unit 201 and the direction and length of a predetermined part of the hand (for example, the index finger). P1) is calculated. The input control unit 202 displays a cursor M1 (mark) indicating the designated position (position P1) at the position on the display image of the display panel 63 corresponding to the calculated designated position.
The input control unit 202 calculates the position P1 based on the following equations (1) and (2).
X3=X1+2×(X1−X2) ・・・(1)
Y3=Y1+2×(Y1−Y2) ・・・(2)
X3 = X1 + 2 × (X1-X2) (1)
Y3 = Y1 + 2 × (Y1-Y2) (2)
ここで、変数X1及び変数Y1は図15(B)における人差し指の先端の座標(X1,Y1)に対応し、変数X2及び変数Y2は人差し指の根もとの座標(X2、Y2)に対応する。また、変数X3及び変数Y3はカーソルM1の座標(X3,Y3)に対応する。
例えば、カメラ64の光軸に略平行に人差し指を向けた場合には、カメラ64には人差し指が短く写るので、カーソルM1は、人差し指先端の近傍となる。また、例えば、カメラ64の光軸と直交するように人差し指を置いた場合には、最も離れた箇所にカーソルM1が表示される。このように、人差し指の位置、傾き、及び方向をユーザーが変えることで、自由に画面内の位置を指示(ポインティング)することが可能である。
なお、ここでは、図15(A)に示すようなメニュー画面(画像G1)を表示パネル63に表示しているので、入出力装置200は、図15(B)に示すカメラ64の画像を表示パネル63に表示させることはない。
Here, the variable X1 and the variable Y1 correspond to the coordinates (X1, Y1) of the tip of the index finger in FIG. 15B, and the variables X2 and Y2 correspond to the coordinates (X2, Y2) of the base of the index finger. . Variable X3 and variable Y3 correspond to the coordinates (X3, Y3) of cursor M1.
For example, when the index finger is pointed substantially parallel to the optical axis of the camera 64, the index finger is shown short on the camera 64, so the cursor M1 is near the tip of the index finger. Further, for example, when the index finger is placed so as to be orthogonal to the optical axis of the camera 64, the cursor M1 is displayed at the most distant place. As described above, the position, tilt, and direction of the index finger can be freely changed by the user to point (point) the position on the screen.
Here, since the menu screen (image G1) as shown in FIG. 15A is displayed on the display panel 63, the input / output device 200 displays the image of the camera 64 shown in FIG. 15B. It is not displayed on the panel 63.
次に、入出力装置200は、指が所定の動作をしたか否かを判定する(ステップS123)。ここで、所定の動作とは、例えば、指で円を描いたり、カーソルM1がアイコン(例えば、アイコンI8)の上で所定の時間だけ静止したりする動作のことである。すなわち、メニュー選択処理部204は、指が所定の動作をしたか否かを判定する。メニュー選択処理部204は、指が所定の動作をしたと判定された場合(ステップS123:Yes)に、処理をステップS124に進める。また、メニュー選択処理部204は、指が所定の動作をしていないと判定された場合(ステップS123:No)に、処理を終了させる。
Next, the input / output device 200 determines whether or not the finger has performed a predetermined action (step S123). Here, the predetermined operation is, for example, an operation in which a circle is drawn with a finger or the cursor M1 is stationary on an icon (for example, icon I8) for a predetermined time. That is, the menu selection processing unit 204 determines whether or not the finger has performed a predetermined action. If it is determined that the finger has performed a predetermined action (step S123: Yes), the menu selection processing unit 204 advances the process to step S124. Moreover, the menu selection process part 204 complete | finishes a process, when it determines with the finger | toe not performing predetermined | prescribed operation | movement (step S123: No).
ステップS124において、入出力装置200は、アイコンが選択された場合に対応する所定の処理を行う。すなわち、メニュー選択処理部204は、例えば、封筒のアイコンI8を選択し、処理部123は、選択された封筒のアイコンI8に対応する処理を実行する。
なお、メニュー選択処理部204は、親指と人差し指を特定のパターンに形成したり、その形を変化させたりすることを検出することにより、メニュー選択などの操作を行うことも可能である。例えば、メニュー選択処理部204は、メニュー画面などで「YES/NO」などの2択の選択を迫られた場合にも、ユーザーがあえて一方の選択肢を選ばすに、親指と人差し指とで作ったOKサインを検出することにより設定(選択)を行ってもよい。
In step S124, the input / output device 200 performs a predetermined process corresponding to the case where the icon is selected. That is, the menu selection processing unit 204 selects, for example, an envelope icon I8, and the processing unit 123 executes processing corresponding to the selected envelope icon I8.
Note that the menu selection processing unit 204 can also perform operations such as menu selection by detecting that the thumb and index finger are formed in a specific pattern or changing its shape. For example, even when the menu selection processing unit 204 is forced to select two choices such as “YES / NO” on the menu screen or the like, the user makes a choice between the thumb and the index finger to select one option. Setting (selection) may be performed by detecting an OK sign.
このように、手にピントがあっている場合には、細かい手の動きをカメラ64で読み取ることが可能であるため、入出力装置200は、指のパターンの詳細な読み取りが可能となっており、図15(A)に示すような細かなアイコンの選択が可能となっている。そのため、入力制御部202は、手の形状に対して光学系641を合焦させる場合に、メニュー選択処理部204によって選択可能な操作メニューの数を、後述する手の形状の背景に対して光学系641を合焦させる場合よりも多く表示パネル63に表示させる。
In this way, when the hand is in focus, the camera 64 can read fine hand movements, so the input / output device 200 can read the finger pattern in detail. A fine icon as shown in FIG. 15A can be selected. Therefore, when the input control unit 202 focuses the optical system 641 on the hand shape, the input control unit 202 optically selects the number of operation menus that can be selected by the menu selection processing unit 204 with respect to the hand-shaped background described later. More display is made on the display panel 63 than when the system 641 is focused.
次に、カメラ64からの画像が表示されている場合について説明する。
再び、図14Aに示すように、ステップS102において、入出力装置200は、ステップS117と同様に、カメラ64によって撮像された画像に予め定められた所定以上の大きさの手があるか否かを判定する。すなわち、入力制御部202は、パターン認識部201から供給された手に関する情報に基づいて手の形状の大きさが予め定められた所定の大きさ以上であるか否かを判定する。入力制御部202は、手の形状の大きさが予め定められた所定の大きさ以上である場合(ステップS102:Yes)に、処理をステップS104に進める。また、入力制御部202は、手の形状の大きさが予め定められた所定の大きさ未満である場合(ステップS102:No)に、処理をステップS103に進める。
Next, a case where an image from the camera 64 is displayed will be described.
Again, as shown in FIG. 14A, in step S102, the input / output device 200 determines whether or not the image captured by the camera 64 has a hand of a predetermined size or larger in the same manner as in step S117. judge. That is, the input control unit 202 determines whether or not the size of the hand shape is greater than or equal to a predetermined size based on the information about the hand supplied from the pattern recognition unit 201. When the size of the hand shape is equal to or larger than a predetermined size (step S102: Yes), the input control unit 202 advances the process to step S104. Moreover, the input control part 202 advances a process to step S103, when the magnitude | size of the shape of a hand is less than predetermined predetermined magnitude | size (step S102: No).
次に、ステップS103において、入出力装置200は、至近の被写体に焦点と露出とを合わせる。すなわち、入力制御部202は、AF制御部203に至近の被写体に対して光学系641を合焦させる制御を行い、処理部123は、カメラ64に対して至近の被写体に露出を合わせる制御を行う。なお、極至近(例えば、5cmなど指が入らない距離)の被写体などで光学系641の制約によってピントを合わせることが不可能な被写体などは、レンズ上のゴミの可能性もあるので、入力制御部202は、AF制御部203に次に合焦可能な至近の被写体に合焦させる。また、入力制御部202は、いわゆる顔認識技術によって人物を検出した場合には、人物にピントを合わる制御を行ってもよい。また、AF制御部203は、ピント合わせ(合焦)については公知の手段を用いる。入力制御部202は、至近の被写体に合焦させる制御を行った後、処理をステップS115に進める。
Next, in step S <b> 103, the input / output device 200 adjusts the focus and exposure on the closest subject. That is, the input control unit 202 performs control to focus the optical system 641 on the subject close to the AF control unit 203, and the processing unit 123 performs control to adjust the exposure of the close subject to the camera 64. . It should be noted that a subject that is extremely close to the subject (for example, a distance that a finger cannot enter, such as 5 cm) that cannot be focused due to the restriction of the optical system 641 may be dust on the lens. The unit 202 causes the AF control unit 203 to focus on the closest subject that can be focused next. Further, the input control unit 202 may perform control for focusing on a person when a person is detected by a so-called face recognition technique. The AF control unit 203 uses a known means for focusing (focusing). The input control unit 202 performs control to focus on the closest subject, and then proceeds to step S115.
一方、ステップS104において、入出力装置200は、手に物を持っているか否かを判定する。すなわち、入力制御部202は、例えば、パターン認識部201によって認識された手の形状に基づいて、手が物を持っているか否かを判定する。入力制御部202は、手が物を持っていると判定した場合(ステップS104:Yes)に、処理をステップS105に進め、手が物を持っていないと判定した場合(ステップS104:No)に、処理をステップS106に進める。
On the other hand, in step S104, the input / output device 200 determines whether or not an object is held in the hand. That is, the input control unit 202 determines whether or not the hand has an object based on the shape of the hand recognized by the pattern recognition unit 201, for example. When the input control unit 202 determines that the hand has an object (step S104: Yes), the process proceeds to step S105, and when it is determined that the hand does not have an object (step S104: No). Then, the process proceeds to step S106.
次に、ステップS105において、入出力装置200は、手の近傍の被写体に焦点を合わせる。この場合、ユーザーが手に物を持っていて、それがカメラ64に写っている場合には、手に持っている物が他の通信端末(他の機器)にも伝えたい物であると推定できる。そのため、入力制御部202は、手が物を持っている状態であると判定した場合に、AF制御部203に、手の形状又は手の近傍の被写体に対して光学系641を合焦させる。入力制御部202は、手の形状又は手の近傍の被写体に合焦させる制御を行った後、処理をステップS109に進める。
Next, in step S105, the input / output device 200 focuses on a subject near the hand. In this case, if the user has an object in his hand and it is reflected in the camera 64, it is estimated that the object he has in his hand is what he wants to convey to other communication terminals (other devices). it can. Therefore, when the input control unit 202 determines that the hand is in a state of holding an object, the input control unit 202 causes the AF control unit 203 to focus the optical system 641 on a subject in the shape of the hand or in the vicinity of the hand. The input control unit 202 performs control to focus on the shape of the hand or a subject in the vicinity of the hand, and then proceeds to step S109.
一方、ステップS106において、入出力装置200は、認識した手が手の平かを検出する。すなわち、入力制御部202は、例えば、パターン認識部201によって認識された手の態様に基づいて、認識した手が手の平であるか否かを判定する。入力制御部202は、認識した手が手の平であると判定した場合(ステップS106:Yes)に、処理をステップS201(図14C)に進め、認識した手が手の平でない(手の甲である)と判定した場合(ステップS106:No)に、処理をステップS107に進める。パターン認識部201は、図16に示すように、手の平のしわを基本として、手の甲をしわがない場合にパターン認識する。また、この場合、パターン認識部201は、指の曲がり具合を加味して手の表裏(手の平か手の甲か)を認識してもよい。
なお、図16は、画像G7に表示されている手H7が手の甲である場合の一例を示している。
On the other hand, in step S106, the input / output device 200 detects whether the recognized hand is a palm. That is, the input control unit 202 determines whether or not the recognized hand is a palm based on the hand mode recognized by the pattern recognition unit 201, for example. When the input control unit 202 determines that the recognized hand is the palm (step S106: Yes), the process proceeds to step S201 (FIG. 14C) and determines that the recognized hand is not the palm (the back of the hand). If so (step S106: No), the process proceeds to step S107. As shown in FIG. 16, the pattern recognition unit 201 recognizes a pattern when there is no wrinkle on the back of the hand on the basis of the wrinkle of the palm. In this case, the pattern recognition unit 201 may recognize the front and back of the hand (whether it is the palm of the hand or the back of the hand) in consideration of the degree of bending of the finger.
FIG. 16 shows an example in which the hand H7 displayed in the image G7 is the back of the hand.
一方、手の甲であると判定される場合、すなわちユーザーが手の指で物体を指し示す場合であることから、ステップS107において、入出力装置200は、ユーザーの手を避けて背景に焦点を合わせる。この場合、ユーザーが背景の部分を手によって差し示している可能性が高いため、入力制御部202は、手の形状の背景に対して光学系641を合焦させる制御を行う。これは、例えば、図17に示すように、幾つかある商品の中から一つを指し示すような場合において、手にピントが合った画像を他者に伝えるよりも、背景にピントの合った画像を伝えることが重要だからである。このことで、入出力装置200は、情報(画像など)を伝達する相手にとってわかり易いコミュニケーションを取ることが可能になる。
On the other hand, since it is determined to be the back of the hand, that is, when the user points the object with the finger of the hand, in step S107, the input / output device 200 focuses on the background while avoiding the user's hand. In this case, since there is a high possibility that the user indicates the background portion by hand, the input control unit 202 performs control to focus the optical system 641 on the hand-shaped background. For example, as shown in FIG. 17, in the case where one of several products is pointed out, an image in focus on the background rather than telling the image in focus on the hand to the other person. Because it is important to communicate. As a result, the input / output device 200 can communicate in a manner that is easy for a partner to transmit information (such as an image).
なお、他の通信端末に画像を送信する際に、例えば、VGA(Video Graphics Array:640×480画素)などの低解像度で送信を行っている場合、且つ、カメラ64の被写界深度と解像度との関係により手に合焦していても背景がボケないと判定される場合には、入出力装置200は、ステップS107の処理をスキップしてもよい。また、入出力装置200は、他の通信端末に画像を送信する際の解像度が高い(例えば、800×600画素やハイビジョン(1080i)など)場合のみに、ステップS107の処理を実行してもよい。
Note that when transmitting an image to another communication terminal, for example, when transmitting at a low resolution such as VGA (Video Graphics Array: 640 × 480 pixels), and the depth of field and resolution of the camera 64 If it is determined that the background is not blurred even if the hand is in focus, the input / output device 200 may skip the process of step S107. Further, the input / output device 200 may execute the process of step S107 only when the resolution when transmitting an image to another communication terminal is high (for example, 800 × 600 pixels, high vision (1080i), or the like). .
次に、入出力装置200は、複数の手が存在した場合を想定して、最も大きな手のパターン(手の形状)を認識する(ステップS108)。すなわち、入力制御部202は、パターン認識部201から供給された手に関する情報に基づいて、最も大きな手の形状を認識する。ここで、最も大きな手を認識するのは、複数の手が画面内に存在した場合に、最も大きな手が最も至近にあり、それがユーザーの手である可能性が高いためである。
なお、ステップS118では至近の手を認識していたが、ステップS108においては手に対してのピント合わせを行っていないため、複数の手があってもどれが至近の手であるか判定できない。そのため、入力制御部202は、最も大きな手をユーザーの手として判定(認識)する。また、右手と左手とが検出された場合の処理は、ステップS118と同様である。
Next, assuming that there are a plurality of hands, the input / output device 200 recognizes the largest hand pattern (hand shape) (step S108). That is, the input control unit 202 recognizes the largest hand shape based on the information about the hand supplied from the pattern recognition unit 201. Here, the reason for recognizing the largest hand is that when a plurality of hands are present in the screen, the largest hand is the closest and it is highly likely that it is the user's hand.
In step S118, the closest hand is recognized. However, since the hand is not focused in step S108, it is not possible to determine which hand is the closest even if there are a plurality of hands. Therefore, the input control unit 202 determines (recognizes) the largest hand as the user's hand. Further, the processing when the right hand and the left hand are detected is the same as that in step S118.
次に、入出力装置200は、最も大きな手の輪郭を強調する(ステップS109)。すなわち、入力制御部202は、認識した手のパターンの輪郭を強調して、表示制御部205に表示させる。これはピントが合っていない手を少しでもハッキリ表示するための処理である。また、入力制御部202は、手が背景に紛れて見難い場合には、手の輪郭を赤色などで強調してもよい。
Next, the input / output device 200 emphasizes the contour of the largest hand (step S109). That is, the input control unit 202 emphasizes the recognized contour of the hand pattern and causes the display control unit 205 to display it. This is a process for clearly displaying a hand that is out of focus as much as possible. Further, the input control unit 202 may emphasize the outline of the hand in red or the like when the hand is difficult to see due to the background.
次に、入出力装置200は、ステップS120と同様に、操作スイッチ30等の操作部が操作されているか否かを検出する(ステップS110)。入力制御部202は、操作スイッチ30等が操作されている場合(ステップS110:Yes)に、操作スイッチ30等の操作を優先し、処理をステップS111に進める。また、入力制御部202は、操作スイッチ30等が操作されていない場合(ステップS110:No)に、処理をステップS112に進める。
Next, as in step S120, the input / output device 200 detects whether an operation unit such as the operation switch 30 is operated (step S110). When the operation switch 30 or the like is operated (step S110: Yes), the input control unit 202 gives priority to the operation of the operation switch 30 and advances the process to step S111. Moreover, the input control part 202 advances a process to step S112, when the operation switch 30 grade | etc., Is not operated (step S110: No).
ステップS111において、ステップS121と同様に、入出力装置200は、操作スイッチ30等が操作された場合の所定の表示を表示パネル63に行い、操作スイッチ30等が操作された場合の操作に従った処理を行う。
In step S111, as in step S121, the input / output device 200 performs a predetermined display on the display panel 63 when the operation switch 30 or the like is operated, and follows the operation when the operation switch 30 or the like is operated. Process.
一方、ステップS112において、入出力装置200は、人差し指を検出し、検出した人差し指の先にカーソル(図17のカーソルM2)を表示パネル63に表示させる。ここで、入力制御部202は、パターン認識部201から供給された手に関する情報に基づいて、予め定められた所定の指(例えば、人差し指)を検出する。入力制御部202は、例えば、図17に示すように、検出した人差し指の先端から当該指の長さを所定の係数倍(例えば、2倍)して延長した位置にカーソルM2を、表示制御部205に対して表示させる。
なお、図17において、画像G3は、カメラ64(撮像素子642)によって撮像されている画像を示し、手H2は、カメラ64によって撮像されている手を示している。
On the other hand, in step S112, the input / output device 200 detects the index finger, and displays a cursor (cursor M2 in FIG. 17) on the display panel 63 at the tip of the detected index finger. Here, the input control unit 202 detects a predetermined finger (for example, an index finger) determined in advance based on the information regarding the hand supplied from the pattern recognition unit 201. For example, as shown in FIG. 17, the input control unit 202 displays the cursor M2 at a position extended from the detected tip of the index finger by multiplying the length of the finger by a predetermined coefficient (for example, two times). 205 is displayed.
In FIG. 17, an image G <b> 3 indicates an image captured by the camera 64 (image sensor 642), and a hand H <b> 2 indicates a hand captured by the camera 64.
次に、入出力装置200は、カーソルが示す背景に焦点と露出とを合わせる(ステップS113)。例えば、入力制御部202は、図17のカーソルM2が示すところの背景の近傍に対して、AF制御部203に光学系641を合焦させる制御を行い、処理部123は、カメラ64に対してカーソルM2が示す背景の近傍に露出を合わせる制御を行う。すなわち、入力制御部202は、検出した人差し指の先端から当該指の長さを所定の係数倍(例えば、2倍)して延長した位置の背景に対して光学系641を合焦させる。このことで、手前の指ではなく背景を鮮明に撮像することが可能になるので、ヘッドマウントディスプレイ1は、通信を行っている他の通信端末に対しても明瞭な画像(明確な画像)を表示させることができる。そのため、入出力装置200は、コミュニケーションのミスが発生する可能性を低減することが可能である。
Next, the input / output device 200 adjusts the focus and exposure to the background indicated by the cursor (step S113). For example, the input control unit 202 controls the AF control unit 203 to focus the optical system 641 on the vicinity of the background indicated by the cursor M <b> 2 in FIG. 17, and the processing unit 123 controls the camera 64. Control is performed to adjust the exposure in the vicinity of the background indicated by the cursor M2. In other words, the input control unit 202 focuses the optical system 641 on the background at a position extended from the detected tip of the index finger by multiplying the length of the finger by a predetermined coefficient (for example, two times). This makes it possible to clearly capture the background rather than the front finger, so that the head mounted display 1 can provide a clear image (clear image) to other communication terminals that are performing communication. Can be displayed. Therefore, the input / output device 200 can reduce the possibility of communication errors.
次に、入出力装置200は、操作に応じてカーソル/軌跡を表示パネル63に表示させる(ステップS114)。すなわち、入力制御部202は、表示制御部205に対して、所定の指(例えば、人差し指)の動きに応じてカーソルが引き続き表示させるか、あるいはカーソルの軌跡を表示させる。
なお、この場合には、指に厳密にピントが合っていないので、細かな指の動作に基づいてヘッドマウントディスプレイ1を制御することは難しい。よって、入出力装置200は、指に合焦していない場合に、指の画像認識で制御可能なメニューに限定した入力制御を行う。ここでは、指の画像認識で制御可能なメニューは、例えば、カーソルの表示の他、線画を描くなどの限定された項目である。
Next, the input / output device 200 displays a cursor / trajectory on the display panel 63 according to the operation (step S114). That is, the input control unit 202 causes the display control unit 205 to continuously display the cursor or display the locus of the cursor according to the movement of a predetermined finger (for example, the index finger).
In this case, since the finger is not strictly focused, it is difficult to control the head mounted display 1 based on a fine finger movement. Therefore, the input / output device 200 performs input control limited to menus that can be controlled by finger image recognition when the finger is not focused. Here, menus that can be controlled by finger image recognition are, for example, limited items such as drawing a line drawing in addition to displaying a cursor.
次に、ヘッドマウントディスプレイ1(入出力装置200)は、通信を行っている他の通信端末に対して逐次画像を送信する(ステップS115)とともに、表示パネル63にも上述の入力制御の結果を表示する(ステップS116)。入出力装置200は、ステップS116の処理後に処理を終了する。
なお、本実施形態において、入出力装置200は、この入力制御の処理(ステップS101からステップS124の処理)を繰り返し実行する。
Next, the head mounted display 1 (input / output device 200) sequentially transmits images to other communication terminals that perform communication (step S115), and also displays the result of the above input control on the display panel 63. Displayed (step S116). The input / output device 200 ends the process after the process of step S116.
In the present embodiment, the input / output device 200 repeatedly executes this input control process (the process from step S101 to step S124).
次に、ヘッドマウントディスプレイ1がカメラ64の画像を上下に分けて使用する場合の一例について説明する。
図12のフローチャートにおいて、カメラ64の読み出し領域として上半分を使用する一例を説明したが、図18では、図3(A)に示すように、右目で表示を観察している状態を示している。図18において、ヘッドマウントディスプレイ1と通信相手の他の通信端末とは、カメラ64の撮像範囲Pのうちの範囲Qの画像を表示パネル63に表示する。
Next, an example in which the head mounted display 1 uses the images of the camera 64 divided into upper and lower parts will be described.
In the flowchart of FIG. 12, an example in which the upper half is used as the reading area of the camera 64 has been described. However, FIG. 18 shows a state where the display is observed with the right eye as shown in FIG. . In FIG. 18, the head mounted display 1 and another communication terminal of the communication partner display an image in the range Q of the imaging range P of the camera 64 on the display panel 63.
また、例えば、夕方などの手と背景のコントラストが低くなる場合には、ヘッドマウントディスプレイ1は、図18に示すように手H3の指先にカーソルM3を表示することで指先の位置を見やすく表示してもよい。すなわち、入力制御部202は、表示領域(例えば、範囲Q)の画像に手H3が含まれる場合に、手H3の先端の位置を指示位置として算出する。そして、入力制御部202は、算出した指示位置に対応する表示パネル63の表示画像における位置にカーソル(例えば、図18のカーソルM3)を表示させる制御を表示制御部205に対して行う。
For example, when the contrast between the hand and the background is low, such as in the evening, the head mounted display 1 displays the cursor M3 on the fingertip of the hand H3 as shown in FIG. May be. That is, the input control unit 202 calculates the position of the tip of the hand H3 as the designated position when the hand H3 is included in the image of the display area (for example, the range Q). Then, the input control unit 202 controls the display control unit 205 to display a cursor (for example, the cursor M3 in FIG. 18) at a position in the display image of the display panel 63 corresponding to the calculated designated position.
次に、ステップS106において、認識した手が手の平であると判定された場合の処理について説明する。
図14Cに示すように、ステップS201において、入出力装置200は、手の平にピントを合わせる。すなわち、入力制御部202は、AF制御部203に手の平に対して光学系641を合焦させる。
Next, a process when it is determined in step S106 that the recognized hand is a palm will be described.
As shown in FIG. 14C, in step S201, the input / output device 200 focuses on the palm of the hand. That is, the input control unit 202 causes the AF control unit 203 to focus the optical system 641 on the palm.
次に、入出力装置200は、撮像画像に写っている手が使用者(ユーザー)の手であるか否かを判定する(ステップS202)。ここで、ヘッドマウントディスプレイ1は、ユーザーの頭部に装着されており、人間工学的に考慮した場合、骨格の関係から、例えば、ユーザーの手が後述する図20のような方向から撮像されることはない。そこで、角度検出部208は、ユーザーの人差し指の指先の方向を示すベクトルと画像における水平方向との角度を手の角度として検出し、検出した手の角度を入力制御部202に供給する。入力制御部202は、角度検出部208から供給された手の角度に基づいて、撮像画像に含まれる手がユーザーの手であるか否かを判定する。入力制御部202は、角度検出部208によって検出された手の角度が、例えば、0度から180度の間である場合に、ユーザーの手であると判定する。
Next, the input / output device 200 determines whether or not the hand shown in the captured image is the hand of the user (user) (step S202). Here, the head-mounted display 1 is mounted on the user's head, and when considering ergonomics, for example, the user's hand is imaged from the direction as shown in FIG. There is nothing. Therefore, the angle detection unit 208 detects the angle between the vector indicating the direction of the fingertip of the user's index finger and the horizontal direction in the image as the hand angle, and supplies the detected hand angle to the input control unit 202. Based on the hand angle supplied from the angle detection unit 208, the input control unit 202 determines whether or not the hand included in the captured image is the user's hand. The input control unit 202 determines that the hand is the user's hand when the angle of the hand detected by the angle detection unit 208 is between 0 degrees and 180 degrees, for example.
また、入力制御部202は、ユーザーの手であると判定した場合(ステップS202:Yes)に、処理をステップS203に進める。また、入力制御部202は、ユーザーの手でない(他人の手である)と判定した場合(ステップS202:No)に、処理をステップS210に進める。
If the input control unit 202 determines that the hand is the user's hand (step S202: Yes), the process proceeds to step S203. If the input control unit 202 determines that it is not the user's hand (the hand of another person) (step S202: No), the process proceeds to step S210.
次に、ステップS203において、入出力装置200は、ユーザーの手が右手であるか否かを判定する。入力制御部202は、パターン認識部201によって認識された手の態様に基づいて、ユーザーの手が右手であるか否かを判定する。なお、この場合、入力制御部202は、角度検出部208によって検出された手の角度が、例えば、90度から180度の間である場合に、ユーザーの手が右手であると判定してもよい。これは、人の右手は、自分の方向から見た場合、90度から180度以外の角度範囲に右手を置くことは難しいためである。
Next, in step S203, the input / output device 200 determines whether or not the user's hand is the right hand. The input control unit 202 determines whether or not the user's hand is the right hand based on the hand mode recognized by the pattern recognition unit 201. In this case, the input control unit 202 determines that the user's hand is the right hand when the angle of the hand detected by the angle detection unit 208 is between 90 degrees and 180 degrees, for example. Good. This is because it is difficult for a human right hand to place the right hand in an angle range other than 90 degrees to 180 degrees when viewed from his / her direction.
例えば、図19(A)では、画像G4に含まれる手H4の指のベクトルF1の水平方向に対する角度θ1が90度から180度の間の角度範囲であるため、入力制御部202は、右手と判定する。また、例えば、図19(B)では、画像G5に含まれる手H5の指のベクトルF2の水平方向に対する角度θ2が0度から90度の間の角度範囲であるため、入力制御部202は、左手と判定する。
入力制御部202は、ユーザーの手が右手であると判定した場合(ステップS203:Yes)に、処理をステップS204に進める。また、入力制御部202は、ユーザーの手が左手であると判定した場合(ステップS203:No)に、処理をステップS218に進める。
For example, in FIG. 19A, since the angle θ1 with respect to the horizontal direction of the finger vector F1 of the hand H4 included in the image G4 is an angle range between 90 degrees and 180 degrees, the input control unit 202 judge. For example, in FIG. 19B, since the angle θ2 with respect to the horizontal direction of the finger vector F2 of the hand H5 included in the image G5 is an angle range between 0 degrees and 90 degrees, the input control unit 202 Judge with left hand.
If the input control unit 202 determines that the user's hand is the right hand (step S203: Yes), the process proceeds to step S204. If the input control unit 202 determines that the user's hand is the left hand (step S203: No), the process proceeds to step S218.
次に、ステップS204において、入出力装置200は、キャラクターC1を表示する。このキャラクターC1(第1のキャラクター)は、いわゆる3Dポリゴンにより構成されており、例えば、メモリー127又はフラッシュメモリー122に予め記憶されている。入力制御部202は、メモリー127又はフラッシュメモリー122からキャラクターC1の画像情報を読み出して、図19(A)に示すように、表示制御部205に手の平の画像領域と重畳させて表示パネル63に表示させる。また、入出力装置200は、ユーザーが右手を回す(回転させる)と、右手の動きと略一体的に、このキャラクターC1も向きを変えるように制御する。なお、予め作成されたプログラムにしたがって、キャラクターC1自体が独自に動作したり、発話したりすることを可能にしてもよい。
Next, in step S204, the input / output device 200 displays the character C1. The character C1 (first character) is formed of a so-called 3D polygon, and is stored in advance in the memory 127 or the flash memory 122, for example. The input control unit 202 reads the image information of the character C1 from the memory 127 or the flash memory 122, and displays it on the display panel 63 so as to be superimposed on the palm image area on the display control unit 205, as shown in FIG. Let In addition, when the user turns (rotates) the right hand, the input / output device 200 controls the character C1 to change its direction substantially in unison with the movement of the right hand. Note that the character C1 itself may be able to independently operate or speak according to a program created in advance.
次に、入出力装置200は、ヘッドマウントディスプレイ1の装置情報(プロパティー)を表示させる(ステップS205)。すなわち、入力制御部202は、図19(A)に示すように、表示制御部205に対して、システム情報D1(装置情報)を表示パネル63に表示させる。なお、システム情報D1は、例えば、電池残量、メモリー使用量、WiFi通信における電波強度、システムのバージョン情報などの情報である。また、キャラクターC1は、ヘッドマウントディスプレイ1の装置情報を表す場合のキャラクターである。例えば、入出力装置200は、キャラクターC1の右横の位置に、システム情報D1を表示する。ここで、入出力装置200は、キャラクターC1がしゃべっている(発話している)ようにシステム情報D1を音により出力してもよい。
Next, the input / output device 200 displays the device information (property) of the head mounted display 1 (step S205). That is, the input control unit 202 causes the display control unit 205 to display system information D1 (device information) on the display panel 63, as shown in FIG. The system information D1 is, for example, information such as remaining battery capacity, memory usage, radio wave intensity in WiFi communication, and system version information. The character C1 is a character when representing device information of the head mounted display 1. For example, the input / output device 200 displays the system information D1 at a position to the right of the character C1. Here, the input / output device 200 may output the system information D1 by sound so that the character C1 is speaking (speaking).
次に、入出力装置200は、左手が追加か否かを判定する(ステップS206)。すなわち、入力制御部202は、さらに、画像中(映像中)に手が追加されて、その手が先に検出された右手の反対の「左手」であるか否かを判定する。入力制御部202は、左手が追加されたと判定した場合(ステップS206:Yes)に、処理をステップS207に進める。また、入力制御部202は、左手が追加されていないと判定した場合(ステップS206:No)に、処理をステップS209に進める。
Next, the input / output device 200 determines whether or not the left hand is added (step S206). That is, the input control unit 202 further determines whether or not a hand is added to the image (in the video) and the hand is a “left hand” opposite to the right hand that has been detected first. If the input control unit 202 determines that the left hand has been added (step S206: Yes), the process proceeds to step S207. If the input control unit 202 determines that the left hand is not added (step S206: No), the process proceeds to step S209.
次に、ステップS207において、入出力装置200は、新たに検出された左手が使用者の手と同等の大きさか否かを判定する。すなわち、入力制御部202は、手の大きさに基づいて、検出した左手がユーザーの左手であるか否かを判定する。入力制御部202は、検出した左手がユーザーの左手であると判定した場合(ステップS207:Yes)に、処理をステップS208に進める。また、入力制御部202は、検出した左手がユーザーの左手でない(他人の左手である)と判定した場合(ステップS207:No)に、処理をステップS209に進める。
Next, in step S207, the input / output device 200 determines whether or not the newly detected left hand is the same size as the user's hand. That is, the input control unit 202 determines whether or not the detected left hand is the user's left hand based on the size of the hand. If the input control unit 202 determines that the detected left hand is the user's left hand (step S207: Yes), the process proceeds to step S208. If the input control unit 202 determines that the detected left hand is not the user's left hand (is the other person's left hand) (step S207: No), the process proceeds to step S209.
次に、ステップS208において、入出力装置200は、ユーザーの左手の回転に合わせてキャラクターC1の向きを調整する。具体的に、入力制御部202は、ユーザーが左手を回すと、キャラクターC1との向きを変更する制御を行う。例えば、図19(A)では、キャラクターC1が手前方向を向いているが、ユーザーが左手を左方向に回すことで、入出力装置200は、ユーザーの右手の角度はそのままの状態でキャラクターC1のみが左に回り(回転し)、例えば、180度反対方向を向かせる制御を行うことが可能である。
Next, in step S208, the input / output device 200 adjusts the orientation of the character C1 in accordance with the rotation of the user's left hand. Specifically, the input control unit 202 performs control to change the orientation with the character C1 when the user turns the left hand. For example, in FIG. 19A, the character C1 is facing forward, but when the user turns the left hand to the left, the input / output device 200 allows the character C1 only with the angle of the user's right hand unchanged. Can be controlled to turn (rotate) counterclockwise, for example, in the opposite direction by 180 degrees.
次に、ステップS209において、入出力装置200は、他人の右手又は左手があるか否かを判定する。すなわち、入力制御部202は、撮像画像に他人の手が含まれるか否かを判定する。この場合、入力制御部202は、図20に示すように、手H6の指の方向を示すベクトルF3の画像G6における水平方向に対する角度θ3が略180度〜360度の範囲にある場合、かつ「手」が前述のように所定以上の大きさであった場合に「他人の手」であると判定する。なお、ユーザー以外の手については、相手の位置関係によって差し出される角度が変わるため、手の角度だけで右手か左手かの判定は困難であるので、入力制御部202は、パターン認識部201によって認識された手の態様に基づいて、右手か左手かを判定する。
入力制御部202は、撮像画像に他人の手が含まれると判定した場合(ステップS209:Yes)に処理をステップS210に進め、撮像画像に他人の手が含まれていないと判定した場合(ステップS209:No)に処理を終了させる。
Next, in step S209, the input / output device 200 determines whether there is another person's right hand or left hand. That is, the input control unit 202 determines whether another person's hand is included in the captured image. In this case, as shown in FIG. 20, the input control unit 202 determines that the angle θ3 of the vector F3 indicating the direction of the finger of the hand H6 with respect to the horizontal direction in the image G6 is in the range of about 180 degrees to 360 degrees and If the “hand” is larger than a predetermined size as described above, it is determined that the “hand” is the “other hand”. For the hands other than the user, the angle to be presented varies depending on the positional relationship of the other party, and therefore it is difficult to determine whether the hand is the right hand or the left hand, so the input control unit 202 is controlled by the pattern recognition unit 201. Whether the right hand or the left hand is determined based on the recognized hand mode.
If the input control unit 202 determines that the other person's hand is included in the captured image (step S209: Yes), the process proceeds to step S210. If the input control unit 202 determines that the other person's hand is not included in the captured image (step S210) The processing is terminated at S209: No).
次に、ステップS210において、入出力装置200は、他人が近傍に存在することが明らかになったので、通信を試みるべくWiFi信号があるかを調べる。例えば、処理部123は、WiFi通信回路131により、WiFi信号(WiFi通信の電波)があるか否かを判定する。処理部123は、WiFi信号(WiFi通信の電波)がある場合(ステップS210:Yes)に、処理をステップS211に進め、WiFi信号がない場合(ステップS210:No)に、処理を終了させる。
Next, in step S210, the input / output device 200 has determined that there is another person in the vicinity, and therefore checks whether there is a WiFi signal to attempt communication. For example, the processing unit 123 uses the WiFi communication circuit 131 to determine whether or not there is a WiFi signal (WiFi communication radio wave). When there is a WiFi signal (WiFi communication radio wave) (step S210: Yes), the processing unit 123 proceeds with the process to step S211. When there is no WiFi signal (step S210: No), the processing unit 123 ends the process.
次に、ステップS211において、入出力装置200は、さらに最も強い電波強度にあるところの相手を検出する。通常、複数のWiFi通信の電波が存在している可能性があるが、ここでは、通信相手となる相手の手が所定以上の大きさで撮像されている。そのため、検出した他人の手の所有者である通信相手は、極めて近傍にいるはずであり、処理部123は、電波強度が最も強い通信相手(端末)を他人の手であると判定する。
Next, in step S211, the input / output device 200 detects a partner having the strongest radio wave intensity. Normally, there may be a plurality of WiFi communication radio waves, but here, the hand of the other party who is the communication partner is imaged with a size larger than a predetermined size. Therefore, the detected communication partner who is the owner of the other person's hand should be extremely close, and the processing unit 123 determines that the communication partner (terminal) having the highest radio wave intensity is the other person's hand.
次に、入出力装置200は、検出した電波強度が最も強い通信相手(端末)が通信可能であるか否かを判定する(ステップS212)。すなわち、処理部123は、WiFi通信回路131を介して、電波強度が最も強い通信相手(端末)が通信可能であるか否かを判定する。処理部123は、電波強度が最も強い通信相手(端末)が通信可能である場合(ステップS212:Yes)に、処理をステップS213に進め、通信不可能である場合(ステップS212:No)に、処理を終了させる。
Next, the input / output device 200 determines whether or not the communication partner (terminal) with the strongest detected radio wave intensity can communicate (step S212). That is, the processing unit 123 determines whether or not a communication partner (terminal) having the strongest radio wave intensity can communicate via the WiFi communication circuit 131. When the communication partner (terminal) having the strongest radio wave intensity is communicable (step S212: Yes), the processing unit 123 proceeds with the process to step S213, and when communication is impossible (step S212: No), End the process.
次に、ステップS213において、例えば、通信相手がヘッドマウントディスプレイ1(HMD1)と同様の機器である図9に示すHMD500であった場合、入出力装置200は、HMD500のユーザーの個人情報ならびにキャラクターC3の情報を受信する。処理部123は、WiFi通信回路131を介して、例えば、HMD500のフラッシュメモリー522に記憶されている個人情報(D3)及びキャラクターC3の情報(手の所有者に関連付けられた情報)を取得する。
ここで、HMD1とHMD500との通信は、機器同士が直接通信を行うアドホックモードでもよいし、インターネット回線を通じてサーバー210を介して行ってもよい。
Next, in step S213, for example, when the communication partner is the HMD 500 shown in FIG. 9 which is the same device as the head mounted display 1 (HMD1), the input / output device 200 determines the personal information of the user of the HMD 500 and the character C3. Receive the information. For example, the processing unit 123 acquires personal information (D3) and character C3 information (information associated with the hand owner) stored in the flash memory 522 of the HMD 500 via the WiFi communication circuit 131.
Here, the communication between the HMD 1 and the HMD 500 may be performed in an ad hoc mode in which devices directly communicate with each other, or may be performed via the server 210 through an Internet line.
次に、入出力装置200は、表示部60にHMD500のユーザーの個人情報とともにHMD500のユーザーが設定したキャラクターC3(第3のキャラクター)を表示させる(ステップS214)。すなわち、処理部123の入力制御部202は、図20に示すように、WiFi通信回路131を介して取得したキャラクターC3を手H6の画像領域に重畳させた画像を表示パネル63に、表示制御部205に対して表示させる。さらに、入力制御部202は、図20に示すように、HMD500のユーザーのパーソナル情報D3(例えば、HMD500の使用者のハンドルネーム、誕生日、好きなもの、嫌いなものなど)を表示パネル63に表示させる。なお、この表示内容は、ユーザーによって選択することが可能であってもよい。
Next, the input / output device 200 causes the display unit 60 to display the character C3 (third character) set by the user of the HMD 500 together with the personal information of the user of the HMD 500 (step S214). That is, as shown in FIG. 20, the input control unit 202 of the processing unit 123 displays an image obtained by superimposing the character C3 acquired via the WiFi communication circuit 131 on the image area of the hand H6 on the display panel 63. 205 is displayed. Further, as shown in FIG. 20, the input control unit 202 displays personal information D3 of the user of the HMD 500 (for example, the handle name of the user of the HMD 500, the date of birth, what he likes, dislikes) on the display panel 63. Display. This display content may be selectable by the user.
次に、入出力装置200は、データ交換を希望するか否か判定する(ステップS215)。ここで、処理部123は、HMD1とHMD500とが互いに個人情報の交換を希望するか否かを判定し、個人情報の交換を希望する場合(ステップS215:Yes)には、処理をステップS216に進め、不図示の画面設定に従って、個人情報の交換を実行する。また、処理部123は、個人情報の交換を希望しない場合(ステップS215:No)に、処理を終了させる。
なお、ステップS216において、交換された個人情報は、HMD1とHMD500との互いのメモリー127(527)もしくはサーバー210上の記憶部212などに記録(記憶)される。
Next, the input / output device 200 determines whether or not data exchange is desired (step S215). Here, the processing unit 123 determines whether or not the HMD 1 and the HMD 500 wish to exchange personal information with each other, and if the exchange of personal information is desired (step S215: Yes), the processing proceeds to step S216. Proceeding and exchanging personal information according to screen settings (not shown). Moreover, the process part 123 complete | finishes a process, when not exchanging personal information (step S215: No).
In step S216, the exchanged personal information is recorded (stored) in the memory 127 (527) of the HMD 1 and the HMD 500, the storage unit 212 on the server 210, or the like.
次に、入出力装置200は、撮像画像内に手がまだあるか否かを判定する(ステップS217)。処理部123は、撮像画像内に他に手があるか否かを判定し、他に手がある場合(ステップS217:Yes)に、処理をステップS202に戻し、上述の処理を繰り返す。また、処理部123は、他に手がない場合(ステップS217:No)に、処理を終了する。
Next, the input / output device 200 determines whether or not there is still a hand in the captured image (step S217). The processing unit 123 determines whether there are other hands in the captured image. If there are other hands (step S217: Yes), the processing unit 123 returns the processing to step S202 and repeats the above-described processing. Moreover, the process part 123 complete | finishes a process, when there is no other hand (step S217: No).
一方、ステップS203において、ユーザーの左手であると判定した場合には、入出力装置200は、ステップS218からステップS222までの一連の処理を実行する。
On the other hand, if it is determined in step S203 that the user is the left hand of the user, the input / output device 200 executes a series of processes from step S218 to step S222.
ステップS218において、入出力装置200は、キャラクターC2を表示する。このキャラクターC2(第2のキャラクター)は、いわゆる3Dポリゴンにより構成されており、例えば、メモリー127又はフラッシュメモリー122に予め記憶されている。入力制御部202は、メモリー127又はフラッシュメモリー122からキャラクターC2の画像情報を読み出して、図19(B)に示すように、表示制御部205に手の平の画像領域と重畳させて表示パネル63に表示させる。また、入出力装置200は、右手の場合と同様に、ユーザーが左手を回す(回転させる)と、左手の動きと略一体的に、このキャラクターC1も向きを変えるように制御する。なお、予め作成されたプログラムにしたがって、キャラクターC2自体が独自に動作したり、発話したりすることを可能にしてもよい。
In step S218, the input / output device 200 displays the character C2. This character C2 (second character) is formed of a so-called 3D polygon, and is stored in advance in the memory 127 or the flash memory 122, for example. The input control unit 202 reads the image information of the character C2 from the memory 127 or the flash memory 122, and displays it on the display panel 63 so as to superimpose the palm image region on the display control unit 205 as shown in FIG. Let Similarly to the case of the right hand, the input / output device 200 controls the character C1 to change its direction substantially integrally with the movement of the left hand when the user turns (rotates) the left hand. Note that the character C2 itself may be able to operate independently or speak according to a program created in advance.
次に、入出力装置200は、ユーザーの個人情報(パーソナル情報)、行動予定、環境情報などの情報(D2)を表示させる(ステップS219)。すなわち、入力制御部202は、図19(B)に示すように、表示制御部205に対して、パーソナル情報を含む上述の情報D2を表示パネル63に表示させる。また、キャラクターC2は、ユーザーのパーソナル情報を表す場合のキャラクターである。例えば、入出力装置200は、キャラクターC2の右横の位置に、上述の情報D2を表示する。ここで、入出力装置200は、キャラクターC2がしゃべっている(発話している)ように情報D2を音により出力してもよい。
Next, the input / output device 200 displays information (D2) such as the user's personal information (personal information), action schedule, and environment information (step S219). That is, as shown in FIG. 19B, the input control unit 202 causes the display control unit 205 to display the above-described information D2 including personal information on the display panel 63. The character C2 is a character when representing the personal information of the user. For example, the input / output device 200 displays the information D2 described above at a position to the right of the character C2. Here, the input / output device 200 may output the information D2 by sound so that the character C2 is speaking (speaking).
次に、入出力装置200は、右手が追加か否かを判定する(ステップS220)。すなわち、入力制御部202は、さらに、画像中(映像中)に手が追加されて、その手が先に検出された左手の反対の「右手」であるか否かを判定する。入力制御部202は、右手が追加されたと判定した場合(ステップS220:Yes)に、処理をステップS221に進める。また、入力制御部202は、右手が追加されていないと判定した場合(ステップS220:No)に、処理をステップS209に進める。
Next, the input / output device 200 determines whether or not the right hand is added (step S220). That is, the input control unit 202 further determines whether or not a hand is added to the image (in the video) and the hand is a “right hand” opposite to the left hand that has been detected first. If the input control unit 202 determines that the right hand has been added (step S220: Yes), the process proceeds to step S221. If the input control unit 202 determines that the right hand is not added (step S220: No), the process proceeds to step S209.
次に、ステップS221において、入出力装置200は、新たに検出された右手が使用者の手と同等の大きさか否かを判定する。すなわち、入力制御部202は、手の大きさに基づいて、検出した右手がユーザーの右手であるか否かを判定する。入力制御部202は、検出した右手がユーザーの右手であると判定した場合(ステップS221:Yes)に、処理をステップS222に進める。また、入力制御部202は、検出した右手がユーザーの右手でない(他人の右手である)と判定した場合(ステップS221:No)に、処理をステップS209に進める。
Next, in step S221, the input / output device 200 determines whether or not the newly detected right hand is the same size as the user's hand. That is, the input control unit 202 determines whether or not the detected right hand is the user's right hand based on the size of the hand. If the input control unit 202 determines that the detected right hand is the user's right hand (step S221: Yes), the process proceeds to step S222. Further, when the input control unit 202 determines that the detected right hand is not the user's right hand (is the other person's right hand) (step S221: No), the process proceeds to step S209.
次に、ステップS222において、入出力装置200は、ユーザーの右手の回転に合わせてキャラクターC2の向きを調整する。具体的に、入力制御部202は、ユーザーが右手を回すと、キャラクターC2との向きを変更する制御を行い、処理を上述したステップS209に進める。
Next, in step S222, the input / output device 200 adjusts the orientation of the character C2 in accordance with the rotation of the user's right hand. Specifically, when the user turns the right hand, the input control unit 202 performs control to change the orientation with the character C2, and advances the process to step S209 described above.
ところで、本実施形態では、作業などにより手袋を常用しており、手のしわなどが認識し難い場合、もしくは明るい環境で手のしわを認識し難い場合などには、手袋にマーカーを記載してものを利用してもよい。
図21は、本実施形態においてユーザーが手袋を装着している場合の一例を示す図である。図21(A)に示すように、ユーザーが装着する手袋は、左手の手の甲に、左手の甲を表す「Left Back」のイニシャルである「LB」を表記したマーカーMK1と、指の爪の先を表す指先マーカーMK2とを有している。なお、図21(A)において、画像G8に含まれるユーザーの手H8が、左手の甲であり、手袋GV1Aを装着している状態を示している。
By the way, in this embodiment, gloves are regularly used for work, etc., and when it is difficult to recognize hand wrinkles, or when it is difficult to recognize hand wrinkles in a bright environment, a marker is written on the gloves. You may use things.
FIG. 21 is a diagram illustrating an example when the user is wearing gloves in the present embodiment. As shown in FIG. 21 (A), the glove worn by the user has a marker MK1 indicating “LB” as an initial of “Left Back” indicating the back of the left hand and the tip of the fingernail on the back of the left hand. It has a fingertip marker MK2 to represent. In FIG. 21A, the user's hand H8 included in the image G8 is the back of the left hand and the glove GV1A is worn.
図21(B)に示すように、ユーザーが装着する手袋は、左手の手の平に、左手の平を表す「Left Palm」のイニシャルである「LP」を表記したマーカーMK3を有している。なお、図21(B)において、画像G9に含まれるユーザーの手H9が、左手の平であり、手袋GV1Bを装着している状態を示している。
As shown in FIG. 21 (B), the glove worn by the user has a marker MK3 indicating “LP” which is the initial of “Left Palm” representing the palm of the left hand on the palm of the left hand. FIG. 21B shows a state where the user's hand H9 included in the image G9 is the palm of the left hand and the glove GV1B is worn.
図21に示すように、撮像画像に含まれる手が所定の識別情報(例えば、「LP」、「LB」などのマーカー)が表示された手袋を装着している場合に、パターン認識部201は、撮像画像に基づいて認識した手の画像領域に含まれるこの識別情報に基づいて、手の態様(手の表裏、手の左右など)を認識する。また、この場合、処理部123は、この識別情報に基づいて、ユーザーの手であるか否かを判定してもよい。
なお、図21(A)では、手袋GV1Aに指先マーカーMK2が記載されているので、パターン認識部201は、カーソルの表示を行う場合の認識ならびに手の甲の識別が容易に行えるようになっている。
As shown in FIG. 21, when the hand included in the captured image is wearing a glove displaying predetermined identification information (for example, a marker such as “LP” or “LB”), the pattern recognition unit 201 Based on the identification information included in the hand image area recognized based on the captured image, the hand mode (front and back of the hand, left and right of the hand, etc.) is recognized. In this case, the processing unit 123 may determine whether or not the user's hand is based on the identification information.
In FIG. 21A, the fingertip marker MK2 is described on the glove GV1A, so that the pattern recognition unit 201 can easily recognize when the cursor is displayed and identify the back of the hand.
以上、説明したように、本実施形態における入出力装置200は、画像を撮像するカメラ64と、カメラ64によって撮像された撮像画像に含まれる手の態様に基づいて、撮像画像に重畳する情報を制御するとともに、撮像画像に情報を重畳した画像を出力する処理部123とを備えている。
これにより、本実施形態における入出力装置200は、手の態様に応じて重畳する情報を切り替えて、情報を重畳させることができる。例えば、本実施形態における入出力装置200は、手を認識してマーカーとするので、マーカーと呼ばれるシートを別途用意する必要がなく、手の態様に応じてどこでも容易にキャラクターなどの情報を表示させることが可能である。このように、本実施形態における入出力装置200は、利便性を向上させることができる。
As described above, the input / output device 200 according to the present embodiment displays the information to be superimposed on the captured image based on the camera 64 that captures the image and the aspect of the hand included in the captured image captured by the camera 64. And a processing unit 123 that controls and outputs an image in which information is superimposed on the captured image.
Thereby, the input / output device 200 according to the present embodiment can superimpose information by switching the information to be superimposed according to the hand mode. For example, since the input / output device 200 according to the present embodiment recognizes a hand and uses it as a marker, it is not necessary to prepare a separate sheet called a marker, and easily displays information such as a character anywhere according to the form of the hand. It is possible. Thus, the input / output device 200 in the present embodiment can improve convenience.
また、本実施形態では、手の態様には、手の左右(右手及び左手)が含まれる。処理部123は、カメラ64によって撮像された撮像画像に基づいて、撮像画像に含まれる右手及び左手のいずれかであるかを判定し、判定した判定結果に基づいて重畳する情報を変更する。すなわち、処理部123は、右手か左手かによって、重畳する情報を変更することができる。これにより、本実施形態における入出力装置200は、利便性を向上させることができる。
In the present embodiment, the left and right hands (right hand and left hand) are included in the hand mode. The processing unit 123 determines whether the right hand or the left hand is included in the captured image based on the captured image captured by the camera 64, and changes the information to be superimposed based on the determined determination result. That is, the processing unit 123 can change the information to be superimposed depending on whether the right hand or the left hand. Thereby, the input / output device 200 in the present embodiment can improve convenience.
また、本実施形態では、手の態様には、手の表裏(手の平及び手の甲)が含まれる。処理部123は、カメラ64によって撮像された撮像画像に基づいて、撮像画像に含まれる手が手の平及び手の甲のいずれかであるかを判定し、判定した判定結果に基づいて重畳する情報を変更する。すなわち、処理部123は、手の平か手の甲かによって、重畳する情報を変更することができる。これにより、本実施形態における入出力装置200は、利便性を向上させることができる。
In the present embodiment, the hand aspect includes the front and back of the hand (the palm and the back of the hand). Based on the captured image captured by the camera 64, the processing unit 123 determines whether the hand included in the captured image is the palm or the back of the hand, and changes the information to be superimposed based on the determined determination result. . That is, the processing unit 123 can change the information to be superimposed depending on whether the palm is the palm or the back of the hand. Thereby, the input / output device 200 in the present embodiment can improve convenience.
また、本実施形態では、処理部123は、手が手の平であると判定した場合に、撮像画像のうちの手の平の画像領域に情報を重畳する。これにより、手の平を判定して、手の平の上に画像などの情報を重畳して表示するので、本実施形態における入出力装置200は、利便性を向上させることができる。
In the present embodiment, when the processing unit 123 determines that the hand is a palm, the processing unit 123 superimposes information on the palm image area of the captured image. As a result, the palm is determined and information such as an image is superimposed and displayed on the palm, so that the input / output device 200 according to the present embodiment can improve convenience.
また、本実施形態では、処理部123は、撮像画像に含まれる手が手の平であると判定した場合に、所定のキャラクターの画像を重畳する情報として重畳する。手の平を判定して、所定のキャラクターの画像を手の平に重畳するので、本実施形態における入出力装置200は、キャラクターによる分かり易い情報をユーザーに提供することができる。よって、本実施形態における入出力装置200は、利便性を向上させることができる。
In the present embodiment, when the processing unit 123 determines that the hand included in the captured image is a palm, the processing unit 123 superimposes the image of a predetermined character as information to be superimposed. Since the palm is determined and an image of a predetermined character is superimposed on the palm, the input / output device 200 in this embodiment can provide easy-to-understand information by the character to the user. Therefore, the input / output device 200 according to the present embodiment can improve convenience.
また、本実施形態では、処理部123は、撮像画像に含まれる手が手の甲であると判定した場合に、撮像画像のうちの判定した手の甲に対応する手が指示する指示位置に、当該指示位置を示すマーク(例えば、カーソルM1など)を重畳する情報として重畳する。
これにより、手の甲を判定することにより、本実施形態における入出力装置200は、指示デバイス(ポインティングデバイス)としても使用可能である。そのため、本実施形態における入出力装置200は、利便性を向上させることができる。
Further, in the present embodiment, when the processing unit 123 determines that the hand included in the captured image is the back of the hand, the instruction position is set to the instruction position indicated by the hand corresponding to the determined back of the captured image. Is superimposed as information to be superimposed (for example, the cursor M1).
Thus, by determining the back of the hand, the input / output device 200 in the present embodiment can also be used as an instruction device (pointing device). Therefore, the input / output device 200 in the present embodiment can improve convenience.
また、本実施形態では、処理部123は、撮像画像に基づいて、撮像画像に含まれる手がユーザーの手であるか否かを判定し、判定した判定結果に基づいて重畳する情報を変更する。
これにより、ユーザーの手か他人の手かにより、表示する情報を変更することができるので、本実施形態における入出力装置200は、利便性を向上させることができる。
Moreover, in this embodiment, the process part 123 determines whether the hand contained in a captured image is a user's hand based on a captured image, and changes the information to superimpose based on the determined determination result. .
As a result, the information to be displayed can be changed depending on whether it is the user's hand or another person's hand, so that the input / output device 200 in this embodiment can improve convenience.
また、本実施形態における入出力装置200は、撮像画像に基づいて、撮像画像に含まれる手の方向が示す角度を手の角度として検出する角度検出部208を備えている。処理部123は、角度検出部208によって検出された手の角度に基づいてユーザーの手であるか否かを判定する。
これにより、処理部123は、簡易な構成により正確にユーザーの手を検出することができる。
In addition, the input / output device 200 according to the present embodiment includes an angle detection unit 208 that detects an angle indicated by the hand direction included in the captured image as the hand angle based on the captured image. The processing unit 123 determines whether the hand is a user's hand based on the hand angle detected by the angle detection unit 208.
Thereby, the process part 123 can detect a user's hand correctly with a simple structure.
また、本実施形態では、処理部123は、撮像画像に含まれる手の大きさに基づいてユーザーの手であるか否かを判定する。
これにより、処理部123は、簡易な構成により正確にユーザーの手を検出することができる。
Moreover, in this embodiment, the process part 123 determines whether it is a user's hand based on the magnitude | size of the hand contained in a captured image.
Thereby, the process part 123 can detect a user's hand correctly with a simple structure.
また、本実施形態では、処理部123は、撮像画像に含まれる手が、所定の識別情報が表示された手袋を装着している場合に、撮像画像に基づいて認識した手の画像領域に含まれる識別情報に基づいて、ユーザーの手であるか否かを判定する。
これにより、例えば、手袋を常用する業務や明るい環境により、手のしわを認識し難い場合に、本実施形態における入出力装置200は、正確にユーザーの手であるか否かを判定することができる。
In the present embodiment, the processing unit 123 includes the hand included in the captured image in the image area of the hand recognized based on the captured image when wearing a glove on which predetermined identification information is displayed. It is determined whether or not the user's hand is based on the identification information.
Thereby, for example, when it is difficult to recognize a wrinkle of a hand due to work that regularly uses gloves or a bright environment, the input / output device 200 according to the present embodiment can accurately determine whether or not the hand is a user's hand. it can.
また、本実施形態では、処理部123は、撮像画像に含まれる手がユーザーの手であると判定した場合に、重畳する情報として、ユーザーに関連付けられた情報を重畳する。
これにより、ユーザーの手と判定した場合に、適切な情報が表示されるので、本実施形態における入出力装置200は、利便性を向上させることができる。
Moreover, in this embodiment, the process part 123 superimposes the information linked | related with the user as information to superimpose, when it determines with the hand contained in a captured image being a user's hand.
Thereby, when it is determined that the user's hand, appropriate information is displayed, so the input / output device 200 according to the present embodiment can improve convenience.
また、本実施形態では、処理部123は、撮像画像に含まれる手がユーザーの手でない(他人の手)と判定した場合に、重畳する情報として、ユーザーの手でないと判定した手の所有者に関連付けられた情報を重畳する。また、入出力装置200は、情報を通信する通信部(例えば、WiFi通信回路131,3G/LTE通信回路138など)を備え、処理部123は、この通信部を介して、手の所有者に関連付けられた情報を取得する。
これにより、本実施形態における入出力装置200は、撮像画像に含まれる手が撮像された本人以外の人(他人)の情報を適切に表示させることができるので、利便性を向上させることができる。
Further, in the present embodiment, when the processing unit 123 determines that the hand included in the captured image is not the user's hand (the hand of another person), the owner of the hand that is determined not to be the user's hand as the information to be superimposed The information associated with is superimposed. In addition, the input / output device 200 includes a communication unit (for example, a WiFi communication circuit 131, a 3G / LTE communication circuit 138, etc.) that communicates information, and the processing unit 123 passes the communication unit to the owner of the hand. Get associated information.
Accordingly, the input / output device 200 according to the present embodiment can appropriately display information on a person (other person) other than the person whose hand is included in the captured image, and thus can improve convenience. .
また、本実施形態では、WiFi通信回路131によって取得した手の所有者に関連付けられた情報を記憶するメモリー127を備えている。
これにより、本人以外の人(他人)と情報交換した記録(履歴)を残すことができるので、この情報を後で有効活用することができる。よって、本実施形態における入出力装置200は、利便性を向上させることができる。
In the present embodiment, a memory 127 that stores information associated with the hand owner acquired by the WiFi communication circuit 131 is provided.
As a result, a record (history) in which information is exchanged with a person other than the person (other person) can be left, and this information can be effectively used later. Therefore, the input / output device 200 according to the present embodiment can improve convenience.
また、本実施形態における入出力装置200は、カメラ64によって撮像された撮像画像に基づいて、手の態様を認識するパターン認識部201を備えている。処理部123は、パターン認識部201によって認識された手の態様に基づいて、撮像画像に重畳する情報を制御する。
パターン認識部201が撮像画像に基づいて、手の態様を認識するので、処理部123は、簡易な構成により、手の態様に応じて撮像画像に重畳する情報を制御することができる。よって、本実施形態における入出力装置200は、利便性を向上させることができる。
Further, the input / output device 200 according to the present embodiment includes a pattern recognition unit 201 that recognizes a hand mode based on a captured image captured by the camera 64. The processing unit 123 controls information to be superimposed on the captured image based on the hand mode recognized by the pattern recognition unit 201.
Since the pattern recognition unit 201 recognizes the hand mode based on the captured image, the processing unit 123 can control information to be superimposed on the captured image according to the hand mode with a simple configuration. Therefore, the input / output device 200 according to the present embodiment can improve convenience.
また、本実施形態では、パターン認識部201は、撮像画像に含まれる手が、所定の識別情報が表示された手袋を装着している場合に、撮像画像に基づいて認識した手の画像領域に含まれる識別情報に基づいて、手の態様を認識する。
これにより、本実施形態における入出力装置200は、簡易な構成により、正確に手の態様を認識することができる。
Further, in the present embodiment, the pattern recognition unit 201 applies an image area of the hand recognized based on the captured image when the hand included in the captured image is wearing a glove displaying predetermined identification information. Based on the identification information included, the hand mode is recognized.
Thereby, the input / output device 200 in the present embodiment can accurately recognize the hand mode with a simple configuration.
また、本実施形態におけるヘッドマウントディスプレイ1は、上記に記載の入出力装置200と、処理部123が出力する画像を表示する表示パネル63と、少なくともカメラ64及び表示パネル63をユーザーの頭部に装着可能なヘッドバンド40とを備えている。
これにより、本実施形態におけるヘッドマウントディスプレイ1は、上述した入出力装置200を備えているので、上述した入出力装置200と同様の効果を奏し、利便性を向上させることができる。
The head mounted display 1 according to the present embodiment includes the input / output device 200 described above, the display panel 63 that displays an image output from the processing unit 123, and at least the camera 64 and the display panel 63 on the user's head. And a headband 40 that can be worn.
Thereby, since the head mounted display 1 in this embodiment is provided with the input / output device 200 mentioned above, there exists an effect similar to the input / output device 200 mentioned above, and can improve the convenience.
なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の各実施形態において、パターン認識部201と角度検出部208とは、処理部123に含まれる形態を説明したが、これに限定されるものではかく、パターン認識部201と角度検出部208とが、処理部123の外部に備えられる形態でもよい。
The present invention is not limited to the above embodiments, and can be modified without departing from the spirit of the present invention.
For example, in each of the above embodiments, the pattern recognition unit 201 and the angle detection unit 208 have been described as being included in the processing unit 123. However, the present invention is not limited to this, and the pattern recognition unit 201 and the angle detection unit are not limited thereto. 208 may be provided outside the processing unit 123.
また、上記の各実施形態において、入出力装置200は、操作部の一例として、複数の操作メニュー(複数のメニューアイコンI1〜I9)のうちの1つを選択する操作を行うメニュー選択処理部204を備える形態を説明したが、これに限定されるものではない。例えば、入出力装置200は、メニュー選択の他に、手書きによる文字の入力や、画面上に表示されたキーボードによる情報の入力などの操作を行う操作部を備える形態でもよい。
また、上記の各実施形態において、入出力装置200は、カーソルを表示させる形態を説明したが、カーソルの代わりにAR(Augmented Reality)ペンを表示させる形態でもよい。また、入出力装置200は、例えば、操作に応じて、カーソルの色や形状を変更する形態でもよい。
In each of the above embodiments, the input / output device 200 is an example of an operation unit, and the menu selection processing unit 204 performs an operation of selecting one of a plurality of operation menus (a plurality of menu icons I1 to I9). However, the present invention is not limited to this. For example, the input / output device 200 may include an operation unit that performs operations such as handwritten character input and information input using a keyboard displayed on the screen in addition to menu selection.
Further, in each of the embodiments described above, the input / output device 200 has been described with respect to a mode in which a cursor is displayed. However, an AR (Augmented Reality) pen may be displayed instead of the cursor. Further, the input / output device 200 may be configured to change the color and shape of the cursor according to an operation, for example.
また、上記の各実施形態において、通信信ファフェース(通信部)の一例として、WiFi通信回路131を用いる形態を説明したが、これに限定されるものではない。例えば、BT通信回路130により、Bluetooth(登録商標)の通信規格を用いて通信する形態でもよいし、3G/LTE通信回路138を用いて通信する形態でもよい。
また、上述の図14CのステップS216において、交換される情報は、図20に示されるような表示パネル63に表示される情報に限定されるものではない。図20では、見やすいように限定された情報が表示されているが、データ通信においては、例えば、住所やメールアドレスなどの詳細情報が通信され、メモリー127に記録される形態でもよい。
In each of the above-described embodiments, the embodiment using the WiFi communication circuit 131 as an example of the communication communication interface (communication unit) has been described. However, the present invention is not limited to this. For example, the BT communication circuit 130 may communicate using the Bluetooth (registered trademark) communication standard, or the 3G / LTE communication circuit 138 may communicate.
Further, the information exchanged in step S216 of FIG. 14C described above is not limited to the information displayed on the display panel 63 as shown in FIG. In FIG. 20, limited information is displayed for easy viewing. However, in data communication, for example, detailed information such as an address and a mail address may be communicated and recorded in the memory 127.
また、手袋に記載(表示)されるマーカーは、図21の例に限定されるものではない。例えば、手袋のマーカーにさらに複雑なパターンを描くとともに、マーカーによって表示されるキャラクターの形状や、表示される情報を変更可能としてもよい。また、複雑なパターンとしては、例えば、バーコードやQRコード(登録商標)を印刷(表示)し、より多くの情報を盛り込んでもよい。
このことで、例えば、イベントなどにおいて、例えば、男性用の手袋と女性用の手袋とを変えることで、入出力装置200は、事前にヘッドマウントディスプレイ1を設定することなく、ユーザーの性別に合わせて異なるキャラクターを表示させることも可能である。さらに、入出力装置200は、手の形状を認識して、キャラクターの種類や、姿勢などを変えてもよい。
Moreover, the marker described (displayed) on the glove is not limited to the example of FIG. For example, a more complicated pattern may be drawn on the glove marker, and the shape of the character displayed by the marker and the displayed information may be changed. Further, as a complicated pattern, for example, a barcode or a QR code (registered trademark) may be printed (displayed) to include more information.
Thus, for example, in an event or the like, for example, by changing a male glove and a female glove, the input / output device 200 can match the gender of the user without setting the head mounted display 1 in advance. It is also possible to display different characters. Further, the input / output device 200 may recognize the shape of the hand and change the character type, posture, and the like.
また、上記の各実施形態において、手の甲が観察される場合にはカーソルを表示し、手の平が観察される場合にはキャラクターを表示する形態を説明したが、これに限定されるものではない。例えば、処理部123は、手の平と甲、右手と左手とで4種類のキャラクターや異なる情報を表示させる形態でもよい。また、処理部123は、手の平から手の甲へと手を180度回転させた場合に、キャラクターも同様に180度回転させて表示する形態でもよい。
さらに、処理部123は、手の左右、手の表裏の識別を、ユーザーの手だけでなく、ユーザー以外の手に対しても行ってもよい。処理部123は、この識別に基づいて、重畳する情報を変更してもよい。
In each of the above embodiments, a mode has been described in which a cursor is displayed when the back of the hand is observed, and a character is displayed when the palm is observed. However, the present invention is not limited to this. For example, the processing unit 123 may be configured to display four types of characters and different information for the palm and back, and the right and left hands. Further, the processing unit 123 may be configured to display the character by rotating it 180 degrees in the same manner when the hand is rotated 180 degrees from the palm of the hand to the back of the hand.
Furthermore, the processing unit 123 may perform not only the user's hand but also the hand other than the user to identify the left and right hands and the front and back of the hand. The processing unit 123 may change the information to be superimposed based on this identification.
上述のヘッドマウントディスプレイ1及び入出力装置200は内部に、コンピュータシステムを有している。そして、上述した入出力装置200の処理過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリー等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
The head mounted display 1 and the input / output device 200 described above have a computer system therein. The process of the input / output device 200 described above is stored in a computer-readable recording medium in the form of a program, and the above process is performed by the computer reading and executing the program. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.