[go: up one dir, main page]

JP2018182570A - Line-of-sight information sharing method and line-of-sight information sharing system - Google Patents

Line-of-sight information sharing method and line-of-sight information sharing system Download PDF

Info

Publication number
JP2018182570A
JP2018182570A JP2017080751A JP2017080751A JP2018182570A JP 2018182570 A JP2018182570 A JP 2018182570A JP 2017080751 A JP2017080751 A JP 2017080751A JP 2017080751 A JP2017080751 A JP 2017080751A JP 2018182570 A JP2018182570 A JP 2018182570A
Authority
JP
Japan
Prior art keywords
terminal
image
display
worker
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2017080751A
Other languages
Japanese (ja)
Inventor
稲垣 義弘
Yoshihiro Inagaki
義弘 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017080751A priority Critical patent/JP2018182570A/en
Publication of JP2018182570A publication Critical patent/JP2018182570A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To establish appropriate communication without damaging hands-free performance of an HMD, enable a user of another terminal to appropriately give an instruction without getting visually induced motion sickness caused by gazing at a displayed picture, and enable a user of the HMD to appropriately grasp an instruction from a user of another terminal even when the user of the HMD is moving.SOLUTION: A line-of-sight information sharing method includes: a step of holding, as a reference picture, part of a still picture previously acquired by imaging using a first terminal; a step (S21) of acquiring a moving picture by imaging using the first terminal; a step (S22) of detecting an area corresponding to the reference picture from the moving picture; a step (S23) of displaying on a second terminal a picture showing the area; a step (S24) of acquiring a gazing position on the displayed picture on the second terminal; a step (S25) of calculating a marker display position on the first terminal on the basis of a result of detecting the area and the like; and a step (S26) of displaying a marker at the display position on the first terminal.SELECTED DRAWING: Figure 30

Description

本発明は、通信回線を介して接続される複数の情報入出力端末間で、使用者の視線情報を共有する視線情報共有方法および視線情報共有システムに関する。   The present invention relates to a line-of-sight information sharing method and a line-of-sight information sharing system for sharing user's line-of-sight information among a plurality of information input / output terminals connected via a communication line.

従来から、シースルーHMD(Head Mounted Display;ヘッドマウントディスプレイ)と呼ばれる頭部装着型のシースルー情報表示装置が知られている。このシースルーHMDは、外界観察時に所望の情報を映像として付加して装着者に提供できる装置であり、大別すると、ビデオシースルー型と、光学シースルー型とがある。   BACKGROUND Conventionally, a head-mounted see-through information display device called a see-through HMD (Head Mounted Display) has been known. The see-through HMD is a device that can add desired information as an image at the time of external observation and provide the image to the wearer, and can be roughly classified into a video see-through type and an optical see-through type.

ビデオシースルー型は、遮蔽型(クローズ型)の表示装置に、装着者の前方視界を撮像するカメラを付加し、装着者の前方の視界を撮像した画像に所望の映像を重ね、これらを一体的な画像として装着者に視認させる装置である。一方、光学シースルー型は、外界からの光と映像光とを重ねるコンバイナを用い、コンバイナによってこれらの光を装着者の瞳に導くことにより、装着者に映像とともに外界を直接視認させる装置である。   In the video see-through type, a camera that captures the front view of the wearer is added to a shielded (closed) display device, a desired image is superimposed on an image obtained by capturing the front view of the wearer, and these are integrated. Device that allows the wearer to visually recognize it as an image. On the other hand, the optical see-through type is a device that allows the wearer to directly view the outside world together with the image by using a combiner that superimposes light from the outside world with the image light and guiding the light to the wearer's pupil by the combiner.

上記いずれのタイプのシースルーHMDについても、視認される外界の像(以下、外界像とも称する)に所望の映像を重畳することによって、装着者の作業を補完して助ける活用提案がある。HMDの持つハンズフリー性と合わせて外界を観察可能とすることで、装着者に通常の作業を妨げることがなく、さらに必要な情報(例えば作業指示やマニュアル)を外界像に重畳して表示して、装着者の作業性を向上させることができる。   With regard to any of the above types of see-through HMDs, there is an application proposal that complements and assists the work of the wearer by superimposing a desired image on an image of the visible external world (hereinafter, also referred to as an external world image). By making it possible to observe the outside world in combination with the hands-free nature of the HMD, the wearer is not disturbed by normal work, and further necessary information (for example, work instruction and manual) is displayed superimposed on the outside world image. Thus, the workability of the wearer can be improved.

HMDを用いて装着者の作業を補完する例については、例えば特許文献1で提案されている。特許文献1では、作業者および指示者がビデオシースルー型のHMDを装着し、作業者の前方の外界をカメラで撮像し、撮影によって取得された現実空間の画像に仮想空間の画像を合成した複合現実空間画像を遠隔地の指示者に送信して共有する。そして、表示画像に対して指示者が付加情報を追加することで、作業者に指示を伝達し、協働作業を行う。付加情報を追加する手段としては、手に持つタイプ(手持ち型、ハンディ型)の入力装置が用いられる。   About the example which supplements a wearer's operation | work using HMD, it is proposed by patent document 1, for example. In Patent Document 1, a compound and a worker and an instructor wear a video see-through HMD, capture an external environment in front of the worker with a camera, and combine an image of a virtual space with an image of a real space acquired by shooting. Send and share real space images to remote instructors. Then, the instructor adds the additional information to the display image to transmit the instruction to the worker and perform the collaborative work. As a means for adding additional information, a hand-held (hand-held, hand-held) input device is used.

特開2006−209664号公報(請求項1、段落〔0007〕、〔0019〕、〔0102〕、図1、図2等参照)JP-A-2006-209664 (see claim 1, paragraphs [0007], [0019], [0102], FIG. 1, FIG. 2, etc.)

しかし、特許文献1のように、付加情報を追加する手段として、手持ち型の入力装置を用いる場合、入力装置によって手がふさがるため、本来のHMDが持つハンズフリー性が損なわれる。このため、HMDを用い、例えば、対象物のネジを実際に締める、部品を取り外すなど、手による作業が必要な場合には、その作業性が悪化する。   However, when a hand-held input device is used as a means for adding additional information as in Patent Document 1, the hands are blocked by the input device, and the hands-free property of the original HMD is lost. For this reason, when it is necessary to use a HMD to perform a manual operation such as, for example, actually tightening a screw of an object or removing a part, the workability deteriorates.

その他、上記のような複数人での協働作業や、指示者からの指示を受けて作業者が実作業を行う活用においては、音声や、音声入力による表示(音声を活字に変換して表示する手法)での意思疎通も考えられる。しかし、実際の対象物に対する作業箇所を特定するにあたって、「これ」、「あれ」、「そこ」などの曖昧な音声や表示による指示では、作業箇所を特定しにくい。また、詳細に意思疎通を行おうとすると、例えば、特定のボルトに対する作業を指示する際に、「右から3列目で上から2番目のボルト」、などのように、指示内容が長くなったり複雑化する。このため、音声または音声入力による表示のみで意思疎通を的確に行うことは困難である。   In addition, in the case where the above-mentioned collaborative work by a plurality of persons or the worker performs an actual work in response to an instruction from the instructor, the display by speech or speech input (conversion of speech into print and display) Communication can be considered. However, when specifying the work location for the actual object, it is difficult to specify the work location by an instruction such as “this”, “that”, “there” or the like that is vague voice or display. In addition, when trying to communicate in detail, for example, when instructing work on a specific bolt, the instruction content may become long, such as "the third column from the right and the second bolt from the top". Be complicated. For this reason, it is difficult to accurately communicate only by displaying by voice or voice input.

したがって、HMDを活用した複数人での協働・連携作業においては、HMDの有用性であるハンズフリー性を損なわずに、意思疎通を的確に行うことができる手段が求められる。   Therefore, in collaboration and cooperation work by a plurality of people utilizing the HMD, a means is needed which can properly communicate without impairing the hands-freeness which is the usefulness of the HMD.

また、HMDを装着した作業者は、作業対象物に対して常に静止した状態で作業するとは限らず、作業中に横に移動したり、頭部が動くこともある。このような作業者の動きに追従して撮影された画像を指示者側の端末に送り、そこで表示するシステムを仮定したとき、表示画像としては、作業者の動きに追従して作業対象物が動く画像が表示される。特に、作業者の動きが速い場合には、表示画像中の作業対象物の動きも速くなる。この場合、指示者は、指示のために表示画像中の同一箇所(例えば作業対象物において締める指示を出したいネジ)を注視し続けることが困難となり、無理に注視し続けようとすると、注視点の移動が激しくなって映像酔いを起こしやすくなる。これでは、指示者が表示画像を見ながら作業者に的確な指示を出すことができなくなる。また、HMDを装着した作業者にとっては、作業中に動きながらでも、指示者側からの指示を的確に把握できるようにすることが望まれる。   In addition, a worker wearing the HMD does not always work with the work object stationary at all times, and may move sideways or move his head during work. Assuming a system in which an image captured following such a worker's movement is sent to the terminal on the side of the instructor and displayed there, the work target object follows the movement of the worker as the display image. A moving image is displayed. In particular, when the movement of the worker is fast, the movement of the work object in the display image is also fast. In this case, it becomes difficult for the instructor to keep an eye on the same part in the display image (for example, a screw that wants to give an instruction to tighten the work object) for the instruction. The movement of the subject becomes intense and it is easy to cause video sickness. In this case, the instructor can not give an accurate instruction to the operator while viewing the display image. In addition, it is desirable for the operator wearing the HMD to be able to accurately grasp the instruction from the instructor while moving during the operation.

本発明は、上記の問題点を解決するためになされたもので、その目的は、HMDのハンズフリー性を損なわずに意思疎通を的確に行うとともに、他の端末の使用者が表示画像の注視による映像酔いを起こさずに指示を的確に出すことができ、また、HMDの使用者が動きながらでも、他の端末の使用者からの指示を的確に把握することができる視線情報共有方法および視線情報共有システムを提供することにある。   The present invention has been made to solve the above problems, and its object is to accurately communicate without losing the hands-free nature of the HMD, and to allow the user of another terminal to gaze at the displayed image. The gaze information sharing method and the gaze information which can accurately give instructions without causing video sickness due to the HMD, and can accurately grasp the instructions from the users of other terminals while the HMD user is moving. To provide an information sharing system.

本発明の一側面に係る視線情報共有方法は、通信回線を介して接続される複数の情報入出力端末を含むシステムにおける視線情報共有方法であって、前記複数の情報入出力端末は、外界を撮影して画像を取得可能なシースルー型のヘッドマウントディスプレイである第1端末と、情報の表示および使用者の視線方向の検出が可能な第2端末とを含み、該視線情報共有方法は、前記第1端末の使用者が静止した状態で、前記第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する工程と、前記第1端末での撮影によって動画を取得する工程と、前記第1端末で取得された前記動画から、前記基準画像に対応する領域を検出する工程と、前記第2端末において、検出された前記領域を表す画像を表示する工程と、前記第2端末において、表示画像に対する使用者の視線方向を検出して注視位置を求める工程と、前記領域の検出結果と、前記第2端末の使用者の前記注視位置と、前記第1端末の撮像特性および表示特性とに基づいて、前記第1端末における、前記注視位置を示すマーカーの表示位置を算出する工程と、前記第1端末において、算出された前記表示位置に前記マーカーを表示する工程とを含む。   A line-of-sight information sharing method according to an aspect of the present invention is a line-of-sight information sharing method in a system including a plurality of information input / output terminals connected via a communication line, wherein the plurality of information input / output terminals The gaze information sharing method includes the first terminal being a see-through head mounted display capable of photographing and acquiring an image, and the second terminal capable of displaying information and detecting a gaze direction of a user, the gaze information sharing method comprising: A step of holding, as a reference image, a part of a still image acquired in advance by photographing with the first terminal while the user of the first terminal stands still, and moving pictures by photographing with the first terminal Acquiring, detecting an area corresponding to the reference image from the moving image acquired by the first terminal, and displaying an image representing the detected area in the second terminal; Previous Detecting a gaze position by detecting a gaze direction of the user with respect to the display image in the second terminal; detecting the area; detecting the gaze position of the user of the second terminal; and capturing an image of the first terminal Calculating the display position of the marker indicating the gaze position at the first terminal based on the characteristic and the display characteristic; and displaying the marker at the calculated display position at the first terminal; including.

本発明の他の側面に係る視線情報共有システムは、通信回線を介して接続される複数の情報入出力端末を含む視線情報共有システムであって、前記複数の情報入出力端末は、第1端末および第2端末を含み、前記第1端末は、外界を撮影して画像を取得する撮像装置を含むシースルー型のヘッドマウントディスプレイであり、前記第2端末は、情報を表示する表示装置と、前記表示装置によって表示された情報に対する使用者の視線方向を検出する視線検出装置とを含み、前記複数の情報入出力端末のいずれかは、前記第1端末の使用者が静止した状態で、前記第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する保持部と、前記第1端末での撮影によって動画が取得されたときに、前記動画から、前記基準画像に対応する領域を検出する領域検出部と、前記領域検出部によって検出された前記領域を表す画像が前記第2端末で表示され、前記視線検出装置によって表示画像に対する使用者の視線方向を検出して注視位置が求められたときに、前記領域検出部による前記領域の検出結果と、前記第2端末の使用者の前記注視位置と、前記第1端末の撮像特性および表示特性とに基づいて、前記第1端末における、前記注視位置を示すマーカーの表示位置を算出する演算部とを有し、前記第1端末は、前記演算部によって算出された前記表示位置に前記マーカーを表示する。   A line-of-sight information sharing system according to another aspect of the present invention is a line-of-sight information sharing system including a plurality of information input / output terminals connected via a communication line, the plurality of information input / output terminals being a first terminal And a second terminal, wherein the first terminal is a see-through head mounted display including an imaging device for capturing an image by capturing the outside world, and the second terminal is a display device for displaying information; A visual axis detection device for detecting the visual axis direction of the user with respect to the information displayed by the display device, and any one of the plurality of information input / output terminals can be used in the state where the user of the first terminal is stationary; When the moving image is acquired by the holding unit that holds a part of the still image acquired in advance by photographing with one terminal as a reference image, and the moving image is acquired by photographing by the first terminal, the reference from the moving image An area detection unit for detecting an area corresponding to an image, and an image representing the area detected by the area detection unit are displayed on the second terminal, and the gaze detection apparatus detects the gaze direction of the user with respect to the display image When the gaze position is determined, based on the detection result of the area by the area detection unit, the gaze position of the user of the second terminal, and the imaging characteristic and display characteristic of the first terminal. A calculation unit configured to calculate a display position of a marker indicating the gaze position in the first terminal, wherein the first terminal displays the marker at the display position calculated by the calculation unit.

第1端末では、第2端末の使用者の注視位置を示すマーカーが表示されるため、第1端末の使用者は、表示される上記マーカーを見て、第2端末の使用者の意思(例えば作業箇所の指定)を把握し、それに基づいて両手で作業を行うことが可能となる。したがって、HMDで構成される第1端末のハンズフリー性を損なわずに、意思疎通を的確に行うことができる。しかも、第1端末では、第2端末の使用者の注視位置(視線方向)をマーカーという明確に視認可能な形態で示すため、音声のみで意思疎通を行う場合のように指示が曖昧となることがなく、意思疎通を的確に行うことができる。   In the first terminal, a marker indicating the gaze position of the user of the second terminal is displayed, so that the user of the first terminal sees the displayed marker and determines the intention of the user of the second terminal (for example, It becomes possible to grasp the designation of the work location and to work with both hands based on it. Therefore, communication can be properly performed without impairing the hands-free property of the first terminal configured by the HMD. Moreover, in the first terminal, since the gaze position (line-of-sight direction) of the user of the second terminal is indicated in a clearly visible form called a marker, the instruction becomes ambiguous as in the case of communicating only with voice. Can communicate properly.

また、第1端末の使用者が作業中に動き、それに伴って、撮影によって取得される動画中で撮影対象(例えば作業対象物)の位置が動く場合でも、第2端末では、第1端末で取得された動画のうちで、基準画像に対応する所定の領域の画像が表示される。つまり、表示画像としては、撮影対象の位置がほとんど変化しない上記領域の画像が表示される。これにより、表示画像を観察する第2端末の使用者は、映像酔いを起こしにくくなり、表示画像に基づいて、視線による指示を的確に出すことが可能となる。   In addition, even if the user of the first terminal moves while working, and the position of the object to be photographed (for example, a work object) moves in the moving image acquired by photographing along with it, in the second terminal, the first terminal Among the acquired moving images, an image of a predetermined area corresponding to the reference image is displayed. That is, as the display image, an image of the above-described area in which the position of the imaging target hardly changes is displayed. As a result, the user of the second terminal who observes the display image is less likely to cause video sickness, and it is possible to accurately issue an instruction by the line of sight based on the display image.

また、第1端末では、基準画像に対応する領域の検出結果と、第2端末の使用者の注視位置と、第1端末の撮像特性および表示特性とに基づいて算出される位置に、上記注視位置を示すマーカーが表示されるため、第1端末の使用者が作業中に動いても、第1端末の画像の表示領域内で、第2端末で使用者が注視する位置と対応する位置(例えば作業対象物に対して同じ位置)に、上記マーカーを表示させ続けることができる。これにより、第1端末の使用者は、作業中に動きながらでも、表示されたマーカーを見て、第2端末の使用者からの視線による指示(例えば作業箇所の指定)を的確に把握して、作業を行うことが可能となる。   In the first terminal, the gaze at the position calculated based on the detection result of the region corresponding to the reference image, the gaze position of the user of the second terminal, and the imaging characteristic and display characteristic of the first terminal Since the marker indicating the position is displayed, even if the user of the first terminal moves while working, the position corresponding to the position at which the user gazes at the second terminal within the display area of the image of the first terminal For example, the marker can be kept displayed at the same position with respect to the work object. Thereby, the user of the first terminal looks at the displayed marker while moving during work, and accurately grasps an instruction from the user of the second terminal (for example, designation of a work location) It will be possible to work.

本発明の実施の一形態に係る視線情報共有システムの概略の構成を示す説明図である。BRIEF DESCRIPTION OF THE DRAWINGS It is explanatory drawing which shows the schematic structure of the gaze information sharing system which concerns on one Embodiment of this invention. 上記視線情報共有システムを構成する情報入出力端末の一例であるHMDの概略の構成を示す正面図である。It is a front view which shows the schematic structure of HMD which is an example of the information input-output terminal which comprises the said gaze information sharing system. 上記HMDが備える映像表示装置の光学構成を示す断面図である。It is sectional drawing which shows the optical structure of the video display apparatus with which the said HMD is provided. 上記HMDの詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of said HMD. 上記視線情報共有システムを構成する管理サーバーの概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the management server which comprises the said gaze information sharing system. 作業者と指示監督者とが協働作業を行う様子を模式的に示す説明図である。It is explanatory drawing which shows typically a mode that a worker and an instruction | command supervisor perform collaborative work. 上記視線情報共有システムにおける動作の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of operation | movement in the said gaze information sharing system. 作業者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of a worker's visual field. 指示監督者が表示映像を観察している様子を示す説明図である。It is explanatory drawing which shows a mode that the instruction | command supervisor observes a display image. 指示監督者の視線位置を示すマーカーが表示されたときの、作業者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of a worker's visual field when the marker which shows the gaze position of an instruction | command supervisor is displayed. 上記視線情報共有システムにおける動作の流れの他の例を示すフローチャートである。It is a flowchart which shows the other example of the flow of operation | movement in the said gaze information sharing system. 作業者および指示監督者の両者の視線の位置が表示されたときの、作業者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of a worker's visual field when the position of eyes of both a worker and an instruction | command supervision person is displayed. 上記視線情報共有システムにおける動作の流れのさらに他の例を示すフローチャートである。It is a flowchart which shows the further another example of the flow of operation | movement in the said gaze information sharing system. 作業者および指示監督者の両者の視線の位置が表示されたときの、指示監督者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of the visual field of an instruction | command supervisor when the position of eyes of both a worker and an instruction | command supervisor is displayed. 作業者が遠距離の指示監督者から視線情報に基づく指示を受けて作業を行う様子を示す説明図である。It is an explanatory view showing signs that a worker performs work based on instructions based on line-of-sight information from a long-distance instruction supervisor. 本発明の他の実施の形態に係る視線情報共有システムにおいて、2人の作業者が協働作業を行う様子を模式的に示す説明図である。The gaze information sharing system which concerns on other embodiment of this invention WHEREIN: It is explanatory drawing which shows typically a mode that two workers perform collaborative work. 一方の作業者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of one worker's visual field. 他方の作業者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of the visual field of the other worker. 他方の作業者の視界画像を、一方の作業者のHMDによって表示したときの、一方の作業者の視界のイメージを示す説明図である。It is an explanatory view showing the image of the view of one worker when the view image of the other worker is displayed by the HMD of the one worker. 一方の作業者の視界画像を、他方の作業者のHMDによって表示したときの、他方の作業者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of the visual field of the other worker when the visual field image of one worker is displayed by HMD of the other worker. 2人の作業者の視線位置を示すマーカーが表示されたときの、一方の作業者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of one worker's visual field when the marker which shows the visual line position of two workers is displayed. 2人の作業者の視線位置を示すマーカーが表示されたときの、他方の作業者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of a field of vision of the other worker when a marker which shows a look position of two workers is displayed. 本発明のさらに他の実施の形態に係る視線情報共有システムにおいて、2人の作業者から送られて表示された映像を、指示監督者が観察している様子を模式的に示す説明図である。The gaze information sharing system according to still another embodiment of the present invention is an explanatory view schematically showing a state in which the instruction supervisor observes a video sent from two workers and displayed. . 2人の作業者および指示監督者の視線位置を示すマーカーが表示されたときの、一方の作業者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of one worker's visual field when the marker which shows two workers and the instruction | indication supervisor's gaze position is displayed. 2人の作業者および指示監督者の視線位置を示すマーカーが表示されたときの、他方の作業者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of the visual field of the other worker when the marker which shows the gaze position of two workers and an instruction | command supervisor is displayed. 上記視線情報共有システムを構成する情報入出力端末の他の構成を示す説明図である。It is explanatory drawing which shows the other structure of the information input-output terminal which comprises the said gaze information sharing system. 本発明の一実施例における基準画像取得処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the reference | standard image acquisition process in one Example of this invention. 基準画像取得時の一方の作業者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of one worker's visual field at the time of reference | standard image acquisition. 基準画像取得時の他方の作業者の視界のイメージを示す説明図である。It is explanatory drawing which shows the image of the visual field of the other worker at the time of reference | standard image acquisition. 上記実施例の視線情報管理システムにおいて、指示者側端末および作業者側端末での画像表示に係る処理の流れを示すフローチャートである。In the gaze information management system of the said Example, it is a flowchart which shows the flow of the process which concerns on the image display in an indicator side terminal and a worker side terminal. 上記視線情報管理システムの管理サーバーの保持部に記憶されている基準画像を複数の領域に分割した状態を示す説明図である。It is explanatory drawing which shows the state which divided | segmented the reference | standard image memorize | stored in the holding | maintenance part of the management server of the said gaze information management system into several area | regions. 上記基準画像と、上記基準画像の取得時の位置よりも作業者が一方のデバイスに近づいた状態で撮影された画像とを模式的に示す説明図である。It is explanatory drawing which shows typically the said reference image and the image image | photographed in the state which the worker approached one device rather than the position at the time of acquisition of the said reference image. 他方の作業者のHMDにて、基準画像と注目領域の画像とが重なって表示されている状態を模式的に示す説明図である。It is explanatory drawing which shows typically the state which the reference image and the image of the attention area overlap and are displayed by HMD of the other worker. 一方の作業者の動きが小さい場合の、パターンマッチングを行う範囲のイメージを示す説明図である。It is explanatory drawing which shows the image of the range which performs pattern matching in case one worker's motion is small. 一方の作業者の動きが大きい場合の、パターンマッチングを行う範囲のイメージを示す説明図である。It is explanatory drawing which shows the image of the range which performs pattern matching in case one worker's motion is large. 上記基準画像そのものをパターンマッチングのキーとして用いる場合のイメージを示す説明図である。It is explanatory drawing which shows the image in the case of using the said reference | standard image itself as a key of pattern matching. 上記管理サーバーでの処理の詳細な流れを示すフローチャートである。It is a flowchart which shows the detailed flow of the process in the said management server. 本発明の他の実施例における他方の作業者のHMDの表示画像を示す説明図である。It is explanatory drawing which shows the display image of HMD of the other worker in the other Example of this invention. 本発明のさらに他の実施例における他方の作業者のHMDの表示画像を示す説明図である。It is explanatory drawing which shows the display image of HMD of the other worker in the other Example of this invention. 本発明のさらに他の実施例における他方の作業者の視界の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field of the other worker in the other Example of this invention. 上記他方の作業者の視界の他の例を示す説明図である。It is an explanatory view showing other examples of a field of view of the above-mentioned other worker. 本発明のさらに他の実施例における他方の作業者の視界の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field of the other worker in the other Example of this invention. 図42において、映像として表示される領域と、映像として表示されない非表示部分とを併せて示した説明図である。FIG. 42 is an explanatory view collectively showing an area displayed as a video and a non-displayed part not displayed as a video in FIG. 42. 他方の作業者が姿勢を変化させたときの視界を示す説明図である。It is explanatory drawing which shows a visual field when the other worker changes an attitude | position. 図44において映像として表示される領域と、映像として表示されない非表示部分とを併せて示した説明図である。FIG. 45 is an explanatory view showing a region displayed as a video in FIG. 44 and a non-displayed portion not displayed as a video together. 本発明のさらに他の実施例の視線情報管理システムにおいて、指示者側端末および作業者側端末での画像表示に係る処理の流れを示すフローチャートである。In the gaze information management system of the further another example of this invention, it is a flowchart which shows the flow of the process which concerns on the image display in an indicator side terminal and a worker side terminal.

本発明の実施の一形態について、図面に基づいて説明すれば、以下の通りである。なお、本発明は、以下の内容に限定されるものではない。   It will be as follows if one embodiment of the present invention is described based on a drawing. The present invention is not limited to the following contents.

(1.視線情報共有システムの構成)
図1は、本実施形態の視線情報共有システム100の概略の構成を示す説明図である。視線情報共有システム100は、複数の情報入出力端末200を、通信回線300を介して通信可能に(情報連携可能に)接続して構成されている。通信回線300は、例えばWi−Fi(登録商標)などの無線通信環境によって実現されているが、光ファイバーなどのケーブルを用いた有線の通信回線であってもよい。
(1. Configuration of gaze information sharing system)
FIG. 1 is an explanatory view showing a schematic configuration of a line-of-sight information sharing system 100 of the present embodiment. The line-of-sight information sharing system 100 is configured by communicatively connecting a plurality of information input / output terminals 200 via a communication line 300 (information cooperation is possible). The communication line 300 is realized by, for example, a wireless communication environment such as Wi-Fi (registered trademark), but may be a wired communication line using a cable such as an optical fiber.

複数の情報入出力端末200は、相互に情報を入出力(送受信)することが可能である。入出力の対象となる情報には、例えば、各情報入出力端末200で取得される撮像画像の情報(画像データ)や、各情報入出力端末200の使用者の視線方向や視線の位置(注視位置)に関する情報(以下、単に視線情報とも称する)が含まれる。これにより、複数の情報入出力端末200間で、使用者の視線情報を共有して、後述するように使用者の視線に基づく意思疎通が可能となる。   The plurality of information input / output terminals 200 can mutually input / output (transmit / receive) information. The information to be input / output includes, for example, information (image data) of a captured image acquired by each information input / output terminal 200, a gaze direction of a user of each information Information related to the position) (hereinafter also referred to simply as line-of-sight information). Thus, the line-of-sight information of the user can be shared among the plurality of information input / output terminals 200, and communication based on the line of sight of the user can be performed as described later.

複数の情報入出力端末200は、シースルー型のヘッドマウントディスプレイ(HMD)と、管理サーバー400(図5参照)とを含んで構成されている。HMDは、使用者の頭部に装着され、映像を虚像として使用者に視認可能に表示する頭部装着型端末である。管理サーバー400は、HMDにて取得される情報を管理する端末である。なお、管理サーバー400の機能をいずれかのHMDに持たせて、管理サーバー400を省略することも可能である。まず、HMDの詳細について以下に説明する。   The plurality of information input / output terminals 200 are configured to include a see-through head mounted display (HMD) and a management server 400 (see FIG. 5). The HMD is a head-mounted terminal mounted on the head of the user and displaying an image as a virtual image so as to be visible to the user. The management server 400 is a terminal that manages information acquired by the HMD. It is also possible to omit the management server 400 by giving the function of the management server 400 to any of the HMDs. First, the details of the HMD will be described below.

(2.HMDの構成)
図2は、本実施形態の情報入出力端末200の一例であるHMD201の概略の構成を示す正面図である。HMD201は、使用者に映像を提示する映像表示装置202と、支持部材203とを含んで構成されている。支持部材203は、映像表示装置202を観察者(HMD201の使用者)の眼前(例えば右眼ERの前)で支持する部材であり、眼鏡のフレームやテンプルに相当する支持部203aと、支持部203aに取り付けられて、装着時に使用者の鼻と当接する鼻当て203bとを含む。
(2. Configuration of HMD)
FIG. 2 is a front view showing a schematic configuration of the HMD 201 which is an example of the information input / output terminal 200 of the present embodiment. The HMD 201 includes an image display device 202 for presenting an image to the user, and a support member 203. The support member 203 is a member for supporting the image display device 202 in front of the observer (user of the HMD 201) (for example, in front of the right eye ER), and a support portion 203a corresponding to a frame or a temple of glasses A nosepiece 203b is attached to the holder 203a and abuts against the user's nose when worn.

なお、HMD201は、さらに、右眼用レンズや左眼用レンズを含み、これらが支持部材203で支持される構成であってもよい。また、HMD201は、映像表示装置202を2個有し、支持部材203によって各映像表示装置202を使用者の右眼および左眼の眼前で支持する構成であってもよい。さらに、HMD201は、映像表示装置202の位置(例えば左右方向、上下方向の各位置)や取付角度(アオリ角)を調整する位置調整機構を有していてもよい。   The HMD 201 may further include a lens for the right eye and a lens for the left eye, and these may be supported by the support member 203. In addition, the HMD 201 may have two video display devices 202 and support the respective video display devices 202 by the support member 203 in front of the eyes of the user's right and left eyes. Furthermore, the HMD 201 may have a position adjustment mechanism that adjusts the position (for example, each position in the horizontal direction and the vertical direction) of the image display device 202 and the mounting angle (alignment angle).

映像表示装置202は、使用者が映像とともに外界を直接観察可能な光学シースルー型ディスプレイである。すなわち、映像表示装置202は、外界からの光を使用者の瞳に導くことにより、使用者に外界を観察させるとともに、使用者の視野の一部に映像を虚像として表示して提供する表示光学系である。以下、映像表示装置202の光学構成について説明する。   The image display device 202 is an optical see-through display that allows the user to directly observe the outside as well as the image. That is, the image display device 202 causes display light to be displayed as a virtual image on a part of the user's field of vision while causing the user to observe the outside world by guiding light from the outside world to the user's pupil. It is a system. The optical configuration of the video display device 202 will be described below.

図3は、映像表示装置202の光学構成を示す断面図である。映像表示装置202は、照明光学系2と、偏光板3と、偏光ビームスプリッタ(PBS)4と、表示素子5と、接眼光学系6とを有している。照明光学系2、偏光板3、PBS4、表示素子5、および接眼光学系6の上端部は、図2で示した筐体202a内に位置している。   FIG. 3 is a cross-sectional view showing an optical configuration of the video display device 202. As shown in FIG. The image display device 202 includes an illumination optical system 2, a polarizing plate 3, a polarization beam splitter (PBS) 4, a display element 5, and an eyepiece optical system 6. The upper end portions of the illumination optical system 2, the polarizing plate 3, the PBS 4, the display element 5, and the eyepiece optical system 6 are located in the housing 202 a shown in FIG. 2.

なお、以下での説明の便宜上、各方向を以下のように定義しておく。図3において、接眼光学系6によって形成される光学瞳Pの中心(映像観察時の使用者の瞳中心)と表示素子5の表示面の中心とを光学的に結ぶ軸およびその軸の延長線を光軸(観察中心軸)とする。そして、接眼光学系6のHOE(Holographic Optical Element;ホログラフィック光学素子)23の光軸平面に垂直な方向をX方向とする。なお、HOE23の光軸平面とは、上記光軸と一致する光線がHOE23に入射するときの、入射光線と反射光線とを含む平面を指す。また、各光学部材の上記光軸との交点における、面法線と垂直な面内で、X方向に垂直な方向をY方向とする。そして、X方向およびY方向に垂直な方向をZ方向とする。このような定義を用いると、例えば、表示素子5の法線と接眼光学系6の後述する2つの平行な面21b・21cの法線とを含み、かつ、表示素子5の表示面の中心を含む断面は、YZ断面となる。   In addition, each direction is defined as follows for convenience of explanation below. In FIG. 3, an axis optically connecting the center of the optical pupil P formed by the eyepiece optical system 6 (the center of the user's pupil at the time of image observation) and the center of the display surface of the display element 5 As the optical axis (observation central axis). Then, a direction perpendicular to the optical axis plane of the HOE (holographic optical element; holographic optical element) 23 of the eyepiece optical system 6 is taken as an X direction. The optical axis plane of the HOE 23 refers to a plane including an incident ray and a reflected ray when a ray coincident with the optical axis is incident on the HOE 23. Further, in the plane perpendicular to the surface normal at the intersection of each optical member with the optical axis, the direction perpendicular to the X direction is taken as the Y direction. Then, a direction perpendicular to the X direction and the Y direction is taken as the Z direction. Using such a definition, for example, includes the normal of the display element 5 and the normals of two parallel surfaces 21 b and 21 c of the eyepiece optical system 6 described later, and the center of the display surface of the display 5 is The cross section included is the YZ cross section.

照明光学系2は、表示素子5を照明するものであり、光源11と、照明ミラー12と、拡散板13とを有している。   The illumination optical system 2 illuminates the display element 5 and includes a light source 11, an illumination mirror 12, and a diffusion plate 13.

光源11は、R(赤)、G(緑)、B(青)の各色に対応する光を出射するRGB一体型のLEDで構成されている。複数の発光点(RGBの各発光点)は、水平方向(X方向)に略直線状に並んでいる。光源11から出射される光の波長は、例えば、光強度のピーク波長および光強度半値の波長幅で、462±12nm(B光)、525±17nm(G光)、635±11nm(R光)である。なお、光源11は、レーザ光源であってもよい。   The light source 11 is configured by an RGB integrated LED that emits light corresponding to each color of R (red), G (green), and B (blue). The plurality of light emitting points (each light emitting point of RGB) are arranged in a substantially straight line in the horizontal direction (X direction). The wavelength of light emitted from the light source 11 is, for example, the peak wavelength of light intensity and the wavelength width of half light intensity: 462 ± 12 nm (B light), 525 ± 17 nm (G light), 635 ± 11 nm (R light) It is. The light source 11 may be a laser light source.

照明ミラー12は、光源11から出射された光(照明光)を拡散板13に向けて反射させるとともに、Y方向に関して、光学瞳Pと光源11とが略共役となるように、照明光を曲げる光学素子である。   The illumination mirror 12 reflects light (illumination light) emitted from the light source 11 toward the diffusion plate 13 and bends the illumination light so that the optical pupil P and the light source 11 become substantially conjugate in the Y direction. It is an optical element.

拡散板13は、光源11の複数の発光点が並ぶX方向に入射光を例えば40°拡散し、Y方向には入射光を拡散しない一方向拡散板である。拡散板13は、偏光板3の表面に保持されている。   The diffusion plate 13 is a one-way diffusion plate that diffuses incident light, for example, 40 ° in the X direction in which a plurality of light emitting points of the light source 11 are arranged, and does not diffuse incident light in the Y direction. The diffusion plate 13 is held on the surface of the polarizing plate 3.

偏光板3は、拡散板13を介して入射する光のうち、所定の偏光方向の光を透過させてPBS4に導く。   The polarizing plate 3 transmits light of a predetermined polarization direction out of light incident through the diffusion plate 13 and guides the light to the PBS 4.

PBS4は、偏光板3を透過した光を反射型の表示素子5の方向に反射させる一方、表示素子5にて反射された光のうち、画像信号オンに対応する光(偏光板3を透過した光とは偏光方向が直交する光)を透過させる平板状の偏光分離素子であり、接眼光学系6の後述する接眼プリズム21の光入射面21aに貼り付けられている。   The PBS 4 reflects the light transmitted through the polarizing plate 3 in the direction of the reflective display element 5, and of the light reflected by the display element 5, the light corresponding to the image signal ON (transmitted through the polarizing plate 3 The light is a flat plate-like polarization separation element that transmits light having orthogonal polarization directions), and is attached to a light incident surface 21 a of an eyepiece prism 21 described later of the eyepiece optical system 6.

表示素子5は、照明光学系2からの光を変調して映像を表示する表示素子であり、本実施形態では、反射型の液晶表示素子で構成されている。表示素子5はカラーフィルタを有する構成であってもよいし、光源11のRGBごとの時分割発光に同期して、発光色に対応するRGBの画像が表示されるように、時分割で駆動される構成であってもよい。   The display element 5 is a display element that modulates the light from the illumination optical system 2 to display an image, and in the present embodiment, is configured of a reflective liquid crystal display element. The display element 5 may be configured to have a color filter, and is driven by time division so that an RGB image corresponding to a light emission color is displayed in synchronization with time division light emission of each light source 11 RGB. May be configured.

表示素子5は、PBS4からほぼ垂直に入射する光がほぼ垂直に反射されてPBS4に向かうように配置されている。これにより、反射型の表示素子に対して大きな入射角で光を入射させる構成に比べて、解像度を増大させるような光学設計が容易となる。表示素子5の表示面は長方形となっており、表示面の長手方向がX方向となり、短手方向がY方向となるように配置されている。   The display element 5 is disposed so that light incident approximately perpendicularly from the PBS 4 is reflected substantially perpendicularly to the PBS 4. This facilitates optical design to increase resolution as compared with a configuration in which light is incident on a reflective display element at a large incident angle. The display surface of the display element 5 is rectangular, and is arranged such that the longitudinal direction of the display surface is the X direction and the short direction is the Y direction.

接眼光学系6は、表示素子5からの映像光を使用者の瞳(光学瞳P)に導くための光学系であり、非軸対称(非回転対称)な正の光学パワーを有している。この接眼光学系6は、接眼プリズム21と、偏向プリズム22と、HOE23とを有している。   The eyepiece optical system 6 is an optical system for guiding the image light from the display element 5 to the user's pupil (optical pupil P), and has non-axially symmetric (non-rotationally symmetric) positive optical power. . The eyepiece optical system 6 includes an eyepiece prism 21, a deflection prism 22, and an HOE 23.

接眼プリズム21は、表示素子5からPBS4を介して入射する映像光を内部で導光する一方、外界からの光(外光)を透過させるものであり、平行平板の上端部を上端に向かうほど厚くし、下端部を下端に向かうほど薄くした形状で構成されている。   The eyepiece prism 21 guides image light incident from the display element 5 through the PBS 4 internally, and transmits light from the outside (external light), so that the upper end of the parallel plate is directed to the upper end It is configured to be thicker and thinner at its lower end toward the lower end.

接眼プリズム21において、PBS4が貼り付けられる面は、表示素子5からの映像光が入射する光入射面21aであり、光学瞳Pとほぼ平行に位置して互いに対向する2つの面21b・21cは、映像光を全反射によって導光する全反射面となっている。そのうち、光学瞳P側の面21bは、HOE23で回折反射される映像光の出射面を兼ねている。   In the eyepiece prism 21, the surface to which the PBS 4 is attached is the light incident surface 21 a on which the image light from the display element 5 is incident, and the two surfaces 21 b and 21 c located approximately parallel to the optical pupil P and facing each other It is a total reflection surface that guides image light by total reflection. Among them, the surface 21 b on the optical pupil P side also serves as an exit surface of the image light diffracted and reflected by the HOE 23.

接眼プリズム21は、その下端部に配置されるHOE23を挟むように偏向プリズム22と接着剤で接合されている。本実施形態では、接眼プリズム21を構成する面のうち、HOE23が接する面21d以外で映像光が透過する面(光入射面21a、面21b)は、平面となっている。接眼プリズム21において、HOE23が接する面21dは、平面であってもよいし、曲面であってもよいし、平面と曲面とを組み合わせた面であってもよい。   The eyepiece prism 21 is bonded to the deflection prism 22 with an adhesive so as to sandwich the HOE 23 disposed at the lower end thereof. In the present embodiment, among the surfaces constituting the eyepiece prism 21, surfaces (light incident surfaces 21a and 21b) through which image light passes other than the surface 21d in contact with the HOE 23 are flat. In the eyepiece prism 21, the surface 21 d in contact with the HOE 23 may be a flat surface, a curved surface, or a combination of a flat surface and a curved surface.

偏向プリズム22は、接眼プリズム21とHOE23を介して貼り合わされて略平行平板を形成している。偏向プリズム22を接眼プリズム21と貼り合わせることで、外光が接眼プリズム21の楔状の下端部を透過するときの屈折を偏向プリズム22でキャンセルすることができ、外界として観察(視認)される像(外界像)に歪みが生じるのを防止することができる。   The deflection prism 22 is pasted together via the eyepiece prism 21 and the HOE 23 to form a substantially parallel flat plate. By attaching the deflection prism 22 to the eyepiece prism 21, the refraction when external light passes through the lower end of the eyelid prism 21 can be canceled by the deflection prism 22, and an image observed (visually recognized) as an external world It is possible to prevent distortion from occurring (external image).

HOE23は、接眼プリズム21に接して設けられ、接眼プリズム21内部で導光された映像光を回折反射する体積位相型で反射型のホログラフィック光学素子である。HOE23は、回折効率のピーク波長および回折効率半値の波長幅で、例えば465±5nm(B光)、521±5nm(G光)、634±5nm(R光)の3つの波長域の光を回折(反射)させる。すなわち、HOE23のRGBの回折波長は、RGBの映像光の波長(光源11の発光波長)とほぼ対応している。   The HOE 23 is a volume phase reflective type holographic optical element that is provided in contact with the eyepiece prism 21 and diffracts and reflects the image light guided inside the eyepiece prism 21. The HOE 23 diffracts light of three wavelength ranges of, for example, 465 ± 5 nm (B light), 521 ± 5 nm (G light), and 634 ± 5 nm (R light) with the peak wavelength of diffraction efficiency and the wavelength width of half value of diffraction efficiency. (Reflect) That is, the RGB diffraction wavelengths of the HOE 23 substantially correspond to the wavelength of the RGB image light (the emission wavelength of the light source 11).

上記の構成において、照明光学系2の光源11から出射された光は、照明ミラー12で反射され、拡散板13にてX方向にのみ拡散された後、所定の偏光方向の光のみが偏光板3を透過する。そして、偏光板3を透過した光は、PBS4で反射され、表示素子5に入射する。   In the above configuration, light emitted from the light source 11 of the illumination optical system 2 is reflected by the illumination mirror 12 and diffused only in the X direction by the diffusion plate 13, and then only light of a predetermined polarization direction is used as a polarizer Transmit 3. Then, the light transmitted through the polarizing plate 3 is reflected by the PBS 4 and enters the display element 5.

表示素子5では、入射光が画像信号に応じて変調される。このとき、画像信号オンに対応する映像光は、表示素子5にて入射光とは偏光方向が直交する光に変換されて出射されるため、PBS4を透過して接眼プリズム21の内部に光入射面21aから入射する。一方、画像信号オフに対応する映像光は、表示素子5にて偏光方向が変換されずに出射されるため、PBS4で遮断され、接眼プリズム21の内部に入射しない。   In the display element 5, incident light is modulated according to the image signal. At this time, the image light corresponding to the image signal ON is converted by the display element 5 into light whose polarization direction is orthogonal to that of the incident light and emitted, so that it passes through the PBS 4 and enters the eyepiece prism 21. Incident from the surface 21a. On the other hand, since the image light corresponding to the image signal OFF is emitted without the polarization direction being converted by the display element 5, the image light is blocked by the PBS 4 and does not enter into the eyepiece prism 21.

接眼プリズム21では、入射した映像光が接眼プリズム21の対向する2つの面21c・21bでそれぞれ1回ずつ全反射された後、HOE23に入射し、そこで回折反射されて面21bから出射され、光学瞳Pに達する。したがって、この光学瞳Pの位置では、使用者は、表示素子5に表示された映像を虚像として観察することができる。   In the eyepiece prism 21, the incident image light is totally reflected once by each of the two opposing surfaces 21c and 21b of the eyepiece prism 21, and then enters the HOE 23, where it is diffracted and reflected and emitted from the surface 21b. The pupil P is reached. Therefore, at the position of the optical pupil P, the user can observe the image displayed on the display element 5 as a virtual image.

一方、接眼プリズム21、偏向プリズム22およびHOE23は、外光をほとんど全て透過させるので、使用者は外界をシースルーで観察することができる。したがって、表示素子5に表示された映像の虚像は、使用者の視野(視界)内で、外界の一部に重なって観察されることになる。   On the other hand, since the eyepiece prism 21, the deflection prism 22 and the HOE 23 transmit almost all the external light, the user can observe the external world by see-through. Therefore, the virtual image of the image displayed on the display element 5 is observed to be superimposed on a part of the outside world in the user's field of vision.

なお、本実施形態では、表示素子5として、反射型の映像表示素子を用いているが、透過型の液晶表示素子を用い、それに応じた光学設計で映像表示装置202を構成してもよい。また、接眼光学系6は、HMD201の右眼用レンズまたは左眼用レンズと一体的に構成されてもよいし、別体で構成されてもよい。   In the present embodiment, a reflective image display element is used as the display element 5, but a transmissive liquid crystal display element may be used, and the image display device 202 may be configured with an optical design according to it. The eyepiece optical system 6 may be configured integrally with the right-eye lens or the left-eye lens of the HMD 201, or may be configured separately.

(3.HMDの詳細な構成)
図4は、HMD201の詳細な構成を示すブロック図である。HMD201は、上記した映像表示装置202および支持部材203に加えて、撮像装置31、視線検出装置32、画像処理部33、通信部34、記憶部35、音声入力装置36、音声出力装置37、加速度センサ38、操作部39および制御部40をさらに備えている。制御部40は、例えば中央演算処理装置(CPU;Central Processing Unit)で構成されており、映像表示装置202を含むHMD201の各部の動作を制御する。したがって、制御部40の制御には、例えば、映像表示装置202の光源11の点灯/消灯の切り替えや、表示素子5における情報の表示に関する制御も含まれる。
(3. Detailed configuration of HMD)
FIG. 4 is a block diagram showing the detailed configuration of the HMD 201. As shown in FIG. In addition to the above-described video display device 202 and support member 203, the HMD 201 includes an imaging device 31, a gaze detection device 32, an image processing unit 33, a communication unit 34, a storage unit 35, an audio input device 36, an audio output device 37, and acceleration. The sensor 38, the operation unit 39 and the control unit 40 are further provided. The control unit 40 includes, for example, a central processing unit (CPU), and controls the operation of each unit of the HMD 201 including the video display device 202. Therefore, the control of the control unit 40 includes, for example, control of switching on / off of the light source 11 of the video display device 202 and control regarding display of information in the display element 5.

撮像装置31は、外界を撮影して画像(静止画、動画)を取得可能なカメラ(デジタルカメラ、デジタルビデオカメラ)で構成されている。この撮像装置31は、例えば図2で示した筐体202aの外面に設けられているが、筐体202aの内部に設けられてもよい。後者の場合、撮像装置31の前方に、筐体202aを貫通する開口部または透明な窓が設けられ、これによって撮像装置31による前方の撮影が可能となる。   The imaging device 31 is configured by a camera (digital camera, digital video camera) capable of capturing an outside world and acquiring an image (still image, moving image). The imaging device 31 is provided, for example, on the outer surface of the housing 202a shown in FIG. 2, but may be provided inside the housing 202a. In the latter case, an opening penetrating the housing 202a or a transparent window is provided in front of the imaging device 31, and this enables imaging of the front by the imaging device 31.

また、図2に示すように、撮像装置31の撮像中心Co(撮像光軸と撮像素子との交点)は、映像表示装置202の観察中心Vo(瞳中心)のほぼ真上に位置しており、映像表示装置202に対する撮像装置31の相対位置が固定されている。また、撮像装置31の撮像光軸は、無限遠を観察するときの使用者の視線方向と略一致している。これにより、撮像装置31は、使用者の通常視界(前方の外界)を撮像することができる。   Further, as shown in FIG. 2, the imaging center Co (the intersection of the imaging optical axis and the imaging element) of the imaging device 31 is located almost directly above the observation center Vo (pupil center) of the image display device 202. The relative position of the imaging device 31 with respect to the image display device 202 is fixed. Further, the imaging optical axis of the imaging device 31 substantially coincides with the line of sight direction of the user when observing infinity. Thereby, the imaging device 31 can capture an image of the user's normal field of view (the external front).

視線検出装置32は、使用者の観察視線(視線方向)を検出するセンサである。視線検出装置32は、赤外線LEDとカメラとを含んで構成されており、例えば図2で示すように、接眼光学系6の左右の縁部に設けられている。視線検出装置32は、赤外線LEDから使用者の瞳または網膜に向けて安全な光線(例えば赤外線)を照射し、その反射光をカメラで計測することにより、使用者の視線方向を直接検知する。より具体的には、赤外線LEDで使用者の顔を照らしたときに、使用者の角膜上で赤外光が反射される位置(角膜反射の位置)を基準点とし、この角膜反射の位置に対する瞳孔の位置をカメラで(赤外線を受光して)検知することにより、使用者の視線方向を検知する。例えば、右眼の角膜反射の位置よりも瞳孔が目じり側にあれば、使用者は右側を見ており(使用者の視線が右方向を向いており)、角膜反射の位置よりも瞳孔が目頭側にあれば、使用者は左側を見ている(使用者の視線が左方向を向いている)ことを検出できる。   The line-of-sight detection device 32 is a sensor that detects an observation line-of-sight (line-of-sight direction) of the user. The line-of-sight detection device 32 is configured to include an infrared LED and a camera, and is provided at the left and right edges of the eyepiece optical system 6, as shown in FIG. 2, for example. The gaze detection device 32 emits a safe light (for example, infrared) from the infrared LED toward the user's pupil or retina and measures the reflected light with a camera to directly detect the gaze direction of the user. More specifically, when the user's face is illuminated with the infrared LED, the position at which infrared light is reflected on the user's cornea (the position of corneal reflection) is taken as a reference point, and the position relative to the position of this corneal reflection is The direction of the user's line of sight is detected by detecting the position of the pupil with a camera (receiving infrared light). For example, if the pupil is closer to the eye than the position of the corneal reflection of the right eye, the user looks to the right (the user's gaze is pointing to the right) and the pupil is more than the position of the corneal reflection. If on the side, the user can detect that the user is looking to the left (the user's gaze is pointing to the left).

視線検出装置32の数は、1個であってもよいし、複数個であってもよいが、複数個であるほうが、複数の情報に基づいて視線検知を行うことができ、検知精度が向上するため望ましい。このため、本実施形態では、図2に示すように、接眼光学系6の左右の縁部(計2か所)に視線検出装置32を設けて、視線検出を行うようにしている。   The number of sight line detection devices 32 may be one or plural, but if there is more than one, sight line detection can be performed based on plural information, and detection accuracy is improved. Desirable for For this reason, in the present embodiment, as shown in FIG. 2, visual axis detection is performed by providing visual axis detection devices 32 at the left and right edges (two places in total) of the eyepiece optical system 6.

なお、トビーテクノロジー社からは、複数の赤外光源で照明された瞳を、複数のカメラで撮像することによって視線を検知するメガネ型の視線検出装置が提案されているが、本実施形態の視線検出装置32はこれに類する構成とすることができる。   In addition, although the eyeglasses type gaze detection apparatus which detects a gaze by imaging a pupil illuminated with a plurality of infrared light sources with a plurality of cameras has been proposed by Toby Technology, Inc., the gaze of this embodiment. The detection device 32 can be configured analogously to this.

画像処理部33は、表示素子5に表示させる映像を画像処理によって生成する処理部であり、例えばASIC(application specific integrated circuit)のような特定の演算処理回路で構成される。上記の画像処理には、通常の画像処理(色補正、拡大/縮小、エッジ強調などの画像処理)のほか、後述する使用者の視線位置を示す指標(マーカー)や、他の端末から入力される撮像画像を個別に、または合成して表示素子5に表示させるための画像処理なども含まれる。   The image processing unit 33 is a processing unit that generates an image to be displayed on the display element 5 by image processing, and is configured of a specific arithmetic processing circuit such as an application specific integrated circuit (ASIC). The above-described image processing includes normal image processing (image processing such as color correction, enlargement / reduction, edge enhancement, etc.), an index (marker) indicating the line-of-sight position of the user, which will be described later, Image processing for displaying the captured image individually or in combination on the display element 5 is also included.

通信部34は、HMD201と他の情報入出力端末200との間で情報の入出力を行うためのインターフェースであり、送信回路、受信回路、アンテナなどを含んで構成される。記憶部35は、例えばフラッシュメモリなどの不揮発性メモリで構成され、他の端末から出力された各種の情報(撮像画像の情報(画像データ)、視線位置を示す情報を含む)や、制御部40の動作プログラムなどを記憶する。   The communication unit 34 is an interface for inputting and outputting information between the HMD 201 and the other information input / output terminal 200, and includes a transmission circuit, a reception circuit, an antenna, and the like. The storage unit 35 is formed of, for example, a non-volatile memory such as a flash memory, and the control unit 40 includes various types of information (including information on a captured image (image data) and information indicating a gaze position) output from other terminals. Store the operation program etc.

音声入力装置36は、例えばマイクなどで構成される音声情報の入力装置である。音声入力装置36に入力された音声情報は、通信部34を介して他の端末に出力される。音声出力装置37は、例えばスピーカーやイヤホンなどで構成される音声情報の出力装置である。他の端末から通信部34を介して入力された音声情報は、音声出力装置37から出力される。加速度センサ38は、HMD201の使用者の姿勢変化を検出するセンサ(検出器)である。加速度センサ38のタイプとしては、静電容量型、圧電型、抵抗型などがあるが、いずれのタイプであってもよい。   The voice input device 36 is a voice information input device configured by, for example, a microphone. The voice information input to the voice input device 36 is output to another terminal via the communication unit 34. The audio output device 37 is an output device of audio information configured by, for example, a speaker or an earphone. The audio information input from the other terminal via the communication unit 34 is output from the audio output device 37. The acceleration sensor 38 is a sensor (detector) that detects a change in posture of the user of the HMD 201. As a type of the acceleration sensor 38, there is an electrostatic capacitance type, a piezoelectric type, a resistance type, or the like, but any type may be used.

操作部39は、HMD201の各種設定や指示(例えば後述する範囲確認用マーカーF・F’(図28、図29参照)の表示の拡大/縮小の設定、後述する基準画像の更新指示など)を入力するための入力部である。このような操作部39は、例えばHMD201の支持部材203(図2参照)に取り付けられる入力ボタンで構成されてもよいし、HMD201と有線接続されるか、無線通信が可能な外付けの入力部で構成されてもよい。なお、操作部39は、基本的に、HMD201の各種設定等を行うときのみ、使用者によって操作されるものであり、使用者の作業時にハンズフリー性が損なわれるほどの操作が必要とされるものではない。   The operation unit 39 performs various settings and instructions of the HMD 201 (for example, setting of enlargement / reduction of display of range confirmation markers F and F 'described later (refer to FIG. 28 and FIG. 29), update instruction of reference image described later, etc.) It is an input unit for inputting. Such an operation unit 39 may be configured by, for example, an input button attached to the support member 203 (see FIG. 2) of the HMD 201, or may be connected to the HMD 201 by wire connection or an external input unit capable of wireless communication. May be composed of The operation unit 39 is basically operated by the user only when various settings of the HMD 201 are performed, and an operation to the extent that hands-freeness is impaired at the time of the user's operation is required. It is not a thing.

なお、複数の情報入出力端末200は、頭部装着型以外の情報入出力端末を含んでいてもよい。例えば、複数の情報入出力端末200は、室内に設置の表示装置(例えば液晶表示装置や有機EL(Electro-Luminescence)表示装置)に、上記の視線検出装置32などを組み合わせた情報入出力端末を含んでいてもよい。   The plurality of information input / output terminals 200 may include information input / output terminals other than the head-mounted type. For example, the plurality of information input / output terminals 200 are information input / output terminals in which the line-of-sight detection device 32 described above is combined with a display device installed indoors (for example, a liquid crystal display device or an organic EL (Electro-Luminescence) display device). May be included.

(4.管理サーバーについて)
次に、管理サーバー400の詳細について説明する。図5は、情報入出力端末200としての管理サーバー400の概略の構成を示すブロック図である。管理サーバー400は、保持部401と、領域検出部402と、演算部403と、通信部404と、制御部405とを含んで構成されている。制御部405は、例えばCPUで構成されており、管理サーバー400の各部の動作を制御する。このような管理サーバー400は、例えば汎用のパーソナルコンピュータで構成することができる。
(4. Management server)
Next, details of the management server 400 will be described. FIG. 5 is a block diagram showing a schematic configuration of the management server 400 as the information input / output terminal 200. As shown in FIG. The management server 400 includes a holding unit 401, an area detection unit 402, an arithmetic unit 403, a communication unit 404, and a control unit 405. The control unit 405 includes, for example, a CPU, and controls the operation of each unit of the management server 400. Such a management server 400 can be configured, for example, by a general-purpose personal computer.

保持部401は、例えばハードディスクで構成され、領域検出部402および演算部403で取得された情報、他の端末から出力された各種の情報(撮像画像の情報(画像データ)、視線位置を示す情報を含む)、制御部405の動作プログラムなどを記憶する大容量のメモリである。特に、保持部401は、後述する実施例で示すように、HMD201の使用者(装着者)が静止した状態で、HDM201での撮影によって事前に取得された静止画の一部を、基準画像として保持する。   The holding unit 401 is formed of, for example, a hard disk, and information acquired by the area detection unit 402 and the calculation unit 403, various types of information output from other terminals (imaged image information (image data), information indicating the eye position. And a large capacity memory for storing an operation program of the control unit 405 and the like. In particular, the holding unit 401 sets a part of a still image acquired in advance by photographing with the HDM 201 as a reference image while the user (wearer) of the HMD 201 stands still, as shown in an embodiment described later. Hold.

領域検出部402は、HMD201(特に撮像装置31)での撮影によって動画が取得されたときに、その動画から、上記基準画像に対応する領域を検出するブロックであり、例えばCPUまたはGPU(Graphics Processing Unit)などの演算処理装置で構成される。なお、制御部405が領域検出部402の機能を兼ねていてもよい。上記領域の検出は、例えばパターンマッチング処理によって行われる。パターンマッチング処理としては、NCC(Normalized Cross Correlation;正規化相互相関係数)、SAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)などの従来の公知の方法を使用することができる。   The area detection unit 402 is a block that detects an area corresponding to the reference image from the moving image when the moving image is acquired by shooting with the HMD 201 (in particular, the imaging device 31). Unit) and the like. The control unit 405 may also function as the area detection unit 402. The detection of the area is performed by, for example, a pattern matching process. As pattern matching processing, conventional known methods such as NCC (Normalized Cross Correlation), SAD (Sum of Absolute Difference), and SSD (Sum of Squared Difference) can be used.

演算部403は、HMD201に表示するマーカー(後述する)の位置を算出するブロックであり、領域検出部402と同様に、例えばCPUまたはGPUなどの演算処理装置で構成される。なお、制御部405が演算部403の機能を兼ねていてもよい。また、領域検出部402および演算部403は、制御部405とは別個で、一体的に(1つの演算処理装置で)実現されてもよく、制御部405とともに一体的に実現されてもよい。   The arithmetic unit 403 is a block that calculates the position of a marker (described later) to be displayed on the HMD 201. Like the area detection unit 402, the arithmetic unit 403 is configured of an arithmetic processing unit such as a CPU or a GPU. Note that the control unit 405 may also function as the calculation unit 403. In addition, the area detection unit 402 and the calculation unit 403 may be realized separately (in one arithmetic processing device) separately from the control unit 405, or may be realized integrally with the control unit 405.

通信部404は、管理サーバー400と他の情報入出力端末200との間で情報の入出力を行うためのインターフェースであり、送信回路、受信回路、アンテナなどを含んで構成される。   The communication unit 404 is an interface for inputting and outputting information between the management server 400 and the other information input / output terminal 200, and includes a transmission circuit, a reception circuit, an antenna, and the like.

(5.視線情報共有システムの活用例について)
次に、上記した視線情報共有システム100の活用例について説明する。なお、ここでは、説明を簡単にするため、2台のHMD201A・201Bが上述の管理サーバー400を介さずに、情報を直接やり取りする例について説明する。また、ここでは、作業中に、HMD201A・201Bを使用する使用者の移動(すなわち、HMD201A・201Bの移動)はないものとする。
(5. Application example of gaze information sharing system)
Next, an application example of the line-of-sight information sharing system 100 described above will be described. Here, in order to simplify the description, an example in which two HMDs 201A and 201B directly exchange information without passing through the above-described management server 400 will be described. Here, it is assumed that there is no movement of the user who uses the HMDs 201A and 201B (that is, movement of the HMDs 201A and 201B) during work.

<活用例1>
図6は、作業者PAと指示監督者PBとがそれぞれHMD201A・201Bを頭部に装着して協働作業を行う様子を模式的に示している。作業者PAおよび指示監督者PBは、それぞれHMD201A・201Bの使用者である。なお、HMD201A・201Bの構成は、上述したHMD201と全く同じである。また、HMD201A・201Bに含まれる各構成要素を互いに区別する場合は、例えば映像表示装置202A・202Bのように、各構成要素の符号の後に「A」または「B」の記号を付す。
<Example 1>
FIG. 6 schematically shows how the worker PA and the instruction supervisor PB wear the HMDs 201A and 201B on their heads and perform cooperative work. The worker PA and the instruction supervisor PB are users of the HMDs 201A and 201B, respectively. The configuration of the HMDs 201A and 201B is exactly the same as the HMD 201 described above. In addition, when the components included in the HMDs 201A and 201B are distinguished from each other, the symbol of “A” or “B” is added after the reference symbol of each component as in, for example, the video display devices 202A and 202B.

ここでは、例として、テーブルT上に載置された対象物であるデバイスOBに対して、メンテナンスのためにカバーを外す作業を想定する。また、テーブルTの周囲三方(作業者PAから見て奥側、左側、右側)は、作り付けの壁Wで囲まれており、作業者PAがテーブルTの前に立ち、デバイスOBに対して作業を行う状況では、作業者PAの背後に立つ指示監督者PBからは、デバイスOBへの直接のアクセスや視認が困難であるとする。   Here, as an example, with respect to the device OB which is an object placed on the table T, an operation of removing the cover for maintenance is assumed. In addition, the three sides around the table T (the far side, the left side, the right side as viewed from the worker PA) are surrounded by the built-in wall W, and the worker PA stands in front of the table T and works on the device OB In the situation where it does, from direct supervisory supervisor PB who stands behind worker PA, direct access to device OB and visual recognition are difficult.

また、HMD201A・201Bは、相互に情報連携が可能なように通信状態下(例えばWi−Fi(登録商標)によって通信可能な状態)にあり、相互の情報を送受信可能である。このとき、HMD201A・201B間の通信は、それぞれの制御部40の制御のもとで、それぞれの通信部34を介して行われるものとする。   In addition, the HMDs 201A and 201B are in a communication state (for example, in a communicable state by Wi-Fi (registered trademark)) so as to enable mutual information linkage, and can transmit and receive mutual information. At this time, communication between the HMDs 201A and 201B is performed via the respective communication units 34 under the control of the respective control units 40.

図7は、本実施形態の視線情報共有システム100における動作の流れの一例を示すフローチャートである。以下、このフローチャートを参照しながら説明する。   FIG. 7 is a flow chart showing an example of the flow of operations in the line-of-sight information sharing system 100 of the present embodiment. This will be described below with reference to this flowchart.

まず、作業者PAのHMD201A(第1端末)は、HMD201Aの視線カメラである撮像装置31にて取得される撮像画像の情報を、HMD201Aの通信部34を介して指示監督者PBのHMD201B(第2端末)に出力する(S1;第1の工程)。   First, the HMD 201A (first terminal) of the worker PA receives the information of the captured image acquired by the imaging device 31 which is the line-of-sight camera of the HMD 201A via the communication unit 34 of the HMD 201A. 2) output (S1; first step).

図8は、作業者PAの視界のイメージを示している。破線で示した矩形の領域IM(201A)は、作業者PAが装着したHMD201Aの撮像装置31の撮像範囲を示している。作業者PAには、デバイスOB、作業者PAの手(右手RH(PA)、左手LH(PA))、作業者PAの手に持たれた工具(ドライバDR(PA))が見えており、作業者PAの前方の視界がHMD201Aの撮像装置31によって撮像されている。HMD201Aは、このような作業者PAの視点から見た撮像装置31の撮像画像の情報(画像データ)を、HMD201Bに出力する。   FIG. 8 shows an image of the field of view of the worker PA. A rectangular area IM (201A) indicated by a broken line indicates the imaging range of the imaging device 31 of the HMD 201A worn by the worker PA. The worker PA sees the device OB, the hand of the worker PA (right hand RH (PA), left hand LH (PA)), and the tool held by the hand of the worker PA (driver DR (PA)), The field of view in front of the worker PA is imaged by the imaging device 31 of the HMD 201A. The HMD 201A outputs, to the HMD 201B, information (image data) of an image captured by the imaging device 31 as viewed from the viewpoint of the worker PA.

続いて、HMD201Bは、映像表示装置202Bにより、HMD201Aから入力された撮像画像の情報に基づいて、上記撮像画像を指示監督者PBに視認可能に表示する(S2;第2の工程)。   Subsequently, the HMD 201B causes the video display device 202B to visibly display the captured image on the instruction supervisor PB based on the information of the captured image input from the HMD 201A (S2; second step).

図9は、指示監督者PBのHMD201Bの映像表示装置202Bによって表示された映像(虚像)V(202B)を、指示監督者PBが観察している様子を示している。指示監督者PBは、図6で示したように、デバイスOBに向かって実作業をしている作業者PAの背後に立っているため、上述のように、実際の作業者PAの作業やデバイスOBを直接観察することが困難である。しかし、HMD201Aで撮像され、HMD201Bに送信されて表示された映像V(202B)を指示監督者PBが観察することにより、指示監督者PBは作業者PAの実際の作業を確認することができる。   FIG. 9 shows that the instruction supervisor PB is observing the video (virtual image) V (202B) displayed by the image display device 202B of the HMD 201B of the instruction supervisor PB. Since the instruction supervisor PB stands behind the worker PA who is actually working toward the device OB as shown in FIG. 6, as described above, the work or device of the actual worker PA is It is difficult to observe OB directly. However, as the instruction supervisor PB observes the image V (202 B) imaged by the HMD 201 A and transmitted to the HMD 201 B for display, the instruction supervisor PB can confirm the actual work of the worker PA.

次に、映像表示装置202Bによって表示された撮像画像(映像V(202B))に対する指示監督者PBの視線方向を、HMD201Bの視線検出装置32によって検出する(S3;第3の工程)。   Next, the gaze direction detection unit 32 of the HMD 201B detects the gaze direction of the instruction supervisor PB with respect to the captured image (video V (202B)) displayed by the video display device 202B (S3; third step).

視線検出装置32は、図2で示したように、映像表示装置202(接眼光学系6)に取り付けられており、映像表示装置202に対する相対位置が固定されている。このため、HMD201Bの視線検出装置32は、映像表示装置202Bにて表示された映像V(202B)のどの部分を指示監督者PBが見ているのかを検出することができる。   The visual axis detection device 32 is attached to the image display device 202 (eyepiece optical system 6) as shown in FIG. 2, and the relative position with respect to the image display device 202 is fixed. For this reason, the visual axis detection device 32 of the HMD 201B can detect which part of the video V (202B) displayed on the video display device 202B the directed supervisor PB is viewing.

次に、HMD201Bは、上記視線検出装置32によって検出された指示監督者PBの視線方向に関する視線情報を、HMD201Bの通信部34を介してHMD201Aに出力する(S4;第4の工程)。そして、HMD201Aは、映像表示装置202Aにより、HMD201Bから入力された視線情報に基づいて、指示監督者PBの視線の位置を、HMD201Aによる映像の表示領域内で対応する位置に、作業者PAに視認可能に表示する(S5;第5の工程)。   Next, the HMD 201B outputs, to the HMD 201A via the communication unit 34 of the HMD 201B, line-of-sight information regarding the line-of-sight direction of the designated supervisor PB detected by the line-of-sight detection device 32 (S4; fourth step). Then, the HMD 201A causes the operator PA to visually recognize the position of the line of sight of the instruction supervisor PB at the position corresponding to the image display area by the HMD 201A based on the line-of-sight information input from the HMD 201B by the image display device 202A. Display as possible (S5; fifth step).

作業者PAのHMD201Aでは、撮像装置31は映像表示装置202に対して相対位置が固定されており、指示監督者PBのHMD201Bで表示された撮像画像(映像V(202B))は、元々作業者PAのHMD201Aで取得された撮像画像である。このため、HMD201Bで表示された撮像画像に対する指示監督者PBの注視点(指示監督者PBの視線方向の先にある点)は、作業者PAのHMD201Aにおいて、撮像装置31と相対位置が既知である映像表示装置202Aの映像(虚像)の表示領域全体における任意の位置と対応関係を持つ。したがって、作業者PAのHMD201Aにて、指示監督者PBの視線の位置を、映像表示装置202Aの表示領域内の所定の位置(指示監督者PBの注視点と対応する位置)に即座に表示することが可能となる。   In the HMD 201A of the worker PA, the imaging device 31 has a fixed relative position with respect to the video display device 202, and the captured image (video V (202B)) displayed by the HMD 201B of the instruction supervisor PB is originally a worker. It is a captured image acquired by HMD201A of PA. For this reason, the HMD 201A of the worker PA has a known relative position with the imaging device 31 as the gaze point (point ahead of the gaze direction of the instruction supervisor PB) of the gaze point of the instruction supervisor PB on the captured image displayed on the HMD 201B. It has a correspondence with an arbitrary position in the entire display area of a video (virtual image) of a certain video display device 202A. Therefore, in the HMD 201A of the worker PA, the position of the line of sight of the instruction supervisor PB is immediately displayed at a predetermined position (the position corresponding to the gaze point of the instruction supervisor PB) in the display area of the video display device 202A. It becomes possible.

図10は、作業者PAがHMD201Aを介して外界を見ているときの、作業者PAの視界のイメージを示す。HMD201Aでは、指示監督者PBの視線の位置を示すマーカーMBを表示することにより、指示監督者PBがデバイスOBのどの部分を見ているかを作業者PAに提示することができる。作業者PAは、表示されたマーカーMB(指示監督者PBの視線の位置)を見て、マーカーMBが示すネジを緩める作業を行うことができる。このように、指示監督者PBの視線の位置をHMD201Aにて表示することで、作業者PAと指示監督者PBとで視線に基づく意思疎通を行うことができ、作業を的確かつ効率よく行うことが可能となる。   FIG. 10 shows an image of the field of view of the worker PA when the worker PA looks at the outside through the HMD 201A. In the HMD 201A, by displaying a marker MB indicating the position of the line of sight of the pointing supervisor PB, it is possible to show to the worker PA which part of the device OB the pointing supervisor PB is looking at. The operator PA can perform an operation of loosening the screw indicated by the marker MB by looking at the displayed marker MB (the position of the line of sight of the instruction supervisor PB). In this manner, by displaying the position of the line of sight of the directing supervisor PB on the HMD 201A, communication based on the sight can be performed between the worker PA and the directing supervisor PB, and the task can be performed accurately and efficiently. Is possible.

このとき、作業者PAおよび指示監督者PBは隣接しているため(図6参照)、例えば指示監督者PBは、「このネジを緩めろ!」などの音声を発するようにしてもよい。これにより、作業者PAは、HMD201Aで表示されたマーカーMBを見ながら、「このネジを緩めればよい」ということを容易に認識することができる。つまり、指示監督者PBは、視線と音声とにより、正確な指示を作業者PAに与えることができ、この指示に基づいて作業者PAは作業を正確に行うことができる。   At this time, since the worker PA and the instruction supervisor PB are adjacent to each other (see FIG. 6), for example, the instruction supervisor PB may emit a voice such as “Loose this screw!”. As a result, the worker PA can easily recognize that "this screw should be loosened" while looking at the marker MB displayed on the HMD 201A. That is, the instruction supervisor PB can give an accurate instruction to the worker PA by the sight line and the voice, and based on the instruction, the worker PA can carry out the work accurately.

以上のように、本実施形態では、作業者PAのHMD201Aの視界を示す撮像画像を指示監督者PBのHMD201Bに出力し、HMD201Bにてその撮像画像を表示し、その撮像画像に対する指示監督者PBの視線を検出してその視線情報をHMD201Aに出力する。これにより、HMD201Aは、撮像画像に対する指示監督者PBの視線の位置とHMD201Aの表示映像で対応する位置に、指示監督者PBの視線の位置をマーカーMBで即座に表示することができる。したがって、複数のHMD201A・201Bを用いた協働作業において、作業者PAおよび指示監督者PBの相互の空間位置の把握や、視線情報の変換(位置座標の変換)などの複雑な処理を必要とすることなく、簡便な方法で、視線に基づく意思疎通を行うことが可能となる。   As described above, in the present embodiment, the captured image indicating the field of vision of the HMD 201A of the worker PA is output to the HMD 201B of the directing supervisor PB, the captured image is displayed on the HMD 201B, and the directing supervisor PB for the captured image The line-of-sight information is detected to the HMD 201A. Thus, the HMD 201A can immediately display the position of the line of sight of the instruction supervisor PB with the marker MB at the position corresponding to the position of the line of sight of the instruction director PB with respect to the captured image and the display image of the HMD 201A. Therefore, in collaborative work using a plurality of HMDs 201A and 201B, it is necessary to grasp complicated spatial positions of the worker PA and the directing supervisor PB, and perform complicated processing such as conversion of line of sight information (conversion of position coordinates). It becomes possible to perform communication based on the line of sight in a simple manner without doing so.

また、指示監督者PBがデバイスOBを直接視認できない状況であっても、指示監督者PBは、作業者PAのHMD201Aから出力された撮像画像(表示された映像V(202B))に基づいてデバイスOBを把握することができる。このため、撮像画像に対する指示監督者PBの視線情報を作業者PAのHMD201Aに出力し、HMD201Aにて指示監督者PBの視線の位置を表示させることにより、作業者PAは、表示された視線位置に基づいてデバイスOBに対して的確に作業を行うことが可能となる。つまり、指示監督者PBがデバイスOBを視認できないような状況であっても、視線に基づく的確な意思疎通および作業が可能となる。   In addition, even in a situation where the instruction supervisor PB can not directly view the device OB, the instruction supervisor PB is a device based on the captured image (displayed video V (202 B)) output from the HMD 201 A of the worker PA. It is possible to grasp OB. For this reason, the worker PA outputs the line-of-sight information of the instruction supervisor PB to the captured image to the HMD 201A of the worker PA and causes the HMD 201A to display the position of the line of sight of the instruction supervisor PB. It is possible to work properly on the device OB based on That is, even in a situation where the instruction supervisor PB can not view the device OB, accurate communication and work based on the line of sight can be performed.

図11は、上記の視線情報共有システム100における動作の流れの他の例を示すフローチャートである。HMD201Aは、作業者PA自身の視線方向を、HMD201Aの視線検出装置32によって検出してよい(S6;第6の工程)。そして、上記したS5の工程では、HMD201Aにて、指示監督者PBの視線の位置と合わせて、S6での検出結果に基づく作業者PAの視線の位置を表示してもよい。   FIG. 11 is a flowchart showing another example of the flow of the operation in the gaze information sharing system 100 described above. The HMD 201A may detect the gaze direction of the worker PA itself by the gaze detection device 32 of the HMD 201A (S6; sixth step). Then, in the step of S5 described above, the position of the line of sight of the worker PA based on the detection result in S6 may be displayed on the HMD 201A along with the position of the line of sight of the instruction supervisor PB.

図12は、HMD201Aにて、作業者PAおよび指示監督者PBの両者の視線の位置が表示されたときの、作業者PAの視界のイメージを示している。図12では、作業者PAの視線の位置をマーカーMAで示し、指示監督者PBの視線の位置をマーカーMBで示している。ただし、マーカーMA・MBを互いに区別するために、ここでは、マーカーMA・MBの形状を互いに異ならせている。より具体的には、自己(作業者PA)の視線を示すマーカーMAを四角形で表示し、他者(指示監督者PB)の視線を示すマーカーMBを円形で表示している。なお、マーカーMA・MBの表示方法はこれに限定されず、例えば互いに色を異ならせたり、互いに線種(実線、破線など)を異ならせたり、「指示監督者」、「作業者」などの文字をマーカーに並記したり、形状、線種、色、文字のいずれかを組み合わせるなどにより、マーカーMA・MBを互いに区別して表示してもよい。   FIG. 12 shows an image of the field of view of the worker PA when the positions of the eyes of the worker PA and the instruction supervisor PB are displayed in the HMD 201A. In FIG. 12, the position of the line of sight of the worker PA is indicated by a marker MA, and the position of the line of sight of the instruction supervisor PB is indicated by a marker MB. However, in order to distinguish the markers MA and MB from each other, here, the shapes of the markers MA and MB are made different from each other. More specifically, the marker MA indicating the line of sight of the self (worker PA) is displayed in a square, and the marker MB indicating the line of sight of the other person (instruction supervisor PB) is displayed in a circle. Note that the display method of the markers MA and MB is not limited to this, and for example, different colors, different line types (solid lines, broken lines, etc.), or "instruction supervisor", "operator", etc. The markers MA and MB may be displayed separately from each other by displaying characters in parallel on markers, combining shapes, line types, colors, characters or the like.

このように、作業者PAのHMD201Aにおいて、指示監督者PBの視線の位置(マーカーMB)と合わせて、作業者PAの視線の位置(マーカーMA)を表示することにより、作業者PAは、デバイスOBに対して自分が見ている箇所(作業を行おうとする箇所)と指示監督者PBが見ている箇所(作業を指示する箇所)とを同時に把握して、これらの一致/不一致を即座に把握することができる。そして、不一致の場合、作業者PAは、音声を発して確認するなど、適切な措置をとることが可能となる。したがって、作業者PAは、指示監督者PBとの間で、意思疎通をより正確に行うことが可能となる。   In this manner, the worker PA displays the position of the sight line of the worker PA (marker MA) in combination with the position of the sight line of the instruction supervisor PB (marker MB) in the HMD 201A of the worker PA. At the same time, it is possible to simultaneously grasp where you are looking at your OB (where you intend to work) and where the instruction supervisor PB is seeing (where you direct your work), and to immediately match or disagree with these. It can be grasped. Then, in the case of non-coincidence, the worker PA can take appropriate measures such as issuing a voice to confirm. Therefore, the worker PA can more accurately communicate with the directing supervisor PB.

図13は、上記の視線情報共有システム100における動作の流れのさらに他の例を示すフローチャートである。HMD201Aは、S6の工程で検出した作業者PAの視線情報を、指示監督者PBのHMD201Bに出力してもよい(S7;第7の工程)。そして、HMD201Bでは、HMD201Aから出力された撮像画像に、S7の工程で取得された作業者PAの視線の位置と、S3の工程での検出結果に基づく指示監督者PBの視線の位置とを合わせて表示してもよい(S8;第8の工程)。   FIG. 13 is a flowchart showing still another example of the flow of the operation in the above-described line-of-sight information sharing system 100. The HMD 201A may output the line-of-sight information of the worker PA detected in the process of S6 to the HMD 201B of the instruction supervisor PB (S7; seventh process). Then, in the HMD 201B, the position of the line of sight of the worker PA acquired in the step S7 and the position of the line of sight of the instruction supervisor PB based on the detection result in the step S3 are matched with the captured image output from the HMD 201A. May be displayed (S8; eighth step).

図14は、HMD201Bにて、作業者PAおよび指示監督者PBの両者の視線の位置が表示されたときの、指示監督者PBの視界のイメージを示している。なお、図14では、自己(指示監督者PB)の視線を示すマーカーMBを四角形で表示し、他者(作業者PA)の視線を示すマーカーMBを円形で表示している。図12と図14とでは、映像を見る主体が作業者PAと指示監督者PBとで異なるため、例えば同じ作業者PAの視線位置を示すマーカーMAであっても、その形状は図12と図14とで異なっている。しかし、映像を見る主体に対応するマーカーを四角形で表示し、他者のマーカーを円形で表示している点では、図12と図14とは共通している。   FIG. 14 shows an image of the visual field of the directing supervisor PB when the positions of the eyes of the worker PA and the directing supervisor PB are displayed in the HMD 201B. In FIG. 14, the marker MB indicating the line of sight of the self (the instructing supervisor PB) is displayed in a square, and the marker MB indicating the line of sight of the other person (worker PA) is displayed in a circle. In FIG. 12 and FIG. 14, the subject who looks at the image is different between the worker PA and the instruction supervisor PB. For example, even if it is the marker MA indicating the sight line position of the same worker PA, its shape is FIG. It is different with 14. However, FIG. 12 and FIG. 14 are common in that markers corresponding to the subject viewing the image are displayed as squares and markers of others are displayed as circles.

このように、指示監督者PBのHMD201Bにおいて、作業者PAのHMD201Aから出力される撮像画像に、作業者PAの視線の位置(マーカーMA)と、指示監督者PBの視線の位置(マーカーMB)とを合わせて表示することにより、指示監督者PBは、デバイスOBに対して自分が見ている箇所(作業を指示したい箇所)と作業者PAが見ている箇所(作業を行おうとする箇所)とを同時に把握して、これらの一致/不一致を即座に把握することができる。そして、不一致の場合、指示監督者PBは、音声を発して指示を追加するなど、適切な措置をとることが可能となる。したがって、指示監督者PBは、作業者PAとの間で意思疎通をより正確に行うことが可能となる。また、指示監督者PBは、マーカーMBを見て、デバイスOBに対して作業を指定したい箇所を自身で確認しながら、作業者PAに対して視線による指示を正確に出すことができる。   Thus, in the HMD 201B of the directing supervisor PB, in the captured image output from the HMD 201A of the worker PA, the position of the sight line of the worker PA (marker MA) and the position of the sight line of the directing supervisor PB (marker MB) And the position where the instruction supervisor PB is looking at the device OB (the portion where he / she wants to instruct the operation) and the portion where the worker PA is looking (the portion where the operation is to be performed). At the same time, it is possible to grasp these coincidences / mismatches immediately. Then, in the case of non-coincidence, the instruction supervisor PB can take appropriate measures such as emitting a voice and adding an instruction. Therefore, the directing supervisor PB can more accurately communicate with the worker PA. In addition, the instruction supervisor PB can accurately issue an instruction by the sight line to the worker PA while checking the portion where he / she wants to designate the operation to the device OB by looking at the marker MB.

また、図12に示すように、作業者PAのHMD201Aにおいて、作業者PAの視線の位置と、指示監督者PBの視線の位置とは、異なるパターン(マーカーMA・MB)で表示される。同様に、図14に示すように、指示監督者PBのHMD201Bにおいても、作業者PAの視線の位置と、指示監督者PBの視線の位置とは、異なるパターン(マーカーMA・MB)で表示される。このような表示により、作業者PAおよび指示監督者PBは、それぞれのHMD210A・201Bにおいて、相互の視線位置を容易に区別して把握することができ、これによって迅速な意思疎通が可能となる。   Further, as shown in FIG. 12, in the HMD 201A of the worker PA, the position of the line of sight of the worker PA and the position of the line of sight of the instruction supervisor PB are displayed in different patterns (markers MA and MB). Similarly, as shown in FIG. 14, in the HMD 201B of the directing supervisor PB, the position of the sight line of the worker PA and the position of the sight line of the directing supervisor PB are displayed in different patterns (markers MA and MB). Ru. With such a display, the worker PA and the instruction supervisor PB can easily distinguish and grasp the line-of-sight position in each of the HMDs 210A and 201B, which enables quick communication.

なお、以上では、指示監督者PBのHMD201Bは、光学シースルー型の映像表示装置202を用いて構成されているが、指示監督者PBは作業者PAの背後に立ち、デバイスOBを直接視認することが困難であるため、光学的にシースルーである必要はない。したがって、HMD201Bは、ビデオシースルー型の映像表示装置202を用いて構成されていてもよい。ビデオシースルー型の映像表示装置202は、遮蔽型ディスプレイを用い、撮像装置31によって撮像される外界の像(撮像画像)を映像と一体的に使用者に視認可能に表示する表示装置である。上記の遮蔽型ディスプレイは、上述した接眼光学系6の外界側に遮蔽板を配置することによって実現できる。   In the above, the HMD 201B of the instruction supervisor PB is configured using the optical see-through image display device 202, but the instruction supervisor PB stands behind the worker PA and directly views the device OB. Need not be optically see-through. Therefore, the HMD 201B may be configured using a video see-through image display device 202. The video see-through type image display device 202 is a display device that uses a shielded display to display an external image (captured image) captured by the imaging device 31 integrally with a video so as to be visible to the user. The above-described shielded display can be realized by arranging a shielding plate on the external side of the eyepiece optical system 6 described above.

以上では、図6で示したように、作業者PAおよび指示監督者PBが近距離に位置している場合を想定したが、図15に示すように、作業者PAおよび指示監督者PBが遠距離に位置していてもよい。例えば、指示監督者PBから数百キロ離れた場所で作業者PAが作業を行う場合でも、本実施形態のシステムを適用して作業者PAが指示監督者PBから視線情報に基づく指示を、通信回線300(図1参照)を介して受けることにより、本実施形態と同様の効果を得ることができる。   In the above, as shown in FIG. 6, it is assumed that worker PA and designated supervisor PB are located at a short distance, but as shown in FIG. 15, worker PA and designated supervisor PB are far from each other. It may be located at a distance. For example, even when the worker PA works at a place several hundred kilometers away from the command supervisor PB, the system of the present embodiment is applied and the worker PA communicates commands based on line-of-sight information from the command supervisor PB By receiving via the line 300 (see FIG. 1), the same effect as that of the present embodiment can be obtained.

このとき、HMD201A・201B間で、図4で示した音声入力装置36および音声出力装置37により、「これ」、「あれ」、「このネジを緩めろ!」、「了解しました!」などの音声情報が入出力されてもよい。この場合、指示監督者PBの視線情報に加えて、音声情報を用いた意思疎通が可能となるため、意思疎通がさらに簡便となる。また、視線情報の内容を音声情報で補足できるため、意思疎通の精度もさらに向上する。   At this time, between the HMDs 201A and 201B, with the voice input device 36 and the voice output device 37 shown in FIG. 4, "This", "Are", "Loose this screw!", "OK!", Etc. Voice information may be input and output. In this case, in addition to the line-of-sight information of the instruction supervisor PB, since communication using speech information is possible, communication is further simplified. Moreover, since the content of the line-of-sight information can be supplemented by voice information, the accuracy of communication is further improved.

以上では、撮像画像の出力が、HMD201AからHMD201Bへの一方向である場合について説明したが、双方向である場合も、本実施形態の構成を適用して同様の効果を得ることができる。以下、その具体例について、活用例2として説明する。   Although the case where the output of the captured image is one direction from the HMD 201A to the HMD 201B has been described above, the same effect can be obtained by applying the configuration of the present embodiment also when the output is bidirectional. Hereinafter, the specific example will be described as utilization example 2.

<活用例2>
図16は、作業者PAと作業者PCとがそれぞれHMD201A・201Cを頭部に装着して協働作業を行う様子を模式的に示している。作業者PAおよび作業者PCは、それぞれHMD201A・201Cの使用者である。なお、HMD201A・201Cの構成は、活用例1で説明したHMD201(図2〜図4等参照)と全く同じである。また、HMD201A・201Cに含まれる各構成要素を互いに区別する場合は、例えば映像表示装置202A・202Cのように、各構成要素の符号の後に「A」または「C」の記号を付す。
<Example 2 of application>
FIG. 16 schematically shows how the worker PA and the worker PC wear the HMDs 201A and 201C on their heads and perform cooperative work. The worker PA and the worker PC are users of the HMDs 201A and 201C, respectively. The configuration of the HMDs 201A and 201C is exactly the same as the HMD 201 (see FIGS. 2 to 4 and the like) described in the first application example. In addition, when the components included in the HMDs 201A and 201C are distinguished from each other, the symbol of “A” or “C” is added after the reference symbol of each component as in, for example, the video display devices 202A and 202C.

ここでは、例として、工作室の中央のテーブルT上に、対象物であるデバイスOBが載置されており、このデバイスOBに対して、複数の作業者である作業者PAおよび作業者PCがメンテナンスを実行する場合を想定する。   Here, as an example, a device OB which is an object is placed on a table T at the center of the work room, and for this device OB, workers PA and workers PC who are a plurality of workers are Assume that maintenance is to be performed.

また、HMD201A・201Cは、相互に情報連携が可能なように通信状態下(例えばWi−Fi(登録商標)によって通信可能な状態)にあり、相互の情報を送受信可能である。このとき、HMD201A・201C間の通信は、それぞれの制御部40の制御のもとで、それぞれの通信部34を介して行われるものとする。   Further, the HMDs 201A and 201C are in a communication state (for example, in a communicable state by Wi-Fi (registered trademark)) so as to enable mutual information linkage, and can transmit and receive mutual information. At this time, communication between the HMDs 201A and 201C is performed via the respective communication units 34 under the control of the respective control units 40.

活用例2では、図7で示したS1〜S5の工程を、作業者PAのHMD201Aと作業者PCのHMD201Cとの間で相互に行う。以下、より具体的に説明する。   In Utilization Example 2, the steps S1 to S5 shown in FIG. 7 are performed mutually between the HMD 201A of the worker PA and the HMD 201C of the worker PC. The following more specifically describes.

《撮像画像の情報の出力》
一の情報入出力端末であるHMD201Aは、HMD201Aの撮像装置31にて取得される撮像画像の情報を、他の情報入出力端末であるHMD201Cに出力する。同様に、HMD201Cは、HMD201Cの撮像装置31にて取得される撮像画像の情報を、HMD201Aに出力する。
<< Output of information of captured image >>
The HMD 201A, which is one information input / output terminal, outputs information of a captured image acquired by the imaging device 31 of the HMD 201A to the HMD 201C, which is another information input / output terminal. Similarly, the HMD 201C outputs information of a captured image acquired by the imaging device 31 of the HMD 201C to the HMD 201A.

図17は、作業者PAの視界のイメージを示している。破線で示した矩形の領域IM(201A)は、作業者PAが装着したHMD201Aの撮像装置31の撮像範囲を示している。作業者PAには、デバイスOB、作業者PAの手(右手RH(PA)、左手LH(PA))、作業者PAの手に持たれた工具(ドライバDR(PA))、作業者PCの手(右手RH(PC)、左手LH(PC))が見えており、作業者PAの視界がHMD201Aの撮像装置31によって撮像されている。HMD201Aは、このような作業者PAの視点から見た撮像装置31の撮像画像の情報(画像データ)を、HMD201Aの通信部34を介してHMD201Cに出力する。   FIG. 17 shows an image of the field of view of the worker PA. A rectangular area IM (201A) indicated by a broken line indicates the imaging range of the imaging device 31 of the HMD 201A worn by the worker PA. For the worker PA, the device OB, the hand of the worker PA (right hand RH (PA), left hand LH (PA)), the tool held by the hand of the worker PA (driver DR (PA)), the worker PC A hand (right hand RH (PC), left hand LH (PC)) is visible, and the field of view of the worker PA is imaged by the imaging device 31 of the HMD 201A. The HMD 201A outputs, to the HMD 201C via the communication unit 34 of the HMD 201A, information (image data) of the captured image of the imaging device 31 viewed from the viewpoint of the worker PA.

一方、図18は、作業者PCの視界のイメージを示している。破線で示した矩形の領域IM(201C)は、作業者PCが装着したHMD201Cの撮像装置31の撮像範囲を示している。作業者PCには、デバイスOB、作業者PAの手(右手RH(PA)、左手LH(PA))、作業者PAの手に持たれた工具(ドライバDR(PA))、作業者PCの手(右手RH(PC)、左手LH(PC))が見えており、作業者PCの視界がHMD201Cの撮像装置31によって撮像されている。HMD201Cは、このような作業者PCの視点から見た撮像装置31の撮像画像の情報(画像データ)を、HMD201Cの通信部34を介してHMD201Aに出力する。   On the other hand, FIG. 18 shows an image of the field of view of the worker PC. A rectangular area IM (201C) indicated by a broken line indicates the imaging range of the imaging device 31 of the HMD 201C worn by the worker PC. The worker PC includes a device OB, a hand of worker PA (right hand RH (PA), left hand LH (PA)), a tool held by the hand of worker PA (driver DR (PA)), a worker PC The hand (right hand RH (PC), left hand LH (PC)) is visible, and the field of view of the worker PC is imaged by the imaging device 31 of the HMD 201C. The HMD 201C outputs the information (image data) of the captured image of the imaging device 31 viewed from the viewpoint of the worker PC to the HMD 201A via the communication unit 34 of the HMD 201C.

《撮像画像の表示》
HMD201Cは、映像表示装置202Cにより、HMD201Aから入力された撮像画像の情報に基づいて、上記撮像画像をHMD201Cの作業者PCに視認可能に表示する。同様に、HMD201Aは、映像表示装置202Aにより、HMD201Cから入力された撮像画像の情報に基づいて、上記撮像画像をHMD201Aの作業者PAに視認可能に表示する。
<< Display of captured image >>
The HMD 201C causes the video display device 202C to visually display the captured image on the worker PC of the HMD 201C based on the information of the captured image input from the HMD 201A. Similarly, the HMD 201A causes the video display device 202A to display the captured image visibly to the worker PA of the HMD 201A based on the information of the captured image input from the HMD 201C.

図19は、作業者PCのHMD201Cで撮像されて出力された画像(視界画像)を、作業者PAのHMD201Aの映像表示装置202Aにて、映像(虚像)V(202A)として表示したときの作業者PAの視界を示している。また、図20は、作業者PAのHMD201Aで撮像されて出力された画像(視界画像)を、作業者PCのHMD201Cの映像表示装置202Cにて、映像(虚像)V(202C)として表示したときの作業者PCの視界を示している。このように、HMD201A・201Cでは、各々の撮像装置31で撮像された視界画像を相互に入出力し、入力された視界画像を映像(虚像)として表示する。これにより、作業者PAは、自身が装着しているHMD201Aにて、作業者PCの視界画像を観察することができ、また、作業者PCは、自身が装着しているHMD201Cにて、作業者PAの視界画像を観察することができる。   FIG. 19 shows an operation when an image (visual field image) captured and output by the HMD 201C of the worker PC is displayed as a video (virtual image) V (202A) on the video display device 202A of the HMD 201A of the worker PA. Shows the vision of the person PA. Further, FIG. 20 shows an image (visual field image) captured and output by the HMD 201A of the worker PA as a video (virtual image) V (202C) on the video display device 202C of the HMD 201C of the worker PC. The view of the worker's PC is shown. As described above, in the HMDs 201A and 201C, the view image captured by each of the imaging devices 31 is mutually input and output, and the input view image is displayed as a video (virtual image). Thus, the worker PA can observe the visual field image of the worker PC with the HMD 201A worn by itself, and the worker PC can watch the worker with the HMD 201C worn by itself. A view image of PA can be observed.

特に、図19で示したように、デバイスOB、作業者PAの手、ドライバDR(PA)、作業者PCの手は、作業者PAの実際の視界内のリアルな物体である。また、図20で示したように、デバイスOB、作業者PAの手、ドライバDR(PA)、作業者PCの手も、作業者PCの実際の視界内のリアルな物体である。このような視界画像をHMD201A・201Cの相互間で入出力して表示することにより、作業者PAおよび作業者PCは、各々の視界(視線方向の視野)を相互に共有して、各々の視界内のリアルな物体を視認することができる。   In particular, as shown in FIG. 19, the device OB, the hand of the worker PA, the driver DR (PA), and the hand of the worker PC are realistic objects within the actual view of the worker PA. Further, as shown in FIG. 20, the device OB, the hand of the worker PA, the driver DR (PA), and the hand of the worker PC are also realistic objects within the actual view of the worker PC. By displaying and outputting such visibility images between the HMDs 201A and 201C, the worker PA and the worker PC share their respective visions (visual fields in the direction of sight) with each other to view the respective visions. You can see the real objects inside.

なお、HMD201Aで表示される映像V(202A)は、映像表示装置202Aによって虚像として表示可能な領域の一部であって、上記領域の中央以外に表示される(表示素子5では、表示素子5の表示面の一部であって、上記表示面の中央以外に映像が表示される)。作業者PAがデバイスOBに対して作業を行うとき、作業者PAは視界の中央にデバイスOBを位置させて作業を行うのが通常と考えられる。したがって、作業者PAの作業時に、映像V(202A)とデバイスOBとが重なって視認されて、デバイスOBに対する作業性が低下する(作業がしにくくなる)のを回避することができる。同様の観点から、HMD201Cで表示される映像V(202C)も、映像表示装置202Cによって虚像として表示可能な領域の一部であって、上記領域の中央以外に表示される。   The video V (202A) displayed by the HMD 201A is a part of the area that can be displayed as a virtual image by the video display device 202A and is displayed outside the center of the above area (in the display element 5, the display element 5 The image is displayed on a part of the display surface of the display screen except for the center of the display surface). When the worker PA works on the device OB, it is considered normal for the worker PA to work with the device OB positioned at the center of the field of view. Therefore, it is possible to avoid that the image V (202 A) and the device OB overlap and are visually recognized at the time of the work of the worker PA, and the workability with respect to the device OB decreases (the work becomes difficult). From the same viewpoint, the video V (202C) displayed by the HMD 201C is also a part of the area that can be displayed as a virtual image by the video display device 202C, and is displayed outside the center of the area.

《撮像画像に対する視線方向の検出》
HMD202Cは、映像表示装置202Cによって表示された撮像画像(映像V(202C))に対する作業者PCの視線方向を、HMD202Cの視線検出装置32によって検出する。同様に、HMD202Aは、映像表示装置202Aによって表示された撮像画像(映像V(202A))に対する作業者PAの視線方向を、HMD202Aの視線検出装置32によって検出する。
<< Detection of gaze direction for captured image >>
The HMD 202C detects the gaze direction of the worker PC with respect to the captured image (video V (202C)) displayed by the video display device 202C by the gaze detection device 32 of the HMD 202C. Similarly, the HMD 202A detects the gaze direction of the worker PA with respect to the captured image (video V (202A)) displayed by the video display device 202A by the gaze detection device 32 of the HMD 202A.

視線検出装置32は、図2で示したように、映像表示装置202(接眼光学系6)に取り付けられており、映像表示装置202に対する相対位置が固定されている。このため、HMD201Cの視線検出装置32は、映像表示装置202Cにて表示された映像V(202C)のどの部分を作業者PCが見ているのかを検出することができる。同様に、HMD201Aの視線検出装置32は、映像表示装置202Aにて表示された映像V(202A)のどの部分を作業者PAが見ているのかを検出することができる。   The visual axis detection device 32 is attached to the image display device 202 (eyepiece optical system 6) as shown in FIG. 2, and the relative position with respect to the image display device 202 is fixed. For this reason, the visual axis detection device 32 of the HMD 201C can detect which part of the video V (202C) displayed by the video display device 202C the worker PC is looking at. Similarly, the visual axis detection device 32 of the HMD 201A can detect which portion of the video V (202A) displayed on the video display device 202A the operator PA is looking at.

《視線情報の出力、視線の位置の表示》
HMD201Cは、検出した作業者PCの視線方向に関する視線情報を、HMD201Cの通信部34を介してHMD201Aに出力する。そして、HMD201Aは、映像表示装置202Aにより、HMD201Cから入力された視線情報に基づいて、作業者PCの視線の位置を、作業者PAに視認可能に表示する。同様に、HMD201Aは、検出した作業者PAの視線方向に関する視線情報を、HMD201Aの通信部34を介してHMD201Cに出力する。そして、HMD201Cは、映像表示装置202Cにより、HMD201Aから入力された視線情報に基づいて、作業者PAの視線の位置を、作業者PCに視認可能に表示する。
Output of eye gaze information, display of eye gaze position
The HMD 201C outputs the detected line-of-sight information regarding the detected line-of-sight direction of the worker PC to the HMD 201A via the communication unit 34 of the HMD 201C. Then, the HMD 201A causes the video display device 202A to visually display the position of the line of sight of the worker PC on the worker PA based on the line-of-sight information input from the HMD 201C. Similarly, the HMD 201A outputs line-of-sight information regarding the detected line-of-sight direction of the worker PA to the HMD 201C via the communication unit 34 of the HMD 201A. Then, based on the line-of-sight information input from the HMD 201A, the HMD 201C causes the image display device 202C to visually display the position of the line of sight of the worker PA on the worker PC.

作業者PAのHMD201Aでは、撮像装置31は映像表示装置202に対して相対位置が固定されており、作業者PCのHMD201Cで表示された撮像画像(映像V(202C))は、元々作業者PAのHMD201Aで取得された撮像画像である。このため、HMD201Cで表示されたHMD201Aの撮像画像に対する作業者PCの注視点(作業者PCの視線方向の先にある点)は、作業者PAのHMD201Aにおいて、撮像装置31と相対位置が既知である映像表示装置202Aの映像の表示領域全体(作業者PAの視界範囲とほぼ等しい)における任意の位置と対応関係を持つ。したがって、作業者PAのHMD201Aにて、作業者PCの視線の位置を、映像表示装置202Aの表示領域内の所定の位置(作業者PCの注視点と対応する位置)に即座に表示することが可能となる。   In the HMD 201A of the worker PA, the relative position of the imaging device 31 with respect to the video display device 202 is fixed, and the captured image (video V (202C)) displayed by the HMD 201C of the worker PC is originally the worker PA. Image captured by the HMD 201A. For this reason, the gaze point of the worker PC (a point ahead of the gaze direction of the worker PC) of the captured image of the HMD 201A displayed on the HMD 201C has a known relative position with the imaging device 31 in the HMD 201A of the worker PA. It has a correspondence with an arbitrary position in the entire display area (approximately equal to the view range of the worker PA) of the video of the certain video display device 202A. Therefore, the HMD 201A of the worker PA can immediately display the position of the line of sight of the worker PC at a predetermined position (the position corresponding to the gaze point of the worker PC) in the display area of the video display device 202A. It becomes possible.

同様に、作業者PCのHMD201Cでは、撮像装置31は映像表示装置202に対して相対位置が固定されており、作業者PAのHMD201Aで表示された撮像画像(映像V(202A))は、元々作業者PCのHMD201Cで取得された撮像画像である。このため、HMD201Aで表示された撮像画像に対する作業者PAの注視点(作業者PAの視線方向の先にある点)は、作業者PCのHMD201Cにおいて、撮像装置31と相対位置が既知である映像表示装置202Cの表示領域全体(作業者PCの視界範囲とほぼ等しい)における任意の位置と対応関係を持つ。したがって、作業者PCのHMD201Cにて、作業者PAの視線の位置を、映像表示装置202Cの表示領域内の所定の位置(作業者PAの注視点と対応する位置)に即座に表示することが可能となる。   Similarly, in the HMD 201C of the worker PC, the imaging device 31 has a fixed relative position with respect to the video display device 202, and the captured image (video V (202A)) displayed by the HMD 201A of the worker PA is originally It is a captured image acquired by HMD201C of worker PC. For this reason, the gaze point of the worker PA (point ahead of the gaze direction of the worker PA) with respect to the captured image displayed on the HMD 201A is an image in which the relative position with the imaging device 31 is known in the HMD 201C of the worker PC. It has a correspondence with an arbitrary position in the entire display area of the display device 202C (approximately equal to the view range of the worker PC). Therefore, the HMD 201C of the worker PC can immediately display the position of the line of sight of the worker PA at a predetermined position (the position corresponding to the gaze point of the worker PA) in the display area of the video display device 202C. It becomes possible.

図21は、作業者PAがHMD201Aを介して外界を見ているときの、作業者PAの視界のイメージを示す。HMD201Aでは、作業者PCの視線の位置を示すマーカーMCを表示することにより、作業者PCがデバイスOBのどの部分を見ているかを作業者PAに提示することができる。また、図22は、作業者PCがHMD201Cを介して外界を見ているときの、作業者PCの視界のイメージを示す。HMD201Cでは、作業者PAの視線の位置を示すマーカーMAを表示することにより、作業者PAがデバイスOBのどの部分を見ているかを作業者PCに提示することができる。   FIG. 21 shows an image of the field of view of the worker PA when the worker PA is looking at the outside through the HMD 201A. In the HMD 201A, by displaying the marker MC indicating the position of the line of sight of the worker PC, it is possible to show to the worker PA which part of the device OB the worker PC is looking at. FIG. 22 shows an image of the field of view of the worker PC when the worker PC is looking at the outside through the HMD 201C. In the HMD 201C, by displaying the marker MA indicating the position of the line of sight of the worker PA, it is possible to indicate to the worker PC which part of the device OB the worker PA is looking at.

このとき、作業者PAおよび作業者PCは隣接しているため(図16参照)、例えば作業者PCがデバイスOBの筐体を両手で支えているなど、作業者PCの手がふさがっている場合に、意図するデバイスOBの部分を注視しながら、「このネジを緩めろ!」などの音声を発するようにしてもよい。これにより、作業者PAは、HMD201Aで表示されたマーカーMC(図21参照)を見ながら、「このネジを緩めればよい」ということを容易に認識して、作業を正確に行うことができる。また、作業者PCは、視線と音声とにより、手作業を損なわず正確に、指示を作業者PAに伝達することができる。以下、視線と音声とによる作業者PAおよび作業者PCの協働作業の具体例について説明する。   At this time, since the worker PA and the worker PC are adjacent to each other (see FIG. 16), for example, when the worker PC holds the case of the device OB with both hands, the hand of the worker PC is closed It is also possible to emit an audio such as "Loose this screw!" While gazing at a portion of the intended device OB. As a result, the worker PA can easily recognize that "this screw should be loosened" while looking at the marker MC (see FIG. 21) displayed on the HMD 201A, and can perform the work correctly. . Further, the worker PC can transmit the instruction to the worker PA accurately by the sight line and the voice without losing the manual work. Hereinafter, a specific example of the collaborative work of the worker PA and the worker PC by the sight line and the voice will be described.

なお、図21および図22において、マーカーMA・MCの近傍に付した(1)〜(4)の番号は、マーカーの表示順序を示す。また、ここでは、マーカーMA・MCを互いに区別するため、自機で表示される自分の視線位置を示すマーカーを四角形で表し、自機で表示される他の作業者の視線位置を示すマーカーを円形で表す。   In FIGS. 21 and 22, the numbers (1) to (4) attached near the markers MA and MC indicate the display order of the markers. Here, in order to distinguish the markers MA and MC from each other, the marker indicating the own eye position displayed on the own machine is represented by a square, and the marker indicating the eye position of another worker displayed on the own machine Represent in a circle.

まず、作業者PAのHMD201Aから出力された撮像画像が、HMD201Cの映像表示装置202Cにて映像V(202C)として表示されると、作業者PCは、その映像V(202C)中で、緩める対象となるネジを見ながら、「このネジを緩めろ!」という音声指示を出す。映像V(202C)に対する作業者PCの視線方向は、HMD201Cの視線検出装置32によって検出される。そして、映像表示装置202Cにより、映像V(202C)において、HMD201Aの撮像画像と合わせて、作業者PCの視線位置を示すマーカーMCが表示される(図22の(1)参照)。これにより、どのネジを緩めるべきかが明確に同定される。   First, when the captured image output from the HMD 201A of the worker PA is displayed as the video V (202C) on the video display device 202C of the HMD 201C, the worker PC is an object to be loosened in the video V (202C) While looking at the screw, give a voice instruction "Let's loosen this screw!". The gaze direction of the worker PC with respect to the image V (202C) is detected by the gaze detection device 32 of the HMD 201C. Then, in the video V (202C), the video display device 202C displays a marker MC indicating the position of the line of sight of the worker PC in addition to the image captured by the HMD 201A (see (1) in FIG. 22). This clearly identifies which screw to loosen.

次に、HMD201Cで検出された作業者PCの視線位置を示す視線情報、およびHMD201Cで取得された撮像画像の情報が、HMD201Aに出力される。そして、HMD201Aの映像表示装置202Aの映像の表示領域全体(作業者PAの視界範囲に対応)における、上記の映像V(202C)に対する作業者PCの注視点と対応する位置に、作業者PCの視線位置を示すマーカーMCが表示される(図21の(2)参照)。また、HMD201Cで取得された撮像画像が、HMD201Aの映像表示装置202Aにより、映像V(202A)として表示される。   Next, line-of-sight information indicating the line-of-sight position of the worker PC detected by the HMD 201C, and information of a captured image acquired by the HMD 201C are output to the HMD 201A. Then, the position of the worker PC at the position corresponding to the gaze point of the worker PC with respect to the above-mentioned video V (202C) in the entire display area of the video display device 202A of the HMD 201A (corresponding to the view range of the worker PA). A marker MC indicating the gaze position is displayed (see (2) in FIG. 21). In addition, a captured image acquired by the HMD 201C is displayed as a video V (202A) by the video display device 202A of the HMD 201A.

作業者PAは、自身のHMD201Aで表示されたマーカーMCを視認することで、作業者PCが指示するネジ(緩める対象となるネジ)を把握し、そのネジを緩める作業を行うことになる。このとき、例えば、緩める対象となるネジが止められている筐体カバーを安全のために保持してほしいなど、作業者PCに対して補助を要求したい場合には、作業者PAは、映像V(202A)中で、保持してほしい箇所を見ながら、「このカバーを支えてください!」という要求を音声で発する。映像V(202A)に対する作業者PAの視線方向は、HMD201Aの視線検出装置32によって検出される。そして、映像表示装置202Aにより、HMD201Cの撮像画像と合わせて、作業者PAの視線位置を示すマーカーMAが映像V(202A)として表示される(図21の(3)参照)。これにより、作業者PAがどのカバーを支えて欲しいのかが明確に同定される。   By visually recognizing the marker MC displayed by the HMD 201A of the worker PA, the worker PA grasps a screw instructed by the worker PC (screw to be loosened) and performs an operation of loosening the screw. At this time, for example, when it is desired to request the worker PC for assistance, such as wanting to hold the case cover on which the screw to be loosened is fixed for safety, the worker PA can not display the video V In (202A), while watching the part that you want to hold, utter the request "Please support this cover!" The gaze direction of the worker PA with respect to the image V (202A) is detected by the gaze detection device 32 of the HMD 201A. Then, the image display device 202A displays, as the image V (202A), a marker MA indicating the line-of-sight position of the worker PA, together with the captured image of the HMD 201C (see (3) in FIG. 21). This clearly identifies which cover the worker PA wants to support.

その後、HMD201Aで検出された作業者PAの視線位置を示す視線情報が、HMD201Cに出力される。そして、HMD201Cの映像表示装置202Cの映像の表示領域全体(作業者PCの視界範囲に対応)における、上記の映像V(202A)に対する作業者PAの注視点と対応する位置に、作業者PAの視線位置を示すマーカーMAが表示される(図22の(4)参照)。これにより、作業者PCは、マーカーMAを見て、支えるべきカバーを即座に把握し、作業者PAの作業を的確に補助することができる。   Thereafter, line-of-sight information indicating the line-of-sight position of the worker PA detected by the HMD 201A is output to the HMD 201C. Then, the position of the worker PA at the position corresponding to the gaze point of the worker PA with respect to the above-mentioned video V (202A) in the entire display area of the video display 202C of the HMD 201C (corresponding to the view range of the worker PC). A marker MA indicating the gaze position is displayed (see (4) in FIG. 22). As a result, the worker PC can see the marker MA, immediately grasp the cover to be supported, and appropriately assist the worker PA's work.

以上のように、撮像画像の情報の出力、撮像画像の表示、撮像画像に対する視線方向の検出、視線情報の出力、視線の位置の表示、の各工程を、HMD201A・201Cの相互間で行うことにより、各々のHMD201A・201Cで作業者PAおよび作業者PCの視線情報を相互に共有して、協働作業を行うことができる。また、「これ」、「あれ」という場所や対象物があいまいな音声指示を、視線位置を示すマーカーMA・MCを用いて視覚的に示すことで、手作業を損なうことなく、意思疎通が良好で、効率的な協働作業を行うことが可能となる。特に、複数のHMD201A・201C間で視線情報を共有することにより、HMDに特有のハンズフリー性を活かした協働作業が可能となる。また、視線情報に加えて音声情報を用いることにより、より正確な意思疎通が可能となる。   As described above, the processes of outputting captured image information, displaying a captured image, detecting a gaze direction with respect to a captured image, outputting gaze information, displaying a position of gaze are performed between the HMDs 201A and 201C. Thus, the gaze information of the worker PA and the worker PC can be shared by each of the HMDs 201A and 201C to perform collaborative work. In addition, visual indication of vague voice instructions for locations and objects such as “this” and “that” using visual markers MA and MC that indicate eye position allows good communication without compromising manual work. Enables efficient collaborative work. In particular, by sharing the line-of-sight information between a plurality of HMDs 201A and 201C, collaborative work utilizing the hands-free property unique to the HMD becomes possible. Further, by using voice information in addition to line-of-sight information, more accurate communication becomes possible.

<活用例3>
上述の活用例2では、作業者PAと作業者PCの2人で連携して作業を行う例について説明したが、活用例3では、3人で連携して作業を行う場合について説明する。ここでは、活用例2のシステムにおいて、作業者PAおよび作業者PCに、遠方の離れた場所にいる指示監督者PDが加わって作業(作業の指示および支援を含む)を行う例について説明する。
<Example 3 of application>
In the above-described utilization example 2, an example in which the worker PA and the worker PC work in cooperation with each other has been described, but in utilization example 3, a case in which three persons cooperate with each other will be described. Here, in the system of utilization example 2, an example will be described in which the instruction supervisor PD at a distant place is added to the worker PA and the worker PC to perform work (including work instruction and support).

図23は、作業者PAおよび作業者PCがそれぞれHMD201A・201Cを頭部に装着し、遠方の指示監督者PDがHMD201Dを装着し、HMD201A・201CからHMD201Dに送られて表示された映像を、指示監督者PDが観察している様子を模式的に示している。作業者PAおよび作業者PCは、それぞれHMD201A・201Cの使用者であり、指示監督者PDは、HMD201Dの使用者である。HMD201Dは、通信回線300(図1参照)を介して、HMD201AおよびHMD201Cと通信可能な情報入出力端末である。なお、HMD201A・201C・201Dの構成は、前述のHMD201(図2〜図4等参照)と全く同じである。以下での説明において、HMD201A・201C・201Dに含まれる各構成要素を互いに区別する場合は、例えば映像表示装置202A・202C・202Dのように、各構成要素の符号の後に「A」、「C」または「D」の記号を付す。   In FIG. 23, the worker PA and the worker PC respectively wear the HMDs 201A and 201C on their heads, the distant instruction supervisor PD wears the HMD 201D, and the video sent from the HMDs 201A and 201C to the HMD 201D is displayed It shows schematically how the directing supervisor PD is observing. The worker PA and the worker PC are users of the HMDs 201A and 201C, respectively, and the instruction supervisor PD is a user of the HMD 201D. The HMD 201D is an information input / output terminal capable of communicating with the HMD 201A and the HMD 201C via the communication line 300 (see FIG. 1). The configuration of the HMDs 201A, 201C, and 201D is exactly the same as that of the above-described HMD 201 (see FIGS. 2 to 4 and the like). In the following description, when the components included in the HMDs 201A, 201C, and 201D are distinguished from one another, for example, “A”, “C” after the code of each component, as in the image display devices 202A, 202C, and 202D The symbol "" or "D" is attached.

HMD201AとHMD201Cとの間での情報の入出力は、活用例2と同様である。以下、HMD201AとHMD201Dとの間、およびHMD201CとHMD201Dとの間での情報の入出力について説明する。   The input / output of information between the HMD 201A and the HMD 201C is the same as that of the application example 2. Hereinafter, input and output of information between the HMD 201A and the HMD 201D and between the HMD 201C and the HMD 201D will be described.

まず、HMD201A・201Cにて取得された撮像画像の情報は、それぞれの通信部34を介してHMD201Dに出力される。そして、HMD201Dでは、HMD201A・201Cの各撮像画像が、映像V(202D)−Aおよび映像V(202D)−Cとして表示される。   First, the information of the captured image acquired by the HMDs 201A and 201C is output to the HMD 201D via the respective communication units 34. Then, in the HMD 201D, the captured images of the HMDs 201A and 201C are displayed as a video V (202D) -A and a video V (202D) -C.

HMD201Dにて、指示監督者PDが映像V(202D)−Aを観察している場合、そのときの指示監督者PDの視線方向が、HMD201Dの視線検出装置32によって検出される。そして、検出した視線方向に関する視線情報が、HMD201Dから通信部34を介してHMD201Aに出力される。その後、HMD201Aでは、上記視線情報に基づいて、映像表示装置202Aの表示映像全体における所定位置に、指示監督者PDの視線の位置が表示される。   In the HMD 201D, when the pointing supervisor PD observes the image V (202D) -A, the line-of-sight direction of the pointing supervisor PD at that time is detected by the sight line detection device 32 of the HMD 201D. Then, line-of-sight information regarding the detected line-of-sight direction is output from the HMD 201D to the HMD 201A via the communication unit 34. Thereafter, in the HMD 201A, the position of the line of sight of the designated supervisor PD is displayed at a predetermined position in the entire display video of the video display device 202A based on the line of sight information.

一方、指示監督者PDが映像V(202D)−Cを観察している場合、そのときの指示監督者PDの視線方向が、HMD201Dの視線検出装置32によって検出される。そして、検出した視線方向に関する視線情報が、HMD201Dから通信部34を介してHMD201Cに出力される。その後、HMD201Cでは、上記視線情報に基づいて、映像表示装置202Cの表示映像全体における所定位置に、指示監督者PDの視線の位置が表示される。   On the other hand, when the instruction supervisor PD observes the image V (202D) -C, the gaze direction of the instruction supervisor PD at that time is detected by the gaze detection device 32 of the HMD 201D. Then, line-of-sight information regarding the detected line-of-sight direction is output from the HMD 201D to the HMD 201C via the communication unit 34. After that, in the HMD 201C, the position of the line of sight of the designated supervisor PD is displayed at a predetermined position in the entire display video of the video display device 202C based on the line of sight information.

図24は、作業者PAがHMD201Aを介して外界を見ているときの、作業者PAの視界のイメージを示す。HMD201Aでは、作業者PCの視線の位置を示すマーカーMCに加えて、指示監督者PDの視線の位置を示すマーカーPDを表示することにより、作業者PCおよび指示監督者PDがデバイスOBのどの部分を見ているかを作業者PAに提示することができる。また、図25は、作業者PCがHMD201Cを介して外界を見ているときの、作業者PCの視界のイメージを示す。HMD201Cでは、作業者PAの視線の位置を示すマーカーMAに加えて、指示監督者PDの視線の位置を示すマーカーPDを表示することにより、作業者PAおよび指示監督者PDがデバイスOBのどの部分を見ているかを作業者PCに提示することができる。   FIG. 24 shows an image of the field of view of the worker PA when the worker PA looks at the outside through the HMD 201A. In the HMD 201A, in addition to the marker MC indicating the position of the eye gaze of the worker PC, the worker PC and the instruction supervisor PD indicate which part of the device OB by displaying the marker PD indicating the position of the eye gaze of the instructing supervisor PD. It can be shown to the worker PA whether he is watching. Further, FIG. 25 shows an image of the visual field of the worker PC when the worker PC is looking at the outside through the HMD 201C. In the HMD 201 C, in addition to the marker MA indicating the position of the sight line of the worker PA, the worker PA and the designation supervisor PD display any part of the device OB by displaying the marker PD indicating the position of the sight line of the instruction supervisor PD. It can be shown to the worker PC whether he is looking at.

このように、HMD201A・201Cにて、作業者PA、作業者PC、指示監督者PDの3者の視線位置をそれぞれ表示させることにより、3者間で意思疎通を行って作業を行うことが可能となる。以下、作業者PA、作業者PCおよび指示監督者PDによる作業の具体例について説明する。   As described above, by displaying the sight line positions of the worker PA, the worker PC, and the instruction supervisor PD on the HMDs 201A and 201C, it is possible to communicate and communicate between the three parties. It becomes. Hereinafter, specific examples of work by the worker PA, the worker PC and the instruction supervisor PD will be described.

なお、図23〜図25において、マーカーMA・MC・MDの近傍に付した(1)〜(10)の番号は、マーカーの表示順序を示す。また、ここでは、マーカーMA・MC・MDを互いに区別するため、自機で表示される自分の視線位置を示すマーカーを四角形で表し、自機で表示される他の作業者の視線位置を示すマーカーを円形で表す。また、図24および図25では、指示監督者PDの視線位置を示すマーカーを三角形で表す。   In addition, in FIGS. 23-25, the number of (1)-(10) attached | subjected to the marker MA * MC * MD shows the display order of a marker. Here, in order to distinguish the markers MA, MC, and MD from each other, the markers indicating the line-of-sight position displayed on the own machine are represented by squares, and the line-of-sight positions of other workers displayed on the own machine are indicated. The markers are represented by circles. Moreover, in FIG. 24 and FIG. 25, the marker which shows the gaze position of instruction | indication supervisor PD is represented by a triangle.

まず、作業者PAのHMD201Aにて取得された撮像画像の情報は、HMD201C・HMD201Dに出力され、HMD201C・HMD201Dにて、上記撮像画像が映像V(202C)・V(202D)−Aとしてそれぞれ表示される(図25、図23参照)。   First, information on the captured image acquired by the HMD 201A of the worker PA is output to the HMD 201C and HMD 201D, and the captured image is displayed as the video V (202C) and V (202D) -A on the HMD 201C and HMD 201D. (See FIGS. 25 and 23).

作業者PCは、HMD201Cで表示された映像V(202C)中で、緩める対象となるネジを見ながら、「このネジを緩めろ!」という音声指示を出す。映像V(202C)に対する作業者PCの視線方向は、HMD201Cの視線検出装置32によって検出される。そして、映像表示装置202Cにより、映像V(202C)において、HMD201Aの撮像画像と合わせて、作業者PCの視線位置を示すマーカーMCが表示される(図25の(1)参照)。   The worker PC issues an audio instruction of "Loose this screw!" While looking at the screw to be loosened in the image V (202C) displayed on the HMD 201C. The gaze direction of the worker PC with respect to the image V (202C) is detected by the gaze detection device 32 of the HMD 201C. Then, in the video V (202C), the video display device 202C displays a marker MC indicating the position of the line of sight of the worker PC in combination with the image captured by the HMD 201A (see (1) in FIG. 25).

次に、HMD201Cで検出された作業者PCの視線位置を示す視線情報、およびHMD201Cで取得された撮像画像の情報は、HMD201Aに出力される。そして、HMD201Aの映像表示装置202Aの映像の表示領域全体(作業者PAの視界範囲に対応)における、上記の映像V(202C)に対する作業者PCの注視点と対応する位置に、作業者PCの視線位置を示すマーカーMCが表示される(図24の(2)参照)。また、HMD201Aの映像表示装置202Aにより、HMD201Cで取得された撮像画像が、映像V(202A)として表示される(図24参照)。   Next, line-of-sight information indicating the line-of-sight position of the worker PC detected by the HMD 201C, and information of a captured image acquired by the HMD 201C are output to the HMD 201A. Then, the position of the worker PC at the position corresponding to the gaze point of the worker PC with respect to the above-mentioned video V (202C) in the entire display area of the video display device 202A of the HMD 201A (corresponding to the view range of the worker PA). The marker MC indicating the gaze position is displayed (see (2) in FIG. 24). Further, the image display device 202A of the HMD 201A displays the captured image acquired by the HMD 201C as the image V (202A) (see FIG. 24).

また、HMD201Cで検出された作業者PCの視線位置を示す視線情報は、HMD201Dにも出力される。これにより、HMD201Dでは、映像表示装置202Dにより、映像V(202D)−A中に作業者PCの視線位置を示すマーカーMCが表示される(図23の(3)参照)。なお、映像V(202C)および映像V(202D)−Aは、どちらも、HMD201Aで撮像された画像であるため、映像V(202D)−Aにおいて、映像V(202C)に対する作業者PCの注視点と対応する位置に、作業者PCの視線位置を示すマーカーMCを表示することは容易に実現できる。   The line-of-sight information indicating the line-of-sight position of the worker PC detected by the HMD 201C is also output to the HMD 201D. As a result, in the HMD 201D, the image display device 202D displays the marker MC indicating the eye gaze position of the worker PC in the image V (202D) -A (see (3) in FIG. 23). Note that both the video V (202C) and the video V (202D) -A are images captured by the HMD 201A, so in the video V (202D) -A, the notes by the worker PC for the video V (202C) It can be easily realized that the marker MC indicating the eye gaze position of the worker PC is displayed at the position corresponding to the viewpoint.

指示監督者PDは、映像V(202D)−A中のマーカーMCを見て、作業者PCの指示が誤っていると判断した場合、映像V(202D)−A中で、緩める対象となるネジを見ながら、「いや、最初にこのネジから緩めた方がよい!」という音声指示を出す。映像V(202D)−Aに対する指示監督者PDの視線方向は、HMD201Dの視線検出装置32によって検出される。そして、映像表示装置202Dにより、映像V(202D)−Aにおいて、指示監督者PDの視線位置を示すマーカーMDが表示される(図23の(4)参照)。   When the instruction supervisor PD looks at the marker MC in the image V (202D) -A and determines that the instruction of the worker PC is incorrect, a screw to be loosened in the image V (202D) -A While watching the voice instruction "No, it is better to loosen from this screw first!" The gaze direction of the instruction supervisor PD with respect to the image V (202D) -A is detected by the gaze detection device 32 of the HMD 201D. Then, in the video V (202 D) -A, a marker MD indicating the line-of-sight position of the directing supervisor PD is displayed by the video display device 202 D (see (4) in FIG. 23).

指示監督者PDの視線方向に関する視線情報は、HMD201Aに出力される。これにより、HMD201Aでは、映像表示装置202Aの映像の表示領域全体(作業者PAの視界範囲に対応)における、上記の映像V(202D)−Aに対する指示監督者PDの注視点と対応する位置に、指示監督者PDの視線位置を示すマーカーMDが表示される(図24の(5)参照)。なお、指示監督者PDが、映像V(202D)−Aを見ているか、映像V(202D)−Cを見ているかは、HMD201Dの視線検出装置32での視線検出結果に基づいて判断できる。したがって、指示監督者PDが映像V(202D)−Aを見ている場合には、映像V(202D)−Aの提供元となるHMD201Aに、指示監督者PDの視線情報を出力することができる。   The line-of-sight information on the line-of-sight direction of the instruction supervision PD is output to the HMD 201A. Thereby, in the HMD 201A, the position corresponding to the gazing point of the instruction supervisor PD for the above-mentioned video V (202D) -A in the entire display area of the video display device 202A (corresponding to the view range of the operator PA). , And a marker MD indicating the line-of-sight position of the instructed supervisor PD is displayed (see (5) in FIG. 24). In addition, it can be judged based on the visual line detection result in the visual line detection device 32 of the HMD 201D whether the instruction supervisor PD is viewing the image V (202D) -A or viewing the image V (202D) -C. Therefore, when the instruction supervisor PD looks at the image V (202D) -A, the line-of-sight information of the instruction supervisor PD can be output to the HMD 201A that is the provider of the image V (202D) -A. .

作業者PAは、自身のHMD201Aで表示されたマーカーMDを視認することで、作業者PCが指示するネジではなく、指示監督者PDが指示するネジを緩める作業を行うことになる。このとき、作業者PAは、映像V(202A)中で、保持してほしい箇所を見ながら、「このカバーを支えてください!」という要求を音声で発する。映像V(202A)に対する作業者PAの視線方向は、HMD201Aの視線検出装置32によって検出される。そして、映像表示装置202Aにより、作業者PAの視線位置を示すマーカーMAが、HMD201Cの撮像画像と合わせて映像V(202A)として表示される(図24の(6)参照)。   By visually recognizing the marker MD displayed on the HMD 201A of the worker PA, the worker PA performs an operation of loosening the screw instructed by the instruction supervisor PD instead of the screw instructed by the worker PC. At this time, the worker PA makes a voice request "Please support this cover!" While looking at a portion desired to be held in the video V (202A). The gaze direction of the worker PA with respect to the image V (202A) is detected by the gaze detection device 32 of the HMD 201A. Then, the image display device 202A displays a marker MA indicating the line-of-sight position of the worker PA, together with the captured image of the HMD 201C, as an image V (202A) (see (6) in FIG. 24).

その後、HMD201Aで検出された作業者PAの視線位置を示す視線情報が、HMD201Cに出力される。そして、HMD201Cの映像表示装置202Cの映像の表示領域全体(作業者PCの視界範囲に対応)における、上記の映像V(202A)に対する作業者PAの注視点と対応する位置に、作業者PAの視線位置を示すマーカーMAが表示される(図25の(7)参照)。   Thereafter, line-of-sight information indicating the line-of-sight position of the worker PA detected by the HMD 201A is output to the HMD 201C. Then, the position of the worker PA at the position corresponding to the gaze point of the worker PA with respect to the above-mentioned video V (202A) in the entire display area of the video display 202C of the HMD 201C (corresponding to the view range of the worker PC). The marker MA indicating the gaze position is displayed (see (7) in FIG. 25).

また、HMD201Aで検出された作業者PAの視線位置を示す視線情報は、HMD201Dにも出力される。これにより、HMD201Dでは、映像表示装置202Dにより、映像V(202D)−C中に作業者PAの視線位置を示すマーカーMAが表示される(図23の(8)参照)。なお、映像V(202A)および映像V(202D)−Cは、どちらも、HMD201Cで撮像された画像であるため、映像V(202D)−Cにおいて、映像V(202A)に対する作業者PAの注視点と対応する位置に、作業者PAの視線位置を示すマーカーMAを表示することは容易に実現できる。   The line-of-sight information indicating the line-of-sight position of the worker PA detected by the HMD 201A is also output to the HMD 201D. As a result, in the HMD 201D, the image display device 202D displays a marker MA indicating the eye gaze position of the worker PA in the image V (202D) -C (see (8) in FIG. 23). Note that both of the video V (202A) and the video V (202D) -C are images taken by the HMD 201C, so in the video V (202D) -C, the worker PA's note on the video V (202A) It can be easily realized that the marker MA indicating the eye gaze position of the worker PA is displayed at the position corresponding to the viewpoint.

指示監督者PDは、映像V(202D)−C中のマーカーMAを見て、作業者PAの指示が誤っていると判断した場合、映像V(202D)−C中で、保持すべきカバーを見ながら、「いや、そのカバーだけでなく、このカバーを保持しろ!」という音声指示を出す。映像V(202D)−Cに対する指示監督者PDの視線方向は、HMD201Dの視線検出装置32によって検出される。そして、映像表示装置202Dにより、映像V(202D)−Cにおいて、指示監督者PDの視線位置を示すマーカーMDが表示される(図23の(9)参照)。   When the instruction supervisor PD looks at the marker MA in the image V (202D) -C and determines that the instruction of the worker PA is incorrect, the cover to be held in the image V (202D) -C is While watching, I give an audio command saying "No, not only the cover but hold this cover!". The gaze direction of the instruction supervisor PD with respect to the image V (202D) -C is detected by the gaze detection device 32 of the HMD 201D. Then, a marker MD indicating the line-of-sight position of the instruction supervisor PD is displayed on the video V (202D) -C by the video display device 202D (see (9) in FIG. 23).

指示監督者PDの視線方向に関する視線情報は、HMD201Cに出力される。これにより、HMD201Cでは、映像表示装置202Cの映像の表示領域全体(作業者PCの視界範囲に対応)における、上記の映像V(202D)−Cに対する指示監督者PDの注視点と対応する位置に、指示監督者PDの視線位置を示すマーカーMDが表示される(図25の(10)参照)。これにより、作業者PCは、マーカーMDで指定されたカバーを保持し、ネジを緩める作業者PAの作業を適切に補助することが可能となる。なお、上述のように、指示監督者PDが、映像V(202D)−Aを見ているか、映像V(202D)−Cを見ているかは、HMD201Dの視線検出装置32での視線検出結果に基づいて判断できるので、指示監督者PDが映像V(202D)−Cを見ている場合には、映像V(202D)−Cの提供元となるHMD201Cに指示監督者PDの視線情報を出力することができる。   The line-of-sight information on the line-of-sight direction of the directing supervisor PD is output to the HMD 201C. Thereby, in the HMD 201C, the position corresponding to the gazing point of the instruction supervisor PD for the above-mentioned video V (202D) -C in the entire display area of the video display device 202C (corresponding to the view range of the worker PC). , And a marker MD indicating the line-of-sight position of the designated supervisor PD is displayed (see (10) in FIG. 25). As a result, the worker PC can hold the cover designated by the marker MD and appropriately assist the worker PA's operation of loosening the screw. As described above, whether the instruction supervisor PD is viewing the image V (202D) -A or viewing the image V (202D) -C is determined by the line-of-sight detection result of the line-of-sight detection device 32 of the HMD 201D. Since judgment can be made based on this, when the instruction supervisor PD looks at the image V (202D) -C, the line-of-sight information of the instruction supervisor PD is output to the HMD 201C that is the provider of the image V (202D) -C. be able to.

以上のように、HMD201A・201C・201Dの3つの情報入出力端末間で、作業者PA、作業者PCおよび指示監督者PDの視線情報を相互に共有することにより、手作業を損なうことなく、意思疎通が良好で、協働作業を効率的に行うことが可能となる。特に、視線情報に加えて音声情報をさらに活用することにより、さらに正確な意思疎通が可能となり、その意思疎通に基づいてさらに効率的な作業が可能となる。   As described above, by sharing the line-of-sight information of the worker PA, the worker PC, and the instructing supervisor PD among the three information input / output terminals of the HMDs 201A, 201C, and 201D, the manual information is not lost. Communication is good, and collaborative work can be performed efficiently. In particular, by further utilizing voice information in addition to line-of-sight information, more accurate communication becomes possible, and more efficient work becomes possible based on the communication.

ところで、以上では、指示監督者PDが使用する情報入出力端末200として、頭部に装着可能なHMD201Dを用いる例について説明したが、指示監督者PDが特段ハンズフリーやモビリティを必要としない場合には、情報入出力端末200は別の形態であっても構わない。   By the way, although the example using HMD201D which can be put on a head is explained above as information input-output terminal 200 which instruction supervisor PD uses, when instruction supervisor PD does not need special hands-free and mobility. The information input / output terminal 200 may be in another form.

図26は、情報入出力端末200の他の構成を示す説明図である。同図のように、情報入出力端末200は、少なくとも、表示装置200aと、表示装置200aに固定される視線検出装置32とを有して構成されていてもよい。表示装置200aは、部屋に設置されるテレビなどの直視型ディスプレイ(モニター)である。視線検出装置32は、表示装置200aにて表示される映像V(200)−Aおよび映像V(200)−Cを観察する指示監督者PDの視線方向を検出する。視線検出装置32は、表示装置200aに対して位置が同定されている。このような形態の視線検出装置32については、先のトビーテクノロジー社からも提案されており、これを使用することができる。なお、映像V(200)−Aは、作業者PAのHMD201Aにて取得され、情報入出力端末200に入力されて表示されたHMD201Aの撮像画像である。また、映像V(200)−Cは、作業者PCのHMD201Cにて取得され、情報入出力端末200に入力されて表示されたHMD201Cの撮像画像である。   FIG. 26 is an explanatory view showing another configuration of the information input / output terminal 200. As shown in FIG. As shown in the figure, the information input / output terminal 200 may be configured to include at least a display device 200a and a gaze detection device 32 fixed to the display device 200a. The display device 200a is a direct view display (monitor) such as a television set installed in a room. The sight line detection device 32 detects the sight line direction of the instruction supervisor PD who observes the video V (200) -A and the video V (200) -C displayed on the display device 200a. The position of the sight line detection device 32 is identified with respect to the display device 200a. The line-of-sight detection device 32 of such a form has also been proposed by Tobii Technology, Inc. and can be used. The image V (200) -A is a captured image of the HMD 201A acquired by the HMD 201A of the worker PA, and input and displayed on the information input / output terminal 200. Also, the video V (200) -C is a captured image of the HMD 201C acquired by the HMD 201C of the worker PC and input and displayed on the information input / output terminal 200.

活用例3のように、指示監督者PDが、作業者PAおよび作業者PCに指示を与えるだけの場合(指示監督者PDが実際にデバイスOBに対して手作業を行わない場合)、上記構成の情報入出力装置200にて他者の視線映像を表示し、その表示映像に対する指示監督者PDの観察視線を検出し、その視線情報を他者に出力することで、図23〜図25と同様に、視線に基づく意思疎通が可能である。したがって、指示監督者PDの情報入出力装置200は、必ずしもHMDである必要はない。   In the case where the instruction supervisor PD only gives instructions to the worker PA and the worker PC as in the example 3 of use (when the instruction supervisor PD does not actually perform manual operation on the device OB), the above configuration The line-of-sight image of the other person is displayed on the information input / output device 200, the observation line-of-sight of the instruction supervisor PD with respect to the displayed image is detected, and the line-of-sight information is output to the other person. Similarly, gaze-based communication is possible. Therefore, the information input / output device 200 of the instruction supervisor PD does not have to be an HMD.

なお、以上の活用例では、最大3人で連携して作業を行う例について説明したが、4人以上で作業を行う場合でも、各活用例で説明したシステム、構成、方法を適用して、相互に視線情報を共有し、連携して作業を行うことは勿論可能である。   In the above examples, up to three people cooperate to work, but even when four or more people work, the system, configuration, and method described in each example are applied. Of course, it is possible to mutually share line-of-sight information and work in cooperation.

また、本実施形態の情報入出力端末は、作業者の作業状態や作業環境を把握して、作業性向上を図る観点から、GPS(Global Positioning System)センサ、地磁気センサ、温度センサなどの複数のセンサを備えていてもよい。例えばGPSセンサは、作業者の位置情報を取得する。地磁気センサは、作業者が向いている方向を検知する。温度センサは、作業環境の温度または作業者自身の体温を検知する。これらのセンサで取得された情報を、通信部34を介して外部の入出力端末に送信することより、外部では、作業の指示監督者が作業環境を把握し、必要に応じて適切な指示(例えば作業の中止等)を作業者(HMD)に出すことが可能となる。   Further, the information input / output terminal of the present embodiment grasps the work state and work environment of the worker, and from the viewpoint of improving the workability, a plurality of GPS (Global Positioning System) sensors, geomagnetic sensors, temperature sensors, etc. A sensor may be provided. For example, the GPS sensor acquires position information of the worker. The geomagnetic sensor detects the direction in which the operator is facing. The temperature sensor detects the temperature of the work environment or the temperature of the worker himself. By transmitting the information acquired by these sensors to an external input / output terminal via the communication unit 34, the instruction supervisor of the work grasps the work environment outside, and the appropriate instruction (if necessary) ( For example, it is possible to give the worker (HMD) the cancellation of work, etc.).

(6.作業者が動く場合の指示者側端末および作業者側端末での表示について)
本実施形態では、上述した活用例1〜3において、HMD201Aを装着した作業者PAがデバイスOBに対する作業中に動き、これによってHMD201Aの撮像装置31の撮像範囲が変化する場合でも、HMD201Aの撮像範囲に含まれるデバイスOBの画像を切り出し、指示者側の情報入出力端末(HMDや、表示装置+視線検出装置の構成)にて静止画または動画として表示するようにしている。一方、作業者PA側のHMD201Aでは、指示者側の端末での表示画像に対する視線検出結果を利用して、作業者PAが動いても、作業者PAの視界の中で、指示者が作業を指示する位置(デバイスOBの同一箇所)をマーカーで表示し続けるようにしている。以下、この点について、実施例1〜6として、より詳細に説明する。
(6. Display on the instructor terminal and the operator terminal when the operator moves)
In the present embodiment, in the above-described application examples 1 to 3, even when the worker PA wearing the HMD 201A moves while working on the device OB and thereby the imaging range of the imaging device 31 of the HMD 201A changes, the imaging range of the HMD 201A The image of the device OB included in is cut out and displayed as a still image or a moving image on an information input / output terminal (HMD or a configuration of a display device + line-of-sight detection device) on the side of the instructor. On the other hand, in the HMD 201A on the worker PA side, even if the worker PA moves using the visual axis detection result for the display image on the terminal on the instructor side, the instructor performs an operation within the field of view of the worker PA. The position to be indicated (the same position of the device OB) is kept displayed by the marker. Hereinafter, this point will be described in more detail as Examples 1 to 6.

なお、上記の「指示者」とは、作業者PAに対して作業の指示を出すものを指し、活用例1〜3では、指示監督者PB、作業者PC、指示監督者PDのいずれかがこれに相当する。以下では、例として、活用例2で示した協働作業において、作業者PAが作業中に動く場合の各端末での表示制御について説明するが、他の活用例においても以下の表示制御を適用することができる。   The above-mentioned "instructor" refers to one that issues an instruction for work to the worker PA, and in Practical Examples 1 to 3, any one of the instruction supervisor PB, the operator PC, and the instruction supervisor PD It corresponds to this. In the following, as an example, display control at each terminal when worker PA moves during work in cooperative work shown in utilization example 2 will be described, but the following display control is applied also in other utilization examples can do.

<実施例1>
≪基準画像の取得≫
図27は、実施例1における基準画像取得処理の流れを示すフローチャートである。本実施例では、作業者PAがデバイスOBに対してネジを締める、または外す等の作業を開始する前に、デバイスOBの画像を基準画像として事前に取得するようにしている。すなわち、本実施例では、まず、作業者PAが静止した状態で、第1端末としてのHMD201A(撮像装置31)での撮影によって、デバイスOBを含む外界を撮影し、画像を取得する(S11;予備撮影工程)。そして、上記画像から、該画像の一部の領域(デバイスOBの画像を含む)を切り出し、これを静止画の基準画像として取得する(S12;基準画像取得工程)。その後、取得した基準画像を保持する(S13;保持工程)。より具体的に説明すると、以下の通りである。
Example 1
Acquisition of reference image
FIG. 27 is a flowchart of the reference image acquisition process according to the first embodiment. In this embodiment, before the worker PA starts an operation such as tightening or removing a screw on the device OB, an image of the device OB is acquired in advance as a reference image. That is, in the present embodiment, first, with the worker PA stationary, the outside including the device OB is photographed by photographing with the HMD 201A (the imaging device 31) as the first terminal, and an image is acquired (S11; Preliminary shooting process). Then, a partial area of the image (including the image of the device OB) is cut out from the image and acquired as a reference image of a still image (S12: reference image acquisition step). Thereafter, the acquired reference image is held (S13; holding step). More specifically, it is as follows.

図28は、基準画像取得時の作業者PAの視界のイメージを示している。作業者PAが装着しているHMD201Aの映像表示領域には、範囲確認用マーカーFが表示されており、作業者PAは、デバイスOBをシースルーで観察しながら、表示された範囲確認用マーカーFを観察することができる。なお、同図では、範囲確認用マーカーFは、矩形の四隅のみを示す形状で表示されているが、矩形形状(一続きの枠)で表示されてもよい。また、範囲確認用マーカーFは、視認しやすいように色つきであってもよく、その線種も実線には限定されない(例えば破線で表示されてもよい)。   FIG. 28 shows an image of the field of view of the worker PA when acquiring a reference image. A marker F for range confirmation is displayed in the image display area of the HMD 201A worn by the worker PA, and the worker PA sees the marker F for range confirmation displayed while observing the device OB with a see-through. It can be observed. In addition, although the marker F for range confirmation is displayed by the shape which shows only the four corners of a rectangle in the same figure, it may be displayed by a rectangular shape (continuous frame). Further, the range confirmation marker F may be colored so as to be easily visible, and the line type is not limited to the solid line (for example, it may be displayed by a broken line).

図29は、基準画像取得時の指示者(ここでは作業者PC)の視界のイメージを示している。作業者PCが装着しているHMD201C(第2端末)には、HMD201Aにおける作業者PAの視界映像(HMD201Aの撮像装置31の撮影によって取得され、HMD201Cに出力された画像)と、HMD201Aで表示されている範囲確認用マーカーFに対応する範囲確認用マーカーF’が映像V(202C)として表示されている。なお、範囲確認用マーカーF・F’の表示サイズ(縦横比)は揃えてあり、映像V(202C)自体は、範囲確認用マーカーF’の表示のために、図20(活用例2)で示した範囲よりも少し広めに表示されている。   FIG. 29 shows an image of the field of view of the instructor (here, worker PC) at the time of acquiring the reference image. The HMD 201C (second terminal) worn by the worker PC displays the view image of the worker PA in the HMD 201A (an image obtained by photographing by the imaging device 31 of the HMD 201A and output to the HMD 201C) and the HMD 201A A range confirmation marker F ′ corresponding to the range confirmation marker F is displayed as a video V (202C). The display size (aspect ratio) of the range confirmation markers F and F 'is uniform, and the image V (202C) itself is shown in FIG. 20 (use example 2) to display the range confirmation markers F'. It is displayed slightly wider than the indicated range.

作業者PCは、HMD201Cにて表示される範囲確認用マーカーF’の位置や大きさをHMD201Cの操作部39によって微調整する。このような範囲確認用マーカーF’の微調整に関する情報は、通信部34を介してHMD201Aに出力され、この情報に基づいて、HMD201Aに表示されている範囲確認用マーカーFの位置や大きさも微調整される。そして、作業者PCは、HMD201Cにて表示される映像V(202C)を見ながら、範囲確認用マーカーF’内にデバイスOBが位置するように、例えば音声により、作業者PAに対して上下左右前後の移動(平行移動および回動を含む)を指示する。このような指示のもとで、作業者PAは、上下方向の移動等によって自身の姿勢を変えて、デバイスOBが撮像装置31の撮像範囲の中央付近(範囲確認用マーカーF内)に位置するようにする。   The worker PC finely adjusts the position and the size of the range check marker F ′ displayed on the HMD 201C by using the operation unit 39 of the HMD 201C. Information regarding the fine adjustment of the range confirmation marker F ′ is output to the HMD 201A through the communication unit 34, and the position and size of the range confirmation marker F displayed on the HMD 201A are also small based on this information. Adjusted. Then, while watching the video V (202C) displayed on the HMD 201C, the worker PC places the device OB within the range check marker F ′, for example, by voice, up and down, left and right with respect to the worker PA. Indicate forward and backward movement (including parallel movement and rotation). Under such an instruction, the operator PA changes his / her posture by vertical movement or the like, and the device OB is positioned near the center (within the range confirmation marker F) of the imaging range of the imaging device 31. Let's do it.

この状態で作業者PAが静止し、HMD201Aの撮像装置31によって外界を撮影すると、HMD201Aの画像処理部33は、得られた画像(例えば静止画)から、該画像の一部、すなわち、範囲確認用マーカーF内の画像(デバイスOBの画像)を画像処理によって切り出し、これによってデバイスOBの画像を基準画像(静止画)として取得する。HMD201Aにて取得された基準画像の情報(画像データ)は、例えば、管理サーバー400に出力されて保持部401に記憶される。これにより、管理サーバー400では、上記基準画像の情報を用いて種々の処理(例えばパターンマッチング処理)を行うことが可能となる。なお、HMD201Aで取得された基準画像の情報は、HMD201Aの記憶部35に記憶され、保持されてもよいし、HMD201Aから指示者側のHMD201Cに出力されて、HMD201Cの記憶部35に記憶されてもよい。   In this state, when the worker PA stands still and the outside world is photographed by the imaging device 31 of the HMD 201A, the image processing unit 33 of the HMD 201A confirms part of the image, that is, the range confirmation from the obtained image (eg, still image) The image in the marker F (image of the device OB) is cut out by image processing, and thereby the image of the device OB is acquired as a reference image (still image). Information (image data) of the reference image acquired by the HMD 201A is output to, for example, the management server 400 and stored in the storage unit 401. As a result, the management server 400 can perform various processing (for example, pattern matching processing) using the information of the reference image. The information on the reference image acquired by the HMD 201A may be stored and held in the storage unit 35 of the HMD 201A, or output from the HMD 201A to the HMD 201C on the instructor side and stored in the storage unit 35 of the HMD 201C It is also good.

また、基準画像を切り出す処理は、指示者側のHMD201Cで行われてもよい。すなわち、図29で示したように、HMD201Cには、HMD201Aによる撮影画像(例えば動画)と範囲確認用マーカーF’とが映像V(202C)として表示されている。作業者PCは、作業者PAの姿勢変化によってデバイスOBの画像が範囲確認用マーカーF’内に位置するときに、HMD201Cの操作部39を操作することで、HMD201Cの画像処理部33に対して、デバイスOBを含む撮影画像から範囲確認用マーカーF’内の画像を切り抜く指示を与える。この指示に基づき、HMD201Cの画像処理部33が画像処理を行うことで上記基準画像を取得できる。取得した基準画像の情報は、例えば管理サーバー400に出力されて保持部401に保持されるが、HMD201Cの記憶部35に記憶されてもよいし、HMD201Aに出力されてHMD201Aの記憶部35に記憶されてもよい。   Further, the process of cutting out the reference image may be performed by the HMD 201C on the side of the instructor. That is, as shown in FIG. 29, on the HMD 201C, a photographed image (for example, a moving image) by the HMD 201A and a range confirmation marker F 'are displayed as a video V (202C). The worker PC operates the operation unit 39 of the HMD 201C to position the image processing unit 33 of the HMD 201C when the image of the device OB is positioned within the range check marker F ′ due to the posture change of the worker PA. , And instructs to cut out the image in the range confirmation marker F ′ from the captured image including the device OB. Based on this instruction, the image processing unit 33 of the HMD 201C can obtain the reference image by performing image processing. The information of the acquired reference image is output to, for example, the management server 400 and held in the holding unit 401, but may be stored in the storage unit 35 of the HMD 201C or output to the HMD 201A and stored in the storage unit 35 of the HMD 201A. It may be done.

また、撮影画像から基準画像を切り出す処理は、管理サーバー400で行われてもよい。例えば、作業者PAが静止状態で撮像装置31によって撮影された画像と範囲確認用マーカーFとを合成した画像のデータを管理サーバー400に出力し、管理サーバー400の領域検出部402にて基準画像を切り出す処理を行ってもよい。切り出した基準画像の情報は、例えば保持部401に保持される。   Further, the process of cutting out the reference image from the photographed image may be performed by the management server 400. For example, data of an image obtained by combining the image captured by the imaging device 31 and the range check marker F in the stationary state of the worker PA is output to the management server 400, and the area detection unit 402 of the management server 400 Processing may be performed. The information of the cut out reference image is held, for example, in the holding unit 401.

上記した基準画像の情報が、例えば作業者PCのHMD201Cに出力されると、HMD201Cでは、上記基準画像を映像V(202C)として表示させることが可能となる。このとき、作業者PCは、操作部39の操作によって映像V(202C)の表示位置を調整してもよい。作業者PCは、HMD201Cにて実空間のデバイスOBをシースルーで観察したり、表示された映像V(202C)のどこかを注視して指示を出したりする必要があるため、シースルーで観察されるデバイスOBに映像V(202C)が重ならないようにすることが望ましい。上記した映像V(202C)の表示位置の調整により、シースルーで観察されるデバイスOBから少しだけ離れた位置に映像V(202C)を表示させることができるため、作業者PCは両者(デバイスOBおよび映像V(202C))を支障なく観察することが可能となる。   For example, when the information on the reference image described above is output to the HMD 201C of the worker PC, the HMD 201C can display the reference image as the video V (202C). At this time, the worker PC may adjust the display position of the video V (202C) by the operation of the operation unit 39. Since the worker PC needs to see through the device OB in real space with the HMD 201C in a see-through manner or gaze at somewhere on the displayed video V (202C) and issue an instruction, the operator PC sees in a see-through mode. It is desirable to ensure that the video V (202C) does not overlap the device OB. By adjusting the display position of the video V (202C) described above, the video V (202C) can be displayed at a position slightly away from the device OB observed in the see-through, so that the worker PC can It becomes possible to observe the video V (202C) without any trouble.

≪指示者側端末および作業者側端末での表示≫
図30は、本実施例の視線情報管理システムにおいて、指示者側端末および作業者側端末での画像表示に係る処理の流れを示すフローチャートである。本実施例では、上記のようにして基準画像を取得した後、その基準画像を利用して以下の処理が行われる。なお、ここでは、上記基準画像の情報(画像データ)は、HMD201Aから管理サーバー400に出力されて、保持部401に記憶されているものとする。
«Display on the instructor terminal and the worker terminal»
FIG. 30 is a flowchart showing a flow of processing relating to image display on the instructor terminal and the worker terminal in the line-of-sight information management system of the present embodiment. In the present embodiment, after acquiring the reference image as described above, the following processing is performed using the reference image. Here, it is assumed that the information (image data) of the reference image is output from the HMD 201A to the management server 400 and stored in the storage unit 401.

〈指示者側端末での表示〉
まず、作業者PAのHMD201Aにおいて、撮像装置31の撮影によって動画を取得する(S21;動画取得工程)。作業者PAがデバイスOBに対して作業する場合、そのデバイスOBに対する作業の様子が撮像装置31によって動画撮影される。動画撮影によって取得される情報(動画の画像データ)は、HMD201Aの通信部34を介して管理サーバー400に出力され、保持部401にて記憶される。
<Display on the instructor's terminal>
First, in the HMD 201A of the worker PA, a moving image is acquired by photographing of the imaging device 31 (S21; moving image acquisition step). When the worker PA works on the device OB, the imaging device 31 captures a moving picture of the work on the device OB. Information (image data of a moving image) acquired by moving image shooting is output to the management server 400 via the communication unit 34 of the HMD 201A, and stored in the holding unit 401.

管理サーバー400では、領域検出部402がパターンマッチング処理を行うことにより、HMD201Aにて撮影された動画の中で基準画像に対応する領域を検出する(S22;領域検出工程)。なお、上記のパターンマッチング処理は、時間的に異なるタイミングで定期的に行われるものとする(後述する図37のS22−1、S22−3参照)。また、以下では、撮影された動画の中で基準画像に対応する領域のことを、「注目領域」とも称する。領域検出部402によって検出された注目領域の情報(画像データ)は、通信部404を介して作業者PCのHMD201Cに出力される。これにより、HMD201Cでは、検出された注目領域を表す画像、すなわち、デバイスOBの画像が表示される(S23;画像表示工程)。   In the management server 400, the area detection unit 402 performs pattern matching processing to detect an area corresponding to the reference image in the moving image captured by the HMD 201A (S22; area detection step). The pattern matching process described above is periodically performed at timings that differ in time (see S22-1 and S22-3 in FIG. 37 described later). Furthermore, in the following, the area corresponding to the reference image in the captured moving image is also referred to as a "focus area". The information (image data) of the attention area detected by the area detection unit 402 is output to the HMD 201C of the worker PC via the communication unit 404. Thereby, in the HMD 201C, an image representing the detected area of interest, that is, an image of the device OB is displayed (S23; image display step).

ここで、S22およびS23についてさらに詳しく説明する。図31は、保持部401に記憶されている基準画像IMを複数の領域Dに分割した状態を示している。基準画像IMの分割数(領域Dの数)は予め設定されており、同図では、分割数が6×6=36個である場合を示している。なお、上記分割数は、例えば作業者PCがHMD201Cの操作部39を操作し、管理サーバー400に対して指示を送ることによって変更することもできる。   Here, S22 and S23 will be described in more detail. FIG. 31 shows a state in which the reference image IM stored in the storage unit 401 is divided into a plurality of areas D. The number of divisions of the reference image IM (the number of areas D) is set in advance, and the figure shows the case where the number of divisions is 6 × 6 = 36. The number of divisions can be changed by, for example, the worker PC operating the operation unit 39 of the HMD 201C and sending an instruction to the management server 400.

ここでは、分割した各領域Dの少なくともいずれかを、パターンマッチングの計算(処理)を行うときのキー(テンプレート)として使用する。このときのパターンマッチングの手法としては、前述したように、NCC、SAD、SSDなどの公知の手法を採用することができる。また、パターンマッチングの精度を確保する上では、分割した各領域Dのうち、特徴的な構造やテクスチャーを含む領域だけを、パターンマッチングのキーとして使用することが望ましい。つまり、どの領域Dをパターンマッチングに使用するかは、その領域をキーとして基準画像に対してパターンマッチングの計算をしたときに、パターンとマッチングする位置(領域)を正しく特定できるかどうかで判断する。また、例えば作業者PCがHMD201Cの操作部39を操作し、管理サーバー400に対して指示を送ることにより、パターンマッチングのキーとして使用する領域Dを選別しなおすこともできる。   Here, at least one of the divided regions D is used as a key (template) when performing pattern matching calculation (processing). As the pattern matching method at this time, as described above, known methods such as NCC, SAD, and SSD can be adopted. Further, in order to secure the accuracy of pattern matching, it is desirable to use only the region including the characteristic structure or texture among the divided regions D as a key of pattern matching. That is, which region D is used for pattern matching is determined by whether or not the position (region) to be matched with the pattern can be correctly identified when the pattern matching is calculated with respect to the reference image using that region as a key. . Further, for example, when the worker PC operates the operation unit 39 of the HMD 201C and sends an instruction to the management server 400, the area D to be used as a pattern matching key can be re-sorted.

ここで、作業者PAが姿勢を変えたとき、HMD201Aの撮像装置31によって取得される画像は、上記姿勢に応じて変化する。例えば、図32は、基準画像と、その基準画像の取得時の位置よりも作業者PAがデバイスOBに近づいた状態で撮像装置31によって撮影された画像を模式的に示している。なお、作業者PAの姿勢変化後に取得される画像のことを、パターンマッチングの対象となる画像という意味で、以下では、便宜的に「対象画像」とも称する。   Here, when the worker PA changes the posture, the image acquired by the imaging device 31 of the HMD 201A changes in accordance with the posture. For example, FIG. 32 schematically illustrates a reference image and an image captured by the imaging device 31 in a state where the worker PA approaches the device OB more than the position at the time of acquisition of the reference image. The image acquired after the posture change of the worker PA is hereinafter also referred to as “target image” for convenience, in the sense of an image to be a target of pattern matching.

作業者PAがデバイスOBに近づくと、撮影されるデバイスOBの画像は大きくなる。このため、対象画像において、基準画像の各領域のパターンとマッチングする領域は、互いに遠ざかるように移動する。このことは、図32において、基準画像の中で互いに離間した領域D1・D2が、対象画像において領域D1’・D2’とマッチングする場合に、領域D1・D2間の距離よりも、領域D1’・D2’間の距離が長くなっていることからも容易に理解できる。逆に、作業者PAがデバイスOBから遠ざかれば、姿勢変化後の対象画像において、基準画像の各領域のパターンとマッチングする領域は、互いに近づくように移動する。   When the worker PA approaches the device OB, the image of the device OB to be captured becomes large. Therefore, in the target image, the regions matching the pattern of each region of the reference image move away from each other. This is because, in FIG. 32, when the regions D1 and D2 separated from each other in the reference image match the regions D1 'and D2' in the target image, the region D1 'is larger than the distance between the regions D1 and D2. -It can be easily understood from the fact that the distance between D2 'is long. Conversely, when the worker PA moves away from the device OB, in the target image after the posture change, the regions matching the patterns of the regions of the reference image move closer to each other.

また、実空間内での撮像装置31の位置が変化しないように、撮像装置31の角度だけを上下左右に動かした場合、角度が大きくなければ、撮影される画像の中でデバイスOBの位置が移動する。このため、対象画像において、基準画像の各領域のパターンとマッチングする各領域は、それぞれ同じ方向に同じ量だけ移動する。また、角度変化が大きくなれば、撮像装置31の光学系の射影特性に応じてデバイスOBが角度変更方向に伸び縮みする。このため、対象画像において、基準画像の各領域のパターンとマッチングする各領域も不均等に近寄ったり離れたりする。作業者PAがデバイスOBに対して横方向に移動した場合は、画像の中での移動量が均等ではなく、デバイスOBにおいて作業者PAとの距離の近い部分ほど、撮影した画像の中では大きく移動する。   Also, if only the angle of the imaging device 31 is moved vertically and horizontally so that the position of the imaging device 31 in the real space does not change, if the angle is not large, the position of the device OB in the captured image is Moving. For this reason, in the target image, each region matching the pattern of each region of the reference image moves by the same amount in the same direction. Also, if the change in angle becomes large, the device OB expands and contracts in the direction of changing the angle according to the projection characteristics of the optical system of the imaging device 31. For this reason, in the target image, each region that matches the pattern of each region of the reference image also approaches or separates unevenly. When the worker PA moves in the lateral direction with respect to the device OB, the amount of movement in the image is not uniform, and the portion closer to the worker PA in the device OB is larger in the captured image Moving.

このように、対象画像において、基準画像の各領域のパターンとマッチングする各領域の情報から、作業者PAのデバイスOBに対する相対的な位置の変化を検出することができる。したがって、S21で取得した動画から、基準画像に対応する領域(デバイスOBの部分)を切り抜き、切り抜いた動画を、該動画に含まれる撮影対象(デバイスOB)が所望の形状となるように、パターンマッチングによって取得される情報(作業者PAの相対的な位置の変化の情報)を利用して変形(拡大、縮小、回転などを含む)することにより、基準画像に近い画像(注目領域の画像)を得ることができる。本実施例では、変形後の注目領域の画像に透明度(透過率)を予め設定しておき、S23にて、HMD201Cの映像表示領域において、基準画像と対応する位置に、基準画像と重ね合わせて注目領域の画像(例えば動画)を表示する。これにより、作業者PCは、基準画像(静止画)と注目領域の画像とを同時に視認することが可能となる。図33は、HMD201Cにて、基準画像Rと注目領域の画像Tとが重なって表示されている状態を模式的に示している。なお、図33では、基準画像Rと注目領域の画像Tとを図面上で区別する目的で、これらをずらして位置させ、かつ、基準画像Rを破線で示しているが、実際にはこれらの画像は重なっているものとする。   As described above, in the target image, the change in the relative position of the worker PA with respect to the device OB can be detected from the information of each area matching the pattern of each area of the reference image. Therefore, from the moving image acquired in S21, an area (portion of the device OB) corresponding to the reference image is cut out, and the cut out moving image is patterned so that the imaging target (device OB) included in the moving image has a desired shape. An image (an image of a region of interest) close to the reference image by performing deformation (including enlargement, reduction, rotation, etc.) using information obtained by matching (information of change in relative position of worker PA) You can get In this embodiment, transparency (transmittance) is set in advance in the image of the attention area after deformation, and in S23, the reference image is superimposed on the position corresponding to the reference image in the image display area of the HMD 201C. An image (for example, a moving image) of a region of interest is displayed. As a result, the worker PC can simultaneously visually recognize the reference image (still image) and the image of the attention area. FIG. 33 schematically shows a state in which the reference image R and the image T of the region of interest overlap and are displayed on the HMD 201C. In FIG. 33, in order to distinguish the reference image R and the image T of the region of interest in the drawing, these are shifted and positioned, and the reference image R is indicated by a broken line. The images are assumed to be overlapping.

また、作業者PAのHMD201Aは、加速度センサ38(図4参照)を搭載している。このため、加速度センサ38の検出結果に基づき、作業者PAの姿勢変化に伴ってデバイスOBが撮像装置31の撮影画像上で動く方向および量をある程度予測することができる。しかし、作業者PAが動いた場合に、画像上でデバイスOBが動く量は、撮像装置31からデバイスOBまでの距離に依存するため、画像上でのデバイスOBの動きを正確に予測するには距離関係を正確に把握することが必要となり、難易度が高い。   In addition, the HMD 201A of the worker PA is equipped with an acceleration sensor 38 (see FIG. 4). Therefore, based on the detection result of the acceleration sensor 38, it is possible to predict to some extent the direction and amount of movement of the device OB on the photographed image of the imaging device 31 with the change in posture of the worker PA. However, when the worker PA moves, the amount of movement of the device OB on the image depends on the distance from the imaging device 31 to the device OB, so to accurately predict the movement of the device OB on the image It is necessary to accurately grasp the distance relationship, and the degree of difficulty is high.

本実施例では、画像の動き、つまり、画像上でのデバイスOBの動きを抑制することが目的であるため、デバイスOBの画像そのものを使ってパターンマッチングを行うことで、画像上でのデバイスOBの動きをより簡便にかつ効果的に抑制することができる。すなわち、加速度センサ38の情報に基づいて作業者PAが動いた量が小さいと判断できる場合、撮影された画像の中で、作業者PAが動く直前のデバイスOBの検出位置の近傍のみ(前回パターンマッチングを行った範囲またはその近傍のみ)でパターンマッチングを行う。図34は、作業者PAの動きが小さい場合の、パターンマッチングを行う範囲のイメージを示す。図中、501は、作業者PAが動く直前のデバイスOBの位置を示し、502は、パターンマッチングを行う範囲を示す。範囲502の大きさは、前回パターンマッチングを行った範囲とほとんど変わらず、範囲502の位置もほとんど同じである。   In the present embodiment, the object is to suppress the movement of the image, that is, the movement of the device OB on the image, so that the device OB on the image can be obtained by performing pattern matching using the image of the device OB itself. Motion can be suppressed more simply and effectively. That is, when it can be determined that the amount of movement of the worker PA is small based on the information of the acceleration sensor 38, only the vicinity of the detection position of the device OB immediately before the movement of the worker PA Pattern matching is performed in the range of matching or only in the vicinity thereof). FIG. 34 shows an image of a range in which pattern matching is performed when the movement of the worker PA is small. In the figure, 501 shows the position of device OB just before worker PA moves, and 502 shows the range which performs pattern matching. The size of the range 502 is almost the same as the range in which the previous pattern matching was performed, and the position of the range 502 is also almost the same.

一方、図35は、作業者PAの動きが大きい場合の、パターンマッチングを行う範囲502のイメージを示す。加速度センサ38の情報に基づいて作業者PAが動いた量が大きいと判断できる場合、パターンマッチングを行う範囲502の中心を、作業者PAの動きに伴ってデバイスOBが相対的に動く方向にずらすことに加えて、範囲502を、前回パターンマッチングを行った範囲よりも広げる。これにより、パターンマッチングの対象となる箇所が計算範囲外に出てしまって、基準画像に対応する注目領域を検出できなくなる事態を回避することができる。   On the other hand, FIG. 35 shows an image of a range 502 in which pattern matching is performed when the movement of the worker PA is large. If it can be determined based on the information of the acceleration sensor 38 that the amount of movement of the worker PA is large, the center of the range 502 for pattern matching is shifted in the direction of relative movement of the device OB with the movement of the worker PA. In addition to the above, the range 502 is extended beyond the range in which the previous pattern matching was performed. As a result, it is possible to avoid a situation in which the target area for pattern matching is out of the calculation range and the attention area corresponding to the reference image can not be detected.

以上では、図31で示したように、基準画像IMを複数の領域Dに分割し、分割した各領域Dの少なくともいずれかを、パターンマッチングを行うときのキーとして使用する例について説明したが、図36に示すように、基準画像IMを分割せずに、基準画像IMそのものをキーとして用いてパターンマッチングを行ってもよい。   In the above, as shown in FIG. 31, the reference image IM is divided into a plurality of areas D, and at least one of the divided areas D is used as a key when performing pattern matching. As shown in FIG. 36, without dividing the reference image IM, pattern matching may be performed using the reference image IM itself as a key.

〈作業者側端末での表示〉
図30に戻って説明を続ける。S23にて、指示者側のHMD201Cで注目領域の画像が表示されると、HMD201Cでは、視線検出装置32により、表示画像(注目領域の画像)に対する作業者PCの視線方向を検出して注視位置を求める(S24;視線検出工程)。検出した視線方向に関する情報が管理サーバー400に出力されると、演算部403は、領域検出部402による注目領域の検出結果と、HMD201Cの作業者PCの上記注視位置と、HMD201Aの撮像特性および表示特性とに基づいて、HMD201Aにおける、上記注視位置を示すマーカーの表示位置を算出する(S25)。S25にて、算出されたマーカーの表示位置の情報は、管理サーバー400からHMD201Aに出力され、HMD201Aは、演算部403にて算出された上記表示位置に、作業者PCの視線位置を示すマーカーを表示する(S26)。
<Display on worker terminal>
Returning to FIG. 30, the description will be continued. In S23, when the HMD 201C on the instructor side displays the image of the area of interest, the HMD 201C detects the line-of-sight direction of the worker PC with respect to the display image (image of the area of interest) (S24; line of sight detection step). When the information on the detected gaze direction is output to the management server 400, the calculation unit 403 detects the attention area detected by the area detection unit 402, the gaze position of the worker PC of the HMD 201C, and the imaging characteristics and display of the HMD 201A. Based on the characteristics, the display position of the marker indicating the gaze position in the HMD 201A is calculated (S25). The information on the display position of the marker calculated in S25 is output from the management server 400 to the HMD 201A, and the HMD 201A displays the marker indicating the eye gaze position of the worker PC at the display position calculated by the calculation unit 403. It displays (S26).

ここで、図37は、管理サーバー400での処理の詳細な流れを示すフローチャートである。なお、管理サーバー400では、S25の工程に先立ち、上記したS22の領域検出工程が行われているが、S22では、上述したように、領域検出部402により、時間的に異なるタイミングでパターンマッチング処理が行われている(S22−1、S22−3参照)。そして、次に(例えばS22−3で)パターンマッチングを行う際に、加速度センサ38での姿勢検出結果に基づき、前回のパターンマッチングを行う範囲に対して、次にパターンマッチングを行う範囲の位置や大きさをどうするか、決定している(S22−2参照)。この点は、図34および図35に基づいて説明した通りである。   Here, FIG. 37 is a flowchart showing a detailed flow of processing in the management server 400. In the management server 400, the area detection process of S22 described above is performed prior to the process of S25, but in S22, as described above, the area detection unit 402 performs pattern matching processing at different times in time. Is performed (see S22-1 and S22-3). Then, when pattern matching is performed next (for example, in S22-3), the position of the range in which pattern matching is to be performed next to the range in which pattern matching is performed last time, based on the posture detection result of acceleration sensor 38 It is decided what to do with the size (see S22-2). This point is as described based on FIG. 34 and FIG.

上記したS25の工程は、位置変化量検出工程(S25−1)と、表示位置決定工程(S25−2)とを含む。S25−1では、演算部403は、時間的にずれて行われる各パターンマッチングの結果に基づいて、HMD201Aでの撮影(S21)によって取得された動画上での(撮像画像全体に対する)、S22にて検出された注目領域の位置の変化量を検出する。そして、S25−2では、S25−1で検出された上記変化量と、S24で取得された、HMD201Cの作業者PCの注視位置と、HMD201Aの撮像特性および表示特性とに基づいて、HMD201Aにおけるマーカーの表示位置を決定する。ここで、HMD201Aが、外界を撮影する撮像装置31(カメラ)と、作業者PAに観察可能な画像(虚像)を提示する映像表示装置202Aとを含む構成では、上記撮像特性は、上記撮像装置31の撮像特性(例えば焦点距離(撮影画角、解像度(撮像素子の画素数))であり、上記表示特性は、上記映像表示装置202Aの表示特性(例えば焦点距離(表示画角、解像度(表示素子5(図3参照)の画素数))である。なお、これらの撮像特性および表示特性は、HMD201Aに固有の情報であり、予めわかっている情報である。   The process of S25 described above includes a position change detection process (S25-1) and a display position determination process (S25-2). In S25-1, on the basis of the result of each pattern matching performed in a temporally shifted manner, the computing unit 403 performs S22 (with respect to the entire captured image) on the moving image acquired by capturing (S21) with the HMD 201A. The amount of change in the position of the attention area detected is detected. Then, in S25-2, based on the variation detected in S25-1, the gaze position of the worker PC of the HMD 201C acquired in S24, and the imaging characteristics and display characteristics of the HMD 201A, the marker in the HMD 201A Determine the display position of. Here, in the configuration in which the HMD 201A includes the imaging device 31 (camera) that captures the outside world, and the video display device 202A that presents an image (virtual image) that can be observed to the worker PA, the imaging characteristics are the above-described imaging device 31 are the imaging characteristics (for example, focal length (shooting angle of view, resolution (number of pixels of imaging element)), and the display characteristics are the display characteristics of the video display device 202A (for example, focal length (display angle of view, resolution The number of pixels of the element 5 (see FIG. 3)) Note that these imaging characteristics and display characteristics are information unique to the HMD 201A, and are information known in advance.

S25−1にて、動画上での上記注目領域の位置の変化量がわかると、撮像装置31の焦点距離の情報を使えば、上記変化量を、撮像装置31から見た方向(縦方向および横方向の角度(画角))の変化量に換算することができる。さらに、映像表示装置202Aの焦点距離の情報を使えば、注目領域の位置の変化後の「撮像装置31から見た方向」が、映像表示装置202Aにおいて表示素子5上のどの画素に対応するかがわかる。   If the amount of change in the position of the attention area on the moving image is known in S25-1, the information on the focal length of the imaging device 31 can be used to determine the amount of change as viewed from the imaging device 31 (vertical direction and It can be converted into the amount of change in the angle in the lateral direction (angle of view). Furthermore, if the information of the focal length of the video display device 202A is used, which pixel on the display element 5 corresponds to “the direction viewed from the imaging device 31” after the change of the position of the attention area corresponds to I understand.

したがって、S26にて、表示素子5の上記画素を中心とする範囲にマーカーを表示することにより、作業者PAの向きに関係なく(作業者PAがどの方向を向いていても)、作業者PAから見てデバイスOB上の同じに位置にマーカーを表示させ続けることができる。   Therefore, by displaying a marker in a range centered on the above-mentioned pixel of the display element 5 in S26, the worker PA can be selected regardless of the direction of the worker PA (the worker PA is pointing in any direction). It is possible to keep displaying the marker at the same position on the device OB as viewed from the side.

以上のように、作業者PAが作業中に動き、それに伴って、撮影によって取得される動画中で撮影対象(デバイスOB)の位置が動く場合でも、HMD201Cでは、HMD201Aで取得された動画のうちで、基準画像に対応する注目領域の画像、つまり、撮影対象の位置がほとんど変化しない画像が表示される。これにより、作業者PCは、表示画像を注視しても映像酔いを起こしにくくなり、表示画像に基づいて、視線による指示を的確に出すことが可能となる。   As described above, even if the worker PA moves while working and the position of the object to be photographed (device OB) moves in the moving image acquired by photographing along with it, in the HMD 201C, among the moving images acquired by the HMD 201A Then, the image of the attention area corresponding to the reference image, that is, the image in which the position of the object to be photographed hardly changes is displayed. As a result, the worker PC is less likely to cause video sickness even when gazing at the display image, and it is possible to accurately issue an instruction by the sight line based on the display image.

また、HMD201Aでは、注目領域の検出結果と、作業者PCの表示画像に対する注視位置と、HMD201Aの撮像特性および表示特性とに基づいて算出される位置に、上記注視位置を示すマーカーMCが表示されるため、作業者PAの姿勢が作業中に変化しても、HMD201Aの表示領域内で、作業者PCの注視位置と対応する適切な位置に(デバイスOBに対してほとんど同じ位置に)、マーカーMCを表示させ続けることができる。これにより、作業者PAは、作業中に動きながらでも、表示されたマーカーMCを見て、作業者PCからの視線による指示を的確に把握して、デバイスOBに対して作業を行うことが可能となる。   Further, in the HMD 201A, the marker MC indicating the gaze position is displayed at the position calculated based on the detection result of the attention area, the gaze position of the display image of the worker PC, and the imaging characteristics and display characteristics of the HMD 201A. Therefore, even if the posture of the worker PA changes during work, the marker is placed at an appropriate position corresponding to the gaze position of the worker PC (at almost the same position with respect to the device OB) within the display area of the HMD 201A. You can keep displaying the MC. As a result, even if the worker PA moves while working, the worker can see the displayed marker MC, accurately grasp the instruction from the worker PC by the line of sight, and work on the device OB It becomes.

特に、マーカーMCの表示位置を算出するS25の工程は、位置変化量検出工程(S25−1)と、表示位置決定工程(S25−2)とを含んでいるため、HMD201AでのマーカーMCの正しい表示位置を確実に算出することができる。   In particular, since the process of S25 for calculating the display position of the marker MC includes the position change detection process (S25-1) and the display position determination process (S25-2), the marker MC in the HMD 201A is correct. The display position can be calculated reliably.

なお、HMD201Aの映像表示装置202Aは、表示素子5(例えば液晶表示素子)とHOE23とを用いて使用者に観察可能な虚像を提示する表示装置で構成されているが、MEMS(Micro Electro Mechanical Systems)スキャナを用いた網膜走査式の表示装置で構成されていてもよい。後者の場合、映像表示装置の表示特性としては、上記スキャナの特性(例えば走査速度)を考えればよい。   In addition, although the image display apparatus 202A of HMD201A is comprised with the display apparatus which presents a virtual image which can be observed for a user using the display element 5 (for example, liquid crystal display element) and HOE23, MEMS (Micro Electro Mechanical Systems) ) A retinal scanning display using a scanner. In the latter case, as the display characteristics of the video display device, the characteristics of the scanner (for example, the scanning speed) may be considered.

また、HMD201Cの表示画像は動画を含み、上記動画は、HMD201Aで取得した動画から、基準画像に対応する注目領域を切り抜き、変形することによって、予め設定された透過率で基準画像(静止画)と重ね合わせて表示される。作業者PCは、表示された動画を見ることで、作業者PAの作業をリアルタイムで把握することができる。また、動画が所定の透過率で基準画像と重ね合わされて表示されるため、作業者PAの手や工具などで撮影対象(例えばデバイスOB)が遮蔽される状態であっても、作業者PCには基準画像が透けて見える。これにより、作業者PCは、基準画像をもとに視線による指示を出し続けることができる。さらに、HMD201Aで取得される動画において、基準画像に対応する範囲が、作業者PAの作業中の動き(例えばデバイスOBに対して近づく/遠ざかる動き)に応じて変化(例えば拡大または縮小)する場合でも、作業者PCは、基準画像と重ね合わされて表示される変形後(例えば縮小後または拡大後)の動画を見て、視線による的確な指示を出すことが可能となる。   In addition, the display image of the HMD 201C includes a moving image, and the above-described moving image is a reference image (still image) with a preset transmittance by cutting out an attention area corresponding to the reference image from the moving image acquired by the HMD 201A. It is displayed overlapping with. The worker PC can grasp the work of the worker PA in real time by viewing the displayed moving image. In addition, since the moving image is displayed superimposed on the reference image with a predetermined transmittance, the worker PC can display even if the object to be photographed (for example, the device OB) is shielded by the hand or tool of the worker PA. Shows through the reference image. As a result, the worker PC can continuously issue an instruction by the sight line based on the reference image. Furthermore, in the moving image acquired by the HMD 201A, the range corresponding to the reference image changes (for example, enlargement or reduction) according to the movement of the worker PA during work (for example, movement toward or away from the device OB). However, the worker PC can see a moving image after deformation (for example, after reduction or enlargement) displayed superimposed on the reference image, and can issue an appropriate instruction by the sight line.

また、S22の領域検出工程では、HMD201Aで取得した動画に対して、基準画像に含まれる複数の分割画像をキーとしたパターンマッチングを行うことによって注目領域を検出するとともに、個々の分割画像のパターンマッチングの結果に応じて、検出した注目領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形する(図31、図32参照)。複数の分割画像を用いたパターンマッチングにより、注目領域を迅速に検出することができる。また、個々の分割画像のパターンマッチングの結果に応じて、検出した注目領域の動画を変形するため、作業者PAが作業中に動いて、HMD201Aと撮影対象(デバイスOB)との位置関係(例えば距離)が変動しても、撮影対象が所望の形状となる注目領域を取得することができる。   Further, in the area detection step of S22, a notable area is detected by performing pattern matching on the moving image acquired by the HMD 201A using a plurality of divided images included in the reference image as a key, and the patterns of individual divided images Depending on the matching result, the moving image of the detected attention area is deformed so that the imaging target included in the moving image has a desired shape (see FIGS. 31 and 32). The pattern matching using a plurality of divided images can rapidly detect the region of interest. Further, in order to deform the moving image of the detected area of interest according to the result of pattern matching of the individual divided images, the worker PA moves during work, and the positional relationship between the HMD 201A and the imaging target (device OB) (for example, Even if the distance changes, it is possible to obtain an attention area in which the imaging target has a desired shape.

また、S22の領域検出工程では、HMD201Aで取得した動画に対して、基準画像をキーとしたパターンマッチングを行うことによって注目領域を検出してもよい(図36参照)。この場合は、基準画像そのものを用いたパターンマッチングにより、注目領域を検出することができる。   Further, in the area detection step of S22, the attention area may be detected by performing pattern matching on the moving image acquired by the HMD 201A using the reference image as a key (see FIG. 36). In this case, the region of interest can be detected by pattern matching using the reference image itself.

また、HMD201Aは、作業者PAの姿勢変化を検出する第1端末側検出器としての加速度センサ38を含み、S22の領域検出工程では、加速度センサ38による姿勢変化の検出結果に応じて、HMD201Aで取得した動画中で、パターンマッチングを行う範囲を変化させる(図34、図35参照)。例えば、図34のように、作業者PAの姿勢変化が遅い場合には(移動量が少ない場合には)、HMD201Aで取得した動画中でパターンマッチングを行う範囲502を狭めることで、パターンマッチングの計算量を減らして迅速な処理を行うことが可能となる。逆に、図35のように、作業者PAの姿勢変化が速い場合には(移動量が多い場合には)、動画中でパターンマッチングを行う範囲502を広げることで、動画の広範囲から基準画像に対応する注目領域を検出することが可能となる。つまり、作業者PAの姿勢変化が速い場合に、パターンマッチングの範囲が狭いと、その範囲内に基準画像に対応する注目領域が入っていない可能性があるが、パターンマッチングの範囲502を広げることで、そのような事態を回避することができる。   In addition, the HMD 201A includes the acceleration sensor 38 as a first terminal detector that detects a change in posture of the worker PA, and in the area detection step of S22, the HMD 201A detects the change in posture by the acceleration sensor 38. In the acquired moving image, the range in which pattern matching is performed is changed (see FIGS. 34 and 35). For example, as shown in FIG. 34, when the posture change of the worker PA is slow (when the movement amount is small), the area 502 for performing pattern matching in the moving image acquired by the HMD 201A is narrowed to perform pattern matching. It is possible to reduce the amount of calculation and perform quick processing. Conversely, as shown in FIG. 35, when the posture change of the worker PA is fast (when the movement amount is large), the range 502 for performing pattern matching in the moving image is expanded to obtain a reference image from a wide range of moving images. It is possible to detect a region of interest corresponding to That is, when the posture change of the worker PA is fast, if the range of pattern matching is narrow, there is a possibility that the attention area corresponding to the reference image may not be included in the range, but the range 502 of pattern matching is expanded. Can avoid such a situation.

また、複数の情報入出力端末200は、HMD201AおよびHMD201Bにて取得される情報を管理する管理サーバー400を含み、管理サーバー400(特に保持部401)が、HMD201Aで取得した静止画の一部を基準画像として保持する。この場合、HMD201AおよびHMD201Bにおいて、基準画像を保持する大容量のメモリを設けなくても済み、HMD201AおよびHMD201Bの製造コストを低減できる。   In addition, the plurality of information input / output terminals 200 include a management server 400 that manages information acquired by the HMD 201A and the HMD 201B, and the management server 400 (in particular, the holding unit 401) performs part of still images acquired by the HMD 201A. Hold as a reference image. In this case, the HMD 201A and the HMD 201B do not have to have a large capacity memory for holding the reference image, and the manufacturing cost of the HMD 201A and the HMD 201B can be reduced.

また、管理サーバー400(特に領域検出部402、演算部403)が、基準画像に対応する注目領域を検出するとともに、マーカーMCの表示位置を算出する。この場合、HMD201AおよびHMD201Bで上記の各処理を行わなくても済み、HMD201AおよびHMD201Bの処理負担を軽減できる。また、HMD201AおよびHMD201Bにおいて、上記各処理を行うための高性能な処理部が不要であるため、HMD201AおよびHMD201Bの製造コストのさらなる低減が可能となり、また、これらの端末の大型化および重量化も回避することが可能となる。   Further, the management server 400 (in particular, the area detection unit 402 and the calculation unit 403) detects the attention area corresponding to the reference image and calculates the display position of the marker MC. In this case, the above processes need not be performed in the HMD 201A and the HMD 201B, and the processing load on the HMD 201A and the HMD 201B can be reduced. In addition, the HMD 201A and HMD 201B do not require a high-performance processing unit for performing the above-described processing, so the manufacturing cost of the HMD 201A and HMD 201B can be further reduced, and the enlargement and weight increase of these terminals are also possible. It becomes possible to avoid.

また、HMD201Cは、シースルー型のHMDであるため、作業者PCは、HMD201Cを装着して外界をシースルーで観察し、作業者PAと協働して作業を行いながら、視線による指示を出すことができる。   In addition, since the HMD 201 C is a see-through HMD, the worker PC can wear the HMD 201 C, observe the outside with a see-through, and issue instructions by means of sight while working in cooperation with the worker PA. it can.

なお、作業者PAの作業中には、作業者PAの手や工具が撮影画像に映り込む。また、手や工具によってデバイスOBの一部が遮られた状態で、デバイスOBが撮影される。このような撮影画像が取得されると、基準画像とのパターンマッチングの計算が正しくできない領域が生じる。パターンマッチングの計算の結果、基準画像とのマッチングがベストな位置でも、相関が低い領域(パターンマッチングの計算が正しくできない領域)については計算結果を破棄し、パターンマッチングの計算ができた領域の情報と、上記相関が低い領域について、その前の時刻に撮影された画像中で対応する領域との相対位置関係の情報とを使って補完してもよい。   During the work of the worker PA, the hands and tools of the worker PA are reflected in the photographed image. Also, the device OB is photographed in a state in which a part of the device OB is blocked by a hand or a tool. When such a photographed image is acquired, an area in which the calculation of pattern matching with the reference image can not be correctly generated. As a result of the pattern matching calculation, even in the position where the matching with the reference image is the best, the calculation result is discarded for the area where the correlation is low (the area where the pattern matching calculation can not be correctly performed). And the above-mentioned area with low correlation may be complemented using information of relative positional relationship with the corresponding area in the image captured at the previous time.

また、手や工具によってデバイスOBが一時的に遮蔽される以外に、作業によってデバイスOBの状態が変化することによっても、パターンマッチングの計算が正しくない領域が生じる。なお、上記デバイスOBの状態の変化は、例えばデバイスOBからネジを取り外したり、逆にネジを取り付けたりする作業によって起こり得る。パターンマッチングの計算が正しく検出できる領域が減った場合、例えば管理サーバー400は作業者PCのHMD201Cに注意を表示させる指示を出し、作業者PCに基準画像の更新を促す。作業者PCはこの注意を見て、きりの良いところで協働作業を中断する。そして、作業開始時と同様の手順で、基準画像が再取得される。   In addition to temporary shielding of the device OB by a hand or a tool, a change in the state of the device OB due to work also causes an area where the pattern matching calculation is not correct. Note that the change in the state of the device OB can occur, for example, by an operation of removing a screw from the device OB or attaching a screw. If the area in which the pattern matching calculation can be correctly detected decreases, for example, the management server 400 instructs the HMD 201C of the worker PC to display a warning and urges the worker PC to update the reference image. The worker PC sees this notice and suspends the collaborative work at a good place. Then, the reference image is reacquired in the same procedure as at the start of the work.

以上では、基準画像とのパターンマッチングによる注目領域の検出処理、およびHMD201Aにおけるマーカーの表示位置の算出処理を、管理サーバー400(領域検出部402、演算部403)で行うようにしているが、作業者PA側のHMD201Aまたは指示者(作業者PC)側のHMD201Cの画像処理部33にて行ってもよい。ただし、処理が重たくなってHMD201A・201Cでの表示が遅延したり、高機能の画像処理部33の搭載によるHMD201A・201Cの大型化やコストアップを防ぐ意味では、本実施例のように上記の各処理を管理サーバー400で行うことが望ましい。   In the above, the management server 400 (area detection unit 402, calculation unit 403) performs detection processing of the attention area by pattern matching with the reference image and calculation processing of the display position of the marker in the HMD 201A. The process may be performed by the image processing unit 33 of the HMD 201A on the side of the person PA or the HMD 201C on the side of the instructionor (worker PC). However, in order to prevent heavy processing and delay in display on the HMDs 201A and 201C and increase in size and cost of the HMDs 201A and 201C due to the installation of the high-performance image processing unit 33, as described in the present embodiment, It is desirable to perform each process on the management server 400.

<実施例2>
図38は、本実施例におけるHMD201Cの表示画像を示している。本実施例では、HMD201Cに表示する画像を静止画とした以外は、実施例1と同様である。上記画像(静止画)は、同図に示すように、基準画像Rそのものであってもよいし、基準画像Rを所定の時間間隔で更新した画像であってもよいし、作業者PCの操作部39の操作によって更新される画像であってもよい。
Example 2
FIG. 38 shows a display image of the HMD 201C in the present embodiment. The present embodiment is the same as the first embodiment except that the image displayed on the HMD 201C is a still image. The image (still image) may be the reference image R itself as shown in the figure, or may be an image obtained by updating the reference image R at a predetermined time interval, or the operation of the worker PC It may be an image updated by the operation of the unit 39.

本実施例では、作業者PAの作業中に、HMD201Aの撮像装置31によって撮影されるリアルタイム映像(動画)は、どこにも表示されないが、HMD201Aでの動画の取得と、パターンマッチングによる注目領域の検出は行って、マーカー表示位置の計算に使用する。   In the present embodiment, the real-time video (moving image) captured by the imaging device 31 of the HMD 201A is not displayed anywhere while the worker PA is working, but acquisition of the moving image by the HMD 201A and detection of a focused area by pattern matching Is used to calculate the marker display position.

このようにHMD201Cでの表示画像が静止画(例えば基準画像R)であっても、作業者PCは、表示された静止画を見て、視線による指示を出すことができる。また、表示画像が、基準画像の更新画像(所定の時間間隔で更新または手動で更新される画像)であれば、撮影対象であるデバイスOBに対する作業が進んでデバイスOBの状態が初期と変化する場合でも(例えばネジが外される、ネジが取り付けられるなど)、作業者PCは、更新画像を見て、作業状況に合った的確な指示を出すことができる。   As described above, even if the display image on the HMD 201C is a still image (for example, the reference image R), the worker PC can see the displayed still image and can issue an instruction by the sight line. Further, if the display image is an update image of the reference image (image updated or manually updated at predetermined time intervals), work on the device OB to be photographed proceeds, and the state of the device OB changes to the initial state Even in the case (for example, the screw is removed, the screw is attached, etc.), the worker PC can see the updated image and can issue an appropriate instruction in accordance with the work situation.

なお、基準画像を更新する場合にも、実施例1と同様のパターンマッチングを利用して初期と同じ範囲(デバイスOB)が見え続けるようにする。このとき、基準画像に一時的な遮蔽物(作業者PAの手や工具)が映り込んでしまうこともあるが、この場合には、例えば、作業者PCが必要に応じてHMD201Cの操作部39を操作して、例えばHMD201Aに指示を出すことで、HMD201Aにて改めて基準画像を取得(更新)することが可能である。   Even when the reference image is updated, the same range (device OB) as the initial state is kept visible by using the pattern matching similar to that of the first embodiment. At this time, a temporary shield (the hand or tool of the operator PA) may be reflected in the reference image. In this case, for example, the operator PC operates the operation unit 39 of the HMD 201C as needed. By, for example, issuing an instruction to the HMD 201A, the HMD 201A can obtain (update) a reference image again.

<実施例3>
図39は、本実施例におけるHMD201Cの表示画像を示している。本実施例では、作業者PCのHMD201Cに動画が表示されるが、この表示画像(動画)が、HMD201Aで取得した動画から、基準画像に対応する注目領域を切り抜き、該動画に含まれる撮影対象(デバイスOB)が所望の形状となるように変形することによって、予め設定されたサイズで基準画像と対応する位置に表示される点で、実施例1とは異なっている。すなわち、本実施例では、実施例1で基準画像Rと重ね合わせる注目領域の画像Tの透明度をゼロとした場合と同じであり、これによって注目領域の画像Tのみ(動画のみ)が表示される(基準画像Rが注目領域の画像Tで隠れて見えなくなる)。
Example 3
FIG. 39 shows a display image of the HMD 201C in the present embodiment. In the present embodiment, a moving image is displayed on the HMD 201C of the worker PC, but the display image (moving image) cuts out the attention area corresponding to the reference image from the moving image acquired by the HMD 201A, and the imaging target included in the moving image This embodiment is different from the first embodiment in that the (device OB) is deformed at a desired shape and displayed at a position corresponding to the reference image at a preset size. That is, this embodiment is the same as the case where the transparency of the image T of the region of interest to be superimposed on the reference image R in the first embodiment is zero, whereby only the image T (only moving image) of the region of interest is displayed. (The reference image R hides and disappears in the image T of the region of interest).

HMD201Cにて上記のように注目領域の画像Tを動画で表示することにより、作業者PCは、動画(画像T)に含まれるデバイスOBに対する作業者PAの作業をリアルタイムで把握することができる。また、HMD201Cにおける表示画像は、HMD201Aで取得した動画から基準画像に対応する範囲を切り抜き、変形することによって、予め設定されたサイズで表示されるため、HMD201Aで取得される動画において、基準画像に対応する範囲が作業者PAの作業中の動き(例えばデバイスOBに対して近づく/遠ざかる動き)に応じて変化(例えば拡大または縮小)する場合でも、作業者PCは、表示される変形後(例えば縮小後または拡大後)の動画を見て、視線による的確な指示を出すことが可能となる。   By displaying the image T of the attention area as a moving image in the HMD 201C as described above, the worker PC can grasp in real time the work of the worker PA with respect to the device OB included in the moving image (image T). In addition, the display image in the HMD 201C is displayed in a preset size by cutting out a range corresponding to the reference image from the moving image acquired by the HMD 201A, and thus the display image is displayed in a preset size. Even if the corresponding range changes (e.g., enlargement or reduction) according to the movement of the worker PA during work (e.g., movement toward or away from the device OB), the worker PC is displayed (e.g., after deformation) It is possible to see an animation (after reduction or enlargement) and give an accurate instruction by the line of sight.

<実施例4>
実施例1では、作業者PCのHMD201Cに映像V(202C)を表示する位置は、初期に調整した位置から変化しないが、本実施例では、作業者PCが姿勢(向き)を変えると、それに応じて、映像V(202C)の表示位置(特に注目領域の画像の表示位置)を変えるようにしている。
Example 4
In the first embodiment, the position at which the image V (202C) is displayed on the HMD 201C of the worker PC does not change from the position adjusted initially, but in the present embodiment, when the worker PC changes the posture (direction), Accordingly, the display position of the video V (202C) (in particular, the display position of the image of the region of interest) is changed.

例えば図40および図41は、作業者PCがデバイスOBに近づいたときの作業者PCの視界であって、図40は、注目領域の画像Tの表示位置が初期から変化しない場合を示し、図41は、上記表示位置を変化させた場合を示している。作業者PCがデバイスOBに近づくと、作業者PCの視界中では、デバイスOBが大きく視認されるため、注目領域の画像Tの表示位置が固定されていると、図40のように、視認されるデバイスOBと、表示される注目領域の画像Tとで重なる部分が生じ、作業者PCはこの重なり部分を視認することが困難となる。   For example, FIG. 40 and FIG. 41 show the visual field of the worker PC when the worker PC approaches the device OB, and FIG. 40 shows a case where the display position of the image T of the attention area does not change from the beginning. 41 shows the case where the display position is changed. When the worker PC approaches the device OB, the device OB is greatly viewed in the field of view of the worker PC. Therefore, if the display position of the image T of the attention area is fixed, it is viewed as shown in FIG. The overlapping portion occurs between the device OB and the image T of the displayed attention area, and it becomes difficult for the worker PC to visually recognize this overlapping portion.

本実施例では、HMD201Cにおいて、加速度センサ38(第2端末側検出器)によって作業者PCの姿勢変化が検出されたときに、制御部40が、図41に示すように、HMD201Cで表示される注目領域の画像Tが、作業者PCから見て空間中の同じ位置に見えるように、加速度センサ38の検出結果に応じて、注目領域の画像Tの表示位置を移動させる。これにより、作業者PCの姿勢が変化した場合でも、作業者PCの視界内の撮影対象(デバイスOB)に対して表示画像(注目領域の画像T)を離して表示させることができ、視界内でデバイスOBと表示画像とが重なって作業者PCが視認困難となる事態を回避することができる。なお、この場合のHMD201Cの制御部40は、映像表示装置202Cでの情報の表示を制御する表示制御部として機能している。   In the present embodiment, when a change in posture of the worker PC is detected by the acceleration sensor 38 (second terminal detector) in the HMD 201C, the control unit 40 is displayed on the HMD 201C as shown in FIG. The display position of the image T of the attention area is moved according to the detection result of the acceleration sensor 38 so that the image T of the attention area can be seen from the worker PC at the same position in the space. Thereby, even when the posture of the worker PC changes, the display image (image T of the attention area) can be separated and displayed with respect to the imaging target (device OB) in the field of vision of the worker PC Thus, it is possible to avoid a situation in which the device PC and the display image overlap and the operator PC becomes difficult to visually recognize. The control unit 40 of the HMD 201C in this case functions as a display control unit that controls the display of information on the video display device 202C.

なお、作業者PCから表示される画像(虚像)までの距離を予め設定しておけば、加速度センサの情報(検出結果)と設定した上記距離とに基づいて、注目領域の画像Tの表示位置を、視界内のデバイスOBとは重ならない適切な位置に移動させることができる。このとき、作業者PCからデバイスOBまでの距離と、作業者PCから表示画像までの距離とで、設定に大きな差異が生じると、実物(デバイスOB)と表示画像との、作業者PCの視界内での相対的な位置関係を維持することができなくなる。このため、差異が大きくならないように上記各距離を設定しておくことが必要である。   If the distance from the worker PC to the image (virtual image) displayed is set in advance, the display position of the image T of the attention area based on the information (detection result) of the acceleration sensor and the set distance. Can be moved to an appropriate position that does not overlap with the device OB in view. At this time, if a large difference occurs in the setting between the distance from the worker PC to the device OB and the distance from the worker PC to the display image, the visual field of the worker PC between the real thing (device OB) and the display image It becomes impossible to maintain the relative positional relationship within. For this reason, it is necessary to set each of the above distances so that the difference does not increase.

また、加速度センサ38の情報にノイズが含まれると、画像の表示位置が小刻みに動いて(表示位置が急激に変化して)見づらくなる。表示位置の急激な変化を避けるために、加速度センサ38が検出した動きに対して、表示位置の移動を遅延させ、また、その前後の時間の姿勢情報を平均して均すことによって、小刻みな動きを抑制することが望ましい。表示位置の変化率や変化量が大きいときには、予め決めた変化率や変化量の上限値を超える分について、次の時間で表示位置を動かすようにすれば、表示位置の急激な変化が起こらないようにすることができる。   In addition, when noise is included in the information of the acceleration sensor 38, the display position of the image moves little by little (the display position changes rapidly) and it becomes difficult to see. In order to avoid a sudden change in the display position, the movement of the display position is delayed with respect to the movement detected by the acceleration sensor 38, and the posture information of the time before and after that is averaged and averaged. It is desirable to suppress movement. When the change rate or change amount of the display position is large, if the display position is moved in the next time with respect to the upper limit value of the change rate or change amount determined in advance, the display position does not change rapidly. You can do so.

つまり、HMD201Cでは、制御部40が、注目領域の画像の表示位置を変化させる前後での上記表示位置の変化率または変化量が、予め設定した変化率または変化量以下となるように、表示位置の移動を制御することが望ましい。なお、上記の変化率とは、所定時間内での表示位置の変化の割合(表示位置の変化量/所定時間)のことである。上記の表示制御により、表示画像の急激な移動(小刻みな動き)を抑えて、表示画像が見にくくなる事態を低減することができる。   That is, in the HMD 201C, the display position is set so that the change rate or change amount of the display position before and after the control unit 40 changes the display position of the image of the attention area becomes equal to or less than a preset change rate or change amount. It is desirable to control the movement of the The above change rate is the rate of change of the display position within a predetermined time (the amount of change of the display position / predetermined time). According to the above display control, it is possible to suppress a rapid movement (small movement) of a display image and to reduce a situation in which the display image becomes difficult to see.

<実施例5>
本実施例では、作業者PCの姿勢の変化に応じて、作業者PAのHMD201Aで取得される動画から切り抜く領域を変えて、HMD201Cに表示させるようにしている。
Example 5
In the present embodiment, according to the change of the posture of the worker PC, the region to be cut out from the moving image acquired by the HMD 201A of the worker PA is changed and displayed on the HMD 201C.

例えば、図42は、姿勢変化前の作業者PCの視界を示しており、図43は、図42において映像V(202C)として表示される領域に加え、映像として表示されない非表示部分を参考のために破線で示したものである。本実施例では、基準画像がデバイスOBの一部となっており、HMD201Cには、映像V(202C)として、基準画像に対応する注目領域の画像(ここでは作業者PAから見てデバイスOBの左上の部分)が表示されている。   For example, FIG. 42 shows the field of view of the worker PC before the posture change, and FIG. 43 shows the non-display part not displayed as a video in addition to the area displayed as a video V (202C) in FIG. For the sake of clarity. In the present embodiment, the reference image is a part of the device OB, and the HMD 201C is an image of a region of interest corresponding to the reference image as the video V (202C). The upper left part is displayed.

図44は、作業者PCが右上方向に顔を向けたときの作業者PCの視界を示しており、図45は、図44において映像V(202C)’として表示される領域に加え、映像として表示されない非表示部分を参考のために破線で示したものである。作業者PCが図42の表示画像(映像V(202C))の少し外側を確認したい場合、見たい方向(ここでは右上方向)に顔を向ける。すると、HMD201Cの加速度センサ38は、このような作業者PCの姿勢変化を検出する。そして、HMD201Cの制御部40は、加速度センサ38による姿勢変化の検出結果と、作業者PAのHMD201Aで取得された動画からの注目領域の検出結果とに基づき、HMD201Aで取得された上記動画内で基準画像に対応する注目領域から、作業者PCの姿勢変化量と対応する量だけずれた範囲の動画を、映像表示装置202Cにおいて、図42で示した上記注目領域の画像の表示位置から上記姿勢変化量と対応する量だけずれた位置に映像(V202C’)として表示させる。   FIG. 44 shows the visual field of the worker PC when the worker PC turns the face in the upper right direction, and FIG. 45 is added as an image to the area displayed as the image V (202C) 'in FIG. The non-displayed parts which are not displayed are shown by broken lines for reference. When the worker PC wants to confirm a little outside of the display image (image V (202C)) of FIG. 42, the face is turned in the direction to be viewed (here, the upper right direction). Then, the acceleration sensor 38 of the HMD 201C detects such posture change of the worker PC. And control part 40 of HMD201C is based on a detection result of a posture change by acceleration sensor 38, and a detection result of attention area from a animation acquired by HMD201A of worker PA within the above-mentioned animation acquired by HMD201A. The moving image in a range shifted from the attention area corresponding to the reference image by an amount corresponding to the posture change amount of the worker PC is displayed from the display position of the image of the attention area shown in FIG. The image (V 202 C ′) is displayed at a position shifted by an amount corresponding to the amount of change.

このように作業者PCのHMD201Cでは、作業者PCの姿勢変化に応じて、基準画像に対応する注目領域からずれた範囲の動画が映像(V202C’)として表示されるため、作業者PCは、基準画像に対応する注目領域以外の動画を観察することが可能となる。言い換えれば、作業者PCの姿勢変化により、画像として見える範囲を変更することができる。   As described above, in the HMD 201C of the worker PC, the moving image of the range shifted from the attention area corresponding to the reference image is displayed as a video (V202C ′) according to the change of the posture of the worker PC. It becomes possible to observe a moving image other than the region of interest corresponding to the reference image. In other words, the change in the posture of the worker PC can change the range viewed as an image.

なお、本実施例においても、実施例4と同様の表示制御を行ってもよい。つまり、HMD201Cでは、制御部40が、画像の表示位置を移動させる前後での上記表示位置の変化率または変化量が、予め設定した変化率または変化量以下となるように、上記表示位置の移動を制御してもよい。この場合、作業者PCの姿勢変化による表示画像の急激な移動を抑えて、表示画像が見にくくなる事態を低減することができる。   Also in the present embodiment, display control similar to that of the fourth embodiment may be performed. That is, in the HMD 201C, the display position is moved such that the change rate or change amount of the display position before and after the control unit 40 moves the display position of the image becomes equal to or less than a preset change rate or change amount. May be controlled. In this case, it is possible to suppress the rapid movement of the display image due to the posture change of the worker PC, and to reduce the situation where the display image becomes difficult to see.

なお、基準画像に対応する注目領域から外れた位置では、作業者PAの姿勢変化に応じて映像を歪ませる情報が存在しないので、歪みの情報のうち一律な倍率変化のみを与えた状態で表示を行うことによって、基準画像がある範囲(注目領域)とその外側とで画像の不連続性が発生しないようにする。その代わりに、作業者PAの姿勢変化による映像の歪みは、作業者PCの見ている映像で発生してしまうことになるが、領域が固定されている分、リアルタイム映像をそのまま表示する場合に比べれば、注視はしやすくなっている。   At a position outside the attention area corresponding to the reference image, there is no information for distorting the image according to the change in posture of the worker PA, so display is performed with only a uniform change in magnification among distortion information. To prevent image discontinuities from occurring in the area where the reference image is (the area of interest) and outside the area. Instead, the distortion of the image due to the posture change of the worker PA will occur in the image viewed by the worker PC, but when the area is fixed, the real time image is displayed as it is In comparison, it is easier to look at.

<実施例6>
本実施例では、上述したHMD201Cでの注目領域の画像の表示方法を、HMD201Aにも適用し、また、HMD201Aでのマーカーの表示方法を、HMD201Cにも適用した例について説明する。
Example 6
In the present embodiment, an example will be described in which the method of displaying an image of a region of interest in the HMD 201C described above is applied to the HMD 201A and the method of displaying a marker in the HMD 201A is applied to the HMD 201C.

本実施例では、まず、作業者PCの静止状態で基準画像(第2端末側基準画像)を取得する処理が行われる。この処理の流れは、図27と同様である。すなわち、作業者PCが静止した状態で、HMD201C(撮像装置31)での撮影によって、デバイスOBを含む外界を撮影し、画像を取得する(S11)。そして、上記画像から、該画像の一部の領域(デバイスOBの画像を含む)を切り出し、これを静止画の基準画像(第2端末側基準画像)として取得する(S12)。その後、取得した基準画像を管理サーバー400(保持部401)にて保持する(S13)。   In the present embodiment, first, a process of acquiring a reference image (second terminal-side reference image) is performed in a stationary state of the worker PC. The flow of this process is the same as that of FIG. That is, in a state where the worker PC stands still, the outside including the device OB is photographed by photographing with the HMD 201C (the imaging device 31), and an image is acquired (S11). Then, a partial area (including the image of the device OB) of the image is cut out from the image, and this area is acquired as a still image reference image (second terminal side reference image) (S12). Thereafter, the acquired reference image is held by the management server 400 (holding unit 401) (S13).

図46は、本実施例の視線情報管理システムにおいて、指示者側端末および作業者側端末での画像表示に係る処理の流れを示すフローチャートである。まず、作業者PCのHMD201Cにおいて、撮像装置31の撮影によって動画を取得する(S31;動画取得工程)。作業者PCがデバイスOBに対して作業する場合、そのデバイスOBに対する作業の様子が撮像装置31によって動画撮影される。動画撮影によって取得される情報(動画の画像データ)は、HMD201Cの通信部34を介して管理サーバー400に出力され、保持部401にて記憶される。   FIG. 46 is a flowchart showing a flow of processing relating to image display in the instructor terminal and the worker terminal in the line-of-sight information management system of the present embodiment. First, in the HMD 201C of the worker PC, a moving image is acquired by photographing of the imaging device 31 (S31; moving image acquisition step). When the worker PC works on the device OB, the image capturing device 31 captures a moving picture of the work on the device OB. Information (image data of a moving image) acquired by moving image shooting is output to the management server 400 via the communication unit 34 of the HMD 201 C, and stored in the holding unit 401.

管理サーバー400では、領域検出部402がパターンマッチング処理を行うことにより、HMD201Cにて撮影された動画の中で基準画像に対応する注目領域を検出する(S32;領域検出工程)。領域検出部402によって検出された注目領域の情報(画像データ)は、通信部404を介して作業者PAのHMD201Aに出力される。これにより、HMD201Aでは、検出された注目領域を表す画像、すなわち、HMD201C側から見たデバイスOBの画像が表示される(S33;画像表示工程)。   In the management server 400, the region detection unit 402 performs pattern matching processing to detect a region of interest corresponding to the reference image in the moving image captured by the HMD 201C (S32; region detection step). The information (image data) of the attention area detected by the area detection unit 402 is output to the HMD 201A of the worker PA via the communication unit 404. Thereby, in the HMD 201A, an image representing the detected area of interest, that is, an image of the device OB viewed from the HMD 201C side is displayed (S33; image display step).

続いて、HMD201Aでは、視線検出装置32により、表示画像(注目領域の画像)に対する作業者PAの視線方向を検出して注視位置を求める(S34;視線検出工程)。検出した視線方向に関する情報が管理サーバー400に出力されると、演算部403は、S32での領域検出部402による注目領域の検出結果と、HMD201Aの作業者PAの上記注視位置と、HMD201Cの撮像装置31の撮像特性および映像表示装置201Cの表示特性とに基づいて、HMD201Cにおける、上記注視位置を示すマーカーMA(図22参照)の表示位置を算出する(S35)。算出されたマーカーMAの表示位置の情報は、管理サーバー400からHMD201Cに出力され、HMD201Cは、演算部403にて算出された上記表示位置に、作業者PAの視線位置を示すマーカーMAを表示する(S36)。   Subsequently, in the HMD 201A, the sight line detection device 32 detects the sight line direction of the worker PA with respect to the display image (image of the attention area) to obtain the gaze position (S34; sight line detection step). When the information on the detected gaze direction is output to the management server 400, the calculation unit 403 detects the focus area detected by the area detection unit 402 in S32, the gaze position of the worker PA of the HMD 201A, and the image of the HMD 201C. Based on the imaging characteristic of the device 31 and the display characteristic of the image display device 201C, the display position of the marker MA (see FIG. 22) indicating the gaze position in the HMD 201C is calculated (S35). Information on the calculated display position of the marker MA is output from the management server 400 to the HMD 201C, and the HMD 201C displays the marker MA indicating the eye gaze position of the worker PA at the display position calculated by the calculation unit 403. (S36).

以上のように、HMD201Aでは、HMD201Cで取得された動画のうちで、第2端末側基準画像に対応する所定の領域の画像が表示されるため、作業者PCが作業中に動いたとしても、上記領域に含まれる撮影対象(デバイスOB)を、その表示位置をほとんど変えずに表示させることができる。これにより、作業者PAは、表示画像の注視による映像酔いを起こしにくくなる。   As described above, in the HMD 201A, among the moving images acquired by the HMD 201C, an image of a predetermined area corresponding to the second terminal-side reference image is displayed, so even if the worker PC moves during work, The imaging target (device OB) included in the area can be displayed with almost no change in the display position. As a result, the worker PA is less likely to cause video sickness due to the gaze of the display image.

また、作業者PCの姿勢が作業中に変化しても、HMD201Cの表示領域内で、作業者PAの注視位置と対応する適切な位置に(デバイスOBに対してほとんど同じ位置に)、マーカーMAを表示させ続けることができるので、作業者PCは、作業中に動きながらでも、表示されたマーカーMAを見て、作業者PAからの視線による指示や応答を的確に把握し、必要に応じて視線による追加の指示を作業者PAに出すことが可能となる。   Also, even if the posture of the worker PC changes during work, the marker MA is placed at an appropriate position corresponding to the gaze position of the worker PA (at almost the same position with respect to the device OB) within the display area of the HMD 201C. Can be displayed continuously, so that the worker PC looks at the displayed marker MA even while moving during work, accurately grasps the instruction and response from the worker PA by the line of sight, and as necessary, It is possible to give the worker PA additional instructions by the line of sight.

以上のことから、本実施形態で説明した視線情報共有方法は、以下のように表現することができる。また、上記視線情報共有方法を使用する本実施形態のシステムは、以下の視線情報検出システムとして表現することができる。   From the above, the gaze information sharing method described in the present embodiment can be expressed as follows. In addition, the system of the present embodiment using the above-described gaze information sharing method can be expressed as the following gaze information detection system.

本実施形態の視線情報共有方法は、通信回線を介して接続される複数の情報入出力端末を含むシステムにおける視線情報共有方法であって、前記複数の情報入出力端末は、外界を撮影して画像を取得可能なシースルー型のヘッドマウントディスプレイである第1端末と、情報の表示および使用者の視線方向の検出が可能な第2端末とを含み、該視線情報共有方法は、前記第1端末の使用者が静止した状態で、前記第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する工程と、前記第1端末での撮影によって動画を取得する工程と、前記第1端末で取得された前記動画から、前記基準画像に対応する領域を検出する工程と、前記第2端末において、検出された前記領域を表す画像を表示する工程と、前記第2端末において、表示画像に対する使用者の視線方向を検出して注視位置を求める工程と、前記領域の検出結果と、前記第2端末の使用者の前記注視位置と、前記第1端末の撮像特性および表示特性とに基づいて、前記第1端末における、前記注視位置を示すマーカーの表示位置を算出する工程と、前記第1端末において、算出された前記表示位置に前記マーカーを表示する工程とを含む。   The line-of-sight information sharing method of the present embodiment is a line-of-sight information sharing method in a system including a plurality of information input / output terminals connected via a communication line, wherein the plurality of information input / output terminals The first terminal is a see-through head mount display capable of acquiring an image, and a second terminal capable of displaying information and detecting a gaze direction of a user, wherein the gaze information sharing method comprises: Holding a part of the still image acquired in advance by photographing with the first terminal as a reference image, and acquiring a moving image by photographing with the first terminal in a state where the user of A step of detecting an area corresponding to the reference image from the moving image acquired by the first terminal; a step of displaying an image representing the detected area by the second terminal; end Detecting the gaze direction of the user with respect to the display image to obtain the gaze position, the detection result of the area, the gaze position of the user of the second terminal, and the imaging characteristic and display of the first terminal And calculating the display position of the marker indicating the gaze position in the first terminal based on the characteristic, and displaying the marker at the calculated display position in the first terminal.

上記の視線情報共有方法において、前記第2端末で表示される前記画像は、動画を含み、前記動画は、前記第1端末で取得した動画から、前記基準画像に対応する前記領域を切り抜き、変形することによって、予め設定された透過率で前記基準画像と重ね合わせて表示されてもよい。   In the gaze information sharing method described above, the image displayed on the second terminal includes a moving image, and the moving image cuts out the area corresponding to the reference image from the moving image acquired on the first terminal, By doing this, the image may be displayed superimposed on the reference image with a preset transmittance.

上記の視線情報共有方法において、前記第2端末で表示される前記画像は、静止画であり、前記基準画像そのもの、もしくは、前記基準画像を所定の時間間隔で更新した画像、または前記第2端末の使用者の操作によって更新される画像であってもよい。   In the gaze information sharing method described above, the image displayed on the second terminal is a still image, and the reference image itself, or an image obtained by updating the reference image at predetermined time intervals, or the second terminal The image may be updated by the user's operation of

上記の視線情報共有方法において、前記第2端末で表示される前記画像は、動画であり、前記第1端末で取得した動画から、前記基準画像に対応する前記領域を切り抜き、変形することによって、予め設定されたサイズで前記基準画像と対応する位置に表示されてもよい。   In the gaze information sharing method described above, the image displayed on the second terminal is a moving image, and the region corresponding to the reference image is cut out and deformed from the moving image acquired on the first terminal. It may be displayed at a position corresponding to the reference image in a preset size.

上記の視線情報共有方法において、前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器を含み、前記第2端末では、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、表示される前記画像が、前記第2端末の使用者から見て空間中の同じ位置に見えるように、前記第2端末側検出器の検出結果に応じて、前記画像の表示位置を移動させてもよい。   In the line-of-sight information sharing method described above, the second terminal includes a second terminal-side detector that detects a change in posture of the user, and the second terminal-side detector changes the posture of the user in the second terminal. According to the detection result of the second terminal side detector so that the displayed image appears to the same position in the space as seen by the user of the second terminal when The display position of may be moved.

上記の視線情報共有方法において、前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器を含み、前記第2端末では、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、前記姿勢変化の検出結果と、前記第1端末で取得された前記動画からの前記領域の検出結果とに基づいて、前記第1端末で取得された前記動画内で前記基準画像に対応する領域から使用者の姿勢変化量と対応する量だけずれた範囲の動画を、前記領域の画像の表示位置から前記姿勢変化量と対応する量だけずれた位置に表示してもよい。   In the line-of-sight information sharing method described above, the second terminal includes a second terminal-side detector that detects a change in posture of the user, and the second terminal-side detector changes the posture of the user in the second terminal. Within the moving image acquired by the first terminal based on the detection result of the posture change and the detection result of the area from the moving image acquired by the first terminal when Even if a moving image in a range deviated from the area corresponding to the reference image by an amount corresponding to the posture change amount of the user is displayed at a position deviated from the display position of the image of the area by an amount corresponding to the posture change amount. Good.

上記の視線情報共有方法において、前記第2端末では、画像の表示位置を移動させる前後での前記表示位置の変化率または変化量が、予め設定した変化率または変化量以下となるように、前記表示位置の移動を制御してもよい。   In the line-of-sight information sharing method, in the second terminal, the change rate or change amount of the display position before and after moving the display position of the image becomes equal to or less than a preset change rate or change amount. The movement of the display position may be controlled.

上記の視線情報共有方法において、前記基準画像に対応する領域を検出する工程では、前記第1端末で取得した前記動画に対して、前記基準画像をキーとしたパターンマッチングを行うことによって前記領域を検出してもよい。   In the line-of-sight information sharing method described above, in the step of detecting the area corresponding to the reference image, pattern matching is performed on the moving image acquired by the first terminal by using the reference image as a key. It may be detected.

上記の視線情報共有方法において、前記基準画像に対応する領域を検出する工程では、前記第1端末で取得した前記動画に対して、前記基準画像に含まれる複数の分割画像をキーとしたパターンマッチングを行うことによって前記領域を検出するとともに、個々の前記分割画像のパターンマッチングの結果に応じて、検出した前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形してもよい。   In the line-of-sight information sharing method described above, in the step of detecting the region corresponding to the reference image, pattern matching using a plurality of divided images included in the reference image as a key to the moving image acquired by the first terminal Detects the region, and deforms the moving image of the detected region according to the result of pattern matching of the individual divided images such that the shooting target included in the moving image has a desired shape. May be

上記の視線情報共有方法において、前記第1端末は、外界を撮影する撮像装置と、使用者に観察可能な画像を提示する表示装置とを含み、前記マーカーの表示位置を算出する工程は、時間的にずれて行われる各パターンマッチングの結果に基づいて、前記第1端末での撮影によって取得された前記動画上での、検出された前記領域の位置の変化量を検出する工程と、上記変化量と、前記第2端末の使用者の前記注視位置と、前記第1端末の前記撮像装置の前記撮像特性および前記表示装置の前記表示特性とに基づいて、前記第1端末における前記マーカーの表示位置を決定する工程とを含んでいてもよい。   In the line-of-sight information sharing method described above, the first terminal includes an imaging device that captures the outside world, and a display device that presents an image that can be observed to the user, and calculating the display position of the marker Detecting the amount of change in position of the detected area on the moving image acquired by photographing at the first terminal based on the result of each pattern matching performed in an offset manner; Display of the marker at the first terminal based on the amount, the gaze position of the user of the second terminal, the imaging characteristic of the imaging device of the first terminal and the display characteristic of the display device Determining the position may be included.

上記の視線情報共有方法において、前記第1端末は、使用者の姿勢変化を検出する第1端末側検出器を含み、前記基準画像に対応する領域を検出する工程では、前記第1端末側検出器による姿勢変化の検出結果に応じて、前記第1端末で取得した前記動画中で、パターンマッチングを行う範囲を変化させてもよい。   In the line-of-sight information sharing method described above, the first terminal includes a first terminal-side detector that detects a change in posture of a user, and in the step of detecting an area corresponding to the reference image, the first terminal-side detection The range in which pattern matching is performed in the moving image acquired by the first terminal may be changed according to the detection result of the posture change by the device.

上記の視線情報共有方法において、前記複数の情報入出力端末は、前記第1端末および前記第2端末にて取得される情報を管理する管理サーバーを含み、前記管理サーバーが、前記第1端末で取得した前記静止画の一部を前記基準画像として保持することが望ましい。   In the line-of-sight information sharing method described above, the plurality of information input / output terminals include a management server that manages information acquired by the first terminal and the second terminal, and the management server is the first terminal. It is desirable to hold a part of the acquired still image as the reference image.

上記の視線情報共有方法において、前記管理サーバーが、前記基準画像に対応する前記領域を検出するとともに、前記マーカーの表示位置を算出することが望ましい。   In the gaze information sharing method described above, it is preferable that the management server detect the area corresponding to the reference image and calculate the display position of the marker.

上記の視線情報共有方法において、前記第2端末は、シースルー型のヘッドマウントディスプレイであってもよい。   In the above gaze information sharing method, the second terminal may be a see-through head mounted display.

上記の視線情報共有方法において、前記第2端末は、外界を撮影して画像を取得可能であり、該視線情報共有方法は、前記第2端末の使用者が静止した状態で、前記第2端末での撮影によって事前に取得された静止画の一部を、第2端末側基準画像として保持する工程と、前記第2端末での撮影によって動画を取得する工程と、前記第2端末で取得された前記動画から、前記第2端末側基準画像に対応する領域を検出する工程と、前記第1端末において、検出された前記領域を表す画像を表示する工程とをさらに含んでいてもよい。   In the line-of-sight information sharing method described above, the second terminal is capable of capturing an image by photographing the outside world, and the line-of-sight information sharing method relates to the second terminal while the user of the second terminal is stationary. Step of holding a part of the still image previously acquired by photographing in step as a second terminal-side reference image, step of acquiring a moving image by photographing in the second terminal, and acquiring in the second terminal The method may further include the steps of: detecting an area corresponding to the second terminal-side reference image from the moving image; and displaying an image representing the detected area in the first terminal.

上記の視線情報共有方法において、第1端末は、情報の表示および使用者の視線方向の検出が可能であり、該視線情報共有方法は、前記第1端末において、表示画像に対する使用者の視線方向を検出して注視位置を求める工程と、前記第2端末で取得された前記動画からの前記領域の検出結果と、前記第1端末の使用者の前記注視位置と、前記第2端末の撮像特性および表示特性とに基づいて、前記第2端末における、前記注視位置を示すマーカーの表示位置を算出する工程と、前記第2端末において、算出された前記表示位置に前記マーカーを表示する工程とをさらに含んでいてもよい。   In the line-of-sight information sharing method described above, the first terminal can display information and detect the line-of-sight direction of the user, and the line-of-sight information sharing method relates to the line-of-sight direction of the user with respect to the display image in the first terminal. Detecting the gaze position, detecting the region from the moving image acquired by the second terminal, the gaze position of the user of the first terminal, and the imaging characteristic of the second terminal Calculating the display position of the marker indicating the gaze position in the second terminal based on the display characteristic and the display characteristic, and displaying the marker at the calculated display position in the second terminal; It may further be included.

本実施形態の視線情報共有システムは、通信回線を介して接続される複数の情報入出力端末を含む視線情報共有システムであって、前記複数の情報入出力端末は、第1端末および第2端末を含み、前記第1端末は、外界を撮影して画像を取得する撮像装置を含むシースルー型のヘッドマウントディスプレイであり、前記第2端末は、情報を表示する表示装置と、前記表示装置によって表示された情報に対する使用者の視線方向を検出する視線検出装置とを含み、前記複数の情報入出力端末のいずれかは、前記第1端末の使用者が静止した状態で、前記第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する保持部と、前記第1端末での撮影によって動画が取得されたときに、前記動画から、前記基準画像に対応する領域を検出する領域検出部と、前記領域検出部によって検出された前記領域を表す画像が前記第2端末で表示され、前記視線検出装置によって表示画像に対する使用者の視線方向を検出して注視位置が求められたときに、前記領域検出部による前記領域の検出結果と、前記第2端末の使用者の前記注視位置と、前記第1端末の撮像特性および表示特性とに基づいて、前記第1端末における、前記注視位置を示すマーカーの表示位置を算出する演算部とを有し、前記第1端末は、前記演算部によって算出された前記表示位置に前記マーカーを表示する。   The line-of-sight information sharing system according to the present embodiment is a line-of-sight information sharing system including a plurality of information input / output terminals connected via a communication line, wherein the plurality of information input / output terminals are a first terminal and a second terminal. And the first terminal is a see-through head mounted display including an imaging device for capturing an image by capturing the outside world, and the second terminal is a display device for displaying information and a display by the display device. A gaze detection apparatus for detecting a gaze direction of the user with respect to the stored information, and any one of the plurality of information input / output terminals is received by the first terminal while the user of the first terminal is stationary. A holding unit that holds a part of a still image acquired in advance by shooting as a reference image, and a moving image corresponding to the reference image from the moving image when the moving image is acquired by shooting with the first terminal An area detection unit for detecting an area, and an image representing the area detected by the area detection unit are displayed on the second terminal, and the gaze detection apparatus detects the gaze direction of the user with respect to the display image When the position is determined, the second detection result based on the detection result of the area by the area detection unit, the gaze position of the user of the second terminal, and the imaging characteristic and the display characteristic of the first terminal. And a calculation unit for calculating a display position of the marker indicating the gaze position in one terminal, and the first terminal displays the marker at the display position calculated by the calculation unit.

上記の視線情報共有システムにおいて、前記領域検出部は、前記第1端末で取得された前記動画から、前記基準画像に対応する前記領域を切り抜き、切り抜いた前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形し、前記第2端末の前記表示装置は、前記領域検出部による変形後の動画を、予め設定された透過率で前記基準画像と重ね合わせて表示してもよい。   In the line-of-sight information sharing system described above, the area detection unit cuts out the area corresponding to the reference image from the moving image acquired by the first terminal, and the moving image of the area cut out is included in the moving image. The display target of the second terminal displays the moving image after the deformation by the area detection unit so as to overlap the reference image with a preset transmittance, displaying the desired shape. May be

上記の視線情報共有システムにおいて、前記第2端末の前記表示装置は、前記領域検出部によって検出された前記領域を表す画像を静止画で表示し、前記静止画は、前記基準画像そのもの、もしくは、前記基準画像を所定の時間間隔で更新した画像、または前記第2端末の使用者の操作によって更新される画像であってもよい。   In the line-of-sight information sharing system described above, the display device of the second terminal displays an image representing the area detected by the area detection unit as a still image, and the still image is the reference image itself or The reference image may be an image updated at predetermined time intervals, or an image updated by an operation of the user of the second terminal.

上記の視線情報共有システムにおいて、前記領域検出部は、前記第1端末で取得された前記動画から、前記基準画像に対応する前記領域を切り抜き、切り抜いた前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形し、前記第2端末の前記表示装置は、前記領域検出部による変形後の動画を、予め設定されたサイズで前記基準画像と対応する位置に表示してもよい。   In the line-of-sight information sharing system described above, the area detection unit cuts out the area corresponding to the reference image from the moving image acquired by the first terminal, and the moving image of the area cut out is included in the moving image. The display target of the second terminal displays the moving image after deformation by the area detection unit at a position corresponding to the reference image in a preset size. May be

上記の視線情報共有システムにおいて、前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器と、前記表示装置による表示を制御する表示制御部とを含み、前記表示制御部は、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、前記表示装置で表示される画像が、前記第2端末の使用者から見て空間中の同じ位置に見えるように、前記第2端末側検出器の検出結果に応じて、前記画像の表示位置を移動させてもよい。   In the line-of-sight information sharing system described above, the second terminal includes a second terminal-side detector that detects a change in posture of the user, and a display control unit that controls display by the display device. When the second terminal side detector detects a change in posture of the user, the image displayed on the display device looks like the user of the second terminal in the same position in the space. The display position of the image may be moved according to the detection result of the second terminal detector.

上記の視線情報共有システムにおいて、前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器と、前記表示装置による表示を制御する表示制御部とを含み、前記表示制御部は、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、前記姿勢変化の検出結果と、前記第1端末で取得された前記動画からの前記領域の検出結果とに基づいて、前記第1端末で取得された前記動画内で前記基準画像に対応する領域から使用者の姿勢変化量と対応する量だけずれた範囲の動画を、前記表示装置において、前記領域の画像の表示位置から前記姿勢変化量と対応する量だけずれた位置に表示させてもよい。   In the line-of-sight information sharing system described above, the second terminal includes a second terminal-side detector that detects a change in posture of the user, and a display control unit that controls display by the display device. When the second terminal side detector detects a change in posture of the user, based on the detection result of the posture change and the detection result of the area from the moving image acquired by the first terminal Displaying the image of the area on the display device in a moving image in a range corresponding to the user's posture change amount from the area corresponding to the reference image in the moving image acquired by the first terminal; It may be displayed at a position deviated from the position by an amount corresponding to the posture change amount.

上記の視線情報共有システムにおいて、前記表示制御部は、画像の表示位置を移動させる前後での前記表示位置の変化率または変化量が、予め設定した変化率または変化量以下となるように、前記表示位置の移動を制御してもよい。   In the line-of-sight information sharing system described above, the display control unit causes the change rate or change amount of the display position before and after moving the display position of the image to be equal to or less than a preset change rate or change amount. The movement of the display position may be controlled.

上記の視線情報共有システムにおいて、前記領域検出部は、前記第1端末で取得された前記動画に対して、前記基準画像をキーとしたパターンマッチングを行うことによって前記領域を検出してもよい。   In the gaze information sharing system described above, the area detection unit may detect the area by performing pattern matching on the moving image acquired by the first terminal using the reference image as a key.

上記の視線情報共有システムにおいて、前記領域検出部は、前記第1端末で取得された前記動画に対して、前記基準画像に含まれる複数の分割画像をキーとしたパターンマッチングを行うことによって前記領域を検出するとともに、個々の前記分割画像のパターンマッチングの結果に応じて、検出した前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形してもよい。   In the line-of-sight information sharing system described above, the area detection unit performs pattern matching on the moving image acquired by the first terminal by using a plurality of divided images included in the reference image as keys. According to the result of pattern matching of each of the divided images, the moving image of the detected area may be deformed such that the object to be photographed included in the moving image has a desired shape.

上記の視線情報共有システムにおいて、前記第1端末は、使用者に観察可能な画像を提示する表示装置とを含み、前記演算部は、時間的にずれて行われる各パターンマッチングの結果に基づいて、前記第1端末での撮影によって取得された前記動画上での、検出された前記領域の位置の変化量を検出し、上記変化量と、前記第2端末の使用者の前記注視位置と、前記第1端末の前記撮像装置の前記撮像特性および前記表示装置の前記表示特性とに基づいて、前記第1端末における前記マーカーの表示位置を決定してもよい。   In the line-of-sight information sharing system described above, the first terminal includes a display device that presents an image that can be observed to the user, and the operation unit is based on the result of each pattern matching performed with a time shift. And detecting the amount of change in position of the detected area on the moving image acquired by photographing with the first terminal, and the amount of change, and the gaze position of the user of the second terminal. The display position of the marker on the first terminal may be determined based on the imaging characteristic of the imaging device of the first terminal and the display characteristic of the display device.

上記の視線情報共有システムにおいて、前記第1端末は、使用者の姿勢変化を検出する第1端末側検出器を含み、前記領域検出部は、前記第1端末側検出器による姿勢変化の検出結果に応じて、前記第1端末で取得された前記動画中で、パターンマッチングを行う範囲を変化させてもよい。   In the line-of-sight information sharing system described above, the first terminal includes a first terminal-side detector that detects a change in posture of the user, and the area detection unit detects a change in posture by the first terminal-side detector. In accordance with the above, the range in which pattern matching is performed may be changed in the moving image acquired by the first terminal.

上記の視線情報共有システムにおいて、前記複数の情報入出力端末は、前記第1端末および前記第2端末にて取得される情報を管理する管理サーバーを含み、前記管理サーバーが、前記保持部を含むことが望ましい。   In the line-of-sight information sharing system described above, the plurality of information input / output terminals include a management server that manages information acquired by the first terminal and the second terminal, and the management server includes the storage unit. Is desirable.

上記の視線情報共有システムにおいて、前記管理サーバーが、前記領域検出部および前記演算部を含むことが望ましい。   In the above-described gaze information sharing system, it is preferable that the management server includes the area detection unit and the calculation unit.

上記の視線情報共有システムにおいて、前記第2端末は、シースルー型のヘッドマウントディスプレイであってもよい。   In the above-described gaze information sharing system, the second terminal may be a see-through head mounted display.

上記の視線情報共有システムにおいて、前記第2端末は、外界を撮影して画像を取得する第2端末側撮像装置をさらに含み、前記保持部は、前記第2端末の使用者が静止した状態で、前記第2端末での撮影によって事前に取得された静止画の一部を、第2端末側基準画像として保持し、前記領域検出部は、前記第2端末での撮影によって動画が取得されたときに、前記動画から、前記第2端末側基準画像に対応する領域を検出し、前記第1端末は、前記領域検出部にて検出された前記領域を表す画像を表示してもよい。   In the line-of-sight information sharing system described above, the second terminal further includes a second terminal-side imaging device that captures an image by capturing an outside world, and the holding unit is in a state where a user of the second terminal stands still. A part of a still image acquired in advance by shooting at the second terminal is held as a second terminal-side reference image, and the area detection unit acquires a moving image by shooting at the second terminal At the same time, an area corresponding to the second terminal-side reference image may be detected from the moving image, and the first terminal may display an image representing the area detected by the area detection unit.

上記の視線情報共有システムにおいて、前記第1端末は、第1端末側表示装置と、前記第1端末側表示装置によって表示された画像に対する使用者の視線方向を検出して注視位置を求める第1端末側視線検出装置とを含み、前記演算部は、前記領域検出部によって検出された前記領域を表す画像が前記第1端末で表示され、前記第1端末側視線検出装置によって表示画像に対する使用者の視線方向を検出して注視位置が求められたときに、前記領域検出部による前記領域の検出結果と、前記第1端末の使用者の前記注視位置と、前記第2端末の撮像特性および表示特性とに基づいて、前記第2端末における、前記注視位置を示すマーカーの表示位置を算出し、前記第2端末の前記表示装置は、算出された前記表示位置に前記マーカーを表示してもよい。   In the above-described gaze information sharing system, the first terminal detects a gaze direction of a user with respect to a first terminal display device and an image displayed by the first terminal display device to obtain a gaze position. A terminal side visual axis detection device, and the operation unit displays an image representing the area detected by the area detection unit on the first terminal, and a user of the display image by the first terminal visual axis detection device When the gaze position is determined by detecting the gaze direction of the object, the detection result of the area by the area detection unit, the gaze position of the user of the first terminal, and the imaging characteristic and display of the second terminal The display position of the marker indicating the gaze position in the second terminal is calculated based on the characteristic, and the display device of the second terminal displays the marker at the calculated display position. It may be.

本発明は、通信回線を介して接続される複数の情報入出力端末間で、使用者の視線情報を共有するシステムに利用可能である。   The present invention is applicable to a system that shares the user's line of sight information among a plurality of information input / output terminals connected via a communication line.

31 撮像装置(第2端末側撮像装置)
32 視線検出装置(第1端末側視線検出装置、第2端末側視線検出装置)
38 加速度センサ(第1端末側検出器、第2端末側検出器)
100 視線情報共有システム
200 情報入出力端末
201A HMD(情報入出力端末、第1端末)
201C HMD(情報入出力端末、第2端末)
202A 映像表示装置(表示装置、第1端末側表示装置)
202C 映像表示装置(表示装置、第2端末側表示装置)
300 通信回線
400 管理サーバー
401 保持部
402 領域検出部
403 演算部
31 Imaging device (second terminal side imaging device)
32 Line-of-sight detector (first terminal-side line-of-sight detector, second terminal-side line-of-sight detector)
38 Acceleration sensor (1st terminal side detector, 2nd terminal side detector)
100 Line of sight information sharing system 200 information input / output terminal 201A HMD (information input / output terminal, first terminal)
201C HMD (Information input / output terminal, 2nd terminal)
202A Video Display Device (Display Device, First Terminal Display Device)
202C Video Display Device (Display Device, Second Terminal Display Device)
300 communication line 400 management server 401 holding unit 402 area detection unit 403 calculation unit

Claims (32)

通信回線を介して接続される複数の情報入出力端末を含むシステムにおける視線情報共有方法であって、
前記複数の情報入出力端末は、
外界を撮影して画像を取得可能なシースルー型のヘッドマウントディスプレイである第1端末と、
情報の表示および使用者の視線方向の検出が可能な第2端末とを含み、
該視線情報共有方法は、
前記第1端末の使用者が静止した状態で、前記第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する工程と、
前記第1端末での撮影によって動画を取得する工程と、
前記第1端末で取得された前記動画から、前記基準画像に対応する領域を検出する工程と、
前記第2端末において、検出された前記領域を表す画像を表示する工程と、
前記第2端末において、表示画像に対する使用者の視線方向を検出して注視位置を求める工程と、
前記領域の検出結果と、前記第2端末の使用者の前記注視位置と、前記第1端末の撮像特性および表示特性とに基づいて、前記第1端末における、前記注視位置を示すマーカーの表示位置を算出する工程と、
前記第1端末において、算出された前記表示位置に前記マーカーを表示する工程とを含むことを特徴とする視線情報共有方法。
A line-of-sight information sharing method in a system including a plurality of information input / output terminals connected via a communication line, comprising:
The plurality of information input / output terminals are
A first terminal which is a see-through head mounted display capable of capturing an image by capturing the outside world;
And a second terminal capable of displaying information and detecting the gaze direction of the user,
The gaze information sharing method is
Holding, as a reference image, a part of a still image acquired in advance by photographing with the first terminal while the user of the first terminal stands still;
Acquiring a moving image by photographing at the first terminal;
Detecting an area corresponding to the reference image from the moving image acquired by the first terminal;
Displaying at the second terminal an image representing the detected area;
Detecting a gaze direction of the user with respect to the display image in the second terminal to obtain a gaze position;
The display position of the marker indicating the gaze position in the first terminal based on the detection result of the area, the gaze position of the user of the second terminal, and the imaging characteristic and display characteristic of the first terminal Calculating the
Displaying the marker at the calculated display position in the first terminal.
前記第2端末で表示される前記画像は、動画を含み、
前記動画は、前記第1端末で取得した動画から、前記基準画像に対応する前記領域を切り抜き、変形することによって、予め設定された透過率で前記基準画像と重ね合わせて表示されることを特徴とする請求項1に記載の視線情報共有方法。
The image displayed on the second terminal includes a moving image,
The moving image is displayed by being superimposed on the reference image with a preset transmittance by cutting out and deforming the region corresponding to the reference image from the moving image acquired by the first terminal. The gaze information sharing method according to claim 1.
前記第2端末で表示される前記画像は、静止画であり、前記基準画像そのもの、もしくは、前記基準画像を所定の時間間隔で更新した画像、または前記第2端末の使用者の操作によって更新される画像であることを特徴とする請求項1に記載の視線情報共有方法。   The image displayed on the second terminal is a still image, and the reference image itself, or an image obtained by updating the reference image at predetermined time intervals, or is updated by the operation of the user of the second terminal The gaze information sharing method according to claim 1, wherein the gaze information is an image. 前記第2端末で表示される前記画像は、動画であり、前記第1端末で取得した動画から、前記基準画像に対応する前記領域を切り抜き、変形することによって、予め設定されたサイズで前記基準画像と対応する位置に表示されることを特徴とする請求項1に記載の視線情報共有方法。   The image displayed on the second terminal is a moving image, and the area corresponding to the reference image is cut out and deformed from the moving image acquired on the first terminal, so that the reference has a size set in advance. The gaze information sharing method according to claim 1, wherein the gaze information is displayed at a position corresponding to an image. 前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器を含み、
前記第2端末では、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、表示される前記画像が、前記第2端末の使用者から見て空間中の同じ位置に見えるように、前記第2端末側検出器の検出結果に応じて、前記画像の表示位置を移動させることを特徴とする請求項1から4のいずれかに記載の視線情報共有方法。
The second terminal includes a second terminal side detector that detects a change in posture of the user,
In the second terminal, when a change in the user's posture is detected by the second terminal detector, the displayed image is seen at the same position in the space as viewed from the user of the second terminal. The gaze information sharing method according to any one of claims 1 to 4, wherein the display position of the image is moved according to the detection result of the second terminal detector.
前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器を含み、
前記第2端末では、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、前記姿勢変化の検出結果と、前記第1端末で取得された前記動画からの前記領域の検出結果とに基づいて、前記第1端末で取得された前記動画内で前記基準画像に対応する領域から使用者の姿勢変化量と対応する量だけずれた範囲の動画を、前記領域の画像の表示位置から前記姿勢変化量と対応する量だけずれた位置に表示することを特徴とする請求項1に記載の視線情報共有方法。
The second terminal includes a second terminal side detector that detects a change in posture of the user,
In the second terminal, when the second terminal detector detects a change in posture of the user, the detection result of the change in posture and the detection of the area from the moving image acquired by the first terminal Based on the result, in the moving image acquired by the first terminal, a moving image in a range shifted from the region corresponding to the reference image by an amount corresponding to the user's posture change amount is displayed as the image of the region 2. The method according to claim 1, wherein display is performed at a position shifted from the position by an amount corresponding to the amount of change in posture.
前記第2端末では、画像の表示位置を移動させる前後での前記表示位置の変化率または変化量が、予め設定した変化率または変化量以下となるように、前記表示位置の移動を制御することを特徴とする請求項5または6に記載の視線情報共有方法。   In the second terminal, the movement of the display position is controlled so that the change rate or change amount of the display position before and after moving the display position of the image becomes equal to or less than a preset change rate or change amount. The gaze information sharing method according to claim 5 or 6, characterized in that 前記基準画像に対応する領域を検出する工程では、前記第1端末で取得した前記動画に対して、前記基準画像をキーとしたパターンマッチングを行うことによって前記領域を検出することを特徴とする請求項1から7のいずれかに記載の視線情報共有方法。   In the step of detecting an area corresponding to the reference image, the area is detected by performing pattern matching on the moving image acquired by the first terminal using the reference image as a key. The gaze information sharing method according to any one of Items 1 to 7. 前記基準画像に対応する領域を検出する工程では、前記第1端末で取得した前記動画に対して、前記基準画像に含まれる複数の分割画像をキーとしたパターンマッチングを行うことによって前記領域を検出するとともに、個々の前記分割画像のパターンマッチングの結果に応じて、検出した前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形することを特徴とする請求項1、2、4から7のいずれかに記載の視線情報共有方法。   The step of detecting an area corresponding to the reference image detects the area by performing pattern matching on the moving image acquired by the first terminal using a plurality of divided images included in the reference image as a key. According to the result of pattern matching of each of the divided images, the moving image of the detected area is deformed so that the object to be photographed included in the moving image has a desired shape. The gaze information sharing method according to any one of 2, 4 to 7. 前記第1端末は、外界を撮影する撮像装置と、使用者に観察可能な画像を提示する表示装置とを含み、
前記マーカーの表示位置を算出する工程は、
時間的にずれて行われる各パターンマッチングの結果に基づいて、前記第1端末での撮影によって取得された前記動画上での、検出された前記領域の位置の変化量を検出する工程と、
上記変化量と、前記第2端末の使用者の前記注視位置と、前記第1端末の前記撮像装置の前記撮像特性および前記表示装置の前記表示特性とに基づいて、前記第1端末における前記マーカーの表示位置を決定する工程とを含むことを特徴とする請求項8または9に記載の視線情報検出方法。
The first terminal includes an imaging device that captures the outside world, and a display device that presents an image that can be observed to the user.
In the step of calculating the display position of the marker,
Detecting the amount of change in position of the detected area on the moving image acquired by imaging at the first terminal based on the result of each pattern matching performed temporally offset;
The marker in the first terminal based on the variation, the gaze position of the user of the second terminal, the imaging characteristic of the imaging device of the first terminal, and the display characteristic of the display device 10. The method according to claim 8, further comprising the step of: determining the display position of the image.
前記第1端末は、使用者の姿勢変化を検出する第1端末側検出器を含み、
前記基準画像に対応する領域を検出する工程では、前記第1端末側検出器による姿勢変化の検出結果に応じて、前記第1端末で取得した前記動画中で、パターンマッチングを行う範囲を変化させることを特徴とする請求項8から10のいずれかに記載の視線情報共有方法。
The first terminal includes a first terminal detector that detects a change in posture of a user,
In the step of detecting the region corresponding to the reference image, the range for performing pattern matching is changed in the moving image acquired by the first terminal according to the detection result of the posture change by the first terminal detector. The gaze information sharing method according to any one of claims 8 to 10, characterized in that:
前記複数の情報入出力端末は、前記第1端末および前記第2端末にて取得される情報を管理する管理サーバーを含み、
前記管理サーバーが、前記第1端末で取得した前記静止画の一部を前記基準画像として保持することを特徴とする請求項1から11のいずれかに記載の視線情報共有方法。
The plurality of information input / output terminals include a management server that manages information acquired by the first terminal and the second terminal,
The line-of-sight information sharing method according to any one of claims 1 to 11, wherein the management server holds a part of the still image acquired by the first terminal as the reference image.
前記管理サーバーが、前記基準画像に対応する前記領域を検出するとともに、前記マーカーの表示位置を算出することを特徴とする請求項12に記載の視線情報共有方法。   The gaze information sharing method according to claim 12, wherein the management server detects the area corresponding to the reference image and calculates a display position of the marker. 前記第2端末は、シースルー型のヘッドマウントディスプレイであることを特徴とする請求項1から13のいずれかに記載の視線情報共有方法。   The gaze information sharing method according to any one of claims 1 to 13, wherein the second terminal is a see-through head mounted display. 前記第2端末は、外界を撮影して画像を取得可能であり、
該視線情報共有方法は、
前記第2端末の使用者が静止した状態で、前記第2端末での撮影によって事前に取得された静止画の一部を、第2端末側基準画像として保持する工程と、
前記第2端末での撮影によって動画を取得する工程と、
前記第2端末で取得された前記動画から、前記第2端末側基準画像に対応する領域を検出する工程と、
前記第1端末において、検出された前記領域を表す画像を表示する工程とをさらに含むことを特徴とする請求項14に記載の視線情報共有方法。
The second terminal can capture an image by capturing the outside world,
The gaze information sharing method is
Holding, as a second terminal-side reference image, a part of a still image acquired in advance by photographing with the second terminal while the user of the second terminal stands still;
Acquiring a moving image by photographing at the second terminal;
Detecting an area corresponding to the second terminal-side reference image from the moving image acquired by the second terminal;
The gaze information sharing method according to claim 14, further comprising the step of displaying an image representing the detected area in the first terminal.
第1端末は、情報の表示および使用者の視線方向の検出が可能であり、
該視線情報共有方法は、
前記第1端末において、表示画像に対する使用者の視線方向を検出して注視位置を求める工程と、
前記第2端末で取得された前記動画からの前記領域の検出結果と、前記第1端末の使用者の前記注視位置と、前記第2端末の撮像特性および表示特性とに基づいて、前記第2端末における、前記注視位置を示すマーカーの表示位置を算出する工程と、
前記第2端末において、算出された前記表示位置に前記マーカーを表示する工程とをさらに含むことを特徴とする請求項15に記載の視線情報共有方法。
The first terminal is capable of displaying information and detecting the gaze direction of the user,
The gaze information sharing method is
Detecting a gaze direction of a user with respect to a display image in the first terminal to obtain a gaze position;
The second detection result based on the detection result of the area from the moving image acquired by the second terminal, the gaze position of the user of the first terminal, and the imaging characteristic and the display characteristic of the second terminal. Calculating a display position of the marker indicating the gaze position in the terminal;
The method according to claim 15, further comprising the step of displaying the marker at the calculated display position in the second terminal.
通信回線を介して接続される複数の情報入出力端末を含む視線情報共有システムであって、
前記複数の情報入出力端末は、第1端末および第2端末を含み、
前記第1端末は、外界を撮影して画像を取得する撮像装置を含むシースルー型のヘッドマウントディスプレイであり、
前記第2端末は、情報を表示する表示装置と、前記表示装置によって表示された情報に対する使用者の視線方向を検出する視線検出装置とを含み、
前記複数の情報入出力端末のいずれかは、
前記第1端末の使用者が静止した状態で、前記第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する保持部と、
前記第1端末での撮影によって動画が取得されたときに、前記動画から、前記基準画像に対応する領域を検出する領域検出部と、
前記領域検出部によって検出された前記領域を表す画像が前記第2端末で表示され、前記視線検出装置によって表示画像に対する使用者の視線方向を検出して注視位置が求められたときに、前記領域検出部による前記領域の検出結果と、前記第2端末の使用者の前記注視位置と、前記第1端末の撮像特性および表示特性とに基づいて、前記第1端末における、前記注視位置を示すマーカーの表示位置を算出する演算部とを有し、
前記第1端末は、前記演算部によって算出された前記表示位置に前記マーカーを表示することを特徴とする視線情報共有システム。
A line-of-sight information sharing system including a plurality of information input / output terminals connected via a communication line,
The plurality of information input / output terminals include a first terminal and a second terminal,
The first terminal is a see-through head mounted display including an imaging device that captures an outside world and acquires an image;
The second terminal includes a display device for displaying information, and a gaze detection device for detecting a gaze direction of a user with respect to the information displayed by the display device.
One of the plurality of information input / output terminals is
A holding unit which holds, as a reference image, a part of a still image acquired in advance by photographing with the first terminal while the user of the first terminal stands still;
An area detection unit which detects an area corresponding to the reference image from the moving image when the moving image is acquired by shooting at the first terminal;
When the image representing the area detected by the area detection unit is displayed on the second terminal and the gaze position is determined by detecting the gaze direction of the user with respect to the display image by the gaze detection apparatus, the area A marker indicating the gaze position at the first terminal based on the detection result of the area by the detection unit, the gaze position of the user of the second terminal, and the imaging characteristic and display characteristic of the first terminal Operation unit for calculating the display position of
The line-of-sight information sharing system according to claim 1, wherein the first terminal displays the marker at the display position calculated by the calculation unit.
前記領域検出部は、前記第1端末で取得された前記動画から、前記基準画像に対応する前記領域を切り抜き、切り抜いた前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形し、
前記第2端末の前記表示装置は、前記領域検出部による変形後の動画を、予め設定された透過率で前記基準画像と重ね合わせて表示することを特徴とする請求項17に記載の視線情報共有システム。
The area detection unit cuts out the area corresponding to the reference image from the moving image acquired by the first terminal, and the moving image of the area cut out has a desired shape as a photographing target included in the moving image. And so on
The line-of-sight information according to claim 17, wherein the display device of the second terminal displays the moving image after deformation by the area detection unit so as to overlap the reference image with a preset transmittance. Shared system.
前記第2端末の前記表示装置は、前記領域検出部によって検出された前記領域を表す画像を静止画で表示し、
前記静止画は、前記基準画像そのもの、もしくは、前記基準画像を所定の時間間隔で更新した画像、または前記第2端末の使用者の操作によって更新される画像であることを特徴とする請求項17に記載の視線情報共有システム。
The display device of the second terminal displays an image representing the area detected by the area detection unit as a still image;
The still image may be the reference image itself, an image obtained by updating the reference image at a predetermined time interval, or an image updated by an operation of a user of the second terminal. The gaze information sharing system described in.
前記領域検出部は、前記第1端末で取得された前記動画から、前記基準画像に対応する前記領域を切り抜き、切り抜いた前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形し、
前記第2端末の前記表示装置は、前記領域検出部による変形後の動画を、予め設定されたサイズで前記基準画像と対応する位置に表示することを特徴とする請求項17に記載の視線情報共有システム。
The area detection unit cuts out the area corresponding to the reference image from the moving image acquired by the first terminal, and the moving image of the area cut out has a desired shape as a photographing target included in the moving image. And so on
The line-of-sight information according to claim 17, wherein the display device of the second terminal displays the moving image after deformation by the area detection unit at a position corresponding to the reference image at a preset size. Shared system.
前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器と、前記表示装置による表示を制御する表示制御部とを含み、
前記表示制御部は、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、前記表示装置で表示される画像が、前記第2端末の使用者から見て空間中の同じ位置に見えるように、前記第2端末側検出器の検出結果に応じて、前記画像の表示位置を移動させることを特徴とする請求項17から20のいずれかに記載の視線情報共有システム。
The second terminal includes a second terminal detector that detects a change in posture of the user, and a display control unit that controls display by the display device.
The display control unit is configured such that when the second terminal detector detects a change in posture of the user, the image displayed on the display device is the same in space as viewed from the user of the second terminal. The line-of-sight information sharing system according to any one of claims 17 to 20, wherein the display position of the image is moved according to the detection result of the second terminal side detector so that the user can see the position.
前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器と、前記表示装置による表示を制御する表示制御部とを含み、
前記表示制御部は、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、前記姿勢変化の検出結果と、前記第1端末で取得された前記動画からの前記領域の検出結果とに基づいて、前記第1端末で取得された前記動画内で前記基準画像に対応する領域から使用者の姿勢変化量と対応する量だけずれた範囲の動画を、前記表示装置において、前記領域の画像の表示位置から前記姿勢変化量と対応する量だけずれた位置に表示させることを特徴とする請求項17に記載の視線情報共有システム。
The second terminal includes a second terminal detector that detects a change in posture of the user, and a display control unit that controls display by the display device.
The display control unit detects the region from the detection result of the posture change and the moving image acquired by the first terminal when the second terminal side detector detects the posture change of the user. Based on the result, in the display device, a moving image within a range corresponding to the user's posture change amount from an area corresponding to the reference image within the moving image acquired by the first terminal, The line-of-sight information sharing system according to claim 17, wherein the line-of-sight information sharing system according to claim 17 is displayed at a position deviated from the display position of the image of the area by the amount corresponding to the posture change amount.
前記表示制御部は、画像の表示位置を移動させる前後での前記表示位置の変化率または変化量が、予め設定した変化率または変化量以下となるように、前記表示位置の移動を制御することを特徴とする請求項21または22に記載の視線情報共有システム。   The display control unit controls the movement of the display position such that the change rate or change amount of the display position before and after moving the display position of the image is equal to or less than a preset change rate or change amount. The gaze information sharing system according to claim 21 or 22, characterized in that 前記領域検出部は、前記第1端末で取得された前記動画に対して、前記基準画像をキーとしたパターンマッチングを行うことによって前記領域を検出することを特徴とする請求項17から23のいずれかに記載の視線情報共有システム。   The said area | region detection part detects the said area | region by performing the pattern matching which made the said reference image the key with respect to the said moving image acquired with the said 1st terminal, The said area | region is detected. Gaze information sharing system described in crab. 前記領域検出部は、前記第1端末で取得された前記動画に対して、前記基準画像に含まれる複数の分割画像をキーとしたパターンマッチングを行うことによって前記領域を検出するとともに、個々の前記分割画像のパターンマッチングの結果に応じて、検出した前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形することを特徴とする請求項17、18、20から23のいずれかに記載の視線情報共有システム。   The area detection unit detects the area by performing pattern matching on the moving image acquired by the first terminal using a plurality of divided images included in the reference image as keys, and detects the individual areas. 24. A moving image of the detected area is deformed according to a result of pattern matching of divided images such that a shooting target included in the moving image has a desired shape. The gaze information sharing system according to any one of the above. 前記第1端末は、使用者に観察可能な画像を提示する表示装置とを含み、
前記演算部は、時間的にずれて行われる各パターンマッチングの結果に基づいて、前記第1端末での撮影によって取得された前記動画上での、検出された前記領域の位置の変化量を検出し、上記変化量と、前記第2端末の使用者の前記注視位置と、前記第1端末の前記撮像装置の前記撮像特性および前記表示装置の前記表示特性とに基づいて、前記第1端末における前記マーカーの表示位置を決定することを特徴とする請求項24または25に記載の視線情報検出システム。
The first terminal includes a display device for presenting an observable image to a user;
The calculation unit detects the amount of change in the position of the detected area on the moving image acquired by photographing at the first terminal based on the result of each pattern matching performed with a time shift. In the first terminal based on the variation amount, the gaze position of the user of the second terminal, the imaging characteristic of the imaging device of the first terminal, and the display characteristic of the display device. The gaze information detection system according to claim 24 or 25, wherein the display position of the marker is determined.
前記第1端末は、使用者の姿勢変化を検出する第1端末側検出器を含み、
前記領域検出部は、前記第1端末側検出器による姿勢変化の検出結果に応じて、前記第1端末で取得された前記動画中で、パターンマッチングを行う範囲を変化させることを特徴とする請求項24から26のいずれかに記載の視線情報共有システム。
The first terminal includes a first terminal detector that detects a change in posture of a user,
The area detection unit changes a range in which pattern matching is performed in the moving image acquired by the first terminal, in accordance with a detection result of an attitude change by the first terminal detector. The gaze information sharing system according to any one of items 24 to 26.
前記複数の情報入出力端末は、前記第1端末および前記第2端末にて取得される情報を管理する管理サーバーを含み、
前記管理サーバーが、前記保持部を含むことを特徴とする請求項17から27のいずれかに記載の視線情報共有システム。
The plurality of information input / output terminals include a management server that manages information acquired by the first terminal and the second terminal,
The line-of-sight information sharing system according to any one of claims 17 to 27, wherein the management server includes the holding unit.
前記管理サーバーが、前記領域検出部および前記演算部を含むことを特徴とする請求項28に記載の視線情報共有システム。   The gaze information sharing system according to claim 28, wherein the management server includes the area detection unit and the calculation unit. 前記第2端末は、シースルー型のヘッドマウントディスプレイであることを特徴とする請求項17から29のいずれかに記載の視線情報共有システム。   The line-of-sight information sharing system according to any one of claims 17 to 29, wherein the second terminal is a see-through head mounted display. 前記第2端末は、外界を撮影して画像を取得する第2端末側撮像装置をさらに含み、
前記保持部は、前記第2端末の使用者が静止した状態で、前記第2端末での撮影によって事前に取得された静止画の一部を、第2端末側基準画像として保持し、
前記領域検出部は、前記第2端末での撮影によって動画が取得されたときに、前記動画から、前記第2端末側基準画像に対応する領域を検出し、
前記第1端末は、前記領域検出部にて検出された前記領域を表す画像を表示することを特徴とする請求項30に記載の視線情報共有システム。
The second terminal further includes a second terminal-side imaging device that captures the outside world and acquires an image;
The holding unit holds, as a second terminal-side reference image, a part of a still image acquired in advance by photographing with the second terminal while the user of the second terminal stands still,
The area detection unit detects an area corresponding to the second terminal-side reference image from the moving image when the moving image is acquired by shooting with the second terminal.
31. The line-of-sight information sharing system according to claim 30, wherein the first terminal displays an image representing the area detected by the area detection unit.
前記第1端末は、第1端末側表示装置と、前記第1端末側表示装置によって表示された画像に対する使用者の視線方向を検出して注視位置を求める第1端末側視線検出装置とを含み、
前記演算部は、前記領域検出部によって検出された前記領域を表す画像が前記第1端末で表示され、前記第1端末側視線検出装置によって表示画像に対する使用者の視線方向を検出して注視位置が求められたときに、前記領域検出部による前記領域の検出結果と、前記第1端末の使用者の前記注視位置と、前記第2端末の撮像特性および表示特性とに基づいて、前記第2端末における、前記注視位置を示すマーカーの表示位置を算出し、
前記第2端末の前記表示装置は、算出された前記表示位置に前記マーカーを表示することを特徴とする請求項31に記載の視線情報共有システム。
The first terminal includes a first terminal-side display device, and a first terminal-side line-of-sight detection device for detecting a gaze direction of a user with respect to an image displayed by the first terminal-side display device to obtain a gaze position. ,
The calculation unit displays an image representing the area detected by the area detection unit on the first terminal, and detects a gaze direction of the user with respect to the display image by the first terminal side gaze detection apparatus, and a gaze position Is determined based on the detection result of the area by the area detection unit, the gaze position of the user of the first terminal, and the imaging characteristic and display characteristic of the second terminal. Calculating a display position of the marker indicating the gaze position on the terminal;
The gaze information sharing system according to claim 31, wherein the display device of the second terminal displays the marker at the calculated display position.
JP2017080751A 2017-04-14 2017-04-14 Line-of-sight information sharing method and line-of-sight information sharing system Withdrawn JP2018182570A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017080751A JP2018182570A (en) 2017-04-14 2017-04-14 Line-of-sight information sharing method and line-of-sight information sharing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017080751A JP2018182570A (en) 2017-04-14 2017-04-14 Line-of-sight information sharing method and line-of-sight information sharing system

Publications (1)

Publication Number Publication Date
JP2018182570A true JP2018182570A (en) 2018-11-15

Family

ID=64276188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017080751A Withdrawn JP2018182570A (en) 2017-04-14 2017-04-14 Line-of-sight information sharing method and line-of-sight information sharing system

Country Status (1)

Country Link
JP (1) JP2018182570A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021010101A (en) * 2019-07-01 2021-01-28 株式会社日立製作所 Remote work support system
WO2021090625A1 (en) * 2019-11-08 2021-05-14 株式会社日立エルジーデータストレージ Video display device and video display system
KR20210142492A (en) * 2020-05-18 2021-11-25 주식회사 피앤씨솔루션 Head mounted display device with projector mode
JP2022142517A (en) * 2021-03-16 2022-09-30 日産自動車株式会社 Image display control device, image display control system and image display control method
JP2023056918A (en) * 2021-10-08 2023-04-20 株式会社日本ブレーン Display device and display system
JP2024017145A (en) * 2022-07-27 2024-02-08 レノボ・シンガポール・プライベート・リミテッド Educational support system, educational support method, and educational support program
WO2024057783A1 (en) * 2022-09-16 2024-03-21 ソニーグループ株式会社 Information processing device provided with 360-degree image viewpoint position identification unit
WO2024201814A1 (en) * 2023-03-29 2024-10-03 マクセル株式会社 Video sharing system and video sharing method
WO2025126667A1 (en) * 2023-12-12 2025-06-19 ソニーグループ株式会社 Information processing method, information processing device, and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7372061B2 (en) 2019-07-01 2023-10-31 株式会社日立製作所 Remote work support system
JP2021010101A (en) * 2019-07-01 2021-01-28 株式会社日立製作所 Remote work support system
WO2021090625A1 (en) * 2019-11-08 2021-05-14 株式会社日立エルジーデータストレージ Video display device and video display system
US12306427B2 (en) 2019-11-08 2025-05-20 Hitachi-Lg Data Storage, Inc. Video display device and video display system
KR102410872B1 (en) 2020-05-18 2022-06-21 주식회사 피앤씨솔루션 Head mounted display device with projector mode
KR20210142492A (en) * 2020-05-18 2021-11-25 주식회사 피앤씨솔루션 Head mounted display device with projector mode
JP2022142517A (en) * 2021-03-16 2022-09-30 日産自動車株式会社 Image display control device, image display control system and image display control method
JP7646403B2 (en) 2021-03-16 2025-03-17 日産自動車株式会社 IMAGE DISPLAY CONTROL DEVICE, IMAGE DISPLAY CONTROL SYSTEM, AND IMAGE DISPLAY CONTROL METHOD
JP2023056918A (en) * 2021-10-08 2023-04-20 株式会社日本ブレーン Display device and display system
JP7464933B2 (en) 2021-10-08 2024-04-10 株式会社日本ブレーン Display device and display system
JP2024017145A (en) * 2022-07-27 2024-02-08 レノボ・シンガポール・プライベート・リミテッド Educational support system, educational support method, and educational support program
JP7500664B2 (en) 2022-07-27 2024-06-17 レノボ・シンガポール・プライベート・リミテッド Educational support system, educational support method, and educational support program
WO2024057783A1 (en) * 2022-09-16 2024-03-21 ソニーグループ株式会社 Information processing device provided with 360-degree image viewpoint position identification unit
WO2024201814A1 (en) * 2023-03-29 2024-10-03 マクセル株式会社 Video sharing system and video sharing method
WO2025126667A1 (en) * 2023-12-12 2025-06-19 ソニーグループ株式会社 Information processing method, information processing device, and program

Similar Documents

Publication Publication Date Title
US11231897B2 (en) Display system, display device, information display method, and program
JP2018182570A (en) Line-of-sight information sharing method and line-of-sight information sharing system
US9898868B2 (en) Display device, method of controlling the same, and program
US10564919B2 (en) Display system, display apparatus, method for controlling display apparatus, and program
US10162412B2 (en) Display, control method of display, and program
JP6089705B2 (en) Display device and control method of display device
JP7087481B2 (en) Head-mounted display device, display control method, and computer program
US10874284B2 (en) Display control device, display device, surgical endoscopic system and display control system
US10445573B2 (en) Gaze detection device
TWI615631B (en) Head wearing type display device and control method of head wearing type display device
CN108508603B (en) Head-mounted display device, control method therefor, and recording medium
JP6492531B2 (en) Display device and control method of display device
JP6590050B2 (en) Display device, display system, display device control method, and program
JP2017102768A (en) Information processor, display device, information processing method, and program
JP2016224086A (en) Display device, display device control method, and program
JP6554948B2 (en) Display device, display device control method, and program
US20160021360A1 (en) Display device, method of controlling display device, and program
JP2018170554A (en) Head mounted display
JP2017134575A (en) Display device, display device control method, and program
US11635625B2 (en) Virtual image display device and optical unit
WO2016101861A1 (en) Head-worn display device
JP6540426B2 (en) Display system, display device, information display method, and program
WO2018147084A1 (en) Line-of-sight information sharing method and line-of-sight information sharing system
JP2016090853A (en) Display device, display device control method, and program
JP2016031373A (en) Display device, display method, display system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20200930