[go: up one dir, main page]

JP2018182570A - 視線情報共有方法および視線情報共有システム - Google Patents

視線情報共有方法および視線情報共有システム Download PDF

Info

Publication number
JP2018182570A
JP2018182570A JP2017080751A JP2017080751A JP2018182570A JP 2018182570 A JP2018182570 A JP 2018182570A JP 2017080751 A JP2017080751 A JP 2017080751A JP 2017080751 A JP2017080751 A JP 2017080751A JP 2018182570 A JP2018182570 A JP 2018182570A
Authority
JP
Japan
Prior art keywords
terminal
image
display
worker
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2017080751A
Other languages
English (en)
Inventor
稲垣 義弘
Yoshihiro Inagaki
義弘 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017080751A priority Critical patent/JP2018182570A/ja
Publication of JP2018182570A publication Critical patent/JP2018182570A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】HMDのハンズフリー性を損なわずに意思疎通を的確に行う。他の端末の使用者が表示画像の注視による映像酔いを起こさずに指示を的確に出すことを可能にする。HMDの使用者が動きながらでも、他の端末の使用者からの指示を的確に把握可能にする。【解決手段】視線情報共有方法は、第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する工程と、第1端末での撮影によって動画を取得する工程(S21)と、上記動画から、基準画像に対応する領域を検出する工程(S22)と、第2端末において上記領域を表す画像を表示する工程(S23)と、第2端末において表示画像に対する注視位置を求める工程(S24)と、上記領域の検出結果等に基づいて、第1端末におけるマーカーの表示位置を算出する工程(S25)と、第1端末において、上記表示位置にマーカーを表示する工程(S26)とを含む。【選択図】図30

Description

本発明は、通信回線を介して接続される複数の情報入出力端末間で、使用者の視線情報を共有する視線情報共有方法および視線情報共有システムに関する。
従来から、シースルーHMD(Head Mounted Display;ヘッドマウントディスプレイ)と呼ばれる頭部装着型のシースルー情報表示装置が知られている。このシースルーHMDは、外界観察時に所望の情報を映像として付加して装着者に提供できる装置であり、大別すると、ビデオシースルー型と、光学シースルー型とがある。
ビデオシースルー型は、遮蔽型(クローズ型)の表示装置に、装着者の前方視界を撮像するカメラを付加し、装着者の前方の視界を撮像した画像に所望の映像を重ね、これらを一体的な画像として装着者に視認させる装置である。一方、光学シースルー型は、外界からの光と映像光とを重ねるコンバイナを用い、コンバイナによってこれらの光を装着者の瞳に導くことにより、装着者に映像とともに外界を直接視認させる装置である。
上記いずれのタイプのシースルーHMDについても、視認される外界の像(以下、外界像とも称する)に所望の映像を重畳することによって、装着者の作業を補完して助ける活用提案がある。HMDの持つハンズフリー性と合わせて外界を観察可能とすることで、装着者に通常の作業を妨げることがなく、さらに必要な情報(例えば作業指示やマニュアル)を外界像に重畳して表示して、装着者の作業性を向上させることができる。
HMDを用いて装着者の作業を補完する例については、例えば特許文献1で提案されている。特許文献1では、作業者および指示者がビデオシースルー型のHMDを装着し、作業者の前方の外界をカメラで撮像し、撮影によって取得された現実空間の画像に仮想空間の画像を合成した複合現実空間画像を遠隔地の指示者に送信して共有する。そして、表示画像に対して指示者が付加情報を追加することで、作業者に指示を伝達し、協働作業を行う。付加情報を追加する手段としては、手に持つタイプ(手持ち型、ハンディ型)の入力装置が用いられる。
特開2006−209664号公報(請求項1、段落〔0007〕、〔0019〕、〔0102〕、図1、図2等参照)
しかし、特許文献1のように、付加情報を追加する手段として、手持ち型の入力装置を用いる場合、入力装置によって手がふさがるため、本来のHMDが持つハンズフリー性が損なわれる。このため、HMDを用い、例えば、対象物のネジを実際に締める、部品を取り外すなど、手による作業が必要な場合には、その作業性が悪化する。
その他、上記のような複数人での協働作業や、指示者からの指示を受けて作業者が実作業を行う活用においては、音声や、音声入力による表示(音声を活字に変換して表示する手法)での意思疎通も考えられる。しかし、実際の対象物に対する作業箇所を特定するにあたって、「これ」、「あれ」、「そこ」などの曖昧な音声や表示による指示では、作業箇所を特定しにくい。また、詳細に意思疎通を行おうとすると、例えば、特定のボルトに対する作業を指示する際に、「右から3列目で上から2番目のボルト」、などのように、指示内容が長くなったり複雑化する。このため、音声または音声入力による表示のみで意思疎通を的確に行うことは困難である。
したがって、HMDを活用した複数人での協働・連携作業においては、HMDの有用性であるハンズフリー性を損なわずに、意思疎通を的確に行うことができる手段が求められる。
また、HMDを装着した作業者は、作業対象物に対して常に静止した状態で作業するとは限らず、作業中に横に移動したり、頭部が動くこともある。このような作業者の動きに追従して撮影された画像を指示者側の端末に送り、そこで表示するシステムを仮定したとき、表示画像としては、作業者の動きに追従して作業対象物が動く画像が表示される。特に、作業者の動きが速い場合には、表示画像中の作業対象物の動きも速くなる。この場合、指示者は、指示のために表示画像中の同一箇所(例えば作業対象物において締める指示を出したいネジ)を注視し続けることが困難となり、無理に注視し続けようとすると、注視点の移動が激しくなって映像酔いを起こしやすくなる。これでは、指示者が表示画像を見ながら作業者に的確な指示を出すことができなくなる。また、HMDを装着した作業者にとっては、作業中に動きながらでも、指示者側からの指示を的確に把握できるようにすることが望まれる。
本発明は、上記の問題点を解決するためになされたもので、その目的は、HMDのハンズフリー性を損なわずに意思疎通を的確に行うとともに、他の端末の使用者が表示画像の注視による映像酔いを起こさずに指示を的確に出すことができ、また、HMDの使用者が動きながらでも、他の端末の使用者からの指示を的確に把握することができる視線情報共有方法および視線情報共有システムを提供することにある。
本発明の一側面に係る視線情報共有方法は、通信回線を介して接続される複数の情報入出力端末を含むシステムにおける視線情報共有方法であって、前記複数の情報入出力端末は、外界を撮影して画像を取得可能なシースルー型のヘッドマウントディスプレイである第1端末と、情報の表示および使用者の視線方向の検出が可能な第2端末とを含み、該視線情報共有方法は、前記第1端末の使用者が静止した状態で、前記第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する工程と、前記第1端末での撮影によって動画を取得する工程と、前記第1端末で取得された前記動画から、前記基準画像に対応する領域を検出する工程と、前記第2端末において、検出された前記領域を表す画像を表示する工程と、前記第2端末において、表示画像に対する使用者の視線方向を検出して注視位置を求める工程と、前記領域の検出結果と、前記第2端末の使用者の前記注視位置と、前記第1端末の撮像特性および表示特性とに基づいて、前記第1端末における、前記注視位置を示すマーカーの表示位置を算出する工程と、前記第1端末において、算出された前記表示位置に前記マーカーを表示する工程とを含む。
本発明の他の側面に係る視線情報共有システムは、通信回線を介して接続される複数の情報入出力端末を含む視線情報共有システムであって、前記複数の情報入出力端末は、第1端末および第2端末を含み、前記第1端末は、外界を撮影して画像を取得する撮像装置を含むシースルー型のヘッドマウントディスプレイであり、前記第2端末は、情報を表示する表示装置と、前記表示装置によって表示された情報に対する使用者の視線方向を検出する視線検出装置とを含み、前記複数の情報入出力端末のいずれかは、前記第1端末の使用者が静止した状態で、前記第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する保持部と、前記第1端末での撮影によって動画が取得されたときに、前記動画から、前記基準画像に対応する領域を検出する領域検出部と、前記領域検出部によって検出された前記領域を表す画像が前記第2端末で表示され、前記視線検出装置によって表示画像に対する使用者の視線方向を検出して注視位置が求められたときに、前記領域検出部による前記領域の検出結果と、前記第2端末の使用者の前記注視位置と、前記第1端末の撮像特性および表示特性とに基づいて、前記第1端末における、前記注視位置を示すマーカーの表示位置を算出する演算部とを有し、前記第1端末は、前記演算部によって算出された前記表示位置に前記マーカーを表示する。
第1端末では、第2端末の使用者の注視位置を示すマーカーが表示されるため、第1端末の使用者は、表示される上記マーカーを見て、第2端末の使用者の意思(例えば作業箇所の指定)を把握し、それに基づいて両手で作業を行うことが可能となる。したがって、HMDで構成される第1端末のハンズフリー性を損なわずに、意思疎通を的確に行うことができる。しかも、第1端末では、第2端末の使用者の注視位置(視線方向)をマーカーという明確に視認可能な形態で示すため、音声のみで意思疎通を行う場合のように指示が曖昧となることがなく、意思疎通を的確に行うことができる。
また、第1端末の使用者が作業中に動き、それに伴って、撮影によって取得される動画中で撮影対象(例えば作業対象物)の位置が動く場合でも、第2端末では、第1端末で取得された動画のうちで、基準画像に対応する所定の領域の画像が表示される。つまり、表示画像としては、撮影対象の位置がほとんど変化しない上記領域の画像が表示される。これにより、表示画像を観察する第2端末の使用者は、映像酔いを起こしにくくなり、表示画像に基づいて、視線による指示を的確に出すことが可能となる。
また、第1端末では、基準画像に対応する領域の検出結果と、第2端末の使用者の注視位置と、第1端末の撮像特性および表示特性とに基づいて算出される位置に、上記注視位置を示すマーカーが表示されるため、第1端末の使用者が作業中に動いても、第1端末の画像の表示領域内で、第2端末で使用者が注視する位置と対応する位置(例えば作業対象物に対して同じ位置)に、上記マーカーを表示させ続けることができる。これにより、第1端末の使用者は、作業中に動きながらでも、表示されたマーカーを見て、第2端末の使用者からの視線による指示(例えば作業箇所の指定)を的確に把握して、作業を行うことが可能となる。
本発明の実施の一形態に係る視線情報共有システムの概略の構成を示す説明図である。 上記視線情報共有システムを構成する情報入出力端末の一例であるHMDの概略の構成を示す正面図である。 上記HMDが備える映像表示装置の光学構成を示す断面図である。 上記HMDの詳細な構成を示すブロック図である。 上記視線情報共有システムを構成する管理サーバーの概略の構成を示すブロック図である。 作業者と指示監督者とが協働作業を行う様子を模式的に示す説明図である。 上記視線情報共有システムにおける動作の流れの一例を示すフローチャートである。 作業者の視界のイメージを示す説明図である。 指示監督者が表示映像を観察している様子を示す説明図である。 指示監督者の視線位置を示すマーカーが表示されたときの、作業者の視界のイメージを示す説明図である。 上記視線情報共有システムにおける動作の流れの他の例を示すフローチャートである。 作業者および指示監督者の両者の視線の位置が表示されたときの、作業者の視界のイメージを示す説明図である。 上記視線情報共有システムにおける動作の流れのさらに他の例を示すフローチャートである。 作業者および指示監督者の両者の視線の位置が表示されたときの、指示監督者の視界のイメージを示す説明図である。 作業者が遠距離の指示監督者から視線情報に基づく指示を受けて作業を行う様子を示す説明図である。 本発明の他の実施の形態に係る視線情報共有システムにおいて、2人の作業者が協働作業を行う様子を模式的に示す説明図である。 一方の作業者の視界のイメージを示す説明図である。 他方の作業者の視界のイメージを示す説明図である。 他方の作業者の視界画像を、一方の作業者のHMDによって表示したときの、一方の作業者の視界のイメージを示す説明図である。 一方の作業者の視界画像を、他方の作業者のHMDによって表示したときの、他方の作業者の視界のイメージを示す説明図である。 2人の作業者の視線位置を示すマーカーが表示されたときの、一方の作業者の視界のイメージを示す説明図である。 2人の作業者の視線位置を示すマーカーが表示されたときの、他方の作業者の視界のイメージを示す説明図である。 本発明のさらに他の実施の形態に係る視線情報共有システムにおいて、2人の作業者から送られて表示された映像を、指示監督者が観察している様子を模式的に示す説明図である。 2人の作業者および指示監督者の視線位置を示すマーカーが表示されたときの、一方の作業者の視界のイメージを示す説明図である。 2人の作業者および指示監督者の視線位置を示すマーカーが表示されたときの、他方の作業者の視界のイメージを示す説明図である。 上記視線情報共有システムを構成する情報入出力端末の他の構成を示す説明図である。 本発明の一実施例における基準画像取得処理の流れを示すフローチャートである。 基準画像取得時の一方の作業者の視界のイメージを示す説明図である。 基準画像取得時の他方の作業者の視界のイメージを示す説明図である。 上記実施例の視線情報管理システムにおいて、指示者側端末および作業者側端末での画像表示に係る処理の流れを示すフローチャートである。 上記視線情報管理システムの管理サーバーの保持部に記憶されている基準画像を複数の領域に分割した状態を示す説明図である。 上記基準画像と、上記基準画像の取得時の位置よりも作業者が一方のデバイスに近づいた状態で撮影された画像とを模式的に示す説明図である。 他方の作業者のHMDにて、基準画像と注目領域の画像とが重なって表示されている状態を模式的に示す説明図である。 一方の作業者の動きが小さい場合の、パターンマッチングを行う範囲のイメージを示す説明図である。 一方の作業者の動きが大きい場合の、パターンマッチングを行う範囲のイメージを示す説明図である。 上記基準画像そのものをパターンマッチングのキーとして用いる場合のイメージを示す説明図である。 上記管理サーバーでの処理の詳細な流れを示すフローチャートである。 本発明の他の実施例における他方の作業者のHMDの表示画像を示す説明図である。 本発明のさらに他の実施例における他方の作業者のHMDの表示画像を示す説明図である。 本発明のさらに他の実施例における他方の作業者の視界の一例を示す説明図である。 上記他方の作業者の視界の他の例を示す説明図である。 本発明のさらに他の実施例における他方の作業者の視界の一例を示す説明図である。 図42において、映像として表示される領域と、映像として表示されない非表示部分とを併せて示した説明図である。 他方の作業者が姿勢を変化させたときの視界を示す説明図である。 図44において映像として表示される領域と、映像として表示されない非表示部分とを併せて示した説明図である。 本発明のさらに他の実施例の視線情報管理システムにおいて、指示者側端末および作業者側端末での画像表示に係る処理の流れを示すフローチャートである。
本発明の実施の一形態について、図面に基づいて説明すれば、以下の通りである。なお、本発明は、以下の内容に限定されるものではない。
(1.視線情報共有システムの構成)
図1は、本実施形態の視線情報共有システム100の概略の構成を示す説明図である。視線情報共有システム100は、複数の情報入出力端末200を、通信回線300を介して通信可能に(情報連携可能に)接続して構成されている。通信回線300は、例えばWi−Fi(登録商標)などの無線通信環境によって実現されているが、光ファイバーなどのケーブルを用いた有線の通信回線であってもよい。
複数の情報入出力端末200は、相互に情報を入出力(送受信)することが可能である。入出力の対象となる情報には、例えば、各情報入出力端末200で取得される撮像画像の情報(画像データ)や、各情報入出力端末200の使用者の視線方向や視線の位置(注視位置)に関する情報(以下、単に視線情報とも称する)が含まれる。これにより、複数の情報入出力端末200間で、使用者の視線情報を共有して、後述するように使用者の視線に基づく意思疎通が可能となる。
複数の情報入出力端末200は、シースルー型のヘッドマウントディスプレイ(HMD)と、管理サーバー400(図5参照)とを含んで構成されている。HMDは、使用者の頭部に装着され、映像を虚像として使用者に視認可能に表示する頭部装着型端末である。管理サーバー400は、HMDにて取得される情報を管理する端末である。なお、管理サーバー400の機能をいずれかのHMDに持たせて、管理サーバー400を省略することも可能である。まず、HMDの詳細について以下に説明する。
(2.HMDの構成)
図2は、本実施形態の情報入出力端末200の一例であるHMD201の概略の構成を示す正面図である。HMD201は、使用者に映像を提示する映像表示装置202と、支持部材203とを含んで構成されている。支持部材203は、映像表示装置202を観察者(HMD201の使用者)の眼前(例えば右眼ERの前)で支持する部材であり、眼鏡のフレームやテンプルに相当する支持部203aと、支持部203aに取り付けられて、装着時に使用者の鼻と当接する鼻当て203bとを含む。
なお、HMD201は、さらに、右眼用レンズや左眼用レンズを含み、これらが支持部材203で支持される構成であってもよい。また、HMD201は、映像表示装置202を2個有し、支持部材203によって各映像表示装置202を使用者の右眼および左眼の眼前で支持する構成であってもよい。さらに、HMD201は、映像表示装置202の位置(例えば左右方向、上下方向の各位置)や取付角度(アオリ角)を調整する位置調整機構を有していてもよい。
映像表示装置202は、使用者が映像とともに外界を直接観察可能な光学シースルー型ディスプレイである。すなわち、映像表示装置202は、外界からの光を使用者の瞳に導くことにより、使用者に外界を観察させるとともに、使用者の視野の一部に映像を虚像として表示して提供する表示光学系である。以下、映像表示装置202の光学構成について説明する。
図3は、映像表示装置202の光学構成を示す断面図である。映像表示装置202は、照明光学系2と、偏光板3と、偏光ビームスプリッタ(PBS)4と、表示素子5と、接眼光学系6とを有している。照明光学系2、偏光板3、PBS4、表示素子5、および接眼光学系6の上端部は、図2で示した筐体202a内に位置している。
なお、以下での説明の便宜上、各方向を以下のように定義しておく。図3において、接眼光学系6によって形成される光学瞳Pの中心(映像観察時の使用者の瞳中心)と表示素子5の表示面の中心とを光学的に結ぶ軸およびその軸の延長線を光軸(観察中心軸)とする。そして、接眼光学系6のHOE(Holographic Optical Element;ホログラフィック光学素子)23の光軸平面に垂直な方向をX方向とする。なお、HOE23の光軸平面とは、上記光軸と一致する光線がHOE23に入射するときの、入射光線と反射光線とを含む平面を指す。また、各光学部材の上記光軸との交点における、面法線と垂直な面内で、X方向に垂直な方向をY方向とする。そして、X方向およびY方向に垂直な方向をZ方向とする。このような定義を用いると、例えば、表示素子5の法線と接眼光学系6の後述する2つの平行な面21b・21cの法線とを含み、かつ、表示素子5の表示面の中心を含む断面は、YZ断面となる。
照明光学系2は、表示素子5を照明するものであり、光源11と、照明ミラー12と、拡散板13とを有している。
光源11は、R(赤)、G(緑)、B(青)の各色に対応する光を出射するRGB一体型のLEDで構成されている。複数の発光点(RGBの各発光点)は、水平方向(X方向)に略直線状に並んでいる。光源11から出射される光の波長は、例えば、光強度のピーク波長および光強度半値の波長幅で、462±12nm(B光)、525±17nm(G光)、635±11nm(R光)である。なお、光源11は、レーザ光源であってもよい。
照明ミラー12は、光源11から出射された光(照明光)を拡散板13に向けて反射させるとともに、Y方向に関して、光学瞳Pと光源11とが略共役となるように、照明光を曲げる光学素子である。
拡散板13は、光源11の複数の発光点が並ぶX方向に入射光を例えば40°拡散し、Y方向には入射光を拡散しない一方向拡散板である。拡散板13は、偏光板3の表面に保持されている。
偏光板3は、拡散板13を介して入射する光のうち、所定の偏光方向の光を透過させてPBS4に導く。
PBS4は、偏光板3を透過した光を反射型の表示素子5の方向に反射させる一方、表示素子5にて反射された光のうち、画像信号オンに対応する光(偏光板3を透過した光とは偏光方向が直交する光)を透過させる平板状の偏光分離素子であり、接眼光学系6の後述する接眼プリズム21の光入射面21aに貼り付けられている。
表示素子5は、照明光学系2からの光を変調して映像を表示する表示素子であり、本実施形態では、反射型の液晶表示素子で構成されている。表示素子5はカラーフィルタを有する構成であってもよいし、光源11のRGBごとの時分割発光に同期して、発光色に対応するRGBの画像が表示されるように、時分割で駆動される構成であってもよい。
表示素子5は、PBS4からほぼ垂直に入射する光がほぼ垂直に反射されてPBS4に向かうように配置されている。これにより、反射型の表示素子に対して大きな入射角で光を入射させる構成に比べて、解像度を増大させるような光学設計が容易となる。表示素子5の表示面は長方形となっており、表示面の長手方向がX方向となり、短手方向がY方向となるように配置されている。
接眼光学系6は、表示素子5からの映像光を使用者の瞳(光学瞳P)に導くための光学系であり、非軸対称(非回転対称)な正の光学パワーを有している。この接眼光学系6は、接眼プリズム21と、偏向プリズム22と、HOE23とを有している。
接眼プリズム21は、表示素子5からPBS4を介して入射する映像光を内部で導光する一方、外界からの光(外光)を透過させるものであり、平行平板の上端部を上端に向かうほど厚くし、下端部を下端に向かうほど薄くした形状で構成されている。
接眼プリズム21において、PBS4が貼り付けられる面は、表示素子5からの映像光が入射する光入射面21aであり、光学瞳Pとほぼ平行に位置して互いに対向する2つの面21b・21cは、映像光を全反射によって導光する全反射面となっている。そのうち、光学瞳P側の面21bは、HOE23で回折反射される映像光の出射面を兼ねている。
接眼プリズム21は、その下端部に配置されるHOE23を挟むように偏向プリズム22と接着剤で接合されている。本実施形態では、接眼プリズム21を構成する面のうち、HOE23が接する面21d以外で映像光が透過する面(光入射面21a、面21b)は、平面となっている。接眼プリズム21において、HOE23が接する面21dは、平面であってもよいし、曲面であってもよいし、平面と曲面とを組み合わせた面であってもよい。
偏向プリズム22は、接眼プリズム21とHOE23を介して貼り合わされて略平行平板を形成している。偏向プリズム22を接眼プリズム21と貼り合わせることで、外光が接眼プリズム21の楔状の下端部を透過するときの屈折を偏向プリズム22でキャンセルすることができ、外界として観察(視認)される像(外界像)に歪みが生じるのを防止することができる。
HOE23は、接眼プリズム21に接して設けられ、接眼プリズム21内部で導光された映像光を回折反射する体積位相型で反射型のホログラフィック光学素子である。HOE23は、回折効率のピーク波長および回折効率半値の波長幅で、例えば465±5nm(B光)、521±5nm(G光)、634±5nm(R光)の3つの波長域の光を回折(反射)させる。すなわち、HOE23のRGBの回折波長は、RGBの映像光の波長(光源11の発光波長)とほぼ対応している。
上記の構成において、照明光学系2の光源11から出射された光は、照明ミラー12で反射され、拡散板13にてX方向にのみ拡散された後、所定の偏光方向の光のみが偏光板3を透過する。そして、偏光板3を透過した光は、PBS4で反射され、表示素子5に入射する。
表示素子5では、入射光が画像信号に応じて変調される。このとき、画像信号オンに対応する映像光は、表示素子5にて入射光とは偏光方向が直交する光に変換されて出射されるため、PBS4を透過して接眼プリズム21の内部に光入射面21aから入射する。一方、画像信号オフに対応する映像光は、表示素子5にて偏光方向が変換されずに出射されるため、PBS4で遮断され、接眼プリズム21の内部に入射しない。
接眼プリズム21では、入射した映像光が接眼プリズム21の対向する2つの面21c・21bでそれぞれ1回ずつ全反射された後、HOE23に入射し、そこで回折反射されて面21bから出射され、光学瞳Pに達する。したがって、この光学瞳Pの位置では、使用者は、表示素子5に表示された映像を虚像として観察することができる。
一方、接眼プリズム21、偏向プリズム22およびHOE23は、外光をほとんど全て透過させるので、使用者は外界をシースルーで観察することができる。したがって、表示素子5に表示された映像の虚像は、使用者の視野(視界)内で、外界の一部に重なって観察されることになる。
なお、本実施形態では、表示素子5として、反射型の映像表示素子を用いているが、透過型の液晶表示素子を用い、それに応じた光学設計で映像表示装置202を構成してもよい。また、接眼光学系6は、HMD201の右眼用レンズまたは左眼用レンズと一体的に構成されてもよいし、別体で構成されてもよい。
(3.HMDの詳細な構成)
図4は、HMD201の詳細な構成を示すブロック図である。HMD201は、上記した映像表示装置202および支持部材203に加えて、撮像装置31、視線検出装置32、画像処理部33、通信部34、記憶部35、音声入力装置36、音声出力装置37、加速度センサ38、操作部39および制御部40をさらに備えている。制御部40は、例えば中央演算処理装置(CPU;Central Processing Unit)で構成されており、映像表示装置202を含むHMD201の各部の動作を制御する。したがって、制御部40の制御には、例えば、映像表示装置202の光源11の点灯/消灯の切り替えや、表示素子5における情報の表示に関する制御も含まれる。
撮像装置31は、外界を撮影して画像(静止画、動画)を取得可能なカメラ(デジタルカメラ、デジタルビデオカメラ)で構成されている。この撮像装置31は、例えば図2で示した筐体202aの外面に設けられているが、筐体202aの内部に設けられてもよい。後者の場合、撮像装置31の前方に、筐体202aを貫通する開口部または透明な窓が設けられ、これによって撮像装置31による前方の撮影が可能となる。
また、図2に示すように、撮像装置31の撮像中心Co(撮像光軸と撮像素子との交点)は、映像表示装置202の観察中心Vo(瞳中心)のほぼ真上に位置しており、映像表示装置202に対する撮像装置31の相対位置が固定されている。また、撮像装置31の撮像光軸は、無限遠を観察するときの使用者の視線方向と略一致している。これにより、撮像装置31は、使用者の通常視界(前方の外界)を撮像することができる。
視線検出装置32は、使用者の観察視線(視線方向)を検出するセンサである。視線検出装置32は、赤外線LEDとカメラとを含んで構成されており、例えば図2で示すように、接眼光学系6の左右の縁部に設けられている。視線検出装置32は、赤外線LEDから使用者の瞳または網膜に向けて安全な光線(例えば赤外線)を照射し、その反射光をカメラで計測することにより、使用者の視線方向を直接検知する。より具体的には、赤外線LEDで使用者の顔を照らしたときに、使用者の角膜上で赤外光が反射される位置(角膜反射の位置)を基準点とし、この角膜反射の位置に対する瞳孔の位置をカメラで(赤外線を受光して)検知することにより、使用者の視線方向を検知する。例えば、右眼の角膜反射の位置よりも瞳孔が目じり側にあれば、使用者は右側を見ており(使用者の視線が右方向を向いており)、角膜反射の位置よりも瞳孔が目頭側にあれば、使用者は左側を見ている(使用者の視線が左方向を向いている)ことを検出できる。
視線検出装置32の数は、1個であってもよいし、複数個であってもよいが、複数個であるほうが、複数の情報に基づいて視線検知を行うことができ、検知精度が向上するため望ましい。このため、本実施形態では、図2に示すように、接眼光学系6の左右の縁部(計2か所)に視線検出装置32を設けて、視線検出を行うようにしている。
なお、トビーテクノロジー社からは、複数の赤外光源で照明された瞳を、複数のカメラで撮像することによって視線を検知するメガネ型の視線検出装置が提案されているが、本実施形態の視線検出装置32はこれに類する構成とすることができる。
画像処理部33は、表示素子5に表示させる映像を画像処理によって生成する処理部であり、例えばASIC(application specific integrated circuit)のような特定の演算処理回路で構成される。上記の画像処理には、通常の画像処理(色補正、拡大/縮小、エッジ強調などの画像処理)のほか、後述する使用者の視線位置を示す指標(マーカー)や、他の端末から入力される撮像画像を個別に、または合成して表示素子5に表示させるための画像処理なども含まれる。
通信部34は、HMD201と他の情報入出力端末200との間で情報の入出力を行うためのインターフェースであり、送信回路、受信回路、アンテナなどを含んで構成される。記憶部35は、例えばフラッシュメモリなどの不揮発性メモリで構成され、他の端末から出力された各種の情報(撮像画像の情報(画像データ)、視線位置を示す情報を含む)や、制御部40の動作プログラムなどを記憶する。
音声入力装置36は、例えばマイクなどで構成される音声情報の入力装置である。音声入力装置36に入力された音声情報は、通信部34を介して他の端末に出力される。音声出力装置37は、例えばスピーカーやイヤホンなどで構成される音声情報の出力装置である。他の端末から通信部34を介して入力された音声情報は、音声出力装置37から出力される。加速度センサ38は、HMD201の使用者の姿勢変化を検出するセンサ(検出器)である。加速度センサ38のタイプとしては、静電容量型、圧電型、抵抗型などがあるが、いずれのタイプであってもよい。
操作部39は、HMD201の各種設定や指示(例えば後述する範囲確認用マーカーF・F’(図28、図29参照)の表示の拡大/縮小の設定、後述する基準画像の更新指示など)を入力するための入力部である。このような操作部39は、例えばHMD201の支持部材203(図2参照)に取り付けられる入力ボタンで構成されてもよいし、HMD201と有線接続されるか、無線通信が可能な外付けの入力部で構成されてもよい。なお、操作部39は、基本的に、HMD201の各種設定等を行うときのみ、使用者によって操作されるものであり、使用者の作業時にハンズフリー性が損なわれるほどの操作が必要とされるものではない。
なお、複数の情報入出力端末200は、頭部装着型以外の情報入出力端末を含んでいてもよい。例えば、複数の情報入出力端末200は、室内に設置の表示装置(例えば液晶表示装置や有機EL(Electro-Luminescence)表示装置)に、上記の視線検出装置32などを組み合わせた情報入出力端末を含んでいてもよい。
(4.管理サーバーについて)
次に、管理サーバー400の詳細について説明する。図5は、情報入出力端末200としての管理サーバー400の概略の構成を示すブロック図である。管理サーバー400は、保持部401と、領域検出部402と、演算部403と、通信部404と、制御部405とを含んで構成されている。制御部405は、例えばCPUで構成されており、管理サーバー400の各部の動作を制御する。このような管理サーバー400は、例えば汎用のパーソナルコンピュータで構成することができる。
保持部401は、例えばハードディスクで構成され、領域検出部402および演算部403で取得された情報、他の端末から出力された各種の情報(撮像画像の情報(画像データ)、視線位置を示す情報を含む)、制御部405の動作プログラムなどを記憶する大容量のメモリである。特に、保持部401は、後述する実施例で示すように、HMD201の使用者(装着者)が静止した状態で、HDM201での撮影によって事前に取得された静止画の一部を、基準画像として保持する。
領域検出部402は、HMD201(特に撮像装置31)での撮影によって動画が取得されたときに、その動画から、上記基準画像に対応する領域を検出するブロックであり、例えばCPUまたはGPU(Graphics Processing Unit)などの演算処理装置で構成される。なお、制御部405が領域検出部402の機能を兼ねていてもよい。上記領域の検出は、例えばパターンマッチング処理によって行われる。パターンマッチング処理としては、NCC(Normalized Cross Correlation;正規化相互相関係数)、SAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)などの従来の公知の方法を使用することができる。
演算部403は、HMD201に表示するマーカー(後述する)の位置を算出するブロックであり、領域検出部402と同様に、例えばCPUまたはGPUなどの演算処理装置で構成される。なお、制御部405が演算部403の機能を兼ねていてもよい。また、領域検出部402および演算部403は、制御部405とは別個で、一体的に(1つの演算処理装置で)実現されてもよく、制御部405とともに一体的に実現されてもよい。
通信部404は、管理サーバー400と他の情報入出力端末200との間で情報の入出力を行うためのインターフェースであり、送信回路、受信回路、アンテナなどを含んで構成される。
(5.視線情報共有システムの活用例について)
次に、上記した視線情報共有システム100の活用例について説明する。なお、ここでは、説明を簡単にするため、2台のHMD201A・201Bが上述の管理サーバー400を介さずに、情報を直接やり取りする例について説明する。また、ここでは、作業中に、HMD201A・201Bを使用する使用者の移動(すなわち、HMD201A・201Bの移動)はないものとする。
<活用例1>
図6は、作業者PAと指示監督者PBとがそれぞれHMD201A・201Bを頭部に装着して協働作業を行う様子を模式的に示している。作業者PAおよび指示監督者PBは、それぞれHMD201A・201Bの使用者である。なお、HMD201A・201Bの構成は、上述したHMD201と全く同じである。また、HMD201A・201Bに含まれる各構成要素を互いに区別する場合は、例えば映像表示装置202A・202Bのように、各構成要素の符号の後に「A」または「B」の記号を付す。
ここでは、例として、テーブルT上に載置された対象物であるデバイスOBに対して、メンテナンスのためにカバーを外す作業を想定する。また、テーブルTの周囲三方(作業者PAから見て奥側、左側、右側)は、作り付けの壁Wで囲まれており、作業者PAがテーブルTの前に立ち、デバイスOBに対して作業を行う状況では、作業者PAの背後に立つ指示監督者PBからは、デバイスOBへの直接のアクセスや視認が困難であるとする。
また、HMD201A・201Bは、相互に情報連携が可能なように通信状態下(例えばWi−Fi(登録商標)によって通信可能な状態)にあり、相互の情報を送受信可能である。このとき、HMD201A・201B間の通信は、それぞれの制御部40の制御のもとで、それぞれの通信部34を介して行われるものとする。
図7は、本実施形態の視線情報共有システム100における動作の流れの一例を示すフローチャートである。以下、このフローチャートを参照しながら説明する。
まず、作業者PAのHMD201A(第1端末)は、HMD201Aの視線カメラである撮像装置31にて取得される撮像画像の情報を、HMD201Aの通信部34を介して指示監督者PBのHMD201B(第2端末)に出力する(S1;第1の工程)。
図8は、作業者PAの視界のイメージを示している。破線で示した矩形の領域IM(201A)は、作業者PAが装着したHMD201Aの撮像装置31の撮像範囲を示している。作業者PAには、デバイスOB、作業者PAの手(右手RH(PA)、左手LH(PA))、作業者PAの手に持たれた工具(ドライバDR(PA))が見えており、作業者PAの前方の視界がHMD201Aの撮像装置31によって撮像されている。HMD201Aは、このような作業者PAの視点から見た撮像装置31の撮像画像の情報(画像データ)を、HMD201Bに出力する。
続いて、HMD201Bは、映像表示装置202Bにより、HMD201Aから入力された撮像画像の情報に基づいて、上記撮像画像を指示監督者PBに視認可能に表示する(S2;第2の工程)。
図9は、指示監督者PBのHMD201Bの映像表示装置202Bによって表示された映像(虚像)V(202B)を、指示監督者PBが観察している様子を示している。指示監督者PBは、図6で示したように、デバイスOBに向かって実作業をしている作業者PAの背後に立っているため、上述のように、実際の作業者PAの作業やデバイスOBを直接観察することが困難である。しかし、HMD201Aで撮像され、HMD201Bに送信されて表示された映像V(202B)を指示監督者PBが観察することにより、指示監督者PBは作業者PAの実際の作業を確認することができる。
次に、映像表示装置202Bによって表示された撮像画像(映像V(202B))に対する指示監督者PBの視線方向を、HMD201Bの視線検出装置32によって検出する(S3;第3の工程)。
視線検出装置32は、図2で示したように、映像表示装置202(接眼光学系6)に取り付けられており、映像表示装置202に対する相対位置が固定されている。このため、HMD201Bの視線検出装置32は、映像表示装置202Bにて表示された映像V(202B)のどの部分を指示監督者PBが見ているのかを検出することができる。
次に、HMD201Bは、上記視線検出装置32によって検出された指示監督者PBの視線方向に関する視線情報を、HMD201Bの通信部34を介してHMD201Aに出力する(S4;第4の工程)。そして、HMD201Aは、映像表示装置202Aにより、HMD201Bから入力された視線情報に基づいて、指示監督者PBの視線の位置を、HMD201Aによる映像の表示領域内で対応する位置に、作業者PAに視認可能に表示する(S5;第5の工程)。
作業者PAのHMD201Aでは、撮像装置31は映像表示装置202に対して相対位置が固定されており、指示監督者PBのHMD201Bで表示された撮像画像(映像V(202B))は、元々作業者PAのHMD201Aで取得された撮像画像である。このため、HMD201Bで表示された撮像画像に対する指示監督者PBの注視点(指示監督者PBの視線方向の先にある点)は、作業者PAのHMD201Aにおいて、撮像装置31と相対位置が既知である映像表示装置202Aの映像(虚像)の表示領域全体における任意の位置と対応関係を持つ。したがって、作業者PAのHMD201Aにて、指示監督者PBの視線の位置を、映像表示装置202Aの表示領域内の所定の位置(指示監督者PBの注視点と対応する位置)に即座に表示することが可能となる。
図10は、作業者PAがHMD201Aを介して外界を見ているときの、作業者PAの視界のイメージを示す。HMD201Aでは、指示監督者PBの視線の位置を示すマーカーMBを表示することにより、指示監督者PBがデバイスOBのどの部分を見ているかを作業者PAに提示することができる。作業者PAは、表示されたマーカーMB(指示監督者PBの視線の位置)を見て、マーカーMBが示すネジを緩める作業を行うことができる。このように、指示監督者PBの視線の位置をHMD201Aにて表示することで、作業者PAと指示監督者PBとで視線に基づく意思疎通を行うことができ、作業を的確かつ効率よく行うことが可能となる。
このとき、作業者PAおよび指示監督者PBは隣接しているため(図6参照)、例えば指示監督者PBは、「このネジを緩めろ!」などの音声を発するようにしてもよい。これにより、作業者PAは、HMD201Aで表示されたマーカーMBを見ながら、「このネジを緩めればよい」ということを容易に認識することができる。つまり、指示監督者PBは、視線と音声とにより、正確な指示を作業者PAに与えることができ、この指示に基づいて作業者PAは作業を正確に行うことができる。
以上のように、本実施形態では、作業者PAのHMD201Aの視界を示す撮像画像を指示監督者PBのHMD201Bに出力し、HMD201Bにてその撮像画像を表示し、その撮像画像に対する指示監督者PBの視線を検出してその視線情報をHMD201Aに出力する。これにより、HMD201Aは、撮像画像に対する指示監督者PBの視線の位置とHMD201Aの表示映像で対応する位置に、指示監督者PBの視線の位置をマーカーMBで即座に表示することができる。したがって、複数のHMD201A・201Bを用いた協働作業において、作業者PAおよび指示監督者PBの相互の空間位置の把握や、視線情報の変換(位置座標の変換)などの複雑な処理を必要とすることなく、簡便な方法で、視線に基づく意思疎通を行うことが可能となる。
また、指示監督者PBがデバイスOBを直接視認できない状況であっても、指示監督者PBは、作業者PAのHMD201Aから出力された撮像画像(表示された映像V(202B))に基づいてデバイスOBを把握することができる。このため、撮像画像に対する指示監督者PBの視線情報を作業者PAのHMD201Aに出力し、HMD201Aにて指示監督者PBの視線の位置を表示させることにより、作業者PAは、表示された視線位置に基づいてデバイスOBに対して的確に作業を行うことが可能となる。つまり、指示監督者PBがデバイスOBを視認できないような状況であっても、視線に基づく的確な意思疎通および作業が可能となる。
図11は、上記の視線情報共有システム100における動作の流れの他の例を示すフローチャートである。HMD201Aは、作業者PA自身の視線方向を、HMD201Aの視線検出装置32によって検出してよい(S6;第6の工程)。そして、上記したS5の工程では、HMD201Aにて、指示監督者PBの視線の位置と合わせて、S6での検出結果に基づく作業者PAの視線の位置を表示してもよい。
図12は、HMD201Aにて、作業者PAおよび指示監督者PBの両者の視線の位置が表示されたときの、作業者PAの視界のイメージを示している。図12では、作業者PAの視線の位置をマーカーMAで示し、指示監督者PBの視線の位置をマーカーMBで示している。ただし、マーカーMA・MBを互いに区別するために、ここでは、マーカーMA・MBの形状を互いに異ならせている。より具体的には、自己(作業者PA)の視線を示すマーカーMAを四角形で表示し、他者(指示監督者PB)の視線を示すマーカーMBを円形で表示している。なお、マーカーMA・MBの表示方法はこれに限定されず、例えば互いに色を異ならせたり、互いに線種(実線、破線など)を異ならせたり、「指示監督者」、「作業者」などの文字をマーカーに並記したり、形状、線種、色、文字のいずれかを組み合わせるなどにより、マーカーMA・MBを互いに区別して表示してもよい。
このように、作業者PAのHMD201Aにおいて、指示監督者PBの視線の位置(マーカーMB)と合わせて、作業者PAの視線の位置(マーカーMA)を表示することにより、作業者PAは、デバイスOBに対して自分が見ている箇所(作業を行おうとする箇所)と指示監督者PBが見ている箇所(作業を指示する箇所)とを同時に把握して、これらの一致/不一致を即座に把握することができる。そして、不一致の場合、作業者PAは、音声を発して確認するなど、適切な措置をとることが可能となる。したがって、作業者PAは、指示監督者PBとの間で、意思疎通をより正確に行うことが可能となる。
図13は、上記の視線情報共有システム100における動作の流れのさらに他の例を示すフローチャートである。HMD201Aは、S6の工程で検出した作業者PAの視線情報を、指示監督者PBのHMD201Bに出力してもよい(S7;第7の工程)。そして、HMD201Bでは、HMD201Aから出力された撮像画像に、S7の工程で取得された作業者PAの視線の位置と、S3の工程での検出結果に基づく指示監督者PBの視線の位置とを合わせて表示してもよい(S8;第8の工程)。
図14は、HMD201Bにて、作業者PAおよび指示監督者PBの両者の視線の位置が表示されたときの、指示監督者PBの視界のイメージを示している。なお、図14では、自己(指示監督者PB)の視線を示すマーカーMBを四角形で表示し、他者(作業者PA)の視線を示すマーカーMBを円形で表示している。図12と図14とでは、映像を見る主体が作業者PAと指示監督者PBとで異なるため、例えば同じ作業者PAの視線位置を示すマーカーMAであっても、その形状は図12と図14とで異なっている。しかし、映像を見る主体に対応するマーカーを四角形で表示し、他者のマーカーを円形で表示している点では、図12と図14とは共通している。
このように、指示監督者PBのHMD201Bにおいて、作業者PAのHMD201Aから出力される撮像画像に、作業者PAの視線の位置(マーカーMA)と、指示監督者PBの視線の位置(マーカーMB)とを合わせて表示することにより、指示監督者PBは、デバイスOBに対して自分が見ている箇所(作業を指示したい箇所)と作業者PAが見ている箇所(作業を行おうとする箇所)とを同時に把握して、これらの一致/不一致を即座に把握することができる。そして、不一致の場合、指示監督者PBは、音声を発して指示を追加するなど、適切な措置をとることが可能となる。したがって、指示監督者PBは、作業者PAとの間で意思疎通をより正確に行うことが可能となる。また、指示監督者PBは、マーカーMBを見て、デバイスOBに対して作業を指定したい箇所を自身で確認しながら、作業者PAに対して視線による指示を正確に出すことができる。
また、図12に示すように、作業者PAのHMD201Aにおいて、作業者PAの視線の位置と、指示監督者PBの視線の位置とは、異なるパターン(マーカーMA・MB)で表示される。同様に、図14に示すように、指示監督者PBのHMD201Bにおいても、作業者PAの視線の位置と、指示監督者PBの視線の位置とは、異なるパターン(マーカーMA・MB)で表示される。このような表示により、作業者PAおよび指示監督者PBは、それぞれのHMD210A・201Bにおいて、相互の視線位置を容易に区別して把握することができ、これによって迅速な意思疎通が可能となる。
なお、以上では、指示監督者PBのHMD201Bは、光学シースルー型の映像表示装置202を用いて構成されているが、指示監督者PBは作業者PAの背後に立ち、デバイスOBを直接視認することが困難であるため、光学的にシースルーである必要はない。したがって、HMD201Bは、ビデオシースルー型の映像表示装置202を用いて構成されていてもよい。ビデオシースルー型の映像表示装置202は、遮蔽型ディスプレイを用い、撮像装置31によって撮像される外界の像(撮像画像)を映像と一体的に使用者に視認可能に表示する表示装置である。上記の遮蔽型ディスプレイは、上述した接眼光学系6の外界側に遮蔽板を配置することによって実現できる。
以上では、図6で示したように、作業者PAおよび指示監督者PBが近距離に位置している場合を想定したが、図15に示すように、作業者PAおよび指示監督者PBが遠距離に位置していてもよい。例えば、指示監督者PBから数百キロ離れた場所で作業者PAが作業を行う場合でも、本実施形態のシステムを適用して作業者PAが指示監督者PBから視線情報に基づく指示を、通信回線300(図1参照)を介して受けることにより、本実施形態と同様の効果を得ることができる。
このとき、HMD201A・201B間で、図4で示した音声入力装置36および音声出力装置37により、「これ」、「あれ」、「このネジを緩めろ!」、「了解しました!」などの音声情報が入出力されてもよい。この場合、指示監督者PBの視線情報に加えて、音声情報を用いた意思疎通が可能となるため、意思疎通がさらに簡便となる。また、視線情報の内容を音声情報で補足できるため、意思疎通の精度もさらに向上する。
以上では、撮像画像の出力が、HMD201AからHMD201Bへの一方向である場合について説明したが、双方向である場合も、本実施形態の構成を適用して同様の効果を得ることができる。以下、その具体例について、活用例2として説明する。
<活用例2>
図16は、作業者PAと作業者PCとがそれぞれHMD201A・201Cを頭部に装着して協働作業を行う様子を模式的に示している。作業者PAおよび作業者PCは、それぞれHMD201A・201Cの使用者である。なお、HMD201A・201Cの構成は、活用例1で説明したHMD201(図2〜図4等参照)と全く同じである。また、HMD201A・201Cに含まれる各構成要素を互いに区別する場合は、例えば映像表示装置202A・202Cのように、各構成要素の符号の後に「A」または「C」の記号を付す。
ここでは、例として、工作室の中央のテーブルT上に、対象物であるデバイスOBが載置されており、このデバイスOBに対して、複数の作業者である作業者PAおよび作業者PCがメンテナンスを実行する場合を想定する。
また、HMD201A・201Cは、相互に情報連携が可能なように通信状態下(例えばWi−Fi(登録商標)によって通信可能な状態)にあり、相互の情報を送受信可能である。このとき、HMD201A・201C間の通信は、それぞれの制御部40の制御のもとで、それぞれの通信部34を介して行われるものとする。
活用例2では、図7で示したS1〜S5の工程を、作業者PAのHMD201Aと作業者PCのHMD201Cとの間で相互に行う。以下、より具体的に説明する。
《撮像画像の情報の出力》
一の情報入出力端末であるHMD201Aは、HMD201Aの撮像装置31にて取得される撮像画像の情報を、他の情報入出力端末であるHMD201Cに出力する。同様に、HMD201Cは、HMD201Cの撮像装置31にて取得される撮像画像の情報を、HMD201Aに出力する。
図17は、作業者PAの視界のイメージを示している。破線で示した矩形の領域IM(201A)は、作業者PAが装着したHMD201Aの撮像装置31の撮像範囲を示している。作業者PAには、デバイスOB、作業者PAの手(右手RH(PA)、左手LH(PA))、作業者PAの手に持たれた工具(ドライバDR(PA))、作業者PCの手(右手RH(PC)、左手LH(PC))が見えており、作業者PAの視界がHMD201Aの撮像装置31によって撮像されている。HMD201Aは、このような作業者PAの視点から見た撮像装置31の撮像画像の情報(画像データ)を、HMD201Aの通信部34を介してHMD201Cに出力する。
一方、図18は、作業者PCの視界のイメージを示している。破線で示した矩形の領域IM(201C)は、作業者PCが装着したHMD201Cの撮像装置31の撮像範囲を示している。作業者PCには、デバイスOB、作業者PAの手(右手RH(PA)、左手LH(PA))、作業者PAの手に持たれた工具(ドライバDR(PA))、作業者PCの手(右手RH(PC)、左手LH(PC))が見えており、作業者PCの視界がHMD201Cの撮像装置31によって撮像されている。HMD201Cは、このような作業者PCの視点から見た撮像装置31の撮像画像の情報(画像データ)を、HMD201Cの通信部34を介してHMD201Aに出力する。
《撮像画像の表示》
HMD201Cは、映像表示装置202Cにより、HMD201Aから入力された撮像画像の情報に基づいて、上記撮像画像をHMD201Cの作業者PCに視認可能に表示する。同様に、HMD201Aは、映像表示装置202Aにより、HMD201Cから入力された撮像画像の情報に基づいて、上記撮像画像をHMD201Aの作業者PAに視認可能に表示する。
図19は、作業者PCのHMD201Cで撮像されて出力された画像(視界画像)を、作業者PAのHMD201Aの映像表示装置202Aにて、映像(虚像)V(202A)として表示したときの作業者PAの視界を示している。また、図20は、作業者PAのHMD201Aで撮像されて出力された画像(視界画像)を、作業者PCのHMD201Cの映像表示装置202Cにて、映像(虚像)V(202C)として表示したときの作業者PCの視界を示している。このように、HMD201A・201Cでは、各々の撮像装置31で撮像された視界画像を相互に入出力し、入力された視界画像を映像(虚像)として表示する。これにより、作業者PAは、自身が装着しているHMD201Aにて、作業者PCの視界画像を観察することができ、また、作業者PCは、自身が装着しているHMD201Cにて、作業者PAの視界画像を観察することができる。
特に、図19で示したように、デバイスOB、作業者PAの手、ドライバDR(PA)、作業者PCの手は、作業者PAの実際の視界内のリアルな物体である。また、図20で示したように、デバイスOB、作業者PAの手、ドライバDR(PA)、作業者PCの手も、作業者PCの実際の視界内のリアルな物体である。このような視界画像をHMD201A・201Cの相互間で入出力して表示することにより、作業者PAおよび作業者PCは、各々の視界(視線方向の視野)を相互に共有して、各々の視界内のリアルな物体を視認することができる。
なお、HMD201Aで表示される映像V(202A)は、映像表示装置202Aによって虚像として表示可能な領域の一部であって、上記領域の中央以外に表示される(表示素子5では、表示素子5の表示面の一部であって、上記表示面の中央以外に映像が表示される)。作業者PAがデバイスOBに対して作業を行うとき、作業者PAは視界の中央にデバイスOBを位置させて作業を行うのが通常と考えられる。したがって、作業者PAの作業時に、映像V(202A)とデバイスOBとが重なって視認されて、デバイスOBに対する作業性が低下する(作業がしにくくなる)のを回避することができる。同様の観点から、HMD201Cで表示される映像V(202C)も、映像表示装置202Cによって虚像として表示可能な領域の一部であって、上記領域の中央以外に表示される。
《撮像画像に対する視線方向の検出》
HMD202Cは、映像表示装置202Cによって表示された撮像画像(映像V(202C))に対する作業者PCの視線方向を、HMD202Cの視線検出装置32によって検出する。同様に、HMD202Aは、映像表示装置202Aによって表示された撮像画像(映像V(202A))に対する作業者PAの視線方向を、HMD202Aの視線検出装置32によって検出する。
視線検出装置32は、図2で示したように、映像表示装置202(接眼光学系6)に取り付けられており、映像表示装置202に対する相対位置が固定されている。このため、HMD201Cの視線検出装置32は、映像表示装置202Cにて表示された映像V(202C)のどの部分を作業者PCが見ているのかを検出することができる。同様に、HMD201Aの視線検出装置32は、映像表示装置202Aにて表示された映像V(202A)のどの部分を作業者PAが見ているのかを検出することができる。
《視線情報の出力、視線の位置の表示》
HMD201Cは、検出した作業者PCの視線方向に関する視線情報を、HMD201Cの通信部34を介してHMD201Aに出力する。そして、HMD201Aは、映像表示装置202Aにより、HMD201Cから入力された視線情報に基づいて、作業者PCの視線の位置を、作業者PAに視認可能に表示する。同様に、HMD201Aは、検出した作業者PAの視線方向に関する視線情報を、HMD201Aの通信部34を介してHMD201Cに出力する。そして、HMD201Cは、映像表示装置202Cにより、HMD201Aから入力された視線情報に基づいて、作業者PAの視線の位置を、作業者PCに視認可能に表示する。
作業者PAのHMD201Aでは、撮像装置31は映像表示装置202に対して相対位置が固定されており、作業者PCのHMD201Cで表示された撮像画像(映像V(202C))は、元々作業者PAのHMD201Aで取得された撮像画像である。このため、HMD201Cで表示されたHMD201Aの撮像画像に対する作業者PCの注視点(作業者PCの視線方向の先にある点)は、作業者PAのHMD201Aにおいて、撮像装置31と相対位置が既知である映像表示装置202Aの映像の表示領域全体(作業者PAの視界範囲とほぼ等しい)における任意の位置と対応関係を持つ。したがって、作業者PAのHMD201Aにて、作業者PCの視線の位置を、映像表示装置202Aの表示領域内の所定の位置(作業者PCの注視点と対応する位置)に即座に表示することが可能となる。
同様に、作業者PCのHMD201Cでは、撮像装置31は映像表示装置202に対して相対位置が固定されており、作業者PAのHMD201Aで表示された撮像画像(映像V(202A))は、元々作業者PCのHMD201Cで取得された撮像画像である。このため、HMD201Aで表示された撮像画像に対する作業者PAの注視点(作業者PAの視線方向の先にある点)は、作業者PCのHMD201Cにおいて、撮像装置31と相対位置が既知である映像表示装置202Cの表示領域全体(作業者PCの視界範囲とほぼ等しい)における任意の位置と対応関係を持つ。したがって、作業者PCのHMD201Cにて、作業者PAの視線の位置を、映像表示装置202Cの表示領域内の所定の位置(作業者PAの注視点と対応する位置)に即座に表示することが可能となる。
図21は、作業者PAがHMD201Aを介して外界を見ているときの、作業者PAの視界のイメージを示す。HMD201Aでは、作業者PCの視線の位置を示すマーカーMCを表示することにより、作業者PCがデバイスOBのどの部分を見ているかを作業者PAに提示することができる。また、図22は、作業者PCがHMD201Cを介して外界を見ているときの、作業者PCの視界のイメージを示す。HMD201Cでは、作業者PAの視線の位置を示すマーカーMAを表示することにより、作業者PAがデバイスOBのどの部分を見ているかを作業者PCに提示することができる。
このとき、作業者PAおよび作業者PCは隣接しているため(図16参照)、例えば作業者PCがデバイスOBの筐体を両手で支えているなど、作業者PCの手がふさがっている場合に、意図するデバイスOBの部分を注視しながら、「このネジを緩めろ!」などの音声を発するようにしてもよい。これにより、作業者PAは、HMD201Aで表示されたマーカーMC(図21参照)を見ながら、「このネジを緩めればよい」ということを容易に認識して、作業を正確に行うことができる。また、作業者PCは、視線と音声とにより、手作業を損なわず正確に、指示を作業者PAに伝達することができる。以下、視線と音声とによる作業者PAおよび作業者PCの協働作業の具体例について説明する。
なお、図21および図22において、マーカーMA・MCの近傍に付した(1)〜(4)の番号は、マーカーの表示順序を示す。また、ここでは、マーカーMA・MCを互いに区別するため、自機で表示される自分の視線位置を示すマーカーを四角形で表し、自機で表示される他の作業者の視線位置を示すマーカーを円形で表す。
まず、作業者PAのHMD201Aから出力された撮像画像が、HMD201Cの映像表示装置202Cにて映像V(202C)として表示されると、作業者PCは、その映像V(202C)中で、緩める対象となるネジを見ながら、「このネジを緩めろ!」という音声指示を出す。映像V(202C)に対する作業者PCの視線方向は、HMD201Cの視線検出装置32によって検出される。そして、映像表示装置202Cにより、映像V(202C)において、HMD201Aの撮像画像と合わせて、作業者PCの視線位置を示すマーカーMCが表示される(図22の(1)参照)。これにより、どのネジを緩めるべきかが明確に同定される。
次に、HMD201Cで検出された作業者PCの視線位置を示す視線情報、およびHMD201Cで取得された撮像画像の情報が、HMD201Aに出力される。そして、HMD201Aの映像表示装置202Aの映像の表示領域全体(作業者PAの視界範囲に対応)における、上記の映像V(202C)に対する作業者PCの注視点と対応する位置に、作業者PCの視線位置を示すマーカーMCが表示される(図21の(2)参照)。また、HMD201Cで取得された撮像画像が、HMD201Aの映像表示装置202Aにより、映像V(202A)として表示される。
作業者PAは、自身のHMD201Aで表示されたマーカーMCを視認することで、作業者PCが指示するネジ(緩める対象となるネジ)を把握し、そのネジを緩める作業を行うことになる。このとき、例えば、緩める対象となるネジが止められている筐体カバーを安全のために保持してほしいなど、作業者PCに対して補助を要求したい場合には、作業者PAは、映像V(202A)中で、保持してほしい箇所を見ながら、「このカバーを支えてください!」という要求を音声で発する。映像V(202A)に対する作業者PAの視線方向は、HMD201Aの視線検出装置32によって検出される。そして、映像表示装置202Aにより、HMD201Cの撮像画像と合わせて、作業者PAの視線位置を示すマーカーMAが映像V(202A)として表示される(図21の(3)参照)。これにより、作業者PAがどのカバーを支えて欲しいのかが明確に同定される。
その後、HMD201Aで検出された作業者PAの視線位置を示す視線情報が、HMD201Cに出力される。そして、HMD201Cの映像表示装置202Cの映像の表示領域全体(作業者PCの視界範囲に対応)における、上記の映像V(202A)に対する作業者PAの注視点と対応する位置に、作業者PAの視線位置を示すマーカーMAが表示される(図22の(4)参照)。これにより、作業者PCは、マーカーMAを見て、支えるべきカバーを即座に把握し、作業者PAの作業を的確に補助することができる。
以上のように、撮像画像の情報の出力、撮像画像の表示、撮像画像に対する視線方向の検出、視線情報の出力、視線の位置の表示、の各工程を、HMD201A・201Cの相互間で行うことにより、各々のHMD201A・201Cで作業者PAおよび作業者PCの視線情報を相互に共有して、協働作業を行うことができる。また、「これ」、「あれ」という場所や対象物があいまいな音声指示を、視線位置を示すマーカーMA・MCを用いて視覚的に示すことで、手作業を損なうことなく、意思疎通が良好で、効率的な協働作業を行うことが可能となる。特に、複数のHMD201A・201C間で視線情報を共有することにより、HMDに特有のハンズフリー性を活かした協働作業が可能となる。また、視線情報に加えて音声情報を用いることにより、より正確な意思疎通が可能となる。
<活用例3>
上述の活用例2では、作業者PAと作業者PCの2人で連携して作業を行う例について説明したが、活用例3では、3人で連携して作業を行う場合について説明する。ここでは、活用例2のシステムにおいて、作業者PAおよび作業者PCに、遠方の離れた場所にいる指示監督者PDが加わって作業(作業の指示および支援を含む)を行う例について説明する。
図23は、作業者PAおよび作業者PCがそれぞれHMD201A・201Cを頭部に装着し、遠方の指示監督者PDがHMD201Dを装着し、HMD201A・201CからHMD201Dに送られて表示された映像を、指示監督者PDが観察している様子を模式的に示している。作業者PAおよび作業者PCは、それぞれHMD201A・201Cの使用者であり、指示監督者PDは、HMD201Dの使用者である。HMD201Dは、通信回線300(図1参照)を介して、HMD201AおよびHMD201Cと通信可能な情報入出力端末である。なお、HMD201A・201C・201Dの構成は、前述のHMD201(図2〜図4等参照)と全く同じである。以下での説明において、HMD201A・201C・201Dに含まれる各構成要素を互いに区別する場合は、例えば映像表示装置202A・202C・202Dのように、各構成要素の符号の後に「A」、「C」または「D」の記号を付す。
HMD201AとHMD201Cとの間での情報の入出力は、活用例2と同様である。以下、HMD201AとHMD201Dとの間、およびHMD201CとHMD201Dとの間での情報の入出力について説明する。
まず、HMD201A・201Cにて取得された撮像画像の情報は、それぞれの通信部34を介してHMD201Dに出力される。そして、HMD201Dでは、HMD201A・201Cの各撮像画像が、映像V(202D)−Aおよび映像V(202D)−Cとして表示される。
HMD201Dにて、指示監督者PDが映像V(202D)−Aを観察している場合、そのときの指示監督者PDの視線方向が、HMD201Dの視線検出装置32によって検出される。そして、検出した視線方向に関する視線情報が、HMD201Dから通信部34を介してHMD201Aに出力される。その後、HMD201Aでは、上記視線情報に基づいて、映像表示装置202Aの表示映像全体における所定位置に、指示監督者PDの視線の位置が表示される。
一方、指示監督者PDが映像V(202D)−Cを観察している場合、そのときの指示監督者PDの視線方向が、HMD201Dの視線検出装置32によって検出される。そして、検出した視線方向に関する視線情報が、HMD201Dから通信部34を介してHMD201Cに出力される。その後、HMD201Cでは、上記視線情報に基づいて、映像表示装置202Cの表示映像全体における所定位置に、指示監督者PDの視線の位置が表示される。
図24は、作業者PAがHMD201Aを介して外界を見ているときの、作業者PAの視界のイメージを示す。HMD201Aでは、作業者PCの視線の位置を示すマーカーMCに加えて、指示監督者PDの視線の位置を示すマーカーPDを表示することにより、作業者PCおよび指示監督者PDがデバイスOBのどの部分を見ているかを作業者PAに提示することができる。また、図25は、作業者PCがHMD201Cを介して外界を見ているときの、作業者PCの視界のイメージを示す。HMD201Cでは、作業者PAの視線の位置を示すマーカーMAに加えて、指示監督者PDの視線の位置を示すマーカーPDを表示することにより、作業者PAおよび指示監督者PDがデバイスOBのどの部分を見ているかを作業者PCに提示することができる。
このように、HMD201A・201Cにて、作業者PA、作業者PC、指示監督者PDの3者の視線位置をそれぞれ表示させることにより、3者間で意思疎通を行って作業を行うことが可能となる。以下、作業者PA、作業者PCおよび指示監督者PDによる作業の具体例について説明する。
なお、図23〜図25において、マーカーMA・MC・MDの近傍に付した(1)〜(10)の番号は、マーカーの表示順序を示す。また、ここでは、マーカーMA・MC・MDを互いに区別するため、自機で表示される自分の視線位置を示すマーカーを四角形で表し、自機で表示される他の作業者の視線位置を示すマーカーを円形で表す。また、図24および図25では、指示監督者PDの視線位置を示すマーカーを三角形で表す。
まず、作業者PAのHMD201Aにて取得された撮像画像の情報は、HMD201C・HMD201Dに出力され、HMD201C・HMD201Dにて、上記撮像画像が映像V(202C)・V(202D)−Aとしてそれぞれ表示される(図25、図23参照)。
作業者PCは、HMD201Cで表示された映像V(202C)中で、緩める対象となるネジを見ながら、「このネジを緩めろ!」という音声指示を出す。映像V(202C)に対する作業者PCの視線方向は、HMD201Cの視線検出装置32によって検出される。そして、映像表示装置202Cにより、映像V(202C)において、HMD201Aの撮像画像と合わせて、作業者PCの視線位置を示すマーカーMCが表示される(図25の(1)参照)。
次に、HMD201Cで検出された作業者PCの視線位置を示す視線情報、およびHMD201Cで取得された撮像画像の情報は、HMD201Aに出力される。そして、HMD201Aの映像表示装置202Aの映像の表示領域全体(作業者PAの視界範囲に対応)における、上記の映像V(202C)に対する作業者PCの注視点と対応する位置に、作業者PCの視線位置を示すマーカーMCが表示される(図24の(2)参照)。また、HMD201Aの映像表示装置202Aにより、HMD201Cで取得された撮像画像が、映像V(202A)として表示される(図24参照)。
また、HMD201Cで検出された作業者PCの視線位置を示す視線情報は、HMD201Dにも出力される。これにより、HMD201Dでは、映像表示装置202Dにより、映像V(202D)−A中に作業者PCの視線位置を示すマーカーMCが表示される(図23の(3)参照)。なお、映像V(202C)および映像V(202D)−Aは、どちらも、HMD201Aで撮像された画像であるため、映像V(202D)−Aにおいて、映像V(202C)に対する作業者PCの注視点と対応する位置に、作業者PCの視線位置を示すマーカーMCを表示することは容易に実現できる。
指示監督者PDは、映像V(202D)−A中のマーカーMCを見て、作業者PCの指示が誤っていると判断した場合、映像V(202D)−A中で、緩める対象となるネジを見ながら、「いや、最初にこのネジから緩めた方がよい!」という音声指示を出す。映像V(202D)−Aに対する指示監督者PDの視線方向は、HMD201Dの視線検出装置32によって検出される。そして、映像表示装置202Dにより、映像V(202D)−Aにおいて、指示監督者PDの視線位置を示すマーカーMDが表示される(図23の(4)参照)。
指示監督者PDの視線方向に関する視線情報は、HMD201Aに出力される。これにより、HMD201Aでは、映像表示装置202Aの映像の表示領域全体(作業者PAの視界範囲に対応)における、上記の映像V(202D)−Aに対する指示監督者PDの注視点と対応する位置に、指示監督者PDの視線位置を示すマーカーMDが表示される(図24の(5)参照)。なお、指示監督者PDが、映像V(202D)−Aを見ているか、映像V(202D)−Cを見ているかは、HMD201Dの視線検出装置32での視線検出結果に基づいて判断できる。したがって、指示監督者PDが映像V(202D)−Aを見ている場合には、映像V(202D)−Aの提供元となるHMD201Aに、指示監督者PDの視線情報を出力することができる。
作業者PAは、自身のHMD201Aで表示されたマーカーMDを視認することで、作業者PCが指示するネジではなく、指示監督者PDが指示するネジを緩める作業を行うことになる。このとき、作業者PAは、映像V(202A)中で、保持してほしい箇所を見ながら、「このカバーを支えてください!」という要求を音声で発する。映像V(202A)に対する作業者PAの視線方向は、HMD201Aの視線検出装置32によって検出される。そして、映像表示装置202Aにより、作業者PAの視線位置を示すマーカーMAが、HMD201Cの撮像画像と合わせて映像V(202A)として表示される(図24の(6)参照)。
その後、HMD201Aで検出された作業者PAの視線位置を示す視線情報が、HMD201Cに出力される。そして、HMD201Cの映像表示装置202Cの映像の表示領域全体(作業者PCの視界範囲に対応)における、上記の映像V(202A)に対する作業者PAの注視点と対応する位置に、作業者PAの視線位置を示すマーカーMAが表示される(図25の(7)参照)。
また、HMD201Aで検出された作業者PAの視線位置を示す視線情報は、HMD201Dにも出力される。これにより、HMD201Dでは、映像表示装置202Dにより、映像V(202D)−C中に作業者PAの視線位置を示すマーカーMAが表示される(図23の(8)参照)。なお、映像V(202A)および映像V(202D)−Cは、どちらも、HMD201Cで撮像された画像であるため、映像V(202D)−Cにおいて、映像V(202A)に対する作業者PAの注視点と対応する位置に、作業者PAの視線位置を示すマーカーMAを表示することは容易に実現できる。
指示監督者PDは、映像V(202D)−C中のマーカーMAを見て、作業者PAの指示が誤っていると判断した場合、映像V(202D)−C中で、保持すべきカバーを見ながら、「いや、そのカバーだけでなく、このカバーを保持しろ!」という音声指示を出す。映像V(202D)−Cに対する指示監督者PDの視線方向は、HMD201Dの視線検出装置32によって検出される。そして、映像表示装置202Dにより、映像V(202D)−Cにおいて、指示監督者PDの視線位置を示すマーカーMDが表示される(図23の(9)参照)。
指示監督者PDの視線方向に関する視線情報は、HMD201Cに出力される。これにより、HMD201Cでは、映像表示装置202Cの映像の表示領域全体(作業者PCの視界範囲に対応)における、上記の映像V(202D)−Cに対する指示監督者PDの注視点と対応する位置に、指示監督者PDの視線位置を示すマーカーMDが表示される(図25の(10)参照)。これにより、作業者PCは、マーカーMDで指定されたカバーを保持し、ネジを緩める作業者PAの作業を適切に補助することが可能となる。なお、上述のように、指示監督者PDが、映像V(202D)−Aを見ているか、映像V(202D)−Cを見ているかは、HMD201Dの視線検出装置32での視線検出結果に基づいて判断できるので、指示監督者PDが映像V(202D)−Cを見ている場合には、映像V(202D)−Cの提供元となるHMD201Cに指示監督者PDの視線情報を出力することができる。
以上のように、HMD201A・201C・201Dの3つの情報入出力端末間で、作業者PA、作業者PCおよび指示監督者PDの視線情報を相互に共有することにより、手作業を損なうことなく、意思疎通が良好で、協働作業を効率的に行うことが可能となる。特に、視線情報に加えて音声情報をさらに活用することにより、さらに正確な意思疎通が可能となり、その意思疎通に基づいてさらに効率的な作業が可能となる。
ところで、以上では、指示監督者PDが使用する情報入出力端末200として、頭部に装着可能なHMD201Dを用いる例について説明したが、指示監督者PDが特段ハンズフリーやモビリティを必要としない場合には、情報入出力端末200は別の形態であっても構わない。
図26は、情報入出力端末200の他の構成を示す説明図である。同図のように、情報入出力端末200は、少なくとも、表示装置200aと、表示装置200aに固定される視線検出装置32とを有して構成されていてもよい。表示装置200aは、部屋に設置されるテレビなどの直視型ディスプレイ(モニター)である。視線検出装置32は、表示装置200aにて表示される映像V(200)−Aおよび映像V(200)−Cを観察する指示監督者PDの視線方向を検出する。視線検出装置32は、表示装置200aに対して位置が同定されている。このような形態の視線検出装置32については、先のトビーテクノロジー社からも提案されており、これを使用することができる。なお、映像V(200)−Aは、作業者PAのHMD201Aにて取得され、情報入出力端末200に入力されて表示されたHMD201Aの撮像画像である。また、映像V(200)−Cは、作業者PCのHMD201Cにて取得され、情報入出力端末200に入力されて表示されたHMD201Cの撮像画像である。
活用例3のように、指示監督者PDが、作業者PAおよび作業者PCに指示を与えるだけの場合(指示監督者PDが実際にデバイスOBに対して手作業を行わない場合)、上記構成の情報入出力装置200にて他者の視線映像を表示し、その表示映像に対する指示監督者PDの観察視線を検出し、その視線情報を他者に出力することで、図23〜図25と同様に、視線に基づく意思疎通が可能である。したがって、指示監督者PDの情報入出力装置200は、必ずしもHMDである必要はない。
なお、以上の活用例では、最大3人で連携して作業を行う例について説明したが、4人以上で作業を行う場合でも、各活用例で説明したシステム、構成、方法を適用して、相互に視線情報を共有し、連携して作業を行うことは勿論可能である。
また、本実施形態の情報入出力端末は、作業者の作業状態や作業環境を把握して、作業性向上を図る観点から、GPS(Global Positioning System)センサ、地磁気センサ、温度センサなどの複数のセンサを備えていてもよい。例えばGPSセンサは、作業者の位置情報を取得する。地磁気センサは、作業者が向いている方向を検知する。温度センサは、作業環境の温度または作業者自身の体温を検知する。これらのセンサで取得された情報を、通信部34を介して外部の入出力端末に送信することより、外部では、作業の指示監督者が作業環境を把握し、必要に応じて適切な指示(例えば作業の中止等)を作業者(HMD)に出すことが可能となる。
(6.作業者が動く場合の指示者側端末および作業者側端末での表示について)
本実施形態では、上述した活用例1〜3において、HMD201Aを装着した作業者PAがデバイスOBに対する作業中に動き、これによってHMD201Aの撮像装置31の撮像範囲が変化する場合でも、HMD201Aの撮像範囲に含まれるデバイスOBの画像を切り出し、指示者側の情報入出力端末(HMDや、表示装置+視線検出装置の構成)にて静止画または動画として表示するようにしている。一方、作業者PA側のHMD201Aでは、指示者側の端末での表示画像に対する視線検出結果を利用して、作業者PAが動いても、作業者PAの視界の中で、指示者が作業を指示する位置(デバイスOBの同一箇所)をマーカーで表示し続けるようにしている。以下、この点について、実施例1〜6として、より詳細に説明する。
なお、上記の「指示者」とは、作業者PAに対して作業の指示を出すものを指し、活用例1〜3では、指示監督者PB、作業者PC、指示監督者PDのいずれかがこれに相当する。以下では、例として、活用例2で示した協働作業において、作業者PAが作業中に動く場合の各端末での表示制御について説明するが、他の活用例においても以下の表示制御を適用することができる。
<実施例1>
≪基準画像の取得≫
図27は、実施例1における基準画像取得処理の流れを示すフローチャートである。本実施例では、作業者PAがデバイスOBに対してネジを締める、または外す等の作業を開始する前に、デバイスOBの画像を基準画像として事前に取得するようにしている。すなわち、本実施例では、まず、作業者PAが静止した状態で、第1端末としてのHMD201A(撮像装置31)での撮影によって、デバイスOBを含む外界を撮影し、画像を取得する(S11;予備撮影工程)。そして、上記画像から、該画像の一部の領域(デバイスOBの画像を含む)を切り出し、これを静止画の基準画像として取得する(S12;基準画像取得工程)。その後、取得した基準画像を保持する(S13;保持工程)。より具体的に説明すると、以下の通りである。
図28は、基準画像取得時の作業者PAの視界のイメージを示している。作業者PAが装着しているHMD201Aの映像表示領域には、範囲確認用マーカーFが表示されており、作業者PAは、デバイスOBをシースルーで観察しながら、表示された範囲確認用マーカーFを観察することができる。なお、同図では、範囲確認用マーカーFは、矩形の四隅のみを示す形状で表示されているが、矩形形状(一続きの枠)で表示されてもよい。また、範囲確認用マーカーFは、視認しやすいように色つきであってもよく、その線種も実線には限定されない(例えば破線で表示されてもよい)。
図29は、基準画像取得時の指示者(ここでは作業者PC)の視界のイメージを示している。作業者PCが装着しているHMD201C(第2端末)には、HMD201Aにおける作業者PAの視界映像(HMD201Aの撮像装置31の撮影によって取得され、HMD201Cに出力された画像)と、HMD201Aで表示されている範囲確認用マーカーFに対応する範囲確認用マーカーF’が映像V(202C)として表示されている。なお、範囲確認用マーカーF・F’の表示サイズ(縦横比)は揃えてあり、映像V(202C)自体は、範囲確認用マーカーF’の表示のために、図20(活用例2)で示した範囲よりも少し広めに表示されている。
作業者PCは、HMD201Cにて表示される範囲確認用マーカーF’の位置や大きさをHMD201Cの操作部39によって微調整する。このような範囲確認用マーカーF’の微調整に関する情報は、通信部34を介してHMD201Aに出力され、この情報に基づいて、HMD201Aに表示されている範囲確認用マーカーFの位置や大きさも微調整される。そして、作業者PCは、HMD201Cにて表示される映像V(202C)を見ながら、範囲確認用マーカーF’内にデバイスOBが位置するように、例えば音声により、作業者PAに対して上下左右前後の移動(平行移動および回動を含む)を指示する。このような指示のもとで、作業者PAは、上下方向の移動等によって自身の姿勢を変えて、デバイスOBが撮像装置31の撮像範囲の中央付近(範囲確認用マーカーF内)に位置するようにする。
この状態で作業者PAが静止し、HMD201Aの撮像装置31によって外界を撮影すると、HMD201Aの画像処理部33は、得られた画像(例えば静止画)から、該画像の一部、すなわち、範囲確認用マーカーF内の画像(デバイスOBの画像)を画像処理によって切り出し、これによってデバイスOBの画像を基準画像(静止画)として取得する。HMD201Aにて取得された基準画像の情報(画像データ)は、例えば、管理サーバー400に出力されて保持部401に記憶される。これにより、管理サーバー400では、上記基準画像の情報を用いて種々の処理(例えばパターンマッチング処理)を行うことが可能となる。なお、HMD201Aで取得された基準画像の情報は、HMD201Aの記憶部35に記憶され、保持されてもよいし、HMD201Aから指示者側のHMD201Cに出力されて、HMD201Cの記憶部35に記憶されてもよい。
また、基準画像を切り出す処理は、指示者側のHMD201Cで行われてもよい。すなわち、図29で示したように、HMD201Cには、HMD201Aによる撮影画像(例えば動画)と範囲確認用マーカーF’とが映像V(202C)として表示されている。作業者PCは、作業者PAの姿勢変化によってデバイスOBの画像が範囲確認用マーカーF’内に位置するときに、HMD201Cの操作部39を操作することで、HMD201Cの画像処理部33に対して、デバイスOBを含む撮影画像から範囲確認用マーカーF’内の画像を切り抜く指示を与える。この指示に基づき、HMD201Cの画像処理部33が画像処理を行うことで上記基準画像を取得できる。取得した基準画像の情報は、例えば管理サーバー400に出力されて保持部401に保持されるが、HMD201Cの記憶部35に記憶されてもよいし、HMD201Aに出力されてHMD201Aの記憶部35に記憶されてもよい。
また、撮影画像から基準画像を切り出す処理は、管理サーバー400で行われてもよい。例えば、作業者PAが静止状態で撮像装置31によって撮影された画像と範囲確認用マーカーFとを合成した画像のデータを管理サーバー400に出力し、管理サーバー400の領域検出部402にて基準画像を切り出す処理を行ってもよい。切り出した基準画像の情報は、例えば保持部401に保持される。
上記した基準画像の情報が、例えば作業者PCのHMD201Cに出力されると、HMD201Cでは、上記基準画像を映像V(202C)として表示させることが可能となる。このとき、作業者PCは、操作部39の操作によって映像V(202C)の表示位置を調整してもよい。作業者PCは、HMD201Cにて実空間のデバイスOBをシースルーで観察したり、表示された映像V(202C)のどこかを注視して指示を出したりする必要があるため、シースルーで観察されるデバイスOBに映像V(202C)が重ならないようにすることが望ましい。上記した映像V(202C)の表示位置の調整により、シースルーで観察されるデバイスOBから少しだけ離れた位置に映像V(202C)を表示させることができるため、作業者PCは両者(デバイスOBおよび映像V(202C))を支障なく観察することが可能となる。
≪指示者側端末および作業者側端末での表示≫
図30は、本実施例の視線情報管理システムにおいて、指示者側端末および作業者側端末での画像表示に係る処理の流れを示すフローチャートである。本実施例では、上記のようにして基準画像を取得した後、その基準画像を利用して以下の処理が行われる。なお、ここでは、上記基準画像の情報(画像データ)は、HMD201Aから管理サーバー400に出力されて、保持部401に記憶されているものとする。
〈指示者側端末での表示〉
まず、作業者PAのHMD201Aにおいて、撮像装置31の撮影によって動画を取得する(S21;動画取得工程)。作業者PAがデバイスOBに対して作業する場合、そのデバイスOBに対する作業の様子が撮像装置31によって動画撮影される。動画撮影によって取得される情報(動画の画像データ)は、HMD201Aの通信部34を介して管理サーバー400に出力され、保持部401にて記憶される。
管理サーバー400では、領域検出部402がパターンマッチング処理を行うことにより、HMD201Aにて撮影された動画の中で基準画像に対応する領域を検出する(S22;領域検出工程)。なお、上記のパターンマッチング処理は、時間的に異なるタイミングで定期的に行われるものとする(後述する図37のS22−1、S22−3参照)。また、以下では、撮影された動画の中で基準画像に対応する領域のことを、「注目領域」とも称する。領域検出部402によって検出された注目領域の情報(画像データ)は、通信部404を介して作業者PCのHMD201Cに出力される。これにより、HMD201Cでは、検出された注目領域を表す画像、すなわち、デバイスOBの画像が表示される(S23;画像表示工程)。
ここで、S22およびS23についてさらに詳しく説明する。図31は、保持部401に記憶されている基準画像IMを複数の領域Dに分割した状態を示している。基準画像IMの分割数(領域Dの数)は予め設定されており、同図では、分割数が6×6=36個である場合を示している。なお、上記分割数は、例えば作業者PCがHMD201Cの操作部39を操作し、管理サーバー400に対して指示を送ることによって変更することもできる。
ここでは、分割した各領域Dの少なくともいずれかを、パターンマッチングの計算(処理)を行うときのキー(テンプレート)として使用する。このときのパターンマッチングの手法としては、前述したように、NCC、SAD、SSDなどの公知の手法を採用することができる。また、パターンマッチングの精度を確保する上では、分割した各領域Dのうち、特徴的な構造やテクスチャーを含む領域だけを、パターンマッチングのキーとして使用することが望ましい。つまり、どの領域Dをパターンマッチングに使用するかは、その領域をキーとして基準画像に対してパターンマッチングの計算をしたときに、パターンとマッチングする位置(領域)を正しく特定できるかどうかで判断する。また、例えば作業者PCがHMD201Cの操作部39を操作し、管理サーバー400に対して指示を送ることにより、パターンマッチングのキーとして使用する領域Dを選別しなおすこともできる。
ここで、作業者PAが姿勢を変えたとき、HMD201Aの撮像装置31によって取得される画像は、上記姿勢に応じて変化する。例えば、図32は、基準画像と、その基準画像の取得時の位置よりも作業者PAがデバイスOBに近づいた状態で撮像装置31によって撮影された画像を模式的に示している。なお、作業者PAの姿勢変化後に取得される画像のことを、パターンマッチングの対象となる画像という意味で、以下では、便宜的に「対象画像」とも称する。
作業者PAがデバイスOBに近づくと、撮影されるデバイスOBの画像は大きくなる。このため、対象画像において、基準画像の各領域のパターンとマッチングする領域は、互いに遠ざかるように移動する。このことは、図32において、基準画像の中で互いに離間した領域D1・D2が、対象画像において領域D1’・D2’とマッチングする場合に、領域D1・D2間の距離よりも、領域D1’・D2’間の距離が長くなっていることからも容易に理解できる。逆に、作業者PAがデバイスOBから遠ざかれば、姿勢変化後の対象画像において、基準画像の各領域のパターンとマッチングする領域は、互いに近づくように移動する。
また、実空間内での撮像装置31の位置が変化しないように、撮像装置31の角度だけを上下左右に動かした場合、角度が大きくなければ、撮影される画像の中でデバイスOBの位置が移動する。このため、対象画像において、基準画像の各領域のパターンとマッチングする各領域は、それぞれ同じ方向に同じ量だけ移動する。また、角度変化が大きくなれば、撮像装置31の光学系の射影特性に応じてデバイスOBが角度変更方向に伸び縮みする。このため、対象画像において、基準画像の各領域のパターンとマッチングする各領域も不均等に近寄ったり離れたりする。作業者PAがデバイスOBに対して横方向に移動した場合は、画像の中での移動量が均等ではなく、デバイスOBにおいて作業者PAとの距離の近い部分ほど、撮影した画像の中では大きく移動する。
このように、対象画像において、基準画像の各領域のパターンとマッチングする各領域の情報から、作業者PAのデバイスOBに対する相対的な位置の変化を検出することができる。したがって、S21で取得した動画から、基準画像に対応する領域(デバイスOBの部分)を切り抜き、切り抜いた動画を、該動画に含まれる撮影対象(デバイスOB)が所望の形状となるように、パターンマッチングによって取得される情報(作業者PAの相対的な位置の変化の情報)を利用して変形(拡大、縮小、回転などを含む)することにより、基準画像に近い画像(注目領域の画像)を得ることができる。本実施例では、変形後の注目領域の画像に透明度(透過率)を予め設定しておき、S23にて、HMD201Cの映像表示領域において、基準画像と対応する位置に、基準画像と重ね合わせて注目領域の画像(例えば動画)を表示する。これにより、作業者PCは、基準画像(静止画)と注目領域の画像とを同時に視認することが可能となる。図33は、HMD201Cにて、基準画像Rと注目領域の画像Tとが重なって表示されている状態を模式的に示している。なお、図33では、基準画像Rと注目領域の画像Tとを図面上で区別する目的で、これらをずらして位置させ、かつ、基準画像Rを破線で示しているが、実際にはこれらの画像は重なっているものとする。
また、作業者PAのHMD201Aは、加速度センサ38(図4参照)を搭載している。このため、加速度センサ38の検出結果に基づき、作業者PAの姿勢変化に伴ってデバイスOBが撮像装置31の撮影画像上で動く方向および量をある程度予測することができる。しかし、作業者PAが動いた場合に、画像上でデバイスOBが動く量は、撮像装置31からデバイスOBまでの距離に依存するため、画像上でのデバイスOBの動きを正確に予測するには距離関係を正確に把握することが必要となり、難易度が高い。
本実施例では、画像の動き、つまり、画像上でのデバイスOBの動きを抑制することが目的であるため、デバイスOBの画像そのものを使ってパターンマッチングを行うことで、画像上でのデバイスOBの動きをより簡便にかつ効果的に抑制することができる。すなわち、加速度センサ38の情報に基づいて作業者PAが動いた量が小さいと判断できる場合、撮影された画像の中で、作業者PAが動く直前のデバイスOBの検出位置の近傍のみ(前回パターンマッチングを行った範囲またはその近傍のみ)でパターンマッチングを行う。図34は、作業者PAの動きが小さい場合の、パターンマッチングを行う範囲のイメージを示す。図中、501は、作業者PAが動く直前のデバイスOBの位置を示し、502は、パターンマッチングを行う範囲を示す。範囲502の大きさは、前回パターンマッチングを行った範囲とほとんど変わらず、範囲502の位置もほとんど同じである。
一方、図35は、作業者PAの動きが大きい場合の、パターンマッチングを行う範囲502のイメージを示す。加速度センサ38の情報に基づいて作業者PAが動いた量が大きいと判断できる場合、パターンマッチングを行う範囲502の中心を、作業者PAの動きに伴ってデバイスOBが相対的に動く方向にずらすことに加えて、範囲502を、前回パターンマッチングを行った範囲よりも広げる。これにより、パターンマッチングの対象となる箇所が計算範囲外に出てしまって、基準画像に対応する注目領域を検出できなくなる事態を回避することができる。
以上では、図31で示したように、基準画像IMを複数の領域Dに分割し、分割した各領域Dの少なくともいずれかを、パターンマッチングを行うときのキーとして使用する例について説明したが、図36に示すように、基準画像IMを分割せずに、基準画像IMそのものをキーとして用いてパターンマッチングを行ってもよい。
〈作業者側端末での表示〉
図30に戻って説明を続ける。S23にて、指示者側のHMD201Cで注目領域の画像が表示されると、HMD201Cでは、視線検出装置32により、表示画像(注目領域の画像)に対する作業者PCの視線方向を検出して注視位置を求める(S24;視線検出工程)。検出した視線方向に関する情報が管理サーバー400に出力されると、演算部403は、領域検出部402による注目領域の検出結果と、HMD201Cの作業者PCの上記注視位置と、HMD201Aの撮像特性および表示特性とに基づいて、HMD201Aにおける、上記注視位置を示すマーカーの表示位置を算出する(S25)。S25にて、算出されたマーカーの表示位置の情報は、管理サーバー400からHMD201Aに出力され、HMD201Aは、演算部403にて算出された上記表示位置に、作業者PCの視線位置を示すマーカーを表示する(S26)。
ここで、図37は、管理サーバー400での処理の詳細な流れを示すフローチャートである。なお、管理サーバー400では、S25の工程に先立ち、上記したS22の領域検出工程が行われているが、S22では、上述したように、領域検出部402により、時間的に異なるタイミングでパターンマッチング処理が行われている(S22−1、S22−3参照)。そして、次に(例えばS22−3で)パターンマッチングを行う際に、加速度センサ38での姿勢検出結果に基づき、前回のパターンマッチングを行う範囲に対して、次にパターンマッチングを行う範囲の位置や大きさをどうするか、決定している(S22−2参照)。この点は、図34および図35に基づいて説明した通りである。
上記したS25の工程は、位置変化量検出工程(S25−1)と、表示位置決定工程(S25−2)とを含む。S25−1では、演算部403は、時間的にずれて行われる各パターンマッチングの結果に基づいて、HMD201Aでの撮影(S21)によって取得された動画上での(撮像画像全体に対する)、S22にて検出された注目領域の位置の変化量を検出する。そして、S25−2では、S25−1で検出された上記変化量と、S24で取得された、HMD201Cの作業者PCの注視位置と、HMD201Aの撮像特性および表示特性とに基づいて、HMD201Aにおけるマーカーの表示位置を決定する。ここで、HMD201Aが、外界を撮影する撮像装置31(カメラ)と、作業者PAに観察可能な画像(虚像)を提示する映像表示装置202Aとを含む構成では、上記撮像特性は、上記撮像装置31の撮像特性(例えば焦点距離(撮影画角、解像度(撮像素子の画素数))であり、上記表示特性は、上記映像表示装置202Aの表示特性(例えば焦点距離(表示画角、解像度(表示素子5(図3参照)の画素数))である。なお、これらの撮像特性および表示特性は、HMD201Aに固有の情報であり、予めわかっている情報である。
S25−1にて、動画上での上記注目領域の位置の変化量がわかると、撮像装置31の焦点距離の情報を使えば、上記変化量を、撮像装置31から見た方向(縦方向および横方向の角度(画角))の変化量に換算することができる。さらに、映像表示装置202Aの焦点距離の情報を使えば、注目領域の位置の変化後の「撮像装置31から見た方向」が、映像表示装置202Aにおいて表示素子5上のどの画素に対応するかがわかる。
したがって、S26にて、表示素子5の上記画素を中心とする範囲にマーカーを表示することにより、作業者PAの向きに関係なく(作業者PAがどの方向を向いていても)、作業者PAから見てデバイスOB上の同じに位置にマーカーを表示させ続けることができる。
以上のように、作業者PAが作業中に動き、それに伴って、撮影によって取得される動画中で撮影対象(デバイスOB)の位置が動く場合でも、HMD201Cでは、HMD201Aで取得された動画のうちで、基準画像に対応する注目領域の画像、つまり、撮影対象の位置がほとんど変化しない画像が表示される。これにより、作業者PCは、表示画像を注視しても映像酔いを起こしにくくなり、表示画像に基づいて、視線による指示を的確に出すことが可能となる。
また、HMD201Aでは、注目領域の検出結果と、作業者PCの表示画像に対する注視位置と、HMD201Aの撮像特性および表示特性とに基づいて算出される位置に、上記注視位置を示すマーカーMCが表示されるため、作業者PAの姿勢が作業中に変化しても、HMD201Aの表示領域内で、作業者PCの注視位置と対応する適切な位置に(デバイスOBに対してほとんど同じ位置に)、マーカーMCを表示させ続けることができる。これにより、作業者PAは、作業中に動きながらでも、表示されたマーカーMCを見て、作業者PCからの視線による指示を的確に把握して、デバイスOBに対して作業を行うことが可能となる。
特に、マーカーMCの表示位置を算出するS25の工程は、位置変化量検出工程(S25−1)と、表示位置決定工程(S25−2)とを含んでいるため、HMD201AでのマーカーMCの正しい表示位置を確実に算出することができる。
なお、HMD201Aの映像表示装置202Aは、表示素子5(例えば液晶表示素子)とHOE23とを用いて使用者に観察可能な虚像を提示する表示装置で構成されているが、MEMS(Micro Electro Mechanical Systems)スキャナを用いた網膜走査式の表示装置で構成されていてもよい。後者の場合、映像表示装置の表示特性としては、上記スキャナの特性(例えば走査速度)を考えればよい。
また、HMD201Cの表示画像は動画を含み、上記動画は、HMD201Aで取得した動画から、基準画像に対応する注目領域を切り抜き、変形することによって、予め設定された透過率で基準画像(静止画)と重ね合わせて表示される。作業者PCは、表示された動画を見ることで、作業者PAの作業をリアルタイムで把握することができる。また、動画が所定の透過率で基準画像と重ね合わされて表示されるため、作業者PAの手や工具などで撮影対象(例えばデバイスOB)が遮蔽される状態であっても、作業者PCには基準画像が透けて見える。これにより、作業者PCは、基準画像をもとに視線による指示を出し続けることができる。さらに、HMD201Aで取得される動画において、基準画像に対応する範囲が、作業者PAの作業中の動き(例えばデバイスOBに対して近づく/遠ざかる動き)に応じて変化(例えば拡大または縮小)する場合でも、作業者PCは、基準画像と重ね合わされて表示される変形後(例えば縮小後または拡大後)の動画を見て、視線による的確な指示を出すことが可能となる。
また、S22の領域検出工程では、HMD201Aで取得した動画に対して、基準画像に含まれる複数の分割画像をキーとしたパターンマッチングを行うことによって注目領域を検出するとともに、個々の分割画像のパターンマッチングの結果に応じて、検出した注目領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形する(図31、図32参照)。複数の分割画像を用いたパターンマッチングにより、注目領域を迅速に検出することができる。また、個々の分割画像のパターンマッチングの結果に応じて、検出した注目領域の動画を変形するため、作業者PAが作業中に動いて、HMD201Aと撮影対象(デバイスOB)との位置関係(例えば距離)が変動しても、撮影対象が所望の形状となる注目領域を取得することができる。
また、S22の領域検出工程では、HMD201Aで取得した動画に対して、基準画像をキーとしたパターンマッチングを行うことによって注目領域を検出してもよい(図36参照)。この場合は、基準画像そのものを用いたパターンマッチングにより、注目領域を検出することができる。
また、HMD201Aは、作業者PAの姿勢変化を検出する第1端末側検出器としての加速度センサ38を含み、S22の領域検出工程では、加速度センサ38による姿勢変化の検出結果に応じて、HMD201Aで取得した動画中で、パターンマッチングを行う範囲を変化させる(図34、図35参照)。例えば、図34のように、作業者PAの姿勢変化が遅い場合には(移動量が少ない場合には)、HMD201Aで取得した動画中でパターンマッチングを行う範囲502を狭めることで、パターンマッチングの計算量を減らして迅速な処理を行うことが可能となる。逆に、図35のように、作業者PAの姿勢変化が速い場合には(移動量が多い場合には)、動画中でパターンマッチングを行う範囲502を広げることで、動画の広範囲から基準画像に対応する注目領域を検出することが可能となる。つまり、作業者PAの姿勢変化が速い場合に、パターンマッチングの範囲が狭いと、その範囲内に基準画像に対応する注目領域が入っていない可能性があるが、パターンマッチングの範囲502を広げることで、そのような事態を回避することができる。
また、複数の情報入出力端末200は、HMD201AおよびHMD201Bにて取得される情報を管理する管理サーバー400を含み、管理サーバー400(特に保持部401)が、HMD201Aで取得した静止画の一部を基準画像として保持する。この場合、HMD201AおよびHMD201Bにおいて、基準画像を保持する大容量のメモリを設けなくても済み、HMD201AおよびHMD201Bの製造コストを低減できる。
また、管理サーバー400(特に領域検出部402、演算部403)が、基準画像に対応する注目領域を検出するとともに、マーカーMCの表示位置を算出する。この場合、HMD201AおよびHMD201Bで上記の各処理を行わなくても済み、HMD201AおよびHMD201Bの処理負担を軽減できる。また、HMD201AおよびHMD201Bにおいて、上記各処理を行うための高性能な処理部が不要であるため、HMD201AおよびHMD201Bの製造コストのさらなる低減が可能となり、また、これらの端末の大型化および重量化も回避することが可能となる。
また、HMD201Cは、シースルー型のHMDであるため、作業者PCは、HMD201Cを装着して外界をシースルーで観察し、作業者PAと協働して作業を行いながら、視線による指示を出すことができる。
なお、作業者PAの作業中には、作業者PAの手や工具が撮影画像に映り込む。また、手や工具によってデバイスOBの一部が遮られた状態で、デバイスOBが撮影される。このような撮影画像が取得されると、基準画像とのパターンマッチングの計算が正しくできない領域が生じる。パターンマッチングの計算の結果、基準画像とのマッチングがベストな位置でも、相関が低い領域(パターンマッチングの計算が正しくできない領域)については計算結果を破棄し、パターンマッチングの計算ができた領域の情報と、上記相関が低い領域について、その前の時刻に撮影された画像中で対応する領域との相対位置関係の情報とを使って補完してもよい。
また、手や工具によってデバイスOBが一時的に遮蔽される以外に、作業によってデバイスOBの状態が変化することによっても、パターンマッチングの計算が正しくない領域が生じる。なお、上記デバイスOBの状態の変化は、例えばデバイスOBからネジを取り外したり、逆にネジを取り付けたりする作業によって起こり得る。パターンマッチングの計算が正しく検出できる領域が減った場合、例えば管理サーバー400は作業者PCのHMD201Cに注意を表示させる指示を出し、作業者PCに基準画像の更新を促す。作業者PCはこの注意を見て、きりの良いところで協働作業を中断する。そして、作業開始時と同様の手順で、基準画像が再取得される。
以上では、基準画像とのパターンマッチングによる注目領域の検出処理、およびHMD201Aにおけるマーカーの表示位置の算出処理を、管理サーバー400(領域検出部402、演算部403)で行うようにしているが、作業者PA側のHMD201Aまたは指示者(作業者PC)側のHMD201Cの画像処理部33にて行ってもよい。ただし、処理が重たくなってHMD201A・201Cでの表示が遅延したり、高機能の画像処理部33の搭載によるHMD201A・201Cの大型化やコストアップを防ぐ意味では、本実施例のように上記の各処理を管理サーバー400で行うことが望ましい。
<実施例2>
図38は、本実施例におけるHMD201Cの表示画像を示している。本実施例では、HMD201Cに表示する画像を静止画とした以外は、実施例1と同様である。上記画像(静止画)は、同図に示すように、基準画像Rそのものであってもよいし、基準画像Rを所定の時間間隔で更新した画像であってもよいし、作業者PCの操作部39の操作によって更新される画像であってもよい。
本実施例では、作業者PAの作業中に、HMD201Aの撮像装置31によって撮影されるリアルタイム映像(動画)は、どこにも表示されないが、HMD201Aでの動画の取得と、パターンマッチングによる注目領域の検出は行って、マーカー表示位置の計算に使用する。
このようにHMD201Cでの表示画像が静止画(例えば基準画像R)であっても、作業者PCは、表示された静止画を見て、視線による指示を出すことができる。また、表示画像が、基準画像の更新画像(所定の時間間隔で更新または手動で更新される画像)であれば、撮影対象であるデバイスOBに対する作業が進んでデバイスOBの状態が初期と変化する場合でも(例えばネジが外される、ネジが取り付けられるなど)、作業者PCは、更新画像を見て、作業状況に合った的確な指示を出すことができる。
なお、基準画像を更新する場合にも、実施例1と同様のパターンマッチングを利用して初期と同じ範囲(デバイスOB)が見え続けるようにする。このとき、基準画像に一時的な遮蔽物(作業者PAの手や工具)が映り込んでしまうこともあるが、この場合には、例えば、作業者PCが必要に応じてHMD201Cの操作部39を操作して、例えばHMD201Aに指示を出すことで、HMD201Aにて改めて基準画像を取得(更新)することが可能である。
<実施例3>
図39は、本実施例におけるHMD201Cの表示画像を示している。本実施例では、作業者PCのHMD201Cに動画が表示されるが、この表示画像(動画)が、HMD201Aで取得した動画から、基準画像に対応する注目領域を切り抜き、該動画に含まれる撮影対象(デバイスOB)が所望の形状となるように変形することによって、予め設定されたサイズで基準画像と対応する位置に表示される点で、実施例1とは異なっている。すなわち、本実施例では、実施例1で基準画像Rと重ね合わせる注目領域の画像Tの透明度をゼロとした場合と同じであり、これによって注目領域の画像Tのみ(動画のみ)が表示される(基準画像Rが注目領域の画像Tで隠れて見えなくなる)。
HMD201Cにて上記のように注目領域の画像Tを動画で表示することにより、作業者PCは、動画(画像T)に含まれるデバイスOBに対する作業者PAの作業をリアルタイムで把握することができる。また、HMD201Cにおける表示画像は、HMD201Aで取得した動画から基準画像に対応する範囲を切り抜き、変形することによって、予め設定されたサイズで表示されるため、HMD201Aで取得される動画において、基準画像に対応する範囲が作業者PAの作業中の動き(例えばデバイスOBに対して近づく/遠ざかる動き)に応じて変化(例えば拡大または縮小)する場合でも、作業者PCは、表示される変形後(例えば縮小後または拡大後)の動画を見て、視線による的確な指示を出すことが可能となる。
<実施例4>
実施例1では、作業者PCのHMD201Cに映像V(202C)を表示する位置は、初期に調整した位置から変化しないが、本実施例では、作業者PCが姿勢(向き)を変えると、それに応じて、映像V(202C)の表示位置(特に注目領域の画像の表示位置)を変えるようにしている。
例えば図40および図41は、作業者PCがデバイスOBに近づいたときの作業者PCの視界であって、図40は、注目領域の画像Tの表示位置が初期から変化しない場合を示し、図41は、上記表示位置を変化させた場合を示している。作業者PCがデバイスOBに近づくと、作業者PCの視界中では、デバイスOBが大きく視認されるため、注目領域の画像Tの表示位置が固定されていると、図40のように、視認されるデバイスOBと、表示される注目領域の画像Tとで重なる部分が生じ、作業者PCはこの重なり部分を視認することが困難となる。
本実施例では、HMD201Cにおいて、加速度センサ38(第2端末側検出器)によって作業者PCの姿勢変化が検出されたときに、制御部40が、図41に示すように、HMD201Cで表示される注目領域の画像Tが、作業者PCから見て空間中の同じ位置に見えるように、加速度センサ38の検出結果に応じて、注目領域の画像Tの表示位置を移動させる。これにより、作業者PCの姿勢が変化した場合でも、作業者PCの視界内の撮影対象(デバイスOB)に対して表示画像(注目領域の画像T)を離して表示させることができ、視界内でデバイスOBと表示画像とが重なって作業者PCが視認困難となる事態を回避することができる。なお、この場合のHMD201Cの制御部40は、映像表示装置202Cでの情報の表示を制御する表示制御部として機能している。
なお、作業者PCから表示される画像(虚像)までの距離を予め設定しておけば、加速度センサの情報(検出結果)と設定した上記距離とに基づいて、注目領域の画像Tの表示位置を、視界内のデバイスOBとは重ならない適切な位置に移動させることができる。このとき、作業者PCからデバイスOBまでの距離と、作業者PCから表示画像までの距離とで、設定に大きな差異が生じると、実物(デバイスOB)と表示画像との、作業者PCの視界内での相対的な位置関係を維持することができなくなる。このため、差異が大きくならないように上記各距離を設定しておくことが必要である。
また、加速度センサ38の情報にノイズが含まれると、画像の表示位置が小刻みに動いて(表示位置が急激に変化して)見づらくなる。表示位置の急激な変化を避けるために、加速度センサ38が検出した動きに対して、表示位置の移動を遅延させ、また、その前後の時間の姿勢情報を平均して均すことによって、小刻みな動きを抑制することが望ましい。表示位置の変化率や変化量が大きいときには、予め決めた変化率や変化量の上限値を超える分について、次の時間で表示位置を動かすようにすれば、表示位置の急激な変化が起こらないようにすることができる。
つまり、HMD201Cでは、制御部40が、注目領域の画像の表示位置を変化させる前後での上記表示位置の変化率または変化量が、予め設定した変化率または変化量以下となるように、表示位置の移動を制御することが望ましい。なお、上記の変化率とは、所定時間内での表示位置の変化の割合(表示位置の変化量/所定時間)のことである。上記の表示制御により、表示画像の急激な移動(小刻みな動き)を抑えて、表示画像が見にくくなる事態を低減することができる。
<実施例5>
本実施例では、作業者PCの姿勢の変化に応じて、作業者PAのHMD201Aで取得される動画から切り抜く領域を変えて、HMD201Cに表示させるようにしている。
例えば、図42は、姿勢変化前の作業者PCの視界を示しており、図43は、図42において映像V(202C)として表示される領域に加え、映像として表示されない非表示部分を参考のために破線で示したものである。本実施例では、基準画像がデバイスOBの一部となっており、HMD201Cには、映像V(202C)として、基準画像に対応する注目領域の画像(ここでは作業者PAから見てデバイスOBの左上の部分)が表示されている。
図44は、作業者PCが右上方向に顔を向けたときの作業者PCの視界を示しており、図45は、図44において映像V(202C)’として表示される領域に加え、映像として表示されない非表示部分を参考のために破線で示したものである。作業者PCが図42の表示画像(映像V(202C))の少し外側を確認したい場合、見たい方向(ここでは右上方向)に顔を向ける。すると、HMD201Cの加速度センサ38は、このような作業者PCの姿勢変化を検出する。そして、HMD201Cの制御部40は、加速度センサ38による姿勢変化の検出結果と、作業者PAのHMD201Aで取得された動画からの注目領域の検出結果とに基づき、HMD201Aで取得された上記動画内で基準画像に対応する注目領域から、作業者PCの姿勢変化量と対応する量だけずれた範囲の動画を、映像表示装置202Cにおいて、図42で示した上記注目領域の画像の表示位置から上記姿勢変化量と対応する量だけずれた位置に映像(V202C’)として表示させる。
このように作業者PCのHMD201Cでは、作業者PCの姿勢変化に応じて、基準画像に対応する注目領域からずれた範囲の動画が映像(V202C’)として表示されるため、作業者PCは、基準画像に対応する注目領域以外の動画を観察することが可能となる。言い換えれば、作業者PCの姿勢変化により、画像として見える範囲を変更することができる。
なお、本実施例においても、実施例4と同様の表示制御を行ってもよい。つまり、HMD201Cでは、制御部40が、画像の表示位置を移動させる前後での上記表示位置の変化率または変化量が、予め設定した変化率または変化量以下となるように、上記表示位置の移動を制御してもよい。この場合、作業者PCの姿勢変化による表示画像の急激な移動を抑えて、表示画像が見にくくなる事態を低減することができる。
なお、基準画像に対応する注目領域から外れた位置では、作業者PAの姿勢変化に応じて映像を歪ませる情報が存在しないので、歪みの情報のうち一律な倍率変化のみを与えた状態で表示を行うことによって、基準画像がある範囲(注目領域)とその外側とで画像の不連続性が発生しないようにする。その代わりに、作業者PAの姿勢変化による映像の歪みは、作業者PCの見ている映像で発生してしまうことになるが、領域が固定されている分、リアルタイム映像をそのまま表示する場合に比べれば、注視はしやすくなっている。
<実施例6>
本実施例では、上述したHMD201Cでの注目領域の画像の表示方法を、HMD201Aにも適用し、また、HMD201Aでのマーカーの表示方法を、HMD201Cにも適用した例について説明する。
本実施例では、まず、作業者PCの静止状態で基準画像(第2端末側基準画像)を取得する処理が行われる。この処理の流れは、図27と同様である。すなわち、作業者PCが静止した状態で、HMD201C(撮像装置31)での撮影によって、デバイスOBを含む外界を撮影し、画像を取得する(S11)。そして、上記画像から、該画像の一部の領域(デバイスOBの画像を含む)を切り出し、これを静止画の基準画像(第2端末側基準画像)として取得する(S12)。その後、取得した基準画像を管理サーバー400(保持部401)にて保持する(S13)。
図46は、本実施例の視線情報管理システムにおいて、指示者側端末および作業者側端末での画像表示に係る処理の流れを示すフローチャートである。まず、作業者PCのHMD201Cにおいて、撮像装置31の撮影によって動画を取得する(S31;動画取得工程)。作業者PCがデバイスOBに対して作業する場合、そのデバイスOBに対する作業の様子が撮像装置31によって動画撮影される。動画撮影によって取得される情報(動画の画像データ)は、HMD201Cの通信部34を介して管理サーバー400に出力され、保持部401にて記憶される。
管理サーバー400では、領域検出部402がパターンマッチング処理を行うことにより、HMD201Cにて撮影された動画の中で基準画像に対応する注目領域を検出する(S32;領域検出工程)。領域検出部402によって検出された注目領域の情報(画像データ)は、通信部404を介して作業者PAのHMD201Aに出力される。これにより、HMD201Aでは、検出された注目領域を表す画像、すなわち、HMD201C側から見たデバイスOBの画像が表示される(S33;画像表示工程)。
続いて、HMD201Aでは、視線検出装置32により、表示画像(注目領域の画像)に対する作業者PAの視線方向を検出して注視位置を求める(S34;視線検出工程)。検出した視線方向に関する情報が管理サーバー400に出力されると、演算部403は、S32での領域検出部402による注目領域の検出結果と、HMD201Aの作業者PAの上記注視位置と、HMD201Cの撮像装置31の撮像特性および映像表示装置201Cの表示特性とに基づいて、HMD201Cにおける、上記注視位置を示すマーカーMA(図22参照)の表示位置を算出する(S35)。算出されたマーカーMAの表示位置の情報は、管理サーバー400からHMD201Cに出力され、HMD201Cは、演算部403にて算出された上記表示位置に、作業者PAの視線位置を示すマーカーMAを表示する(S36)。
以上のように、HMD201Aでは、HMD201Cで取得された動画のうちで、第2端末側基準画像に対応する所定の領域の画像が表示されるため、作業者PCが作業中に動いたとしても、上記領域に含まれる撮影対象(デバイスOB)を、その表示位置をほとんど変えずに表示させることができる。これにより、作業者PAは、表示画像の注視による映像酔いを起こしにくくなる。
また、作業者PCの姿勢が作業中に変化しても、HMD201Cの表示領域内で、作業者PAの注視位置と対応する適切な位置に(デバイスOBに対してほとんど同じ位置に)、マーカーMAを表示させ続けることができるので、作業者PCは、作業中に動きながらでも、表示されたマーカーMAを見て、作業者PAからの視線による指示や応答を的確に把握し、必要に応じて視線による追加の指示を作業者PAに出すことが可能となる。
以上のことから、本実施形態で説明した視線情報共有方法は、以下のように表現することができる。また、上記視線情報共有方法を使用する本実施形態のシステムは、以下の視線情報検出システムとして表現することができる。
本実施形態の視線情報共有方法は、通信回線を介して接続される複数の情報入出力端末を含むシステムにおける視線情報共有方法であって、前記複数の情報入出力端末は、外界を撮影して画像を取得可能なシースルー型のヘッドマウントディスプレイである第1端末と、情報の表示および使用者の視線方向の検出が可能な第2端末とを含み、該視線情報共有方法は、前記第1端末の使用者が静止した状態で、前記第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する工程と、前記第1端末での撮影によって動画を取得する工程と、前記第1端末で取得された前記動画から、前記基準画像に対応する領域を検出する工程と、前記第2端末において、検出された前記領域を表す画像を表示する工程と、前記第2端末において、表示画像に対する使用者の視線方向を検出して注視位置を求める工程と、前記領域の検出結果と、前記第2端末の使用者の前記注視位置と、前記第1端末の撮像特性および表示特性とに基づいて、前記第1端末における、前記注視位置を示すマーカーの表示位置を算出する工程と、前記第1端末において、算出された前記表示位置に前記マーカーを表示する工程とを含む。
上記の視線情報共有方法において、前記第2端末で表示される前記画像は、動画を含み、前記動画は、前記第1端末で取得した動画から、前記基準画像に対応する前記領域を切り抜き、変形することによって、予め設定された透過率で前記基準画像と重ね合わせて表示されてもよい。
上記の視線情報共有方法において、前記第2端末で表示される前記画像は、静止画であり、前記基準画像そのもの、もしくは、前記基準画像を所定の時間間隔で更新した画像、または前記第2端末の使用者の操作によって更新される画像であってもよい。
上記の視線情報共有方法において、前記第2端末で表示される前記画像は、動画であり、前記第1端末で取得した動画から、前記基準画像に対応する前記領域を切り抜き、変形することによって、予め設定されたサイズで前記基準画像と対応する位置に表示されてもよい。
上記の視線情報共有方法において、前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器を含み、前記第2端末では、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、表示される前記画像が、前記第2端末の使用者から見て空間中の同じ位置に見えるように、前記第2端末側検出器の検出結果に応じて、前記画像の表示位置を移動させてもよい。
上記の視線情報共有方法において、前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器を含み、前記第2端末では、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、前記姿勢変化の検出結果と、前記第1端末で取得された前記動画からの前記領域の検出結果とに基づいて、前記第1端末で取得された前記動画内で前記基準画像に対応する領域から使用者の姿勢変化量と対応する量だけずれた範囲の動画を、前記領域の画像の表示位置から前記姿勢変化量と対応する量だけずれた位置に表示してもよい。
上記の視線情報共有方法において、前記第2端末では、画像の表示位置を移動させる前後での前記表示位置の変化率または変化量が、予め設定した変化率または変化量以下となるように、前記表示位置の移動を制御してもよい。
上記の視線情報共有方法において、前記基準画像に対応する領域を検出する工程では、前記第1端末で取得した前記動画に対して、前記基準画像をキーとしたパターンマッチングを行うことによって前記領域を検出してもよい。
上記の視線情報共有方法において、前記基準画像に対応する領域を検出する工程では、前記第1端末で取得した前記動画に対して、前記基準画像に含まれる複数の分割画像をキーとしたパターンマッチングを行うことによって前記領域を検出するとともに、個々の前記分割画像のパターンマッチングの結果に応じて、検出した前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形してもよい。
上記の視線情報共有方法において、前記第1端末は、外界を撮影する撮像装置と、使用者に観察可能な画像を提示する表示装置とを含み、前記マーカーの表示位置を算出する工程は、時間的にずれて行われる各パターンマッチングの結果に基づいて、前記第1端末での撮影によって取得された前記動画上での、検出された前記領域の位置の変化量を検出する工程と、上記変化量と、前記第2端末の使用者の前記注視位置と、前記第1端末の前記撮像装置の前記撮像特性および前記表示装置の前記表示特性とに基づいて、前記第1端末における前記マーカーの表示位置を決定する工程とを含んでいてもよい。
上記の視線情報共有方法において、前記第1端末は、使用者の姿勢変化を検出する第1端末側検出器を含み、前記基準画像に対応する領域を検出する工程では、前記第1端末側検出器による姿勢変化の検出結果に応じて、前記第1端末で取得した前記動画中で、パターンマッチングを行う範囲を変化させてもよい。
上記の視線情報共有方法において、前記複数の情報入出力端末は、前記第1端末および前記第2端末にて取得される情報を管理する管理サーバーを含み、前記管理サーバーが、前記第1端末で取得した前記静止画の一部を前記基準画像として保持することが望ましい。
上記の視線情報共有方法において、前記管理サーバーが、前記基準画像に対応する前記領域を検出するとともに、前記マーカーの表示位置を算出することが望ましい。
上記の視線情報共有方法において、前記第2端末は、シースルー型のヘッドマウントディスプレイであってもよい。
上記の視線情報共有方法において、前記第2端末は、外界を撮影して画像を取得可能であり、該視線情報共有方法は、前記第2端末の使用者が静止した状態で、前記第2端末での撮影によって事前に取得された静止画の一部を、第2端末側基準画像として保持する工程と、前記第2端末での撮影によって動画を取得する工程と、前記第2端末で取得された前記動画から、前記第2端末側基準画像に対応する領域を検出する工程と、前記第1端末において、検出された前記領域を表す画像を表示する工程とをさらに含んでいてもよい。
上記の視線情報共有方法において、第1端末は、情報の表示および使用者の視線方向の検出が可能であり、該視線情報共有方法は、前記第1端末において、表示画像に対する使用者の視線方向を検出して注視位置を求める工程と、前記第2端末で取得された前記動画からの前記領域の検出結果と、前記第1端末の使用者の前記注視位置と、前記第2端末の撮像特性および表示特性とに基づいて、前記第2端末における、前記注視位置を示すマーカーの表示位置を算出する工程と、前記第2端末において、算出された前記表示位置に前記マーカーを表示する工程とをさらに含んでいてもよい。
本実施形態の視線情報共有システムは、通信回線を介して接続される複数の情報入出力端末を含む視線情報共有システムであって、前記複数の情報入出力端末は、第1端末および第2端末を含み、前記第1端末は、外界を撮影して画像を取得する撮像装置を含むシースルー型のヘッドマウントディスプレイであり、前記第2端末は、情報を表示する表示装置と、前記表示装置によって表示された情報に対する使用者の視線方向を検出する視線検出装置とを含み、前記複数の情報入出力端末のいずれかは、前記第1端末の使用者が静止した状態で、前記第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する保持部と、前記第1端末での撮影によって動画が取得されたときに、前記動画から、前記基準画像に対応する領域を検出する領域検出部と、前記領域検出部によって検出された前記領域を表す画像が前記第2端末で表示され、前記視線検出装置によって表示画像に対する使用者の視線方向を検出して注視位置が求められたときに、前記領域検出部による前記領域の検出結果と、前記第2端末の使用者の前記注視位置と、前記第1端末の撮像特性および表示特性とに基づいて、前記第1端末における、前記注視位置を示すマーカーの表示位置を算出する演算部とを有し、前記第1端末は、前記演算部によって算出された前記表示位置に前記マーカーを表示する。
上記の視線情報共有システムにおいて、前記領域検出部は、前記第1端末で取得された前記動画から、前記基準画像に対応する前記領域を切り抜き、切り抜いた前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形し、前記第2端末の前記表示装置は、前記領域検出部による変形後の動画を、予め設定された透過率で前記基準画像と重ね合わせて表示してもよい。
上記の視線情報共有システムにおいて、前記第2端末の前記表示装置は、前記領域検出部によって検出された前記領域を表す画像を静止画で表示し、前記静止画は、前記基準画像そのもの、もしくは、前記基準画像を所定の時間間隔で更新した画像、または前記第2端末の使用者の操作によって更新される画像であってもよい。
上記の視線情報共有システムにおいて、前記領域検出部は、前記第1端末で取得された前記動画から、前記基準画像に対応する前記領域を切り抜き、切り抜いた前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形し、前記第2端末の前記表示装置は、前記領域検出部による変形後の動画を、予め設定されたサイズで前記基準画像と対応する位置に表示してもよい。
上記の視線情報共有システムにおいて、前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器と、前記表示装置による表示を制御する表示制御部とを含み、前記表示制御部は、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、前記表示装置で表示される画像が、前記第2端末の使用者から見て空間中の同じ位置に見えるように、前記第2端末側検出器の検出結果に応じて、前記画像の表示位置を移動させてもよい。
上記の視線情報共有システムにおいて、前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器と、前記表示装置による表示を制御する表示制御部とを含み、前記表示制御部は、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、前記姿勢変化の検出結果と、前記第1端末で取得された前記動画からの前記領域の検出結果とに基づいて、前記第1端末で取得された前記動画内で前記基準画像に対応する領域から使用者の姿勢変化量と対応する量だけずれた範囲の動画を、前記表示装置において、前記領域の画像の表示位置から前記姿勢変化量と対応する量だけずれた位置に表示させてもよい。
上記の視線情報共有システムにおいて、前記表示制御部は、画像の表示位置を移動させる前後での前記表示位置の変化率または変化量が、予め設定した変化率または変化量以下となるように、前記表示位置の移動を制御してもよい。
上記の視線情報共有システムにおいて、前記領域検出部は、前記第1端末で取得された前記動画に対して、前記基準画像をキーとしたパターンマッチングを行うことによって前記領域を検出してもよい。
上記の視線情報共有システムにおいて、前記領域検出部は、前記第1端末で取得された前記動画に対して、前記基準画像に含まれる複数の分割画像をキーとしたパターンマッチングを行うことによって前記領域を検出するとともに、個々の前記分割画像のパターンマッチングの結果に応じて、検出した前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形してもよい。
上記の視線情報共有システムにおいて、前記第1端末は、使用者に観察可能な画像を提示する表示装置とを含み、前記演算部は、時間的にずれて行われる各パターンマッチングの結果に基づいて、前記第1端末での撮影によって取得された前記動画上での、検出された前記領域の位置の変化量を検出し、上記変化量と、前記第2端末の使用者の前記注視位置と、前記第1端末の前記撮像装置の前記撮像特性および前記表示装置の前記表示特性とに基づいて、前記第1端末における前記マーカーの表示位置を決定してもよい。
上記の視線情報共有システムにおいて、前記第1端末は、使用者の姿勢変化を検出する第1端末側検出器を含み、前記領域検出部は、前記第1端末側検出器による姿勢変化の検出結果に応じて、前記第1端末で取得された前記動画中で、パターンマッチングを行う範囲を変化させてもよい。
上記の視線情報共有システムにおいて、前記複数の情報入出力端末は、前記第1端末および前記第2端末にて取得される情報を管理する管理サーバーを含み、前記管理サーバーが、前記保持部を含むことが望ましい。
上記の視線情報共有システムにおいて、前記管理サーバーが、前記領域検出部および前記演算部を含むことが望ましい。
上記の視線情報共有システムにおいて、前記第2端末は、シースルー型のヘッドマウントディスプレイであってもよい。
上記の視線情報共有システムにおいて、前記第2端末は、外界を撮影して画像を取得する第2端末側撮像装置をさらに含み、前記保持部は、前記第2端末の使用者が静止した状態で、前記第2端末での撮影によって事前に取得された静止画の一部を、第2端末側基準画像として保持し、前記領域検出部は、前記第2端末での撮影によって動画が取得されたときに、前記動画から、前記第2端末側基準画像に対応する領域を検出し、前記第1端末は、前記領域検出部にて検出された前記領域を表す画像を表示してもよい。
上記の視線情報共有システムにおいて、前記第1端末は、第1端末側表示装置と、前記第1端末側表示装置によって表示された画像に対する使用者の視線方向を検出して注視位置を求める第1端末側視線検出装置とを含み、前記演算部は、前記領域検出部によって検出された前記領域を表す画像が前記第1端末で表示され、前記第1端末側視線検出装置によって表示画像に対する使用者の視線方向を検出して注視位置が求められたときに、前記領域検出部による前記領域の検出結果と、前記第1端末の使用者の前記注視位置と、前記第2端末の撮像特性および表示特性とに基づいて、前記第2端末における、前記注視位置を示すマーカーの表示位置を算出し、前記第2端末の前記表示装置は、算出された前記表示位置に前記マーカーを表示してもよい。
本発明は、通信回線を介して接続される複数の情報入出力端末間で、使用者の視線情報を共有するシステムに利用可能である。
31 撮像装置(第2端末側撮像装置)
32 視線検出装置(第1端末側視線検出装置、第2端末側視線検出装置)
38 加速度センサ(第1端末側検出器、第2端末側検出器)
100 視線情報共有システム
200 情報入出力端末
201A HMD(情報入出力端末、第1端末)
201C HMD(情報入出力端末、第2端末)
202A 映像表示装置(表示装置、第1端末側表示装置)
202C 映像表示装置(表示装置、第2端末側表示装置)
300 通信回線
400 管理サーバー
401 保持部
402 領域検出部
403 演算部

Claims (32)

  1. 通信回線を介して接続される複数の情報入出力端末を含むシステムにおける視線情報共有方法であって、
    前記複数の情報入出力端末は、
    外界を撮影して画像を取得可能なシースルー型のヘッドマウントディスプレイである第1端末と、
    情報の表示および使用者の視線方向の検出が可能な第2端末とを含み、
    該視線情報共有方法は、
    前記第1端末の使用者が静止した状態で、前記第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する工程と、
    前記第1端末での撮影によって動画を取得する工程と、
    前記第1端末で取得された前記動画から、前記基準画像に対応する領域を検出する工程と、
    前記第2端末において、検出された前記領域を表す画像を表示する工程と、
    前記第2端末において、表示画像に対する使用者の視線方向を検出して注視位置を求める工程と、
    前記領域の検出結果と、前記第2端末の使用者の前記注視位置と、前記第1端末の撮像特性および表示特性とに基づいて、前記第1端末における、前記注視位置を示すマーカーの表示位置を算出する工程と、
    前記第1端末において、算出された前記表示位置に前記マーカーを表示する工程とを含むことを特徴とする視線情報共有方法。
  2. 前記第2端末で表示される前記画像は、動画を含み、
    前記動画は、前記第1端末で取得した動画から、前記基準画像に対応する前記領域を切り抜き、変形することによって、予め設定された透過率で前記基準画像と重ね合わせて表示されることを特徴とする請求項1に記載の視線情報共有方法。
  3. 前記第2端末で表示される前記画像は、静止画であり、前記基準画像そのもの、もしくは、前記基準画像を所定の時間間隔で更新した画像、または前記第2端末の使用者の操作によって更新される画像であることを特徴とする請求項1に記載の視線情報共有方法。
  4. 前記第2端末で表示される前記画像は、動画であり、前記第1端末で取得した動画から、前記基準画像に対応する前記領域を切り抜き、変形することによって、予め設定されたサイズで前記基準画像と対応する位置に表示されることを特徴とする請求項1に記載の視線情報共有方法。
  5. 前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器を含み、
    前記第2端末では、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、表示される前記画像が、前記第2端末の使用者から見て空間中の同じ位置に見えるように、前記第2端末側検出器の検出結果に応じて、前記画像の表示位置を移動させることを特徴とする請求項1から4のいずれかに記載の視線情報共有方法。
  6. 前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器を含み、
    前記第2端末では、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、前記姿勢変化の検出結果と、前記第1端末で取得された前記動画からの前記領域の検出結果とに基づいて、前記第1端末で取得された前記動画内で前記基準画像に対応する領域から使用者の姿勢変化量と対応する量だけずれた範囲の動画を、前記領域の画像の表示位置から前記姿勢変化量と対応する量だけずれた位置に表示することを特徴とする請求項1に記載の視線情報共有方法。
  7. 前記第2端末では、画像の表示位置を移動させる前後での前記表示位置の変化率または変化量が、予め設定した変化率または変化量以下となるように、前記表示位置の移動を制御することを特徴とする請求項5または6に記載の視線情報共有方法。
  8. 前記基準画像に対応する領域を検出する工程では、前記第1端末で取得した前記動画に対して、前記基準画像をキーとしたパターンマッチングを行うことによって前記領域を検出することを特徴とする請求項1から7のいずれかに記載の視線情報共有方法。
  9. 前記基準画像に対応する領域を検出する工程では、前記第1端末で取得した前記動画に対して、前記基準画像に含まれる複数の分割画像をキーとしたパターンマッチングを行うことによって前記領域を検出するとともに、個々の前記分割画像のパターンマッチングの結果に応じて、検出した前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形することを特徴とする請求項1、2、4から7のいずれかに記載の視線情報共有方法。
  10. 前記第1端末は、外界を撮影する撮像装置と、使用者に観察可能な画像を提示する表示装置とを含み、
    前記マーカーの表示位置を算出する工程は、
    時間的にずれて行われる各パターンマッチングの結果に基づいて、前記第1端末での撮影によって取得された前記動画上での、検出された前記領域の位置の変化量を検出する工程と、
    上記変化量と、前記第2端末の使用者の前記注視位置と、前記第1端末の前記撮像装置の前記撮像特性および前記表示装置の前記表示特性とに基づいて、前記第1端末における前記マーカーの表示位置を決定する工程とを含むことを特徴とする請求項8または9に記載の視線情報検出方法。
  11. 前記第1端末は、使用者の姿勢変化を検出する第1端末側検出器を含み、
    前記基準画像に対応する領域を検出する工程では、前記第1端末側検出器による姿勢変化の検出結果に応じて、前記第1端末で取得した前記動画中で、パターンマッチングを行う範囲を変化させることを特徴とする請求項8から10のいずれかに記載の視線情報共有方法。
  12. 前記複数の情報入出力端末は、前記第1端末および前記第2端末にて取得される情報を管理する管理サーバーを含み、
    前記管理サーバーが、前記第1端末で取得した前記静止画の一部を前記基準画像として保持することを特徴とする請求項1から11のいずれかに記載の視線情報共有方法。
  13. 前記管理サーバーが、前記基準画像に対応する前記領域を検出するとともに、前記マーカーの表示位置を算出することを特徴とする請求項12に記載の視線情報共有方法。
  14. 前記第2端末は、シースルー型のヘッドマウントディスプレイであることを特徴とする請求項1から13のいずれかに記載の視線情報共有方法。
  15. 前記第2端末は、外界を撮影して画像を取得可能であり、
    該視線情報共有方法は、
    前記第2端末の使用者が静止した状態で、前記第2端末での撮影によって事前に取得された静止画の一部を、第2端末側基準画像として保持する工程と、
    前記第2端末での撮影によって動画を取得する工程と、
    前記第2端末で取得された前記動画から、前記第2端末側基準画像に対応する領域を検出する工程と、
    前記第1端末において、検出された前記領域を表す画像を表示する工程とをさらに含むことを特徴とする請求項14に記載の視線情報共有方法。
  16. 第1端末は、情報の表示および使用者の視線方向の検出が可能であり、
    該視線情報共有方法は、
    前記第1端末において、表示画像に対する使用者の視線方向を検出して注視位置を求める工程と、
    前記第2端末で取得された前記動画からの前記領域の検出結果と、前記第1端末の使用者の前記注視位置と、前記第2端末の撮像特性および表示特性とに基づいて、前記第2端末における、前記注視位置を示すマーカーの表示位置を算出する工程と、
    前記第2端末において、算出された前記表示位置に前記マーカーを表示する工程とをさらに含むことを特徴とする請求項15に記載の視線情報共有方法。
  17. 通信回線を介して接続される複数の情報入出力端末を含む視線情報共有システムであって、
    前記複数の情報入出力端末は、第1端末および第2端末を含み、
    前記第1端末は、外界を撮影して画像を取得する撮像装置を含むシースルー型のヘッドマウントディスプレイであり、
    前記第2端末は、情報を表示する表示装置と、前記表示装置によって表示された情報に対する使用者の視線方向を検出する視線検出装置とを含み、
    前記複数の情報入出力端末のいずれかは、
    前記第1端末の使用者が静止した状態で、前記第1端末での撮影によって事前に取得された静止画の一部を、基準画像として保持する保持部と、
    前記第1端末での撮影によって動画が取得されたときに、前記動画から、前記基準画像に対応する領域を検出する領域検出部と、
    前記領域検出部によって検出された前記領域を表す画像が前記第2端末で表示され、前記視線検出装置によって表示画像に対する使用者の視線方向を検出して注視位置が求められたときに、前記領域検出部による前記領域の検出結果と、前記第2端末の使用者の前記注視位置と、前記第1端末の撮像特性および表示特性とに基づいて、前記第1端末における、前記注視位置を示すマーカーの表示位置を算出する演算部とを有し、
    前記第1端末は、前記演算部によって算出された前記表示位置に前記マーカーを表示することを特徴とする視線情報共有システム。
  18. 前記領域検出部は、前記第1端末で取得された前記動画から、前記基準画像に対応する前記領域を切り抜き、切り抜いた前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形し、
    前記第2端末の前記表示装置は、前記領域検出部による変形後の動画を、予め設定された透過率で前記基準画像と重ね合わせて表示することを特徴とする請求項17に記載の視線情報共有システム。
  19. 前記第2端末の前記表示装置は、前記領域検出部によって検出された前記領域を表す画像を静止画で表示し、
    前記静止画は、前記基準画像そのもの、もしくは、前記基準画像を所定の時間間隔で更新した画像、または前記第2端末の使用者の操作によって更新される画像であることを特徴とする請求項17に記載の視線情報共有システム。
  20. 前記領域検出部は、前記第1端末で取得された前記動画から、前記基準画像に対応する前記領域を切り抜き、切り抜いた前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形し、
    前記第2端末の前記表示装置は、前記領域検出部による変形後の動画を、予め設定されたサイズで前記基準画像と対応する位置に表示することを特徴とする請求項17に記載の視線情報共有システム。
  21. 前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器と、前記表示装置による表示を制御する表示制御部とを含み、
    前記表示制御部は、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、前記表示装置で表示される画像が、前記第2端末の使用者から見て空間中の同じ位置に見えるように、前記第2端末側検出器の検出結果に応じて、前記画像の表示位置を移動させることを特徴とする請求項17から20のいずれかに記載の視線情報共有システム。
  22. 前記第2端末は、使用者の姿勢変化を検出する第2端末側検出器と、前記表示装置による表示を制御する表示制御部とを含み、
    前記表示制御部は、前記第2端末側検出器によって使用者の姿勢変化が検出されたときに、前記姿勢変化の検出結果と、前記第1端末で取得された前記動画からの前記領域の検出結果とに基づいて、前記第1端末で取得された前記動画内で前記基準画像に対応する領域から使用者の姿勢変化量と対応する量だけずれた範囲の動画を、前記表示装置において、前記領域の画像の表示位置から前記姿勢変化量と対応する量だけずれた位置に表示させることを特徴とする請求項17に記載の視線情報共有システム。
  23. 前記表示制御部は、画像の表示位置を移動させる前後での前記表示位置の変化率または変化量が、予め設定した変化率または変化量以下となるように、前記表示位置の移動を制御することを特徴とする請求項21または22に記載の視線情報共有システム。
  24. 前記領域検出部は、前記第1端末で取得された前記動画に対して、前記基準画像をキーとしたパターンマッチングを行うことによって前記領域を検出することを特徴とする請求項17から23のいずれかに記載の視線情報共有システム。
  25. 前記領域検出部は、前記第1端末で取得された前記動画に対して、前記基準画像に含まれる複数の分割画像をキーとしたパターンマッチングを行うことによって前記領域を検出するとともに、個々の前記分割画像のパターンマッチングの結果に応じて、検出した前記領域の動画を、該動画に含まれる撮影対象が所望の形状となるように変形することを特徴とする請求項17、18、20から23のいずれかに記載の視線情報共有システム。
  26. 前記第1端末は、使用者に観察可能な画像を提示する表示装置とを含み、
    前記演算部は、時間的にずれて行われる各パターンマッチングの結果に基づいて、前記第1端末での撮影によって取得された前記動画上での、検出された前記領域の位置の変化量を検出し、上記変化量と、前記第2端末の使用者の前記注視位置と、前記第1端末の前記撮像装置の前記撮像特性および前記表示装置の前記表示特性とに基づいて、前記第1端末における前記マーカーの表示位置を決定することを特徴とする請求項24または25に記載の視線情報検出システム。
  27. 前記第1端末は、使用者の姿勢変化を検出する第1端末側検出器を含み、
    前記領域検出部は、前記第1端末側検出器による姿勢変化の検出結果に応じて、前記第1端末で取得された前記動画中で、パターンマッチングを行う範囲を変化させることを特徴とする請求項24から26のいずれかに記載の視線情報共有システム。
  28. 前記複数の情報入出力端末は、前記第1端末および前記第2端末にて取得される情報を管理する管理サーバーを含み、
    前記管理サーバーが、前記保持部を含むことを特徴とする請求項17から27のいずれかに記載の視線情報共有システム。
  29. 前記管理サーバーが、前記領域検出部および前記演算部を含むことを特徴とする請求項28に記載の視線情報共有システム。
  30. 前記第2端末は、シースルー型のヘッドマウントディスプレイであることを特徴とする請求項17から29のいずれかに記載の視線情報共有システム。
  31. 前記第2端末は、外界を撮影して画像を取得する第2端末側撮像装置をさらに含み、
    前記保持部は、前記第2端末の使用者が静止した状態で、前記第2端末での撮影によって事前に取得された静止画の一部を、第2端末側基準画像として保持し、
    前記領域検出部は、前記第2端末での撮影によって動画が取得されたときに、前記動画から、前記第2端末側基準画像に対応する領域を検出し、
    前記第1端末は、前記領域検出部にて検出された前記領域を表す画像を表示することを特徴とする請求項30に記載の視線情報共有システム。
  32. 前記第1端末は、第1端末側表示装置と、前記第1端末側表示装置によって表示された画像に対する使用者の視線方向を検出して注視位置を求める第1端末側視線検出装置とを含み、
    前記演算部は、前記領域検出部によって検出された前記領域を表す画像が前記第1端末で表示され、前記第1端末側視線検出装置によって表示画像に対する使用者の視線方向を検出して注視位置が求められたときに、前記領域検出部による前記領域の検出結果と、前記第1端末の使用者の前記注視位置と、前記第2端末の撮像特性および表示特性とに基づいて、前記第2端末における、前記注視位置を示すマーカーの表示位置を算出し、
    前記第2端末の前記表示装置は、算出された前記表示位置に前記マーカーを表示することを特徴とする請求項31に記載の視線情報共有システム。
JP2017080751A 2017-04-14 2017-04-14 視線情報共有方法および視線情報共有システム Withdrawn JP2018182570A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017080751A JP2018182570A (ja) 2017-04-14 2017-04-14 視線情報共有方法および視線情報共有システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017080751A JP2018182570A (ja) 2017-04-14 2017-04-14 視線情報共有方法および視線情報共有システム

Publications (1)

Publication Number Publication Date
JP2018182570A true JP2018182570A (ja) 2018-11-15

Family

ID=64276188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017080751A Withdrawn JP2018182570A (ja) 2017-04-14 2017-04-14 視線情報共有方法および視線情報共有システム

Country Status (1)

Country Link
JP (1) JP2018182570A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021010101A (ja) * 2019-07-01 2021-01-28 株式会社日立製作所 遠隔作業支援システム
WO2021090625A1 (ja) * 2019-11-08 2021-05-14 株式会社日立エルジーデータストレージ 映像表示装置及び映像表示システム
KR20210142492A (ko) * 2020-05-18 2021-11-25 주식회사 피앤씨솔루션 프로젝터 모드를 포함하는 머리 착용형 디스플레이 장치
JP2022142517A (ja) * 2021-03-16 2022-09-30 日産自動車株式会社 画像表示制御装置、画像表示制御システム及び画像表示制御方法
JP2023056918A (ja) * 2021-10-08 2023-04-20 株式会社日本ブレーン 表示装置及び表示システム
JP2024017145A (ja) * 2022-07-27 2024-02-08 レノボ・シンガポール・プライベート・リミテッド 教育支援システム、教育支援方法、及び教育支援プログラム
WO2024057783A1 (ja) * 2022-09-16 2024-03-21 ソニーグループ株式会社 360度画像視点位置同定部を備える情報処理装置
WO2024201814A1 (ja) * 2023-03-29 2024-10-03 マクセル株式会社 映像共有システム及び映像共有方法
WO2025126667A1 (ja) * 2023-12-12 2025-06-19 ソニーグループ株式会社 情報処理方法、および情報処理装置、並びにプログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7372061B2 (ja) 2019-07-01 2023-10-31 株式会社日立製作所 遠隔作業支援システム
JP2021010101A (ja) * 2019-07-01 2021-01-28 株式会社日立製作所 遠隔作業支援システム
WO2021090625A1 (ja) * 2019-11-08 2021-05-14 株式会社日立エルジーデータストレージ 映像表示装置及び映像表示システム
US12306427B2 (en) 2019-11-08 2025-05-20 Hitachi-Lg Data Storage, Inc. Video display device and video display system
KR102410872B1 (ko) 2020-05-18 2022-06-21 주식회사 피앤씨솔루션 프로젝터 모드를 포함하는 머리 착용형 디스플레이 장치
KR20210142492A (ko) * 2020-05-18 2021-11-25 주식회사 피앤씨솔루션 프로젝터 모드를 포함하는 머리 착용형 디스플레이 장치
JP2022142517A (ja) * 2021-03-16 2022-09-30 日産自動車株式会社 画像表示制御装置、画像表示制御システム及び画像表示制御方法
JP7646403B2 (ja) 2021-03-16 2025-03-17 日産自動車株式会社 画像表示制御装置、画像表示制御システム及び画像表示制御方法
JP2023056918A (ja) * 2021-10-08 2023-04-20 株式会社日本ブレーン 表示装置及び表示システム
JP7464933B2 (ja) 2021-10-08 2024-04-10 株式会社日本ブレーン 表示装置及び表示システム
JP2024017145A (ja) * 2022-07-27 2024-02-08 レノボ・シンガポール・プライベート・リミテッド 教育支援システム、教育支援方法、及び教育支援プログラム
JP7500664B2 (ja) 2022-07-27 2024-06-17 レノボ・シンガポール・プライベート・リミテッド 教育支援システム、教育支援方法、及び教育支援プログラム
WO2024057783A1 (ja) * 2022-09-16 2024-03-21 ソニーグループ株式会社 360度画像視点位置同定部を備える情報処理装置
WO2024201814A1 (ja) * 2023-03-29 2024-10-03 マクセル株式会社 映像共有システム及び映像共有方法
WO2025126667A1 (ja) * 2023-12-12 2025-06-19 ソニーグループ株式会社 情報処理方法、および情報処理装置、並びにプログラム

Similar Documents

Publication Publication Date Title
US11231897B2 (en) Display system, display device, information display method, and program
JP2018182570A (ja) 視線情報共有方法および視線情報共有システム
US9898868B2 (en) Display device, method of controlling the same, and program
US10564919B2 (en) Display system, display apparatus, method for controlling display apparatus, and program
US10162412B2 (en) Display, control method of display, and program
JP6089705B2 (ja) 表示装置、および、表示装置の制御方法
JP7087481B2 (ja) 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
US10874284B2 (en) Display control device, display device, surgical endoscopic system and display control system
US10445573B2 (en) Gaze detection device
TWI615631B (zh) 頭部配戴型顯示裝置及頭部配戴型顯示裝置之控制方法
CN108508603B (zh) 头部佩戴型显示装置及其控制方法、以及记录介质
JP6492531B2 (ja) 表示装置、及び、表示装置の制御方法
JP6590050B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2017102768A (ja) 情報処理装置、表示装置、情報処理方法、及び、プログラム
JP2016224086A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6554948B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
US20160021360A1 (en) Display device, method of controlling display device, and program
JP2018170554A (ja) ヘッドマウントディスプレイ
JP2017134575A (ja) 表示装置、表示装置の制御方法、及び、プログラム
US11635625B2 (en) Virtual image display device and optical unit
WO2016101861A1 (zh) 头戴式显示装置
JP6540426B2 (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
WO2018147084A1 (ja) 視線情報共有方法および視線情報共有システム
JP2016090853A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2016031373A (ja) 表示装置、表示方法、表示システム、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20200930