[go: up one dir, main page]

JP2018018449A - 情報処理システム、操作方法及び操作プログラム - Google Patents

情報処理システム、操作方法及び操作プログラム Download PDF

Info

Publication number
JP2018018449A
JP2018018449A JP2016150599A JP2016150599A JP2018018449A JP 2018018449 A JP2018018449 A JP 2018018449A JP 2016150599 A JP2016150599 A JP 2016150599A JP 2016150599 A JP2016150599 A JP 2016150599A JP 2018018449 A JP2018018449 A JP 2018018449A
Authority
JP
Japan
Prior art keywords
sight
line
user
unit
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016150599A
Other languages
English (en)
Inventor
大和 金子
Yamato Kaneko
大和 金子
ロックラン ウィルソン
Wilson Lochlainn
ロックラン ウィルソン
由香 小島
Yuka Kojima
由香 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fove Inc
Original Assignee
Fove Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fove Inc filed Critical Fove Inc
Priority to JP2016150599A priority Critical patent/JP2018018449A/ja
Priority to TW106125641A priority patent/TW201807540A/zh
Priority to KR1020170095958A priority patent/KR20180013790A/ko
Priority to US15/663,123 priority patent/US20180032134A1/en
Priority to CN201710637172.3A priority patent/CN107665041A/zh
Publication of JP2018018449A publication Critical patent/JP2018018449A/ja
Priority to US16/906,880 priority patent/US20200319709A1/en
Priority to US16/928,601 priority patent/US20200379555A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】情報処理装置における操作性を向上させる。【解決手段】情報処理システムは、表示部に画像を表示する表示処理部と、表示部に表示される画像を視認するユーザの視線を検出する検出部と、所定の視線の動きと、所定の視線の動きに応じて予め設定された操作信号とが対応づけられた対応データを参照して、検出部で検出されたユーザの視線の動きに対応する操作信号を抽出する抽出部と、抽出部で抽出された操作信号に応じた操作を実行する実行部とを備える。【選択図】図4

Description

この発明は、操作を実行する情報処理システム、操作方法及び操作プログラムに関し、ユーザの視線データに応じた操作を実行する技術に関する。
情報技術の進歩に伴い、コンピュータを小型化することが可能となり、様々な情報処理装置が開発されている。その一つとして、ウェアラブルコンピュータの普及が進んでいる。ウェアラブルコンピュータは、小型であり、ユーザが装着して簡単に持ち運ぶことが可能であるという特徴がある。例えば、腕時計型のウェアラブルコンピュータは、ユーザが腕に装着して利用することが可能である。また例えば、眼鏡型のウェアラブルコンピュータは、ユーザが顔に装着して利用することが可能である。
ウェアラブルコンピュータは、装着可能な形状に形成される。したがって、ウェアラブルコンピュータの入力装置及び出力装置は、この装着可能な形状に合わせて構成される。また、ウェアラブルコンピュータは、ユーザが装着した上で入力操作を行う。したがって、パーソナルコンピュータや携帯電話機等の入力装置及び出力装置として利用される操作ボタン、キーボード、マウス、タッチパネル又は液晶ディスプレイ等を使用する方法とは異なる入力方法や出力方法が利用されることもある。
このような、ウェアラブルコンピュータにおいて、操作を容易にすることも検討されている(例えば、特許文献1及び2参照)。特許文献1に記載の方法では、ウェアラブルコンピュータに備えられる操作スイッチを利用して操作を行うようにしている。また、特許文献2に記載の方法では、ユーザの手の動作を検出し、手のある位置の仮想のパネルを選択可能とすることで、ユーザが選択するパネルに応じた操作を行うことができる。
他方、眼鏡型のウェアラブルコンピュータでは、ユーザが装着した場合にユーザの視界を遮るものも多い。すなわち、通常の眼鏡で考えると、眼鏡のレンズの位置に、画像データを表示するためのディスプレイが配置され、これによりユーザは周囲を見難くなったり、見ることができない状態になるものもある。また、このような状況において、手を利用して操作スイッチを操作したり、手を前後に動かして仮想のパネルを選択するのが難しいこともある。
特開2003−289484号公報 特開2010−146481号公報
上述したように、情報処理装置における操作性の向上が課題となっている。
本発明は、上記問題に鑑みてなされたものであり、情報処理装置において、操作性を向上させることのできる情報処理システム、操作方法及び操作プログラムを提供することを目的とする。
本発明の一態様に係る情報処理システムは、表示部に画像を表示する表示処理部と、表示部に表示される画像を視認するユーザの視線を検出する検出部と、所定の視線の動きと、所定の視線の動きに応じて予め設定された操作信号とが対応づけられた対応データを参照して、検出部で検出されたユーザの視線の動きに対応する操作信号を抽出する抽出部と、抽出部で抽出された操作信号に応じた操作を実行する実行部とを備える。
また、対応データに含まれる所定の視線の動きのうち、ユーザの視線の動きに対応する所定の視線の動きを決定する決定部をさらに含み、抽出部は、決定部が決定した所定の視線の動きに対応する操作信号を、ユーザの視線の動きに対応する操作信号として抽出してもよい。
また、画像は、前記操作信号と関連付けられるアイコンを含み、検出部で検出されるユーザの視線の動きが、アイコンを目視して行われる所定の視線の動きであるか否かを決定する決定部をさらに含み、実行部は、決定部が所定の視線の動きであると決定したことに応じて、アイコンに関連付けられた操作信号に応じた操作を実行してもよい。
また、情報処理システムは、ヘッドマウントディスプレイシステムでもよい。
本発明の一態様に係る操作方法は、表示部に画像を表示するステップと、表示部に表示される画像を視認するユーザの視線を検出するステップと、所定の視線の動きと、当該所定の視線の動きに応じて予め設定された操作信号とが対応づけられた対応データを参照して、検出された前記ユーザの視線の動きに対応する操作信号を抽出するステップと、抽出された前記操作信号に応じた操作を実行するステップとを有する。
本発明の一態様に係る操作プログラムは、情報処理装置を、表示部に画像を表示する表示処理機能と、表示部に表示される画像を視認するユーザの視線を検出する検出機能と、所定の視線の動きと、当該所定の視線の動きに応じて予め設定された操作信号とが対応づけられた対応データを参照して検出されたユーザの視線の動きに対応する操作信号を抽出する抽出機能と、抽出された操作信号に応じた操作を実行する実行機能として実行させる。
本発明の一態様に係る情報処理システムは、表示領域に複数のデータ群を表示可能な表示処理部と、表示領域を視認するユーザの視線データを取得する取得部と、複数のデータ群のうち、取得部が取得した視線データから、ユーザに注目される注目データ群を特定する特定部と、ユーザによって入力装置を介して入力される操作信号を、特定部によって特定された注目データ群に対する操作信号として受け付ける受付部とを備える。
また、表示処理部は、特定部で特定された注目データ群を表示領域のうち、中央に位置するように表示してもよい。
また、表示処理部は、特定部で特定された注目データ群を表示領域において、他のデータ群よりも大きく表示してもよい。
また、表示処理部は、特定部で特定された注目データ群を表示領域において、複数のデータ群において、最前面に表示してもよい。
また、データ群は、データを含むウィンドウ画面であってもよい。
また、表示領域は、ディスプレイであってもよい。
また、表示システムは、ヘッドマウントディスプレイシステムであってもよい。
本発明の一態様に係る表示方法は、表示領域に複数のデータ群を表示する表示ステップと、表示領域を視認するユーザの視線データを取得する取得ステップと、複数のデータ群のうち、取得ステップで取得した視線データから、ユーザに注目される注目データ群を特定する特定ステップと、ユーザによって入力装置を介して入力される操作信号を、特定ステップによって特定された注目データ群に対する操作信号として受け付ける受付ステップとを備える。
本発明の一態様に係る表示プログラムは、情報処理装置を、表示領域に複数のデータ群を表示する表示機能と、表示領域を視認するユーザの視線データを取得する取得機能と、複数のデータ群のうち、取得機能が取得した視線データから、ユーザに注目される注目データ群を特定する特定機能と、ユーザによって入力装置を介して入力される操作信号を、特定機能によって特定された注目データ群に対する操作信号として受け付ける受付機能として実行させる。
本発明によれば、ユーザの視線の動きに応じて情報処理システムを操作することができる。
第1実施形態に係るヘッドマウントディスプレイをユーザが装着した様子を示す外観図である。 第1実施形態に係るヘッドマウントディスプレイの画像表示系の概観を模式的に示す斜視図である。 第1実施形態に係るヘッドマウントディスプレイの画像表示系の光学構成を模式的に示す図である。 第1実施形態に係るヘッドマウントディスプレイシステムの構成を示すブロック図である。 (a)〜(d)は、第1実施形態に係るヘッドマウントディスプレイシステムで検出されるユーザの視線の動きの一例であり、(e)〜(h)は、対応する操作信号の一例である。 (a)〜(c)は、第1実施形態に係るヘッドマウントディスプレイシステムで利用する対応データの一例である。 (a)及び(b)は、第1実施形態に係るヘッドマウントディスプレイシステムにおける処理を説明するフローチャートである。 第1実施形態に係るヘッドマウントディスプレイシステムの視線方向の検出のためのキャリブレーションを説明する模式図である。 ユーザの角膜の位置座標を説明する模式図である。 ヘッドマウントディスプレイシステムの回路構成を示すブロック図である。 第2実施形態に係るヘッドマウントディスプレイシステムの構成を示すブロック図である。 第2実施形態に係るヘッドマウントディスプレイシステムにおける処理を説明するフローチャートである。 (a)〜(c)は、第2実施形態に係るヘッドマウントディスプレイシステムにおけるデータの表示例である。
以下に説明する情報処理システム、操作方法及び操作プログラムは、ユーザの視線データに応じ、操作を実行するものである。また、情報処理システム、表示方法及び表示プログラムは、ユーザの視線データに応じ、表示態様を変更させるものである。以下の各実施形態において、情報処理システムは、ヘッドマウントディスプレイシステムであるものとして説明する。しかしながら、本発明に係る情報処理システムは、ヘッドマウントディスプレイシステムに限らず、視線検出が可能な種々の情報処理装置で実現することができる。以下、図面を用いて本発明の各実施形態について説明する。なお、以下の説明において、同一の構成については同一の符号を用いて説明を省略する。
[第1実施形態]
第1実施形態に係るヘッドマウントディスプレイシステムは、ユーザの視線の動きを検出し、その動きに対応する操作を実行するものである。図1は、第1実施形態に係るヘッドマウントディスプレイシステム1の概観を模式的に示す図である。図1に示すように、ヘッドマウントディスプレイ100は、ユーザ300の頭部に装着して使用される。
視線検出装置200は、ヘッドマウントディスプレイ100を装着したユーザの右目及び左目の少なくとも一方の視線方向を検出し、ユーザの焦点、すなわち、ユーザがヘッドマウントディスプレイに表示されている三次元画像において注視している箇所を特定する。また、視線検出装置200は、ヘッドマウントディスプレイ100が表示する映像を生成する映像生成装置としても機能する。限定はしないが、一例として、視線検出装置200は、据え置き型のゲーム機、携帯ゲーム機、PC、タブレット、スマートフォン、ファブレット、ビデオプレイヤ、テレビ等の映像を再生可能な装置である。視線検出装置200は、ヘッドマウントディスプレイ100と無線または有線で接続する。図1に示す例では、視線検出装置200はヘッドマウントディスプレイ100と無線で接続している。視線検出装置200がヘッドマウントディスプレイ100との無線接続は、例えば既知のWi−Fi(登録商標)やBluetooth(登録商標)等の無線通信技術を用いて実現できる。限定はしないが、一例として、ヘッドマウントディスプレイ100と視線検出装置200との間における映像の伝送は、Miracast(商標)やWiGig(商標)、WHDI(商標)等の規格に則って実行される。また、それ以外の通信技術を利用してもよく、例えば、音波通信技術や光伝送技術を利用してもよい。
なお、図1は、ヘッドマウントディスプレイ100と視線検出装置200とが異なる装置である場合の例を示している。しかしながら、視線検出装置200はヘッドマウントディスプレイ100に内蔵されてもよい。
ヘッドマウントディスプレイ100は、筐体150、装着具160、およびヘッドフォン170を備える。筐体150は、画像表示素子などユーザ300に映像を提示するための画像表示系や、図示しないWi−FiモジュールやBluetooth(登録商標)モジュール等の無線伝送モジュールを収容する。装着具160は、ヘッドマウントディスプレイ100をユーザ300の頭部に装着する。装着具160は例えば、ベルトや伸縮性の帯等で実現できる。ユーザ300が装着具160を用いてヘッドマウントディスプレイ100を装着すると、筐体150はユーザ300の眼を覆う位置に配置される。このため、ユーザ300がヘッドマウントディスプレイ100を装着すると、ユーザ300の視界は筐体150によって遮られる。
ヘッドフォン170は、視線検出装置200が再生する映像の音声を出力する。ヘッドフォン170はヘッドマウントディスプレイ100に固定されなくてもよい。ユーザ300は、装着具160を用いてヘッドマウントディスプレイ100を装着した状態であっても、ヘッドフォン170を自由に着脱することができる。なお、ヘッドフォン170は、必須の構成ではない。
図2は、実施形態に係るヘッドマウントディスプレイ100の画像表示系130の概観を模式的に示す斜視図である。より具体的に、図2は、実施形態に係る筐体150のうち、ヘッドマウントディスプレイ100を装着したときにユーザ300の角膜302に対向する領域を示す図である。
図2に示すように、左目用凸レンズ114aは、ユーザ300がヘッドマウントディスプレイ100を装着したときに、ユーザ300の左目の角膜302aと対向する位置となるように配置される。同様に、右目用凸レンズ114bは、ユーザ300がヘッドマウントディスプレイ100を装着したときに、ユーザ300の右目の角膜302bと対向する位置となるように配置される。左目用凸レンズ114aと右目用凸レンズ114bとは、それぞれ左目用レンズ保持部152aと右目用レンズ保持部152bとに把持されている。
以下本明細書において、左目用凸レンズ114aと右目用凸レンズ114bとを特に区別する場合を除いて、単に「凸レンズ114」と記載する。同様に、ユーザ300の左目の角膜302aとユーザ300の右目の角膜302bとを特に区別する場合を除いて、単に「角膜302」と記載する。左目用レンズ保持部152aと右目用レンズ保持部152bとも、特に区別する場合を除いて「レンズ保持部152」と記載する。
レンズ保持部152には、複数の赤外光源103が備えられている。煩雑となることを避けるために、図2においてはユーザ300の左目の角膜302aに対して赤外光を照射する赤外光源をまとめて赤外光源103aで示し、ユーザ300の右目の角膜302bに対して赤外光を照射する赤外光源をまとめて赤外光源103bで示す。以下、赤外光源103aと赤外光源103bとを特に区別する場合を除いて「赤外光源103」と記載する。図2に示す例では、左目用レンズ保持部152aには6つの赤外光源103aが備えられている。同様に、右目用レンズ保持部152bにも6つの赤外光源103bが備えられている。このように、赤外光源103を凸レンズ114に直接配置せず、凸レンズ114を把持するレンズ保持部152に配置することにより、赤外光源103の取り付けが容易となる。一般にレンズ保持部152は樹脂等で構成されるため、ガラス等から構成される凸レンズ114よりも赤外光源103を取り付けるための加工が容易であるからである。
上述したように、レンズ保持部152は凸レンズ114を把持する部材である。したがって、レンズ保持部152に備えられた赤外光源103は、凸レンズ114の周囲に配置されることになる。なお、ここでは、それぞれの眼に対して赤外光を照射する赤外光源103を6つとしているが、この数はこれに限定されるものではなく、それぞれの眼に対応して少なくとも1つあればよく、2以上配されているのが望ましい。
図3は、実施形態に係る筐体150が収容する画像表示系130の光学構成を模式的に示す図であり、図3に示す筐体150を左目側の側面から見た場合の図である。画像表示系130は、赤外光源103、画像表示素子108、光学装置112、凸レンズ114、カメラ116、および通信制御部118を備える。
赤外光源103は、近赤外(700nm〜2500nm程度)の波長帯域の光を照射可能な光源である。近赤外光は、一般に、ユーザ300の肉眼では観測ができない非可視光の波長帯域の光である。
画像表示素子108は、ユーザ300に提示するための画像を表示する。画像表示素子108が表示する画像は、視線検出装置200内の表示処理部202が生成する。画像表示素子108は、例えば既知のLCD(Liquid Crystal Display)や有機ELディスプレイ(Organic Electro Luminescence Display)等を用いて実現できる。
光学装置112は、ユーザ300がヘッドマウントディスプレイ100を装着したときに、画像表示素子108とユーザ300の角膜302との間に配置される。光学装置112は、画像表示素子108が生成する可視光は透過するが、近赤外光は反射する性質を持つ。この光学装置112は、特定の周波数帯域の光を反射する特徴を持つものであり、例えば、プリズムやホットミラーである。
凸レンズ114は、光学装置112に対して、画像表示素子108の反対側に配置される。言い換えると、凸レンズ114は、ユーザ300がヘッドマウントディスプレイ100を装着したときに、光学装置112とユーザ300の角膜302との間に配置される。すなわち、凸レンズ114は、ヘッドマウントディスプレイ100がユーザ300に装着されたときに、ユーザ300の角膜302に対向する位置に配置される。
凸レンズ114は光学装置112を透過する画像表示光を集光する。このため、凸レンズ114は、画像表示素子108が生成する画像を拡大してユーザ300に提示する画像拡大部として機能する。なお、説明の便宜上、図3では凸レンズ114をひとつのみ示しているが、凸レンズ114は、種々のレンズを組み合わせて構成されるレンズ群であってもよいし、一方が曲率を持ち、他方が平面の片凸レンズであってもよい。
複数の赤外光源103は、凸レンズ114の周囲に配置されている。赤外光源103は、ユーザ300の角膜302に向けて赤外光を照射する。
図示はしないが、実施形態に係るヘッドマウントディスプレイ100の画像表示系130は画像表示素子108を二つ備えており、ユーザ300の右目に提示するための画像と左目に提示するための画像とを独立に生成することができる。このため、実施形態に係るヘッドマウントディスプレイ100は、ユーザ300の右目と左目とに、それぞれ右目用の視差画像と左目用の視差画像とを提示することができる。これにより、実施形態に係るヘッドマウントディスプレイ100は、ユーザ300に対して奥行き感を持った立体映像を提示することができる。
上述したように、光学装置112は、可視光を透過し、近赤外光を反射する。したがって、画像表示素子108が照射する画像光は光学装置112を透過してユーザ300の角膜302まで到達する。また赤外光源103から照射され、凸レンズ114の内部の反射領域で反射された赤外光は、ユーザ300の角膜302に到達する。
ユーザ300の角膜302に到達した赤外光は、ユーザ300の角膜302で反射され、再び凸レンズ114の方向に向かう。この赤外光は凸レンズ114を透過し、光学装置112で反射される。カメラ116は可視光を遮断するフィルタを備えており、光学装置112で反射された近赤外光を撮像する。すなわち、カメラ116は、赤外光源103から照射され、ユーザ300の眼で角膜反射された近赤外光を撮像する近赤外カメラである。
なお、図示はしないが、実施形態に係るヘッドマウントディスプレイ100の画像表示系130は、カメラ116を二つ、すなわち、右目で反射された赤外光を含む画像を撮像する第1撮像部と、左目で反射された赤外光を含む画像を撮像する第2撮像部とを備える。これにより、ユーザ300の右目及び左目の双方の視線方向を検出するための画像を取得することができる。
通信制御部118は、カメラ116が撮像した画像を、ユーザ300の視線方向を検出する視線検出装置200に出力する。具体的には、通信制御部118は、通信I/F110を介してカメラ116が撮像した画像を視線検出装置200に送信する。視線方向検出部として機能する検出部203の詳細については後述するが、視線検出装置200のCPU20が実行するユーザテスト画像表示プログラムPによって実現される。なお、ヘッドマウントディスプレイ100がCPUやメモリ等の計算リソースを持っている場合には、ヘッドマウントディスプレイ100のCPUが検出部を実現するプログラムを実行してもよい。
詳細は後述するが、カメラ116が撮像する画像には、ユーザ300の角膜302で反射された近赤外光に起因する輝点と、近赤外の波長帯域で観察されるユーザ300の角膜302を含む眼の画像とが撮像されている。
以上は、実施形態に係る画像表示系130のうち主にユーザ300の左目に画像を提示するための構成について説明したが、ユーザ300の右目に画像を提示するための構成は上記と同様である。
図4は、実施形態に係るヘッドマウントディスプレイシステム1の構成を説明するブロック図である。図4に示すように、ヘッドマウントディスプレイシステム1のヘッドマウントディスプレイ100は、通信インタフェース(I/F)110、通信制御部118、表示部121、赤外線照射部122、画像処理部123及び撮像部124を有する。
通信制御部118は、通信I/F110を介して視線検出装置200と通信を制御する。通信制御部118は、撮像部124または画像処理部123から伝送された視線検出に用いる画像データを視線検出装置200に送信する。また、通信制御部118は、視線検出装置200から送信された画像データやマーカー画像を表示部121に伝達する。画像データは、一例として、テストを表示するためのデータである。また、画像データは、三次元画像を表示するための右目用視差画像と、左目用視差画像とからなる視差画像対であってもよい。
表示部121は、通信制御部118から伝達された画像データを画像表示素子108に表示する機能を有する。表示部121は、画像データとして、テスト画像を表示する。また、表示部121は、表示処理部202から出力されたマーカー画像を画像表示素子108の指定されている座標に表示する。
赤外線照射部122は、赤外光源103を制御し、ユーザの右目又は左目に赤外光を照射する。
画像処理部123は、必要に応じて、撮像部124が撮像した画像に画像処理を行い、通信制御部118に伝達する。
撮像部124は、カメラ116を用いて、それぞれの目で反射された近赤外光を含む画像を撮像する。また、撮像部124は、画像表示素子108に表示されたマーカー画像を注視するユーザの眼を含む画像を撮像する。撮像部124は、撮像して得た画像を、通信制御部118又は画像処理部123に伝達する。
また、図4に示すように、視線検出装置200は、中央処理装置(CPU)20と、画像データ211、対応データ212及び操作プログラムPを記憶する記憶装置21と、通信I/F22と、操作ボタン、キーボード又はタッチパネル等の入力装置23と、ディスプレイ又はプリンタ等の出力装置24とを備える情報処理装置である。視線検出装置200は、記憶装置21に記憶される操作プログラムPが実行されることで、CPU20が、通信制御部201、表示処理部202、検出部203、決定部204、抽出部205、実行部206及び更新部207としての処理を実行する。
画像データ211は、ヘッドマウントディスプレイ100に表示するデータである。画像データ211は、二次元画像であっても、三次元画像であってもよい。また、画像データ211は、静止画像であっても動画像であってもよい。
対応データ212は、視線の動きと、当該動きに応じて予め設定された操作信号とを対応づけるデータである。この操作信号は、ヘッドマウントディスプレイシステム1内で何等かの処理を実行するための操作信号であってもよい。または、操作信号は、ヘッドマウントディスプレイシステム1がネットワークを介して接続される他の装置に対し何等かの処理を実行するための操作信号であってもよい。
図5(a)〜図5(d)に、所定の動きの例を示す。図5(a)は、視線が右回りの円を描く動きを示す。図5(b)は、右回りの正三角形を描く動きを示す。図5(c)において、(1)〜(3)の数字は、視線の動きの順序である。したがって、図5(c)は、視線が、下方向、上方向、下方向の順序で直線を描くような動きを示す。図5(d)でも(1)及び(2)の数字は、視線の動きの順序である。したがって、図5(d)でも、視線の動きが右方向、左方向で直線を描くような動きを示す。
例えば、対応データ212では、図5(a)に示す視線の動きに対し、記憶装置21に記憶される画像データ211における特定の画像Aの表示を実行する操作信号を関連付ける。また例えば、対応データ212では、図5(b)に示す視線の動きに対し、外部へのデータの送信を実行する操作信号を関連付ける。さらに、例えば、対応データ212では、図5(c)に示す視線の動きに対し、接続される他の装置Aの起動を実行する操作信号を関連づける。また例えば、対応データ212では、図5(d)に示す視線の動きに対し、プログラムAの起動を実行する操作信号を関連づける。
図6(a)〜図6(c)は、対応データ212の他の例を説明する一例である。図6(a)〜図6(c)に示す例は、送信対象である画像データの一例である。例えば、図5(b)に示す視線の動きが検出された後、図6(a)〜(c)に示す画像データを表示し、所定時間以上(例えば、15秒以上)注目された画像を他の装置への送信対象とすることができる。このような画像は、テキストメッセージと共に又はテキストメッセージの代わりに他の装置へ送信されるものである。他の装置では、送信された画像がこれらのメッセージとして表示される。
通信制御部201は、通信I/F22を介してヘッドマウントディスプレイ100とのデータの送受信を制御する。また、ヘッドマウントディスプレイシステム1に、ネットワークを介して他のサーバ装置等(図示せず)が接続されている場合、そのサーバ装置との通信を制御してもよい。
表示処理部202は、表示部121に画像を表示させる。具体的には、表示処理部202は、記憶装置21から画像データを読み出し、これに応じて、表示部121に画像を表示させる。
検出部203は、表示部121に表示される画像を視認するユーザの視線を検出し、視線データを生成する。また、検出部203は、視線データを決定部204に出力する。
決定部204は、検出部203から視線データが入力されると、記憶装置21から、対応データ212を読み出し、対応データ212に含まれる所定の動きのうち、入力された視線データの視線の動きを決定する。具体的には、決定部204は、入力された視線データで特定されるユーザの視線の動きが、図5(a)〜図5(d)に示すような動きのうち、何れであるかを決定する。なお、視線の動きは、対応データ212に含まれる視線の動き以外の動きであることもある。この場合、決定部204では、視線の動きを決定することはできない。
また、表示部121に表示される画像に操作信号と関連付けられるアイコンを含むとき、検出部203で検出されるユーザの視線の動きが、このアイコンを目視して行われる所定の動きであるか否かを決定してもよい。具体的には、決定部204は、ユーザがアイコンを見ながら図5(a)〜図5(d)に示すような動きをしたか否かを決定する。または、決定部204は、ユーザがアイコンを見ながら所定回数目を閉じたり開いたりしたか否かを決定する。この場合、対応データ212は、アイコンの識別子と、操作信号とが関連付けられる。
このとき、1のアイコンに1の操作信号のみを関連付けるのではなく、アイコンと視線の動きの組み合わせに操作信号を関連付けてもよい。仮に、アイコンA〜Eがあり、ユーザの視線の動きとして図5(a)〜図5(d)が登録されているとする。この場合、アイコンの種類『5』×視線の動きの種類『4』により、20種類の操作信号を対応データ212に登録することができる。
抽出部205は、決定部204でユーザの視線の動きが決定されると、対応データにおいて、この視線の動きに応じた操作信号を抽出する。
例えば、図5(a)〜図5(d)に、対応データ212として、それぞれ図5(e)〜図5(f)の操作信号が関連付けられているとする。この場合、決定部204が図5(a)のユーザの視線の動きを検出すると、抽出部205は、「画像Aを表示」する操作信号を抽出する。また、決定部204が図5(b)のユーザの視線の動きを検出すると、抽出部205は、「データを送信」する操作信号を抽出する。さらに、決定部204が図5(c)のユーザの視線の動きを検出すると、抽出部205は、「装置Aを起動」する操作信号を抽出する。また、決定部204が図5(d)のユーザの視線の動きを検出すると、抽出部205は、「プログラムAを起動」する操作信号を抽出する。
実行部206は、抽出部205で抽出された操作信号に応じた操作を実行する。
データ送信に対応付けられる動きが抽出部205によって抽出された後、図6(a)〜図6(c)の画像が表示され、ユーザによって、図6(a)の画像が、所定時間以上(例えば、15秒以上)注目されたものと検出されたとする。この場合、実行部206は、図6(a)の画像を、テキストメッセージと共に又はテキストメッセージの代わりに他の装置へ送信する処理を実行する。また、図6(b)の画像が、所定時間以上注目されたものと検出した場合、実行部206は、図6(b)の画像をテキストメッセージと共に又はテキストメッセージの代わりに他の装置へ送信する処理を実行する。さらに、図6(c)の画像が、所定時間以上注目されたものと検出した場合、実行部206は、図6(c)の画像をテキストメッセージと共に又はテキストメッセージの代わりに他の装置へ送信する処理を実行する。他の装置は、実行部206に送信されたこれらの画像を、メッセージとして表示する。
更新部207は、ユーザによって入力される操作に応じ、新たな視線の動きと操作信号との対応を追加して、対応データ212を更新する。具体的には、更新部207は、入力装置23を介して特定される操作信号と、検出部203で検出される視線の動きを組み合わせ、新たな関連付けとして追加することで、対応データ212を更新する。
なお、上述した視線検出装置200の各部のうち、決定部204、抽出部205及び実行部206は、外部のサーバ等の情報処理装置で実現することも可能である。また、これらの処理部204〜206を外部の情報処理装置で実現する場合、ヘッドマウントディスプレイシステム1の検出部203で検出される視線データを取得する取得部を情報処理装置で有し、決定部204は、この取得部が取得した視線データを用いて処理を実行する。
図7(a)に示すフローチャートを用いて、ヘッドマウントディスプレイシステム1における操作方法の処理について説明する。
ヘッドマウントディスプレイシステム1は、表示部121に画像が表示されている際に、ユーザの視線を検出する(S1)。
次に、ヘッドマウントディスプレイシステム1は、記憶装置21から対応データ212を読み出す(S2)。
また、ヘッドマウントディスプレイシステム1は、ステップS1で検出されたユーザの視線の動きが、対応データ212で操作信号と関連付けられる所定の動きであるか否かを判定する(S3)。
所定の動きであるとき(ステップS3でYES)、ヘッドマウントディスプレイシステム1は、対応データ212において、当該動きと関連付けられる操作信号を抽出する(S4)。
続いて、ヘッドマウントディスプレイシステム1は、ステップS4で抽出した操作信号に応じて、操作を実行する(S5)。
一方、検出されたユーザの視線の動きが所定の動きでないとき(ステップS3でNO)、ステップS1に戻り、処理を繰り返す。
また、図7(b)に示すフローチャートを用いて、ヘッドマウントディスプレイシステム1において対応データ212を更新する処理について説明する。例えば、ヘッドマウントディスプレイシステム1は、この更新処理を、入力装置23を介して、対応データ212を更新することが操作されたタイミングで開始することができる。この更新処理を操作する操作信号が対応データ212において登録されているとき、ヘッドマウントディスプレイシステム1は、この登録処理を操作する操作信号と関連付けられる視線の動きを検出したことで開始するようにしてもよい。
ヘッドマウントディスプレイシステム1は、更新処理を開始すると、ユーザの視線を検出する(S11)。
また、ヘッドマウントディスプレイシステム1は、入力装置23を介して、視線の動きと対応させる操作信号を入力する(S12)。なお、ステップS11の処理とステップS12の処理は、何れが先に実行されてもよい。
その後、ヘッドマウントディスプレイシステム1は、ステップS11で検出されたユーザの視線とS12で入力された操作信号とを関連付けて追加し、対応データ212を更新する(S13)。
このように、ヘッドマウントディスプレイシステム1では、視線の動きと操作信号とを対応させることで、ユーザは、視線の動きに応じて操作を実行することができる。言い換えれば、ハンズフリーにより、ユーザは種々の操作を実行することができるため、ヘッドマウントディスプレイシステム1において操作性を向上させることができる。また、ユーザは、自ら必要に応じて、視線の動きと操作信号とを関連付け、登録することができる。したがって、いわゆるショートカットキーのように、ユーザの希望に応じ、操作性を向上させることができる。
次に、実施形態に係る視線方向の検出について説明する。
図8は、実施形態に係る視線方向の検出のためのキャリブレーションを説明する模式図である。ユーザ300の視線方向は、カメラ116が撮像し通信制御部118が視線検出装置200に出力した映像を、視線検出装置200内の検出部203が解析することにより実現される。
表示処理部202は、図8に示すような点Q〜Qまでの9つの点(マーカー画像)を生成し、ヘッドマウントディスプレイ100の画像表示素子108に表示させる。視線検出装置200は、点Q〜点Qに到るまで順番にユーザ300に注視させる。このとき、ユーザ300は首を動かさずに極力眼球の動きのみで各点を注視するように求められる。カメラ116は、ユーザ300が点Q〜Qまでの9つの点を注視しているときのユーザ300の角膜302を含む画像を撮像する。
図9は、ユーザ300の角膜302の位置座標を説明する模式図である。視線検出装置200内の検出部203は、カメラ116が撮像した画像を解析して赤外光に由来する輝点105を検出する。ユーザ300が眼球の動きのみで各点を注視しているときは、ユーザがいずれの点を注視している場合であっても、輝点105の位置は動かないと考えられる。そこで検出部203は、検出した輝点105をもとに、カメラ116が撮像した画像中に2次元座標系306を設定する。
検出部203はまた、カメラ116が撮像した画像を解析することにより、ユーザ300の角膜302の中心Pを検出する。これは例えばハフ変換やエッジ抽出処理等、既知の画像処理を用いることで実現できる。これにより、検出部203は、設定した2次元座標系306におけるユーザ300の角膜302の中心Pの座標を取得検出できる。
図8において、画像表示素子108が表示する表示画面に設定された2次元座標系における点Q〜点Qの座標をそれぞれQ(x,y,Q(x,y・・・,Q(x,xとする。各座標は、例えば各点の中心に位置する画素の番号となる。また、ユーザ300が点Q〜点Qを注視しているときの、ユーザ300角膜302の中心Pを、それぞれ点P〜Pとする。このとき、2次元座標系306における点P〜Pの座標をそれぞれP(X,Y,P(X,Y,・・・,P(Z,Yとする。なお、Tはベクトルまたは行列の転置を表す。
いま、2×2の大きさの行列Mを以下の式(1)のように定義する。
Figure 2018018449
このとき、行列Mが以下の式(2)を満たせば、行列Mはユーザ300の視線方向を画像表示素子108が表示する画像面に射影する行列となる。
=MQ (N=1,・・・,9) (2)
上記式(2)を具体的に書き下すと以下の式(3)のようになる。
Figure 2018018449
式(3)を変形すると以下の式(4)を得る。
Figure 2018018449
ここで、
Figure 2018018449
とおくと、以下の式(5)を得る。
y=Ax (5)
式(5)において、ベクトルyの要素は検出部203が画像表示素子108に表示させる点Q〜Qの座標であるため既知である。また、行列Aの要素はユーザ300の角膜302の頂点Pの座標であるため取得できる。したがって、検出部203は、ベクトルyおよび行列Aを取得することができる。なお、変換行列Mの要素を並べたベクトルであるベクトルxは未知である。したがって、行列Mを推定する問題は、ベクトルyと行列Aとが既知であるとき、未知ベクトルxを求める問題となる。
式(5)は、未知数の数(すなわちベクトルxの要素数4)よりも式の数(すなわち、検出部203がキャリブレーション時にユーザ300に提示した点Qの数)が多ければ、優決定問題となる。式(5)に示す例では、式の数は9つであるため、優決定問題である。
ベクトルyとベクトルAxとの誤差ベクトルをベクトルeとする。すなわち、e=y−Axである。このとき、ベクトルeの要素の二乗和を最小にするという意味で最適なベクトルxoptは、以下の式(6)で求められる。
opt=(AA)−1y (6)
ここで「−1」は逆行列を示す。
検出部203は、求めたベクトルxoptの要素を用いることで、式(1)の行列Mを構成する。これにより、検出部203は、ユーザ300の角膜302の頂点Pの座標と行列Mとを用いることで、式(2)にしたがい、ユーザ300の右目が画像表示素子108に表示される動画像上のどこを注視しているかを推定できる。ここで、検出部203は、更に、ユーザの眼と、画像表示素子108間の距離情報をヘッドマウントディスプレイ100から受信し、その距離情報に応じて、推定したユーザが注視している座標値を修正する。なお、ユーザの眼と画像表示素子108との間の距離による注視位置の推定のずれは誤差の範囲として無視してもよい。これにより、検出部203は、画像表示素子108上の右目の注視点と、ユーザの右目の角膜の頂点とを結ぶ右目視線ベクトルを算出することができる。同様に、検出部203は、画像表示素子108上の左目の注視点と、ユーザの左目の角膜の頂点とを結ぶ左目視線ベクトルを算出することができる。なお、片目だけの視線ベクトルで2次元平面上でのユーザの注視点を特定することができ、両眼の視線ベクトルを得ることでユーザの注視点の奥行き方向の情報まで算出することができる。視線検出装置200はこのようにしてユーザの注視点を特定することができる。なお、ここに示した注視点の特定方法は一例であり、実施形態に示した以外の手法を用いて、ユーザの注視点を特定してもよい。
上記実施形態における視線検出に係る手法は、一例であり、上記ヘッドマウントディスプレイ100及び視線検出装置200による視線検出方法は、これに限られるものではない。
まず、上記実施形態においては、非可視光として近赤外光を照射する赤外光源を複数設ける例を示しているが、近赤外光をユーザの眼に照射する手法はこれに限られない。例えば、ヘッドマウントディスプレイ100の画像表示素子108を構成する画素について、近赤外光を発光するサブ画素を有する画素を設ける構成とし、それらの近赤外光を発光するサブ画素を選択的に発光させて、ユーザの眼に近赤外光を照射することとしてもよい。また、あるいは、画像表示素子108に換えて、ヘッドマウントディスプレイ100に網膜投影ディスプレイを備えるとともに、当該網膜投影ディスプレイで表示して、ユーザの網膜に投影する画像の中に、近赤外光色で発光する画素を含ませることで、近赤外光の照射を実現する構成としてもよい。画像表示素子108の場合にしても、網膜投影ディスプレイの場合にしても、近赤外光を発光させるサブ画素は、定期的に変更することとしてもよい。
また、上記実施形態において示した視線検出のアルゴリズムも上記実施形態に示した手法に限定されるものではなく、視線検出を実現できるのであれば、その他のアルゴリズムを用いてもよい。
上述した実施形態においては、ヘッドマウントディスプレイシステム1における各処理を、視線検出装置200のCPU20が操作プログラムPを実行することにより、実現するものとして説明した。一方、視線検出装置200において、CPUに代えて、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))、FPGA(Field Programmable gate array)、CPLD(Complex Programmable Logic Device)等に形成された論理回路(ハードウェア)や専用回路によって各処理を実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、上記実施形態に示した複数の機能部の機能を1つの集積回路により実現されることとしてもよい。LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。
すなわち、図10に示すように、視線検出装置200は、通信I/F22と、通信制御回路201a、表示処理回路202a、検出回路203a、決定回路204a、抽出回路205a及び実行回路206aを有する制御回路20aと、画像データ211、対応データ212及び操作プログラムPを記憶する記憶装置21から構成されてもよい。通信制御回路201a、表示処理回路202a、検出回路203a、決定回路204a、抽出回路205a及び実行回路206aは、操作プログラムPによって制御される。それぞれの機能は、上記実施形態に示した同様の名称を有する各部と同様である。
また、上記記憶装置21としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記検索プログラムは、当該検索プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記プロセッサに供給されてもよい。本発明は、上記映像表示プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
なお、上記プログラムは、例えば、ActionScript、JavaScript(登録商標)、Python、Rubyなどのスクリプト言語、C言語、C++、C#、Objective-C、Java(登録商標)などのコンパイラ言語、アセンブリ言語、RTL(Register Transfer Level)などを用いて実装できる。
[第2実施形態]
図11に示すブロック図を用いて、第2実施形態に係るヘッドマウントディスプレイシステム1Aについて説明する。第2実施形態に係るヘッドマウントディスプレイシステム1Aは、図4に示す第1実施形態に係るヘッドマウントディスプレイシステム1と比較して、視線検出装置200に代えて視線検出装置200Aを備える点で異なる。
また、図11に示す視線検出装置200Aは、図4を用いて上述した視線検出装置200と比較し、記憶装置21が画像データ211及び表示プログラムPAを記憶する点で異なる。また、視線検出装置200Aは、記憶装置21に記憶される表示プログラムPAが実行されることで、CPU20が、通信制御部201、表示処理部202、検出部203、取得部221、特定部222及び受付部223としての処理を実行する。
表示処理部202は、表示領域に複数のデータ群の表示が可能である。ここで、「表示領域」は、例えば、ディスプレイに相当する光学装置112又はディスプレイに相当する光学装置112に画像データを表示可能な範囲である。また、「データ群」は、関連するデータの集合であり、例えば、データを含むウィンドウ画面である。
表示処理部202は、特定部222で特定された注目データ群を表示領域のうち、中央に位置するように表示することができる。例えば、図12(a)に示すように、データ群A〜Dが表示される状態で、データ群Aが選択されたとする。この場合、表示処理部202は、図12(b)に示すように、選択されたデータ群Aをユーザの視界の範囲に相当する表示領域の中央に表示することができる。このとき、表示処理部202は、図12(b)に示すように、選択されたデータ群A以外のデータ群B〜Cを、データ群Aの周囲に表示することができる。
また、表示処理部202は、特定部222で特定された注目データ群を表示領域において、他のデータ群よりも大きく表示することができる。さらに、表示処理部202は、特定部222で特定された注目データ群を最前面に表示することができる。例えば、図12(a)に示すように、データ群A〜Dが表示される状態で、データ群Dが選択されたとする。この場合、表示処理部202は、図12(c)に示すように、選択されたデータ群Dを、選択される前の状態より大きく表示するとともに、最背面に表示していたデータ群Dを最前面に表示することができる。
ここで、図12で示す例が、二次元表示される場合だけでなく、三次元表示される場合も同様である。例えば、図12に示すデータ群A〜Dが、遠近感のある状態で表示される場合、選択されたデータ群を最もユーザの目の座標から最も近い位置に表示する。
取得部221は、検出部203から表示領域を視認するユーザの視線データを取得する。例えば、取得部211は、視線データとしてユーザの視認する位置の座標情報を取得する。表示処理部202が表示する画像が二次元画像であるとき、二次元座標位置を取得し、三次元画像であるとき、三次元座標位置を取得する。
特定部222は、複数のデータ群のうち、取得部221が取得した視線データから、ユーザに注目される注目データ群を特定する。例えば、特定部222は、取得した視線データの注目座標情報と、表示処理部202が表示するデータの表示座標情報とを比較し、注目座標情報を含む表示座標情報を特定する。
データ群がウィンドウ画面であるとき、特定部222は、取得部221が取得した座標に表示されるウィンドウ画面を特定し、特定したウィンドウ画面の識別情報を表示処理部202に出力する。これにより、表示処理部202により、選択されたウィンドウ画面が、ユーザに見やすいように表示される。具体的には、選択されたウィンドウ画面を、「中央に表示」、「大きく表示」又は「最前面に表示」することで、このウィンドウ画面を見やすくする。このとき、各表示方法を組み合わせて表示することができる。
受付部223は、ユーザによって入力装置23を介して入力される操作信号を、特定部221によって特定された注目データ群に対する操作信号として受け付ける。例えば、特定のウィンドウ画面が選択され、このときに入力装置23によって文字入力の操作が実行されると、このウィンドウ画面に対して文字入力が実行されたものとする。
図13に示すフローチャートを用いて、ヘッドマウントディスプレイシステム1Aにおける表示方法の処理について説明する。
ヘッドマウントディスプレイシステム1Aは、表示部121に画像が表示されている際に、ユーザの視線を検出する(S21)。
次に、ヘッドマウントディスプレイシステム1Aは、ユーザが注目する座標位置を取得する(S22)。
また、ディスプレイシステム1Aは、ステップS22で取得した座標位置に表示されるデータ群、すなわち、ユーザが注目するデータを特定する(S23)。
続いて、ヘッドマウントディスプレイシステム1Aは、ステップS23で特定されたデータをユーザに見やすくするように表示を変更する(S24)。例えば、特定されたデータを、「中央に位置するように表示」、「大きく表示」又は「最前面に表示」することで、ユーザに見やすくすることができる。
また、ヘッドマウントディスプレイシステム1Aは、ステップS23で特定されたデータに対し、操作を実行する(S25)。なお、ステップS24及びS25の処理の順序は、図13に示す順序に限定されず、同時に実行されてもよいしし、逆の順序で実行されてもよい。
ヘッドマウントディスプレイシステム1Aでは、データ表示を終了するまで(S26でYES)、ステップS21〜S25の処理を繰り返す。
なお、このヘッドマウントディスプレイシステム1Aにおける視線方向の検出は、例えば、図8及び図9を用いて上述した方法と同一であるため、説明を省略する。また、図示を用いた説明を省略するが、このヘッドマウントディスプレイシステム1Aも、図10を用いて上述したように、図11を用いて上述したCPUに代えて、通信制御回路、表示処理回路、検出回路、取得回路、特定回路及び受付回路を有する制御回路を用いてもよい。
また、ヘッドマウントディスプレイシステムは、図4を用いて上述した構成に加え、図11を用いて上述した構成を有し、視線データに応じた操作を実行するとともに、視線データに応じて表示対応を変更させることも可能である。
この発明は、ヘッドマウントディスプレイに利用可能である。
1 ヘッドマウントディスプレイシステム
100 ヘッドマウントディスプレイシステム
110 通信I/F
118 通信制御部
121 表示部
122 赤外線照射部
123 画像処理部
124 撮像部
200 視線検出装置
201 通信制御部
202 表示処理部
203 検出部
204 決定部
205 抽出部
206 実行部
211 画像データ
212 対応データ
P 操作プログラム

Claims (6)

  1. 表示部に画像を表示する表示処理部と、
    前記表示部に表示される画像を視認するユーザの視線を検出する検出部と、
    所定の視線の動きと、当該所定の視線の動きに応じて予め設定された操作信号とが対応づけられた対応データを参照して、前記検出部で検出された前記ユーザの視線の動きに対応する操作信号を抽出する抽出部と、
    前記抽出部で抽出された操作信号に応じた操作を実行する実行部と、
    を備える情報処理システム。
  2. 前記対応データに含まれる所定の視線の動きのうち、前記ユーザの視線の動きに対応する所定の視線の動きを決定する決定部をさらに含み、
    前記抽出部は、前記決定部が決定した所定の視線の動きに対応する操作信号を、前記ユーザの視線の動きに対応する操作信号として抽出する
    請求項1記載の情報処理システム。
  3. 前記画像は、前記操作信号と関連付けられるアイコンを含み、
    前記検出部で検出されるユーザの視線の動きが、前記アイコンを目視して行われる所定の視線の動きであるか否かを決定する決定部をさらに含み、
    前記実行部は、前記決定部が前記所定の視線の動きであると決定したことに応じて、前記アイコンに関連付けられた操作信号に応じた操作を実行する
    請求項1記載の情報処理システム。
  4. 前記情報処理システムは、ヘッドマウントディスプレイシステムである請求項1乃至3の何れか1項に記載の情報処理システム。
  5. 表示部に画像を表示するステップと、
    前記表示部に表示される画像を視認するユーザの視線を検出するステップと、
    所定の視線の動きと、当該所定の視線の動きに応じて予め設定された操作信号とが対応づけられた対応データを参照して、検出された前記ユーザの視線の動きに対応する操作信号を抽出するステップと、
    抽出された前記操作信号に応じた操作を実行するステップと、
    を有する操作方法。
  6. 情報処理装置を、
    表示部に画像を表示する表示処理機能と、
    前記表示部に表示される画像を視認するユーザの視線を検出する検出機能と、
    所定の視線の動きと、当該所定の視線の動きに応じて予め設定された操作信号とが対応づけられた対応データを参照して検出された前記ユーザの視線の動きに対応する操作信号を抽出する抽出機能と、
    抽出された前記操作信号に応じた操作を実行する実行機能と、
    して実行させる操作プログラム。
JP2016150599A 2016-07-29 2016-07-29 情報処理システム、操作方法及び操作プログラム Pending JP2018018449A (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2016150599A JP2018018449A (ja) 2016-07-29 2016-07-29 情報処理システム、操作方法及び操作プログラム
TW106125641A TW201807540A (zh) 2016-07-29 2017-07-28 信息處理系統、操作方法及操作程序
KR1020170095958A KR20180013790A (ko) 2016-07-29 2017-07-28 정보 처리 시스템, 조작 방법 및 조작 프로그램
US15/663,123 US20180032134A1 (en) 2016-07-29 2017-07-28 Information processing system, operation method, and operation program
CN201710637172.3A CN107665041A (zh) 2016-07-29 2017-07-31 信息处理系统、操作方法及操作程序
US16/906,880 US20200319709A1 (en) 2016-07-29 2020-06-19 Information processing system, operation method, and operation program
US16/928,601 US20200379555A1 (en) 2016-07-29 2020-07-14 Information processing system, operation method, and operation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016150599A JP2018018449A (ja) 2016-07-29 2016-07-29 情報処理システム、操作方法及び操作プログラム

Publications (1)

Publication Number Publication Date
JP2018018449A true JP2018018449A (ja) 2018-02-01

Family

ID=61009886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016150599A Pending JP2018018449A (ja) 2016-07-29 2016-07-29 情報処理システム、操作方法及び操作プログラム

Country Status (5)

Country Link
US (3) US20180032134A1 (ja)
JP (1) JP2018018449A (ja)
KR (1) KR20180013790A (ja)
CN (1) CN107665041A (ja)
TW (1) TW201807540A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021157681A (ja) * 2020-03-30 2021-10-07 株式会社エヌ・ティ・ティ・データ 簡易通信システム、簡易通信方法、及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018211414A1 (de) * 2018-07-10 2020-01-16 BSH Hausgeräte GmbH Verfahren zum Erkennen von Bewegungsformen
JP2023123197A (ja) * 2022-02-24 2023-09-05 キヤノン株式会社 電子機器

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9456744B2 (en) * 2012-05-11 2016-10-04 Digilens, Inc. Apparatus for eye tracking
GB2514603B (en) * 2013-05-30 2020-09-23 Tobii Ab Gaze-controlled user interface with multimodal input
WO2015081334A1 (en) * 2013-12-01 2015-06-04 Athey James Leighton Systems and methods for providing a virtual menu
US9532714B2 (en) * 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021157681A (ja) * 2020-03-30 2021-10-07 株式会社エヌ・ティ・ティ・データ 簡易通信システム、簡易通信方法、及びプログラム

Also Published As

Publication number Publication date
US20180032134A1 (en) 2018-02-01
US20200319709A1 (en) 2020-10-08
US20200379555A1 (en) 2020-12-03
CN107665041A (zh) 2018-02-06
KR20180013790A (ko) 2018-02-07
TW201807540A (zh) 2018-03-01

Similar Documents

Publication Publication Date Title
CN111630477B (zh) 提供增强现实服务的设备及其操作方法
US11755102B2 (en) User interface interaction paradigms for eyewear device with limited field of view
US20170344112A1 (en) Gaze detection device
US20180007258A1 (en) External imaging system, external imaging method, external imaging program
KR20180004018A (ko) 영상 표시 시스템, 영상 표시 방법, 영상 표시 프로그램
JP6485819B2 (ja) 視線検出システム、ずれ検出方法、ずれ検出プログラム
JPWO2016157485A1 (ja) ヘッドマウントディスプレイ
TW201802642A (zh) 視線檢測系統
KR20170141140A (ko) 헤드 마운트 디스플레이, 시선 검출 시스템
US10735620B2 (en) Image display system, image display method, and image display program
US20170371408A1 (en) Video display device system, heartbeat specifying method, heartbeat specifying program
US20200379555A1 (en) Information processing system, operation method, and operation program
US20240397033A1 (en) Hyper-connected and synchronized ar glasses
US20240126377A1 (en) Personalized calibration of user interfaces
JP2018107695A (ja) 推定システム、推定方法及び推定プログラム
US12282804B2 (en) Mobile device resource optimized kiosk mode
EP4396648A1 (en) Scan-based messaging for electronic eyewear devices
JP2017045068A (ja) ヘッドマウントディスプレイ

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180809

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181109

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190131