JP2019017800A - コンピュータプログラム、情報処理装置及び情報処理方法 - Google Patents
コンピュータプログラム、情報処理装置及び情報処理方法 Download PDFInfo
- Publication number
- JP2019017800A JP2019017800A JP2017140049A JP2017140049A JP2019017800A JP 2019017800 A JP2019017800 A JP 2019017800A JP 2017140049 A JP2017140049 A JP 2017140049A JP 2017140049 A JP2017140049 A JP 2017140049A JP 2019017800 A JP2019017800 A JP 2019017800A
- Authority
- JP
- Japan
- Prior art keywords
- user
- intersection
- screen
- gaze
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
【課題】表示装置の画面に表示されている表示情報に対するユーザの注意の度合いを正確に示す注視度分布を生成する情報処理コンピュータプログラムを提供する。【解決手段】コンピュータプログラムは、表示部13の画面13aに対するユーザの視線位置を検出し、検出した視線位置、または視線位置の近傍に表示される表示情報に基づいて、ユーザの注意の度合いを示す注視度分布の分布幅を決定して、画面13aに対する注視度分布を生成する、処理をプロセッサに実行させる。【選択図】図6
Description
本発明は、注視度分布を生成するコンピュータプログラム、情報処理装置及び情報処理方法に関する。
従来、表示装置の画面に表示されている表示情報に対するユーザの注意(関心)の度合いを、ヒートマップを用いて調べることが行われている。
表示情報に対するユーザの注意の度合いと、画面内の視線位置とは密接な関係があると考えられており、視線位置ごとに、注視時間を色の変化で表すヒートマップを作成することが提案されている(例えば、特許文献1〜4等参照)。これより、表示装置の画面に表示されている表示情報と注視時間との対応関係が視覚化されるので、ユーザが長い時間注視していた情報と、短い時間注視していた情報とを識別できる。
ところで、ユーザは、表示装置の画面に表示されている表示情報に視線を向けていても、注意を向けられているとは限らない。例えば、ユーザが周囲から聞こえる話し声に気を取られている場合には、ユーザの注意が、画面内の視線位置の表示情報に向けられていない場合がある。
このような場合には、表示装置の画面上の視線位置に基づいて、画面に表示されている表示情報に対するユーザの注意の度合いを正確に調べることは困難である。
そこで、本明細書では、表示装置の画面に表示されている表示情報に対するユーザの注意の度合いを正確に示す注視度分布を生成する情報処理プログラム、情報処理装置及び情報処理方法を提供することを課題とする。
本明細書に開示するコンピュータプログラムの一形態によれば、表示部の画面に対するユーザの視線位置を検出し、検出した視線位置、または視線位置の近傍に表示される表示情報に基づいて、ユーザの注意の度合いを示す注視度分布の分布幅を決定して、画面に対する注視度分布を生成する、処理をプロセッサに実行させる。
また、本明細書に開示する情報処理装置の一形態によれば、表示部の画面に対するユーザの視線位置を検出する検出部と、検出した視線位置、または視線位置の近傍に表示される表示情報に基づいて、ユーザの注意の度合いを示す注視度分布の分布幅を決定して、画面に対する注視度分布を生成する注視度分布算出部と、を有する処理部と、を備える。
更に、本明細書に開示する情報処理方法の一形態によれば、処理部が、表示部の画面に対するユーザの視線位置を検出することと、処理部が、検出した視線位置、または視線位置の近傍に表示される表示情報に基づいて、ユーザの注意の度合いを示す注視度分布の分布幅を決定して、画面に対する注視度分布を生成することと、を含む。
本明細書に開示する形態の一側面によれば、表示装置の画面に表示されている表示情報に対するユーザの注意の度合いを正確に示す注視度分布を生成できる。
以下、本明細書で開示する情報処理装置の好ましい一実施形態を、図を参照して説明する。但し、本発明の技術範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶものである。
図1は、本明細書に開示する情報処理装置の一実施形態を示す図である。
装置10は、プロセッサ11と、メモリ12と、表示装置13と、入力インターフェース14と、視線情報検知装置15と、通信インターフェース16を有する。プロセッサ11は、処理部又は処理装置の一例である。メモリ12は、記憶部又は記憶装置の一例である。
本実施形態の情報処理装置(以下、単に装置ともいう)10は、表示装置13の画面に表示情報を表示して、ユーザの視線位置ごとに、注意の度合いを示す注視度分布の重み及び分布幅を決定して注視度分布を生成する。本実施形態では、ユーザの視線位置は、ユーザの視線と表示部の画面との交差点である。
ユーザの視線が、表示装置13の画面に表示されている表示情報に向けられていても、ユーザの注意が向けられているとは限らない。例えば、ユーザが、周囲から聞こえる話し声に気を取られている場合には、ユーザの注意が、視線が向けられている表示情報に向けられていない場合がある。また、ユーザは、表示情報を注視して読んだ後に、読んだ情報に関して、自分の記憶した情報を呼び起こす精神活動を行う。このような精神活動を行っている時にも、ユーザの注意が画面に向けられていない場合がある。
ユーザの注意が、視線が向けられている表示情報に向けられていない場合のユーザの特徴として、ユーザの眼の焦点が、画面にあっていない場合がある。また、ユーザの注意の度合いは、文字の大きさ、フォント、単語の難易度、画像の大きさ又は後述する焦点ずれ量等の表示情報に対する視認の難易度による影響を受けると考えられる。
装置10は、上述した表示情報に対する視認の難易度に基づいて、ユーザの視線と表示部の画面との交差点ごとに、注意の度合いを示す注視度分布の重み及び分布幅を決定して、画面に対する注視度分布を生成する。
ユーザは、ユーザの画面の表示情報に対する注意の度合いが得られることにより、例えば、効果的な広告を作成するための情報とすることができる。また、ユーザは、ユーザが読んだ画面の表示情報に対して、注意を向けている部分と注意を向けていない部分とが視覚化されることにより、画面の表示情報に対する注意の度合いを、画面の表示情報に対する自分の注意の度合いを認識することの参考とすることができる。
装置10により生成される注視度分布の例を、図3(A)及び図3(B)を参照しながら、以下に説明する。
図3(A)は、表示装置13の画面13aに表示される表示情報を示す。表示情報は、文字の大きさが異なる文章と、複数の人を示す画像及び風景を示す画像を有する。
図3(B)は、ユーザが画面13aに視線を向けている時に生成された、ユーザの視線と表示部の画面との交差点ごとの注視度分布を、ヒートマップとして表示情報と重ねて画面13a上に表している。ヒートマップは、交差点ごとに注視度の大きさ及び広がりを有する注視度分布を、交差点の注視度の大きさにより色を変化させて生成される。
注視度分布を表す関数として、例えば、2次元のガウス分布関数を用いることができる。
2次元のガウス分布関数を用いて表された注視度分布関数は、例えば、下記式(1)で表される。
ここで、x、yは、画面上の交差点を示し、σx及びσyは、分散共分散行列の対角成分であり、σxyは、分散共分散行列の非対角成分である。σxは、注視度分布のx軸方向の標準偏差であり、x軸方向の分布幅を示す指標となる。σyは、注視度分布のy軸方向の標準偏差であり、y軸方向の分布幅を示す指標となる。本明細書では、以下、σx及びσyを、注視度分布関数の分布幅ともいう。また、本明細書では、以下、w(x、y)を、注視度分布関数の重みともいう。
x軸方向の注視度分布関数400は、図4に示すように、正規分布となる。
装置10は、ヒートマップを生成する際には、注視度分布関数の最大値を、カラーマップの最大値に対応させるので、規格化係数を用いていない。
装置10では、w(x、y)、σx及びσyは、ユーザの視線と表示部の画面との交差点における注意の度合いに応じて決定される。なお、従来技術では、w(x、y)、σx及びσyは、固定されていた。
画面においてユーザの注視密度の高い部分では、隣接する注視度分布関数の値が重なり合っており、ヒートマップ上では重なっている複数の注視度分布関数の値の和により、交差点の色が決定される。
また、装置10では、上述した注視度分布関数の重みw(x、y)及び分布幅σx、σyは、交差点又は交差点の近傍に表示される表示情報に基づいて決定される。本実施形態では、交差点の近傍は、ユーザの視線位置の近傍を意味する。
ここで、交差点の近傍は、ユーザの眼の中心視覚が交差点の向けられている時に、ユーザの眼の周辺視覚により視覚可能な範囲を含んでもよい。
装置10は、視線情報検知装置15を用いて、ユーザの視線方向を表す視線情報を検知する。視線情報は、ユーザの眼を含む画像を有する。また、装置10は、視線情報に基づいて、ユーザの視線方向、ユーザの視線と表示部の画面との交差点、ユーザが交差点を含む所定の領域内を注視している注視時間等の注視情報を求める。注視情報は、ユーザが交差点に視線を向けている時に、視線情報検知装置により視線情報と共に検知される情報である。
このように、装置10は、注視情報と、画面におけるユーザの複数の交差点又は交差点の近傍に表示される表示情報とに基づいて、注視度分布関数の重み及び/又は分布幅を決定する。
例えば、装置10は、注視情報に基づいて、ユーザの眼と画面13a間の距離と、ユーザの眼からユーザの眼の焦点までの距離との差に基づいて求められる焦点ずれ量を求める。そして、装置10は、焦点ずれ量に基づいて、文字のぼけ量又は画像のぼけ量を求めて、注視度分布関数の重み及び/又は分布幅を決定する。そして、装置10は、文字のぼけ量又は画像のぼけ量と、画面におけるユーザの交差点又は交差点の近傍に表示される表示情報とに基づいて、注視度分布関数の重み及び/又は分布幅を決定する。
次に、図5(A)〜図5(C)を参照しながら、注視情報に基づいて、ユーザの眼と画面13a間の距離と、ユーザの眼からユーザの眼の焦点までの距離との差に基づいて焦点ずれ量を求め、焦点ずれ量に基づいて文字のぼけ量を求めることを、以下に説明する。
図5(A)は、大きなサイズの文字を見た場合の焦点ずれ量を説明する図であり、図5(B)は、小さいサイズの文字を見た場合の焦点ずれ量を説明する図である。
装置10の表示装置13の画面13aには、「AB」という文字が表示されている。ユーザが両眼で画面13a上の「AB」という文字に視線を向けている。装置10は、ユーザの左右の眼の視線方向を、上述した視線情報検知装置15を用いて取得可能である。
ユーザの両眼の焦点が画面13aの位置P1とあっていない場合には、焦点の位置P2と、画面13aの位置P1との差である焦点ずれ量が生じる。
焦点ずれ量がゼロでない場合には、図5(C)に示すように、ユーザの右眼に写る文字の画像Riと、左眼に写る文字の画像Liとの間に画像のずれ量dが生じる。装置10は、右眼の視線と画面13aが交差する交差点CRと、左眼の視線と画面13aが交差する交差点CLと求め、2つの交差点の間の距離を、画像のずれ量dとして求める。
装置10は、下記式(3)に示すように、画像のずれ量dを文字の高さhで割った商(d/h)を、ユーザから見た画面のぼけ量として求める。ユーザから見た画面の文字の画像「AB」は、交差点CRにおいてユーザの右眼に写る文字の画像Riと、交差点CLにおいて左眼に写る文字の画像Liとが重なったものとなる。
右眼の視線と画面13aが交差する交差点CRに表示される表示情報に対して、左眼の視線と画面13aが交差する交差点CLに表示される表示情報は、交差点CRの近傍に表示される表示情報である。逆に、左眼の視線と画面13aが交差する交差点CLに表示される表示情報に対して、右眼の視線と画面13aが交差する交差点CRに表示される表示情報は、交差点CLの近傍に表示される表示情報である。
本実施形態では、右眼の視線と画面13aが交差する交差点CRに表示される表示情報に対して、左眼の視線と画面13aが交差する交差点CLに表示される表示情報を、交差点CRの近傍に表示される表示情報とする。
本実施形態では、交差点CRの近傍には、交差点CRから画像のずれ量dまでの範囲が含まれる。
画像のずれ量dは、画面13aに表示される文字の大きさに対して、独立した値である。
従って、図5(A)及び図5(B)に示すように、同じ焦点ずれ量であっても、文字のサイズが小さい場合の文字の画像のぼけ量(d/h)は、文字のサイズが大きい場合よりも大きくなるので、小さいサイズの文字は視認し難くなる。
なお、ユーザの両眼の焦点が画面13aの位置P1と一致していれば、焦点が画面13a上の交差位置(視線位置)となり、ユーザの右眼に写る文字の画像Riと、左眼に写る文字の画像Liとの間にずれはないので、文字のぼけも生じない。
しかしながら、ユーザは、表示装置13の画面13a上の全ての表示情報に対して焦点をあわせて、表示情報を注視するとは限られないので、通常、画面13aに表示される表示情報の内の少なくとも一部には文字のぼけが生じると考えられる。
次に、装置10の各ハードウェア構成要素について、以下に詳述する。
プロセッサ11は、一つまたは複数の演算回路と、周辺回路とを有する。プロセッサ11は、メモリ12に予め記憶されている所定のプログラム12aに従い、装置10の各ハードウェア構成要素の制御及び各種処理を行い、処理中に生じるデータを一時的に保存するためにメモリ12を利用する。
メモリ12は、ランダムアクセスメモリ(RAM)若しくはリードオンリーメモリ(ROM)等の半導体メモリ、又は磁気ディスク若しくはフラッシュメモリ等の不揮発性メモリを有していてもよい。また、メモリ12は、非一時的な記憶媒体12dに記憶されたプログラムを、読み出し可能なドライブ(図示せず)を有していてもよい。
図2(B)に示すように、メモリ12は、所定のプログラム12aと共に、表示装置13に表示される表示情報を含む表示情報データ12bと、取得されたユーザの視線情報を含む視線情報データ12cを記憶する。表示情報データ12bは、表示情報と関連付けられた、表示情報が表示装置13の画面上に表示される位置の情報も有する。
また、メモリ12は、ユーザの視線と表示部の画面との交差点を検出するために利用される各種のデータを記憶する。例えば、メモリ12は、プルキンエ像の重心に対する瞳孔重心の相対的な位置とユーザの視線方向との関係を表す参照テーブルを記憶する。更に、メモリ12は、視線情報検知装置15から得られたユーザの眼の画像、あるいは、その画像に基づいて検出されたキャリブレーション前の生の交差点の測定点の座標及び取得順番などを記憶する。また、メモリ12は、装置10を使用するユーザから見た画像のずれ量の平均的な範囲を記憶する。
表示装置13は、プロセッサ11に制御されて、装置10の動作に伴う各種の情報を画面上に表示可能である。表示装置13として、例えば、液晶ディスプレイを用いることができる。
入力インターフェース14は、装置10のユーザにより操作されて、操作を入力可能である。装置10は、入力インターフェース14として、例えばキーボード又はマウスを用いることができる。また、入力インターフェース14として、入力インターフェース14と表示装置13とが一体となったタッチパネルを用いてもよい。
視線情報検知装置15は、表示装置13の周囲に配置され、ユーザの視線方向を表す測定データ(視線情報)を所定の周期(例えば、1ミリ秒〜33ミリ秒)ごとに生成する。視線情報検知装置15は、生成した測定データをプロセッサ11へ出力する。
例えば、視線情報検知装置15は、赤外発光ダイオード15aと、CCD又はC−MOSといった赤外線に感度を持つイメージセンサと撮像光学系を含むカメラ15bとを有する。そして、視線情報検知装置15は、ユーザの眼の瞳孔と、赤外発光ダイオード15aから発した光が角膜で反射された角膜反射像(以下、プルキンエ像と呼ぶ)とが表された画像を、測定データとしてカメラ15bにより生成する。
本実施形態では、視線情報検知装置15は、表示装置13の上方又は下方又は側方に、表示装置13と対向するユーザへ向けて配置される。視線情報検知装置15が有する赤外発光ダイオード15aは、ユーザの眼を照明する。そして視線情報検知装置15が有するカメラ15bにより、表示装置13を見るユーザの両眼を含む、ユーザの顔全体あるいは顔の一部が写った画像が生成される。
通信インターフェース16は、例えば、図示しないネットワーク介して、情報の送受信を行う。通信インターフェース16は、送受信を行う通信回路及び通信線を有する。装置10は、例えば、プログラム、表示情報データ又は視線情報データを、通信インターフェース16を用いて送受信してもよい。
図2(A)に示すように、上述したプロセッサ11は、情報表示部11aと、視認度分布算出部11bと、交差点検出部11cと、注視度分布算出部11dを有する。
プロセッサ11が有するこれらの各部は、例えば、プロセッサ11上で動作するコンピュータプログラムにより実現される機能モジュールである。なお、プロセッサ11が有するこれらの各部は、それぞれ、別個の回路として、装置10に実装されてもよい。
情報表示部11aは、メモリ12に記憶される表示情報データを読み出して、表示装置13の画面13a上の所定の位置に表示する。
視認度分布算出部11bは、表示装置13の画面13a上の位置ごとに、画面13aに表示される表示情報に基づいて、表示情報に対する視認の難易度を示す視認度分布を作成する。
交差点検出部11cは、視線情報検知装置15により検知された視線情報に基づいて、ユーザの視線方向を求め、ユーザの視線方向に基づいて、ユーザの視線と表示部の画面13aとの交差点を求める。
注視度分布算出部11dは、視認度分布と、ユーザの視線と表示部の画面13aとの交差点及び/又は交差点の近傍に表示される表示情報とに基づいて、注視度分布の重み及び/又は分布幅を決定して、注視度分布関数を生成する。
次に、上述した装置10の第1実施形態の動作を、図6に示すフローチャートを参照しながら、以下に説明する。
まず、ステップS601において、プロセッサ11の情報表示部11aは、メモリ12に記憶される表示情報データ12bを読み出して、表示装置13の画面13a上の所定の位置に表示情報を表示する。例えば、情報表示部11aは、図7(B)に示すような文字情報である表示情報を、表示装置13の画面13aに表示する。
次に、ステップS603において、プロセッサ11の視認度分布算出部11bは、表示装置13の画面13aに表示情報が表示されているか否かを判断する。例えば、視認度分布算出部11bは、情報表示部11aから表示装置13の画面13aに表示情報を表示していることの通知を受けて、表示装置13の画面13aに表示情報が表示されているか否かを判断する。
視認度分布算出部11bは、表示装置13の画面13aに表示情報が表示されていると判断した場合(ステップS603−Yes)、表示装置13の画面13aに表示されている表示情報を取得する(ステップS605)。一方、表示装置13の画面13aに表示情報が表示されていないと判断した場合(ステップS603−No)、装置10は、処理を終了する。
次に、ステップS605の処理を、図7(A)に示すフローチャートを参照しながら、以下に説明する。
まず、ステップS701において、視認度分布算出部11bは、画面13aにおいて文字(画像)が表示されている領域を取得する。視認度分布算出部11bは、情報表示部11aから、画面13aに表示される文字(画像)、文字(画像)が表示されている画面13a内の位置、文字のサイズ、文字列の行間スペース及び文字間スペースの情報を受け取る。なお、視認度分布算出部11bは、情報表示部11aから、画面13aに表示されている文字の情報として、文字のフォント、文字(画像)を形成する画素の色情報(R、G、B)等も受け取ってもよい。表示装置13の画面13a内の位置は、例えば、左上の隅の画素の位置を原点として、水平方向にx軸を有し、垂直方向にy軸を有する二次元座標系で表される。なお、視認度分布算出部11bが、情報表示部11aから文字の画像の情報を取得する上述した説明は、視認度分布算出部11bが、文字以外の画像の情報を情報表示部11aから取得する動作にも適宜適用される。
図7(B)に示すように、視認度分布算出部11bは、情報表示部11aから受け取った情報に基づいて、文字が表示されている領域として、画面13a内の領域R1及び領域R2を取得する。
次に、ステップS703において、視認度分布算出部11bは、情報表示部11aから受け取った情報に基づいて、図7(C)に示すように、領域R1内の文字のサイズ及び領域R2内の文字のサイズを取得する。
次に、ステップS705において、視認度分布算出部11bは、情報表示部11aから受け取った情報に基づいて、図7(C)に示すように、領域R1内の文字列の行間スペース及び文字間スペース及び領域R2内の文字列の行間スペース及び文字間スペースを取得する。
以上が、ステップS605の説明である。
次に、ステップS607において、視認度分布算出部11bは、取得された表示情報に基づいて、表示情報に対する視認の難易度を示す視認度分布を生成する。
ステップS607の処理の詳細を、以下に説明する。
視認度分布算出部11bは、メモリ12に記憶されている装置10を使用するユーザから見た画像のずれ量drの平均的な範囲を取得する。そして、視認度分布算出部11bは、画像のずれ量drと、ステップS605において取得した表示情報に基づいて、隣接する2つの文字の画像に対して、ユーザから見た画面の推定されるぼけ量を、上記式(3)を用いて求める。そして、視認度分布算出部11bは、画像のずれ量drの平均的な範囲に対して、文字のぼけ量と画像のずれ量drとの関係を得る。
ユーザから見た画面の推定されるぼけ量は、図8(A)に示すように、ユーザの両眼面間の距離が短いと、文字のぼけ量は小さくなり、図8(B)に示すように、ユーザの両眼面間の距離が長いと、文字のぼけ量は大きくなる。
そして、視認度分布算出部11bは、文字のぼけ量と画像のずれ量drとの関係に基づいて、表示情報が表示される画面13aの位置ごとに視認度を求める。視認度は、文字のぼけ量がそれよりも大きくなると、表示情報が視認できなくなると推定される値である。視認度は、例えば、文字のサイズ、文字のフォント、又は文字間スペース等に基づいて決定され得る。
このようにして、視認度分布算出部11bは、画面13aの位置ごとに視認度を有する視認度分布を生成する。
以上が、ステップS607の説明である。
次に、ステップS609において、視認度分布算出部11bは、注視度分布関数の分布幅σx、σy、及び注視度分布関数の重みw(x、y)を初期値に設定して、注視度分布関数を初期化する。
次に、ステップS611において、プロセッサ11の交差点検出部11cは、視線情報検知装置15を用いて、ユーザの視線情報を取得する。視線情報検知装置15は、ユーザの眼を含む複数の画像を撮像する。
次に、ステップS613において、プロセッサ11の交差点検出部11cは、複数の画像(視線情報)のそれぞれについて、ユーザの視線と表示部の画面13aとの交差点を求める。また、交差点検出部11cは、交差点の経時的な移動を示す注視パターンを求めてもよい。例えば、注視パターンに基づいて、表示情報に対する読み返しの有無を調べることにより、ユーザの表示情報に対する注意の度合いを推定することができる。
以下、交差点検出部11cが、複数の画像(視線情報)それぞれについて、ユーザの視線と画面13aとが交差する交差点を求める動作について、詳述する。
交差点検出部11cは、視線情報検知装置15からプロセッサ11が画像を取得する度に、その画像上でユーザの眼が写っている領域を検出し、眼が写っている領域内でプルキンエ像及び瞳孔を検出する。そして交差点検出部11cは、プルキンエ像と瞳孔重心との位置関係に基づいて、ユーザの視線と画面13aとが交差する交差点を検出する。
交差点検出部11cは、先ず、眼が写っている領域を検出する。眼に相当する画素の輝度は、眼の周囲に相当する画素の輝度と大きく異なる。そこで交差点検出部11cは、画像内の各画素に対して、例えば、Sobelフィルタを用いて垂直方向の近傍画素間差分演算を行って垂直方向に輝度が変化するエッジ画素を検出する。そして交差点検出部11cは、例えば、エッジ画素が略水平方向に眼の大きさに相当する所定数以上連結された2本のエッジ線で囲まれた領域を眼の領域とする。あるいは、交差点検出部11cは、画像上の眼の像を表すテンプレートと、画像とのテンプレートマッチングにより、画像内でテンプレートに最も一致する領域を検出し、その検出した領域を眼の領域としてもよい。
更に、交差点検出部11cは、眼の領域内で瞳孔が写っている領域を検出する。本実施形態では、交差点検出部11cは、瞳孔に相当するテンプレートと眼の領域との間でテンプレートマッチングを行い、眼の領域内でテンプレートとの一致度が最も高くなる領域を検出する。そして交差点検出部11cは、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。
また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこで交差点検出部11cは、眼の領域内で、同心円状に半径の異なる2本のリングを設定する。そして交差点検出部11cは、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。交差点検出部11cは、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心の座標として算出する。
また交差点検出部11cは、眼の領域内で視線情報検知装置15が有する赤外発光ダイオード15aのプルキンエ像を検出する。交差点検出部11cは、プルキンエ像に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値をプルキンエ像の重心の座標として算出する。
瞳孔重心及びプルキンエ像の重心を検出すると、交差点検出部11cは、それらに基づいてユーザの視線方向を検出する。
角膜の表面は略球形であるため、視線方向によらず、視線情報検知装置15が有する光源のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、ユーザの視線方向に応じて移動する。そのため、交差点検出部11cは、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、ユーザの視線方向を検出できる。
本実施形態では、交差点検出部11cは、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして交差点検出部11cは、瞳孔重心の相対的な位置とユーザの視線方向との関係を表す参照テーブルを参照することにより、ユーザの視線方向を特定する。
交差点検出部11cは、ユーザの視線方向を検出すると、ユーザの視線方向及び想定されるユーザの眼と表示装置13間の位置関係に基づいて、ユーザの両眼の視線と画面とが交差する交差点を検出する。以下、交差点検出部11cの動作を具体的に説明する。
本実施形態では、交差点検出部11cは、実空間のユーザの両眼の間隔と、画像上のユーザの両眼の間隔と、カメラの焦点距離とにより、カメラとユーザの両眼それぞれまでの距離を推定する。交差点検出部11cは、画像上の両眼の位置から求まるカメラから両眼への方向と距離とにより、ユーザの両眼の実空間の位置を推定する。交差点検出部11cは、ユーザの両眼の実空間の位置と視線方向とに基づいて、ユーザの両眼の視線の交点を焦点(注視位置)として推定する。交差点検出部11cは、ユーザの両眼それぞれと焦点とを結んだ直線と画面との交差点を推定して、ユーザの両眼の視線と画面とが交差する交差点を検出する。
以上が、交差点検出部11cが、複数の画像(視線情報)それぞれについて、ユーザの視線と画面13aとが交差する交差点を求める動作の説明である。
次に、ステップS615において、プロセッサ11の注視度分布算出部11dは、表示装置13の画面13a上の交差点ごとに注視度分布関数の分布幅及び重みを求めて、注視度分布関数を生成する。
ステップS615の処理を、図9に示すフローチャートを参照しながら、以下に説明する。
ステップS901において、注視度分布算出部11dは、画面13a上の交差点ごとに、画面13a上の表示情報に基づいて、ユーザから見た画面の実際のぼけ量を求める。まず、注視度分布算出部11dは、注視情報に基づいて、交差点ごとに、ユーザの眼と画面13a間の距離と、ユーザの眼からユーザの眼の焦点までの距離との差に基づいて、焦点ずれ量を求める。そして、注視度分布算出部11dは、表示情報と、焦点ずれ量とを用いて、図5(A)〜図5(C)を参照して説明したのと同様の方法を用いて、ユーザから見た画像の実際のずれ量dを求める。そして、注視度分布算出部11dは、ずれ量dと、交差点の表示情報とに基づいて、上記式(3)を用いて、交差点におけるユーザから見た画面の実際のぼけ量を求める。
次に、注視度分布算出部11dは、ステップS903からステップS911の間の処理を、画面13a上の交差点ごとに行う。
ステップS905において、注視度分布算出部11dは、画面13a上の交差点のぼけ量(ユーザから見た画面の実際のぼけ量)が閾値th1(ユーザから見た画面の推定されるぼけ量)よりも大きいか否かを判断する。ここで、閾値th1は、交差点の視認度である。視認度は、上述したように、ぼけ量がそれよりも大きくなると、交差点に表示される表示情報が視認できなくなると推定される値である。
注視度分布算出部11dは、交差点のぼけ量が閾値th1以下の場合(ステップS905−No)には、交差点における注視度分布関数の分布幅及び重みを初期値に設定する。交差点のぼけ量が閾値th1以下の場合には、ユーザは、交差点に表示される表示情報を視認していると推定される。即ち、ユーザは、交差点に表示される表示情報に対する注意の度合いが高いと考えられる。
一方、注視度分布算出部11dは、交差点のぼけ量が閾値th1よりも大きい場合(ステップS905−Yes)には、注視度分布関数の分布幅及び重みを、ぼけ量に応じて、初期値よりも低減するように決定する。例えば、分布幅及び重みは、ぼけ量を閾値th1で割った値と比例するように決定してもよい。交差点のぼけ量が閾値th1よりも大きい場合には、ユーザは、交差点に表示される表示情報が十分に視認していないと推定される。即ち、ユーザは、交差点に表示される表示情報に対する注意の度合いが低いと考えられる。
ステップS903からステップS911の間の処理を繰り返すことにより、注視度分布関数が生成される。
以上が、ステップS615の説明である。
次に、ステップS617において、注視度分布算出部11dは、図3(B)に示すように、表示装置13の画面13aに表示情報と共に、注視度分布関数に基づいて注視度分布をヒートマップとして表示する。
上述した本実施形態の装置10によれば、表示装置13の画面13aに表示されている表示情報に対するユーザの注意の度合いを正確に示す注視度分布を、ヒートマップとして生成できる。これにより、ユーザの表示情報に対する注意の度合いを正確に視覚化することができる。
次に、上述した情報処理装置の動作の他の実施形態を、図10〜図17を参照しながら以下に説明する。他の実施形態について特に説明しない点については、上述の動作の第1実施形態に関して詳述した説明が適宜適用される。また、同一の構成要素には同一の符号を付してある。
まず、装置10の第2実施形態の動作を、以下に説明する。
図10は、本明細書に開示する第2実施形態の情報処理装置の表示装置の画面に表示される表示情報を示す図である。
本実施形態の装置10は、表示装置13の画面13aに表示情報として文章を表示しているが、視認度分布の求め方が、上述した第1実施形態とは異なる。
本実施形態でも、装置10は、図6に示すフローチャートに従って注視度分布関数を求めるが、上述した第1実施形態とは異なるステップの処理について、以下に説明する。
まず、ステップS601〜ステップS603の処理は、上述した第1実施形態と同様である。
次に、ステップS605において、視認度分布算出部11bは、表示装置13の画面13aに表示されている表示情報を取得する。視認度分布算出部11bは、情報表示部11aから、画面13aに表示される単語、単語が表示されている画面13a内の位置、単語を形成する文字のサイズの情報を受け取る。
次に、ステップS607において、視認度分布算出部11bは、取得された表示情報に基づいて、表示情報に対する視認の難易度を示す視認度分布を生成する。
まず、図11(A)に示すように、視認度分布算出部11bは、画面13aに表示される文章を形成する各単語の難易度を求める。単語の難易度は、一般の文章中にその単語の現れる頻度である。頻度が低い程高い値となり、難易度の高い単語となる。視認度分布算出部11bは、例えば、メモリ12に記憶されている単語と単語の難易度とが関連づけられた表を参照して、各単語の難易度を数値として求める。
そして、図11(B)に示すように、視認度分布算出部11bは、画面13aに表示される文章を形成する各単語の文字のサイズを求める。
そして、視認度分布算出部11bは、下記式(4)を用いて、画面13aにおける各単語が表示される位置の視認度Vを求めて、視認度分布を生成する。単語が表示されない領域の視認度Vはゼロである。
図12は、画面13a上の視認度分布を示す。なお、視認度分布算出部11bは、単語の難易度の組み合わせ(例えば、「This is」の単語の難易度の組み合わせは、「This」の難易度と、「is」の難易度との和で表される)に基づいて視認度分布を求めてもよい。
ステップS609〜ステップS613の処理は、上述した第1実施形態と同様である。
次に、ステップS615において、プロセッサ11の注視度分布算出部11dは、表示装置13の画面13a上の位置ごとに注視度分布関数の分布幅及び重みを求めて、注視度分布関数を生成する。
ステップS615の処理を、図13に示すフローチャートを参照しながら、以下に説明する。
注視度分布算出部11dは、ステップS1301からステップS1311の間の処理を、画面13a上の交差点ごとに行う。
ステップS1303において、注視度分布算出部11dは、交差点に対する注視時間が、係数A1と交差点の視認度Vとの積よりも小さいか否かを判断する。ユーザの注視時間は、一般に100〜500ミリ秒である。係数A1は、数A1と視認度Vとの積が、このような注視時間に対して、大きくなるように決定され得る。注視度分布算出部11dは、ユーザが交差点を含む所定の領域内に継続して視線を向けている複数の画像の枚数と、画像の撮像間隔との積として、注視時間を求め得る。そして、注視度分布算出部11dは、注視時間を求めるのに使用される複数の画像それぞれに基づいて求められた交差点に対して、求められた注視時間を、交差点に対する注視時間として用いる。
本実施形態では、交差点の近傍は、ユーザの眼の中心視覚が交差点の向けられている時に、ユーザの眼の周辺視覚により視覚可能な範囲を含む。
交差点に対する注視時間が、係数A1と交差点の視認度Vとの積よりも小さい場合(ステップS1303−Yes)には、注視度分布関数の重みをゼロに決定する(ステップS1305)。交差点に対する注視時間が、係数A1と交差点の視認度Vとの積よりも小さい場合には、ユーザは、交差点に表示される表示情報を十分に視認していないと推定される。即ち、ユーザは、交差点に表示される表示情報に対する注意の度合いが低いと考えられる。そして、注視度分布算出部11dは、次の交差点の処理に移る。
一方、注視度分布算出部11dは、交差点に対する注視時間が、係数A1と交差点の視認度Vとの積以上の場合(ステップS1303−No)には、交差点における注視度分布関数の重みを、注視時間と視認度Vとの積に決定する(ステップS1307)。交差点に対する注視時間が、係数A1と交差点の視認度Vとの積以上の場合には、ユーザは、交差点に表示される表示情報を視認していると推定される。即ち、ユーザは、交差点に表示される表示情報に対する注意の度合いが高いと考えられる。
次に、ステップS1309において、注視度分布算出部11dは、注視度分布関数の分布幅σxを、係数A2と文字のサイズとの積に決定し、分布幅σyを、文字の高さを係数A3で割った商に決定する。係数A2は、6σxが文字の大きさをカバーするように決定され得る。係数A3は、6σyが文字の高さをカバーするように決定され得る。
ステップS1301からステップS1311の間の処理を繰り返すことにより、注視度分布関数が生成される。
以上が、ステップS615の説明である。
ステップS617の処理は、上述した第1実施形態と同様である。
上述した本実施形態の装置10によれば、上述した第1実施形態と同様の効果が奏される。
次に、装置10の第3実施形態の動作を、以下に説明する。
本実施形態では、表示情報が文字ではない画像(例えば、写真又は絵)であることが、上述した第1実施形態とは異なる。
本実施形態でも、装置10は、図6に示すフローチャートに従って注視度分布関数を求めるが、上述した第1実施形態とは異なるステップの処理について、以下に説明する。
まず、ステップS601〜ステップS603の処理は、上述した第1実施形態と同様である。
次に、ステップS605において、視認度分布算出部11bは、表示装置13の画面13aに表示されている表示情報を取得する。視認度分布算出部11bは、情報表示部11aから、画面13aに表示される画像、画像が表示されている画面13a内の位置の情報を受け取る。
次に、ステップS607において、視認度分布算出部11bは、取得された表示情報に基づいて、表示情報に対する視認の難易度を示す視認度分布を生成する。
ステップS607の処理を、図14に示すフローチャートを参照しながら、以下に説明する。
まず、ステップS1401において、図15(A)に示すように、視認度分布算出部11bは、画面を複数の領域Rに分割して、各領域Rの画像を抽出する。一の領域の大きさとして、例えば、200画素×200画素とすることができる。
次に、ステップS1403において、視認度分布算出部11bは、各領域Rにおいて、画像のぼけ量IDと、画像のずれ量dとの関係を求める。
図15(A)に示すように、視認度分布算出部11bは、一の領域Rにおいて、ユーザの右眼の画像Grと、左眼の画像Glを求める。例えば、右眼の画像Grとして、領域Rの中心を右眼の交差点(左側の十字の位置)として、中心視覚及び周辺視覚により視認可能な範囲の画像とする。そして、右眼の交差点に対して水平方向にずれ量d離れた位置を、ユーザの左眼の交差点(右側の十字の位置)として、中心視覚及び周辺視覚により視認可能範囲の画像とする。ずれ量dは、例えば、上述した第1実施形態のステップS801と同様にして求めることができる。
そして、視認度分布算出部11bは、下記式(5)を用いて、各領域Rに対する画像のぼけ量IDを求める。式(5)において、IR(x、y)は、右眼の画像Gr内の画素の位置(x、y)の輝度であり、IL(x、y)は、左眼の画像Gl内の画素の位置(x、y)の輝度であり、PNは、領域R内の画素数である。
そして、図15(B)のグラフに示すように、画像のぼけ量IDとずれ量dとの関係が得られる。
次に、ステップS1405において、視認度分布算出部11bは、各領域Rの第1閾値th1及び第2閾値th2を決定する。第1閾値th1は、領域R内の画像が鮮明に視認可能な最大のぼけ量である。第2閾値th2は、ぼけ量がそれ以上大きくなると、領域R内の画像を視認できなくなるぼけ量である。
第1閾値th1は、例えば、領域R内の画像に対してエッジ検出を行ってエッジの位置を求め、エッジに囲まれる領域の寸法を取得する。そして、エッジに囲まれる領域の寸法の所定の割合(例えば、1/10〜3/10)を、第1閾値th1とすることができる。第2閾値th2は、例えば、エッジに囲まれる領域の寸法の他の所定の割合(例えば、4/10〜6/10)とすることができる。
そして、視認度分布算出部11bは、領域Rごとに求めた第1閾値th1及び第2閾値th2を視認度として、視認度分布を生成する。本実施形態では、視認度分布は、画面の位置ごとに2つの第1閾値th1及び第2閾値th2の値を、視認度として有する。
ステップS609〜ステップS613の処理は、上述した第1実施形態と同様である。
次に、ステップS615において、プロセッサ11の注視度分布算出部11dは、表示装置13の画面13a上の位置ごとに注視度分布関数の分布幅及び重みを求めて、注視度分布関数を生成する。
ステップS615の処理を、図16に示すフローチャートを参照しながら、以下に説明する。
注視度分布算出部11dは、ステップS1601からステップS1615の間の処理を、ユーザの視線と画面13aの交差点ごとに行う。
まず、ステップS1603において、注視度分布算出部11dは、表示情報と、交差点を含む注視情報に基づいて、交差点の画像のぼけ量IDを求める。注視度分布算出部11dは、ユーザの画面13aに対する交差点ごとに、ステップS1403と同様の処理を行って、交差点の画像のぼけ量IDを求める。
次に、ステップS1605において、注視度分布算出部11dは、交差点の画像のぼけ量ID(ユーザから見た画面の実際のぼけ量)が、第2閾値th2(ユーザから見た画面の推定される第2のぼけ量)よりも大きいか否かを判断する。注視度分布算出部11dは、画像のぼけ量IDが第2閾値th2よりも大きい場合(ステップS1605−Yes)には、注視度分布関数の分布幅及び重みをゼロに設定する(ステップS1607)。画像のぼけ量IDが第2閾値th2よりも大きい場合には、ユーザは、交差点に表示される表示情報を視認していないと推定される。即ち、ユーザは、交差点に表示される表示情報に対する注意の度合いが低いと考えられる。そして、注視度分布算出部11dは、次の交差点の処理に移る。
一方、画像のぼけ量IDが第2閾値th2以下の場合(ステップS1605−No)には、注視度分布算出部11dは、交差点の画像のぼけ量IDが、第1閾値th1(ユーザから見た画面の推定される第1のぼけ量)よりも大きいか否かを判断する(ステップS1609)。注視度分布算出部11dは、画像のぼけ量IDが第1閾値th1以下の場合(ステップS1609−No)には、交差点における注視度分布関数の分布幅及び重みを初期値に設定する(ステップS1611)。画像のぼけ量IDが第1閾値th1以下の場合には、ユーザは、交差点に表示される表示情報を十分に視認していると推定される。即ち、ユーザは、交差点に表示される表示情報に対する注意の度合いが高いと考えられる。
また、注視度分布算出部11dは、画像のぼけ量IDが第1閾値th1よりも大きい場合(ステップS1607−Yes)には、注視度分布関数の分布幅及び重みを、画像のぼけ量に応じて、初期値よりも低減するように決定する(ステップS1613)。画像のぼけ量IDが第1閾値th1と第2閾値th2との間にある場合には、ユーザは、交差点に表示される表示情報をある程度視認していると推定される。即ち、ユーザは、交差点に表示される表示情報に対する注意の度合いが中程度であると考えられる。
ステップS1601からステップS1615の間の処理を繰り返すことにより、注視度分布関数が生成される。
以上が、ステップS615の説明である。
ステップS617の処理は、上述した第1実施形態と同様である。
上述した本実施形態の装置10によれば、上述した第1実施形態と同様の効果が奏される。
また、本実施形態の装置10の動作例では、視認度分布及び注視度分布を求める時に、画像のぼけ量ID(上記式(5)参照)を用いたが、図17に示すように、左右の眼の画像のずれ量dと、画像の特徴的な高さhとを用いて、文字ではない画像のぼけ量は、下記式(6)により定義してもよい。
上記式(6)で表される文字ではない画像のぼけ量を用いて視認度分布及び注視度分布を求める方法は、上述した第1実施形態において、文字のぼけ量を用いて視認度分布及び注視度分布を求めるのと同様である。
本発明では、上述した実施形態の情報処理コンピュータプログラム、情報処理装置及び情報処理方法は、本発明の趣旨を逸脱しない限り適宜変更が可能である。また、一の実施形態が有する構成要件は、他の実施形態にも適宜適用することができる。
例えば、上述した動作の第1実施形態及び第2実施形態は、表示情報が文字であり、動作の第3実施形態では、表示情報が文字ではない画像であったが、表示情報は、文字及び文字ではない画像を含んでいてもよい。例えば、視認度分布算出部11b及び注視度分布算出部11dは、情報表示部11aから、画面13aに表示されている表示情報を受け取る時に、文字の情報であるのか、又は文字ではない画像の情報であるのかを示す識別情報を受け取る。この識別情報に基づいて、視認度分布算出部11b及び注視度分布算出部11dは、表示情報が文字であるか又は文字ではない画像であるかを識別できる。
ここで述べられた全ての例及び条件付きの言葉は、読者が、発明者によって寄与された発明及び概念を技術を深めて理解することを助けるための教育的な目的を意図する。ここで述べられた全ての例及び条件付きの言葉は、そのような具体的に述べられた例及び条件に限定されることなく解釈されるべきである。また、明細書のそのような例示の機構は、本発明の優越性及び劣等性を示すこととは関係しない。本発明の実施形態は詳細に説明されているが、その様々な変更、置き換え又は修正が本発明の精神及び範囲を逸脱しない限り行われ得ることが理解されるべきである。
10 情報処理装置
11 プロセッサ
11a 情報表示部
11b 視認度分布算出部
11c 交差点検出部
11d 注視度分布算出部
12 メモリ
12a プログラム
12b 表示情報データ
12c 視線情報データ
12d 記憶媒体
13 表示装置(表示部)
13a 画面
14 入力インターフェース
15 視線情報検知装置
15a 赤外発光ダイオード
15b カメラ(撮像部)
16 通信インターフェース
11 プロセッサ
11a 情報表示部
11b 視認度分布算出部
11c 交差点検出部
11d 注視度分布算出部
12 メモリ
12a プログラム
12b 表示情報データ
12c 視線情報データ
12d 記憶媒体
13 表示装置(表示部)
13a 画面
14 入力インターフェース
15 視線情報検知装置
15a 赤外発光ダイオード
15b カメラ(撮像部)
16 通信インターフェース
Claims (9)
- 表示部の画面に対するユーザの視線位置を検出し、
検出した前記視線位置、または前記視線位置の近傍に表示される表示情報に基づいて、前記ユーザの注意の度合いを示す注視度分布の分布幅を決定して、前記画面に対する前記注視度分布を生成する、
処理をプロセッサに実行させるコンピュータプログラム。 - 前記ユーザの視線位置を検出することは、
撮像部により生成されたユーザの眼を含む複数の画像のそれぞれに基づいてユーザの視線方向を検出し、
前記複数の画像のそれぞれについて、検出されたユーザの視線方向に基づいて、ユーザの視線と表示部の画面との交差点を前記ユーザの視線位置として検出することを含み、
前記注視度分布を生成することは、
前記交差点ごとに、前記画面上の当該交差点又は当該交差点の近傍に表示される表示情報に基づいて、当該交差点における前記注視度分布の分布幅を決定することを含む、請求項1に記載のコンピュータプログラム。 - 前記複数の画像のそれぞれについて、
ユーザの眼と前記画面間の距離及びユーザの眼からユーザの眼の焦点までの距離を求め、
ユーザの眼と前記画面間の距離と、ユーザの眼からユーザの眼の焦点までの距離との差である焦点ずれ量を求め、
前記交差点ごとに、前記焦点ずれ量と、前記画面上の当該交差点又は当該交差点の近傍に表示される前記表示情報とに基づいて、前記注視度分布の分布幅を決定することを、プロセッサに実行させる、請求項2に記載の情報処理コンピュータプログラム。 - 前記交差点のそれぞれについて、ユーザが前記交差点を含む所定の領域内に継続して視線を向けている注視時間を求め、前記注視時間と、前記画面上の当該交差点又は当該交差点の近傍に表示される前記表示情報とに基づいて、前記注視度分布の分布幅を決定することを、プロセッサに実行させる、請求項2に記載の情報処理コンピュータプログラム。
- 前記表示情報に基づいて、前記画面上の位置ごとに前記表示情報に対する視認の難易度を示す視認度分布を作成し、
前記交差点ごとに、前記視認度分布で表される当該交差点における視認の難易度と、前記画面上の当該交差点又は当該交差点の近傍に表示される前記表示情報とに基づいて、前記注視度分布の分布幅を決定することを、プロセッサに実行させる請求項2に記載の情報処理コンピュータプログラム。 - 前記交差点ごとに、
前記視認度分布で表される当該交差点における視認の難易度に基づいて、当該交差点(における、ユーザから見た画面の推定されるぼけ量を求め、
前記画面上の当該交差点又は当該交差点の近傍に表示される前記表示情報に基づいて、前記交差点における、ユーザから見た画面の実際のぼけ量を求め、
前記推定されるぼけ量と前記実際のぼけ量とを比較して、前記注視度分布の分布幅を決定することを、プロセッサに実行させる請求項5に記載の情報処理コンピュータプログラム。 - 前記交差点ごとに、前記画面上の当該交差点又は当該交差点の近傍に表示される前記表示情報に基づいて、前記交差点における前記注視度分布の重みを決定することを、プロセッサに実行させる請求項2〜6の何れか一項に記載の情報処理コンピュータプログラム。
- 表示部の画面に対するユーザの視線位置を検出する検出部と、
検出した前記視線位置、または前記視線位置の近傍に表示される表示情報に基づいて、前記ユーザの注意の度合いを示す注視度分布の分布幅を決定して、前記画面に対する前記注視度分布を生成する注視度分布算出部と、
を有する処理部と、
を備える情報処理装置。 - 処理部が、表示部の画面に対するユーザの視線位置を検出することと、
前記処理部が、検出した前記視線位置、または前記視線位置の近傍に表示される表示情報に基づいて、前記ユーザの注意の度合いを示す注視度分布の分布幅を決定して、前記画面に対する前記注視度分布を生成することと、
を含む情報処理方法。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017140049A JP2019017800A (ja) | 2017-07-19 | 2017-07-19 | コンピュータプログラム、情報処理装置及び情報処理方法 |
| US16/036,050 US10642353B2 (en) | 2017-07-19 | 2018-07-16 | Non-transitory computer-readable storage medium, information processing apparatus, and information processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017140049A JP2019017800A (ja) | 2017-07-19 | 2017-07-19 | コンピュータプログラム、情報処理装置及び情報処理方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019017800A true JP2019017800A (ja) | 2019-02-07 |
Family
ID=65019025
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017140049A Pending JP2019017800A (ja) | 2017-07-19 | 2017-07-19 | コンピュータプログラム、情報処理装置及び情報処理方法 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US10642353B2 (ja) |
| JP (1) | JP2019017800A (ja) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108053444B (zh) * | 2018-01-02 | 2021-03-12 | 京东方科技集团股份有限公司 | 瞳孔定位方法及装置、设备和存储介质 |
| CN110638471A (zh) * | 2019-08-30 | 2020-01-03 | 杭州海飘科技有限公司 | 一种基于眼动仪视觉感知的体感技术方法 |
| US10860098B1 (en) * | 2019-12-30 | 2020-12-08 | Hulu, LLC | Gesture-based eye tracking |
| GB2616288B (en) * | 2022-03-03 | 2024-10-30 | Sony Interactive Entertainment Inc | Gaze tracking system and method |
| CN114816066B (zh) * | 2022-05-05 | 2025-07-01 | 维沃移动通信有限公司 | 电子设备及其控制方法和装置、可读存储介质 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120059282A1 (en) * | 2009-03-17 | 2012-03-08 | Emory University | Internet-based cognitive diagnostics using visual paired comparison task |
| JP2014155635A (ja) * | 2013-02-18 | 2014-08-28 | Iwate Prefectural Univ | 視線計測装置、注視領域の表示方法および注視点のガウス分布の表示方法 |
| US20160291690A1 (en) * | 2014-05-08 | 2016-10-06 | Sony Corporation | Portable electronic equipment and method of controlling a portable electronic equipment |
| JP2017037329A (ja) * | 2012-09-19 | 2017-02-16 | 株式会社ニコン | 視線検出装置、表示方法、眼鏡レンズ設計方法、眼鏡レンズ選択方法、眼鏡レンズ製造方法、印刷物、および眼鏡レンズ販売方法 |
Family Cites Families (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB0210288D0 (en) * | 2002-05-04 | 2002-06-12 | Univ Nottingham | Ocular display apparatus for assessment and measurement of and for treatment of ocular disorders, and methods therefor |
| JP4743234B2 (ja) | 2008-07-02 | 2011-08-10 | ソニー株式会社 | 表示装置及び表示方法 |
| US8774498B2 (en) | 2009-01-28 | 2014-07-08 | Xerox Corporation | Modeling images as sets of weighted features |
| JP5602155B2 (ja) | 2009-12-14 | 2014-10-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | ユーザインタフェース装置および入力方法 |
| JP5644414B2 (ja) | 2010-11-22 | 2014-12-24 | アイシン精機株式会社 | 覚醒度判定装置、覚醒度判定方法及びプログラム |
| US9538219B2 (en) | 2011-02-04 | 2017-01-03 | Panasonic Intellectual Property Corporation Of America | Degree of interest estimating device and degree of interest estimating method |
| US8736660B2 (en) * | 2011-03-14 | 2014-05-27 | Polycom, Inc. | Methods and system for simulated 3D videoconferencing |
| JP5912351B2 (ja) * | 2011-09-05 | 2016-04-27 | 国立大学法人浜松医科大学 | 自閉症診断支援システム及び自閉症診断支援装置 |
| JP5808435B2 (ja) * | 2012-01-23 | 2015-11-10 | 三菱電機株式会社 | 情報表示装置 |
| US10635167B2 (en) * | 2013-05-30 | 2020-04-28 | Umoove Services Ltd. | Smooth pursuit gaze tracking |
| JP6364627B2 (ja) | 2013-11-01 | 2018-08-01 | パナソニックIpマネジメント株式会社 | 視線方向検出装置および視線方向検出方法 |
| JP6268303B2 (ja) * | 2014-02-04 | 2018-01-24 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 2d画像分析装置 |
| US10413176B2 (en) | 2014-09-30 | 2019-09-17 | National University Corporation Hamamatsu University School Of Medicine | Inattention measurement device, system, and method |
| US20170344112A1 (en) * | 2016-05-31 | 2017-11-30 | Fove, Inc. | Gaze detection device |
| US10448001B2 (en) * | 2016-06-03 | 2019-10-15 | Mopic Co., Ltd. | Display device and displaying method for glass free stereoscopic image |
| US10395428B2 (en) * | 2016-06-13 | 2019-08-27 | Sony Interactive Entertainment Inc. | HMD transitions for focusing on specific content in virtual-reality environments |
-
2017
- 2017-07-19 JP JP2017140049A patent/JP2019017800A/ja active Pending
-
2018
- 2018-07-16 US US16/036,050 patent/US10642353B2/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120059282A1 (en) * | 2009-03-17 | 2012-03-08 | Emory University | Internet-based cognitive diagnostics using visual paired comparison task |
| JP2017037329A (ja) * | 2012-09-19 | 2017-02-16 | 株式会社ニコン | 視線検出装置、表示方法、眼鏡レンズ設計方法、眼鏡レンズ選択方法、眼鏡レンズ製造方法、印刷物、および眼鏡レンズ販売方法 |
| JP2014155635A (ja) * | 2013-02-18 | 2014-08-28 | Iwate Prefectural Univ | 視線計測装置、注視領域の表示方法および注視点のガウス分布の表示方法 |
| US20160291690A1 (en) * | 2014-05-08 | 2016-10-06 | Sony Corporation | Portable electronic equipment and method of controlling a portable electronic equipment |
Also Published As
| Publication number | Publication date |
|---|---|
| US10642353B2 (en) | 2020-05-05 |
| US20190025911A1 (en) | 2019-01-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11488366B2 (en) | Augmented reality lighting effects | |
| JP6056323B2 (ja) | 視線検出装置、視線検出用コンピュータプログラム | |
| JP5949319B2 (ja) | 視線検出装置及び視線検出方法 | |
| JP6957993B2 (ja) | ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法 | |
| US10074179B2 (en) | Image measurement device | |
| US10642353B2 (en) | Non-transitory computer-readable storage medium, information processing apparatus, and information processing method | |
| US10692210B2 (en) | Recording medium storing computer program for pupil detection, information processing apparatus, and pupil detecting method | |
| JP6123694B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| US20140341473A1 (en) | Apparatus and method for enhancing user recognition | |
| CN111801700B (zh) | 支付过程中防止偷窥的方法及电子设备 | |
| JP7168953B2 (ja) | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム | |
| CN115039130A (zh) | 视距推测方法、视距推测装置以及视距推测程序 | |
| CN108027656A (zh) | 输入设备、输入方法和程序 | |
| JP2018205819A (ja) | 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法 | |
| JP5016959B2 (ja) | 見え方度判定装置 | |
| KR102242719B1 (ko) | 스마트 안경 추적 방법과 장치, 및 스마트 안경과 저장 매체 | |
| KR101961266B1 (ko) | 시선 추적 장치 및 이의 시선 추적 방법 | |
| US20130321608A1 (en) | Eye direction detecting apparatus and eye direction detecting method | |
| EP3217257A1 (en) | Displacement determination program, method, and information processing apparatus | |
| US10586392B2 (en) | Image display apparatus using foveated rendering | |
| JP6721169B1 (ja) | 画像処理方法、画像処理装置、及び画像処理プログラム | |
| JP2018194998A (ja) | 情報処理装置及び情報処理方法 | |
| Cho et al. | Binocular gaze detection method using a fuzzy algorithm based on quality measurements | |
| KR101544957B1 (ko) | 레이저 인도 방식을 이용한 증강현실용 헤드 마운트 디스플레이 장치 및 헤드 마운트 디스플레이 방법 | |
| US20240153136A1 (en) | Eye tracking |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200409 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210331 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211102 |