JP6690041B2 - 三次元物体上の注視点決定方法及び装置 - Google Patents
三次元物体上の注視点決定方法及び装置 Download PDFInfo
- Publication number
- JP6690041B2 JP6690041B2 JP2019071195A JP2019071195A JP6690041B2 JP 6690041 B2 JP6690041 B2 JP 6690041B2 JP 2019071195 A JP2019071195 A JP 2019071195A JP 2019071195 A JP2019071195 A JP 2019071195A JP 6690041 B2 JP6690041 B2 JP 6690041B2
- Authority
- JP
- Japan
- Prior art keywords
- gaze
- scene
- dimensional
- endpoint
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Veterinary Medicine (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Description
注視される点を決定する有力な手法としては、アイトラッカーについて定められた仮想シーン面と注視方向とを交差させることが考えられる。WO2010/083853A1は、この目的のため、例えば本棚への取付けなど、特定の場所に固定された作動時のIRマーカの使用が開示されている。これらのマーカの所在は、二つのラインセンサの最大強度を検出することにより二つの直交角度を検出する二つの直交IRライン検出器を使用して、頭部装着カメラにより得られる「参照」画像として機能する「試験シーン」について最初に検出される。IRソースの検出角は、参照画像の場所に対応する。マーカの角度は、異なる場所から頭部装着カメラで撮影される、後に検出されたシーンについて検出される。これにより、後のシーン画像におけるIRソースの場所が検出される。頭部装着カメラが異なる場所にあるときには、後で撮影される画像(シーン画像)で検出されるIRソースの場所を、試験画像(参照画像)のIR光源の場所に変換するマッピングとして「透視投影」が決定される。この変換により、シーン画像について後で決定される注視点もまた、試験画像の対応(実際の)注視点に変換することができる。
この目的のため、WO2010/083853A1に開示された従来技術は、最大出射角を検出する直交IRライン検出器によってその場所が検出可能である人工マーカとしてIRソースを使用している。
前記装置は、
前記参照画像における複数の特徴とそれらの位置とを識別するため、前記参照画像の特徴検出アルゴリズムを実行するモジュールと、
前記シーン画像の前記複数の特徴と、それらの位置とを再識別するため、前記シーン画像の前記特徴検出アルゴリズムを実行するモジュールと、
前記参照画像と前記シーン画像において検出された前記複数の特徴の場所に基づき、前記シーン画像と前記参照画像間の点の位置を変換する、点変換マッピングを決定するモジュールと、
前記点変換マッピングを使用して、前記シーン画像で決定された注視点を前記参照画像の対応点にマッピングするモジュールと、を備える。
従って本発明の目的は、三次元空間の任意の三次元物体の注視端点を決定できる方法を提供することにある。
アイトラッカー及びヘッドトラッカーという三次元表示を用いることで、二次元面の注視点だけでなく、被験者が注視する物体及び/又は三次元の注視端点を決定することができる。
頭部装着アイトラッカー及び頭部装着シーンカメラは、このような装置の便利な実践である。更に、アイトラッカーが頭部に装着される場合、ヘッドトラッカーもまた自動的にアイトラッカーの位置/方位を提供する。シーンカメラの場合も同様である。ヘッドトラッカーにより決定された頭部の位置(場所と方位)により、アイトラッカーの座標系において頭部装着アイトラッカーにより決定された注視方向に基づき、ヘッドトラッカーの参照座標系の対応注視方向を決定することができる。ヘッドトラッカーにより決定された頭部の場所と方位を利用して、アイトラッカーの座標系からヘッドトラッカーの座標系へと注視方向を変換する簡単な変換によって上記を実行することができる。ヘッドトラッカーにより提供される位置により、所定の構成を通してアイトラッカーの位置も自動的に提供される。この構成において、アイトラッカーは、例えば、装着フレームを介して頭部に固定され、頭部との間に空間が形成される。
このように、非静止シーンについてもオンライン計測を実施することができる。
これらは、計測された注視端点の可視化の実施に最適な手法である。
一実施例において、注視端点の決定について定められ、そして、一実施例では、平面ではなく、三次元空間の一般物体に対する注視端点のマッピングについて定められている。更に、一実施例では、被験者が三次元空間のどの物体を注視しているかを決定することができる。
他の実施例において、物体の三次元表現では、三次元の物体表面をメッシュで表現するなど、より高い細分性による高精度な表現が使用される。原理上、システムを同様に操作することができる。注視点が更に高精度で決定され、三次元で表現された物体の表面上又は近くに存在する場合、このシステムは被験者が注視している物体を決定するだけでなく、ユーザが注視する物体の位置も決定することができる。
すなわちこの手法では、「実世界」の物体を示す三次元構造として決定され、交差された注視方向に基づき、三次元物体上での注視端点を決定することができる。一実施例において、このように決定された注視端点は、シーンの任意の画像において、対応位置へマッピングすることができる。更に、このように、注視される物体を識別する課題が、物体/物体の一部の名前付けに帰着する。これは、この手法において、注視方向とユーザが注視している物体とが交差しているため、その注視物体が直接提供されるからである。
これは、注視点を決定するための非常に新規な手法である。各画像について手動で物体を指定する必要があるため、シーンの画像上の注視点を把握することとは大きく異なる。
シーンカメラによって撮影されたシーン画像への注視端点のマッピングを実行することができる。このため、カメラの位置とパラメータを使用した、三次元構造の二次元シーン画像へのマッピングを実行する任意の三次元投影方法を使用することができる。このように、注視が三次元構造にヒットする場所を、シーンカメラで撮影されたシーン画像の対応場所へとマッピングすることができる。図2は、三次元構造のシーン画像へのマッピング工程(例えば、三次元投影によって実行される)を説明するステップb)を示し、その下部に、マッピング工程の概略が示されている。
‐ 磁気ヘッドトラッカー、又は
‐ 光学ヘッドトラッカー、
‐ 三次元構造検出器(又はシーン内の物体)についてET(又は単眼自体)の位置及び方位を計測することができる任意の種類の装置
‐ 三次元スキャナー(レーザスキャナー、構造化ライトスキャナーなど)
‐ ステレオカメラシステム
‐ 単眼カメラシステム(視覚SLAM)
‐ 手動計測
手動計測について、例えば建物の平面図は、施工計画により事前に把握されているか、特定の「手動計測」によって平面が把握されている。実際の構造を決定することなく、事前に計測され、格納された三次元構造データを「取得」又は「読み込む」装置に、三次元構造検出器を組み入れることができる。
そうでなければ、オフライン(初期)三次元検出と興味の物体(物体トラッカーの補助として)のトラッキングとの組み合わせを使用することができる。スーパーマーケットの棚のように経時的に不変の静止シーンについては、この構造を一度事前に計測することができる。
・注視端点は、シーンカメラ画像から分離される。物体の画像ではなく、注視が物体にマッピングされる。シーンカメラを有するETについて、参照モデル物体からシーンカメラ画像の画像面へと注視を再マッピングすることができる。このことは、注視点がシーン画像から逸脱した場合でも適用される。
・注視端点は幾何学的に正しく算出されるため、無視差ではないアイトラッカーが使用されている場合でも、注視マッピングで視差のエラーは発生しない。
・両眼転導を利用して複数の物体が注視経路と交差するように、複数の関連物体が整列されている背景のシーンにおいても、実際にどの物体が注視されているかを識別することが可能である。注視方向が,別の物体の前方に位置する物体と交差し、両眼転導による二つの注視点の交点が後方の物体に存在する場合、実際の注視点は、後方の物体であると仮定できる。
・注視データを新たに可視化することができる。
・ 時間及び/又は参加者について集計
・ 物体表面(例:ヒートマップ)
・ 空間での注視射線、空間での物体、マッピングされた注視データにより加工された物体(ヒートマップ、フォーカスマップなど)の三次元視覚化
・ シーン画像に投影された物体の自動輪郭、重心など
・ 物体の周囲をフライスルーするような動的な視覚化
・ 任意のシーン画像/シーン動画の注視データの集計(参加者のシーンカメラからの動画は特例)
Claims (19)
- 被験者の両眼の注視方向を決定するためのアイトラッカーと、
参照座標系における前記被験者のヘッド及び/又は前記アイトラッカーの場所と方位を含む位置を決定するための被験者トラッカーと、
前記参照座標系における座標を介して、三次元位置及び/又は構造を通して実世界の複数の物体を表示してシーンの三次元構造表示を提供する、三次元シーン構造検出器と、
注視端点プロセッサと、を備え、
前記注視端点プロセッサは、
前記被験者の両眼の前記注視方向の交点と前記位置に基づいて前記参照座標系における注視端点を決定し、
前記注視端点と前記複数の物体との間の複数のそれぞれの距離を決定し、
そして、前記注視端点と前記複数の物体との間の前記それぞれの距離に基づいて、被験者が前記複数の物体のうちのどの物体を注視しているのかを決定する、ことを特徴とするシステム。 - 前記被験者が注視している、複数の物体の内の前記物体が、前記注視端点と前記物体との間の最小の距離を有する物体を抽出することによって、決定されることを特徴とする、請求項1に記載のシステム。
- 前記アイトラッカーは前記注視端点が複数の物体のそれぞれである確率を示す確率分布を決定するためのものであり、前記注視端点プロセッサは、前記複数の物体の1つ以上に対して、前記注視端点の前記確率分布に基づいて前記被験者が前記物体を注視している確率を決定するためのものである、ことを特徴とする請求項1に記載のシステム。
- さらに、任意の視点からのシーンの画像を取得するためのシーンカメラと、
前記シーンの画像の画像面へと前記参照座標系における前記注視端点をマッピングするマッピングプロセッサとを備え、
前記シーンカメラの画像上に前記参照座標系の前記注視端点の投影を実行することによって前記マッピングが達成されることを特徴とする、請求項1に記載のシステム。 - さらに、前記三次元構造表示に基づく任意の視点からの前記シーンの画像を生成するためのシーン画像生成装置と、
前記シーンの画像の画像面上の前記参照座標系に前記注視端点をマッピングするマッピングプロセッサと、を備え、
前記シーンの画像の前記画像面上に前記参照座標系の前記注視端点の投影を実行することによって前記マッピングが達成されることを特徴とする、請求項1に記載のシステム。 - 前記アイトラッカーは頭部装着アイトラッカーを備えており、及び/又は前記シーンカメラは、頭部装着シーンカメラを備えていることを特徴とする、請求項4に記載のシステム。
- 前記三次元シーン構造検出器は前記シーンの物体の三次元構造及び位置、または前記参照座標系におけるそれらの幾何学的表面構造を決定して、前記シーンの三次元構造表示を取得するようになっており、そして、前記三次元シーン構造検出器は、
カメラと組合わせ可能なレーザスキャナー、
光源出射構造化ライトを有する光学スキャナー、
ステレオカメラシステム、
超音波検出器、及び
三次元物体を検出する任意の機械実装のうちの少なくとも一つを備えていることを特徴とする、請求項1に記載のシステム。 - 三次元注視端点は、複数の異なるシーンカメラによって取られた複数の異なる視点から取られた複数のシーン画像にマッピングされ、
三次元注視端点は、複数の異なる被験者について同じシーン画像にマッピングされ、及び/又は
三次元注視端点は、同じシーン画像にマッピングされるか、あるいは経時的に集計されることを特徴とする、請求項1に記載のシステム。 - 前記マッピングされた経時的三次元注視端点は、ビューの頻度又は異なる被験者で識別可能な、それぞれの三次元注視端点の累積されたビューの時間と共に三次元注視端点を視覚化することによって前記シーン画像において可視化されることを特徴とする、請求項8に記載のシステム。
- 前記可視化は、
ヒートマップと、
フォーカスマップと、及び/又は注視の重心と、の一つ以上を使用することを特徴とする、請求項9に記載のシステム。 - 前記三次元シーン構造検出器は、三次元シーンが静止していなくても、前記アイトラッカー及びヘッドトラッカーを使用して、リアルタイムの注視端点検出を可能とする前記三次元構造を繰り返し決定し、又は前記三次元シーン構造検出器は、前記三次元構造を一回決定し、物体トラッカーは、シーン内の一つ以上の物体の動きをトラッキングすることで、トラッキングされた物体と経時的にトラッキングされた注視方向を利用して、経時的に注視端点決定を可能とすることを特徴とする、請求項1に記載のシステム。
- 前記三次元シーン構造検出器は、一つ以上のシーンカメラと、前記一つ以上のシーンカメラの画像に基づき、前記三次元構造を算出するための視覚ローカライゼーション及びマッピングプロセッサを備えることを特徴とする、請求項1に記載のシステム。
- アイトラッカーを用いて被験者の両眼の注視方向を決定し、
該被験者のヘッド及び/又は参照座標系におけるアイトラッカーの場所と方位を含む位置を決定し、
前記参照座標系における座標を介して、三次元位置及び/又は構造を通して実世界の複数の物体を表示してシーンの三次元構造を表示し、
前記被験者の両眼の前記注視方向の交点と前記位置に基づいて前記参照座標系における注視端点を決定し、
前記注視端点と前記複数の物体との間の複数のそれぞれの距離を決定し、そして、
前記注視端点と前記複数の物体との間の前記それぞれの距離に基づいて、被験者が前記複数の物体のうちのどの物体を注視しているのかを決定する、ことを特徴とする方法。 - 前記被験者が注視している、複数の物体の内の前記物体が、前記注視端点と前記物体との間の最小の距離を有する物体を抽出することによって、決定されることを特徴とする、請求項13に記載の方法。
- 前記注視端点が複数の物体のそれぞれである確率を示す前記注視端点の確率分布を決定すること、及び、前記複数の物体の1つ以上に対して、前記注視端点の前記確率分布に基づいて前記被験者が前記物体を注視している確率を決定することをさらに含む、ことを特徴とする請求項13に記載の方法。
- 前記注視端点が前記シーンの前記三次元構造表示の空間内にある、請求項1に記載のシステム。
- 前記注視端点プロセッサが、前記注視端点と前記参照座標系の座標との間の複数の距離を決定することによって、前記注視端点と前記複数の物体との間の前記複数のそれぞれの距離を決定するように構成されている請求項1に記載のシステム。
- 前記注視端点プロセッサがさらに、前記注視端点に基づいて被験者が注視している物体の場所を決定するように構成されている、請求項1に記載のシステム。
- 前記注視端点に基づいて被験者が注視している物体の場所を決定することを更に含む、請求項13に記載の方法。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP12184725.5 | 2012-09-17 | ||
| EP12184725.5A EP2709060B1 (en) | 2012-09-17 | 2012-09-17 | Method and an apparatus for determining a gaze point on a three-dimensional object |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015531598A Division JP6808320B2 (ja) | 2012-09-17 | 2013-09-17 | 三次元物体上の注視点を決定するシステム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019141620A JP2019141620A (ja) | 2019-08-29 |
| JP6690041B2 true JP6690041B2 (ja) | 2020-04-28 |
Family
ID=47010238
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015531598A Active JP6808320B2 (ja) | 2012-09-17 | 2013-09-17 | 三次元物体上の注視点を決定するシステム |
| JP2019071195A Active JP6690041B2 (ja) | 2012-09-17 | 2019-04-03 | 三次元物体上の注視点決定方法及び装置 |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015531598A Active JP6808320B2 (ja) | 2012-09-17 | 2013-09-17 | 三次元物体上の注視点を決定するシステム |
Country Status (6)
| Country | Link |
|---|---|
| US (6) | US10223808B2 (ja) |
| EP (1) | EP2709060B1 (ja) |
| JP (2) | JP6808320B2 (ja) |
| CN (1) | CN104685541B (ja) |
| IN (1) | IN2015DN01984A (ja) |
| WO (1) | WO2014041188A1 (ja) |
Families Citing this family (53)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9811731B2 (en) * | 2013-10-04 | 2017-11-07 | Qualcomm Incorporated | Dynamic extension of map data for object detection and tracking |
| CN106258010B (zh) * | 2014-02-04 | 2019-11-22 | 弗劳恩霍夫应用研究促进协会 | 2d图像分析器 |
| JP2015219892A (ja) * | 2014-05-21 | 2015-12-07 | 大日本印刷株式会社 | 視線分析システムおよび視線分析装置 |
| US20180133593A1 (en) * | 2014-08-07 | 2018-05-17 | Fove, Inc. | Algorithm for identifying three-dimensional point-of-gaze |
| US10228766B2 (en) * | 2014-09-12 | 2019-03-12 | Microsoft Technology Licensing, Llc | Enhanced Display Rotation |
| JP6547268B2 (ja) * | 2014-10-02 | 2019-07-24 | 富士通株式会社 | 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム |
| US10441165B2 (en) * | 2015-03-01 | 2019-10-15 | Novasight Ltd. | System and method for measuring ocular motility |
| WO2016151581A1 (en) | 2015-03-23 | 2016-09-29 | Controlrad Systems Inc. | Eye tracking system |
| WO2016179825A1 (zh) * | 2015-05-14 | 2016-11-17 | 中国科学院深圳先进技术研究院 | 基于三维场景的导航方法 |
| GB2539009B (en) | 2015-06-03 | 2021-07-21 | Tobii Ab | Gaze detection method and apparatus |
| US9829976B2 (en) * | 2015-08-07 | 2017-11-28 | Tobii Ab | Gaze direction mapping |
| US10444972B2 (en) | 2015-11-28 | 2019-10-15 | International Business Machines Corporation | Assisting a user with efficient navigation between a selection of entries with elements of interest to the user within a stream of entries |
| JP2017129898A (ja) | 2016-01-18 | 2017-07-27 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| WO2017153355A1 (de) * | 2016-03-07 | 2017-09-14 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Verfahren und vorrichtung zum durchführen einer blickabbildung |
| US10063560B2 (en) * | 2016-04-29 | 2018-08-28 | Microsoft Technology Licensing, Llc | Gaze-based authentication |
| CN109219386B (zh) | 2016-05-29 | 2021-06-22 | 诺瓦赛特有限公司 | 显示系统和方法 |
| CN109478097B (zh) * | 2016-06-16 | 2022-02-22 | 苹果公司 | 用于提供信息的方法和系统及计算机程序产品 |
| JP2020509790A (ja) | 2016-09-23 | 2020-04-02 | ノバサイト リミテッド | スクリーニング装置及び方法 |
| WO2018076202A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院深圳先进技术研究院 | 能够进行人眼追踪的头戴式可视设备及人眼追踪方法 |
| CN108338798B (zh) * | 2017-01-25 | 2020-11-06 | 北京数字新思科技有限公司 | 一种注意力测量方法和系统 |
| CN106840167B (zh) * | 2017-02-23 | 2019-12-20 | 周良辰 | 基于街景地图的目标物地理位置的二维量测算方法 |
| CN107223082B (zh) * | 2017-04-21 | 2020-05-12 | 深圳前海达闼云端智能科技有限公司 | 一种机器人控制方法、机器人装置及机器人设备 |
| CN108965687B (zh) * | 2017-05-22 | 2021-01-29 | 阿里巴巴集团控股有限公司 | 拍摄方向识别方法、服务器及监控方法、系统及摄像设备 |
| CN107369205B (zh) * | 2017-07-04 | 2020-10-16 | 东南大学 | 一种移动终端城市二三维联动显示方法 |
| CN107392853B (zh) * | 2017-07-13 | 2020-05-26 | 河北中科恒运软件科技股份有限公司 | 双摄像头视频融合畸变校正与视点微调整方法及系统 |
| US10853965B2 (en) | 2017-08-07 | 2020-12-01 | Standard Cognition, Corp | Directional impression analysis using deep learning |
| CN107504917B (zh) * | 2017-08-17 | 2020-02-21 | 深圳市异方科技有限公司 | 一种三维尺寸测量方法及装置 |
| KR102495359B1 (ko) | 2017-10-27 | 2023-02-02 | 삼성전자주식회사 | 객체 트래킹 방법 및 장치 |
| JP6916896B2 (ja) * | 2017-11-16 | 2021-08-11 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像生成方法 |
| EP3752957A4 (en) | 2018-02-15 | 2021-11-17 | DMAI, Inc. | SYSTEM AND PROCEDURE FOR SPEECH UNDERSTANDING VIA INTEGRATED AUDIO AND VIDEO-BASED VOICE RECOGNITION |
| WO2019161229A1 (en) | 2018-02-15 | 2019-08-22 | DMAI, Inc. | System and method for reconstructing unoccupied 3d space |
| US11468885B2 (en) | 2018-02-15 | 2022-10-11 | DMAI, Inc. | System and method for conversational agent via adaptive caching of dialogue tree |
| WO2019161241A1 (en) * | 2018-02-15 | 2019-08-22 | DMAI, Inc. | System and method for identifying a point of interest based on intersecting visual trajectories |
| CN110320997B (zh) | 2018-03-30 | 2022-05-17 | 托比股份公司 | 用于确定注视关注目标的对物体映射的多线迹注视 |
| TWI719343B (zh) * | 2018-08-28 | 2021-02-21 | 財團法人工業技術研究院 | 資訊顯示方法及其顯示系統 |
| US11170212B2 (en) * | 2018-09-28 | 2021-11-09 | Apple Inc. | Sensor fusion eye tracking |
| CN109491508B (zh) * | 2018-11-27 | 2022-08-26 | 北京七鑫易维信息技术有限公司 | 一种确定注视对象的方法和装置 |
| SE543121C2 (en) | 2019-02-04 | 2020-10-13 | Tobii Ab | Method and system for determining a current gaze direction |
| SE1950580A1 (en) * | 2019-05-15 | 2020-10-13 | Tobii Ab | Method and system for dwell-less, hands-free interaction with a selectable object |
| CN112013844B (zh) * | 2019-05-31 | 2022-02-11 | 北京小米智能科技有限公司 | 建立室内环境地图的方法及装置 |
| US11181978B2 (en) | 2019-06-17 | 2021-11-23 | Hemy8 Sa | System and method for gaze estimation |
| US11487968B2 (en) * | 2019-12-16 | 2022-11-01 | Nvidia Corporation | Neural network based facial analysis using facial landmarks and associated confidence values |
| EP3839411B1 (fr) * | 2019-12-17 | 2023-08-23 | John Cockerill Defense SA | Système intelligent pour le contrôle de fonctions dans une tourelle de véhicule de combat |
| CN112364765B (zh) * | 2020-11-11 | 2024-12-31 | 京东方科技集团股份有限公司 | 一种人眼运动注视点检测方法及装置 |
| CN112509007B (zh) * | 2020-12-14 | 2024-06-04 | 科大讯飞股份有限公司 | 真实注视点定位方法以及头戴式视线跟踪系统 |
| GB2603947A (en) * | 2021-02-22 | 2022-08-24 | Nokia Technologies Oy | Method and apparatus for depth estimation relative to a mobile terminal |
| CN113553920B (zh) * | 2021-07-02 | 2024-06-04 | 黑芝麻智能科技(上海)有限公司 | 注视方向特征采集方法、装置、计算机设备和存储介质 |
| JP7640427B2 (ja) * | 2021-10-01 | 2025-03-05 | 株式会社日立製作所 | 注視位置分析システム及び注視位置分析方法 |
| US20250168486A1 (en) * | 2022-04-01 | 2025-05-22 | Sony Group Corporation | Information processing device, information processing method, and recording medium |
| JP2023155799A (ja) * | 2022-04-11 | 2023-10-23 | 株式会社日立ソリューションズ・クリエイト | 作業状態検出システムおよび方法 |
| SE547500C2 (en) * | 2022-06-03 | 2025-10-07 | Tobii Ab | Method of estimating a three-dimensional position of an object |
| US12056276B1 (en) | 2023-04-27 | 2024-08-06 | Meta Platforms Technologies, Llc | Eye tracking based on vergence |
| SE546818C2 (en) * | 2023-07-05 | 2025-02-25 | Tobii Ab | A method and a system for determining gaze convergence distance for a user of an eye tracking system |
Family Cites Families (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1978418A2 (en) * | 1996-12-06 | 2008-10-08 | Nippon Telegraph And Telephone Corporation | Method and system for producing computer generated holograms realizing real time holographic video production and display |
| JPH10326071A (ja) * | 1997-03-27 | 1998-12-08 | Nippon Telegr & Teleph Corp <Ntt> | 注視点高解像度化による計算機ホログラム表示方法並びに装置並びにこの方法を記録した記録媒体 |
| WO2000015858A1 (en) | 1998-09-14 | 2000-03-23 | Kulicke & Soffa Investments, Inc. | Wire-bonding alloy composites |
| US7046924B2 (en) * | 2002-11-25 | 2006-05-16 | Eastman Kodak Company | Method and computer program product for determining an area of importance in an image using eye monitoring information |
| JP2005071041A (ja) * | 2003-08-22 | 2005-03-17 | Nissan Motor Co Ltd | 運転者視対象検出装置及び運転者視対象検出システム |
| CA2561287C (en) * | 2004-04-01 | 2017-07-11 | William C. Torch | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
| JP4875843B2 (ja) | 2004-10-20 | 2012-02-15 | オリンパス株式会社 | 情報端末装置 |
| JP5044237B2 (ja) * | 2006-03-27 | 2012-10-10 | 富士フイルム株式会社 | 画像記録装置、画像記録方法、および画像記録プログラム |
| JP4876687B2 (ja) | 2006-04-19 | 2012-02-15 | 株式会社日立製作所 | 注目度計測装置及び注目度計測システム |
| JP2007319187A (ja) * | 2006-05-30 | 2007-12-13 | Toyota Motor Corp | 動作補助装置及びその制御方法 |
| US8781162B2 (en) * | 2011-01-05 | 2014-07-15 | Ailive Inc. | Method and system for head tracking and pose estimation |
| KR100820639B1 (ko) * | 2006-07-25 | 2008-04-10 | 한국과학기술연구원 | 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법 |
| US8077914B1 (en) * | 2006-08-07 | 2011-12-13 | Arkady Kaplan | Optical tracking apparatus using six degrees of freedom |
| US8494229B2 (en) * | 2008-02-14 | 2013-07-23 | Nokia Corporation | Device and method for determining gaze direction |
| CN201307266Y (zh) * | 2008-06-25 | 2009-09-09 | 韩旭 | 双目视线跟踪装置 |
| CN101419672B (zh) * | 2008-12-03 | 2010-09-08 | 中国科学院计算技术研究所 | 一种同步采集人脸图像和注视视角的装置及方法 |
| JP5456791B2 (ja) | 2009-01-26 | 2014-04-02 | トビー・テクノロジー・アーベー | 空間領域の映像に対する人の注視点を決定するためのシステム及びその方法 |
| WO2010102037A2 (en) * | 2009-03-03 | 2010-09-10 | The Ohio State University | Gaze tracking measurement and training system and method |
| CN101943982B (zh) * | 2009-07-10 | 2012-12-12 | 北京大学 | 基于被跟踪的眼睛运动的图像操作 |
| JP5590487B2 (ja) * | 2010-07-30 | 2014-09-17 | 公立大学法人広島市立大学 | 視線計測方法及び視線計測装置 |
| US8408706B2 (en) * | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
| JP5924862B2 (ja) * | 2010-12-15 | 2016-05-25 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP5522799B2 (ja) * | 2011-02-18 | 2014-06-18 | 日本放送協会 | 視線位置推定システム及び視線位置推定プログラム |
| JP2013008365A (ja) * | 2011-06-23 | 2013-01-10 | Ailive Inc | 運動感知型機器を用いる遠隔制御 |
| US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
| US9116926B2 (en) * | 2012-12-20 | 2015-08-25 | Google Inc. | Sharing photos |
-
2012
- 2012-09-17 EP EP12184725.5A patent/EP2709060B1/en active Active
-
2013
- 2013-09-17 JP JP2015531598A patent/JP6808320B2/ja active Active
- 2013-09-17 US US14/428,608 patent/US10223808B2/en active Active
- 2013-09-17 CN CN201380048140.XA patent/CN104685541B/zh active Active
- 2013-09-17 IN IN1984DEN2015 patent/IN2015DN01984A/en unknown
- 2013-09-17 WO PCT/EP2013/069236 patent/WO2014041188A1/en not_active Ceased
-
2019
- 2019-03-03 US US16/290,934 patent/US10699439B2/en active Active
- 2019-04-03 JP JP2019071195A patent/JP6690041B2/ja active Active
-
2020
- 2020-05-20 US US16/878,932 patent/US11676302B2/en active Active
-
2023
- 2023-02-17 US US18/111,099 patent/US11948332B2/en active Active
-
2024
- 2024-02-20 US US18/581,765 patent/US12423865B2/en active Active
-
2025
- 2025-08-21 US US19/306,720 patent/US20250391051A1/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| EP2709060B1 (en) | 2020-02-26 |
| CN104685541B (zh) | 2019-03-05 |
| US10699439B2 (en) | 2020-06-30 |
| US20240233178A1 (en) | 2024-07-11 |
| US20150243036A1 (en) | 2015-08-27 |
| US20250391051A1 (en) | 2025-12-25 |
| US10223808B2 (en) | 2019-03-05 |
| US20230206494A1 (en) | 2023-06-29 |
| US12423865B2 (en) | 2025-09-23 |
| JP6808320B2 (ja) | 2021-01-06 |
| IN2015DN01984A (ja) | 2015-08-14 |
| US11676302B2 (en) | 2023-06-13 |
| EP2709060A1 (en) | 2014-03-19 |
| US20190272650A1 (en) | 2019-09-05 |
| CN104685541A (zh) | 2015-06-03 |
| US20200334858A1 (en) | 2020-10-22 |
| JP2019141620A (ja) | 2019-08-29 |
| JP2015528359A (ja) | 2015-09-28 |
| WO2014041188A1 (en) | 2014-03-20 |
| US11948332B2 (en) | 2024-04-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6690041B2 (ja) | 三次元物体上の注視点決定方法及び装置 | |
| CN113164219B (zh) | 用于图像引导外科手术的跟踪系统 | |
| JP6839656B2 (ja) | 視標追跡システム | |
| US10262199B2 (en) | Information processing apparatus, information processing method, and storage medium | |
| Canessa et al. | Calibrated depth and color cameras for accurate 3D interaction in a stereoscopic augmented reality environment | |
| TWI496108B (zh) | AR image processing apparatus and method | |
| Auvinet et al. | Multiple depth cameras calibration and body volume reconstruction for gait analysis | |
| JP2014509535A (ja) | 注視点マッピング方法および装置 | |
| US20200107004A1 (en) | Information processing apparatus, information processing method, and storage medium | |
| JP2005256232A (ja) | 3dデータ表示方法、装置、およびプログラム | |
| CN108537103B (zh) | 基于瞳孔轴测量的活体人脸检测方法及其设备 | |
| JP6095032B1 (ja) | 合成画像提示システム | |
| JP2019066196A (ja) | 傾き測定装置及び傾き測定方法 | |
| JP6430813B2 (ja) | 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置 | |
| Desai et al. | Combining skeletal poses for 3D human model generation using multiple Kinects | |
| US10798360B2 (en) | Information processing system, method for controlling same, and program | |
| Mujahidin et al. | 3d gaze tracking in real world environment using orthographic projection | |
| EP4322114A1 (en) | Projective bisector mirror | |
| Paletta et al. | 3D recovery of human gaze in natural environments | |
| CN118565338A (zh) | Ar设备的尺寸测量方法、ar设备以及可读存储介质 | |
| JP2003223654A (ja) | 仮想表示物体観測装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190418 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190603 |
|
| A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190731 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190805 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190827 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191028 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200106 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200309 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200408 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6690041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |