JP2017016198A - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2017016198A JP2017016198A JP2015129163A JP2015129163A JP2017016198A JP 2017016198 A JP2017016198 A JP 2017016198A JP 2015129163 A JP2015129163 A JP 2015129163A JP 2015129163 A JP2015129163 A JP 2015129163A JP 2017016198 A JP2017016198 A JP 2017016198A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- time point
- information processing
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/837—Shooting of targets
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/219—Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】ユーザ操作に係る処理が行われる位置についてユーザの違和感を抑制することが可能な情報処理装置、情報処理方法およびプログラムを提供する。【解決手段】ユーザの視線に係る視線情報およびユーザ操作の検出結果を得る入力部と、前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定する位置決定部と、を備える情報処理装置、ならびに当該情報処理装置に係る情報処理方法およびプログラム。【選択図】図2
Description
本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、情報処理技術の発展に伴い、情報処理を行う装置を操作するための様々なユーザインタフェース(以下、UI(User Interface)とも称する。)が開発されている。このようなUIとしては、ユーザの視線およびユーザのジェスチャ等に基づくUIが存在する。
例えば、特許文献1では、カメラを用いたユーザの視線のトラッキングおよびカメラまたはセンサを用いたユーザのジェスチャの認識を行い、当該トラッキングおよび認識の結果に基づいてユーザが見ているオブジェクトの表示を更新するシステムが開示されている。
しかし、特許文献1で開示されるシステムでは、ユーザの意図と異なる位置で当該ユーザの操作に基づく処理が行われる可能性がある。例えば、ユーザは概して、ユーザ操作の対象となる位置(以下、操作対象位置とも称する。)に視線を移した後、ジェスチャを開始する。しかし、ユーザは、ジェスチャの認識が完了する前に、例えば他人に声をかけられた場合に、視線を変え得る。その場合、ジェスチャが開始された際の視線とジェスチャの認識が完了した際の視線とが異なる可能性がある。その結果、ユーザの意図と異なる位置でジェスチャに基づく処理が実行され得る。
そこで、本開示では、ユーザ操作に係る処理が行われる位置についてユーザの違和感を抑制することが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提案する。
本開示によれば、ユーザの視線に係る視線情報およびユーザ操作の検出結果を得る入力部と、前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定する位置決定部と、を備える情報処理装置が提供される。
また、本開示によれば、入力部によってユーザの視線に係る視線情報およびユーザ操作の検出結果を得ることと、前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定することと、を含む情報処理方法が提供される。
また、本開示によれば、ユーザの視線に係る視線情報およびユーザ操作の検出結果を得る入力機能と、前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定する位置決定機能と、をコンピュータに実現させるためのプログラムが提供される。
以上説明したように本開示によれば、ユーザ操作に係る処理が行われる位置についてユーザの違和感を抑制することが可能な情報処理装置、情報処理方法およびプログラムが提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.従来技術の課題
2.本開示の第1の実施形態(画像におけるマーキング)
3.本開示の第2の実施形態(外界像におけるマーキング)
4.本開示の一実施形態に係る情報処理装置のハードウェア構成
5.むすび
1.従来技術の課題
2.本開示の第1の実施形態(画像におけるマーキング)
3.本開示の第2の実施形態(外界像におけるマーキング)
4.本開示の一実施形態に係る情報処理装置のハードウェア構成
5.むすび
<1.従来技術の課題>
まず、従来の情報処理装置の課題について説明する。
まず、従来の情報処理装置の課題について説明する。
従来の情報処理装置は、視線情報取得機能、ジェスチャ認識機能および表示制御機能を備える。視線情報取得機能は、ユーザの視線を示す情報(以下、視線情報とも称する。)を取得する。また、ジェスチャ認識機能は、ユーザのジェスチャを認識する。また、表示制御機能は、表示オブジェクトを含む画像を生成し、当該画像を表示装置等に表示させる。このため、従来の情報処理装置は、所定のジェスチャが認識された際に、視線情報に基づいて推定されるユーザの視線の先に所定の表示オブジェクトが位置するような画像を表示装置に表示させることが可能である。
ここで、上記の従来の情報処理装置では、操作対象位置の決定と操作の検出との間にタイムラグが生じ得る。例えば、ユーザは概して、操作対象位置に視線を移した後、ジェスチャを開始する。そのため、操作対象位置に視線が移された時点と、ジェスチャ認識処理が完了し、認識されるジェスチャに基づく処理が行われる時点との間にいくらかの時間が生じる。
他方で、上記の従来の情報処理装置の当該タイムラグは、操作対象位置の決定と操作の検出とがほとんど同じタイミングで行われる他の従来の情報処理装置における当該タイムラグと比べて大きくなることが多い。例えば、当該他の従来の情報処理装置としてはタッチパネルがあり、当該タッチパネルにおいては、画面がタッチされた際に、操作対象位置の決定とタッチ操作の検出とがほぼ同時に行われる。そのため、当該タイムラグがほとんど生じない。
そして、当該タイムラグが大きくなるほど、当該タイムラグ中に視線が変化する可能性が高くなる。その結果、ユーザの意図する操作対象位置と異なる位置で操作に基づく処理が行われる可能性が高くなる。例えば、ユーザは、ジェスチャの認識処理中に、例えば他人に声をかけられた場合に、視線を変える。その場合、ジェスチャ開始時の視線とジェスチャ認識の完了時の視線とが異なり得る。その結果、ユーザの意図と異なる位置でジェスチャに基づく処理が実行され、ユーザに違和感を与えることになる。
そこで、本開示では、ユーザ操作に係る処理が行われる位置についてユーザの違和感を抑制することが可能な情報処理装置100を提案する。以下、情報処理装置100について詳細に説明する。なお、説明の便宜上、第1および第2の実施形態による情報処理装置100の各々を、情報処理装置100−1、および情報処理装置100−2のように、末尾に実施形態に対応する番号を付することにより区別する。
<2.本開示の第1の実施形態(画像におけるマーキング)>
以上、従来技術の課題について説明した。次に、本開示の第1の実施形態に係る情報処理装置100−1について説明する。第1の実施形態では、ユーザの視線と音声とに基づく画像へのマーキング処理において、ユーザが操作対象位置を認知した時点の視線の先にマーキングが行われる。
以上、従来技術の課題について説明した。次に、本開示の第1の実施形態に係る情報処理装置100−1について説明する。第1の実施形態では、ユーザの視線と音声とに基づく画像へのマーキング処理において、ユーザが操作対象位置を認知した時点の視線の先にマーキングが行われる。
<2−1.装置の構成>
まず、図1を参照して、本開示の第1の実施形態に係る情報処理装置100−1を備える情報処理システムの機能構成について説明する。図1は、本開示の第1の実施形態に係る情報処理システムの概略的な機能構成の例を示すブロック図である。
まず、図1を参照して、本開示の第1の実施形態に係る情報処理装置100−1を備える情報処理システムの機能構成について説明する。図1は、本開示の第1の実施形態に係る情報処理システムの概略的な機能構成の例を示すブロック図である。
情報処理システムは、図1に示したように、情報処理装置100−1、視線検出装置200、音検出装置300および表示装置400を備える。なお、情報処理システムの各装置は通信を介して接続される。また、視線検出装置200、音検出装置300および表示装置400はユーザの周辺に配置される。
((情報処理装置の機能構成))
情報処理装置100−1は、図1に示したように、通信部102、制御部104および記憶部106を備える。
情報処理装置100−1は、図1に示したように、通信部102、制御部104および記憶部106を備える。
通信部102は、視線検出装置200、音検出装置300および表示装置400と通信を行う。具体的には、通信部102は、入力部として、視線検出装置200から視線情報を受信し、音検出装置300からユーザによって発せられる音に係る情報(以下、音情報とも称する。)を受信する。また、通信部102は、表示装置400に画像情報を送信する。例えば、通信部102の行う通信は、有線通信であってもよく、無線通信であってもよい。
記憶部106は、制御部104の制御処理に係る情報を記憶する。具体的には、記憶部106は、受信される視線情報、表示装置400に表示させる画像、後述する表示オブジェクトおよびマーカ情報等を記憶する。
制御部104は、ユーザ操作に係る処理が行われる位置(以下、操作位置とも称する。)を決定し、当該操作位置における処理を行う。具体的には、制御部104は、操作位置の決定機能、操作位置の事前通知機能および操作位置におけるマーキング機能を有する。以下に、各機能についてそれぞれ詳細に説明する。
(操作位置の決定機能)
制御部104は、位置決定部として、視線情報およびユーザ操作の検出結果に基づいて操作位置を決定する。具体的には、制御部104は、ユーザ操作の検出結果が予め決定されるユーザ操作である場合、当該ユーザ操作の検出開始以前の第1の時点(以下、基準時点とも称する。)に基づいて特定される第2の時点(以下、処理対象時点とも称する。)に得られた視線情報に基づいて操作位置を決定する。さらに、図2を参照して、制御部104の処理について詳細に説明する。図2は、本実施形態に係る情報処理システムの適用例を示す図である。
制御部104は、位置決定部として、視線情報およびユーザ操作の検出結果に基づいて操作位置を決定する。具体的には、制御部104は、ユーザ操作の検出結果が予め決定されるユーザ操作である場合、当該ユーザ操作の検出開始以前の第1の時点(以下、基準時点とも称する。)に基づいて特定される第2の時点(以下、処理対象時点とも称する。)に得られた視線情報に基づいて操作位置を決定する。さらに、図2を参照して、制御部104の処理について詳細に説明する。図2は、本実施形態に係る情報処理システムの適用例を示す図である。
まず、制御部104は、ユーザの視線情報を得る。例えば、制御部104は、通信部102を介して図2の左図に示したようなユーザU1の視線を示す視線情報を視線検出装置200から取得する。なお、制御部104は、通信部102を介して、視線検出装置200に視線情報を要求してもよく、視線情報は、視線検出装置200から自発的に送信されてもよい。また、音情報についても視線情報と同様である。また、得られた視線情報は、順次に記憶部106に記憶される。
次に、制御部104は、視線情報が得られると、当該視線情報から特定される視線先の位置(以下、視線位置とも称する。)を示す表示オブジェクト(以下、視線オブジェクトとも称する。)を表示装置400に表示させる。例えば、制御部104は、取得される視線情報に基づいて視線位置を特定し、特定される視線位置に、図2の左図に示したような視線オブジェクト10が重畳表示されるように画像を生成する。そして、制御部104は、通信部102を介して、生成される画像を表示装置400に表示させる。
また、制御部104は、視線情報が得られると、操作対象位置についてのユーザの認知有無の判定を視線情報に基づいて行う。例えば、制御部104は、複数の視線情報に基づいてユーザの視線の停止有無の判定(以下、視線停止有無判定とも称する。)を行う。なお、ユーザの視線が停止したと判定される場合、当該判定時点が基準時点として記憶部106に記憶される。
次に、制御部104は、入力部として、ユーザ操作の検出結果を得る。例えば、制御部104は、通信部102によって音情報が受信されると、当該音情報に基づいて、ユーザによって発せられる音を用いた操作の有無を判定する。例えば、制御部104は、ユーザの音声に、図2の右図に示したようなキーワード「ここ」が含まれるかを判定する。
次に、制御部104は、ユーザ操作の検出結果が予め決定されるユーザ操作である場合、操作対象位置についてのユーザの認知に係る時点(以下、ユーザ認知時点とも称する。)に基づいて操作位置の決定処理を行う。例えば、制御部104は、音情報にキーワードが含まれると判定される場合、ユーザの視線が停止したと判定された時点の視線位置に相当する位置すなわち図2の左図に示したような視線オブジェクト10が重畳表示される位置を、ユーザの操作の対象となる操作位置に決定する。なお、上記の音情報等のユーザ操作に係る情報は、操作位置の決定処理のトリガとなるため、以下ではトリガ情報とも称する。
さらに、図3を参照して、操作位置の決定処理の詳細について説明する。図3は、本実施形態に係る情報処理装置100−1における操作位置の決定に係る処理のタイミングの例を説明するための図である。
概して、操作を行うユーザの行動は、操作対象位置の認知、操作の実行の順に行われる。例えば、図3に示したように、時刻T1に操作対象位置が認知され、時刻T3に操作が開始される。以下では、当該操作対象位置の認知の時点に着目した操作位置の決定処理について説明する。
まず、制御部104は、予め決定される時間間隔で視線情報を得る。例えば、図3に示したように予め決定される時間間隔で視線検出処理が視線検出装置200にて行われる。そして、通信部102は、当該視線検出処理によって生成される視線情報を視線検出装置200から受信し、受信される視線情報が制御部104に提供される。
そして、制御部104は、視線情報が得られると、視線停止判定を行う。具体的には、制御部104は、複数の視線情報に基づいて視線停止判定を行う。例えば、制御部104は、予め決定される期間の範囲で得られる複数の視線情報に係る視線位置の各々が所定の距離の範囲内に収まるかを判定する。当該視線位置の各々が所定の距離の範囲内に収まると判定される場合、ユーザの視線が停止したと判定されることになる。制御部104は、例えばt−7から開始される視線停止判定処理においてユーザの視線が停止したと判定される場合、当該判定時点の時刻T2を記憶部106に記憶させる。
なお、視線停止判定処理は、図3に示したように視線情報が得られる度に行われてもよく、得られる視線情報の一部について行われてもよい。また、視線停止判定処理は、視線検出装置200等の他の装置で行われ、制御部104は、通信部102を介して当該視線停止判定の結果を得てもよい。
次に、制御部104は、トリガ情報が得られると、ユーザ操作の検出を行う。例えば、図3に示したような時刻T3において、ユーザが発話を開始すると、音検出装置300は音情報の生成を開始する。そして、生成される音情報が音検出装置300から受信されると、制御部104は、受信される音情報に基づく音声認識処理を開始する。そして、ユーザの発話が終了し、音情報の受信が完了すると、音声認識処理が終了する。その後、制御部104は、当該音情報の示す音に予め決定される音のパターンが含まれるか、すなわち音声認識処理によって得られる音声認識結果に予め決定されるキーワードが含まれるかを判定する。
なお、ユーザの発話の終了後に、ユーザの発話の開始から終了までの音情報が生成され、生成される当該音情報に基づいて音声認識処理が行われてもよい。また、音情報に基づくユーザ操作の検出は音検出装置300等の他の装置で行われ、制御部104は、通信部102を介して当該音情報に基づくユーザ操作の検出の結果を得てもよい。また、上記のキーワードは、図2の例に限定されず、種々のキーワードが採用され得る。また、キーワードは、予め決定されてもよく、設定変更によって追加され、および変更されてもよい。
ユーザ操作の検出が完了すると、制御部104は、ユーザの視線が停止したと判定される時点に基づいて処理対象時点を特定する。具体的には、制御部104は、視線情報が得られる時点のうち、いずれの他の時点よりも視線の停止が判定された時点に近い時点を特定する。例えば、制御部104は、音声認識結果にキーワードが含まれると判定される場合、記憶部106に記憶される時刻T2に時間的に隣接する視線検出タイミングt−7またはt−6のうち、時刻T2により近いt−7を選択する。なお、視線検出タイミングは、視線検出用の画像が取り込まれるタイミングであり得る。
なお、選択される視線検出タイミングは予めいずれかに決定されていてもよい。例えば、視線検出処理が行われる予め決定される時間間隔が、当該時間間隔における視線移動による操作位置への影響が許容される程度である場合、視線の停止が判定された時点と時間的に隣接する視線検出タイミングのいずれかが固定で選択される。
また、制御部104は、ユーザの視線が停止したと判定された時点以前の視線検出タイミングから視線検出タイミングを選択してもよい。例えば、制御部104は、記憶部106に記憶される時刻T2以前の視線検出タイミングt−8またはt−7のうちのいずれか一方を選択する。
次に、制御部104は、特定された時点に得られた視線情報を用いて操作位置を決定する。例えば、制御部104は、選択されたt−7の視線検出処理において得られた視線情報を記憶部106から取得する。そして、制御部104は、操作位置を、取得される視線情報から特定される視線位置に相当する位置に決定する。なお、決定される操作位置は、視線情報から特定される視線位置が補正されることにより得られる位置であってもよい。
なお、後述するフィードバックオブジェクトを表示するための候補位置が決定される場合、操作位置は候補位置に基づいて決定されてもよい。例えば、候補位置に相当する位置が操作位置として決定される。
(操作位置の事前通知機能)
制御部104は、操作位置が決定される前に、操作位置の候補である位置(以下、候補位置とも称する。)をユーザに通知する。具体的には、制御部104は、表示制御部として、当該操作位置が特定される、第2の表示オブジェクトとしての表示オブジェクト(以下、フィードバックオブジェクトとも称する。)の表示制御を行う。例えば、フィードバックオブジェクトは、基準時点の後から操作位置が決定されるまでの間、当該候補位置に基づいて重畳表示される。さらに、図2を参照して、フィードバックオブジェクトの表示制御処理について詳細に説明する。
制御部104は、操作位置が決定される前に、操作位置の候補である位置(以下、候補位置とも称する。)をユーザに通知する。具体的には、制御部104は、表示制御部として、当該操作位置が特定される、第2の表示オブジェクトとしての表示オブジェクト(以下、フィードバックオブジェクトとも称する。)の表示制御を行う。例えば、フィードバックオブジェクトは、基準時点の後から操作位置が決定されるまでの間、当該候補位置に基づいて重畳表示される。さらに、図2を参照して、フィードバックオブジェクトの表示制御処理について詳細に説明する。
まず、制御部104は、視線停止判定の結果に基づいて候補位置を決定する。例えば、制御部104は、ユーザの視線が停止したと判定されると、操作位置の決定処理と実質的に同一の処理を行うことによって候補位置を決定する。
次に、制御部104は、候補位置にフィードバックオブジェクトを重畳表示させる。例えば、制御部104は、候補位置が決定されると、記憶部106からフィードバックオブジェクト20を取得する。そして、制御部104は、図2の中図に示したように、取得されるフィードバックオブジェクト20を画像上の候補位置に重畳表示させる。
そして、操作位置が決定されると、制御部104は、フィードバックオブジェクトを削除する。例えば、制御部104は、操作位置が決定されると、図2の左図に示したようにフィードバックオブジェクト20を画面から削除する。
なお、図2では、フィードバックオブジェクトが円形である例を説明したが、当該フィードバックオブジェクトは他の様々な形態であってもよい。例えば、フィードバックオブジェクトは、形状が多角形または楕円形であってもよく、記号またはアイコンであってもよい。また、フィードバックオブジェクトは、候補位置を指し示す矢印または旗等の表示オブジェクトであってもよい。さらに、図4A〜図4Cを参照して、フィードバックオブジェクトの例を説明する。図4A〜図4Cは、それぞれ本実施形態に係る情報処理装置100−1によって生成されるフィードバックオブジェクトの例を示す図である。
フィードバックオブジェクトは、時間経過とともに視覚的に変化してもよい。具体的には、フィードバックオブジェクトは、候補位置に向かって変化するように重畳表示される。例えば、図4Aに示したように、フィードバックオブジェクト22は、当初は画面に沿った矩形に近い形状の枠線のような表示オブジェクトであり、時間の経過と共に、候補位置に向かって形状を変えながら縮小される。なお、フィードバックオブジェクト22の形状は変化せず縮尺のみが変化してもよい。また、操作位置が決定されるまでの間、フィードバックオブジェクト22の変化が複数回繰り返されてもよい。例えば、図2Aの左図〜右図までの流れが複数回繰り返され得る。
また、フィードバックオブジェクトは、回転するように変化してもよい。例えば、フィードバックオブジェクト24は、図4Bに示したように、円環状の破線の表示オブジェクトであり、円の中心を軸として回転するように重畳表示される。
また、フィードバックオブジェクトの視覚的な属性が変化してもよい。例えば、フィードバックオブジェクト26は、図4Cに示したように、時間経過とともに輝度が変化する。なお、視覚的な属性としては、色相、明度、彩度、輝度、濃淡または模様のパターン等がある。
また、フィードバックオブジェクトは、表示開始からの経過時間がユーザに認識されるように変化してもよい。例えば、フィードバックオブジェクト26は、図4Cに示したように、フィードバックオブジェクト26の表示開始から時間が経過するほど、フィードバックオブジェクト26の輝度が高くなるように重畳表示される。
なお、フィードバックオブジェクトの変化は、点滅等のその他の時間的な変化であってもよい。
(操作位置におけるマーキング機能)
次に、制御部104は、決定される操作位置についてのユーザ通知処理を行う。具体的には、制御部104は、表示制御部として、決定される操作位置についての表示オブジェクト(以下、マーカオブジェクトとも称する。)の表示制御を行う。例えば、制御部104は、操作位置が決定されると、図2の右図に示したようなマーカオブジェクト30を画像における操作位置に対応する位置に重畳させる。そして、制御部104は、通信部102を介して、マーカオブジェクト30が重畳される画像を表示装置400に表示させる。なお、制御部104は、ユーザの視線位置が変化した場合、変化後の視線位置に視線オブジェクト10を移動させるが、マーカオブジェクト30は移動させない。
次に、制御部104は、決定される操作位置についてのユーザ通知処理を行う。具体的には、制御部104は、表示制御部として、決定される操作位置についての表示オブジェクト(以下、マーカオブジェクトとも称する。)の表示制御を行う。例えば、制御部104は、操作位置が決定されると、図2の右図に示したようなマーカオブジェクト30を画像における操作位置に対応する位置に重畳させる。そして、制御部104は、通信部102を介して、マーカオブジェクト30が重畳される画像を表示装置400に表示させる。なお、制御部104は、ユーザの視線位置が変化した場合、変化後の視線位置に視線オブジェクト10を移動させるが、マーカオブジェクト30は移動させない。
なお、図2では、マーカオブジェクトが円形である例を説明したが、当該マーカオブジェクトは他の様々な形態であってもよい。例えば、マーカオブジェクトは、形状が多角形または楕円形であってもよく、記号またはアイコンであってもよい。また、マーカオブジェクトは、操作位置を指し示す矢印または旗等の表示オブジェクトであってもよく、点滅または色彩、輝度もしくは明度の時間的な変化といったような強調表示が行われる表示オブジェクトであってもよい。さらに、図5A〜図5Cを参照して、マーカオブジェクトの例を説明する。図5A〜図5Cは、それぞれ本実施形態に係る情報処理装置100−1によって生成されるマーカオブジェクトの例を示す図である。
マーカオブジェクトは、ユーザ操作が操作位置を狙うような操作である場合、的のような表示オブジェクトであってもよい。例えば、マーカオブジェクト32は、図5Aに示したような照準位置を示す表示オブジェクトであり得る。
また、マーカオブジェクトは、操作位置にあるオブジェクトの輪郭を強調する表示オブジェクトであってもよい。例えば、マーカオブジェクト34は、図5Bに示したような矩形の看板の輪郭である矩形枠の表示オブジェクトであり得る。
また、マーカオブジェクトの表示は、操作位置にあるオブジェクトそれ自体の表示変化であってもよい。例えば、操作位置に図5Cに示したような球体の表示オブジェクト36がある場合、当該表示オブジェクト36自体が発光させられる。
((視線検出装置の機能構成))
続いて、視線検出装置200は、視線情報取得装置として、図1に示したように、通信部202、制御部204および撮像部206を備える。
続いて、視線検出装置200は、視線情報取得装置として、図1に示したように、通信部202、制御部204および撮像部206を備える。
通信部202は、情報処理装置100−1と通信を行う。具体的には、通信部202は、制御部204から提供される視線情報を情報処理装置100−1に送信する。
制御部204は、視線検出装置200の動作を全体的に制御する。具体的には、制御部204は、予め決定される時間間隔で撮像部206に撮像を指示し、撮像部206の撮像により得られる画像に基づいて視線情報を生成する。そして、制御部204は、通信部202に生成される視線情報を情報処理装置100−1に向けて送信させる。例えば、制御部204は、撮像部206から提供される画像に含まれるユーザを解析することによってユーザの視線を検出する。そして、制御部204は、検出される視線を示す視線情報を生成する。なお、ユーザの視線の検出には、例えば虹彩もしくは瞳孔の位置または人体の頭部の動き等に基づく視線検出技術等の一般的な技術が用いられる。
撮像部206は、制御部204の指示に基づいてユーザを撮像する。具体的には、撮像部206は、ユーザが被写体となるようにユーザ周辺において撮像を行い、撮像により得られる画像を制御部204に提供する。例えば、撮像部206は、光を集光する撮影レンズおよびズームレンズなどの撮像光学系、およびCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の信号変換素子を備え得る。また、撮像部206は、IR(Infrared)カメラであってもよく、上記の可視光カメラおよびIRカメラの組合せであってもよい。
((音検出装置の機能構成))
続いて、音検出装置300は、音情報取得装置として、図1に示したように、通信部302、制御部304および集音部306を備える。
続いて、音検出装置300は、音情報取得装置として、図1に示したように、通信部302、制御部304および集音部306を備える。
通信部302は、情報処理装置100−1と通信を行う。具体的には、通信部302は、制御部304から提供される音情報を情報処理装置100−1に送信する。
制御部304は、音検出装置300の動作を全体的に制御する。具体的には、制御部304は、集音部306に集音開始および停止を指示し、通信部302に集音部306の集音により得られる音情報を情報処理装置100−1に向けて送信させる。なお、制御部304は、音情報に含まれるノイズの除去等を行ってもよい。
集音部306は、音検出装置300の周辺の音を検出する。具体的には、集音部306は、制御部304の指示に基づいて音検出装置300の周辺すなわちユーザの周辺における集音を行う。そして、集音部306は、集音された音を示す音情報を生成し、生成される音情報を制御部304に提供する。例えば、集音部306は、マイクロホンまたはマイクロホンアレイ等の集音器であり得る。なお、集音部306は集音された音に係る信号を制御部304に提供し、制御部304が音情報を生成してもよい。
((表示装置の機能構成))
続いて、表示装置400は、出力装置として、図1に示したように、通信部402、制御部404および表示部406を備える。
続いて、表示装置400は、出力装置として、図1に示したように、通信部402、制御部404および表示部406を備える。
通信部402は、情報処理装置100−1と通信を行う。具体的には、通信部402は、情報処理装置100−1から画像情報を受信し、受信される画像情報を制御部404に提供する。
制御部404は、表示装置400の動作を全体的に制御する。具体的には、制御部404は、画像情報が通信部402によって受信されると、表示部406に受信された画像情報を提供すると共に画像の表示を指示する。
表示部406は、制御部404から提供される画像情報に基づいて画像を表示する。例えば、表示部406は、液晶パネルまたは有機EL(Electro Luminescence)等であり得る。
<2−2.装置の処理>
次に、図6を参照して、本実施形態に係る情報処理装置100−1の処理について説明する。図6は、本実施形態に係る情報処理装置100−1の処理を概念的に示すフローチャートである。
次に、図6を参照して、本実施形態に係る情報処理装置100−1の処理について説明する。図6は、本実施形態に係る情報処理装置100−1の処理を概念的に示すフローチャートである。
まず、情報処理装置100−1は、視線情報を取得する(ステップS502)。具体的には、通信部102は、視線検出装置200から視線情報を受信する。そして、制御部104は、受信される視線情報に基づいて視線停止判定を行う。なお、視線情報が所定の時間、例えば次のフレーム表示までに受信されない場合、制御部104は、ステップS512に処理を進める。
次に、情報処理装置100−1は、トリガ情報が取得されるまで待機する(ステップS504)。具体的には、制御部104は、トリガ情報としての音情報が音検出装置300から通信部102によって受信されると、受信される音情報に基づいてユーザ操作の検出を行う。なお、視線情報の受信から所定の時間内に音情報が受信されない場合、制御部104は、ステップS512に処理を進める。
トリガ情報が取得されると、情報処理装置100−1は、基準時点に基づいて処理対象時点を特定する(ステップS506)。具体的には、制御部104は、視線が停止したと判定された時点に基づいて視線検出タイミングを決定する。
次に、情報処理装置100−1は、処理対象時点に得られた視線情報に基づいて操作位置を決定する(ステップS508)。具体的には、制御部104は、決定される視線検出タイミングにおいて得られた視線情報を取得し、取得される視線情報から特定される視線位置に相当する位置を操作位置に決定する。
次に、情報処理装置100−1は、操作位置についてユーザ通知処理を実行する(ステップS510)。具体的には、制御部104は、次のフレームの画像を生成し、決定された操作位置についてマーカオブジェクトを生成された画像に重畳させる。
次に、情報処理装置100−1は、表示装置400に表示を更新させる(ステップS512)。具体的には、制御部104は、通信部102に生成された画像に係る画像情報を表示装置400に向けて送信させる。そして、表示装置400は、受信される画像情報に基づいて画像の表示を更新する。
なお、ステップS502またはS504からステップS512に処理が進められる場合には、当該ステップにて次のフレームの画像が生成される。また、この際に、視線オブジェクトの表示も更新され得る。さらに、ステップS502にて視線が停止したと判定され、かつ操作位置が決定されない場合は、フィードバックオブジェクトが重畳表示される画像に係る画像情報が表示装置400に向けて送信される。既にフィードバックオブジェクトが重畳表示されている場合には、当該フィードバックオブジェクトの表示が更新され得る。
<2−3.第1の実施形態のまとめ>
このように、本開示の第1の実施形態によれば、情報処理装置100−1は、ユーザの視線に係る視線情報およびユーザ操作の検出結果を得る。そして、情報処理装置100−1は、当該ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定する。このため、操作対象位置をユーザが認知した時点からユーザ操作の検出が完了するまでの間にタイムラグが生じる場合であっても、当該タイムラグによる操作位置とユーザの意図する操作対象位置とのずれが抑制される。その結果、ユーザ操作に係る処理が行われる位置についてユーザの違和感を抑制することが可能となる。
このように、本開示の第1の実施形態によれば、情報処理装置100−1は、ユーザの視線に係る視線情報およびユーザ操作の検出結果を得る。そして、情報処理装置100−1は、当該ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定する。このため、操作対象位置をユーザが認知した時点からユーザ操作の検出が完了するまでの間にタイムラグが生じる場合であっても、当該タイムラグによる操作位置とユーザの意図する操作対象位置とのずれが抑制される。その結果、ユーザ操作に係る処理が行われる位置についてユーザの違和感を抑制することが可能となる。
また、情報処理装置100−1は、決定される操作位置についての表示オブジェクトの表示制御を行う。このため、操作位置がユーザに視覚的に提示されることにより、ユーザに操作位置を認識させやすくすることが可能となる。
また、上記の第1の時点は、ユーザ操作の対象となる操作対象位置についてのユーザの認知に係る時点を含む。このため、操作位置がユーザの認知した操作対象位置に近づけられることにより、上記のユーザの違和感の抑制効果を向上させることが可能となる。
また、上記のユーザの認知に係る時点は、ユーザの視線の停止有無の判定結果に基づいて推定される。概してユーザは、まず視覚的に操作対象位置を特定する。このため、本構成によれば、操作対象位置の認知がユーザの視線に基づいて検出されることにより、ユーザ認知時点をより正確に把握することが可能となる。その結果、上記のユーザの違和感をさらに抑制することが可能となる。
また、上記の第2の時点は、視線情報が得られる時点のうち、いずれの他の時点よりも第1の時点に近い時点を含む。このため、操作位置の決定処理に用いられる視線情報の入手時点がユーザの認知の時点に近づけられることにより、上記のユーザの違和感がより発生しにくくなる操作位置を決定することが可能となる。
また、情報処理装置100−1は、操作位置となるべき候補位置が特定される第2の表示オブジェクトの表示制御を行い、第2の表示オブジェクトは、第1の時点の後から操作位置が決定されるまでの間、候補位置に基づいて表示される。このため、事前に候補位置がユーザに示されることにより、操作位置の可否をユーザが選択することができ、ユーザの利便性を向上させることが可能となる。
また、上記の第2の表示オブジェクトは、時間経過とともに視覚的に変化する。このため、フィードバックオブジェクトが強調表示されることにより、ユーザがフィードバックオブジェクトすなわち候補位置を見落とす可能性を低下させることが可能となる。
また、上記の第2の表示オブジェクトは、候補位置に向かって変化するように表示される。このため、候補位置以外の画像の領域を使ってフィードバックオブジェクトが重畳表示されることにより、さらにフィードバックオブジェクトの表示が強調され、ユーザがフィードバックオブジェクトすなわち候補位置を見落とす可能性をさらに低下させることが可能となる。
また、上記のユーザ操作は、ユーザによって発せられる音を用いた操作を含む。このため、ユーザが作業中のため他の操作、例えばジェスチャ操作またはデバイス操作が行えない場合であっても、情報処理装置100−1の操作または情報処理装置100−1を介した装置の操作を行うことが可能となる。
<2−4.変形例>
以上、本開示の第1の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の第1〜第6の変形例について説明する。
以上、本開示の第1の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の第1〜第6の変形例について説明する。
(第1の変形例)
本実施形態の第1の変形例として、上記のユーザの認知に係る時点すなわち基準時点は、ユーザ操作についての人間の反応時間(以下、操作反応時間とも称する。)に基づいて推定されてもよい。具体的には、制御部104は、ユーザ操作の検出開始時点から当該ユーザ操作についての人間の反応時間だけ遡った時点を、基準時点として決定する。
本実施形態の第1の変形例として、上記のユーザの認知に係る時点すなわち基準時点は、ユーザ操作についての人間の反応時間(以下、操作反応時間とも称する。)に基づいて推定されてもよい。具体的には、制御部104は、ユーザ操作の検出開始時点から当該ユーザ操作についての人間の反応時間だけ遡った時点を、基準時点として決定する。
ここで、人間においては、感覚刺激の提示から行動による反応が生じるまでに経過する時間、いわゆる反応時間というものがある。例えば、操作対象が視覚的に認知されてから実際に操作が行われるまでにはタイムラグが生じる。当該反応時間は、実験または調査等により特定され得るため、固定値または機械学習により得られる値が利用可能である。そこで、本変形例では、記憶部106等に予め記憶される当該反応時間が利用される。さらに、図2を参照して、本変形例の処理を詳細に説明する。
制御部104は、トリガ情報が受信されると、当該トリガ情報の受信時点を記録する。例えば、図2の中図に示したようにユーザU1が発話を開始すると、当該発話に係る音情報が受信される。音情報が受信されると、制御部104は、当該音情報の受信時点を記憶部106に記憶させる。
次に、制御部104は、受信されるトリガ情報に基づいてユーザ操作を検出する。例えば、制御部104は、受信される音情報に基づいて音声認識処理を行い、音声認識処理の処理結果にキーワードが含まれるかを判定する。
次に、制御部104は、ユーザ操作の検出結果が予め決定されるユーザ操作である場合、操作反応時間に基づいて基準時点を決定する。例えば、制御部104は、処理結果にキーワードが含まれると判定される場合、記憶部106に記憶される音情報の受信時点から操作反応時間だけ遡った時点を、基準時点として決定する。
次に、制御部104は、決定される基準時点に基づいて操作位置の決定処理を行う。例えば、制御部104は、音情報にキーワードが含まれると判定される場合、操作反応時間からユーザが操作対象として認知したと推定される位置すなわち図2の左図に示したような視線オブジェクト10が重畳表示される位置を、操作位置に決定する。
なお、操作反応時間は、操作を行うユーザの属性に応じて決定されてもよい。例えば、ユーザの属性は、ユーザの年齢、性別、人種または健康状態等であり得る。また、操作反応時間は、ユーザ操作の種類に応じて決定されてもよい。例えば、ユーザの操作の種類は、上述したような音を用いた操作のほか、後述するジェスチャ操作またはデバイス操作であり得る。
また、基準時点は、視線停止判定の時点および操作反応時間から特定される時点のうちから選択されてもよい。例えば、ユーザ操作の検出より前の所定の時間内に視線が停止したと判定された場合、第1の実施形態のように視線停止判定の時点が選択されてもよく、視線が停止したと判定されず、ユーザ操作が検出された場合、操作反応時間から特定される時点が選択されてもよい。
このように、本実施形態の第1の変形例によれば、ユーザの認知に係る時点は、ユーザ操作についての人間の反応時間に基づいて推定される。このため、上記のユーザの認知を検出することなく、基準時点が決定されることにより、ユーザの認知の検出処理が行われる場合と比べて処理量を低減させることが可能となる。
(第2の変形例)
本実施形態の第2の変形例として、基準時点は、ユーザ操作の検出開始時点であってもよい。具体的には、制御部104は、受信されるトリガ情報に基づくユーザ操作の検出が開始された時点に基づいて処理対象時点を特定し、特定される処理対象時点に得られた視線情報に基づいて操作位置を決定する。さらに、図7を参照して、本変形例の処理について説明する。図7は、本実施形態の第2の変形例に係る情報処理システムの適用例を示す図である。
本実施形態の第2の変形例として、基準時点は、ユーザ操作の検出開始時点であってもよい。具体的には、制御部104は、受信されるトリガ情報に基づくユーザ操作の検出が開始された時点に基づいて処理対象時点を特定し、特定される処理対象時点に得られた視線情報に基づいて操作位置を決定する。さらに、図7を参照して、本変形例の処理について説明する。図7は、本実施形態の第2の変形例に係る情報処理システムの適用例を示す図である。
まず、制御部104は、トリガ情報が得られると、トリガ情報に基づいてユーザ操作の検出を開始する。例えば、制御部104は、図7の左図に示したようにユーザU1の発話が開始されると、通信部102によって音情報が受信され始める。当該音情報が受信されると、制御部104は、当該音情報に基づいて、音を用いた操作の有無の判定を開始する。また、当該判定の開始時点が、基準時点として記憶部106に記憶される。
また、制御部104は、ユーザ操作の検出開始時点に基づいて決定される候補位置へのフィードバックオブジェクトの表示を開始する。例えば、制御部104は、ユーザ操作の検出開始時点を基準時点として候補位置の決定処理を行い、決定される候補位置に、図7の中図に示したようなフィードバックオブジェクト20を重畳表示させる。
次に、制御部104は、ユーザ操作の検出結果が予め決定されるユーザ操作である場合、ユーザ操作の検出開始時点に基づいて操作位置の決定処理を行う。例えば、制御部104は、音情報にキーワードが含まれると判定される場合、候補位置すなわち図7の中図に示したようなフィードバックオブジェクト20が重畳表示される位置、に相当する位置を操作位置に決定する。
さらに、図3を参照して、本変形例の処理の詳細について説明する。なお、上述した処理と実質的に同一である処理については説明を省略する。
上述したように、概して、操作を行うユーザの行動は、操作対象位置の認知、操作の実行の順に行われる。ここでは、当該操作の検出開始時点に着目した操作位置の決定処理について説明する。
まず、制御部104は、トリガ情報が得られると、ユーザ操作の検出を開始する。例えば、図3に示したような時刻T3において、ユーザが発話を開始すると、音検出装置300は音情報の生成する音情報が音検出装置300から受信される。そして、制御部104は、受信される音情報に基づく音声認識処理を開始する。この際、音声認識処理の開始時点T3が記憶部106に記憶される。
ユーザ操作の検出が完了すると、制御部104は、ユーザ操作の検出開始時点に基づいて処理対象時点を特定する。具体的には、制御部104は、視線情報が得られる時点のうち、いずれの他の時点よりも音声認識処理の開始時点に近い時点を特定する。例えば、制御部104は、記憶部106に記憶される時刻T3に時間的に隣接する視線検出タイミングt−6またはt−5のうち、時刻T3により近いt−6を選択する。
次に、制御部104は、特定された時点に得られた視線情報を用いて操作位置を決定する。例えば、制御部104は、選択されたt−6の視線検出処理において得られた視線情報から特定される視線位置に相当する位置に操作位置を決定する。
このように、本実施形態の第2の変形例によれば、基準時点は、ユーザ操作の検出開始時点を含む。このため、操作対象位置の認知から操作開始までの間のタイムラグが大きい場合には、操作対象位置の認知時点が基準時点とされる場合に比べてユーザに違和感を与える可能性を低減させることが可能となる。
(第3の変形例)
本実施形態の第3の変形例として、基準時点は、ユーザ操作の開始に係る時点であってもよい。具体的には、制御部104は、ユーザ操作の開始に係る時点を、ユーザ操作に用いられる物体の動きに基づいて推定する。さらに、図3を参照して、本変形例の処理について詳細に説明する。なお、上述した処理と実質的に同一である処理については説明を省略する。
本実施形態の第3の変形例として、基準時点は、ユーザ操作の開始に係る時点であってもよい。具体的には、制御部104は、ユーザ操作の開始に係る時点を、ユーザ操作に用いられる物体の動きに基づいて推定する。さらに、図3を参照して、本変形例の処理について詳細に説明する。なお、上述した処理と実質的に同一である処理については説明を省略する。
上述したように、概して、操作を行うユーザの行動は、操作対象位置の認知、操作の実行の順に行われる。ここでは、当該操作対象位置の認知の後であって、操作が実行される時点、すなわち操作の検出開始時点よりも前の時点に着目した操作位置の決定処理について説明する。
まず、制御部104は、継続的にユーザの観察処理を行う。具体的には、制御部104は、ユーザの動きを特定するための情報(以下、ユーザ動作情報とも称する。)に基づいてユーザ操作に用いられる物体の所定の動きを検出する。
より具体的には、制御部104は、所定の時間間隔で、視線検出装置200等の外部装置から通信を介してユーザ動作情報として、ユーザが被写体である画像に係る画像情報(以下、ユーザ画像情報とも称する。)を得る。そして、制御部104は、ユーザ画像情報に基づいて、ユーザの口の動きを判定する。ユーザの口の動きが発話の開始に係る動きである場合、制御部104は、当該ユーザ画像情報の取得時点を、基準時点として記憶部106に記憶させる。
例えば、ユーザの発話の開始に係る動きは、ユーザの操作対象位置の認知の時点すなわち図3に示したような時刻T1の後であって、発話の検出が開始される時点すなわち図3に示したような時刻T3の間の時点で行われる。そのため、基準時点として記憶される上記のユーザ画像情報の取得時点は、上述したような視線が停止したと判定される時刻T2と比べて遅い時刻になり得る。
次に、制御部104は、トリガ情報が得られると、ユーザ操作の検出を行う。
ユーザ操作の検出が完了すると、制御部104は、所定の動きの検出時点に基づいて処理対象時点を特定する。例えば、制御部104は、視線情報が得られる時点のうち、いずれの他の時点よりもユーザ画像情報の取得時点に近い時点を特定する。
次に、制御部104は、特定された時点に得られた視線情報を用いて操作位置を決定する。
なお、上記では、ユーザ動作情報はユーザ画像情報である例を説明したが、ユーザ動作情報は、ユーザに取付けられた筋電センサ、加速度センサもしくは角速度センサ等から得られるセンサ情報であってもよい。この場合、取得されるセンサ情報に基づいてユーザの口または腕等の体の所定の動きの有無が判定される。
また、上記では、ユーザ操作の開始に係る時点は、ユーザ操作に用いられる物体の動きに基づいて推定される時点である例を説明したが、ユーザ操作の開始に係る時点は、脳波に基づいて推定される時点であってもよい。例えば、制御部104は、通信を介して操作を行うユーザの脳波に係る情報を得る。そして、制御部104は、得られる脳波に係る情報から特定される脳波に所定の脳波パターンが含まれる場合、当該脳波に係る情報の取得時点を、基準時点として記憶部106に記憶させる。例えば、所定の脳波パターンは、発話またはジェスチャを行おうとする際に発生する脳波のパターンであり得る。
このように、本実施形態の第3の変形例によれば、基準時点は、ユーザ操作の開始に係る時点を含む。このため、操作の検出開始時点が基準時点とされる場合に比べて基準時点がユーザの意図した時点により近づけられることにより、ユーザに違和感を与える可能性をさらに低下させることが可能となる。
また、上記のユーザ操作の開始に係る時点は、ユーザ操作に用いられる物体の動きに基づいて推定される。このため、ユーザ操作の開始がより正確に推定されることにより、操作位置がユーザの意図する位置に決定される可能性を向上させることが可能となる。
(第4の変形例)
本実施形態の第4の変形例として、基準時点は、ユーザ操作の検出開始以前の時点から、所定の情報に基づいて選択されてもよい。具体的には、制御部104は、操作対象位置についてのユーザの認知に係る時点またはユーザ操作の検出開始に係る時点のうちの一方を、基準時点として所定の情報に基づいて選択する。
本実施形態の第4の変形例として、基準時点は、ユーザ操作の検出開始以前の時点から、所定の情報に基づいて選択されてもよい。具体的には、制御部104は、操作対象位置についてのユーザの認知に係る時点またはユーザ操作の検出開始に係る時点のうちの一方を、基準時点として所定の情報に基づいて選択する。
より具体的には、制御部104は、操作対象位置についてのユーザの認知が検出されない場合、ユーザ操作の検出開始時点が基準時点として選択される。例えば、ユーザの視線が停止した際にユーザがまばたきをすること等により、視線検出が行われず、視線情報が取得されない場合、制御部104は、音声認識処理の開始時点を基準時点として選択する。
また、制御部104は、ユーザ認知時点とユーザ操作の検出開始に係る時点との間の時間長に係る情報に基づいて基準時点を選択してもよい。例えば、図3に示したようなユーザ認知時点である時刻T2と、ユーザ操作の検出開始時点である時刻T3との間の時間長が所定の長さよりも短い場合、制御部104は、基準時点として、ユーザ認知時点を選択する。また当該時間長が所定の長さよりも長い場合、制御部104は、基準時点として、ユーザ操作の検出開始時点を選択する。例えば、ユーザ操作の検出直前の所定の時間内に視線が停止したと判定されず、当該所定の時間よりも過去の視線停止判定の時点が用いられた場合に、当該過去の視線停止判定の時点とユーザ操作の検出開始時点との間の時間長が所定の長さよりも長くなり得る。この場合、ユーザ操作の検出開始時点が基準時点として選択される。
なお、制御部104は、ユーザ操作の種類に係る情報に基づいて基準時点を選択してもよい。具体的には、制御部104は、トリガ情報が受信されると、トリガの種類すなわちユーザ操作の種類と対応する基準時点を選択する。例えば、音を用いた操作にはユーザの認知に係る時点が対応付けられ、当該対応付けの情報は記憶部106に記憶される。
また、制御部104は、ユーザ操作の対象に係る情報に基づいて基準時点を選択してもよい。具体的には、ユーザ操作の対象に係る情報は、ユーザ操作の対象の種類である。例えば、ユーザ操作の対象は、アプリケーション、コンテンツ、画面またはオブジェクト等であり、例えばユーザ操作の対象であるアプリケーションの種類がアクション型のゲームアプリケーションである場合、基準時点として、ユーザ認知時点が選択される。
また、ユーザ操作の対象に係る情報は、ユーザ操作の対象の数に応じて変化する情報であってもよい。例えば、ユーザ操作が選択操作である場合、選択肢の数が所定数よりも多いときは、ユーザ操作の開始に係る時点が選択される。
また、制御部104は、ユーザの設定に基づいて基準時点を選択してもよい。なお、設定内容は記憶部106に記憶されてもよく、設定は変更されてもよい。
なお、選択肢として、ユーザ認知時点およびユーザ操作の検出開始に係る時点に、ユーザ操作の開始に係る時点が追加されてもよい。
このように、本実施形態の第4の変形例によれば、基準時点は、ユーザ操作の検出開始以前の時点から、所定の情報に基づいて選択される。このため、状況に適した基準時点が選択され得ることにより、ユーザの違和感の発生をさらに抑制することが可能となる。
また、基準時点は、ユーザ操作の対象となる操作対象位置についてのユーザの認知に係る時点またはユーザ操作の検出開始に係る時点のうち、所定の情報に基づいて選択される一方の時点を含む。このため、選択肢が絞り込まれることにより、基準時点の選択処理を簡素化することが可能となる。
また、上記の所定の情報は、上記のユーザの認知に係る時点とユーザ操作の検出開始に係る時点との間の時間長に係る情報を含む。このため、ユーザ認知の検出に失敗した場合等の異常時において適していない基準時点が選択されることが抑制されることにより、ユーザの意図と明らかに乖離した処理が行われることを抑制することが可能となる。
また、上記の所定の情報は、ユーザ操作の種類を含む。このため、ユーザ操作に適した基準時点が選択されることにより、操作性を向上させることが可能となる。
また、上記の所定の情報は、ユーザ操作の対象に係る情報を含む。このため、ユーザ操作の対象に応じて基準時点が選択されることにより、同じユーザ操作であっても操作対象によって操作性が変わることを抑制することができ、ユーザの操作性に対する満足度を向上させることが可能となる。
(第5の変形例)
本実施形態の第5の変形例として、フィードバックオブジェクトは、基準時点よりも後の所定の時点(以下、後続時点とも称する。)の経過後に重畳表示されてもよい。具体的には、制御部104は、基準時点に基づいて候補位置を決定した後、基準時点の候補となる後続時点で、基準時点に基づいて決定された候補位置にフィードバックオブジェクトを画像に重畳表示させる。
本実施形態の第5の変形例として、フィードバックオブジェクトは、基準時点よりも後の所定の時点(以下、後続時点とも称する。)の経過後に重畳表示されてもよい。具体的には、制御部104は、基準時点に基づいて候補位置を決定した後、基準時点の候補となる後続時点で、基準時点に基づいて決定された候補位置にフィードバックオブジェクトを画像に重畳表示させる。
例えば、ユーザ認知時点が基準時点である場合、制御部104は、ユーザ認知が検出された時点に基づいて候補位置の決定を行うが、フィードバックオブジェクトを画像に重畳表示させない。その後、制御部104は、トリガ情報が受信され、当該トリガ情報に基づくユーザ操作の検出が開始された際に、事前にユーザ認知時点に基づいて決定された候補位置にフィードバックオブジェクトを表示させる。
この場合、ユーザ操作の検出が開始されるまでフィードバックオブジェクトが重畳表示されないことにより、画面の視認が妨げられにくくなる。また、操作位置すなわち候補位置は、ユーザ認知時点に基づいて決定されるため、ユーザ操作の検出開始時点を基準時点として決定される操作位置よりもユーザの意図する位置に近い位置にマーキングオブジェクトを重畳表示させることが可能となる。
なお、フィードバックオブジェクトの表示タイミングは、基準時点または後続時点のうちから選択されてもよく、ユーザ設定等によって予め決定されていてもよい。当然ながら、フィードバックオブジェクトの表示タイミングは、後から変更されてもよい。
このように、本実施形態の第5の変形例によれば、フィードバックオブジェクトは基準時点の後の所定の時点の経過後に重畳表示される。このため、フィードバックオブジェクトが基準時点から遅れて重畳表示されることにより、フィードバックオブジェクトが画面に長時間重畳表示されることによる画面の視認性の低下を抑制することが可能となる。
また、上記の所定の時点は、基準時点の候補となる時点である。このため、フィードバクオブジェクトがユーザにとって不自然なタイミングで重畳表示されないことにより、フィードバックオブジェクトの表示によってユーザに違和感を与える可能性を低下させることが可能となる。
なお、基準時点に基づいてフィードバックオブジェクトが重畳表示される場合においては以下のようなメリットがある。
例えば、ユーザ認知時点が基準時点である場合、ユーザの意図に対してフィードバックオブジェクトがいずれの他の時点よりも早く重畳表示されるため、操作位置が決定される前にユーザが位置を調整するための時間に余裕を持たせることが可能である。
また、例えば、ユーザ操作の検出開始時点が基準時点である場合、フィードバックオブジェクトの表示期間が変形例の場合と比べて短くなるため、画面の視認性の低下を抑制することが可能である。
(第6の変形例)
本実施形態の第6の変形例として、上述した操作位置の決定機能の動作有無は切り替えられてもよい。具体的には、制御部104は、ユーザ操作の対象に係る情報に基づいて、処理対象時点に得られる視線情報またはユーザ操作の検出終了の時点で得られている視線情報から、操作位置の決定に用いられる視線情報を選択する。
本実施形態の第6の変形例として、上述した操作位置の決定機能の動作有無は切り替えられてもよい。具体的には、制御部104は、ユーザ操作の対象に係る情報に基づいて、処理対象時点に得られる視線情報またはユーザ操作の検出終了の時点で得られている視線情報から、操作位置の決定に用いられる視線情報を選択する。
より具体的には、ユーザ操作の対象に係る情報は、上述したように、ユーザ操作の対象の種類である。例えば、ユーザ操作の対象は、アプリケーション、コンテンツ、画面またはオブジェクト等であり得る。例えばユーザ操作の対象であるアプリケーションの種類がアクション型のゲームアプリケーションである場合、ユーザ操作に迷いが生じにくいため、制御部104は、操作位置の決定機能をオンにし、すなわち処理対象時点に得られる視線情報に基づいて操作位置を決定する。
一方、例えば、ユーザ操作の対象であるコンテンツの種類が選択型のコンテンツである場合、ユーザ操作に迷いが生じ、ユーザ操作中に選択先を変更する可能性があるため、制御部104は、操作位置の決定機能をオフにし、すなわちユーザ操作の検出終了時点に得られている視線情報に基づいて操作位置を決定する。
また、制御部104は、ユーザ操作にかかる時間に基づいて、上記の操作位置の決定に用いられる視線情報を選択してもよい。例えば、制御部104は、ユーザ操作の検出開始から検出終了までの時間長が所定の長さよりも長い場合、操作位置の決定機能をオフにする。なお、当該時間長の始期はユーザ認知時点であってもよい。
このように、本実施形態の第6の変形例によれば、情報処理装置100−1は、ユーザ操作の対象に係る情報に基づいて、処理対象時点に得られる視線情報またはユーザ操作の検出終了の時点で得られている視線情報から、操作位置の決定に用いられる視線情報を選択する。このため、ユーザ操作に時間がかかる可能性のある場合に操作位置の決定機能がオフにされることにより、ユーザに違和感を与える可能性を低下させることが可能となる。
また、情報処理装置100−1は、ユーザ操作にかかる時間に基づいて、処理対象時点に得られる視線情報またはユーザ操作の検出終了の時点で得られている視線情報から、操作位置の決定に用いられる視線情報を選択する。このため、実際のユーザ操作時間を用いて操作位置の決定機能の利用有無が選択されることにより、ユーザの利便性とユーザへの違和感の抑制とを両立させることが可能となる。
<3.本開示の第2の実施形態(外界像におけるマーキング)>
以上、本開示の第1の実施形態に係る情報処理装置100−1について説明した。続いて、本開示の第2の実施形態に係る情報処理装置100−2について説明する。第2の実施形態では、外界像にマーカオブジェクトが重畳される。
以上、本開示の第1の実施形態に係る情報処理装置100−1について説明した。続いて、本開示の第2の実施形態に係る情報処理装置100−2について説明する。第2の実施形態では、外界像にマーカオブジェクトが重畳される。
<3−1.装置の構成>
まず、図8を参照して、本開示の第2の実施形態に係る情報処理装置100−2の機能構成について説明する。図8は、本実施形態に係る情報処理装置100−2の概略的な機能構成を示すブロック図である。なお、第1の実施形態に係る機能と実質的に同一である機能については説明を省略する。
まず、図8を参照して、本開示の第2の実施形態に係る情報処理装置100−2の機能構成について説明する。図8は、本実施形態に係る情報処理装置100−2の概略的な機能構成を示すブロック図である。なお、第1の実施形態に係る機能と実質的に同一である機能については説明を省略する。
情報処理装置100−2は、図8に示したように、通信部102、制御部104および記憶部106に加えて、撮像部108、集音部110および表示部112を備える。例えば、情報処理装置100−2は、人体の頭部に装着されるウェアラブルデバイス等であり得る。
本実施形態に係る制御部104の機能は、マーカオブジェクトの重畳表示対象が画像ではなく、外界像である点で第1の実施形態と異なる。具体的には、制御部104は、外界像に係る光を透過する表示部112にマーカオブジェクトを表示させることによって外界像にマーカオブジェクトを重畳表示させる。以下では、操作位置の決定およびマーキング機能、マーキングの共有機能ならびに視線検出およびトリガ検出機能について説明する。なお、操作位置の事前通知機能については、第1の実施形態と実質的に同一である。
(操作位置の決定およびマーキング機能)
制御部104は、情報処理装置100−2の位置および周辺の空間を推定し、推定される位置および空間(以下、装置周辺環境とも称する。)と視線情報およびトリガ情報とに基づいて操作位置を決定する。具体的には、制御部104は、取得されるセンサ情報に基づいて情報処理装置100−2の位置および周辺の空間を推定し、推定される装置周辺環境および基準時点に基づき特定される処理対象時点を特定する。そして、制御部104は、所定のトリガ情報が取得されると、特定される処理対象時点に得られる視線情報に基づいて操作位置を決定する。さらに、図9を参照して、本実施形態における制御部104の処理について詳細に説明する。図9は、本実施形態に係る情報処理システムの適用例を示す図である。
制御部104は、情報処理装置100−2の位置および周辺の空間を推定し、推定される位置および空間(以下、装置周辺環境とも称する。)と視線情報およびトリガ情報とに基づいて操作位置を決定する。具体的には、制御部104は、取得されるセンサ情報に基づいて情報処理装置100−2の位置および周辺の空間を推定し、推定される装置周辺環境および基準時点に基づき特定される処理対象時点を特定する。そして、制御部104は、所定のトリガ情報が取得されると、特定される処理対象時点に得られる視線情報に基づいて操作位置を決定する。さらに、図9を参照して、本実施形態における制御部104の処理について詳細に説明する。図9は、本実施形態に係る情報処理システムの適用例を示す図である。
制御部104は、センサ情報に基づいて装置周辺情報を推定する。例えば、制御部104は、撮像センサ(撮像部108)または測距センサ等から得られる情報に基づいて装置周辺環境を推定する。なお、センサ情報に基づいて環境マップが生成されてもよい。なお、操作位置の推定には、SLAM(Simultaneous Localization and Mapping)等の空間認識および位置同定に係る技術が用いられ得る。
また、制御部104は、視線情報を取得する。例えば、制御部104は、通信部102を介して図9の左図に示したようなユーザU2の視線を示す視線情報を取得する。
次に、視線情報が得られると、制御部104は、推定される装置周辺環境と視線情報とから特定される視線位置を示す視線オブジェクトを表示部112に表示させる。例えば、制御部104は、操作位置と視線情報とから視線位置を特定し、特定される視線位置に視線オブジェクト10が重畳表示されるように画像を生成する。そして、制御部104は、生成される画像を表示部112に表示させる。これにより、表示部112を通して外界像を見るユーザには、図9の左図に示したような視線オブジェクト10が外界像に重畳されて見える。
また、制御部104は、視線情報に基づいてユーザ認知有無の判定を行う。例えば、制御部104は、ユーザU2の複数の視線情報に基づいて視線停止判定を行う。
次に、制御部104は、ユーザ認知有無の判定結果に基づいて決定される候補位置にフィードバックオブジェクトを重畳表示させる。例えば、制御部104は、ユーザU2の視線が停止したと判定されると、図9の左図に示したような視線オブジェクト10があった位置を候補位置に決定し、図9の中図に示したように当該候補位置にフィードバックオブジェクト20を重畳表示させる。
次に、制御部104は、トリガ情報が取得されると、当該トリガ情報に基づいてユーザ操作の検出を開始する。例えば、制御部104は、集音部110から音情報が得られると、当該音情報に基づく音声認識処理を開始する。
ユーザ操作の検出が終了すると、制御部104は、検出されるユーザ操作が予め決定されるユーザ操作である場合、候補位置に相当する位置を操作位置に決定する。例えば、制御部104は、音声認識処理の結果に図9の左図に示したようなキーワード「ここ」が含まれているかを判定する。音声認識処理の結果にキーワードが含まれると判定される場合、制御部104は、候補位置に相当する位置すなわち図9の中図に示したようなフィードバックオブジェクト20が重畳表示されていた位置を操作位置に決定する。
次に、制御部104は、決定される操作位置についてのマーカオブジェクトの外界像への重畳表示を行う。例えば、制御部104は、操作位置が決定されると、図9の右図に示したようなマーカオブジェクト38を表示部112の画面の操作位置に対応する位置を示すように配置させる。そして、制御部104は、マーカオブジェクト38が配置された画像を表示部112に表示させることによって外界像にマーカオブジェクト38を重畳表示させる。
(マーキングの共有機能)
制御部104は、通信部102を介して他の情報処理装置にマーカオブジェクトの情報(以下、マーカ情報とも称する。)を提供する。さらに、図10を参照して、マーカ情報の共有について詳細に説明する。図10は、本実施形態に係る情報処理装置100−2のマーカ情報の共有処理を説明するための図である。
制御部104は、通信部102を介して他の情報処理装置にマーカオブジェクトの情報(以下、マーカ情報とも称する。)を提供する。さらに、図10を参照して、マーカ情報の共有について詳細に説明する。図10は、本実施形態に係る情報処理装置100−2のマーカ情報の共有処理を説明するための図である。
例えば、マーカオブジェクト38に係るマーカ情報は、情報処理装置100−2と接続されるサーバを介してまたは直接的に、図10に示したようなユーザU3の保持する他の情報処理装置に送信される。そして、他の情報処理装置は、共有されるマーカ情報に基づいてマーカオブジェクト38を表示部に表示させることによって、図10に示したように外界像にマーカオブジェクト38を重畳表示させる。
なお、情報処理装置100−2は、他の情報処理装置がマーカオブジェクトの重畳位置に近づくと、当該他の情報処理装置にマーカ情報を提供するとしてもよい。例えば、制御部104は、通信部102を介して他の情報処理装置の位置情報を取得し、マーキングに係る位置から所定の範囲内に当該他の情報処理装置が位置するかを判定する。所定の範囲内に他の情報処理装置が位置すると判定される場合、制御部104は、マーカ情報を当該他の情報処理装置に提供する。
(視線検出およびトリガ検出機能)
なお、制御部104は、第1の実施形態における視線検出装置200の視線検出機能および音検出装置300の音検出機能を備える。
なお、制御部104は、第1の実施形態における視線検出装置200の視線検出機能および音検出装置300の音検出機能を備える。
図8を参照して、情報処理装置100−2の構成についての説明に戻ると、撮像部108は、2種類の撮像を行う。具体的には、撮像部108は、情報処理装置100−2の周辺の撮像および視線検出用の撮像を行う。例えば、撮像部108は、情報処理装置100−2の周辺の撮像を行う第1の撮像部と、視線検出用の撮像を行う第2の撮像部を備える。第1の撮像部は、第1の実施形態における視線検出装置200の撮像部206と実質的に同一であるため、説明を省略する。第2の撮像部は、情報処理装置100−2を装着するユーザの目または目およびその周辺を撮像し、撮像により得られる画像を制御部104に提供する。
集音部110は、情報処理装置100−2の周辺において集音を行う。なお、集音部110の機能は、第1の実施形態における音検出装置300の集音部306の機能と実質的に同一であるため説明を省略する。
表示部112は、制御部104の指示に基づいて画像の表示を行う。具体的には、表示部112は、透過される外界光および画像光がユーザの目に入射されるような構造を有し、制御部104から提供される画像に係る画像光がユーザの目に入射されるように当該画像光を射出する。例えば、表示部112は、別途に備えられるディスプレイ等に画像を投影し、またはユーザの目に直接的に画像光を射出する。
<3−2.装置の処理>
本開示の第2の実施形態に係る情報処理装置100−2の処理は、装置周辺環境の推定処理以外は第1の実施形態の処理と実質的に同一であるため説明を省略する。
本開示の第2の実施形態に係る情報処理装置100−2の処理は、装置周辺環境の推定処理以外は第1の実施形態の処理と実質的に同一であるため説明を省略する。
<3−3.第2の実施形態のまとめ>
このように、本開示の第2の実施形態によれば、情報処理装置100−2は、表示オブジェクトを外界像に重畳表示する。このため、現実空間にマーカオブジェクトが重畳表示されることにより、ユーザは現実空間を変えることなく現実空間にマーキングを行うことができる。
このように、本開示の第2の実施形態によれば、情報処理装置100−2は、表示オブジェクトを外界像に重畳表示する。このため、現実空間にマーカオブジェクトが重畳表示されることにより、ユーザは現実空間を変えることなく現実空間にマーキングを行うことができる。
また、マーカ情報は、他の情報処理装置と共有される。このため、マーカオブジェクトが他人にも見えるように共有されることにより、ユーザの日常生活における他人とのコミュニケーションをより円滑にすることが可能となる。
<3−4.変形例>
以上、本開示の第2の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の第1および第2の変形例について説明する。
以上、本開示の第2の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の第1および第2の変形例について説明する。
(第1の変形例)
本実施形態の第1の変形例として、マーカ情報は、地図情報と対応付けられてもよい。具体的には、制御部104は、決定された操作位置すなわちマーカオブジェクトの重畳位置と地図情報における位置との対応付けを行い、当該対応付けを示す情報を生成する。さらに、図11を参照して、本変形例の処理について説明する。図11は、本実施形態の第1の変形例におけるマーカ情報が対応付けられた地図情報の例を示す図である。
本実施形態の第1の変形例として、マーカ情報は、地図情報と対応付けられてもよい。具体的には、制御部104は、決定された操作位置すなわちマーカオブジェクトの重畳位置と地図情報における位置との対応付けを行い、当該対応付けを示す情報を生成する。さらに、図11を参照して、本変形例の処理について説明する。図11は、本実施形態の第1の変形例におけるマーカ情報が対応付けられた地図情報の例を示す図である。
例えば、制御部104は、操作位置が決定され、マーカオブジェクトが外界像に重畳表示されると、当該操作位置すなわちマーカオブジェクトの重畳位置と地図情報における座標とを対応付ける。なお、地図情報における座標は、GPS(Global Positioning System)センサから得られる座標であってもよい。
そして、制御部104は、ユーザ操作等に基づいて、表示部112に図11に示したような地図情報を表示させる。当該地図情報には、マーカオブジェクトの重畳位置を示す表示オブジェクトとして、例えばマーカオブジェクト38そのものが表示される。なお、地図情報に表示される表示オブジェクトは、マーカオブジェクトと異なる表示オブジェクトであってもよい。
なお、マーカオブジェクトの重畳位置と対応付けられた地図情報または対応付け情報は、他の情報処理装置と共有されてもよい。
このように、本実施形態の第1の変形例によれば、マーカ情報は、地図情報と対応付けられる。このため、ユーザはマーカオブジェクトの重畳位置を俯瞰的に確認することができ、ユーザの利便性を向上させることが可能となる。
(第2の変形例)
本実施形態の第2の変形例として、ユーザ操作は、ユーザのジェスチャを用いた操作(以下、ジェスチャ操作とも称する。)であってもよい。具体的には、制御部104は、撮像部108の撮像により得られるユーザを被写体とする画像に基づいてジェスチャ操作を検出する。例えば、ジェスチャ操作は、ユーザを被写体とする画像から、ユーザの指、手、腕または他の部位の動きまたは姿勢に基づいて検出される。例えば、ジェスチャ操作は、指の突出し、指先の回転、うなずき、目の見開きまたはまばたき等であり得る。
本実施形態の第2の変形例として、ユーザ操作は、ユーザのジェスチャを用いた操作(以下、ジェスチャ操作とも称する。)であってもよい。具体的には、制御部104は、撮像部108の撮像により得られるユーザを被写体とする画像に基づいてジェスチャ操作を検出する。例えば、ジェスチャ操作は、ユーザを被写体とする画像から、ユーザの指、手、腕または他の部位の動きまたは姿勢に基づいて検出される。例えば、ジェスチャ操作は、指の突出し、指先の回転、うなずき、目の見開きまたはまばたき等であり得る。
なお、ジェスチャ操作は、ユーザに装着されるセンサから得られる情報に基づいて検出されてもよい。例えば、ユーザに装着されるセンサは、加速度センサ、角速度センサまたは地磁気センサ等であり得る。なお、当該センサは、ユーザが操作するデバイス、例えばゲームコントローラ等に備えられてもよい。
また、ユーザ操作は、入力デバイスの操作であってもよい。具体的には、制御部104は、情報処理装置100−2と接続される入力デバイスから得られる操作情報に基づいて入力デバイスの操作を検出する。例えば、制御部104は、入力デバイスから操作情報が得られると、当該入力デバイスの操作を得るまでにかかる時間の代表値、例えば平均値に基づいて入力デバイスの操作開始時点を特定する。さらに、特定される操作開始時点から当該入力デバイスの操作に係る上述したような反応時間が遡られることにより、ユーザ認知時点が特定される。制御部104は、このようにして特定される当該操作開始時点またはユーザ認知時点を基準時点として処理を行う。なお、入力デバイスは、プッシュ式ボタン、マウス、タッチパネル、感圧センサまたは静電容量センサを備える入力装置であり得る。
このように、本実施形態の第2の変形例によれば、ユーザ操作は、ユーザのジェスチャを用いた操作を含む。このため、ユーザが音を発生させることが困難な場合であっても、ユーザは直感的に操作位置を指定することができ、ユーザの利便性を向上させることが可能となる。
また、ユーザ操作は、入力デバイスの操作を含む。このため、音を用いた操作またはジェスチャ操作の場合と比べて操作検出処理が簡素化されることにより、処理時間を短縮することが可能となる。
<4.本開示の一実施形態に係る情報処理装置のハードウェア構成>
以上、本開示の各実施形態に係る情報処理装置100について説明した。上述した情報処理装置100の処理は、ソフトウェアと、以下に説明する情報処理装置100のハードウェアとの協働により実現される。
以上、本開示の各実施形態に係る情報処理装置100について説明した。上述した情報処理装置100の処理は、ソフトウェアと、以下に説明する情報処理装置100のハードウェアとの協働により実現される。
図12は、本開示の一実施形態に係る情報処理装置100のハードウェア構成を示した説明図である。図12に示したように、情報処理装置100は、CPU(Central Processing Unit)132と、ROM(Read Only Memory)134と、RAM(Random Access Memory)136と、ブリッジ138と、バス140と、インターフェース142と、入力装置144と、出力装置146と、ストレージ装置148と、ドライブ150と、接続ポート152と、通信装置154とを備える。
CPU132は、演算処理装置として機能し、各種プログラムと協働して情報処理装置100内の制御部104の動作を実現する。また、CPU132は、マイクロプロセッサであってもよい。ROM134は、CPU132が使用するプログラムまたは演算パラメータ等を記憶する。RAM136は、CPU132の実行にいて使用するプログラムまたは実行において適宜変化するパラメータ等を一時記憶する。ROM134およびRAM136により、情報処理装置100内の記憶部106の一部を実現する。CPU132、ROM134およびRAM136は、CPUバスなどから構成される内部バスにより相互に接続されている。
入力装置144は、例えば、情報処理装置100の撮像部108および集音部110の一例として、マウス、キーボード、タッチパネル、ボタン、マイクロホン、スイッチおよびレバーなどユーザが情報を入力するための入力手段、およびユーザによる入力に基づいて入力信号を生成し、CPU132に出力する入力制御回路などから構成されている。情報処理装置100のユーザは、入力装置144を操作することにより、情報処理装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置146は、例えば、情報処理装置100の表示部112の一例として、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプなどの装置への出力を行う。さらに、出力装置146は、スピーカおよびヘッドフォンなどの音声出力を行ってもよい。
ストレージ装置148は、データ格納用の装置である。ストレージ装置148は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されるデータを削除する削除装置等を含んでもよい。ストレージ装置148は、CPU132が実行するプログラムや各種データを格納する。
ドライブ150は、記憶媒体用リーダライタであり、情報処理装置100に内蔵、あるいは外付けされる。ドライブ150は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM134に出力する。また、ドライブ150は、リムーバブル記憶媒体に情報を書込むこともできる。
接続ポート152は、例えば、情報処理装置100の外部の情報処理装置または周辺機器と接続するためのバスである。また、接続ポート152は、USB(Universal Serial Bus)であってもよい。
通信装置154は、例えば、情報処理装置100の通信部102の一例として、ネットワークに接続するための通信デバイスで構成される通信インターフェースである。また、通信装置154は、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
<5.むすび>
以上、本開示の第1の実施形態によれば、操作対象位置をユーザが認知した時点からユーザ操作の検出が完了するまでの間にタイムラグが生じる場合であっても、当該タイムラグによる操作位置とユーザの意図する操作対象位置とのずれが抑制される。その結果、ユーザ操作に係る処理が行われる位置についてユーザの違和感を抑制することが可能となる。また、本開示の第2の実施形態によれば、現実空間にマーカオブジェクトが重畳表示されることにより、ユーザは現実空間を変えることなく現実空間にマーキングを行うことができる。
以上、本開示の第1の実施形態によれば、操作対象位置をユーザが認知した時点からユーザ操作の検出が完了するまでの間にタイムラグが生じる場合であっても、当該タイムラグによる操作位置とユーザの意図する操作対象位置とのずれが抑制される。その結果、ユーザ操作に係る処理が行われる位置についてユーザの違和感を抑制することが可能となる。また、本開示の第2の実施形態によれば、現実空間にマーカオブジェクトが重畳表示されることにより、ユーザは現実空間を変えることなく現実空間にマーキングを行うことができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、視線停止判定処理は、位置についての視線の停止であるとしたが、本技術はかかる例に限定されない。例えば、視線停止判定処理は、物体についての視線の停止であってもよい。制御部104は、視線先における物体の有無を判定し、物体が存在する場合、当該物体について視線停止判定を行う。例えば、物体が移動する場合、当該物体の移動についての視線の追従有無が判定される。視線が追従していると判定される場合、視線が停止していると判定される。
また、上記実施形態では、操作位置が決定される例を説明したが、操作位置の決定前に当該操作位置の決定処理が中止されてもよい。例えば、ユーザの視線停止が検出された後、操作位置の決定前にユーザの視線が変更された場合、当該視線停止に係る操作位置の決定処理がキャンセルされる。なお、操作位置の決定処理がキャンセルされるまでは、フィードバックオブジェクトが重畳表示されてもよい。
また、上記実施形態では、ユーザによって発せられる音がユーザの音声である例を説明したが、ユーザによって発せられる音はユーザの動作によって発生する音であってもよい。例えば、ユーザの動作によって発生する音は、フィンガースナップ等のユーザが身体を用いて発生させる音、または楽器もしくはブザー等の音を発生させる器具もしくは装置をユーザが操作することによって発生する音であり得る。
また、上記実施形態では、視線情報が視線を示す情報であり、制御部104が視線位置を特定する例を説明したが、視線情報は、視線位置を示す情報であってもよい。この場合、視線位置は視線検出部装置200等によって特定される。また、視線情報は、視線検出装置200における撮像により得られる画像に係る画像情報であってもよく、この場合、制御部104が視線検出および視線位置の特定を行う。
また、上記実施形態では、音情報は、音を示す情報である例を説明したが、音情報は、キーワードを含むか否かを示す情報であってもよい。例えば、音検出装置300の制御部304が、集音された音についてキーワードが含まれるかを判定し、キーワードが含まれる場合、キーワードが発話された旨を示す音情報を生成する。そして、当該音情報が受信されると、情報処理装置100の制御部104は、視線位置に相当する位置を操作位置に決定する。
また、上記実施形態では、フィードバックオブジェクトおよびマーカオブジェクトの様々な形態について説明したが、視線オブジェクトについても同様に様々な形態が採用され得る。また、これらの表示オブジェクトは、情報処理装置100−1またはユーザによって予め決定されてもよく、設定変更により変更されてもよい。
また、上記実施形態では、情報処理装置100の外部の表示装置400または情報処理装置100の備える表示部112にマーカオブジェクトが表示される例を説明したが、マーカオブジェクトは壁面または天井等に投影されてもよい。例えば、車のフロントガラスまたはサイドガラスにマーカオブジェクトが投影されてもよい。
また、本開示の各実施形態に係る情報処理装置100および情報処理システムは、医療分野、農業分野または自動車分野に適用されてもよい。例えば、医療分野においては、情報処理装置100によって、レントゲン写真またはMRI(Magnetic Resonance Imaging)画像にマーカオブジェクトが重畳表示されたり、手術映像または手術室の空間にマーカオブジェクトが重畳表示されたりする。この場合、本開示の各実施形態の構成によれば、マーカオブジェクトがユーザの意図しない位置に重畳表示される可能性が低下することにより、医療従事者の間で情報が正しく共有され、医療の安全性が向上され得る。
また、農業分野においては、例えば、情報処理装置100によって、特定の木についてマーキングが行われ、マーキングを行ったユーザと異なるユーザが当該マーキングに係るマーカオブジェクトを目印にして、例えば農薬散布等の農作業を行う。この場合、本開示の各実施形態の構成によれば、誤った位置にマーキングされる可能性が低下されることにより、農業における作業効率が改善され得る。
また、自動車分野においては、例えば、情報処理装置100によって、ナビシートに座るユーザの操作に基づいて車両周辺のランドマークにマーキングが行われる。そして、当該マーキングに係るマーカ情報が別の情報処理装置100を介して運転手に共有され、運転手はマーキングに従って自動車を運転する。この場合、本開示の各実施形態の構成によれば、誤った位置にマーキングされる可能性が低下されることにより、運転手が道に迷う可能性および事故が発生する可能性が低下し得る。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
また、上記の実施形態のフローチャートに示されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的にまたは個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの視線に係る視線情報およびユーザ操作の検出結果を得る入力部と、
前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定する位置決定部と、
を備える情報処理装置。
(2)
前記位置決定部によって決定される前記操作位置についての表示オブジェクトの表示制御を行う表示制御部をさらに備える、前記(1)に記載の情報処理装置。
(3)
前記第1の時点は、前記ユーザ操作の対象となる操作対象位置についてのユーザの認知に係る時点を含む、前記(2)に記載の情報処理装置。
(4)
前記ユーザの認知に係る時点は、前記ユーザの視線の停止有無の判定結果に基づいて推定される、前記(3)に記載の情報処理装置。
(5)
前記ユーザの認知に係る時点は、前記ユーザ操作についての人間の反応時間に基づいて推定される、前記(3)または(4)に記載の情報処理装置。
(6)
前記第1の時点は、前記ユーザ操作の開始に係る時点を含む、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記ユーザ操作の開始に係る時点は、前記ユーザ操作に用いられる物体の動きに基づいて推定される、前記(6)に記載の情報処理装置。
(8)
前記第1の時点は、前記ユーザ操作の検出開始以前の時点から、所定の情報に基づいて選択される時点を含む、前記(2)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記第1の時点は、前記ユーザ操作の対象となる操作対象位置についてのユーザの認知に係る時点または前記ユーザ操作の検出開始に係る時点のうち、前記所定の情報に基づいて選択される一方の時点を含む、前記(8)に記載の情報処理装置。
(10)
前記所定の情報は、前記ユーザの認知に係る時点と前記ユーザ操作の開始に係る時点との間の時間長に係る情報を含む、前記(9)に記載の情報処理装置。
(11)
前記所定の情報は、前記ユーザ操作の種類または前記ユーザ操作の対象に係る情報を含む、前記(9)または(10)に記載の情報処理装置。
(12)
前記第2の時点は、前記視線情報が得られる時点のうち、いずれの他の時点よりも前記第1の時点に近い時点を含む、前記(2)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記位置決定部は、前記ユーザ操作の対象に係る情報または前記ユーザ操作にかかる時間に基づいて、前記第2の時点に得られる前記視線情報または前記ユーザ操作の検出終了の時点で得られている前記視線情報から、前記操作位置の決定に用いられる前記視線情報を選択する、前記(2)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記表示制御部は、前記操作位置となるべき候補位置が特定される第2の表示オブジェクトの表示制御を行い、
前記第2の表示オブジェクトは、前記第1の時点の後から前記操作位置が決定されるまでの間、前記候補位置に基づいて表示される、前記(2)〜(13)のいずれか1項に記載の情報処理装置。
(15)
前記第2の表示オブジェクトは、時間経過とともに視覚的に変化する、前記(14)に記載の情報処理装置。
(16)
前記第2の表示オブジェクトは、前記候補位置に向かって変化するように表示される、前記(15)に記載の情報処理装置。
(17)
前記ユーザ操作は、ユーザによって発せられる音を用いた操作を含む、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(18)
前記ユーザ操作は、ユーザのジェスチャを用いた操作または入力デバイスの操作を含む、前記(1)〜(17)のいずれか1項に記載の情報処理装置。
(19)
入力部によってユーザの視線に係る視線情報およびユーザ操作の検出結果を得ることと、
前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定することと、
を含む情報処理方法。
(20)
ユーザの視線に係る視線情報およびユーザ操作の検出結果を得る入力機能と、
前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定する位置決定機能と、
をコンピュータに実現させるためのプログラム。
(1)
ユーザの視線に係る視線情報およびユーザ操作の検出結果を得る入力部と、
前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定する位置決定部と、
を備える情報処理装置。
(2)
前記位置決定部によって決定される前記操作位置についての表示オブジェクトの表示制御を行う表示制御部をさらに備える、前記(1)に記載の情報処理装置。
(3)
前記第1の時点は、前記ユーザ操作の対象となる操作対象位置についてのユーザの認知に係る時点を含む、前記(2)に記載の情報処理装置。
(4)
前記ユーザの認知に係る時点は、前記ユーザの視線の停止有無の判定結果に基づいて推定される、前記(3)に記載の情報処理装置。
(5)
前記ユーザの認知に係る時点は、前記ユーザ操作についての人間の反応時間に基づいて推定される、前記(3)または(4)に記載の情報処理装置。
(6)
前記第1の時点は、前記ユーザ操作の開始に係る時点を含む、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記ユーザ操作の開始に係る時点は、前記ユーザ操作に用いられる物体の動きに基づいて推定される、前記(6)に記載の情報処理装置。
(8)
前記第1の時点は、前記ユーザ操作の検出開始以前の時点から、所定の情報に基づいて選択される時点を含む、前記(2)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記第1の時点は、前記ユーザ操作の対象となる操作対象位置についてのユーザの認知に係る時点または前記ユーザ操作の検出開始に係る時点のうち、前記所定の情報に基づいて選択される一方の時点を含む、前記(8)に記載の情報処理装置。
(10)
前記所定の情報は、前記ユーザの認知に係る時点と前記ユーザ操作の開始に係る時点との間の時間長に係る情報を含む、前記(9)に記載の情報処理装置。
(11)
前記所定の情報は、前記ユーザ操作の種類または前記ユーザ操作の対象に係る情報を含む、前記(9)または(10)に記載の情報処理装置。
(12)
前記第2の時点は、前記視線情報が得られる時点のうち、いずれの他の時点よりも前記第1の時点に近い時点を含む、前記(2)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記位置決定部は、前記ユーザ操作の対象に係る情報または前記ユーザ操作にかかる時間に基づいて、前記第2の時点に得られる前記視線情報または前記ユーザ操作の検出終了の時点で得られている前記視線情報から、前記操作位置の決定に用いられる前記視線情報を選択する、前記(2)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記表示制御部は、前記操作位置となるべき候補位置が特定される第2の表示オブジェクトの表示制御を行い、
前記第2の表示オブジェクトは、前記第1の時点の後から前記操作位置が決定されるまでの間、前記候補位置に基づいて表示される、前記(2)〜(13)のいずれか1項に記載の情報処理装置。
(15)
前記第2の表示オブジェクトは、時間経過とともに視覚的に変化する、前記(14)に記載の情報処理装置。
(16)
前記第2の表示オブジェクトは、前記候補位置に向かって変化するように表示される、前記(15)に記載の情報処理装置。
(17)
前記ユーザ操作は、ユーザによって発せられる音を用いた操作を含む、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(18)
前記ユーザ操作は、ユーザのジェスチャを用いた操作または入力デバイスの操作を含む、前記(1)〜(17)のいずれか1項に記載の情報処理装置。
(19)
入力部によってユーザの視線に係る視線情報およびユーザ操作の検出結果を得ることと、
前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定することと、
を含む情報処理方法。
(20)
ユーザの視線に係る視線情報およびユーザ操作の検出結果を得る入力機能と、
前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定する位置決定機能と、
をコンピュータに実現させるためのプログラム。
100 情報処理装置
102 通信部
104 制御部
106 記憶部
108 撮像部
110 集音部
112 表示部
200 視線検出装置
300 音検出装置
400 表示装置
102 通信部
104 制御部
106 記憶部
108 撮像部
110 集音部
112 表示部
200 視線検出装置
300 音検出装置
400 表示装置
Claims (20)
- ユーザの視線に係る視線情報およびユーザ操作の検出結果を得る入力部と、
前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定する位置決定部と、
を備える情報処理装置。 - 前記位置決定部によって決定される前記操作位置についての表示オブジェクトの表示制御を行う表示制御部をさらに備える、請求項1に記載の情報処理装置。
- 前記第1の時点は、前記ユーザ操作の対象となる操作対象位置についてのユーザの認知に係る時点を含む、請求項2に記載の情報処理装置。
- 前記ユーザの認知に係る時点は、前記ユーザの視線の停止判定結果に基づいて推定される、請求項3に記載の情報処理装置。
- 前記ユーザの認知に係る時点は、前記ユーザ操作についての人間の反応時間に基づいて推定される、請求項3に記載の情報処理装置。
- 前記第1の時点は、前記ユーザ操作の開始に係る時点を含む、請求項2に記載の情報処理装置。
- 前記ユーザ操作の開始に係る時点は、前記ユーザ操作に用いられる物体の動きに基づいて推定される、請求項6に記載の情報処理装置。
- 前記第1の時点は、前記ユーザ操作の検出開始以前の時点から、所定の情報に基づいて選択される時点を含む、請求項2に記載の情報処理装置。
- 前記第1の時点は、前記ユーザ操作の対象となる操作対象位置についてのユーザの認知に係る時点または前記ユーザ操作の検出開始に係る時点のうち、前記所定の情報に基づいて選択される一方の時点を含む、請求項8に記載の情報処理装置。
- 前記所定の情報は、前記ユーザの認知に係る時点と前記ユーザ操作の開始に係る時点との間の時間長に係る情報を含む、請求項9に記載の情報処理装置。
- 前記所定の情報は、前記ユーザ操作の種類または前記ユーザ操作の対象に係る情報を含む、請求項9に記載の情報処理装置。
- 前記第2の時点は、前記視線情報が得られる時点のうち、いずれの他の時点よりも前記第1の時点に近い時点を含む、請求項2に記載の情報処理装置。
- 前記位置決定部は、前記ユーザ操作の対象に係る情報または前記ユーザ操作にかかる時間に基づいて、前記第2の時点に得られる前記視線情報または前記ユーザ操作の検出終了の時点で得られている前記視線情報から、前記操作位置の決定に用いられる前記視線情報を選択する、請求項2に記載の情報処理装置。
- 前記表示制御部は、前記操作位置の候補である候補位置が特定される第2の表示オブジェクトの表示制御を行い、
前記第2の表示オブジェクトは、前記第1の時点の後から前記操作位置が決定されるまでの間、前記候補位置に基づいて表示される、請求項2に記載の情報処理装置。 - 前記第2の表示オブジェクトは、時間経過とともに視覚的に変化する、請求項14に記載の情報処理装置。
- 前記第2の表示オブジェクトは、前記候補位置に向かって変化するように表示される、請求項15に記載の情報処理装置。
- 前記ユーザ操作は、ユーザによって発せられる音を用いた操作を含む、請求項1に記載の情報処理装置。
- 前記ユーザ操作は、ユーザのジェスチャを用いた操作または入力デバイスの操作を含む、請求項1に記載の情報処理装置。
- 入力部によってユーザの視線に係る視線情報およびユーザ操作の検出結果を得ることと、
前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定することと、
を含む情報処理方法。 - ユーザの視線に係る視線情報およびユーザ操作の検出結果を得る入力機能と、
前記ユーザ操作の検出開始以前の第1の時点に基づいて特定される第2の時点に得られた前記視線情報に基づいて、前記ユーザ操作に係る処理が行われる操作位置を決定する位置決定機能と、
をコンピュータに実現させるためのプログラム。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015129163A JP2017016198A (ja) | 2015-06-26 | 2015-06-26 | 情報処理装置、情報処理方法およびプログラム |
| PCT/JP2016/062403 WO2016208261A1 (ja) | 2015-06-26 | 2016-04-19 | 情報処理装置、情報処理方法およびプログラム |
| DE112016002894.6T DE112016002894T5 (de) | 2015-06-26 | 2016-04-19 | Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm |
| US15/566,901 US10496186B2 (en) | 2015-06-26 | 2016-04-19 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015129163A JP2017016198A (ja) | 2015-06-26 | 2015-06-26 | 情報処理装置、情報処理方法およびプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017016198A true JP2017016198A (ja) | 2017-01-19 |
Family
ID=57585498
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015129163A Pending JP2017016198A (ja) | 2015-06-26 | 2015-06-26 | 情報処理装置、情報処理方法およびプログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US10496186B2 (ja) |
| JP (1) | JP2017016198A (ja) |
| DE (1) | DE112016002894T5 (ja) |
| WO (1) | WO2016208261A1 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6425860B1 (ja) * | 2018-01-18 | 2018-11-21 | 三菱電機株式会社 | 機器操作装置、機器操作システムおよび機器操作方法 |
| JP2019200651A (ja) * | 2018-05-17 | 2019-11-21 | オリンパス株式会社 | 情報処理装置、情報処理方法およびプログラム |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102092931B1 (ko) * | 2017-09-13 | 2020-03-24 | 주식회사 비주얼캠프 | 시선 추적 방법 및 이를 수행하기 위한 사용자 단말 |
| JP6276460B1 (ja) | 2017-10-03 | 2018-02-07 | 株式会社 ディー・エヌ・エー | ゲームを提供するためのプログラム、システム、及び方法 |
| US10871874B2 (en) * | 2018-05-09 | 2020-12-22 | Mirametrix Inc. | System and methods for device interaction using a pointing device and attention sensing device |
| WO2020189254A1 (ja) * | 2019-03-15 | 2020-09-24 | ソニー株式会社 | 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体 |
| WO2022158292A1 (ja) * | 2021-01-21 | 2022-07-28 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4847605A (en) * | 1987-04-27 | 1989-07-11 | International Business Machines Corporation | Picking in a graphics system |
| US5386494A (en) * | 1991-12-06 | 1995-01-31 | Apple Computer, Inc. | Method and apparatus for controlling a speech recognition function using a cursor control device |
| JPH07284166A (ja) * | 1993-03-12 | 1995-10-27 | Mitsubishi Electric Corp | 遠隔操作装置 |
| JPH09251342A (ja) * | 1996-03-15 | 1997-09-22 | Toshiba Corp | 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法 |
| US5689619A (en) * | 1996-08-09 | 1997-11-18 | The United States Of America As Represented By The Secretary Of The Army | Eyetracker control of heads-up displays |
| US6867790B1 (en) * | 1996-08-09 | 2005-03-15 | International Business Machines Corporation | Method and apparatus to conditionally constrain pointer movement on a computer display using visual cues, controlled pointer speed and barriers on the display which stop or restrict pointer movement |
| JPH11184621A (ja) * | 1997-12-25 | 1999-07-09 | Shimadzu Corp | 視線入力装置 |
| JP3477675B2 (ja) * | 1999-06-04 | 2003-12-10 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ポインタ操作の補助方法 |
| US6729731B2 (en) * | 2001-06-11 | 2004-05-04 | Info Valley Corporation | Untethered laser pointer for use with computer display |
| US6724368B2 (en) * | 2001-12-14 | 2004-04-20 | Koninklijke Philips Electronics N.V. | Remote control system and method for a television receiver |
| JP5355097B2 (ja) * | 2007-01-12 | 2013-11-27 | 株式会社カプコン | 表示制御装置、制御方法、プログラム、及びこのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
| WO2008099306A1 (en) * | 2007-02-12 | 2008-08-21 | Philips Intellectual Property & Standards Gmbh | Modular electric system |
| US20120257035A1 (en) | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
| JP2013255781A (ja) * | 2012-05-16 | 2013-12-26 | Taika:Kk | 視線検出ユニットとディスプレイ用ポインティングデバイスのための注視点の調整方法 |
| JP5942586B2 (ja) * | 2012-05-18 | 2016-06-29 | 富士通株式会社 | タブレット端末および操作受付プログラム |
| JP2014126997A (ja) * | 2012-12-26 | 2014-07-07 | Denso Corp | 操作装置、及び操作検出方法 |
| JP6255954B2 (ja) * | 2013-12-03 | 2018-01-10 | 富士通株式会社 | 動作入力装置、動作入力プログラム及び動作入力方法 |
-
2015
- 2015-06-26 JP JP2015129163A patent/JP2017016198A/ja active Pending
-
2016
- 2016-04-19 DE DE112016002894.6T patent/DE112016002894T5/de not_active Withdrawn
- 2016-04-19 US US15/566,901 patent/US10496186B2/en active Active
- 2016-04-19 WO PCT/JP2016/062403 patent/WO2016208261A1/ja not_active Ceased
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6425860B1 (ja) * | 2018-01-18 | 2018-11-21 | 三菱電機株式会社 | 機器操作装置、機器操作システムおよび機器操作方法 |
| WO2019142295A1 (ja) * | 2018-01-18 | 2019-07-25 | 三菱電機株式会社 | 機器操作装置、機器操作システムおよび機器操作方法 |
| JP2019200651A (ja) * | 2018-05-17 | 2019-11-21 | オリンパス株式会社 | 情報処理装置、情報処理方法およびプログラム |
| JP7064952B2 (ja) | 2018-05-17 | 2022-05-11 | オリンパス株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2016208261A1 (ja) | 2016-12-29 |
| US20180129303A1 (en) | 2018-05-10 |
| US10496186B2 (en) | 2019-12-03 |
| DE112016002894T5 (de) | 2018-03-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2016208261A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
| US20240200962A1 (en) | Providing directional awareness indicators based on context | |
| JP6664512B2 (ja) | アイブレインインターフェースシステムのキャリブレーション方法、及びシステム内のスレーブデバイス、ホストデバイス | |
| US10489981B2 (en) | Information processing device, information processing method, and program for controlling display of a virtual object | |
| US11328187B2 (en) | Information processing apparatus and information processing method | |
| KR101638095B1 (ko) | 시선 인식 및 생체 신호를 이용한 헤드 마운트 디스플레이를 통해 사용자 인터페이스를 제공하는 방법, 이를 이용한 장치 및 컴퓨터 판독 가능한 기록 매체 | |
| JP2021096490A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| JP7271909B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
| US20180150133A1 (en) | Glasses-type terminal and control method therefor | |
| JP2019160033A (ja) | 表示制御装置およびプログラム | |
| US20200143774A1 (en) | Information processing device, information processing method, and computer program | |
| CN108369451B (zh) | 信息处理装置、信息处理方法及计算机可读存储介质 | |
| CN111515946B (zh) | 一种人体辅助机器人的控制方法及装置 | |
| JP6206949B2 (ja) | 視野制限画像データ作成プログラム及びこれを用いた視野制限装置 | |
| US20200159318A1 (en) | Information processing device, information processing method, and computer program | |
| US20240122469A1 (en) | Virtual reality techniques for characterizing visual capabilities | |
| CN110018733A (zh) | 确定用户触发意图的方法、设备和存储器设备 | |
| WO2016151958A1 (ja) | 情報処理装置、情報処理システム、情報処理方法およびプログラム | |
| US20250281085A1 (en) | Systems and methods for performing a motor skills neurological test using augmented or virtual reality | |
| WO2024166116A1 (en) | Retina image references for gaze tracking | |
| JP2025022438A (ja) | 情報処理装置、情報処理装置の制御方法、表示装置、表示装置の制御方法、システム、プログラム | |
| KR20250050092A (ko) | 시선 추적 등록을 위한 사용자 인터페이스들 | |
| WO2025053070A1 (ja) | 情報処理装置、情報処理システム、情報処理方法、プログラム |