[go: up one dir, main page]

JP2016035625A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2016035625A
JP2016035625A JP2014157648A JP2014157648A JP2016035625A JP 2016035625 A JP2016035625 A JP 2016035625A JP 2014157648 A JP2014157648 A JP 2014157648A JP 2014157648 A JP2014157648 A JP 2014157648A JP 2016035625 A JP2016035625 A JP 2016035625A
Authority
JP
Japan
Prior art keywords
user
detection unit
movement
hand
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014157648A
Other languages
English (en)
Inventor
大木 光晴
Mitsuharu Oki
光晴 大木
功 広田
Isao Hirota
功 広田
光永 知生
Tomoo Mitsunaga
知生 光永
高橋 宏彰
Hiroaki Takahashi
宏彰 高橋
哲平 栗田
Teppei Kurita
哲平 栗田
創造 横川
Sozo Yokokawa
創造 横川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014157648A priority Critical patent/JP2016035625A/ja
Priority to PCT/JP2015/064501 priority patent/WO2016017250A1/ja
Publication of JP2016035625A publication Critical patent/JP2016035625A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】耳の周囲での操作を容易に行うことができる技術が求められていた。【解決手段】本開示によれば、ユーザの耳の周囲に存在する物体の動きを遠隔検知する検知部を備えることを特徴とする、情報処理装置が提供される。本開示によれば、検知部によって物体の動きを遠隔検知することができるので、物体の動き、例えばユーザの手の動きを遠隔検知することができる。したがって、耳の周囲での操作を容易に行うことができる。もちろん、本開示による効果はこれに限られない。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
特許文献1は、ヘッドマウントディスプレイ(HMD)のテンプル部に棒状の操作部を設ける技術を開示する。この技術では、ユーザは、棒状の操作部を手で操作する。即ち、ユーザは、耳の周囲で操作を行う。
特開2014−49934号公報
しかし、この技術では、操作部がユーザにとって見えにくい位置にあるので、ユーザは、テンプル部の周囲で手を動かしながら操作部を探し当てる必要がある。このため、耳の周囲での操作に手間がかかっていた。
このため、耳の周囲での操作を容易に行うことができる技術が求められていた。
本開示によれば、ユーザの耳の周囲に存在する物体の動きを遠隔検知する検知部を備えることを特徴とする、情報処理装置が提供される。
本開示によれば、ユーザの耳の周囲に存在する物体の動きを検知部によって遠隔検知することを含む、情報処理方法が提供される。
本開示によれば、コンピュータに、ユーザの耳の周囲に存在する物体の動きを遠隔検知する検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う制御機能を実現させる、プログラムが提供される。
本開示によれば、検知部によって物体の動きを遠隔検知することができる。
以上説明したように本開示によれば、検知部によって物体の動きを遠隔検知することができるので、物体の動き、例えばユーザの手の動きを遠隔検知することができる。したがって、耳の周囲での操作を容易に行うことができる。本開示に係る技術は、本明細書中に記載されたいずれかの効果、または他の効果を有するものであってもよい。
本開示の実施形態に係る情報処理装置及び情報処理装置が装着された頭部装着部材の一例を示す斜視図である。 イメージセンサの構成を示すブロック図である。 イメージセンサのハードウェア構成図である。 情報処理装置の構成を示すブロック図である。 画像解析装置のハードウェア構成図である。 頭部装着部材を装着したユーザが手を耳の周囲に近づける様子を示す平面図である。 ユーザが耳の周囲の手を動かす方向の一例を示す側面図である。 ユーザが手を前に移動させた状態を示す側面図である。 ユーザが手を耳の周囲に近づけた状態を示す説明図である。 情報処理装置による処理の概要を示すフローチャートである。 情報処理装置による処理の手順を示すフローチャートである。 情報処理装置による処理の手順を示すフローチャートである。 情報処理装置の状態遷移図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 情報処理装置による処理の変形例を示す状態遷移図である。 情報処理装置による処理の変形例を示す状態遷移図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサによる検知対象の変形例を示す説明図である。 手の形状の例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 イメージセンサによって撮像される領域と撮像されない領域とを示す説明図である。 イメージセンサが取得する撮像画像の一例を示す説明図である。 情報処理装置が装着された頭部装着部材の変形例を示す斜視図である。 情報処理装置の構成の変形例を示す斜視図である。 情報処理装置の構成の変形例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.情報処理装置の構成
1−1.全体構成
1−2.イメージセンサの構成
1−3.画像解析装置の構成
2.ハンドジェスチャの概要
3.情報処理装置による処理の概要
4.情報処理装置による処理の手順
5.各種変形例
5−1.情報処理装置の第1変形例
5−2.情報処理装置の第2変形例
5−3.情報処理装置の第3変形例
5−4.情報処理装置の第4変形例
5−5.情報処理装置の第5変形例
5−6.情報処理装置の第6変形例
5−7.情報処理装置の第7変形例
5−8.情報処理装置の第8変形例
5−9.情報処理装置の第9変形例
5−10.情報処理装置の第10変形例
5−11.情報処理装置の第11変形例
5−12.情報処理装置の第12変形例
5−13.情報処理装置の第13変形例
5−14.情報処理装置の第14変形例
<1.情報処理装置の構成>
(1−1.全体構成)
まず、図1に基づいて、本実施形態に係る情報処理装置1の全体構成(概要)について説明する。図1に示すように、情報処理装置1は、イメージセンサ(検知部)10と、画像解析装置20とを備える。イメージセンサ10と画像解析装置20とは信号線30で連結される。また、画像解析装置20は操作対象機器200と信号線40で連結される。また、イメージセンサ10及び画像解析装置20は、頭部装着部材100に装着される。図1に示される頭部装着部材100はメガネとなっており、ユーザU(図6等参照)の頭部に装着される。もちろん、頭部装着部材100はメガネに限定されない。他の例としては、ヘッドフォン、ヘッドマウントディスプレイ、ゴーグル、イヤホン、ヘルメット、帽子等が挙げられる。イメージセンサ10及び画像解析装置20は、頭部装着部材100のうち、ユーザUの耳U10に装着される部分、即ちテンプル部110に装着される。テンプル部110は、熱伝導性の高い素材(例えば金属)で構成されてもよい。これにより、イメージセンサ10及び画像解析装置20で発生する熱がテンプル部110に効率的に伝ええられるので、イメージセンサ10及び画像解析装置20が効率的に冷却される。
イメージセンサ10は、ユーザUの耳(右耳)U10の周囲に存在する物体を遠隔検知する。ここで、遠隔検知とは、イメージセンサ10に非接触の物体を検知することを意味する。イメージセンサ10は、イメージセンサ10に接触した物体を検知することもできる。イメージセンサ10による検知の対象となる物体は、例えばユーザUの手(右手)U1である。イメージセンサ10は、具体的には、耳U10の周囲を撮像することで撮像画像を取得し、撮像画像に関する撮像画像情報(検知情報)を画像解析装置20に出力する。
画像解析装置20は、撮像画像情報に基づいて、物体の動きを解析(認識)し、物体の動きに応じた処理を行う。例えば、画像解析装置20は、物体の動きに応じた指示情報を生成し、操作対象機器200に出力する。操作対象機器200は、指示情報に基づいて、各種の処理を行う。操作対象機器200は、画像解析装置20からの指示情報を受信し、指示情報に応じた処理を実行する装置である。操作対象機器200の種類は特に問われない。操作対象機器200は、例えば、オーディオ機器、ディスプレイ、パーソナルコンピュータ(デスクトップ型、ノート型含む)、携帯電話、スマートフォン、スマートタブレット、ユーザUの身体に取り付けるカメラ、車載器などであってもよい。指示情報の具体的な内容は操作対象機器200に応じて異なる。操作対象機器200がオーディオ機器となる場合、指示情報は、例えば、早送り、再生、巻き戻し等を指示する情報となる。
特に、操作対象機器200がユーザUの身体に取り付けるカメラ(以下、「動作撮像用カメラ」とも称する)となる場合、操作対象機器200は、ユーザUが何らの動作を行っている間に撮像を行う。したがって、ユーザUは、操作対象機器200の操作を正確に行いにくい場合がある。そこで、操作対象機器200が動作撮像用カメラとなり、かつ、ユーザUがスキーを行う場合、ゴーグル(頭部装着部材100)に情報処理装置1を取り付ける。この場合、ユーザUは、スキーを楽しみながら、手Uを耳U10の周囲に移動させて、ハンドジェスチャを行う。これに応じて、イメージセンサ10は、ハンドジェスチャを遠隔検知する。画像解析装置は、ハンドジェスチャを認識し、ハンドジェスチャに応じた処理(例えば、操作対象機器200への録画開始、録画終了指示等)を行う。したがって、ユーザUは、操作対象機器200を簡単に操作することができる。
したがって、ユーザUは、手U1を耳U10の周囲まで移動させ、その後、何らかのハンドジェスチャ(手U1を用いたジェスチャ操作)を行うことで、そのハンドジェスチャに応じた処理を操作対象機器200に行わせることができる。したがって、本実施形態では、特許文献1に開示された技術のように、操作部を探す手間がかからない。よって、本実施形態では、ユーザUは、耳U10の周囲での操作を容易に行うことができる。
(1−2.イメージセンサ10の構成)
次に、図1〜図3、及び図6に基づいて、イメージセンサ10の構成について説明する。図1に示すように、イメージセンサ10は、頭部装着部材100のテンプル部110に外向きに(すなわち、イメージセンサ10のレンズ面がテンプル部110の外側を向くように)装着される。イメージセンサ10は、テンプル部110に固定されていてもよく、着脱可能であってもよい。ここで、イメージセンサ10をテンプル部110から着脱可能とするための方法としては、例えば、イメージセンサ10をテンプル部110にねじ止めやクリップ等を使って固定することが挙げられる。この場合、ねじを外す、あるいは、クリップを外すことで、頭部装着部材100から、イメージセンサ10と画像解析装置20とを取り外すことが出来る。これにより、頭部装着部材100は、通常の眼鏡としても使用できる。
また、イメージセンサ10は、ユーザUの髪の毛が撮像画像になるべく写らないように、テンプル部110の前側(フロント部120に近い側)に設けられることが好ましい。
イメージセンサ10の設置位置はテンプル部110に限定されない。すなわち、イメージセンサ10は、ユーザUの耳U10の周囲を撮像することができればどのような位置に設けられていてもよい。したがって、イメージセンサ10は、フロント部120に装着されてもよい。この場合、イメージセンサ10の画角を広くするか、あるいは、光軸を耳U10の周囲に向けることで、耳U10の周囲を撮像することができる。また、図1では、イメージセンサ10は右耳用のテンプル部110に設置される。これは、ユーザUが右手でハンドジェスチャを行うことを想定したためである。したがって、イメージセンサ10は、左耳用のテンプル部に設けられても良い。この場合、ユーザUは、左手でハンドジェスチャを行う。
イメージセンサ10は、図2に示すように、撮像部(検知部)11と、通信部12とを備える。撮像部11は、ユーザUの耳U10の周囲を撮像する。撮像部11による検知対象となる物体は、上述したように、例えばユーザUの手U1である。図6に撮像部11の撮像可能範囲(検知可能範囲)10Aを示す。撮像可能範囲10Aは、耳U10の周囲の領域が含まれる。特に、本実施形態では、撮像可能範囲10Aは、耳U10の開口面に対向する領域を含む。したがって、撮像部11は、耳U10の周囲に存在する物体、特に耳U10の開口面に対向する物体を撮像することができる。すなわち、撮像部11は、耳U10の周囲に存在する物体、特に耳U10の開口面に対向する物体の動きを遠隔検知することができる。
例えば、図6に示すように、撮像部11は、ユーザUが手U1をユーザUの前方から耳U10の開口面まで移動させた場合に、手U1を撮像することができる。すなわち、撮像部11は、手U1の動きを遠隔検知することができる。もちろん、撮像可能範囲10Aは図6に示す例に限られない。すなわち、撮像可能範囲10Aは、少なくともユーザUの耳U10の周囲の領域を含んでいればよい。撮像部11は、撮像によって撮像画像を取得し、撮像画像に関する撮像画像情報を通信部12に出力する。ここで、撮像画像はカラー画像であり、複数の画素で構成される。各画素には位置情報(座標情報)が関連付けられている。
通信部12は、信号線30を介して画像解析装置20と接続されており、撮像画像情報を画像解析装置20に出力する。なお、通信部12は、無線通信によって撮像画像情報を画像解析装置20に出力してもよい。この場合、信号線30は不要になる。
図3は、イメージセンサ10のハードウェア構成を示す。イメージセンサ10は、ハードウェア構成として、撮像機構11aと、通信装置12aとを備える。撮像機構11aと、通信装置12aとは、バス等で連結される。イメージセンサ10は、これらのハードウェア構成によって、上述した撮像部(検知部)11と、通信部12とを実現する。これらのハードウェア構成は、撮像に必要な各種ハードウェア構成、及び電子回路等によって実現される。撮像に必要な各種ハードウェア構成としては、例えばレンズ、撮像素子等で構成される。撮像機構11aは、撮像可能範囲10A内に存在する物体を撮像することで撮像画像を取得する。そして、撮像機構11aは、撮像画像に関する撮像画像情報を生成する。したがって、撮像機構11aは、イメージセンサ10の実質的な動作主体となるものである。通信装置12aは、信号線30を介して画像解析装置20と接続されており、撮像画像情報を画像解析装置20に出力する。なお、通信装置12aは、無線通信によって撮像画像情報を画像解析装置20に出力してもよい。この場合、信号線30は不要になる。
(1−3.画像解析装置20の構成)
次に、図1、図4、及び図5に基づいて、画像解析装置20の構成について説明する。図1に示すように、画像解析装置20は、頭部装着部材100のテンプル部110に装置される。画像解析装置20はテンプル部110に固定されていてもよく、着脱可能であってもよい。画像解析装置20をテンプル部110から着脱可能とするための方法は、イメージセンサ10と同様である。また、画像解析装置20は、テンプル部110に設けられなくてもよい。すなわち、画像解析装置20は、撮像画像情報を解析する装置なので、撮像画像情報を解析することができればどのような位置に設けられていてもよい。画像解析装置20の設置位置に関する変形例は後述する。
画像解析装置20は、図4に示すように、記憶部21と、通信部22と、制御部23とを備える。記憶部21は、画像解析装置20が記憶部21と、通信部22と、制御部23とを実現するために必要なプログラムを記憶する。また、記憶部21は、撮像画像情報、画像解析が行われる際の中間データ、及び画像解析の最終結果等を記憶する。通信部22は、信号線30を介してイメージセンサ10を接続されており、撮像画像情報をイメージセンサ10から取得する。そして、通信部22は、撮像画像情報を制御部23に出力する。また、通信部22は、信号線40を介して操作対象機器200に接続されており、制御部23から与えられた指示情報を操作対象機器200に出力する。なお、通信部22は、イメージセンサ10及び操作対象機器200と無線通信を行ってもよく、この場合、信号線30、40は不要になる。
制御部23は、画像解析装置20内の各構成要素を制御する他、以下の処理を行う。すなわち、制御部23は、撮像画像情報に基づいて、物体の動きを解析(認識)し、物体の動きに応じた処理を行う。例えば、制御部23は、物体の動きに応じた指示情報を生成し、操作対象機器200に出力する。操作対象機器200は、指示情報に基づいて、各種の処理を行う。
画像解析装置20は、ハードウェア構成として、メモリ21a、通信装置22a、及びCPU23aを備える。これらのハードウェア構成は、例えばバス等で連結される。画像解析装置20は、これらのハードウェア構成により、上述した記憶部21、通信部22、及び制御部23を実現する。これらのハードウェア構成は、電子回路等によって実現される。
メモリ21aは、ROM、RAM、不揮発性メモリ等で構成される。メモリ21aは、画像解析装置20が記憶部21と、通信部22と、制御部23とを実現するために必要なプログラムを記憶する。また、メモリ21aは、撮像画像情報、画像解析が行われる際の中間データ、及び画像解析の最終結果等を記憶する。
通信装置22aは、信号線30を介してイメージセンサ10と接続されており、イメージセンサ10から撮像画像情報を取得する。また、通信装置22aは、信号線40を介して操作対象機器200に接続されており、指示情報を操作対象機器200に出力する。なお、通信装置22aは、イメージセンサ10及び操作対象機器200と無線通信を行ってもよく、この場合、信号線30、40は不要になる。CPU23aは、メモリ21aに記憶されたプログラムを読みだして実行する。したがって、CPU23aは画像解析装置20の実質的な動作主体となるものである。
なお、イメージセンサ10、画像解析装置20、及び操作対象機器200が信号線30、40で連結される場合、通信部22及び通信装置22aは省略されてもよい。この場合、記憶部21及び制御部23(すなわち、メモリ21a及びCPU23a)とイメージセンサ10及び操作対象機器200とがバス及び信号線30、40を介して直結される。
<2.ハンドジェスチャの概要>
次に、図6及び図7に基づいて、上記の情報処理装置1に対してユーザUが行うハンドジェスチャについて説明する。もちろん、以下に説明するハンドジェスチャは一例であり、ユーザUは、他の種類のハンドジェスチャを行っても良い。
図6に示すように、イメージセンサ10は、耳U10の周囲の領域を撮像する。耳U10の周囲の領域には、耳U10の開口面に対向する領域が含まれる。したがって、ユーザUは、図6及び図7に示すように、手U1を開いた状態で前方から開口面に向けて移動させ、開口面に対向する位置で一旦静止させる(動作(1))。すなわち、ユーザUは、手U1をユーザUの頭部の側方に移動させる。ここで、本実施形態の方向(例えば、「前方」、「後方」、「側方」等)は、直立したユーザの視線方向を基準とした方向を意味する。すなわち、ユーザの視線が向く方向を前方、前方の逆方向を後方、ユーザ視線と交差する方向を側方とする。また、ユーザUは、手U1を前方以外の方向、例えば側方から耳U1の開口面に向けて移動させても良い。
そして、ユーザUは、手U1を閉じる(握る)。その後、ユーザUは、以下の動作(2)〜(5)のいずれかを行う。すなわち、ユーザUは、手U1を閉じたまま、水平かつ前方へ手を移動させる(動作(2))。または、ユーザUは、手U1を閉じたまま、水平かつ後方へ手を移動させる(動作(3))。または、ユーザUは、手を閉じたまま、鉛直下方へ手を移動させる(動作(4))。または、ユーザUは、手を閉じたまま、鉛直上方へ手を移動させる。後述するように、画像解析装置20は、動作(1)〜(5)に応じた処理を行う。
このように、本実施形態では、ユーザUは、ハンドジェスチャをユーザUの頭部の側方で行う。この理由を図8及び図9に基づいて説明する。ハンドジェスチャは、ユーザUにとってなるべく楽な姿勢で行われることが好ましい。また、ハンドジェスチャは、なるべくユーザUの視線を遮らないように行われることが好ましい。そこで、本発明者は、ユーザUにとって楽な姿勢がどのようなものであるかを検討するために、複数人のユーザU(被験者)を使った実験を行った。具体的には、図8に示す姿勢(姿勢A)と図9に示す姿勢(姿勢B)を各被験者にとってもらった。姿勢Aは、手U1を前方に突き出す姿勢であり、姿勢Bは、手U1をユーザUの頭部の側方に保持する姿勢である。その結果、大半の被験者から、姿勢Aよりも姿勢Bの方が楽な姿勢であるという回答を得た。さらに、姿勢Aでは、腕および手U1が前方の視線を遮ることになるが、姿勢Bでは、腕および手U1は視線を遮りにくい。つまり、ユーザUは、前方の物体(図示省略)を注視しながらハンドジェスチャを行うことが出来る。そこで、本実施形態では、ハンドジェスチャをユーザUの頭部の側方で行うこととした。
<3.情報処理装置による処理の概要>
次に、図10に基づいて、画像解析装置20が行う処理の概要について説明する。ステップS1において、イメージセンサ10は、ユーザUの耳U10の周囲を撮像することで撮像画像を取得する。そして、イメージセンサ10は、撮像画像に関する撮像画像情報を画像解析装置20に送信する。
画像解析装置20の通信部22は、撮像画像情報を取得し、制御部23に出力する。制御部23は、撮像画像情報を解析することで、ユーザUの手U1の動きを認識する。そして、制御部23は、解析結果に基づいて、ユーザUの手U1がユーザUの前方から耳U10の周囲(すなわち、イメージセンサ10の撮像可能範囲10A)に移動してきたか否かを判定する。すなわち、制御部23は、上述した動作(1)が行われたか否かを判定する。制御部23は、動作(1)が行われたと判定した場合には、ステップS2に進み、動作(1)が行われなかったと判定した場合には、ステップS1に戻る。
ステップS2において、イメージセンサ10は、ユーザUの耳U10の周囲を撮像することで撮像画像を取得する。そして、イメージセンサ10は、撮像画像に関する撮像画像情報を画像解析装置20に送信する。画像解析装置20の通信部22は、撮像画像情報を取得し、制御部23に出力する。制御部23は、撮像画像情報を解析することで、ユーザUの手U1の動きを認識する。そして、制御部23は、ユーザの手が耳U10の周囲から遠くへ移動した(すなわち、イメージセンサ10の撮像可能範囲10Aからフレームアウトした)か否かを判定する。制御部23は、ユーザの手が耳U10の周囲から遠くへ移動したと判定した場合には、ステップS1に戻り、ユーザの手が耳U10の周囲にとどまっていると判定した場合には、ステップS3に進む。
ステップS3において、イメージセンサ10は、ユーザUの耳U10の周囲を撮像することで撮像画像を取得する。そして、イメージセンサ10は、撮像画像に関する撮像画像情報を画像解析装置20に送信する。画像解析装置20の通信部22は、撮像画像情報を取得し、制御部23に出力する。制御部23は、撮像画像情報を解析することで、ユーザUの手U1の動きを認識する。制御部23は、ユーザUの手U1の動きに応じた処理を行う。その後、制御部23は、本処理を終了する。
<4.情報処理装置による処理の手順>
次に、画像解析装置20による処理の手順を図11及び図12に示すフローチャートに沿って説明する。ステップS10において、制御部23は、タイマが示す時刻tをゼロにリセットする。ここで、タイマは記憶部21に設定される。また、tの値は、イメージセンサ10が撮像を行う毎に1増加する。また、手U1の状態(Mode)をオフ(OFF)にする。
ステップS20において、イメージセンサ10は、ユーザUの耳U10の周囲を撮像することで撮像画像を取得する。そして、イメージセンサ10は、撮像画像に関する撮像画像情報を画像解析装置20に送信する。画像解析装置20の通信部22は、撮像画像情報を取得し、制御部23に出力する。制御部23は、撮像画像情報を解析する。具体的には、制御部23は、撮像画像から肌色領域を検出する。具体的には、制御部23は、撮像画像から画素値が肌色である画素を検出する。そして、制御部23は、検出された画素の数(面積)をS(t)とし、重心位置をM(t)とする。S(t)はスカラー値であり、M(t)は2次元ベクトルである。肌色部分を検出することで、画像内に写っている手の大きさ(S(t))と、手の位置(M(t))を知ることが出来る。なお、手及びその動きの認識については、よりロバストな手法を適用してもよい。
ステップS30において、制御部23は、Modeの値を調べる。ModeがOFFである場合には、制御部23は、ステップS40に進む。ModeがSTANDBYであるの場合には、制御部23は、ステップS7に進む。制御部23は、ModeがREADYとなる場合には、図12に示すステップS100に進む。
ステップS40において、制御部23は、時間の経過(すなわち、時刻tの増加)とともにM(t)が撮像画像の左端からフレームインしたか否かを判定する。ここで、図6に示すように、ユーザUが前方から手U1を耳U10の周囲に移動させた場合、手U1は、平面視で撮像可能範囲10Aの左側から撮像可能範囲10Aに進入する。したがって、この場合、M(t)は、撮像画像の左端からフレームインする。したがって、ステップS40では、制御部23は、ユーザUの手U1が前方から撮像可能範囲10Aに進入したか否かを判定する。
具体的には、制御部23は、たとえば、過去数フレーム分(例えば5フレーム分)の撮像画像を取得し、これらの撮像画像中のM(t)の値を調べる。すなわち、制御部23は、M(t)がtとともに、撮像画像の左端から中心へ移動してきたかを調べる。ここで、M(t)が撮像画像の左端から中心へ移動する例を図14〜図19に示す。図14〜図19は、時刻t−5、t−4、t−3、t−2、t−1、t(=現在時刻)における撮像画像10Bを示す。手画像U1aは、ユーザUの手U1を示す。図14〜図19に示す例では、手画像U1aのM(t)が時刻tの増加とともに撮像画像の左端から中心へ移動している。なお、図14〜図19では、手画像U1a以外の画像を省略している。
制御部23は、制御部23は、M(t)が撮像画像の左端からフレームインしたと判定した場合には、ステップS50に進み、それ以外の場合には、ステップS90に進む。ステップS50において、制御部23は、ModeをSTANDBYに設定する。その後、制御部23は、ステップS90に進む。
ステップS60において、制御部23は時間の経過(すなわち、時刻tの増加)とともにS(t)が小さくなったか否かを判定する。ここで、ユーザUが手U1を閉じた場合、撮像画像中の肌色領域が狭くなるので、S(t)が小さくなる。したがって、ステップS60では、制御部23は、ユーザUが手U1を閉じたか否かを判定する。
制御部23は、具体的には、たとえば、過去の数フレーム分の撮像画像を取得し、これらの撮像画像中のS(t)の値を調べる。すなわち、制御部23は、S(t)のスカラー値が時刻tの増加とともに小さくなったか否かを判定する。なお、手U1がフレームアウトすることにより、S(t)の値が徐々に小さくなってしまうことも考えられる。そこで、制御部23は、より厳密な判断をしたい場合は、M(t)が時刻tの増加によらずほぼ一定(あらかじめ定められた閾値以内の変動)であるか否かをさらに判定してもよい。
制御部23は、S(t)が小さくなったと判定した場合には、ステップS70に進み、それ以外の場合には、ステップS90に進む。ステップS70において、制御部23は、ModeをREADYに設定する。その後、制御部23は、ステップS90に進む。
ステップS80において、制御部23は、時間の経過(すなわち、時刻tの増加)とともに、M(t)がフレームアウトしたか否かを判定する。すなわち、制御部23は、ユーザUの手U1がイメージセンサ10の撮像可能範囲10A(すなわち、耳U10の周囲)の外側に移動したか否かを判定する。
制御部23は、具体的には、たとえば、過去数フレーム分の撮像画像を取得し、これらの撮像画像中のM(t)の値を調べる。すなわち、制御部23は、M(t)がtの増加とともに、画像の中心から周辺へ移動し、最終的に撮像画像外に移動したか否かを判定する。制御部23は、時間の経過とともに、M(t)がフレームアウトしたと判定した場合には、図12に示すステップS190に進む。制御部23は、それ以外の場合には、ステップS90に進む。
ステップS90において、制御部23は、単位時間待機し、その後、タイマが示す時刻tを1増加させる。その後、制御部23は、ステップS20に戻る。
図12に示すステップS100において、制御部23は、時間の経過(すなわち、時刻tの増加)とともに、M(t)が撮像画像の左端からフレームアウトしたか否かを判定する。ここで、図6及び図7に示すように、ユーザUが動作(2)を行った場合、手U1は、平面視で撮像可能範囲10Aの中心から左側に移動し、その後、撮像可能範囲10Aから外れる。したがって、この場合、M(t)は、撮像画像の左端からフレームアウトする。したがって、ステップS100では、制御部23は、ユーザUが動作(2)を行ったか否かを判定する。
制御部23は、具体的には、たとえば、過去数フレーム分の撮像画像を取得し、これらの撮像画像中のM(t)の値を調べる。すなわち、制御部23は、M(t)がtの増加とともに、画像の中心から左端へ移動し、最終的に撮像画像外に移動したか否かを判定する。
制御部23は、ユーザUが動作(2)を行ったと判定した場合には、ステップS110に進み、それ以外の場合には、ステップS120に進む。ステップS120において、制御部23は、操作対象機器200に処理D1を行うことを指示する旨の指示情報を生成する。通信部22は、指示情報を操作対象機器200に送信する。
ここで、処理D1の内容は操作対象機器200に応じて異なるが、処理D1は、ハンドジェスチャの内容に関連付けられることが好ましい。すなわち、動作(2)は、手を前方に移動させるジェスチャ操作となるため、ユーザUは、何らかの状態量が正方向に変位することをイメージする。そこで、処理D1は、操作対象機器200に関連する状態量を正方向に変位させるものであることが好ましい。例えば、操作対象機器200がオーディオ機器となる場合、処理D1は早送り、または再生等であることが好ましい。早送り、再生の区別は、例えば、フレームアウトの速さで行われてもよい。すなわち、フレームアウトの速さが所定値以上であれば早送り、所定値未満であれば再生を行えばよい。また、操作対象機器200がディスプレイとなる場合、処理D1は、画像拡大等であることが好ましい。フレームアウトの速さと画像拡大の速さとを関連付けてもよい。このように、処理D1とハンドジェスチャの内容とを関連付けることで、ユーザUは、より直感的に操作対象機器200を操作することができる。その後、制御部23は、ステップS190に進む。
ステップS120において、制御部23は、時間の経過(すなわち、時刻tの増加)とともに、M(t)が撮像画像の右端からフレームアウトしたか否かを判定する。ここで、図6及び図7に示すように、ユーザUが動作(3)を行った場合、手U1は、平面視で撮像可能範囲10Aの中心から右側に移動し、その後、撮像可能範囲10Aから外れる。したがって、この場合、M(t)は、撮像画像の右端からフレームアウトする。したがって、ステップS100では、制御部23は、ユーザUが動作(3)を行ったか否かを判定する。
制御部23は、具体的には、たとえば、過去数フレーム分の撮像画像を取得し、これらの撮像画像中のM(t)の値を調べる。すなわち、制御部23は、M(t)がtの増加とともに、画像の中心から右端へ移動し、最終的に撮像画像外に移動したか否かを判定する。
制御部23は、ユーザUが動作(3)を行ったと判定した場合には、ステップS130に進み、それ以外の場合には、ステップS140に進む。ステップS130において、制御部23は、操作対象機器200に処理D2を行うことを指示する旨の指示情報を生成する。通信部22は、指示情報を操作対象機器200に送信する。
ここで、処理D2の内容は操作対象機器200に応じて異なるが、処理D2は、ハンドジェスチャの内容に関連付けられることが好ましい。すなわち、動作(2)は、手を後方に移動させるジェスチャ操作となるため、ユーザUは、何らかの状態量が負方向に変位することをイメージする。そこで、処理D2は、操作対象機器200に関連する状態量を負方向に変位させるものであることが好ましい。例えば、操作対象機器200がオーディオ機器となる場合、処理D1は巻き戻し、または逆転再生等であることが好ましい。巻き戻し、逆転再生の区別は、例えば、フレームアウトの速さで行われてもよい。すなわち、フレームアウトの速さが所定値以上であれば巻き戻し、所定値未満であれば逆転再生を行えばよい。また、操作対象機器200がディスプレイとなる場合、処理D2は、画像縮小等であることが好ましい。フレームアウトの速さと画像縮小の速さとを関連付けてもよい。このように、処理D2とハンドジェスチャの内容とを関連付けることで、ユーザUは、より直感的に操作対象機器200を操作することができる。その後、制御部23は、ステップS190に進む。
ステップS140において、制御部23は、時間の経過(すなわち、時刻tの増加)とともに、M(t)が撮像画像の下端からフレームアウトしたか否かを判定する。ここで、図7に示すように、ユーザUが動作(4)を行った場合、手U1は、側面視で撮像可能範囲10Aの中心から鉛直下方に移動し、その後、撮像可能範囲10Aから外れる。したがって、この場合、M(t)は、撮像画像の下端からフレームアウトする。したがって、ステップS100では、制御部23は、ユーザUが動作(4)を行ったか否かを判定する。
制御部23は、具体的には、たとえば、過去数フレーム分の撮像画像を取得し、これらの撮像画像中のM(t)の値を調べる。すなわち、制御部23は、M(t)がtの増加とともに、画像の中心から下端へ移動し、最終的に撮像画像外に移動したか否かを判定する。ここで、M(t)が撮像画像の中心から下端に移動する例を図20〜図24、図14に示す。図20〜図24、図14は、時刻t−5、t−4、t−3、t−2、t−1、t(=現在時刻)における撮像画像10Bを示す。手画像U1aは、ユーザUの手U1を示す。図20〜図24、図14に示す例では、手画像U1aのM(t)が時刻tの増加とともに撮像画像の中心から下端へ移動している。
制御部23は、ユーザUが動作(4)を行ったと判定した場合には、ステップS150に進み、それ以外の場合には、ステップS160に進む。ステップS160において、制御部23は、操作対象機器200に処理D3を行うことを指示する旨の指示情報を生成する。通信部22は、指示情報を操作対象機器200に送信する。
ここで、処理D3の内容は操作対象機器200に応じて異なるが、処理D3は、ハンドジェスチャの内容に関連付けられることが好ましい。すなわち、動作(4)は、手を下方に移動させるジェスチャ操作となるため、ユーザUは、何らかの状態量が負方向に変位することをイメージする。そこで、処理D3は、操作対象機器200に関連する状態量を負方向に変位させるものであることが好ましい。例えば、操作対象機器200がオーディオ機器となる場合、処理D3は音量ダウン等であることが好ましい。また、操作対象機器200がディスプレイとなる場合、処理D2は、画像縮小等であることが好ましい。このように、処理D3とハンドジェスチャの内容とを関連付けることで、ユーザUは、より直感的に操作対象機器200を操作することができる。
ステップS160において、制御部23は、時間の経過(すなわち、時刻tの増加)とともに、M(t)が撮像画像の上端からフレームアウトしたか否かを判定する。ここで、図7に示すように、ユーザUが動作(5)を行った場合、手U1は、側面視で撮像可能範囲10Aの中心から鉛直上方に移動し、その後、撮像可能範囲10Aから外れる。したがって、この場合、M(t)は、撮像画像の上端からフレームアウトする。したがって、ステップS100では、制御部23は、ユーザUが動作(5)を行ったか否かを判定する。
制御部23は、具体的には、たとえば、過去数フレーム分の撮像画像を取得し、これらの撮像画像中のM(t)の値を調べる。すなわち、制御部23は、M(t)がtの増加とともに、画像の中心から上端へ移動し、最終的に撮像画像外に移動したか否かを判定する。
制御部23は、ユーザUが動作(5)を行ったと判定した場合には、ステップS170に進み、それ以外の場合には、ステップS180に進む。ステップS170において、制御部23は、操作対象機器200に処理D4を行うことを指示する旨の指示情報を生成する。通信部22は、指示情報を操作対象機器200に送信する。
ここで、処理D4の内容は操作対象機器200に応じて異なるが、処理D4は、ハンドジェスチャの内容に関連付けられることが好ましい。すなわち、動作(5)は、手を上方に移動させるジェスチャ操作となるため、ユーザUは、何らかの状態量が正方向に変位することをイメージする。そこで、処理D4は、操作対象機器200に関連する状態量を正方向に変位させるものであることが好ましい。例えば、操作対象機器200がオーディオ機器となる場合、処理D4は音量アップ等であることが好ましい。また、操作対象機器200がディスプレイとなる場合、処理D2は、画像拡大等であることが好ましい。このように、処理D4とハンドジェスチャの内容とを関連付けることで、ユーザUは、より直感的に操作対象機器200を操作することができる。
ステップS180において、制御部23は、時間の経過(すなわち、時刻tの増加)とともに、M(t)が動作(2)〜(5)以外の態様で撮像画像からフレームアウトしたか否かを判定する。このような態様としては、例えば、M(t)が撮像画像中斜め方向に移動することが挙げられる。
制御部23は、具体的には、たとえば、過去数フレーム分の撮像画像を取得し、これらの撮像画像中のM(t)の値を調べる。すなわち、制御部23は、M(t)がtの増加とともに斜め方向に移動し、最終的に撮像画像外に移動したか否かを判定する。
制御部23は、時間の経過(すなわち、時刻tの増加)とともに、M(t)が動作(2)〜(5)以外の態様で撮像画像からフレームアウトしたと判定した場合には、ステップS190に進み、それ以外の場合には、図11に示すステップS90に戻る。
ステップS190において、制御部23は、手U1の状態をOFFに遷移(移行)させる。その後、ステップS90に戻る。
図13は、上記の処理による状態(Mode)遷移を示す状態遷移図である。ModeがOFFとなる場合、制御部23は、M(t)が撮像画像の左端からフレームインするまで待機する。
制御部23は、M(t)が撮像画像の左端からフレームインした場合、手U1の状態をOFFからSTANDBYに遷移させる。制御部23は、S(t)が小さくなるまで、即ち、ユーザUが手U1を閉じるまで待機する。なお、制御部23は、M(t)が撮像画像からフレームアウトした場合、手U1の状態をSTANDBYからOFFに遷移させる。
制御部23は、S(t)が小さくなった場合には、手U1の状態をSTANDBYからREADYに遷移させる。制御部23は、動作(2)〜(5)のいずれかが行われるまで待機する。制御部23は、動作(2)〜(5)のいずれかが行われた(即ち、M(t)が撮像画像の左端、右端、上端、下端の何れかからフレームアウトした)場合には、動作に対応する指示情報を生成する。その後、制御部23は、手U1の状態をOFFに遷移させる。制御部23は、M(t)が動作(2)〜(5)以外の態様で撮像画像からフレームアウトした場合、指示情報を生成せずに、手U1の状態をOFFに遷移させる。
このように、本実施形態によれば、ユーザUは、手U1を耳U10の周囲、例えば開口面に対向する位置に移動させ、ハンドジェスチャを行う。そして、情報処理装置1は、ハンドジェスチャの内容に応じた処理を操作対象機器200に行わせる。したがって、ユーザは、手U1を耳U10の周囲に手U1を移動させてハンドジェスチャを行うだけで操作対象機器200に所望の処理を行わせることができるので、耳U10の周囲での操作を容易に行うことができる。
すなわち、本実施形態によれば、情報処理装置1は、ユーザUの耳U10の周囲に存在する物体の動きを遠隔検知するイメージセンサ10を備える。したがって、イメージセンサ10は、ユーザUが手U1を耳U10の周囲に移動させ、ハンドジェスチャを行った場合、このようなハンドジェスチャを遠隔検知することができる。したがって、ユーザUは、耳の周囲での操作を容易に行うことができる。
ここで、イメージセンサ10は、ユーザUの耳U10の開口面に対向する位置に存在する物体の動きを遠隔検知する。ここで、耳U10の開口面は、ユーザUにとってわかりやすい位置なので、ユーザUは、手U1を容易にこの位置に移動させることができる。したがって、ユーザUは、耳の周囲での操作を容易に行うことができる。
また、情報処理装置1は、イメージセンサ10から出力された撮像画像情報に基づいて、物体の動きを認識し、物体の動きに応じた処理を行う。したがって、ユーザは、ハンドジェスチャに応じた処理を情報処理装置1に行わせることができる。
また、情報処理装置1は、イメージセンサ10から出力された撮像画像情報に基づいて、物体の動きを認識し、物体が特定方向(好適には、ユーザUの前方)から撮像可能範囲10A内に進入したか否かを判定する。そして、情報処理装置1は、物体がユーザUの前方から撮像可能範囲10A内に進入したと判定した場合には、物体の状態をスタンバイ状態に移行させる。そして、情報処理装置1は、物体の状態がスタンバイ状態に移行した後にイメージセンサ10から出力された撮像画像情報に基づいて、物体の動きを認識し、物体の動きに応じた処理を行う。
すなわち、本実施形態では、特定の方向(好適には、ユーザUの前方)から物体(手)が耳U10の周囲に移動してきたことをジェスチャ認識開始のトリガーとしている。手U1をユーザUの前方から耳U10の周囲に移動させる(動作(1))操作は、ユーザUにとって自然な操作となることが多い。つまり、ユーザUは、自然な動作を行うだけで、情報処理装置1にジェスチャ認識を行わせることができる。
さらに、情報処理装置1は、物体の状態がスタンバイ状態に移行した後にイメージセンサ10から出力された撮像可能情報に基づいて、物体の形状が特定形状(例えば手を閉じた形状)であるか否かを判定する。そして、情報処理装置1は、物体の形状が特定形状であると判定した場合には、物体の状態をレディ状態に移行させる。そして、情報処理装置1は、物体の状態がレディ状態に移行した後にイメージセンサ10から出力された撮像画像情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う。これにより、情報処理装置1は、ジェスチャ認識をより正確に行うことができる。
<5.各種変形例>
(5−1.情報処理装置の第1変形例)
次に、図25に基づいて、情報処理装置1の第1変形例を説明する。第1変形例では、制御部23は、手U1の状態がSTANDBYとなっている場合に、以下の処理を行う。
すなわち、制御部23は、撮像画像情報に基づいて、手U1がタップ動作を行ったか否かを判定する。制御部23は、タップ動作を行った場合には、操作対象機器200に処理D5を行うことを指示する旨の指示情報を生成する。処理D5の内容はタップ動作の種類(タップ動作の回数等)に応じて異なることが好ましい。例えば、操作対象機器200がオーディオ機器となる場合、タップ回数に応じて処理D5が再生、逆転再生、早送り、巻き戻し等になることが好ましい。また、操作対象機器200がディスプレイとなる場合、タップ回数に応じて処理D5が画像拡大、画像縮小等になることが好ましい。なお、制御部23は、手U1の状態をSTANDBYに維持する。
(5−2.情報処理装置の第2変形例)
次に、図26に基づいて、情報処理装置1の第2変形例を説明する。第2変形例は、図11〜図13に示す処理に対してSTANDBY以降の処理が異なる。
具体的には、制御部23は、手U1の状態がSTANDBY状態に移行した場合には、S(t)が小さくなるまで待機する。そして、制御部23は、S(t)が小さくなった場合には、S(t)が所定の閾値以下まで低下したか否かをさらに判定する。そして、制御部23は、S(t)が所定の閾値以下まで低下したと判定した場合には、手U1の状態を第1のREADY状態(図13に示すREADY状態)に遷移させる。その後、制御部23は、図11〜図13に示す処理を行う。一方、制御部23は、S(t)が所定の閾値より大きいと判定した場合には、手U1の状態を図26に示す第2のREADY状態に遷移させる。
第2のREADY状態は、手U1が仮想のダイヤルを握っている状態である。第2のREADY状態に対応する撮像画像の例を図27に示す。図27に示す撮像画像10Bには、仮想のダイヤル10Cを握っている手画像U1aが描かれている。この手画像U1aのS(t)は、図20等に示す手画像U1aのS(t)よりも大きい。
そして、制御部23は、撮像画像情報に基づいて、手U1が回転したか否かを判定する。制御部23は、手U1が回転した場合には、操作対象機器200に処理D6を行うことを指示する旨の指示情報を生成する。処理D6の内容は回転内容(回転方向及び速さ)に応じて異なることが好ましい。例えば、操作対象機器200がオーディオ機器となる場合、回転内容に応じて処理D6が再生、逆転再生、早送り、巻き戻し等になることが好ましい。例えば、回転方向が右回転であれば、処理D6が再生または早送りとなる。これらの区別は、回数の速さによって行われれば良い。また、操作対象機器200がディスプレイとなる場合、回転内容に応じて処理D6が画像拡大、画像縮小等になることが好ましい。回転の速さと画像拡大または縮小の速さとを関連付けてもよい。なお、制御部23は、手U1の状態を第2のREADY状態に維持する。制御部23は、M(t)がフレームアウトした場合には、手U1の状態をOFFに遷移させる。
このように、第2の変形例では、ユーザUが仮想のダイヤルを掴んで回すハンドジェスチャを行った場合に、当該ハンドジェスチャに対応する処理を行う。すなわち、第2の変形例では、制御部23は、手U1の状態を手U1の形状に応じて異なるREADY状態に遷移させる。その後、制御部23は、手U1の動きとREADY状態の種類とに応じた処理を行う。この場合、ユーザUは、より多様なハンドジェスチャを行うことができる。
(5−3.情報処理装置の第3変形例)
次に、図28に基づいて、情報処理装置1の第3変形例について説明する。第3変形例では、図28に示すように、ユーザUに、特定の色のついた指輪U2を指に装着させてハンドジェスチャさせる。指輪U2は、ユーザUの手に連動して動く。イメージセンサ10は、指輪U2を撮像することで、指輪U2の動きを遠隔検知する。制御部23は、ハンドジェスチャを認識する際(例えば、ステップS40、S60、S80、S100、S120、S140、S160、S180を行う際)には、手U1の動きの代わりに、指輪U2の動きをハンドジェスチャとして認識する。制御部23は、イメージセンサ10が指輪U2を装着していない手を撮像した場合には、その手をユーザU以外の他人の手と認識する。この場合、制御部23は、ハンドジェスチャの認識を行わない。したがって、第3の変形例では、他人の手によるハンドジェスチャをユーザUによるハンドジェスチャと誤認しにくくなる。すなわち、よりロバストなジェスチャ認識が可能となる。
なお、イメージセンサ10が遠隔検知可能な物体は、手、指輪に限られないことはもちろんである。イメージセンサ10は、例えば、棒、ペン等の動きを遠隔検知してもよい。この場合、ユーザUは、棒、ペン等をイメージセンサ10の撮像可能範囲10A内で動かせばよい。
(5−4.情報処理装置の第4変形例)
上記実施形態においては、制御部23は、手の形状として、開いた状態と握った状態の2つの状態を認識する。第4変形例では、制御部23は、さらに別の形状を認識する。当該形状の例を図29に示す。図29に示す例では、手U1の親指と小指は伸ばされ、他の3本の指は折り曲げられている。ユーザUは、例えば上述した動作(1)を行った後、手U1の形状を図29に示す形状とする。その後、ユーザUは、上述した動作(2)〜(5)を行う。制御部23は、当該ハンドジェスチャを認識し、上述した処理(操作対象機器200への指示等)を行う。ハンドジェスチャを意識しない他人は、手を図29に示す形状とすることは殆ど無い。したがって、第4の変形例では、他人の手によるハンドジェスチャをユーザUによるハンドジェスチャと誤認しにくくなる。すなわち、よりロバストなジェスチャ認識が可能となる。
(5−5.情報処理装置の第5変形例)
第5の変形例では、記憶部21に、予めユーザUの指紋を登録させておく。そして、制御部23は、ハンドジェスチャを認識する際(例えば、ステップS40、S60、S80、S100、S120、S140、S160、S180を行う際)に、指紋認識を行う。すなわち、制御部23は、撮像画像に描かれる指紋と事前登録された指紋とを対比し、これらが一致する場合に、ハンドジェスチャを認識する。したがって、第5の変形例では、他人の手によるハンドジェスチャをユーザUによるハンドジェスチャと誤認しにくくなる。すなわち、よりロバストなジェスチャ認識が可能となる。
(5−6.情報処理装置の第6変形例)
第6変形例では、制御部23は、ハンドジェスチャを認識する際(例えば、ステップS40、S60、S80、S100、S120、S140、S160、S180を行う際)に、撮像画像中の手画像の向きを解析する。すなわち、図30及び図31に示すように、撮像画像1BにユーザUの手画像U1aが描かれていれば、その手画像U1aの手首は左下あるいは下方向に向き、指先は上あるいは右上方向に向いているはずである。このことは、図7に示された手U1の位置からも明らかである。逆に、図32及び図33に示すように、他人の手画像U20aが撮像画像1Bに描かれている場合、手画像20aの手首は他の方向(例えば右方向、左上方向等)を向くことが多い。
そこで、制御部23は、手画像の向きに基づいて、その手画像がユーザUの手画像U1aであるか否かを判定する。そして、制御部23は、手画像がユーザUの手画像U1aであると判定した場合には、ハンドジェスチャを認識する。したがって、第6の変形例では、他人の手によるハンドジェスチャをユーザUによるハンドジェスチャと誤認しにくくなる。すなわち、よりロバストなジェスチャ認識が可能となる。
(5−7.情報処理装置の第7変形例)
第7変形例では、イメージセンサ10は、測距も行う。このようなイメージセンサ10としては、例えばステレオカメラ(上記撮像機構11aを2組有するもの)が挙げられる。また、イメージセンサ10の他の具体例としては、像面の位相差を用いて測距を行うカメラが挙げられる。
そして、制御部23は、ハンドジェスチャを認識する際(例えば、ステップS40、S60、S80、S100、S120、S140、S160、S180を行う際)に、手がイメージセンサ10から所定距離(例えば30cm)内に存在するか否かを判定する。そして、制御部23は、手がイメージセンサ10から所定距離内に存在すると判定した場合には、その手をユーザUの手U1と認識し、ハンドジェスチャを認識する。一方、制御部23は、手からイメージセンサ10までの距離が所定距離よりも大きいと判定した場合には、その手を他人の手と認識する。この場合、制御部23は、ハンドジェスチャを認識しない。したがって、第7の変形例では、他人の手によるハンドジェスチャをユーザUによるハンドジェスチャと誤認しにくくなる。すなわち、よりロバストなジェスチャ認識が可能となる。
(5−8.情報処理装置の第8変形例)
上述したように、イメージセンサ10は、ユーザUの側方を撮像する。したがって、イメージセンサ10は、ユーザUの死角に存在する(すなわち、ユーザUにとって見えにくい、あるいは見えない)物体を撮像することができる。そこで、制御部23は、撮像画像に基づいて、ユーザUの死角からユーザUに急接近する物体を認識する。例えば、図34に示すように、撮像画像1Bに自動車画像10Dが描かれている場合、制御部23は、死角に自動車が存在すると判定する。さらに、制御部23は、自動車がユーザUに急接近するか否かを判定する。制御部23は、例えば自動車画像10Dが時間の経過とともに拡大される場合、自動車が急接近すると判定してもよい。この判定は、第7変形例を使用して行われてもよい。制御部23は、ユーザUの死角からユーザUに急接近する物体が存在すると判定した場合には、緊急処理を行う。緊急処理としては、操作対象機器200の電源をオフする、危険が迫っていることをユーザUに報知する等の処理が挙げられる。ユーザUに報知する方法としては、操作対象機器200を用いて(例えば、操作対象機器200がオーディオ機器ならスピーカを用いて)報知する方法が挙げられる。他の方法としては、画像解析装置20にスピーカ等を設置し、このスピーカを用いて報知する方法等が挙げられる。第8変形例によれば、ユーザUは、自己に急接近する物体が存在することを認識することが出来る。
(5−9.情報処理装置の第9変形例)
制御部23は、操作対象機器200の電源のオン/オフに連動して、イメージセンサ10及び画像解析装置20の電源のオン/オフを行う。すなわち、操作対象機器200の電源がオンされると、信号線40を介して、操作対象機器200から画像解析装置20へ、電源をオンする命令(信号)が送られる。この命令を受けて、制御部23は、イメージセンサ10及び画像解析装置20の電源をオンする。オフについても同様である。これにより、操作対象機器200を使わないときは、イメージセンサ10および画像解析装置20でも電力が消費されなくなる。なお、この場合、信号線40は、双方向の通信に使われる。
(5−10.情報処理装置の第10変形例)
制御部23は、手U1のModeがOFFとなる場合には、図35に示すように、イメージセンサ10の撮像素子のうち、撮像画像10Bの左側領域10B−1に対応する部分をオンとし、他の領域10B−2をオフとする。すなわち、イメージセンサ10は、撮像素子のうち、左側領域10B−1に相当する部分だけを用いて撮像を行う。すなわち、ハンドジェスチャ認識のトリガーとなる動作(1)が行われる場合、図14〜図19に示すように、手画像U1aはまず左側領域10B−1に描かれる。したがって、この左側領域10B−1だけ撮像可能としておけば、ユーザUが動作(1)を行ったか否かがわかる。第10変形例によれば、イメージセンサ10の消費電力がさらに低減される。
(5−11.情報処理装置の第11変形例)
制御部23は、図36に示すように、撮像画像10Bに縦方向(上下方向)に伸びる複数の線画像10Eが描かれている場合、イメージセンサ10にユーザUの髪の毛がかかっていると判定する。この場合、ユーザUの髪の毛によって撮像が妨害されているので、制御部23は、撮像妨害時処理を行う。撮像妨害時処理としては、操作対象機器200の電源をオフする、髪の毛がイメージセンサ10にかかっていることをユーザUに報知する等の処理が挙げられる。ユーザUに報知する方法としては、上述した第8変形例と同様の方法であればよい。第11変形例によれば、ユーザは、髪の毛によって適切な撮像ができなくなっていることを認識することができる。
(5−12.情報処理装置の第12変形例)
図37は、第12変形例に係る情報処理装置1を示す。この変形例では、頭部装着部材300に情報処理装置1が装着されている。頭部装着部材300はヘッドフォンである。この例では、情報処理装置1は、頭部装着部材300の耳あて(イヤーカップ)部分に装着されている。装着の態様については図1に示すものと同様である。この変形例によっても、上述した効果と同様の効果が得られる。
(5−13.情報処理装置の第13変形例)
図33は、第13変形例に係る情報処理装置1を示す。この変形例では、信号線30が延長され、かつ、画像解析装置20が頭部装着部材100から取り外されている。この例では、頭部装着部材100が軽量化される。ユーザU1は、画像解析装置20を例えば服のポケットなどに入れておけば良い。
(5−14.情報処理装置の第14変形例)
上述した情報処理装置1では、イメージセンサ10を用いて物体を遠隔検知していたが、物体を遠隔検知できるセンサであればどのようなものであっても情報処理装置1に適用可能である。例えば、物体の移動だけを遠隔検知するのであれば、情報処理装置1は、図39に示すような近接センサ51〜54を用いてもよい。
近接センサ51〜54は、ケース50内に配置される。近接センサ51〜54は、鉛直方向(y方向)及び水平方向(x方向)にそれぞれ2つずつ配置される。ケース50は、図1のイメージセンサ10と同様の位置に配置される。近接センサ51〜54は物体が近づいたことを検出できるセンサである。制御部23は、近接センサ51〜54の中で最初に反応したセンサと最後に反応したセンサを特定することで、物体(手)が、最初に反応したセンサの位置から最後に反応したセンサの位置へと移動したことが分かる。制御部23は、この情報を使ってジェスチャ認識を行えばよい。
なお、上記の各変形例を任意に組み合わせてよいことはもちろんである。例えば、第1変形例と第2変形例とを組み合わせてもよい。この場合、制御部23は、タップ動作及び仮想のダイヤルを回転させる動作に応じて処理を行う。また、第1または第2変形例と第3変形例〜第7変形例とを組み合わせてもよい。この場合、ユーザUは、タップ動作、仮想のダイヤルを回転させる動作を行い、制御部23は、これらに応じた処理を行う。また、制御部23は、第3変形例〜第7変形例に係る処理(ロバスト性を上げる処理)を上記とともに行う。
また、第8変形例と他の変形例とを組み合わせてもよい。この場合、制御部23は、他の変形例に係る処理を行う一方で、ユーザUの死角から物体が急接近してきた場合には、緊急処理を行う。また、第9変形例と他の変形例とを組み合わせてもよい。この場合、制御部23は、他の変形例に係る処理を行う一方で、操作対象機器200の電源に連動してイメージセンサ10及び画像解析装置20をオフする。
また、第10変形例と他の変形例とを組み合わせてもよい。この場合、制御部23は、他の変形例に係る処理を行う一方で、動作(1)が行われるまでは、撮像素子のうち、左側領域10B−1に対応する領域飲みをオンにする。
また、第11変形例と他の変形例とを組み合わせてもよい。この場合、制御部23は、他の変形例に係る処理を行う一方で、イメージセンサ10に髪の毛がかかっている場合には、撮像妨害時処理を行う。
また、第12〜第14変形例のいずれかと他の変形例とを組み合わせてもよい。この場合、情報処理装置1は、第12〜第14変形例のいずれかに示す構成を有する。さらに制御部23は、他の変形例に係る処理を行う。
なお、上記効果はあくまで例示であって、本実施形態は、本明細書中に記載されたいずれかの効果、または他の効果を有するものであってもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの耳の周囲に存在する物体の動きを遠隔検知する検知部を備えることを特徴とする、情報処理装置。
(2)
前記検知部は、前記ユーザの耳の開口面に対向する位置に存在する物体の動きを遠隔検知する、前記(1)記載の情報処理装置。
(3)
前記検知部は、前記ユーザの手及び前記ユーザの手に連動して動く連動部材のうち、少なくとも一方を遠隔検知する、前記(1)または(2)記載の情報処理装置。
(4)
前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う制御部を備える、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記制御部は、前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体が特定方向から前記検知部の検知可能範囲内に進入したか否かを判定し、
前記物体が前記特定方向から前記検知部の検知可能範囲内に進入したと判定した場合には、前記物体の状態をスタンバイ状態に移行させ、
前記物体の状態が前記スタンバイ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う、前記(4)記載の情報処理装置。
(6)
前記制御部は、前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体がユーザの前方から前記検知部の検知可能範囲内に進入したか否かを判定する、前記(5)記載の情報処理装置。
(7)
前記制御部は、前記物体の状態が前記スタンバイ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の形状が特定形状であるか否かを判定し、
前記物体の形状が前記特定形状であると判定した場合には、前記物体の状態をレディ状態に移行させ、
前記物体の状態が前記レディ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う、前記(5)または(6)記載の情報処理装置。
(8)
前記特定形状は複数存在し、
前記制御部は、前記物体の状態が前記スタンバイ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の形状が前記複数の特定形状のうち、いずれかの特定形状に一致するか否かを判定し、
前記物体の形状が前記複数の特定形状のうち、いずれかの特定形状に一致すると判定した場合には、前記物体の状態を前記物体の形状に応じたレディ状態に移行し、
前記物体の状態が前記レディ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動き及び前記レディ状態の種類に応じた処理を行う、前記(7)記載の情報処理装置。
(9)
前記検知部は、前記ユーザの頭部に装着可能な頭部装着部材に装着される、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記検知部は、前記頭部装着部材のうち、前記ユーザの耳に装着される部分に装着される、前記(9)記載の情報処理装置。
(11)
前記検知部は、前記ユーザの耳の周囲を撮像可能なイメージセンサである、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)
ユーザの耳の周囲に存在する物体の動きを検知部によって遠隔検知することを含む、情報処理方法。
(13)
前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行うことを含む、前記(12)記載の情報処理方法。
(14)
前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体が前記ユーザの前方から前記検知部の検知可能範囲内に進入したか否かを判定し、
前記物体が前記ユーザの前方から前記検知部の検知可能範囲内に進入したと判定した場合には、スタンバイ状態に移行し、
前記スタンバイ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う、前記(13)記載の情報処理方法。
(15)
コンピュータに、
ユーザの耳の周囲に存在する物体の動きを遠隔検知する検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う制御機能を実現させる、プログラム。
(16)
前記制御機能は、前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体が前記ユーザの前方から前記検知部の検知可能範囲内に進入したか否かを判定し、
前記物体が前記ユーザの前方から前記検知部の検知可能範囲内に進入したと判定した場合には、スタンバイ状態に移行し、
前記スタンバイ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う、前記(15)記載のプログラム。
1 情報処理装置
10 イメージセンサ
20 画像解析装置
21 記憶部
22 通信部
23 制御部

Claims (16)

  1. ユーザの耳の周囲に存在する物体の動きを遠隔検知する検知部を備えることを特徴とする、情報処理装置。
  2. 前記検知部は、前記ユーザの耳の開口面に対向する位置に存在する物体の動きを遠隔検知する、請求項1記載の情報処理装置。
  3. 前記検知部は、前記ユーザの手及び前記ユーザの手に連動して動く連動部材のうち、少なくとも一方を遠隔検知する、請求項1記載の情報処理装置。
  4. 前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う制御部を備える、請求項1記載の情報処理装置。
  5. 前記制御部は、前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体が特定方向から前記検知部の検知可能範囲内に進入したか否かを判定し、
    前記物体が前記特定方向から前記検知部の検知可能範囲内に進入したと判定した場合には、前記物体の状態をスタンバイ状態に移行させ、
    前記物体の状態が前記スタンバイ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う、請求項4記載の情報処理装置。
  6. 前記制御部は、前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体がユーザの前方から前記検知部の検知可能範囲内に進入したか否かを判定する、請求項5記載の情報処理装置。
  7. 前記制御部は、前記物体の状態が前記スタンバイ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の形状が特定形状であるか否かを判定し、
    前記物体の形状が前記特定形状であると判定した場合には、前記物体の状態をレディ状態に移行させ、
    前記物体の状態が前記レディ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う、請求項5記載の情報処理装置。
  8. 前記特定形状は複数存在し、
    前記制御部は、前記物体の状態が前記スタンバイ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の形状が前記複数の特定形状のうち、いずれかの特定形状に一致するか否かを判定し、
    前記物体の形状が前記複数の特定形状のうち、いずれかの特定形状に一致すると判定した場合には、前記物体の状態を前記物体の形状に応じたレディ状態に移行し、
    前記物体の状態が前記レディ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動き及び前記レディ状態の種類に応じた処理を行う、請求項7記載の情報処理装置。
  9. 前記検知部は、前記ユーザの頭部に装着可能な頭部装着部材に装着される、請求項1記載の情報処理装置。
  10. 前記検知部は、前記頭部装着部材のうち、前記ユーザの耳に装着される部分に装着される、請求項9記載の情報処理装置。
  11. 前記検知部は、前記ユーザの耳の周囲を撮像可能なイメージセンサである、請求項1記載の情報処理装置。
  12. ユーザの耳の周囲に存在する物体の動きを検知部によって遠隔検知することを含む、情報処理方法。
  13. 前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行うことを含む、請求項12記載の情報処理方法。
  14. 前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体が前記ユーザの前方から前記検知部の検知可能範囲内に進入したか否かを判定し、
    前記物体が前記ユーザの前方から前記検知部の検知可能範囲内に進入したと判定した場合には、前記物体の状態をスタンバイ状態に移行させ、
    前記物体の状態が前記スタンバイ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う、請求項13記載の情報処理方法。
  15. コンピュータに、
    ユーザの耳の周囲に存在する物体の動きを遠隔検知する検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う制御機能を実現させる、プログラム。
  16. 前記制御機能は、前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体が前記ユーザの前方から前記検知部の検知可能範囲内に進入したか否かを判定し、
    前記物体が前記ユーザの前方から前記検知部の検知可能範囲内に進入したと判定した場合には、前記物体の状態をスタンバイ状態に移行させ、
    前記物体の状態が前記スタンバイ状態に移行した後に前記検知部から出力された検知情報に基づいて、前記物体の動きを認識し、前記物体の動きに応じた処理を行う、請求項15記載のプログラム。
JP2014157648A 2014-08-01 2014-08-01 情報処理装置、情報処理方法、及びプログラム Pending JP2016035625A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014157648A JP2016035625A (ja) 2014-08-01 2014-08-01 情報処理装置、情報処理方法、及びプログラム
PCT/JP2015/064501 WO2016017250A1 (ja) 2014-08-01 2015-05-20 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014157648A JP2016035625A (ja) 2014-08-01 2014-08-01 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2016035625A true JP2016035625A (ja) 2016-03-17

Family

ID=55217155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014157648A Pending JP2016035625A (ja) 2014-08-01 2014-08-01 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP2016035625A (ja)
WO (1) WO2016017250A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021099857A (ja) * 2018-08-24 2021-07-01 グーグル エルエルシーGoogle LLC レーダーシステムを備えるスマートフォン、システムおよび方法
US11435468B2 (en) 2018-08-22 2022-09-06 Google Llc Radar-based gesture enhancement for voice interfaces
US12111713B2 (en) 2018-10-22 2024-10-08 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20250232282A1 (en) * 2024-01-11 2025-07-17 Snap Inc. Secured transactions on wearable devices

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2003131785A (ja) * 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
JP3867039B2 (ja) * 2002-10-25 2007-01-10 学校法人慶應義塾 ハンドパターンスイッチ装置
JP2007302223A (ja) * 2006-04-12 2007-11-22 Hitachi Ltd 車載装置の非接触入力操作装置
JP2010238145A (ja) * 2009-03-31 2010-10-21 Casio Computer Co Ltd 情報出力装置、遠隔制御方法、及びプログラム
CN102959970B (zh) * 2010-06-30 2015-04-15 富士胶片株式会社 在立体显示成像期间确定成像范围内障碍物的装置、方法和程序
JP2012194626A (ja) * 2011-03-15 2012-10-11 Nikon Corp 表示装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11435468B2 (en) 2018-08-22 2022-09-06 Google Llc Radar-based gesture enhancement for voice interfaces
JP2021099857A (ja) * 2018-08-24 2021-07-01 グーグル エルエルシーGoogle LLC レーダーシステムを備えるスマートフォン、システムおよび方法
JP2022119986A (ja) * 2018-08-24 2022-08-17 グーグル エルエルシー 電子機器およびソフトウェアプログラム
JP7296415B2 (ja) 2018-08-24 2023-06-22 グーグル エルエルシー レーダーシステムを備えるスマートフォン、システムおよび方法
JP7340656B2 (ja) 2018-08-24 2023-09-07 グーグル エルエルシー 電子機器およびソフトウェアプログラム
US12111713B2 (en) 2018-10-22 2024-10-08 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode

Also Published As

Publication number Publication date
WO2016017250A1 (ja) 2016-02-04

Similar Documents

Publication Publication Date Title
CN105487652B (zh) 显示装置及其控制方法
CN111382624B (zh) 动作识别方法、装置、设备及可读存储介质
KR101850034B1 (ko) 이동 단말기 및 그 제어방법
US11170580B2 (en) Information processing device, information processing method, and recording medium
US11328187B2 (en) Information processing apparatus and information processing method
ES3031389T3 (en) Hand-over-face input sensing for interaction with a device having a built-in camera
JP6341755B2 (ja) 情報処理装置、方法及びプログラム並びに記録媒体
CN114578951B (zh) 显示装置及其控制方法
US20150054730A1 (en) Wristband type information processing apparatus and storage medium
US10643579B2 (en) HMD device and method for controlling same
KR20130123064A (ko) 이동 단말기 및 그 제어방법
KR102308201B1 (ko) 사용자 단말 장치 및 그 제어 방법
CN111886564A (zh) 信息处理装置、信息处理方法和程序
KR20140115906A (ko) 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법
KR102110208B1 (ko) 안경형 단말기 및 이의 제어방법
WO2018072339A1 (zh) 一种虚拟现实头盔和切换虚拟现实头盔显示信息的方法
JP2014048937A (ja) ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US20140118244A1 (en) Control of a device by movement path of a hand
KR20150039355A (ko) 이동 단말기 및 그 제어방법
US20150253873A1 (en) Electronic device, method, and computer readable medium
JP2012079138A (ja) ジェスチャ認識装置
CN106201284B (zh) 用户界面同步系统、方法
WO2016017250A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
US11995899B2 (en) Pointer-based content recognition using a head-mounted device