[go: up one dir, main page]

JP2011192081A - 情報処理装置及びその制御方法 - Google Patents

情報処理装置及びその制御方法 Download PDF

Info

Publication number
JP2011192081A
JP2011192081A JP2010058460A JP2010058460A JP2011192081A JP 2011192081 A JP2011192081 A JP 2011192081A JP 2010058460 A JP2010058460 A JP 2010058460A JP 2010058460 A JP2010058460 A JP 2010058460A JP 2011192081 A JP2011192081 A JP 2011192081A
Authority
JP
Japan
Prior art keywords
application
information
operator
processing apparatus
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010058460A
Other languages
English (en)
Inventor
Daisuke Takayanagi
大輔 高柳
Yuji Tanaka
裕二 田中
Osamu Yonishi
理 余西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010058460A priority Critical patent/JP2011192081A/ja
Publication of JP2011192081A publication Critical patent/JP2011192081A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】操作者が特定の領域への移動を余儀なくされることなく、異なる空間領域に割り当てられているアプリケーションの起動や操作を行える情報処理装置及びその制御方法を提供すること。
【解決手段】情報処理装置100は、操作者の位置とその検出対象部位との相対位置を算出する相対位置算出部108と、検出対象部位に係るジェスチャー種別を判定するジェスチャー判定部109を備える。空間管理部110は、前記相対位置及び前記ジェスチャー種別に対応するアプリケーションの管理情報を保持し、操作者が操作指示を行う空間領域を各アプリケーションに割り当てる。操作決定部111は、前記相対位置と前記ジェスチャー種別の情報を取得し、該当するアプリケーションに対する操作内容を決定して制御部105に通知する。制御部105は操作内容に従ってアプリケーションを制御する。
【選択図】図1

Description

本発明は、操作者の身体的な動きを検出してアプリケーションを操作する情報処理装置及びその制御方法に関するものである。
操作者の身振りや手振り(以下、ジェスチャーという)を検知することで、装置の動作を制御するジェスチャーユーザインターフェース(以下、ジェスチャーUIという)が普及しつつある。このジェスチャーUIでは、従来、機器の操作に使われていたリモートコントローラが不要になるだけでなく、より直感的な操作が可能となるため、将来の機器操作方法として着目されている。しかし操作者が記憶可能であって、かつ再現時に区別可能なジェスチャーの種別(以下、ジェスチャーパターンという)の数は有限である。そのため、テレビジョン受像機のように複数のアプリケーションを同時に実行する機器への適用が困難となる。すなわち各アプリケーションの操作に対して、それぞれに全く異なるジェスチャーパターンを割り当てると、操作者が記憶すべきジェスチャーパターンの数が膨大となり、使いこなすことが難しくなる。
そこで、ジェスチャーパターンの数を減らすために、多くのアプリケーションで用いる操作、例えば上下左右のカーソル移動等の操作を、共通のジェスチャーにすることが考えられる。しかし、この方法ではアプリケーションを指定するためのジェスチャーが別途必要となるため、操作者が記憶すべきジェスチャーパターンの数はその分増加してしまう。従来、ジェスチャーパターンの数を増やすことなく複数のアプリケーションを操作する方法が知られている。特許文献1では、タッチパネル等の平面入力装置において、特定の領域でのジェスチャー操作に、アプリケーションの起動や操作を割り当てている。
特開2000−330711号公報
上述した従来の技術では、カメラなどによる撮影画像を用いてジェスチャーの認識手段を機器に講じた場合、該手段は平面における特定の領域のみを判断している。このため操作者は、異なるアプリケーションを操作するために、割り当てに応じて、撮影画像の特定領域に自分が映るように場所を移動しなければならなかった。
そこで本発明は、操作者とジェスチャーの部位との相対的な位置関係に基づいて、複数のアプリケーションの起動や操作を制御する。本発明は、操作者が特定領域に移動することなく、複数のアプリケーションの起動や操作を行う技術の提供を目的とする。
上記課題を解決するために本発明に係る装置は、操作者の動作を検出してアプリケーションを制御する情報処理装置であって、前記操作者における検出対象部位の相対位置を算出する位置算出手段と、前記検出対象部位の形状を判別する判別手段と、前記アプリケーションを制御するための管理情報を保持し、前記操作者の動作により操作指示を行う空間領域を前記アプリケーションに割り当てる空間管理手段と、前記空間領域にて前記操作者の動作により操作指示が行われた場合、前記相対位置に基づいて前記空間領域に対応するアプリケーションを決定し、前記判別手段による判別情報及び前記管理情報を用いて当該アプリケーションに対する操作内容を決定する操作決定手段を備える。
本発明では、前記空間領域をアプリケーション毎に割り当て、設定された空間領域内で行われる動作、つまり操作者の検出対象部位の動きを判別する。これにより、操作者は特定の領域に移動することなく、複数のアプリケーションを操作できるので操作性が向上する。
本発明の一実施形態に係る情報処理装置の構成例を示すブロック図である。 図3乃至8と併せて本発明の第1実施形態を説明するために、情報処理装置と操作者の位置関係を示す概略図である。 空間領域の管理情報の設定手順例を説明するフローチャートである。 ジェスチャーパターンを例示した説明図である。 空間領域の割り当て例を説明する図である。 相対位置の算出手順例を説明するフローチャートである。 撮影画像例を(A)に示し、顔領域及び手領域を(B)に示し、距離センサ入力部が取得した距離画像例を(C)に示す図である。 操作内容の判別及び決定の手順例を説明するフローチャートである。 本発明の第2実施形態に係る情報処理装置にて空間領域の再構成手順を説明するフローチャートである。 図11乃至13と併せて本発明の第3実施形態を説明するために、空間領域の再構成手順例を説明するフローチャートである。 アプリケーション起動後のGUI表示例を(A)に示し、空間領域の割り当て例を(B)に示す図である。 図11の別例としてGUI表示及び空間領域の割り当てを説明する図である。 操作内容の決定手順例を説明するフローチャートである。 本発明の第4実施形態に係るGUI表示と、対応する空間領域の割り当て例を説明する図である。
本発明に係る情報処理装置は、操作者のジェスチャーを検出して各種操作が可能な機器に適用可能であり、以下では、テレビジョン受像装置への適用例を説明する。
(第1実施形態)
図1に示すブロック図を用いて、本実施形態に係る情報処理装置100を説明する。なお図1の符号100、110、111の右横にて括弧内に示す符号については後述する各実施形態において説明する。
チューナ部101は、アンテナ130を介して放送波を受信する。デコード部102は、チューナ部101が受信した信号を復号して合成部104に出力する。グラフィカルユーザインターフェース(以下、GUIと記す)描画部103は、GUI画面の描画データを生成して合成部104に出力する。合成部104は、復号した映像データとGUI画面の描画データを合成して表示部133に出力する。
制御部105は、特定の目的をもったソフトウェア(以下、アプリケーションという)の起動や終了処理を管理し、操作制御を行う。また制御部105は空間管理部110にアプリケーションの起動や終了を通知する。
カメラ入力部106は、情報処理装置100に接続したカメラ131から画像データを取得する。距離センサ入力部107は、情報処理装置100に接続した距離センサ132から距離情報(検出情報)を取得する。
相対位置算出部108は、カメラ入力部106が取得した画像データと、距離センサ入力部107が取得した距離情報に基づき、操作者の位置、及びその検出対象部位(ジェスチャー部位)の位置を算出する。相対位置算出部108は、操作者の位置とジェスチャー部位との相対位置を算出して操作決定部111に通知する。ジェスチャー判別部109は、カメラ入力部106が取得した画像データに基づいてジェスチャーパターンを判別し、判別結果を操作決定部111に通知する。
空間管理部110は、前記相対位置と前記ジェスチャーパターンに応じた操作内容情報(以下、空間管理情報という)を保持する。操作決定部111は、相対位置算出部108が算出した相対位置と、空間管理部110が保持する空間管理情報に基づいて操作内容を決定して制御部105に通知する。
図2を用いて情報処理装置100の設置例について説明する。操作者135は、情報処理装置100をジェスチャーUIで操作する人物である。情報処理装置100に接続したカメラ131及び距離センサ132は、操作者135の状態を監視する。カメラ131は装置の前景を撮影し、操作者135及びそのジェスチャー部位並びにジェスチャーパターンの認識に用いる画像データを取得する。距離センサ132はアプリケーションの表示画面から操作者135までの距離検出手段であり、例えば超音波アレイセンサが使用され、操作者135とそのジェスチャー部位の位置情報を取得する。
次に図3のフローチャートを用いて、アプリケーション操作用の空間領域を空間管理部110がアプリケーションに割り当てて設定する手順について説明する。なお、以下の説明において、放送アプリケーション及びメニューアプリケーションが既に起動しているものとし、空間管理部110が保持する空間管理情報を表1に示す。
Figure 2011192081
上表1に示す「ジェスチャーパターン」は、例えば図4に示す手の形状を表す。本例にてジェスチャーパターンAは人指し指だけを上方に立てた状態での手形状を表す。また「空間領域」は図5(A)に示すように、操作者により装置への操作指示が可能な空間領域(以下、ユーザ操作領域という)の一部である。本例では領域A、Bのうち領域Aの方が操作者135に近い。
図3のS101で空間管理部110は、制御部105からアプリケーションの起動通知を待ち受ける。空間管理部110が起動通知を受信するとS102に進み、空間管理部110は、起動通知されたアプリケーションの空間領域を設定する必要性について有無を判断する。空間領域を設定が必要な場合、S103に進むが、その必要がない場合、空間領域の設定処理を終了する。
S103で空間管理部110は、ユーザ操作領域に対して新たにアプリケーションを割り当てるための空間領域を設定可能であるか否かを判断する。当該空間領域の設定が可能である場合、S104に進む。また当該空間領域の設定が不可能である場合、例えば多数のアプリケーションが既に起動しているために、新たな空間領域を設定できない場合、S106に進む。ここで空間管理部110は制御部105に対して、新たな空間領域を設定できない旨のエラー通知を発行し、空間領域の設定処理を終了する。
S104で空間管理部110は空間管理情報を参照し、空間領域を設定する。本例では上表1に示すように、ユーザ操作領域として既に空間領域A及びBが設定されている。空間管理部110は新たに起動するアプリケーションのために、図5(B)に示す空間領域Cを設定する。この領域は領域Bよりも操作者135から離れている。
次のS105で空間管理部110は空間管理情報に関し、空間領域Cに対して、新たに起動するアプリケーションを関連付けて登録する。各アプリケーションでのジェスチャーパターンに応じた操作内容のデータは、空間管理部110内の記憶領域に保持されており、アプリケーションの起動に対応して空間管理情報に登録される。例えば、新たに起動したアプリケーションが番組表アプリケーションであった場合、登録完了後の空間管理情報を下表2に示す。
Figure 2011192081
表2中の「C」欄には、ジェスチャーパターンA乃至E、Gにそれぞれ対応した操作内容が登録される。
次に、図6のフローチャートを用いて、相対位置算出部108による前記相対位置の算出手順について説明する。S111で相対位置算出部108は、カメラ入力部106より、カメラ131の撮影した画像データを取得する。撮影画像は、図7(A)に示すように操作者を被写体とした画像である。S112で相対位置算出部108は、取得した画像データより、人間の顔の特徴と合致する領域があるか否かを判断する。例えば、動画像から肌色部分を抽出し、予め用意したテンプレートと照合して顔部分を抽出する方法が挙げられる。人物の顔領域が存在すると判断された場合、S113に進むが、該領域がないと判断された場合、S111に戻る。例えば図7(A)に示す撮影画像から、図7(B)に示す顔領域150の存在が判断された場合、S113に進む。ここで相対位置算出部108は、前記画像データより、人間の手の特徴と合致する領域があるか否かを判断する。そのような手領域があると判断された場合、S114に進むが、そうでない場合には再びS111に戻る。例えば図7(B)に示す手領域160の存在が判断された場合、S114で相対位置算出部108は、距離センサ入力部107から、距離センサ132による距離情報を取得する。例えば、距離情報として図7(C)に示すように、距離に応じて画素値が変化する画像(距離画像)のデータを用いることができる。また、図2に示すカメラ131と距離センサ132は、図示のように互いが離れている場合や、撮影範囲が異なる場合がある。その際にはキーストン補正やトリミング等により、両者の撮影範囲を一致させる処理が行われる。
S115で相対位置算出部108は、操作者の空間位置を算出する。具体的には、前記撮影画像における顔領域と前記距離画像を用いて、操作者の顔の空間位置を三角測量法で算出する処理が行われる。S116で相対位置算出部108は、ジェスチャー部位の空間位置を算出する。具体的には、前記撮影画像における手領域と前記距離画像を用いて、操作者の手の空間位置を三角測量法で算出する処理が行われる。そしてS117で相対位置算出部108は、操作者の顔と手の各空間位置に基づいて、顔の空間位置を原点として設定した場合の、ジェスチャー部位の空間位置(相対位置)を算出する。
次に図8のフローチャートを用いて、制御部105に通知するアプリケーションの操作内容を、操作決定部111が決定する処理例について説明する。S121で操作決定部111は、相対位置算出部108より、図6のS117で算出した前記相対位置を取得する。S122で操作決定部111は、空間管理部110が保持する空間管理情報を取得する。S123で操作決定部111は、前記相対位置及び空間管理情報に基づいて、当該相対位置に対応するユーザ操作領域について、アプリケーションが登録されているか否かを判断する。アプリケーションが登録済みであると判断された場合、S124に進み、該アプリケーションが未登録の場合、S121に戻る。
S124で操作決定部111は、前記相対位置に対応するユーザ操作領域で操作可能なアプリケーション(操作対象アプリケーション)を決定する。次のS125で操作決定部111は、ジェスチャー判別部109から、ジェスチャーパターンを取得してS126に進む。ここで操作決定部111は、前記の操作対象アプリケーション及びジェスチャーパターンに基づき、ジェスチャーパターンに割り当てられた操作の有無を判断する。取得済みのジェスチャーパターンに対して割り当てられた操作が存在すると判断された場合、S127に進む。一方、そのような操作が割り当てられていないと判断された場合、S121へ戻って、相対位置の再取得処理が行われる。
S127で操作決定部111は、前記の操作対象アプリケーションにてジェスチャーパターンに対応する操作内容を決定して制御部105に通知する。これにより、操作者の意図するアプリケーション操作が行われる。
第1実施形態によれば、操作者におけるジェスチャー部位の相対位置に応じて、操作対象アプリケーションを変更できる。例えば、操作者はその手を伸ばす距離を変更することで所望のアプリケーションを操作できる。よって、操作者は操作対象アプリケーションを変更するために、自分の姿が撮影されるようにその場所を移動する必要がなく、同じ場所に居ながら複数のアプリケーションを操作することができる。
(第2実施形態)
以下、本発明の第2実施形態に係る情報処理装置200を説明する。本実施形態の説明にあたり、図1と同様の構成部分については、第1実施形態の場合と同一の符号を用いることで、それらの説明を省略し、相違点である空間管理部(図1の括弧内に示す符号201参照)を説明する。
空間管理部201は、ジェスチャー判別部109からの判別情報と、相対位置算出部108からの位置情報を受けて、前記ジェスチャーパターンに応じた操作内容のデータを保持する。また空間管理部201は、アプリケーションの起動時に、当該アプリケーションに対する空間領域の設定位置を判断するための情報(アプリケーション起動情報)を保持し、当該情報に基づいて空間領域の位置を入れ替える。
以下、図9のフローチャートを用いて、アプリケーションを操作するための空間領域を空間管理部201が設定する手順について説明する。なお、本説明において、放送アプリケーション及びメニューアプリケーションが既に起動しているものとし、また空間管理部201の保持する空間管理情報は前記表1に記載した通りとする。S101乃至104、S106での処理は図3の場合と同様であり、以下、S205乃至207の処理を説明する。
S205で空間管理部201は、保持しているアプリケーション起動情報に基づき、空間領域の再割り当てが必要であるか否かを判断する。アプリケーション起動情報の一例を表3に示す。
Figure 2011192081
上表3は、情報処理装置200が備える各アプリケーションを起動する際に、登録すべき空間領域の配置を規定している。例えば、新たに起動したアプリケーションが番組表アプリケーションの場合、登録すべき空間領域は最前部領域である。空間管理部201はこれまでに起動していたアプリケーションの空間領域の移動、すなわち再割り当てが必要であると判断した場合、処理をS206に進める。一方、再割り当てが不要と判断された場合、S207に進む。なお、登録すべき空間領域が最前部領域とされるアプリケーションを複数起動する場合には、時間的に後で起動したアプリケーションの空間領域が最前部領域として登録される。
S206で空間管理部201は、空間領域の再割り当てを行う。具体的には、空間領域Aに割り当てられている放送アプリケーションを空間領域Bにずらし、空間領域Bに割り当てられているメニューアプリケーションを空間領域Cにずらすシフト処理により再割り当てが行われる。
S207で空間管理部201は、空いている空間領域に対して新たに起動するアプリケーションを登録する。各アプリケーションでのジェスチャーパターンに応じた操作内容は、空間管理部201がその記憶領域に保持しており、アプリケーションの起動に応じて空間管理情報に登録される。本例では、新たに起動したアプリケーションが番組表アプリケーションであり、空間領域Aの割り当てが行われる。登録完了後の空間管理情報を表4に示す。
Figure 2011192081
第2実施形態によれば、第1実施形態による効果に加えて、操作者に近い空間領域で操作すると快適に操作可能なアプリケーションに対し、ユーザ操作領域を操作者側に割り当てることで、ジェスチャー操作の負担を軽減できる。
(第3実施形態)
次に本発明の第3実施形態に係る情報処理装置300を説明する。第1実施形態との相違点は図1に示す空間管理部301及び操作決定部302の動作であり、以下、これらについて説明する。
空間管理部301は、前記相対位置と前記ジェスチャーパターンに応じた操作内容のデータに加えて、空間領域の構成情報を保持する。空間管理部301はアプリケーションの起動時に、各アプリケーションの状態に基づき、空間領域の再構成を行う。また操作決定部302は、空間管理部301が保持している空間管理情報に基づいて操作内容を決定し、決定した操作内容のデータを制御部105に送信する。操作決定部302は、前記相対位置に応じた操作対象アプリケーションを記憶し、操作対象アプリケーションが切り替わった場合、その旨を制御部105に通知する。
以下、図10のフローチャートを用いて、アプリケーションを操作するための空間領域を空間管理部301が設定する手順について説明する。なお、図9と相違するS304乃至306を説明する。本説明において、放送アプリケーション及びメニューアプリケーションが既に起動しているものとし、空間管理部301の保持する空間管理情報は前記表1に示す通りとする。
S103で、ユーザ操作領域に対して新たにアプリケーションを割り当てるための空間領域が設定可能であると判断された場合、S304に進む。ここで空間管理部301は、制御部105よりアプリケーションの表示状態の情報を取得する。「アプリケーションの表示状態」とは、例えばアプリケーションの出力情報を表示する領域(以下、アプリケーションウィンドウという)の配置情報である。本実施形態では、放送アプリケーションとメニューアプリケーションが既に起動しており、番組表アプリケーションが新たに起動された場合について説明する。例えば図11(A)のように、各アプリケーションウィンドウが表示画面上に配置されているとする。制御部105は空間管理部301に対して、画面の左から順番に放送アプリケーション、メニューアプリケーション、番組表アプリケーションが表示されている旨を通知する。
S305で空間管理部301は、前記S304で取得したアプリケーションの表示状態、例えば表示画面上での配置を示す情報に基づいて空間領域を再構成する。図11に示す例では、取得済みのアプリケーションの表示状態にて各アプリケーションウィンドウが縦割りに区分けされているため、空間領域についてもこの構成に合わせて、図11(B)のように縦割りに構成される。S306で空間管理部301は、前記S305で再構成した各空間領域に対し、対応するアプリケーションを登録する。具体的には、空間領域Aに放送アプリケーションを、空間領域Bにメニューアプリケーションを、空間領域Cに番組表アプリケーションを割り当てる。
本実施形態ではアプリケーションウィンドウの配置情報に基づく空間領域の再構成を説明したが、アプリケーションウィンドウのサイズや前後の重なり状態に応じて空間領域を再構成してもよい。例えば図12(A)に示すように、放送アプリケーションウィンドウが画面の左上方に表示され、その下方にメニューアプリケーションウィンドウが表示され、画面の右半部に番組表アプリケーションウィンドウが表示される場合を想定する。ウィンドウの表示面積は、放送アプリケーションウィンドウが最小であり、番組表アプリケーションウィンドウが最大である。空間管理部301は、図12(B)に示すように、アプリケーションウィンドウのサイズに応じて、ユーザ操作領域を操作者の手前側から割り当てる。本例では、最小サイズの放送アプリケーションウィンドウに対応するユーザ操作領域が操作者135に最も近い位置とされ、最大サイズの番組表アプリケーションウィンドウに対応するユーザ操作領域が操作者135から最も遠い位置とされる。これらの間にメニューアプリケーションウィンドウに対応するユーザ操作領域が位置する。
次に図13のフローチャートを用いて、制御部105に通知するアプリケーションの操作内容を操作決定部302が決定するまでの動作について説明する。S311で操作決定部302は、相対位置算出部108から前記相対位置の情報を取得する。S312で操作決定部302は、空間管理部110から前記空間管理情報を取得する。S313で操作決定部302は、前記相対位置及び前記空間管理情報に基づき、前記相対位置に対応するユーザ操作領域において、操作対象アプリケーションが登録されているか否かを判断する。操作対象アプリケーションが登録済みであると判断された場合、S314に進み、未登録の場合、S311に戻って操作決定部302は相対位置を再び取得する。
S314で操作決定部302は、前記相対位置に対応するユーザ操作領域にて操作可能な操作対象アプリケーションを決定する。S315で操作決定部302は、記憶済みである、以前の操作対象アプリケーションから、別の操作対象アプリケーションが変更されたか否かを判定する。操作対象アプリケーションが変更された場合、S316に進み、操作対象アプリケーションに変更がない場合、S318に進む。
S316で操作決定部302は、変更された操作対象アプリケーションを制御部105に通知する。当該通知は、制御部105よりGUI描画部103に送られる。例えば操作対象アプリケーションが番組表アプリケーションに変更された場合、図11(A)に示すような操作対象通知用メッセージ1100のデータをGUI描画部103が生成する。合成部104を経た合成信号は表示部133に出力されて番組表アプリケーションウィンドウ内にメッセージ1100が表示される。なお、本実施形態では操作対象アプリケーションのウィンドウ内に前記操作対象通知のメッセージを表示している。これに限らず、アプリケーション操作を妨げないように、異なるアプリケーションウィンドウに表示する方法や、操作対象が分かるようにウィンドウのフレームに色や模様などに変化を付ける方法を採用してもよい。
図13のS317で操作決定部302は、変更された操作対象アプリケーションを示す情報を記憶する。S318で操作決定部302は、ジェスチャー判別部109からジェスチャーパターンを取得する。S319で操作決定部302は、操作対象アプリケーションとジェスチャーパターンの各情報に基づき、ジェスチャーパターンに割り当てられた操作が登録済みであるか否かを判断する。対象操作が割り当て済みの操作であると判断された場合、S320に進み、操作決定部302は操作内容を制御部105に通知する。一方、S319にて対象操作が割り当て済みの操作でないと判断された場合、S311へ戻る。
第3実施形態によれば、第1実施形態による効果に加えて以下の効果を奏する。アプリケーションに関するGUI画面上の各表示領域の配置と、ユーザ操作領域の割り当て状態が対応するため、操作者はアプリケーションの操作時に空間領域を容易に判断できる。そして操作者は、相対位置に対応するユーザ操作領域にて操作可能なアプリケーションについて、GUI画面上に表示するウィンドウの配置から判断できるため、各空間領域に対応するアプリケーションを事前に覚えておく必要がなく、操作負担が軽減される。
(第4実施形態)
次に第4実施形態について図14を用いて説明する。第1実施形態及び第3実施形態ではアプリケーションの起動状態や表示状態をもとに、空間領域の割り当てを決定していた。第4実施形態では、操作者の絶対位置、すなわち情報処理装置に対して操作者が何処で操作するかを示す情報をさらに組み合わせて、アプリケーションに対する空間領域の割り当てを行う。図14に示す例では、操作者からみて表示部133の表示画面の左側にアプリケーションAのウィンドウが表示され、右側にアプリケーションBのウィンドウが表示されている。操作者がアプリケーションAのウィンドウから距離の近い側、つまり正面に対して左側に寄った場所に居た場合(符号401参照)、空間管理部はアプリケーションAに対してユーザ操作領域を操作者の手前に割り当てる。アプリケーションBに対するユーザ操作領域はその背後に割り当てられる。一方、操作者がアプリケーションBのウィンドウから距離の近い側、つまり正面に対して右側に寄った場所に居た場合(符号402参照)、空間管理部はアプリケーションBに対するユーザ操作領域を操作者の手前に割り当てる。アプリケーションAに対するユーザ操作領域はその背後に割り当てられる。
第4実施形態では、操作者に近い方のアプリケーションのウィンドウに対して、より手前側の空間領域が割り当てられるため、より直感的で容易な操作環境を提供できる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100,200,300 情報処理装置
105 制御部
106 カメラ入力部
107 距離センサ入力部
108 相対位置算出部
109 ジェスチャー判別部
110,201,301 空間管理部
111,302 操作決定部

Claims (8)

  1. 操作者の動作を検出してアプリケーションを制御する情報処理装置であって、
    前記操作者における検出対象部位の相対位置を算出する位置算出手段と、
    前記検出対象部位の形状を判別する判別手段と、
    前記アプリケーションを制御するための管理情報を保持し、前記操作者の動作により操作指示を行う空間領域を前記アプリケーションに割り当てる空間管理手段と、
    前記空間領域にて前記操作者の動作により操作指示が行われた場合、前記相対位置に基づいて前記空間領域に対応するアプリケーションを決定し、前記判別手段による判別情報及び前記管理情報を用いて当該アプリケーションに対する操作内容を決定する操作決定手段を備えることを特徴とする情報処理装置。
  2. 前記空間管理手段は、前記アプリケーションの起動通知を受けて該アプリケーションに対して前記空間領域及び前記判別情報に対応する前記操作内容のデータを割り当てることを特徴とする、請求項1記載の情報処理装置。
  3. 前記空間管理手段は、前記アプリケーションの起動状態に基づいて、操作対象のアプリケーションに対する前記空間領域の割り当てを変更することを特徴とする、請求項1又は2記載の情報処理装置。
  4. 前記空間管理手段は、前記アプリケーションの起動時に当該アプリケーションに対する前記空間領域の設定位置を判断するための情報を保持し、該情報を用いて起動時の該アプリケーションに対して前記空間領域を割り当てる位置を決定することを特徴とする、請求項3に記載の情報処理装置。
  5. 前記空間管理手段は、前記アプリケーションの出力情報を表示画面上に表示する領域の配置情報を取得して、前記アプリケーションに対して前記空間領域を割り当てる位置を決定することを特徴とする、請求項4記載の情報処理装置。
  6. 前記操作決定手段は、前記位置算出手段による位置情報及び前記空間管理手段の保持する管理情報に基づいて、操作可能なアプリケーションを判別し、アプリケーションの操作が可能である旨を表示すべく制御を行うことを特徴とする、請求項1から5のいずれか1項記載の情報処理装置。
  7. 前記アプリケーションの表示画面から前記操作者までの距離を検出する距離検出手段をさらに備え、
    前記空間管理手段は、前記操作者の位置情報及び前記距離検出手段による前記距離の検出情報に基づいて、当該距離が短いアプリケーションに対して前記空間領域を前記操作者に近い位置に割り当てることを特徴とする、請求項1から6のいずれか1項記載の情報処理装置。
  8. 操作者の動作を検出してアプリケーションを制御する情報処理装置の制御方法であって、
    前記操作者における検出対象部位の相対位置を算出する位置算出ステップと、
    前記検出対象部位の形状を判別する判別ステップと、
    前記操作者の動作により操作指示を行う空間領域を前記アプリケーションに割り当てるステップと、
    前記空間領域にて前記操作者の動作により操作指示が行われた場合、前記相対位置に基づいて前記空間領域に対応するアプリケーションを決定し、前記判別ステップでの判別情報及び前記アプリケーションを制御するための管理情報を用いて当該アプリケーションに対する操作内容を決定するステップを有することを特徴とする情報処理装置の制御方法。
JP2010058460A 2010-03-15 2010-03-15 情報処理装置及びその制御方法 Pending JP2011192081A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010058460A JP2011192081A (ja) 2010-03-15 2010-03-15 情報処理装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010058460A JP2011192081A (ja) 2010-03-15 2010-03-15 情報処理装置及びその制御方法

Publications (1)

Publication Number Publication Date
JP2011192081A true JP2011192081A (ja) 2011-09-29

Family

ID=44796908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010058460A Pending JP2011192081A (ja) 2010-03-15 2010-03-15 情報処理装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP2011192081A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210723A (ja) * 2012-03-30 2013-10-10 Sharp Corp 表示システム
WO2014132896A1 (ja) * 2013-03-01 2014-09-04 株式会社東芝 X線診断装置
WO2014149700A1 (en) 2013-03-15 2014-09-25 Intel Corporation System and method for assigning voice and gesture command areas
JP2014535100A (ja) * 2011-10-12 2014-12-25 クアルコム,インコーポレイテッド 認証型ジェスチャ認識
JP2015035103A (ja) * 2013-08-08 2015-02-19 富士ゼロックス株式会社 情報処理装置及びプログラム
KR101514168B1 (ko) 2011-04-28 2015-04-21 엔이씨 솔루션 이노베이터 가부시키가이샤 정보 처리 장치, 정보 처리 방법 및 기록 매체
JP2015125778A (ja) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド ジェスチャベース制御システムのための平面場アクティブ化のシステムおよび方法
CN105074620A (zh) * 2013-03-15 2015-11-18 英特尔公司 用于指派语音和手势命令区域的系统和方法
JP2016512357A (ja) * 2013-03-15 2016-04-25 クアルコム,インコーポレイテッド バックグラウンドタスク用の対話式入力
CN108475135A (zh) * 2015-12-28 2018-08-31 阿尔卑斯电气株式会社 手写输入装置、信息输入方法以及程序
US10298732B2 (en) 2016-07-27 2019-05-21 Kyocera Corporation Electronic device having a non-contact detection sensor and control method
JP7378677B1 (ja) * 2022-10-13 2023-11-13 三菱電機株式会社 インタフェースシステム、制御装置、及び操作支援方法

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9329673B2 (en) 2011-04-28 2016-05-03 Nec Solution Innovators, Ltd. Information processing device, information processing method, and recording medium
KR101514168B1 (ko) 2011-04-28 2015-04-21 엔이씨 솔루션 이노베이터 가부시키가이샤 정보 처리 장치, 정보 처리 방법 및 기록 매체
JP5709227B2 (ja) * 2011-04-28 2015-04-30 Necソリューションイノベータ株式会社 情報処理装置、情報処理方法及びプログラム
JP2014535100A (ja) * 2011-10-12 2014-12-25 クアルコム,インコーポレイテッド 認証型ジェスチャ認識
JP2013210723A (ja) * 2012-03-30 2013-10-10 Sharp Corp 表示システム
WO2014132896A1 (ja) * 2013-03-01 2014-09-04 株式会社東芝 X線診断装置
US10506997B2 (en) 2013-03-01 2019-12-17 Canon Medical Systems Corporation X-ray diagnostic apparatus
JP2016512632A (ja) * 2013-03-15 2016-04-28 インテル コーポレイション 音声およびジェスチャー・コマンド領域を割り当てるためのシステムおよび方法
CN105074620A (zh) * 2013-03-15 2015-11-18 英特尔公司 用于指派语音和手势命令区域的系统和方法
JP2016512357A (ja) * 2013-03-15 2016-04-25 クアルコム,インコーポレイテッド バックグラウンドタスク用の対話式入力
EP2972685A4 (en) * 2013-03-15 2016-11-23 Intel Corp SYSTEM AND METHOD FOR ASSIGNING ZONES OF VOICE AND GESTURE COMMANDS
CN105074620B (zh) * 2013-03-15 2018-11-20 英特尔公司 用于指派语音和手势命令区域的系统和方法
WO2014149700A1 (en) 2013-03-15 2014-09-25 Intel Corporation System and method for assigning voice and gesture command areas
JP2015035103A (ja) * 2013-08-08 2015-02-19 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2015125778A (ja) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド ジェスチャベース制御システムのための平面場アクティブ化のシステムおよび方法
CN108475135A (zh) * 2015-12-28 2018-08-31 阿尔卑斯电气株式会社 手写输入装置、信息输入方法以及程序
US10298732B2 (en) 2016-07-27 2019-05-21 Kyocera Corporation Electronic device having a non-contact detection sensor and control method
US10536571B2 (en) 2016-07-27 2020-01-14 Kyocera Corporation Electronic device having a non-contact detection sensor and control method
JP7378677B1 (ja) * 2022-10-13 2023-11-13 三菱電機株式会社 インタフェースシステム、制御装置、及び操作支援方法
WO2024079831A1 (ja) * 2022-10-13 2024-04-18 三菱電機株式会社 インタフェースシステム、制御装置、及び操作支援方法

Similar Documents

Publication Publication Date Title
JP2011192081A (ja) 情報処理装置及びその制御方法
JP4702959B2 (ja) ユーザインタフェイスシステム
CN105190477B (zh) 用于在增强现实环境中的用户交互的头戴式显示装置
US10095395B2 (en) Computer with touch panel, operation method, and recording medium
US10627990B2 (en) Map information display device, map information display method, and map information display program
CN112805670B (zh) 用于数字病理学的眼睛跟踪的图像查看器
US20120299852A1 (en) Computer system with touch screen and gesture processing method thereof
US20150077357A1 (en) Display apparatus and control method thereof
CN111971646B (zh) 信息处理设备、信息处理方法以及程序
CN104123031B (zh) 图样互换方法与相关多点触控装置
US10656746B2 (en) Information processing device, information processing method, and program
CN106293563B (zh) 一种控制方法和电子设备
CN112987923A (zh) 用于设备交互的方法、装置、设备和存储介质
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
JP5342806B2 (ja) 表示方法および表示装置
KR101233793B1 (ko) 손 동작 인식을 이용한 가상 마우스 구동 방법
JP6000553B2 (ja) 情報処理装置及びその制御方法
WO2017043141A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2011227828A (ja) 情報処理装置、その処理方法及びプログラム
EP3207445B1 (en) Method and apparatus for providing a user interface
KR101491648B1 (ko) 촬영부를 이용한 원격 제어 시스템 및 방법
JP2012212363A (ja) 通信制御装置、通信制御方法、及びプログラム
TW200910159A (en) Image input controlling method and electronic device using the same
JP2023184238A (ja) 情報処理装置、情報処理方法、プログラム
JP2018073310A (ja) 表示システム、表示プログラム