[go: up one dir, main page]

JP2016146104A - 入力システム、入力装置およびプログラム - Google Patents

入力システム、入力装置およびプログラム Download PDF

Info

Publication number
JP2016146104A
JP2016146104A JP2015023221A JP2015023221A JP2016146104A JP 2016146104 A JP2016146104 A JP 2016146104A JP 2015023221 A JP2015023221 A JP 2015023221A JP 2015023221 A JP2015023221 A JP 2015023221A JP 2016146104 A JP2016146104 A JP 2016146104A
Authority
JP
Japan
Prior art keywords
image
displayed
display screen
area
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015023221A
Other languages
English (en)
Inventor
哲哉 渡邊
Tetsuya Watanabe
哲哉 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2015023221A priority Critical patent/JP2016146104A/ja
Publication of JP2016146104A publication Critical patent/JP2016146104A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの動作に応じて指示画像が移動する移動量を常に一定にする場合に比べ、予め定めた領域内に表示されている指示画像が、領域から外れてしまうことを抑制する入力システム、装置及びプログラムを提供する。
【解決手段】表示パネル2と、表示パネル2に表示される画像を操作するユーザのジェスチャを検知する検知センサと、検知センサにて検知されたジェスチャに対応する表示画面上の位置に当該位置を示すポインタ画像Pを表示させ、ジェスチャに応じてポインタ画像Pを表示画面上で移動させ、ポインタ画像Pを表示画面上の予め定められたフォーカス領域200B内に表示させている場合に、ポインタ画像Pをフォーカス領域200B外に表示させている場合と比較してジェスチャに応じたポインタ画像Pの移動量を小さくする制御部とを備える。
【選択図】図7

Description

本発明は、入力システム、入力装置およびプログラムに関する。
従来、表示パネル等の表示手段に表示される画像に対して、ジェスチャ(動作)等により非接触で操作を実行する情報入力システムが存在する。
例えば、特許文献1には、所定のハンドジェスチャの存在及び空間内の位置を検出し検出された空間内の位置と対応する画面での位置にハンドアイコンを出力表示し、ハンドジェスチャの動きに従ってハンドアイコンを移動させる入力システムが開示されている。
特開平8−315154号公報
ところで、予め定めた画像領域上にポインタ等の指示画像を表示させ、ユーザの動作に応じてこの指示画像を移動させる入力システムでは、ユーザの動作に追随して指示画像が動くため、指示画像を予め定められた領域内に留めておくことが困難である。例えば指示画像を予め定めた領域内に留めて選択しようとしても、指示画像が当該領域から外れてしまい、選択することが難しくなる場合がある。
本発明は、ユーザの動作に応じて指示画像が移動する移動量を常に一定にする場合に比べ、予め定めた領域内に表示されている指示画像が、当該領域外に外れてしまうことを抑制することを目的とする。
請求項1に係る発明は、表示画面に画像を表示する表示手段と、前記表示手段に表示される画像を操作するユーザの動作を検知する検知手段と、前記検知手段にて検知された動作に対応する前記表示画面上の位置に当該位置を示す指示画像を表示させ、当該動作に応じて当該指示画像を当該表示画面上で移動させ、当該指示画像を当該表示画面上の予め定められた領域内に表示させている場合に、当該指示画像を当該領域外に表示させている場合と比較して当該動作に応じた当該指示画像の移動量を小さくする表示制御手段とを備える入力システムである。
請求項2に係る発明は、前記表示制御手段は、前記指示画像により選択されることで予め定めた処理が実行される処理画像と重なるように前記領域を設定することを特徴とする請求項1に記載の入力システムである。
請求項3に係る発明は、前記表示制御手段は、前記領域を、前記処理画像を含み且つ当該処理画像より広い範囲に設定することを特徴とする請求項2に記載の入力システムである。
請求項4に係る発明は、前記表示制御手段は、前記領域内に前記指示画像が表示されている場合に、当該領域内での当該指示画像の移動量を、前記検知手段にて検知された前記動作の時間平均に基づいて算出することを特徴とする請求項1乃至3のいずれか1項に記載の入力システムである。
請求項5に係る発明は、表示画面に表示される画像を操作するユーザの動作を検知する検知手段と、前記検知手段にて検知された動作に対応する前記表示画面上の位置に当該位置を示す指示画像を表示させ、当該動作に応じて当該指示画像を当該表示画面上にて移動させ、当該指示画像を当該表示画面上の予め定められた領域内に表示させている場合には、当該指示画像を当該領域外に表示させている場合と比較して、当該動作に応じた当該指示画像の移動量を小さくする表示制御手段とを備える入力装置である。
請求項6に係る発明は、コンピュータに、表示画面に画像を表示させる機能と、前記表示画面に表示される画像を操作するユーザの動作を認識する機能と、認識した前記動作に対応する前記表示画面上の位置に当該位置を示す指示画像を表示させ、当該動作に応じて当該指示画像を当該表示画面上で移動させ、当該指示画像を当該表示画面上の予め定められた領域内に表示させている場合に、当該指示画像を当該領域外に表示させている場合と比較して当該動作に応じた当該指示画像の移動量を小さくする機能とを実現させるプログラムである。
請求項1に係る発明によれば、ユーザの動作に応じて指示画像が移動する移動量を常に一定にする場合に比べ、予め定めた領域内に表示されている指示画像が、当該領域外に外れてしまうことを抑制できる。
請求項2に係る発明によれば、ユーザの動作に応じて指示画像が移動する移動量を常に一定にする場合に比べ、処理画像をより選択しやすくなる。
請求項3に係る発明によれば、領域を処理画像より広い範囲に設定しない場合と比較して、指示画像が当該領域外に外れにくくなる。
請求項4に係る発明によれば、指示画像の移動量を動作の時間平均に基づいて算出しない場合と比較して、ユーザの動作に応じた指示画像の移動を平滑化することができる。
請求項5に係る発明によれば、ユーザの動作に応じて指示画像が移動する移動量を常に一定にする場合に比べ、予め定めた領域内に表示されている指示画像が、当該領域外に外れてしまうことを抑制できる。
請求項6に係る発明によれば、ユーザの動作に応じて指示画像が移動する移動量を常に一定にする場合に比べ、予め定めた領域内に表示されている指示画像が、当該領域外に外れてしまうことを抑制できる。
本実施の形態が適用される情報入力システムの全体構成を示した図である。 本実施の形態が適用される入力装置の機能構成を示した図である。 描画制御部により表示パネルの表示画面に表示される画像の一例を示した図である。 制御部により実行される処理の手順の一例を示したフローチャートである。 ポインタ画像を移動させるモードとしてフォーカスモードが設定されている場合の表示画面の状態を示している。 ポインタ画像を移動させるモードとして通常モードが設定されている場合の表示画面の状態を示している。 表示画面において、フォーカス領域内にポインタ画像が表示されフォーカスモードが設定されている場合のポインタ画像の動きと、通常領域内にポインタ画像が表示され通常モードが設定されている場合のポインタ画像の動きとを示した図である。 オフセット幅OFの算出方法の一例を説明するための図である。
以下、添付図面を参照して、本発明における実施の形態について詳細に説明する。
図1は、本実施の形態が適用される情報入力システム1の全体構成を示した図である。図1に示すように、情報入力システム1は、画像を表示する表示パネル2と、ユーザのジェスチャ(動作)による情報入力を受け付ける入力装置3とを備えている。本実施の形態の情報入力システム1では、入力装置3の後述する検知センサ4(図2参照)によりユーザのジェスチャ(動作)が検知され、検知されたジェスチャに基づいて、表示パネル2に表示される画像が操作される。
本実施の形態の情報入力システム1は、入力システムの一例であって、例えば情報入力システム1に接続された外部装置(図示せず)の操作等に用いられ、表示パネル2には、外部装置の操作画面等が表示される。このような外部装置としては、例えば画像形成装置、画像読取装置、FAX等を備える複合機等が挙げられる。そして、本実施の形態の情報入力システム1では、ユーザのジェスチャにより、表示パネル2に表示される操作画面に対する操作が非接触で行われるようになっている。
このように、本実施の形態の情報入力システム1は、非接触による外部装置の操作が可能であるため、医療現場や飲食店、食品製造工場等のような衛生的な環境が求められる場所において特に好適に用いられる。
表示パネル2は、表示手段の一例であり、後述する制御部5からの情報に基づき、表示画面21に画像を表示する。表示パネル2は、例えば液晶ディスプレイ、プラズマディスプレイ等により構成される。表示画面21に表示される画像については、後段にて説明する。
続いて、本実施の形態の入力装置3の機能について説明する。図2は、本実施の形態が適用される入力装置3の機能構成を示した図である。
図2に示すように、本実施の形態の入力装置3は、ユーザによるジェスチャ(動作)を検知する検知センサ4と、検知センサ4による検知結果に基づいて表示パネル2に表示される画像の制御を行う制御部5とを備えている。
検知センサ4は、検知手段の一例であり、例えば、ユーザの体の予め定めた部位やユーザが所持する道具等の位置を三次元で検知する。検知センサ4は、ユーザの体の予め定めた部位やユーザが所持する道具等の位置を検知可能であれば特に限定されないが、例えば赤外線センサ、レーザセンサ等を用いることができる。
本実施の形態の情報入力システム1では、検知センサ4は、ユーザの手指の位置を検知するようになっている。
制御部5は、表示制御手段の一例であり、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)により構成されている。ROMは、CPUにより実行される制御プログラムを記憶している。CPUは、ROMに記憶されている制御プログラムを読み出し、RAMを作業エリアにして制御プログラムを実行する。
本実施の形態の制御部5は、図2に示すように、検知センサ4に検知されたユーザによるジェスチャに関する情報を取得するジェスチャ受付部51と、ジェスチャ受付部51にて受け付けたジェスチャに関する情報に基づきユーザによるジェスチャを判定するジェスチャ判定部52と、ジェスチャ判定部52による判定結果に基づいて表示パネル2に表示される画像を制御する描画制御部53と、ジェスチャ判定部52による判定結果に基づいて後述するポインタ画像P(図3参照)を表示画面21上で移動させるモードを設定するモード設定部54とを備えている。
ジェスチャ判定部52は、ジェスチャ受付部51にて受け付けたジェスチャに関する情報に基づき、ジェスチャを行うユーザの手指の空間位置を認識する空間位置認識部521を備えている。
また、ジェスチャ判定部52は、ユーザの手指の位置が移動した場合に、モード設定部54により設定されたモード、空間位置認識部521にて認識された手指の空間位置に基づいて、ポインタ画像Pを表示させる表示位置を算出する表示位置算出部522を備えている。
描画制御部53は、表示画面21の全体に予め定められた画像200(後述する図3参照)を表示する画面表示部531を備えている。
また、ジェスチャ判定部52による判定に基づいて、表示画面21上に、ユーザの手指の位置に対応した位置を示す指示画像の一例としてのポインタ画像Pを表示するポインタ表示部532を備えている。
図3は、描画制御部53により表示パネル2の表示画面21に表示される画像200の一例を示した図である。図3に示すように、画面表示部531により表示画面21に表示される画像200には、ポインタ画像Pにより選択されることで予め定められた処理が実行される処理画像210が含まれている。処理画像210は、ユーザにより視認できるように、例えば他の部分とは異なる色の予め定めた面積を有する領域により構成されている。この例では、図3に示すように、処理画像210は、他の領域とは異なる色の四角形状の領域により構成されている。また、この例では、図3に示すように、表示画面21に表示される画像200には、5つの処理画像210が含まれている。
また、表示画面21に表示される画像200は、ユーザの手指の移動に応じてポインタ画像Pが移動する通常領域200Aと、通常領域200Aと比較してユーザの手指の移動に応じたポインタ画像Pの移動速度が遅くなるフォーカス領域200Bとに分けられている。
図3に示すように、本実施の形態では、フォーカス領域200Bは、処理画像210に重なるように設定されている。より具体的には、フォーカス領域200Bは、処理画像210を全て含み且つ処理画像210の周囲も含むように、処理画像210よりも予め定めたオフセット幅OFだけ広い面積に設定されている。
なお、本実施の形態では、画像200に設定される通常領域200Aとフォーカス領域200Bとの境界は、ユーザによって視認できないようになっている。言い換えると、本実施の形態では、ポインタ画像Pが、通常領域200Aおよびフォーカス領域200Bのいずれに表示されているかについてユーザが視認できないようになっている。
本実施の形態の情報入力システム1(図1参照)では、ポインタ画像Pが処理画像210上に表示された状態で予め定められた時間が経過したり、ポインタ画像Pが処理画像210上に表示された状態でユーザにより手を握る等の予め定めたジェスチャが行われたりすることにより、処理画像210が選択され、処理画像210に対応して設定された処理が実行されるようになっている。
ところで、例えばユーザのジェスチャにより移動するポインタ画像Pを用いて表示画面21に表示される画像200の操作を行う情報入力システム1(図1参照)では、以下のような問題が生じる場合がある。
すなわち、ユーザが手指のジェスチャにより処理画像210を選択する場合には、上述したように、ポインタ画像Pを処理画像210上に表示した状態を、予め定めた時間維持する必要がある。しかしながら、ポインタ画像Pはユーザの手指の動きに応じて画像200上を移動するため、ポインタ画像Pを処理画像210上に留めておくことが困難になる場合がある。この場合、ユーザの手指の動きによってポインタ画像Pが処理画像210から外れ、処理画像210を選択しにくくなる。
また、例えばポインタ画像Pがユーザの手指の動きに忠実に追従して移動する場合、ポインタ画像Pがユーザの手指の動きに応じて画像200上で常に揺れた状態となりやすい。この場合、ユーザが不快に感じる場合がある。
これに対し、本実施の形態の情報入力システム1では、上述したように、表示画面21に表示される画像200において処理画像210に対応するフォーカス領域200Bを設定している。そして、ユーザの手指のジェスチャによりポインタ画像Pが移動してフォーカス領域200Bに侵入した場合、すなわちフォーカス領域200Bにポインタ画像Pが表示されている場合には、通常領域200Aにポインタ画像Pが表示されている場合と比較してユーザの手指のジェスチャに応じたポインタ画像Pの移動量を小さくする制御を行っている。
言い換えると、本実施の形態の情報入力システム1では、通常領域200Aにポインタ画像Pが表示されている場合には、ポインタ画像Pを移動させるモードとして通常モードを設定する。そして、通常モードが設定されている場合には、ユーザの手指の位置に対応する表示画面21の位置にポインタ画像Pを表示させることで、ユーザの手指の移動に応じてポインタ画像Pが表示画面21上を移動するようにしている。
一方、フォーカス領域200Bにポインタ画像Pが表示されている場合には、ポインタ画像Pを移動させるモードとして、通常モードと比較してユーザのジェスチャによるポインタ画像Pの移動量を小さくするフォーカスモードを設定する。そして、フォーカスモードが設定されている場合には、ユーザのジェスチャに応じてポインタ画像Pを移動させる場合に、表示画面21上において、ジェスチャ後のユーザの手指の位置に対応する表示画面21上の位置と比較して移動前のポインタ画像Pに近い位置に、ポインタ画像Pを表示させている。これにより、フォーカスモードではユーザの手指のジェスチャに応じたポインタ画像Pの移動量が小さくなる。
本実施の形態の情報入力システム1では、上記のような制御により、例えばユーザが処理画像210を選択しようとした場合等には、処理画像210上からポインタ画像Pが外れることが抑制される。
また、ポインタ画像Pが処理画像210上に表示されていない場合には、ユーザの手指のジェスチャに応じてポインタ画像Pが移動される。これにより、ユーザのジェスチャに応じてポインタ画像Pが表示画面21上を移動するようになり、ユーザの意図に応じた操作が行われる。
この結果、本実施の形態の情報入力システム1では、本構成を採用しない場合と比較して、ユーザによる操作性が向上する。
続いて、本実施の形態の情報入力システム1において制御部5により行われる処理について説明する。図4は、制御部5により実行される処理の手順の一例を示したフローチャートである。
また、図5および図6は、図4に示した処理が行われた場合の表示画面21の状態を示した図である。ここで、図5は、ポインタ画像Pを移動させるモードとしてフォーカスモードが設定されている場合の表示画面21の状態を示している。具体的には、表示画面21に表示される画像200のうちフォーカス領域200Bにポインタ画像Pが表示されている状態で、ユーザによって第1空間位置H1から第2空間位置H2に手指が移動されるジェスチャが行われた状態を示している。
一方、図6は、ポインタ画像Pを移動させるモードとして通常モードが設定されている場合の表示画面21の状態を示している。具体的には、表示画面21に表示される画像のうち通常領域200Aにポインタ画像Pが表示されている状態で、ユーザによって第1空間位置H1から第2空間位置H2に手指が移動されるジェスチャが行われた状態を示している。
なお、以下の説明において、ユーザによりジェスチャが行われる前にポインタ画像Pが表示されている位置を、第1表示位置P1とする。
まず、ユーザにより表示パネル2(図1参照)の表示画面21に表示される画像200を操作するジェスチャが行われ検知センサ4(図2参照)にてユーザによるジェスチャが検知されると、ジェスチャ受付部51により、検知センサ4にて検知されたジェスチャに関する情報が取得される(ステップ101)。ジェスチャに関する情報としては、具体的には、ユーザの手指の位置に関する情報が挙げられる。
続いて、ステップ101にて取得されたジェスチャに関する情報に基づいて、空間位置認識部521により、ジェスチャが行われた後のユーザの手指の空間位置(第2空間位置H2)が認識される(ステップ102)。
次いで、モード設定部54により、ポインタ画像Pを移動させるモードとしてフォーカスモードが設定されているか否かの判定が行われる(ステップ103)。
モード設定部54によりフォーカスモードが設定されていると判定された場合(ステップ103にてYES)、表示位置算出部522により、ステップ102にて認識されたジェスチャが行われた後の手指の空間位置(第2空間位置H2)、予め記憶された手指の基準空間位置(ジェスチャが行われる前の手指の空間位置;第1空間位置H1)、予め記憶されたポインタ画像Pの基準表示位置(第1表示位置P1)に基づいて、移動後のポインタ画像Pの表示位置(第2表示位置P2)が算出される(ステップ104)。
ここで、上述したように、フォーカスモードは、ポインタ画像Pがフォーカス領域200B(図3参照)に侵入した場合に設定されるモードである。すなわち、フォーカスモードが設定されるのは、ユーザがジェスチャを行う前に表示画面21のフォーカス領域200Bにポインタ画像Pが表示されている場合である。
後述するように、ポインタ画像Pがフォーカス領域200Bに表示されフォーカスモードが設定されている場合、表示位置算出部522により、ステップ101にて検知されるジェスチャを行う前のユーザの手指の空間位置(第1空間位置H1)が予め基準空間位置として記憶されている。同様に、ステップ101にて検知されるジェスチャにより移動する前のポインタ画像Pの表示位置(第1表示位置P1)が基準表示位置として予め記憶されている。(後述するステップ107参照)
ステップ104では、表示位置算出部522により、ステップ102にて認識された手指の現在の空間位置(第2空間位置H2)、予め記憶されている手指の基準空間位置(第1空間位置H1)、および予め記憶されているポインタ画像Pの基準表示位置(第1表示位置P1)に基づいて、移動後のポインタ画像Pの表示位置(第2表示位置P2)が算出される。
具体的には、図5に示すように、手指の現在の空間位置に対応する表示画面21上の位置(手指対応表示位置PH)よりポインタ画像Pの基準表示位置に近い位置が、移動後のポインタ画像Pの表示位置(第2表示位置P2)として算出される。
続いて、ポインタ表示部532により、表示画面21に対して、ステップ104にて算出された第2表示位置P2にポインタ画像Pが表示される(ステップ105)。
これにより、フォーカスモードが設定されている場合には、通常モードが設定されている場合(図6におけるポインタ画像Pの移動量D2)と比較して、ユーザのジェスチャによるポインタ画像Pの移動量D1が小さくなるように(D1<D2)、表示画面21上に移動後のポインタ画像Pが表示される。
次いで、ステップ104にて算出されステップ105にて移動後のポインタ画像Pが表示された第2表示位置P2が、フォーカス領域200B内であるか否かの判定が行われる(ステップ106)。
第2表示位置P2がフォーカス領域200B内であると判定された場合(ステップ106でYES)、表示位置算出部522により、ステップ102にて認識された手指の空間位置(第2空間位置H2)、およびステップ104にて算出されステップ105にてポインタ画像Pが表示された第2表示位置P2が、それぞれ基準空間位置および基準表示位置として新たに記憶され(ステップ107)、一連の処理が終了する。
なお、ステップ106にて第2表示位置P2がフォーカス領域200B内であると判定された場合には、ポインタ画像Pを移動させるモードの切り替えは行われず、引き続きフォーカスモードが設定された状態が維持される。
一方、ステップ106にて第2表示位置P2がフォーカス領域200B外であると判定された場合(ステップ106でNO)、モード設定部54により、ポインタ画像Pを移動させるモードがフォーカスモードから通常モードへ切り替えられ(ステップ108)、一連の処理が終了する。
また、ステップ103においてモード設定部54によりフォーカスモードが設定されていないと判定された場合(ステップ103においてNO)、すなわち、モード設定部54により通常モードが設定されている場合、表示位置算出部522により、ステップ102において認識したユーザの手指の空間位置(第2空間位置H2)に基づいてポインタ画像Pの表示位置が算出される(ステップ109)。
具体的には、通常モードが設定されている場合、図6に示すようにステップ102において認識したユーザの手指の空間位置(第2空間位置H2)に対応する表示画面21上の位置(手指対応表示位置PH)が、ポインタ画像Pの表示位置(第2表示位置P2)として算出される。
続いて、ポインタ表示部532により、表示画面21に対して、ステップ109にて算出された第2表示位置P2にポインタ画像Pが表示される(ステップ110)。
これにより、通常モードが設定されている場合には、フォーカスモードが設定されている場合とは異なり、ポインタ画像Pがユーザによる手指のジェスチャに対応して移動される。
次いで、ステップ109にて算出されステップ110にてポインタ画像Pが表示された第2表示位置P2が、フォーカス領域200B内であるか否かの判定が行われる(ステップ111)。
第2表示位置P2がフォーカス領域200B内であると判定された場合(ステップ111でYES)、モード設定部54により、ポインタ画像Pを移動させるモードが通常モードからフォーカスモードへ切り替えられる(ステップ112)。
続いて、表示位置算出部522により、ステップ102にて認識された手指の空間位置(第2空間位置H2)、およびステップ109にて算出されステップ110にてポインタ画像Pが表示された表示位置(第2表示位置P2)が、それぞれ基準空間位置および基準表示位置として新たに記憶され(ステップ107)、一連の処理が終了する。
一方、第2表示位置P2がフォーカス領域200B外であると判定された場合(ステップ111でNO)、ポインタ画像Pを移動させるモードの切り替えは行われず、引き続き通常モードが設定されたまま、一連の処理が終了する。
図7は、表示画面21において、フォーカス領域200B内にポインタ画像Pが表示されフォーカスモードが設定されている場合のポインタ画像Pの動きと、通常領域200A内にポインタ画像Pが表示され通常モードが設定されている場合のポインタ画像Pの動きとを示した図である。
図7に示すように、本実施の形態の情報入力システム1では、ユーザによるジェスチャによりポインタ画像Pが予め定められたフォーカス領域200B内に侵入した場合には、ポインタ画像Pが通常領域200Aに表示されている場合と比較して、ユーザのジェスチャによるポインタ画像Pの移動量が小さくなる。言い換えると、本実施の形態の情報入力システム1では、ポインタ画像Pがフォーカス領域200Bに表示されている場合には、当該フォーカス領域200Bが設定される処理画像210上にポインタ画像Pが表示された状態が維持されやすくなる。
この結果、例えばユーザが処理画像210を選択しようとした場合に、ポインタ画像Pが処理画像210から外れることが抑制され、本構成を採用しない場合と比較して、所望の処理画像210を選択しやすくなる。
一方、図7に示すように、ポインタ画像Pが通常領域200Aに表示されている場合やポインタ画像Pがフォーカス領域200Bから通常領域200Aに移動した場合には、ポインタ画像Pがフォーカス領域200Bに表示されている場合と異なり、手指のジェスチャ(移動)に応じてポインタ画像Pが移動されるため、ユーザの意図した操作が行われやすくなる。この結果、情報入力システム1による操作性の低下が抑制される。
なお、ステップ104における移動後のポインタ画像Pの表示位置(第2表示位置P2)については、通常モードが設定されている場合と比較して、ポインタ画像Pの移動量が小さくなれば、その算出方法は特に限定されるものではないが、例えば以下のように算出することができる。
すなわち、フォーカスモードが設定されている場合には、例えば空間位置認識部521により、予め定めた期間におけるユーザの手指の空間位置の時間平均を算出し、算出した手指の空間位置の時間平均に基づいてポインタ画像Pの表示位置(第2表示位置P2)を算出することができる。これにより、フォーカスモードが設定されている場合には、ユーザの手指の移動量に対して表示画面21上でのポインタ画像Pの移動量が小さくなり、フォーカス領域200Bが設定される処理画像210からポインタ画像Pが外れにくくなる。
また、本実施の形態では、ポインタ画像Pがフォーカス領域200Bに表示されている場合にフォーカスモードを設定し、ユーザのジェスチャに応じたポインタ画像Pの移動量を通常モードが設定されている場合と比較して小さくする構成とした。
しかしながら、例えば、ポインタ画像Pが通常領域200Aからフォーカス領域200Bに侵入した場合に、ポインタ画像Pの移動量を制御するのではなく、当該フォーカス領域200Bが設定される処理画像210の中央部にポインタ画像Pを固定するようにしてもよい。これにより、例えばユーザが処理画像210を選択しようとした場合に、ポインタ画像Pが処理画像210から外れることが抑制され、本構成を採用しない場合と比較して、所望の処理画像210を選択しやすくなる。
ところで、上述したように、本実施の形態では、フォーカス領域200B(図3参照)を、処理画像210(図3参照)の周囲を含むように処理画像210よりもオフセット幅OF(図3参照)だけ広範囲に設定している。オフセット幅OFは、予め設定された静的なものであってもよく、また、以下のようにユーザのジェスチャに応じて動的に設定してもよい。図8は、オフセット幅OFの算出方法の一例を説明するための図である。
図8に示すように、ユーザが予め定めたジェスチャを行った場合に、制御部5(図2参照)により、ユーザの手指の移動方向のベクトルと、検知センサ4(図2参照)にて検知され空間位置認識部521(図2参照)にて認識された実際のユーザの手指の動きとに基づいて、手指の移動のブレ幅HDを算出する。そして、このブレ幅HDを、フォーカス領域200Bのオフセット幅OFとすることで、オフセット幅OFを動的に変化させることができる。
オフセット幅OFを動的に変化させた場合、ユーザの手指によるジェスチャに応じてフォーカス領域200Bが設定される。このため、例えばユーザの手指のジェスチャのブレが大きい場合には、フォーカス領域200Bが広範囲に設定されることになり、処理画像210を選択する場合に、ポインタ画像Pが処理画像210からより外れにくくなる。
なお、本実施の形態では、フォーカス領域200Bは、処理画像210の周囲も含むよう処理画像210よりも広範囲に設定したが、フォーカス領域200Bの全体が処理画像210と重なるように、フォーカス領域200Bを処理画像210と同範囲に設定してもよい。
1…情報入力システム、2…表示パネル、3…入力装置、4…検知センサ、5…制御部、21…表示画面、51…ジェスチャ受付部、52…ジェスチャ判定部、53…描画制御部、54…モード設定部、200A…通常領域、200B…フォーカス領域、210…処理画像

Claims (6)

  1. 表示画面に画像を表示する表示手段と、
    前記表示手段に表示される画像を操作するユーザの動作を検知する検知手段と、
    前記検知手段にて検知された動作に対応する前記表示画面上の位置に当該位置を示す指示画像を表示させ、当該動作に応じて当該指示画像を当該表示画面上で移動させ、当該指示画像を当該表示画面上の予め定められた領域内に表示させている場合に、当該指示画像を当該領域外に表示させている場合と比較して当該動作に応じた当該指示画像の移動量を小さくする表示制御手段とを備える入力システム。
  2. 前記表示制御手段は、前記指示画像により選択されることで予め定めた処理が実行される処理画像と重なるように前記領域を設定することを特徴とする請求項1に記載の入力システム。
  3. 前記表示制御手段は、前記領域を、前記処理画像を含み且つ当該処理画像より広い範囲に設定することを特徴とする請求項2に記載の入力システム。
  4. 前記表示制御手段は、前記領域内に前記指示画像が表示されている場合に、当該領域内での当該指示画像の移動量を、前記検知手段にて検知された前記動作の時間平均に基づいて算出することを特徴とする請求項1乃至3のいずれか1項に記載の入力システム。
  5. 表示画面に表示される画像を操作するユーザの動作を検知する検知手段と、
    前記検知手段にて検知された動作に対応する前記表示画面上の位置に当該位置を示す指示画像を表示させ、当該動作に応じて当該指示画像を当該表示画面上にて移動させ、当該指示画像を当該表示画面上の予め定められた領域内に表示させている場合には、当該指示画像を当該領域外に表示させている場合と比較して、当該動作に応じた当該指示画像の移動量を小さくする表示制御手段とを備える入力装置。
  6. コンピュータに、
    表示画面に画像を表示させる機能と、
    前記表示画面に表示される画像を操作するユーザの動作を認識する機能と、
    認識した前記動作に対応する前記表示画面上の位置に当該位置を示す指示画像を表示させ、当該動作に応じて当該指示画像を当該表示画面上で移動させ、当該指示画像を当該表示画面上の予め定められた領域内に表示させている場合に、当該指示画像を当該領域外に表示させている場合と比較して当該動作に応じた当該指示画像の移動量を小さくする機能とを実現させるプログラム。
JP2015023221A 2015-02-09 2015-02-09 入力システム、入力装置およびプログラム Pending JP2016146104A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015023221A JP2016146104A (ja) 2015-02-09 2015-02-09 入力システム、入力装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015023221A JP2016146104A (ja) 2015-02-09 2015-02-09 入力システム、入力装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2016146104A true JP2016146104A (ja) 2016-08-12

Family

ID=56686338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015023221A Pending JP2016146104A (ja) 2015-02-09 2015-02-09 入力システム、入力装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2016146104A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023104568A (ja) * 2022-01-18 2023-07-28 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
JP2023108779A (ja) * 2022-01-26 2023-08-07 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61160793A (ja) * 1985-01-10 1986-07-21 株式会社リコー 情報処理装置
JPH05333838A (ja) * 1992-06-03 1993-12-17 Sony Corp 画像表示装置
JPH08314637A (ja) * 1995-05-22 1996-11-29 Matsushita Electric Ind Co Ltd 映像表示装置
JPH0916370A (ja) * 1995-06-29 1997-01-17 Victor Co Of Japan Ltd 表示オブジェクト選択方式
US20080244462A1 (en) * 2007-03-30 2008-10-02 Samsung Electronics Co., Ltd. Method for providing gui having pointer moving at a variable speed and a video apparatus
WO2008149991A1 (ja) * 2007-06-08 2008-12-11 Sony Corporation 情報処理装置、入力装置、情報処理システム、情報処理方法及びプログラム
JP2009294690A (ja) * 2008-06-02 2009-12-17 Sony Corp 入力装置、制御装置、制御システム及び制御方法
JP2011253398A (ja) * 2010-06-03 2011-12-15 Sony Corp 制御システム、制御装置、ハンドヘルド装置、制御方法及びプログラム。
US20130194180A1 (en) * 2012-01-27 2013-08-01 Lg Electronics Inc. Device and method of controlling the same
JP2013178645A (ja) * 2012-02-28 2013-09-09 Onkyo Corp 電子機器の入力装置
WO2013175847A1 (ja) * 2012-05-22 2013-11-28 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP2014093090A (ja) * 2012-11-02 2014-05-19 Samsung Electronics Co Ltd ディスプレイ装置およびその制御方法
JP2014137676A (ja) * 2013-01-16 2014-07-28 Ricoh Co Ltd 位置情報取得装置及び画像表示システム
JP2014533866A (ja) * 2011-11-23 2014-12-15 マイクロソフト コーポレーション タッチ・センサーの動的スケーリング

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61160793A (ja) * 1985-01-10 1986-07-21 株式会社リコー 情報処理装置
JPH05333838A (ja) * 1992-06-03 1993-12-17 Sony Corp 画像表示装置
JPH08314637A (ja) * 1995-05-22 1996-11-29 Matsushita Electric Ind Co Ltd 映像表示装置
JPH0916370A (ja) * 1995-06-29 1997-01-17 Victor Co Of Japan Ltd 表示オブジェクト選択方式
US20080244462A1 (en) * 2007-03-30 2008-10-02 Samsung Electronics Co., Ltd. Method for providing gui having pointer moving at a variable speed and a video apparatus
WO2008149991A1 (ja) * 2007-06-08 2008-12-11 Sony Corporation 情報処理装置、入力装置、情報処理システム、情報処理方法及びプログラム
JP2009294690A (ja) * 2008-06-02 2009-12-17 Sony Corp 入力装置、制御装置、制御システム及び制御方法
JP2011253398A (ja) * 2010-06-03 2011-12-15 Sony Corp 制御システム、制御装置、ハンドヘルド装置、制御方法及びプログラム。
JP2014533866A (ja) * 2011-11-23 2014-12-15 マイクロソフト コーポレーション タッチ・センサーの動的スケーリング
US20130194180A1 (en) * 2012-01-27 2013-08-01 Lg Electronics Inc. Device and method of controlling the same
JP2013178645A (ja) * 2012-02-28 2013-09-09 Onkyo Corp 電子機器の入力装置
WO2013175847A1 (ja) * 2012-05-22 2013-11-28 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP2014093090A (ja) * 2012-11-02 2014-05-19 Samsung Electronics Co Ltd ディスプレイ装置およびその制御方法
JP2014137676A (ja) * 2013-01-16 2014-07-28 Ricoh Co Ltd 位置情報取得装置及び画像表示システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023104568A (ja) * 2022-01-18 2023-07-28 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
JP2023108779A (ja) * 2022-01-26 2023-08-07 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
JP7757810B2 (ja) 2022-01-26 2025-10-22 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム

Similar Documents

Publication Publication Date Title
JP6131540B2 (ja) タブレット端末、操作受付方法および操作受付プログラム
JP5387557B2 (ja) 情報処理装置及び方法、並びにプログラム
EP2420914A2 (en) Information processing apparatus, information processing method and program
JP2010165149A (ja) 電子機器及びタッチセンサを用いた操作制御方法
JP5787238B2 (ja) 制御装置及び操作制御方法並びに操作制御プログラム
US10019919B2 (en) Processing apparatus, command generation method and storage medium
JP2016099740A (ja) 映像装置、方法、およびプログラム
US11437001B2 (en) Image processing apparatus, program and image processing method
JP5628991B2 (ja) 表示装置、表示方法、及び表示プログラム
JP2016146104A (ja) 入力システム、入力装置およびプログラム
JP2011065345A (ja) 数値データ入力装置、画像形成装置およびプログラム
JP6034281B2 (ja) オブジェクト選択方法、装置及びコンピュータ・プログラム
JP6051183B2 (ja) 表示制御装置及び電子機器
JP6365268B2 (ja) 表示装置、画像形成装置、表示方法、および表示プログラム
JP2013205980A (ja) 表示装置
JP6447179B2 (ja) 情報入力システムおよび入力装置
JP7314196B2 (ja) 端末装置、端末装置の制御方法および端末装置の制御プログラム
JP6603383B2 (ja) 映像装置、方法、およびプログラム
US20250231618A1 (en) Gaze-based device interactions for notifications
WO2013080430A1 (en) Information processing device, information processing method, and program
JP2016053888A (ja) 情報処理装置、表示制御方法、及びコンピュータプログラム
JP6060807B2 (ja) 操作支援システム、電子機器、表示方法、および制御プログラム
JP6547476B2 (ja) 情報処理システム、情報処理装置、およびプログラム
JP6534311B2 (ja) 電子機器、制御方法、プログラム
JP2013250826A (ja) タッチセンサ制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200204