JP2009140368A - 入力装置、表示装置、入力方法、表示方法及びプログラム - Google Patents
入力装置、表示装置、入力方法、表示方法及びプログラム Download PDFInfo
- Publication number
- JP2009140368A JP2009140368A JP2007317723A JP2007317723A JP2009140368A JP 2009140368 A JP2009140368 A JP 2009140368A JP 2007317723 A JP2007317723 A JP 2007317723A JP 2007317723 A JP2007317723 A JP 2007317723A JP 2009140368 A JP2009140368 A JP 2009140368A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display device
- contact
- finger
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】機器を手で保持しながら、片手での入力操作が可能な表示装置を提供する。
【解決手段】携帯電話10の画像取得部105は、撮像素子および画像素子を含む素子から形成されたディスプレイ13に、指を検知できる位置まで非接触に指を接近させるまたは接触させることにより指の画像を取得する。演算部120は、画像取得部105により取得された指の画像から指の重心位置を求める。情報生成部125は、指の移動に応じた指の重心位置の変位に基づき携帯電話10を操作するための情報を生成する指の画像に基づき指と画面との接触面積を求める。判定部115は、求められた接触面積に基づき指が画面に接触したか否かを判定する。表示部130は、判定部115により指が画面に接触したと最初に判定された位置に指が接触する際の基準となるポイントを示したバーチャルサイン14を表示する。
【選択図】図3
【解決手段】携帯電話10の画像取得部105は、撮像素子および画像素子を含む素子から形成されたディスプレイ13に、指を検知できる位置まで非接触に指を接近させるまたは接触させることにより指の画像を取得する。演算部120は、画像取得部105により取得された指の画像から指の重心位置を求める。情報生成部125は、指の移動に応じた指の重心位置の変位に基づき携帯電話10を操作するための情報を生成する指の画像に基づき指と画面との接触面積を求める。判定部115は、求められた接触面積に基づき指が画面に接触したか否かを判定する。表示部130は、判定部115により指が画面に接触したと最初に判定された位置に指が接触する際の基準となるポイントを示したバーチャルサイン14を表示する。
【選択図】図3
Description
本発明は、入力装置、表示装置、入力方法、表示方法及びプログラムに関し、特に、表示装置の画面上から情報を入力する装置のユーザインターフェースに関する。
近年、テレビジョン受像機などの液晶表示装置に対して情報を直接入力する技術が多数提案されている。例えば、特許文献1には、表示装置(情報入出力装置)の内側から外側に向かって出射された赤外線の光量と、その反射光の光量に基づいて、ユーザの動作に対応する情報や、ユーザが提示したカードに表されている情報を検出させることが開示されている。
特許文献2には、液晶表示装置に光学センサを内蔵し、光学センサによって外部からの光を検知することにより光を用いた情報の入力を可能とした表示パネルが開示されている。ナビゲーション機能、コンテンツの再生機能を有する車載装置にタッチパネルを搭載する機器も普及していて、特許文献3には、タッチパネルを用いた指によるジェスチャーにより、メニューの選択および表示の切り替えを行う技術が開示されている。これらによれば、ユーザは、マウスやキーボードを操作することなく、所定の情報を表示装置に入力することができる。
しかしながら、タッチパネルを搭載する機器では、近年、その表示画面のサイズも大きくなっている。このような機器を片手で保持しながらさらに同じ手でタッチパネルの入力操作を行う場合、機器の重さや大きさにより機器の保持が不安定になったり、大きな画面に対する指の動きが不自由になって入力操作に誤りが生じてしまう。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、機器を手で保持しながら、その手を表示画面上にて広範囲に移動させることなく入力操作が可能な、新規かつ改良された入力装置、表示装置、入力方法、表示方法及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、撮像素子および画像素子を含む素子から形成された表示装置の画面に対して情報を入力するための物体を検知できる位置まで前記物体を非接触に接近させるまたは前記物体を接触させることにより前記物体の画像を取得する画像取得部と、前記画像取得部により取得された前記物体の画像から前記物体の重心位置を算出する演算部と、前記物体の移動に応じた前記物体の重心位置の変位に基づき、機器を操作するための情報を前記物体からの入力情報として生成する情報生成部とを備えた入力装置が提供される。
かかる構成によれば、物体(指など)の画像を取り込み、物体の接触状態または接近状態を画像処理することにより物体の重心位置の変位を求め、求められた変位に基づき機器を操作するための情報が前記物体からの入力情報として生成される。これにより、物体のわずかな動きも正確に捉えて物体からの入力情報に変換することができるため、機器を保持する手や指をほとんど表示画面上から動かさずに、片手で画面を操作することができる。また、指のわずかな動きに連動して簡単に画面を操作(スクロール、ズーム、チルトなど)することができるので、ユーザは、状況に応じていろいろな持ち方で機器を操作することができる。
前記画像取得部により取得された前記物体の画像に基づき前記物体を検知できる位置まで前記物体が前記表示装置に非接触に接近したかまたは接触したか否かを判定する判定部をさらに備えていてもよい。
前記判定部により前記物体が検知できる位置まで連続的に非接触に接近しているまたは連続的に接触していると判定されている間、前記演算部は、前記物体の重心位置の演算を繰り返し、前記情報生成部は、前記繰り返し演算された前記物体の重心位置の変位に基づき、前記機器を操作するための情報を生成し続けてもよい。
前記判定部により前記物体が前記表示装置から所定距離以上離れたと判定された場合、前記演算部は、前記物体の重心位置の演算を中止し、前記情報生成部は、前記機器を操作するための情報の生成を中止してもよい。
前記判定部により前記物体が複数点で検知できる位置まで前記表示装置に非接触に接近しているまたは連続的に接触していると判定された場合、前記情報生成部は、前記複数点での前記物体の重心位置の相対関係に基づき、前記機器を操作するための情報を生成してもよい。
これによれば、前記物体の重心位置の相対関係に基づき、異なるインタラクションを実現することができる。つまり、複数の物体の重心の位置の変位の相対関係により機器に異なる動作を実行させるようなユーザインターフェースを確立することができる。
前記判定部により前記物体が複数点で検知できる位置まで前記表示装置に非接触に接近しているまたは連続的に接触していると判定された場合、前記情報生成部は、前記複数点の各点に対する前記物体の重心位置の変位に基づき前記機器の異なる機能を実行するための情報を生成してもよい。
これによれば、物体が近接又は接触した位置によって、片手で簡単に機器に別操作を実行させることができる。
前記判定部により前記物体が複数点で検知できる位置まで前記表示装置に非接触に接近しているまたは連続的に接触していると判定された場合、前記情報生成部は、前記複数点の各点に対する前記物体の重心位置の変位の合計値に基づき前記機器を操作するための情報を生成してもよい。
これによれば、物体の動きに対してよりスピーディーに機器を操作することができる。
前記判定部は、前記取得された物体の画像の輝度に基づき前記物体が検知できる位置まで前記表示装置に非接触に接近したかまたは接触したか否かを判定してもよい。
前記物体の画像の輝度に基づき、前記物体と前記表示装置との距離を求め、前記物体に近い画像ほど前記物体から遠ざけて表示してもよい。
前記判定部により前記物体が検知できる位置まで前記表示装置に非接触に接近したと判定された後、前記画像取得部が取得した前記物体の画像から前記物体が前記表示装置に接触したと判定された場合、接触した物体の画像の輝度に基づき前記表示装置に別々に離れて表示された画像の選択範囲を定め、選択範囲内の画像を選択する選択部をさらに備えてもよい。
前記機器を操作するための情報は、前記表示装置に表示された画像のスクロール、ズームまたはチルトのいずれかの制御に用いられてもよい。
前記情報生成部は、前記物体の画像の輝度に基づき前記表示装置に表示された画像のスクロールの量、ズームの量またはチルトの量を変化させるように前記機器を操作するための情報を生成してもよい。
前記物体の重心位置の変位を示す情報には、前記物体が移動した軌跡上の任意の2点間の差分、前記物体が移動する方向、前記物体が移動する速度、前記物体の加速度の少なくともいずれかが含まれていてもよい。
前記機器は、携帯型機器であってもよい。
前記物体は、前記携帯型機器を保持するユーザの指であってもよい。
また、上記課題を解決するために、本発明の他の観点によれば、撮像素子および画像素子を含む素子から形成された表示装置の画面に対して、情報を入力するための物体を検知できる位置まで前記物体を非接触に接近するまたは前記物体を接触させることにより前記物体の画像を取得する画像取得部と、前記画像取得部により取得された前記物体の画像から前記物体の重心位置を算出する演算部と、前記物体の移動に応じた前記物体の重心位置の変位に基づき、機器を操作するための情報を生成する情報生成部と、前記画像取得部により取得された前記物体の画像の輝度に基づき前記物体を検知できる位置まで前記物体が前記表示装置に非接触に接近したかまたは接触したか否かを判定する判定部と、前記判定部により前記物体が前記位置まで非接触に接近したかまたは接触したと最初に判定された位置に前記物体を移動させる際の基準となるポイントを示したバーチャルサインを表示する表示部とを備えた表示装置が提供される。
かかる構成によれば、物体の画像を画像処理することにより物体の重心位置の変位を求め、求められた変位に基づき機器を操作するための情報が生成される。これにより、物体のわずかな動きも正確に捉えて物体からの入力情報に変換することができるため、機器を保持する手や指をほとんど表示画面上から動かさずに、片手で画面を操作することができる。また、バーチャルサインは、ソフトウエアにより実現されているため、ハードウエアにより実現されていた従来型の固定位置ではなく、ユーザの好きな位置に好きなタイミングで表示したり、表示を消したりすることができる。このため、ユーザが画面上で注視したい対象を指で隠蔽することを回避することができる。
前記判定部により前記物体が前記表示装置から所定距離以上離れたと判定された場合、前記表示部は、前記バーチャルサインの表示を中止してもよい。
前記判定部は、前記画像取得部により取得された前記物体の画像の輝度に基づき前記物体が前記表示装置に検知できる位置まで非接触に接近したかまたは接触したか否かを判定し、前記表示部は、前記物体の接近又は接触位置に近い画像ほど前記物体から遠ざけて表示してもよい。
また、上記課題を解決するために、本発明の他の観点によれば、撮像素子および画像素子を含む素子から形成された表示装置の画面上の固定位置に、情報を入力するための物体が接近または接触する際の基準となるポイントを示した単数または複数の固定バーチャルサインを表示する表示部と、前記単数又は複数の固定バーチャルサインに前記物体を検知できる位置まで前記物体を非接触に接近させるまたは接触させることにより前記物体の画像を取得する画像取得部と、前記画像取得部が取得した前記物体の画像から前記物体の重心位置を算出する演算部と、前記物体の動きに応じた前記物体の重心位置の変位に基づき、前記機器を操作するための情報を生成する情報生成部とを備えた表示装置が提供される。
かかる構成によれば、固定バーチャルサイン(擬似的入力デバイス)が、表示装置の画面上の固定位置にソフトウエアによって画像として表示される。これにより、画面内に収まる大きさ、位置であれば擬似的入力デバイスをどこにでもいくつでも好きなタイミングで配置することができる。
また、表示画面に触れている物体の画像から物体の大きさ(面積)を検出することができる。これにより、擬似的入力デバイスへの触り方をより忠実に的確に捉えた情報を入力することができる。たとえば、指先で擬似的入力デバイスに触れて動かすと小さい値の変位(数値の増減)が入力され、指の腹で擬似的入力デバイスに大きく触れると大きな値の変位が入力される。
前記固定バーチャルサインを、前記表示装置の画面上に映し出され、前記物体が前記固定バーチャルサインに接触する状態に応じて前記機器を操作するための入力情報が生成される疑似入力装置として機能させてもよい。
前記固定バーチャルサインは、一軸を中心として前記物体の移動に応じて仮想的に回転し、前記情報生成部は、前記固定バーチャルサインの回転方向の相対的変位または絶対的変位に基づき前記機器を操作するための情報を生成してもよい。
前記情報生成部は、前記固定バーチャルサインの回転方向の相対的変位または絶対的変位が所定の閾値を越えている場合、前記機器を操作するための情報を生成してもよい。
前記機器を操作するための情報を、前記固定バーチャルサインの回転方向の相対的変位または絶対的変位に基づき所望の数値を増減するために用いてもよい。
前記情報生成部は、前記物体と前記固定バーチャルサインとの接触位置に応じて前記数値の変化量が異なるように前記機器を操作するための情報を生成してもよい。
また、上記課題を解決するために、本発明の他の観点によれば、撮像素子および画像素子を含む素子から形成された表示装置の画面に対して、情報を入力するための物体を検知できる位置まで前記物体を前記表示装置に非接触に接近させるまたは接触させることにより前記物体の画像を取得するステップと、前記取得した前記物体の画像から前記物体の重心位置を算出するステップと、前記物体の移動に応じた前記物体の重心位置の変位に基づき、機器を操作するための情報を前記物体からの入力情報として生成するステップとを備えた情報の入力方法が提供される。
また、上記課題を解決するために、本発明の他の観点によれば、撮像素子および画像素子を含む素子から形成された表示装置に、情報を入力するための物体を検知できる位置まで前記物体を前記表示装置に非接触に接近させるまたは接触させることにより前記物体の画像を取得するステップと、前記取得された物体の画像から前記物体の重心位置を算出するステップと、前記物体の移動に応じた前記物体の重心位置の変位に基づき、機器を操作するための情報を生成するステップと、前記取得された物体の画像の輝度を求め、求められた輝度に基づき前記物体が前記表示装置に非接触に接近したかまたは接触したか否かを判定するステップと、前記物体が前記表示装置に非接触に接近したまたは接触したと最初に判定された位置に前記物体が接触する際の基準となるポイントを示したバーチャルサインを表示するステップとを備えた表示方法が提供される。
また、上記課題を解決するために、本発明の他の観点によれば、上記入力装置が有する機能をコンピュータに実現させるためのプログラムが提供される。
また、上記課題を解決するために、本発明の他の観点によれば、上記表示装置が有する機能をコンピュータに実現させるためのプログラムが提供される。
以上説明したように、本発明によれば、機器を手で保持しながらその手を表示画面上にて広範囲に移動させることなく、容易な入力操作を実現するユーザインターフェースを提供することができる。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。但し、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
(第1実施形態)
まず、本発明の第1実施形態に係る表示装置(入力装置)の概要について、図1に示した携帯電話10を例に挙げて説明する。携帯電話10は、数字や文字を入力するためのボタン群11、携帯電話に内蔵され、CPUやメモリを搭載したICチップ12、液晶ディスプレイ13を有する。
まず、本発明の第1実施形態に係る表示装置(入力装置)の概要について、図1に示した携帯電話10を例に挙げて説明する。携帯電話10は、数字や文字を入力するためのボタン群11、携帯電話に内蔵され、CPUやメモリを搭載したICチップ12、液晶ディスプレイ13を有する。
液晶ディスプレイ13は、撮像素子および画像素子が内蔵された表示装置であって、指などによる入力機能を有するため、機器を画面上から直接操作することができる。また、液晶ディスプレイ13は、従来の静電容量式や感圧式ではなく、撮像素子を内蔵した特殊なI/O(INPUT/OUTPUT)ディスプレイであり、タッチパネルとしても機能する。すなわち、液晶ディスプレイ13は、内蔵された画像素子によりディスプレイ13上に画像を表示することができ、また、内蔵された撮像素子により指がディスプレイ13へ多点で接触した時の接触状態を検出する。このとき、この入力デバイスは、画面に対する指の操作をビットマップ画像として検出する。指の接触ポイントにはバーチャルサイン14が表示される。バーチャルサイン14は、指が液晶ディスプレイ13に最初に接触した位置を、その後の指の移動の基準ポイントとして指が画面から離れるまで示し続ける。
かかる構成により、携帯電話10は、通常の通話および通信機能を有するとともに、タッチパネルのような情報の入力機能および入力情報に応じて携帯電話10を操作するユーザインターフェース機能を有する。
次に、図2の機能ブロック図を参照しながら、携帯電話10の機能構成について説明する。携帯電話10は、撮像部100、画像取得部105、画像処理部110、判定部115、演算部120、情報生成部125、表示部130、音声処理部135、選択部140、通話部145および通信部150にて示した機能を有する。
撮像部100は、液晶ディスプレイ13に内蔵された撮像素子を用いて、液晶ディスプレイ13に接触した指の画像を撮影する。また、撮像部100は、携帯電話10に内蔵された図示しないカメラを用いてユーザが所望する画像を撮影する。なお、指は、液晶ディスプレイ13を用いて所望の情報を機器に入力するための物体の一例であり、たとえば、携帯電話10が検知できる位置まで非接触に接近させるまたは接触させることによりユーザが欲する操作を実現するための情報を入力する道具の一つである。
画像取得部105は、撮像部により撮影された画像(指の画像)をフレーム毎に取得する。画像処理部110は、取得された指の画像に対して2値化、ノイズ除去、ラベリング等の画像処理を施す。これにより、表示画面に対して指が接近している領域を入力部分として検出する。たとえば、画像処理部110は、画像処理後の画像のうち、輝度が高い部分を入力部分として検出する。輝度は、指が画面に接触している位置が陰がなく最も明るいことから、輝度値により指と画面との接触面積を導くことができる。画像処理部110は、検出した入力部分の情報、すなわち、入力部分の所定の特徴量である点情報をフレーム毎に生成する。
判定部115は、画像処理部110により画像処理された情報に基づき、指が液晶ディスプレイ13に接触したか否かを判定する。特に、判定部115は、図15に示したように、得られた画像の輝度に基づき、輝度が予め定められた閾値Sより大きいとき、指がディスプレイ13の画面に接触していると判定し、輝度が予め定められた閾値Sより小さいが閾値Tより大きいとき、指が画面に対して所定距離以内の位置にて非接触に近接していると判定し、輝度が閾値Bより小さいとき、指はディスプレイ13から離れていると判定する。
演算部120は、画像処理部110により画像処理された情報に基づきクラスタリングした後、クラスター毎の重心位置を求め、この重心位置を指の重心位置とする。
情報生成部125は、ユーザの指の移動に応じた指の重心位置の変位に基づき、ユーザの指からの入力情報として携帯電話10を操作するための情報を生成する。具体的には、情報生成部125は、最初に押された指の重心位置と、押され続けている間の重心位置との差分から2次元の変位を計算し、その変位を指からの入力情報とする。地図ビューアでは、たとえば、この変位に基づき指が画面を押しながら移動し続けている間、地図をスクロールし続け、指を離したときスクロールを停止する。
表示部130は、判定部115により指がディスプレイ13の表示画面に接触したと最初に判定された位置にバーチャルサイン14を表示する。音声処理部135は、必要に応じて音声処理後、その音声を図示しないスピーカやマイクロホンから出力する。
選択部140は、判定部115により指がディスプレイ13の表示画面に検知できる位置まで非接触に接近されたと判定された後、画像取得部105が取得した指の画像から指が表示画面に接触したと判定された場合、その接触面積に基づき接触位置を含む表示画面の任意の範囲を特定し、特定された範囲内に含まれる画像を選択する。
通話部145は、所望の相手と通話するための通信を確立しまたは切断する。通信部150は、ネットワークを介して他の機器との間で情報を送受信する。かかる構成により本実施形態にかかる携帯電話10は、指の画像を用いて指先の微妙な動きに対する2次元の浮動小数点値の入力が可能なタッチパネル型の入力デバイスとして機能することができる。
なお、以上に説明した携帯電話10の主な機能は、実際には、ICチップ12に内蔵されたCPUが、これらの機能を実現する処理手順を記述したプログラムを記憶したメモリから該当プログラムを読み出し、そのプログラムを解釈して実行することにより達成される。
次に、携帯電話10をタッチパネル型入力デバイスとして機能させた場合の動作について説明する。最初に、図3に示したフローチャートを参照しながら、指と画面とが一点で連続的に接触している場合、携帯電話10の画面上にバーチャルサイン14を表示しながら地図をスクロールする処理について説明する。
(単一のバーチャルサインを表示しながら地図を操作)
処理がステップ300からスタートすると、表示部130はステップ305にて表ディスプレイ13の画面に地図を表示させる。ステップ310に進んで、判定部115は指が画面をタッチしたか否かを判定する。タッチしていないと判定された場合、ステップ305に戻り、指が画面に接触したと判定されるまでステップ305,310を繰り返す。
処理がステップ300からスタートすると、表示部130はステップ305にて表ディスプレイ13の画面に地図を表示させる。ステップ310に進んで、判定部115は指が画面をタッチしたか否かを判定する。タッチしていないと判定された場合、ステップ305に戻り、指が画面に接触したと判定されるまでステップ305,310を繰り返す。
ステップ310で指が画面に接触したと判定されると、ステップ315にて、撮像部100は、ディスプレイ13に埋め込まれた撮像素子を用いて指の画像を撮影し、画像取得部105は、撮影された指の画像を取得し、演算部120は、取得された指の画像に基づき指の重心位置を演算し、メモリに記憶する。つぎに、ステップ315に進んで、表示部130は、演算された指の重心位置にバーチャルサイン14を表示する。図4(a)には、最初に指を画面上に接触させたときに初めてバーチャルサイン14が位置A1に現れた状態が示されている。バーチャルサイン14は、指が接触する際の基準となるポイントとして指が連続的に接触している間、画面の位置A1に表示され続ける。
判定部115により指がディスプレイ13の画面に連続的に接触していると判定されている間、ステップ325〜335の処理が、たとえば、1/60秒毎に繰り返される。すなわち、ステップ325にて、情報生成部125は、最初に押された指の重心位置A1と画面に連続的に接触しながら移動した指の重心位置A2の差分(距離)Dsから、指の移動に応じた指の重心位置の変位(バーチャルサインとしての2次元の変位)を計算する。求められた変位は指からの入力情報として用いられる。
表示部130は、ステップ330にて、計算された変位に基づき指が連続的に接触している間、地図をスクロールし続ける。図4(a)(b)に示した地図ビューアは、指を位置A1から位置A2まで距離Dsだけ接触移動させた結果、地図が矢印と反対方向に所定量だけスクロールされたことを示す。
つぎに、ステップ335に進んで、判定部115により指が画面に触れていると判定された場合ステップ325に戻り、指が画面から離れたと判定された場合ステップ340にて先程表示されたバーチャルサイン14を画面から消去し、ステップ395にて本処理を終了する。
以上に説明した処理によれば、携帯電話10を保持する指をほとんど画面上から動かさずに、片手で画面をスクロールすることができる。また、バーチャルサインは、ソフトウエアにより実現されているため、ハードウエアにより実現されていた従来型の固定位置ではなく、ユーザの好きな位置に好きなタイミングで表示したり、表示を消したりすることができる。このため、ユーザが画面上で注視したい対象を指やバーチャルサインで隠蔽することを回避することができる。また、指のわずかな動きに連動して簡単に画面をスクロールすることができるので、ユーザは、状況に応じていろいろな持ち方で携帯電話10を操作することができる。
(2つのバーチャルサインを表示しながら地図を操作)
次に、図5に示したフローチャートを参照しながら、指と画面とが複数点で連続的に接触している場合、携帯電話10の画面上に複数のバーチャルサイン14を表示しながら地図をズームイン/ズームアウトする処理について説明する。
次に、図5に示したフローチャートを参照しながら、指と画面とが複数点で連続的に接触している場合、携帯電話10の画面上に複数のバーチャルサイン14を表示しながら地図をズームイン/ズームアウトする処理について説明する。
図5の処理がステップ500からスタートすると、表示部130はステップ505にてディスプレイ13の画面に地図を表示させる。ステップ510にて判定部115は、2本の指が画面上の2点をタッチしたか否かを判定する。タッチしていないと判定された場合、ステップ505に戻り、2本の指が画面に接触したと判定されるまでステップ505,510を繰り返す。
ステップ510で、2本の指が画面に接触したと判定されると、ステップ515にて、撮像部100は、ディスプレイ13に埋め込まれた撮像素子を用いて2本の指の画像をそれぞれ撮影し、画像取得部105は、撮影された2本の指に対する2枚の指の画像を取得し、演算部120は、その2枚の指の画像に基づきそれぞれの指の重心位置を演算し、メモリに記憶する。つぎに、ステップ520に進んで、表示部130は、演算された2本の指の重心位置にそれぞれバーチャルサイン14a,14bを表示する。図6(a)は、最初に2本の指を画面上に接触させたとき、バーチャルサイン14a,14bが位置B1,C1に現れた状態を示す。
判定部115により指が画面に連続的に接触していると判定されている間、ステップ525〜540、550,555に含まれる処理が繰り返される。すなわち、ステップ525にて、情報生成部125は、画面に連続的に接触しながら移動した一方の指の重心位置B2と最初の重心位置B1との差分Ds1および他方の指の重心位置C1,C2の差分Ds2から、指の移動に応じた指の重心位置B,Cの変位をそれぞれ計算する。求められた変位は2本の指を用いた場合の入力情報として用いられる。
表示部130は、ステップ530にて、計算された変位に基づき最初に押された2本の指の重心位置B1,C1が2本の指を遠ざける方にずらされたか否かを判定する。図6(b)では、指を傾ける(指を移動させてもよい)ことにより、2本の指の重心位置が外側に向けてずらされているので、ステップ535にて、表示部130は、計算された変位に応じた所定量だけ地図をズームインする。
つぎに、ステップ540に進んで、判定部115は、指が画面から離れたか否かを判定する。離れていないと判定された場合、ステップ525に戻り、2本の指の重心位置の差分を再度求め、ステップ530にて、求められた差分に基づき2本の指が遠ざける方向にずらされていると判定された場合、ステップ535にて地図を引き続きズームインし続ける。
一方、ステップ530にて、求められた差分から2本の指が遠ざける方向にずらされていないと判定され、ステップ550にて、求められた差分から2本の指が近づく方向にずらされていると判定された場合、ステップ555に進んで、表示部130は、計算された変位に応じた所定量だけ地図をズームアウトする。
以上の動作を2本の指が離されるまで行い、ステップ540にて指が離されたと判定された場合、ステップ545にてバーチャルサイン14a,14bを画面から消去し、ステップ595にて本処理を終了する。
以上に説明したズーム処理によれば、2つのバーチャルサイン14a,14bを用いることにより、異なるインタラクションを実現することができる。つまり、2つのバーチャルサイン14a,14bを指標とした2本の指の重心の位置の変位の相対関係により携帯電話10に異なる動作を実行させるようなユーザインターフェースを確立することができる。
たとえば、上記処理フローでは、2本の指の重心位置を離す方向にずらすことにより、地図をズームインし、近づける方向にずらすことにより地図をズームアウトする操作を実現した。これは、ちょうど、地図を直接引っ張って伸ばす、縮めるような動作に相当する。しかし、たとえば、2本の指の重心位置を並行して右にずらした場合、2本の指の重心位置の相互作用および個々の指の重心位置の変位により、表示する地図を現在の右隣の様子を示した地図に切り替えた後、地図を左にスクロールさせたりすることができる。
なお、以上に説明したズーム処理によれば、指を2本画面に接触させながら地図をズームさせたが、これに限られず、画面の範囲内の複数接触が可能である。
また、以上の説明では、バーチャルサイン14は任意の指の接触位置に出現させた。しかし、バーチャルサイン14は画面上の固定位置に表示することも可能である。これにより、固定位置に表示された複数のバーチャルサイン14に別の機能を持たせ、指の接触位置によって、携帯電話10の別機能を実行することができる。たとえば、指が一のバーチャルサイン14に触れた場合には地図のズームが実行され、他のバーチャルサイン14に触れた場合には地図のスクロールが実行される例が挙げられる。
(第2実施形態)
つぎに、第2実施形態に係る表示装置(入力装置)ついて説明する。第2実施形態にかかる装置では、バーチャルサインが画面上の固定位置に表示される点で、指が最初に触れた位置にバーチャルサインを表示する第1実施形態に係る装置と相異する。よって、この相異点を中心に本実施形態を説明する。
つぎに、第2実施形態に係る表示装置(入力装置)ついて説明する。第2実施形態にかかる装置では、バーチャルサインが画面上の固定位置に表示される点で、指が最初に触れた位置にバーチャルサインを表示する第1実施形態に係る装置と相異する。よって、この相異点を中心に本実施形態を説明する。
(単一のダイヤル式固定バーチャルサインを表示しながら地図を操作)
次に、図7に示したフローチャートを参照しながら、バーチャルサインを指で操作することにより地図をズームする処理について説明する。
次に、図7に示したフローチャートを参照しながら、バーチャルサインを指で操作することにより地図をズームする処理について説明する。
なお、ダイヤル式固定バーチャルサイン15は、いままでハードウエアで実現されていたダイヤル式入力デバイスをソフトウエアで画面上に表示することにより、擬似的な(ダイヤル式)入力デバイスを実現したものである。より具体的には、ダイヤル式固定バーチャルサイン15は、図8(a)(b)に示しかつ後述するように、ディスプレイ13の画面上に映し出され、指の移動に応じて一軸を中心として仮想的に回転する。ダイヤル式固定バーチャルサイン15は、指がダイヤル式固定バーチャルサイン15に接触する状態に応じて携帯電話10を操作するための入力情報が生成される疑似入力装置として機能する。
さて、処理が図7のステップ700からスタートすると、表示部130はステップ705にてディスプレイ13の画面に地図を表示させ、ステップ710に進む。判定部115は、指が画面に触れているか否かを判定し、指が画面に触れるまでステップ710の処理を繰り返す。
指が画面に触れたと判定された場合、ステップ715に進み、判定部115は、指が画面上のダイヤル式固定バーチャルサイン15に接触したか否かを判定する。ダイヤル式固定バーチャルサイン15に接触していない場合、ステップ710に戻り、指がダイヤル式固定バーチャルサイン15に触れたと判定されるまで処理を繰り返す。
ステップ715にて指がダイヤル式固定バーチャルサイン15に接触したと判定されると、ステップ720にて、撮像部100は、ディスプレイ13に埋め込まれた撮像素子を用いてダイヤル式固定バーチャルサイン15に接触している指の画像を撮影し、画像取得部105はその画像を取得し、演算部120は、取得された指の画像に基づき指の重心位置を演算し、その値を初期の重心位置としてメモリに記憶する。図8(a)では、重心位置A1がメモリに記憶される。
つぎに、ステップ725に進んで、判定部115は、現時点で指が画面に触れているか否かを判定する。触れていない場合、ステップ710に戻り、触れている場合、判定部115は、さらに現時点でダイヤル式固定バーチャルサイン15に指が触れているか否かを判定する。触れていない場合にはステップ710に戻り処理を繰り返す。
現時点でダイヤル式固定バーチャルサイン15に指が触れていると判定された場合、ステップ735に進み、情報生成部125は、最初に押された指の重心位置A1と、指がダイヤル式固定バーチャルサイン15上をなぞることにより移動した指の重心位置A2の差分Dsから、指の移動に応じた指の重心位置の変位(ダイヤル式固定バーチャルサインとしての2次元の変位)を計算する。求められた変位は指からの入力情報として画面の操作に用いられる。
判定部115は、ステップ740にて、計算された変位が予め定められた閾値を超えているかを判定し、超えていない場合、ステップ725の処理に戻る。一方、計算された変位が予め定められた閾値を超えている場合、ステップ745に進んで、演算部120は、計算された重心位置の変位に基づき、ダイヤル式固定バーチャルサイン15としての変位(回転量)を演算する。回転量は、指で擬似的入力装置を一方方向になぞることにより数値を増減させるときの変化量を示す。
つぎに、ステップ750にて、求められたダイヤル式固定バーチャルサイン15の回転量に応じて地図をズームイン/ズームアウトし、ステップ725の処理に戻る。図8(a)(b)に示した地図ビューアは、指を位置A1から位置A2まで距離Dsだけ接触移動させた結果、地図がズームインされたことを示す。
以上に説明したズーム処理によれば、まず、指がダイヤル式固定バーチャルサイン15に触れているか否かの判定(当たり判定)を行い、つぎに、ユーザの指がダイヤル式固定バーチャルサイン15をなぞる動作を検出して、その検出結果を画面の操作の判定に反映する。地図ビューアでは、ダイヤル式固定バーチャルサイン15の擬似的回転量と擬似的回転方向(なぞる量となぞる向き)によって地図をズームイン/ズームアウトさせることができる。
以上、ダイヤル式固定バーチャルサイン15を用いたズーム処理について、この効果を従来との差を明確にしながら述べる。従来のタッチパネルでは、画面上に配置されたボタンやスクロールバーを押す、ずらすなどの操作を行うものが主流であった。物理的なボタンにより数値を上下させるようなインターフェイスでは、タッチパネルを複数回押す必要があり、スクロールバーではその値の範囲が限定されてしまう。また、物理的な入力デバイスでは、物理的な大きさ(面積および厚み)やデバイスのコストという制約が発生し、取り付ける位置や大きさ、個数はおのずと限定されてしまう。
しかしながら、本実施形態では、ソフトウエアにて画面上に擬似的入力デバイスを表示する。これにより、画面内に収まる大きさ、位置であれば擬似的入力デバイスをどこにでもいくつでも好きなタイミングで配置することができる。
また、本実施形態に係る携帯電話10では、ディスプレイ13の画面に触れている指をディスプレイ13に内蔵された撮像素子が撮影し、撮影された指の画像から指の大きさ(面積)を検出することができる。これにより、擬似的入力デバイスへの触り方をより忠実に的確に捉えた情報を入力することができる。たとえば、指先で擬似的入力デバイスに触れて動かすと小さい値の変位(数値の増減)が入力され、指の腹で擬似的入力デバイスに大きく触れると大きな値の変位が入力される。
(2つのダイヤル式固定バーチャルサインを表示しながら地図を操作)
次に、図9に示したフローチャートを参照しながら、画面上の2つのダイヤル式固定バーチャルサイン15を指で操作することにより地図をズームまたはチルトする処理について説明する。
次に、図9に示したフローチャートを参照しながら、画面上の2つのダイヤル式固定バーチャルサイン15を指で操作することにより地図をズームまたはチルトする処理について説明する。
処理が図9のステップ900からスタートすると、ステップ905にてディスプレイ13に地図が表示され、ステップ910にて指が画面に触れているか否かを判定し、指が画面に触れるまでこの処理が繰り返される。
指が画面に触れたと判定された場合、ステップ915に進み、判定部115は、指が図10(a)の画面上の2つのダイヤル式固定バーチャルサインP15aまたはダイヤル式固定バーチャルサインQ15bのいずれかに接触したか否かを判定し、いずれのダイヤル式固定バーチャルサイン15にも接触していない場合、ステップ910に戻り、指がいずれかのダイヤル式固定バーチャルサイン15に触れたと判定されるまで処理を繰り返す。
ステップ915にて指がいずれかのダイヤル式固定バーチャルサイン15に接触したと判定されると、ステップ920にて、撮像部100は、接触している指の画像を撮影し、画像取得部105はその画像を取得し、演算部120は、取得された指の画像に基づき指の重心位置を演算し、その値を初期の重心位置としてメモリに記憶する。
図10(a)では、指はダイヤル式固定バーチャルサインP15aに触れている。よって、図10(a)では重心位置A1が所定アドレスのメモリに記憶される。
つぎに、ステップ925に進んで、判定部115は、現時点で指が画面に触れているか否かを判定する。触れていない場合、ステップ910に戻り、触れている場合、判定部115は、さらに現時点でダイヤル式固定バーチャルサインP15aに指が触れているか否かを判定する。触れていない場合にはステップ955に進む。
現時点でダイヤル式固定バーチャルサインP15aに指が触れていると判定された場合、ステップ935に進み、情報生成部125は、最初に押された指の重心位置A1と、指がダイヤル式固定バーチャルサインP15a上をなぞることにより移動した指の重心位置A2の差分Dsから、指の移動に応じた指の重心位置の変位を計算する。求められた変位は指からの入力情報として画面の操作に用いられる。
判定部115は、ステップ940にて、計算された変位が予め定められた閾値1を超えているかを判定し、超えていない場合、ステップ925の処理に戻る。この場合、画面の表示は変わらない。
一方、計算された変位が予め定められた閾値1を超えている場合、ステップ945に進んで、演算部120は、計算された重心位置の変位に基づき、ダイヤル式固定バーチャルサインP15aの回転量(すなわち、ダイヤル式固定バーチャルサインP15aとしての変位)を演算する。
つぎに、ステップ950にて、求められたダイヤル式固定バーチャルサイン15の回転量に応じて地図をチルトし、ステップ925の処理に戻る。図10(a)(b)に示した地図ビューアは、指を位置A1から位置A2まで距離Dsだけ接触移動させた結果、地図が背面方向にチルトされたことを示す。
つぎに、指がダイヤル式固定バーチャルサインQ15bに接触した場合について、ステップ915から説明する。ステップ915にて、指がダイヤル式固定バーチャルサインQ15bに接触したと判定されると、ステップ920にて、演算部120は、接触している指の画像に基づき指の重心位置B1を演算し、その値をメモリの所定アドレスに記憶する。
つぎに、ステップ925にて指が画面に触れていると判定され、ステップ930に続くステップ955にて指がダイヤル式固定バーチャルサインQ15bに触れていると判定されると、ステップ960に進み、情報生成部125は、指の重心位置の差分(B1−B2)から、指の移動に応じた指の重心位置の変位を計算する。判定部115は、ステップ965にて、計算された変位が予め定められた閾値2を超えているかを判定し、超えていない場合、ステップ925の処理に戻る。この場合、画面の表示は変わらない。
一方、計算された変位が予め定められた閾値2を超えている場合、ステップ970に進んで、演算部120は、計算された重心位置の変位に基づき、ダイヤル式固定バーチャルサインQ15bの回転量(すなわち、ダイヤル式固定バーチャルサインQ15bとしての変位)を演算する。
つぎに、表示部130は、ステップ975にて、求められたダイヤル式固定バーチャルサインQ15bの変位に応じて地図をズームし、ステップ925の処理に戻る。
以上に説明した処理によれば、画面内に複数の固定バーチャルサイン15を表示し、ソフトウエアにて各固定バーチャルサイン15に別々の機能を割り振ることにより、様々なインタラクションを設計することができる。
(2つのダイヤル式固定バーチャルサインを利用して同時入力)
画面内に複数の固定バーチャルサイン15を表示する他の方法としては、たとえば、複数の固定バーチャルサイン15を図12(a)(b)に示したように同じ向きに隣接して配置し、両方の固定バーチャルサイン15に対して同時に入力操作を行う場合が挙げられる。
画面内に複数の固定バーチャルサイン15を表示する他の方法としては、たとえば、複数の固定バーチャルサイン15を図12(a)(b)に示したように同じ向きに隣接して配置し、両方の固定バーチャルサイン15に対して同時に入力操作を行う場合が挙げられる。
この処理は、図11に処理フローを示したように、ステップ1105〜1125にて図9のステップ905〜925と同一処理を実行し、ステップ1130にて固定バーチャルサイン15P、15Qの少なくともいずれかに接触しているか否かを判定し、接触している場合にはステップ1135に進んで接触している固定バーチャルサイン15の変位(回転量)をそれぞれ演算する。ステップ1140にて接触している各固定バーチャルサイン15の変位が所定の閾値を超えていると判定された場合には、ステップ1145にて各固定バーチャルサイン15の変位の合計が算出され、ステップ1150にて変位の合計値に基づき地図がズームされる。図12(b)には、2本の指の移動の合計値に基づき地図がズームインしている様子が概念的に示されている。
また、画面内に複数の固定バーチャルサイン15を表示する他の方法としては、たとえば、90度傾けた向きに図示しない複数の固定バーチャルサイン15を隣接して表示する方法が挙げられる。このように、縦に回転させる指の動作、横に回転させる指の動作を促す位置に2つの固定バーチャルサイン15を配置することにより、各固定バーチャルサイン15の表示位置が近くても、ユーザの誤操作を防止することができる。
(単一のダイヤル式固定バーチャルサインをなぞる位置に応じた入力)
なお、画面内に表示された単一の固定バーチャルサイン15を用いた他の入力方法としては、図14(a)(b)に示したように、固定バーチャルサイン15を指でなぞる位置に応じて変化量(回転量)を変えることが可能な固定バーチャルサイン15を実現することもできる。
なお、画面内に表示された単一の固定バーチャルサイン15を用いた他の入力方法としては、図14(a)(b)に示したように、固定バーチャルサイン15を指でなぞる位置に応じて変化量(回転量)を変えることが可能な固定バーチャルサイン15を実現することもできる。
この処理は、図13に処理フローを示したように、ステップ1300〜1340にて図7のステップ700〜740と同一処理を実行し、ステップ1345にて固定バーチャルサイン15をなぞった場所に応じて変位の重み付けを変えながら、固定バーチャルサイン15の回転量(変位)を求め、1350にて固定バーチャルサイン15の回転量に基づき地図をズームする。図14(b)には、指でなぞる位置によりズームの程度が変わる様子が矢印にて示されている。すなわち、指が固定バーチャルサイン15の左端部、中央部、右端部のいずれかをなぞると、それに応じて重み付された変化量(回転量)だけ地図がズームする。図14(b)では矢印に示したように、固定バーチャルサイン15の右端をなぞるとズーム量が大きく、左側に行けば行く程ズーム量が小さくなる。
このように、本実施形態にかかるダイヤル式固定バーチャルサイン15を用いた入力処理では、擬似的入力デバイスが表された画面上のいずれの位置に指をスライドさせるかによって、細かい値の調整から大きな変更まで正確に入力することができる。
なお、第2実施形態のダイヤル式固定バーチャルサイン15を使用した画面入力では、初期の重心位置を絶対位置として指を動かした後の重心位置との変位(絶対的変化)を求め、求められた変位に基づき携帯電話10の表示の操作量を決定した。しかしながら、前回以前の画像の重心位置を初期の重心位置とし、前回以前の画像の重心位置から今回の画像の重心位置までの変位(相対的変化)を求め、求められた変位に基づき携帯電話10の表示の操作量を決定してもよい。
(第3実施形態)
つぎに、第3実施形態に係る表示装置(入力装置)ついて説明する。第3実施形態にかかる装置では、指を画面上のバーチャルサインに検知できる位置まで非接触に接近させることによりユーザが欲する操作を実現する点で、指を画面上のバーチャルサインに接触させることによりユーザが欲する操作を実現する第1、2実施形態に係る表示装置と相異する。よって、この相異点を中心に本実施形態を説明する。
つぎに、第3実施形態に係る表示装置(入力装置)ついて説明する。第3実施形態にかかる装置では、指を画面上のバーチャルサインに検知できる位置まで非接触に接近させることによりユーザが欲する操作を実現する点で、指を画面上のバーチャルサインに接触させることによりユーザが欲する操作を実現する第1、2実施形態に係る表示装置と相異する。よって、この相異点を中心に本実施形態を説明する。
前述したように、画面に接近してきた指の画像には、2値化、ノイズ除去、ラベリング等の画像処理が施され、輝度が高い部分の画像が入力部分として検出される。図15の例では、指が接触していることを検出するための閾値Sと、指は、画面に接触していないけれども所定距離以内に存在することを検出するための閾値Tが図示されている。指が接触していないが所定の距離以内に存在する状態は、画面に情報を入力するための指を検知できる位置まで指を画面に非接触に接近させた状態ともいう。
右側の指の動きに対して検出された輝度値のピークは、閾値Sより大きい。この場合、判定部115は、指が画面に接触していると判定する。一方、左側の指の動きに対して検出された輝度値のピークは、閾値Tより大きいが閾値Sより小さい。この場合、判定部115は、指は接触していないが指を検知できる位置まで画面に非接触に接近していると判定する。なお、輝度値のピークが閾値Tより小さい場合には、指の存在は無視される。
表示部130は、たとえば図16(a)のファイルを分散させて表示した通常の状態から、指は接触していないが指を検知できる位置まで非接触に接近していると判定された場合、図16(b)のように、指に最も近いファイルFに近い位置に存在するファイルほどファイルFからの通常の距離より遠ざけて表示し、ファイルFに遠い位置に存在するファイルほどファイルFからの通常の距離より近づけて表示することもできる。これにより、2次元でありながらファイルFを中心として分散されたファイルを立体的に表示することができる。
判定部115により指を検知できる位置まで指が非接触に接近したと判定された後、画像取得部105により取得された別フレームの指の画像から、指が画面に接触したと判定された場合、選択部140は、その接触面積(輝度)に基づき画面の接触位置を含む任意の範囲を特定し、特定された範囲内のファイルを選択する。図17では、ファイルFを含む範囲Gに含まれるファイル群が選択される。選択されたファイル群については、所定時間経過後(たとえば、2秒)にその選択が確定する。指が画面をもう一度タッチすると、画面は初期状態(図16(a))に戻る。
以上に説明したように、第3実施形態では、指を非接触に画面から所定距離以内まで近づけることにより、接触しない状態で携帯電話10を操作することができる。なお、指を接触させた場合に実現される携帯電話の機能と、指を非接触に所定距離まで近づけた場合に実現される機能とを別々に設けたインターフェイスを実現することも可能である。
なお、表示部130は、指の遠近によってファイルの表示状態を変える代わりにファイルの色を変化させる等種々の表示形態をとることができる。
また、指を非接触に画面から所定距離内まで近づけ、接触しない状態で第1,2実施形態に記載したように携帯電話10を操作することもできる。
以上、各実施形態にかかるタッチパネル式入力装置を搭載した携帯電話10によれば、携帯電話10を手で保持しながら、その手の指を表示画面上にて広範囲に移動させることなく、容易な入力操作を片手で実現することができる。
なお、情報生成部125は、指の画面の輝度(または、指と画面との接触面積の大きさ)に基づき、表示画面のスクロールの量、ズームの量またはチルトの量を変化させるように携帯電話10を操作するための情報を生成してもよい。これによれば、たとえば、指を画面に強く押しつけるほど画面の変化量を大きくする制御が可能となる。
また、指の重心位置の変位を示す情報には、指が移動した軌跡上の任意の2点間の差分(絶対的差分または相対的差分)、指が移動する方向、指が移動する速度、指の加速度等が含まれていてもよい。これによれば、たとえば、指を早く移動させるほど画面の変化量を大きくする制御や、急激に早く移動させるほど画面の変化量を大きくする制御が可能となる。
なお、上記各実施形態にて説明したディスプレイ13を搭載した携帯電話10は、物体の移動に応じた物体の重心位置の変位に基づき、機器を操作するための情報を物体からの入力情報として生成する入力装置、およびそのようにして生成された入力情報に基づき機器の画面表示を操作する表示装置として機能する機器の一例である。
上記実施形態において、各部の動作はお互いに関連しており、互いの関連を考慮しながら、一連の動作として置き換えることができ、これにより、表示画面を利用した入力装置の実施形態を、表示画面を利用した入力方法の実施形態およびその入力装置が有する機能をコンピュータに実現させるためのプログラムの実施形態とすることができる。また、表示画面を利用して入力が可能な表示装置の実施形態を、表示画面を利用して入力が可能な表示装置を用いた表示方法の実施形態およびその表示装置が有する機能をコンピュータに実現させるためのプログラムの実施形態とすることができる。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
たとえば、各実施形態では、表示装置(入力装置)を搭載した機器として携帯電話を例に挙げて説明したが、これに限られず、たとえば、PDA等の携帯情報端末やPSP等のゲーム機のように、モバイル型機器に本発明の表示装置(入力装置)を用いてもよい。
10 携帯電話
12 ICチップ
13 ディスプレイ
14、14a、14b バーチャルサイン
15 固定バーチャルサイン
15a 固定バーチャルサインP
15b 固定バーチャルサインQ
100 撮像部
105 画像取得部
110 画像処理部
115 判定部
120 演算部
125 情報生成部
130 表示部
135 音声処理部
140 選択部
145 通話部
150 通信部
12 ICチップ
13 ディスプレイ
14、14a、14b バーチャルサイン
15 固定バーチャルサイン
15a 固定バーチャルサインP
15b 固定バーチャルサインQ
100 撮像部
105 画像取得部
110 画像処理部
115 判定部
120 演算部
125 情報生成部
130 表示部
135 音声処理部
140 選択部
145 通話部
150 通信部
Claims (27)
- 撮像素子および画像素子を含む素子から形成された表示装置の画面に対して、情報を入力するための物体を検知できる位置まで前記物体を非接触に接近させるまたは接触させることにより前記物体の画像を取得する画像取得部と、
前記画像取得部により取得された前記物体の画像から前記物体の重心位置を算出する演算部と、
前記物体の移動に応じた前記物体の重心位置の変位に基づき、機器を操作するための情報を前記物体からの入力情報として生成する情報生成部とを備えた入力装置。 - 前記画像取得部により取得された前記物体の画像に基づき前記物体を検知できる位置まで前記物体が前記表示装置に非接触に接近したかまたは接触したか否かを判定する判定部をさらに備えた請求項1に記載された入力装置。
- 前記判定部により前記物体が検知できる位置まで連続的に非接触に接近しているまたは連続的に接触していると判定されている間、前記演算部は、前記物体の重心位置の演算を繰り返し、
前記情報生成部は、前記繰り返し演算された前記物体の重心位置の変位に基づき、前記機器を操作するための情報を生成し続ける請求項1に記載された入力装置。 - 前記判定部により前記物体が前記表示装置から所定距離以上離れたと判定された場合、前記演算部は、前記物体の重心位置の演算を中止し、
前記情報生成部は、前記機器を操作するための情報の生成を中止する請求項3に記載された入力装置。 - 前記判定部により前記物体が複数点で検知できる位置まで前記表示装置に非接触に接近しているまたは連続的に接触していると判定された場合、前記情報生成部は、前記複数点での前記物体の重心位置の相対関係に基づき、前記機器を操作するための情報を生成する請求項2に記載された入力装置。
- 前記判定部により前記物体が複数点で検知できる位置まで前記表示装置に非接触に接近しているまたは連続的に接触していると判定された場合、前記情報生成部は、前記複数点の各点に対する前記物体の重心位置の変位に基づき前記機器の異なる機能を実行するための情報を生成する請求項2に記載された入力装置。
- 前記判定部により前記物体が複数点で検知できる位置まで前記表示装置に非接触に接近しているまたは連続的に接触していると判定された場合、前記情報生成部は、前記複数点の各点に対する前記物体の重心位置の変位の合計値に基づき前記機器を操作するための情報を生成する請求項2に記載された入力装置。
- 前記判定部は、前記取得された物体の画像の輝度に基づき前記物体が検知できる位置まで前記表示装置に非接触に接近したかまたは接触したか否かを判定する請求項2に記載された入力装置。
- 前記判定部により前記物体が検知できる位置まで前記表示装置に非接触に接近したと判定された後、前記画像取得部により取得された前記物体の画像から前記物体が前記表示装置に接触したと判定された場合、接触した物体の画像の輝度に基づき前記表示装置の接触位置を含む任意の範囲を特定し、特定された範囲内の画像を選択する選択部をさらに備えた請求項8に記載された入力装置。
- 前記機器を操作するための情報は、前記表示装置に表示された画像のスクロール、ズームまたはチルトのいずれかの制御に用いられる請求項1に記載された入力装置。
- 前記情報生成部は、前記物体の画像の輝度に基づき前記表示装置に表示された画像のスクロールの量、ズームの量またはチルトの量を変化させるように前記機器を操作するための情報を生成する請求項10に記載された入力装置。
- 前記物体の重心位置の変位を示す情報には、前記物体が移動した軌跡上の任意の2点間の差分、前記物体が移動する方向、前記物体が移動する速度、前記物体の加速度の少なくともいずれかが含まれる請求項1に記載された入力装置。
- 前記機器は、携帯型機器である請求項1に記載された入力装置。
- 前記物体は、前記携帯型機器を保持するユーザの指である請求項13に記載された入力装置。
- 撮像素子および画像素子を含む素子から形成された表示装置の画面に対して、情報を入力するための物体を検知できる位置まで前記物体を非接触に接近させるまたは接触させることにより前記物体の画像を取得する画像取得部と、
前記画像取得部により取得された前記物体の画像から前記物体の重心位置を算出する演算部と、
前記物体の移動に応じた前記物体の重心位置の変位に基づき、機器を操作するための情報を生成する情報生成部と、
前記画像取得部により取得された前記物体の画像の輝度に基づき前記物体を検知できる位置まで前記物体が前記表示装置に非接触に接近したかまたは接触したか否かを判定する判定部と、
前記判定部により前記物体が前記位置まで非接触に接近したかまたは接触したと最初に判定された位置に前記物体を移動させる際の基準となるポイントを示したバーチャルサインを表示する表示部とを備えた表示装置。 - 前記判定部により前記物体が前記表示装置から所定距離以上離れたと判定された場合、前記表示部は、前記バーチャルサインの表示を中止する請求項15に記載された表示装置。
- 前記判定部は、前記画像取得部により取得された前記物体の画像の輝度に基づき前記物体が前記表示装置に検知できる位置まで非接触に接近したかまたは接触したか否かを判定し、
前記表示部は、前記物体の接近または接触位置に近い画像ほど前記物体から遠ざけて表示する請求項15に記載された入力装置。 - 撮像素子および画像素子を含む素子から形成された表示装置の画面上の固定位置に、情報を入力するための物体が接近または接触する際の基準となるポイントを示した単数または複数の固定バーチャルサインを表示する表示部と、
前記単数又は複数の固定バーチャルサインに前記物体を検知できる位置まで前記物体を非接触に接近させるまたは接触させることにより前記物体の画像を取得する画像取得部と、
前記画像取得部により取得された前記物体の画像から前記物体の重心位置を算出する演算部と、
前記物体の動きに応じた前記物体の重心位置の変位に基づき、前記機器を操作するための情報を生成する情報生成部とを備えた表示装置。 - 前記固定バーチャルサインは、前記表示装置の画面上に映し出され、前記物体が前記固定バーチャルサインに接触する状態に応じて前記機器を操作するための入力情報が生成される疑似入力装置として機能する請求項18に記載された表示装置。
- 前記固定バーチャルサインは、一軸を中心として前記物体の移動に応じて仮想的に回転し、
前記情報生成部は、前記固定バーチャルサインの回転方向の相対的変位または絶対的変位に基づき前記機器を操作するための情報を生成する請求項18に記載された表示装置。 - 前記情報生成部は、前記固定バーチャルサインの回転方向の相対的変位または絶対的変位が所定の閾値を越えている場合、前記機器を操作するための情報を生成する請求項20に記載された表示装置。
- 前記機器を操作するための情報は、前記固定バーチャルサインの回転方向の相対的変位または絶対的変位に基づき所望の数値を増減するために用いられる請求項20に記載された表示装置。
- 前記情報生成部は、前記物体と前記固定バーチャルサインとの接触位置に応じて前記数値の変化量が異なるように前記機器を操作するための情報を生成する請求項22に記載された表示装置。
- 撮像素子および画像素子を含む素子から形成された表示装置の画面に対して、情報を入力するための物体を検知できる位置まで前記物体を前記表示装置に非接触に接近させるまたは接触させることにより前記物体の画像を取得するステップと、
前記取得した前記物体の画像から前記物体の重心位置を算出するステップと、
前記物体の移動に応じた前記物体の重心位置の変位に基づき、機器を操作するための情報を前記物体からの入力情報として生成するステップとを備えた情報の入力方法。 - 撮像素子および画像素子を含む素子から形成された表示装置の画面に対して、情報を入力するための物体を検知できる位置まで前記物体を前記表示装置に非接触に接近させるまたは接触させることにより前記物体の画像を取得するステップと、
前記取得された物体の画像から前記物体の重心位置を算出するステップと、
前記物体の移動に応じた前記物体の重心位置の変位に基づき、機器を操作するための情報を生成するステップと、
前記取得された物体の画像の輝度を求め、求められた輝度に基づき前記物体が前記表示装置に非接触に接近したかまたは接触したか否かを判定するステップと、
前記物体が前記表示装置に非接触に接近したまたは接触したと最初に判定された位置に前記物体が接触する際の基準となるポイントを示したバーチャルサインを表示するステップとを備えた表示方法。 - 請求項1〜15に記載された入力装置が有する機能をコンピュータに実現させるためのプログラム。
- 請求項16〜23に記載された表示装置が有する機能をコンピュータに実現させるためのプログラム。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007317723A JP2009140368A (ja) | 2007-12-07 | 2007-12-07 | 入力装置、表示装置、入力方法、表示方法及びプログラム |
| CNA2008101754157A CN101452356A (zh) | 2007-12-07 | 2008-11-12 | 输入装置、显示装置、输入方法、显示方法及程序 |
| US12/272,196 US20090146968A1 (en) | 2007-12-07 | 2008-11-17 | Input device, display device, input method, display method, and program |
| EP08169397.0A EP2068235A3 (en) | 2007-12-07 | 2008-11-19 | Input device, display device, input method, display method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007317723A JP2009140368A (ja) | 2007-12-07 | 2007-12-07 | 入力装置、表示装置、入力方法、表示方法及びプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009140368A true JP2009140368A (ja) | 2009-06-25 |
Family
ID=40375423
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007317723A Pending JP2009140368A (ja) | 2007-12-07 | 2007-12-07 | 入力装置、表示装置、入力方法、表示方法及びプログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20090146968A1 (ja) |
| EP (1) | EP2068235A3 (ja) |
| JP (1) | JP2009140368A (ja) |
| CN (1) | CN101452356A (ja) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011076521A (ja) * | 2009-10-01 | 2011-04-14 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
| WO2011064895A1 (ja) * | 2009-11-30 | 2011-06-03 | パイオニア株式会社 | 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体 |
| JP2011134076A (ja) * | 2009-12-24 | 2011-07-07 | Mitsubishi Electric Corp | タッチパネル入力装置 |
| JP2012043452A (ja) * | 2011-10-05 | 2012-03-01 | Toshiba Corp | 情報処理装置およびタッチ操作支援プログラム |
| JP2013503394A (ja) * | 2009-08-27 | 2013-01-31 | シンボル テクノロジーズ, インコーポレイテッド | タッチスクリーン上のコンテンツの圧力ベースの操作のための方法および装置 |
| JP2014010649A (ja) * | 2012-06-29 | 2014-01-20 | Rakuten Inc | 情報処理装置、認証装置、情報処理方法及び情報処理プログラム |
| JP2014137668A (ja) * | 2013-01-16 | 2014-07-28 | Azbil Corp | 情報表示装置、方法、およびプログラム |
| JP2014149853A (ja) * | 2014-04-02 | 2014-08-21 | Nec Corp | 携帯情報端末、表示制御方法およびプログラム |
| US8847978B2 (en) | 2009-10-02 | 2014-09-30 | Sony Corporation | Information processing apparatus, information processing method, and information processing program |
| JP2015526807A (ja) * | 2012-07-15 | 2015-09-10 | アップル インコーポレイテッド | 3d相互作用のマルチタッチジェスチャ認識の曖昧性除去 |
| JPWO2014112029A1 (ja) * | 2013-01-15 | 2017-01-19 | 日立マクセル株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
Families Citing this family (72)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6610917B2 (en) | 1998-05-15 | 2003-08-26 | Lester F. Ludwig | Activity indication, external source, and processing loop provisions for driven vibrating-element environments |
| US9019237B2 (en) | 2008-04-06 | 2015-04-28 | Lester F. Ludwig | Multitouch parameter and gesture user interface employing an LED-array tactile sensor that can also operate as a display |
| US8169414B2 (en) | 2008-07-12 | 2012-05-01 | Lim Seung E | Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface |
| US8345014B2 (en) | 2008-07-12 | 2013-01-01 | Lester F. Ludwig | Control of the operating system on a computing device via finger angle using a high dimensional touchpad (HDTP) touch user interface |
| US8604364B2 (en) * | 2008-08-15 | 2013-12-10 | Lester F. Ludwig | Sensors, algorithms and applications for a high dimensional touchpad |
| US8170346B2 (en) | 2009-03-14 | 2012-05-01 | Ludwig Lester F | High-performance closed-form single-scan calculation of oblong-shape rotation angles from binary images of arbitrary size using running sums |
| KR101062594B1 (ko) * | 2009-03-19 | 2011-09-06 | 김연수 | 포인터 디스플레이가 가능한 터치스크린 |
| JP5218293B2 (ja) * | 2009-06-22 | 2013-06-26 | ソニー株式会社 | 情報処理装置、表示制御方法、およびプログラム |
| JP4843696B2 (ja) * | 2009-06-30 | 2011-12-21 | 株式会社東芝 | 情報処理装置およびタッチ操作支援プログラム |
| JP5402322B2 (ja) | 2009-07-02 | 2014-01-29 | ソニー株式会社 | 情報処理装置および情報処理方法 |
| JP5792424B2 (ja) * | 2009-07-03 | 2015-10-14 | ソニー株式会社 | 地図情報表示装置、地図情報表示方法およびプログラム |
| DE102010031878A1 (de) * | 2009-07-22 | 2011-02-10 | Logitech Europe S.A. | System und Verfahren zur entfernten virtuellen auf-einen-Schirm-Eingabe |
| US20110066933A1 (en) | 2009-09-02 | 2011-03-17 | Ludwig Lester F | Value-driven visualization primitives for spreadsheets, tabular data, and advanced spreadsheet visualization |
| JP2011227854A (ja) * | 2009-09-30 | 2011-11-10 | Aisin Aw Co Ltd | 情報表示装置 |
| JP5535585B2 (ja) * | 2009-11-10 | 2014-07-02 | 株式会社ソニー・コンピュータエンタテインメント | プログラム、情報記憶媒体、情報入力装置、及びその制御方法 |
| US8390569B2 (en) | 2009-11-25 | 2013-03-05 | Research In Motion Limited | Optical trackpad module and method of using same |
| EP2328066A1 (en) * | 2009-11-25 | 2011-06-01 | Research In Motion Limited | Optical trackpad module and method of using same |
| JP5532300B2 (ja) * | 2009-12-24 | 2014-06-25 | ソニー株式会社 | タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体 |
| JP5381691B2 (ja) * | 2009-12-25 | 2014-01-08 | アイシン・エィ・ダブリュ株式会社 | 地図表示装置、地図表示方法及びプログラム |
| US20110202934A1 (en) * | 2010-02-12 | 2011-08-18 | Ludwig Lester F | Window manger input focus control for high dimensional touchpad (htpd), advanced mice, and other multidimensional user interfaces |
| US20110231796A1 (en) * | 2010-02-16 | 2011-09-22 | Jose Manuel Vigil | Methods for navigating a touch screen device in conjunction with gestures |
| US10146427B2 (en) | 2010-03-01 | 2018-12-04 | Nri R&D Patent Licensing, Llc | Curve-fitting approach to high definition touch pad (HDTP) parameter extraction |
| US9092129B2 (en) | 2010-03-17 | 2015-07-28 | Logitech Europe S.A. | System and method for capturing hand annotations |
| US8648836B2 (en) * | 2010-04-30 | 2014-02-11 | Pixart Imaging Inc. | Hybrid pointing device |
| US9626023B2 (en) | 2010-07-09 | 2017-04-18 | Lester F. Ludwig | LED/OLED array approach to integrated display, lensless-camera, and touch-screen user interface devices and associated processors |
| US9632344B2 (en) | 2010-07-09 | 2017-04-25 | Lester F. Ludwig | Use of LED or OLED array to implement integrated combinations of touch screen tactile, touch gesture sensor, color image display, hand-image gesture sensor, document scanner, secure optical data exchange, and fingerprint processing capabilities |
| US8754862B2 (en) | 2010-07-11 | 2014-06-17 | Lester F. Ludwig | Sequential classification recognition of gesture primitives and window-based parameter smoothing for high dimensional touchpad (HDTP) user interfaces |
| GB201011687D0 (en) * | 2010-07-12 | 2010-08-25 | Faster Imaging As | User interactions |
| JP2012032852A (ja) * | 2010-07-28 | 2012-02-16 | Sony Corp | 情報処理装置、情報処理方法およびコンピュータプログラム |
| US9950256B2 (en) | 2010-08-05 | 2018-04-24 | Nri R&D Patent Licensing, Llc | High-dimensional touchpad game controller with multiple usage and networking modalities |
| US8767019B2 (en) * | 2010-08-31 | 2014-07-01 | Sovanta Ag | Computer-implemented method for specifying a processing operation |
| US8972467B2 (en) | 2010-08-31 | 2015-03-03 | Sovanta Ag | Method for selecting a data set from a plurality of data sets by means of an input device |
| US8890818B2 (en) * | 2010-09-22 | 2014-11-18 | Nokia Corporation | Apparatus and method for proximity based input |
| US8692785B2 (en) * | 2010-09-29 | 2014-04-08 | Byd Company Limited | Method and system for detecting one or more objects |
| US9043732B2 (en) | 2010-10-21 | 2015-05-26 | Nokia Corporation | Apparatus and method for user input for controlling displayed information |
| JP5815932B2 (ja) * | 2010-10-27 | 2015-11-17 | 京セラ株式会社 | 電子機器 |
| DE102010063392B4 (de) * | 2010-11-15 | 2016-12-15 | Leica Microsystems (Schweiz) Ag | Mikroskop mit Sensorbildschirm, zugehörige Steuereinrichtung und Betriebsverfahren |
| US9389774B2 (en) * | 2010-12-01 | 2016-07-12 | Sony Corporation | Display processing apparatus for performing image magnification based on face detection |
| JP5617581B2 (ja) * | 2010-12-08 | 2014-11-05 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体 |
| US20120204577A1 (en) | 2011-02-16 | 2012-08-16 | Ludwig Lester F | Flexible modular hierarchical adaptively controlled electronic-system cooling and energy harvesting for IC chip packaging, printed circuit boards, subsystems, cages, racks, IT rooms, and data centers using quantum and classical thermoelectric materials |
| US8797288B2 (en) | 2011-03-07 | 2014-08-05 | Lester F. Ludwig | Human user interfaces utilizing interruption of the execution of a first recognized gesture with the execution of a recognized second gesture |
| CN102156555A (zh) * | 2011-03-08 | 2011-08-17 | 惠州Tcl移动通信有限公司 | 页面浏览方法及使用所述方法的电子设备 |
| CN202120246U (zh) * | 2011-03-31 | 2012-01-18 | 比亚迪股份有限公司 | 多点旋转运动的识别装置 |
| CN202142028U (zh) * | 2011-03-31 | 2012-02-08 | 比亚迪股份有限公司 | 多点缩放动作的识别装置 |
| US20120249596A1 (en) * | 2011-03-31 | 2012-10-04 | Nokia Corporation | Methods and apparatuses for dynamically scaling a touch display user interface |
| CN102331872A (zh) * | 2011-05-30 | 2012-01-25 | 广州视睿电子科技有限公司 | 在触摸屏上实现鼠标中键效果的方法及装置 |
| CN102331901A (zh) * | 2011-05-30 | 2012-01-25 | 广州视睿电子科技有限公司 | 在触摸屏上实现鼠标中键效果的方法及装置 |
| US9052772B2 (en) | 2011-08-10 | 2015-06-09 | Lester F. Ludwig | Heuristics for 3D and 6D touch gesture touch parameter calculations for high-dimensional touch parameter (HDTP) user interfaces |
| JP5887807B2 (ja) * | 2011-10-04 | 2016-03-16 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
| US9823781B2 (en) | 2011-12-06 | 2017-11-21 | Nri R&D Patent Licensing, Llc | Heterogeneous tactile sensing via multiple sensor types |
| US10430066B2 (en) | 2011-12-06 | 2019-10-01 | Nri R&D Patent Licensing, Llc | Gesteme (gesture primitive) recognition for advanced touch user interfaces |
| CN102566818A (zh) * | 2011-12-17 | 2012-07-11 | 鸿富锦精密工业(深圳)有限公司 | 具有触摸屏的电子设备及其屏幕解锁方法 |
| KR20130082352A (ko) * | 2012-01-11 | 2013-07-19 | 삼성전자주식회사 | 터치스크린을 구비하는 전자기기에서 화면을 확대하기 위한 장치 및 방법 |
| TW201331818A (zh) * | 2012-01-17 | 2013-08-01 | Wistron Corp | 電子裝置及控制電子裝置的方法 |
| DE102012005800A1 (de) * | 2012-03-21 | 2013-09-26 | Gm Global Technology Operations, Llc | Eingabevorrichtung |
| KR20180040731A (ko) * | 2012-03-21 | 2018-04-20 | 김시환 | 스마트폰 디스플레이에서 정보 표시 방법 |
| GB2511668A (en) | 2012-04-12 | 2014-09-10 | Supercell Oy | System and method for controlling technical processes |
| US8814674B2 (en) | 2012-05-24 | 2014-08-26 | Supercell Oy | Graphical user interface for a gaming system |
| US8954890B2 (en) | 2012-04-12 | 2015-02-10 | Supercell Oy | System, method and graphical user interface for controlling a game |
| JP5519871B1 (ja) * | 2012-08-09 | 2014-06-11 | パナソニック株式会社 | 携帯電子機器 |
| JP5812054B2 (ja) * | 2012-08-23 | 2015-11-11 | 株式会社デンソー | 操作デバイス |
| CN102880304A (zh) * | 2012-09-06 | 2013-01-16 | 天津大学 | 用于便携设备的字符输入方法及装置 |
| US20140152593A1 (en) * | 2012-12-03 | 2014-06-05 | Industrial Technology Research Institute | Method And System For Operating Portable Devices |
| USD736241S1 (en) * | 2013-01-15 | 2015-08-11 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with animated graphical user interface |
| JP6137453B2 (ja) | 2013-02-08 | 2017-05-31 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 制御装置及び制御プログラム |
| US20140282224A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a scrolling gesture |
| CN103472962B (zh) * | 2013-08-01 | 2016-12-28 | 珠海中慧微电子有限公司 | 一种识别电容触摸类型的方法 |
| US20150095843A1 (en) * | 2013-09-27 | 2015-04-02 | Microsoft Corporation | Single-hand Interaction for Pan and Zoom |
| US10025492B2 (en) * | 2016-02-08 | 2018-07-17 | Microsoft Technology Licensing, Llc | Pointing detection |
| CN106200942B (zh) * | 2016-06-30 | 2022-04-22 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
| CN106502457B (zh) * | 2016-10-31 | 2019-05-21 | 北京交通大学 | 一种电容触控轨迹的质量评价方法 |
| CN110825934A (zh) * | 2019-11-07 | 2020-02-21 | 北京无限光场科技有限公司 | 房产数据展示方法、装置、电子设备及计算机可读介质 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003099205A (ja) * | 2001-09-21 | 2003-04-04 | Ricoh Co Ltd | 表示一体型座標入力装置 |
| JP2004078678A (ja) * | 2002-08-20 | 2004-03-11 | Hitachi Ltd | タッチパネルを備えた表示装置 |
| WO2006020304A2 (en) * | 2004-07-30 | 2006-02-23 | Apple Computer, Inc. | Mode-based graphical user interfaces for touch sensitive input devices |
| JP2007128497A (ja) * | 2005-10-05 | 2007-05-24 | Sony Corp | 表示装置および表示方法 |
| WO2007079425A2 (en) * | 2005-12-30 | 2007-07-12 | Apple Inc. | Portable electronic device with multi-touch input |
Family Cites Families (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
| US7760187B2 (en) * | 2004-07-30 | 2010-07-20 | Apple Inc. | Visual expander |
| US7663607B2 (en) * | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
| US20050134578A1 (en) * | 2001-07-13 | 2005-06-23 | Universal Electronics Inc. | System and methods for interacting with a control environment |
| AU2002336341A1 (en) * | 2002-02-20 | 2003-09-09 | Planar Systems, Inc. | Light sensitive display |
| US7098896B2 (en) * | 2003-01-16 | 2006-08-29 | Forword Input Inc. | System and method for continuous stroke word-based text input |
| US7379562B2 (en) * | 2004-03-31 | 2008-05-27 | Microsoft Corporation | Determining connectedness and offset of 3D objects relative to an interactive surface |
| US7432917B2 (en) * | 2004-06-16 | 2008-10-07 | Microsoft Corporation | Calibration of an interactive display system |
| US20060007174A1 (en) * | 2004-07-06 | 2006-01-12 | Chung-Yi Shen | Touch control method for a drag gesture and control module thereof |
| US7750893B2 (en) * | 2005-04-06 | 2010-07-06 | Nintendo Co., Ltd. | Storage medium storing input position processing program, and input position processing device |
| KR100732166B1 (ko) * | 2005-09-02 | 2007-06-27 | 엘지전자 주식회사 | 컨텐츠 검색 기능을 갖는 이동통신단말기 및 이를 이용한방법 |
| KR100672605B1 (ko) * | 2006-03-30 | 2007-01-24 | 엘지전자 주식회사 | 아이템 선택 방법 및 이를 위한 단말기 |
| US9063647B2 (en) * | 2006-05-12 | 2015-06-23 | Microsoft Technology Licensing, Llc | Multi-touch uses, gestures, and implementation |
| JP2007317723A (ja) | 2006-05-23 | 2007-12-06 | Fujitsu Ltd | 発熱体冷却装置、発熱体の冷却方法及びヒートシンクの取付構造 |
| US7969426B2 (en) * | 2006-10-31 | 2011-06-28 | Hewlett-Packard Development Company, L.P. | Light sensitive display interface for computing devices |
| US7956847B2 (en) * | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
-
2007
- 2007-12-07 JP JP2007317723A patent/JP2009140368A/ja active Pending
-
2008
- 2008-11-12 CN CNA2008101754157A patent/CN101452356A/zh active Pending
- 2008-11-17 US US12/272,196 patent/US20090146968A1/en not_active Abandoned
- 2008-11-19 EP EP08169397.0A patent/EP2068235A3/en not_active Withdrawn
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003099205A (ja) * | 2001-09-21 | 2003-04-04 | Ricoh Co Ltd | 表示一体型座標入力装置 |
| JP2004078678A (ja) * | 2002-08-20 | 2004-03-11 | Hitachi Ltd | タッチパネルを備えた表示装置 |
| WO2006020304A2 (en) * | 2004-07-30 | 2006-02-23 | Apple Computer, Inc. | Mode-based graphical user interfaces for touch sensitive input devices |
| JP2007128497A (ja) * | 2005-10-05 | 2007-05-24 | Sony Corp | 表示装置および表示方法 |
| WO2007079425A2 (en) * | 2005-12-30 | 2007-07-12 | Apple Inc. | Portable electronic device with multi-touch input |
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10782873B2 (en) | 1999-01-25 | 2020-09-22 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3D interaction |
| US9529440B2 (en) | 1999-01-25 | 2016-12-27 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3D interaction |
| JP2013503394A (ja) * | 2009-08-27 | 2013-01-31 | シンボル テクノロジーズ, インコーポレイテッド | タッチスクリーン上のコンテンツの圧力ベースの操作のための方法および装置 |
| JP2011076521A (ja) * | 2009-10-01 | 2011-04-14 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
| US8847978B2 (en) | 2009-10-02 | 2014-09-30 | Sony Corporation | Information processing apparatus, information processing method, and information processing program |
| JP4943543B2 (ja) * | 2009-11-30 | 2012-05-30 | パイオニア株式会社 | 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体 |
| US8922592B2 (en) | 2009-11-30 | 2014-12-30 | Pioneer Corporation | Map display device, map display method, map display program, and computer-readable recording medium |
| WO2011064895A1 (ja) * | 2009-11-30 | 2011-06-03 | パイオニア株式会社 | 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体 |
| JP2011134076A (ja) * | 2009-12-24 | 2011-07-07 | Mitsubishi Electric Corp | タッチパネル入力装置 |
| JP2012043452A (ja) * | 2011-10-05 | 2012-03-01 | Toshiba Corp | 情報処理装置およびタッチ操作支援プログラム |
| JP2014010649A (ja) * | 2012-06-29 | 2014-01-20 | Rakuten Inc | 情報処理装置、認証装置、情報処理方法及び情報処理プログラム |
| JP2015526807A (ja) * | 2012-07-15 | 2015-09-10 | アップル インコーポレイテッド | 3d相互作用のマルチタッチジェスチャ認識の曖昧性除去 |
| US11422694B2 (en) | 2012-07-15 | 2022-08-23 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3D interaction |
| JPWO2014112029A1 (ja) * | 2013-01-15 | 2017-01-19 | 日立マクセル株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
| JP2014137668A (ja) * | 2013-01-16 | 2014-07-28 | Azbil Corp | 情報表示装置、方法、およびプログラム |
| JP2014149853A (ja) * | 2014-04-02 | 2014-08-21 | Nec Corp | 携帯情報端末、表示制御方法およびプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| EP2068235A2 (en) | 2009-06-10 |
| US20090146968A1 (en) | 2009-06-11 |
| CN101452356A (zh) | 2009-06-10 |
| EP2068235A3 (en) | 2013-06-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2009140368A (ja) | 入力装置、表示装置、入力方法、表示方法及びプログラム | |
| KR100783552B1 (ko) | 휴대 단말기의 입력 제어 방법 및 장치 | |
| RU2541852C2 (ru) | Устройство и способ для управления пользовательским интерфейсом на основе движений | |
| KR102194272B1 (ko) | 제스처들을 이용한 터치 입력들의 향상 | |
| TWI571790B (zh) | 依感測信號更改圖示座標值的方法與電子裝置 | |
| JP5977627B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
| US8860672B2 (en) | User interface with z-axis interaction | |
| CN103164155B (zh) | 显示处理装置 | |
| JP5759660B2 (ja) | タッチ・スクリーンを備える携帯式情報端末および入力方法 | |
| CN103677621B (zh) | 具有触摸面板功能的显示控制设备和显示控制方法 | |
| US8866776B2 (en) | Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof | |
| CN109428969B (zh) | 双屏终端的边缘触控方法、装置及计算机可读存储介质 | |
| WO2006036069A1 (en) | Information processing system and method | |
| KR20130099186A (ko) | 표시 장치, 유저 인터페이스 방법, 및 프로그램 | |
| CN109804340B (zh) | 用于页面显示的方法、装置、图形用户界面及移动终端 | |
| CN102741794A (zh) | 处理触觉输入 | |
| US9367169B2 (en) | Method, circuit, and system for hover and gesture detection with a touch screen | |
| CN107172347B (zh) | 一种拍照方法及终端 | |
| JP2013105461A (ja) | 情報処理装置及びその制御方法 | |
| KR101920864B1 (ko) | 터치스크린을 이용하여 이미지를 표시하기 위한 방법 및 단말 | |
| JP2020017215A (ja) | 電子機器、制御プログラム及び表示制御方法 | |
| CN108700958B (zh) | 可穿戴信息终端 | |
| JP2015230496A (ja) | 電子機器 | |
| JP7186836B2 (ja) | ウェアラブル情報端末および制御方法 | |
| JP6197012B2 (ja) | 情報処理装置および情報処理方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091116 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100105 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100302 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110510 |