JP2018018308A - 情報処理装置、及びその制御方法ならびにコンピュータプログラム - Google Patents
情報処理装置、及びその制御方法ならびにコンピュータプログラム Download PDFInfo
- Publication number
- JP2018018308A JP2018018308A JP2016148209A JP2016148209A JP2018018308A JP 2018018308 A JP2018018308 A JP 2018018308A JP 2016148209 A JP2016148209 A JP 2016148209A JP 2016148209 A JP2016148209 A JP 2016148209A JP 2018018308 A JP2018018308 A JP 2018018308A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- fingertip
- operation surface
- display
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
以下、本発明を実施するための最良の形態について図面を参照して説明する。
ここで、Rcおよびtcは、直交座標系に対するカメラの姿勢(回転)と位置(並進)によって求まる外部パラメータによって構成される。Rcを3×3の回転行列、tcを並進ベクトルと呼ぶ。Rcおよびtcは工場出荷時に決定されている行列であり、工場出荷後は、サービスマンによるメンテナンス等において修正される値である。
さらに、カメラ部202で撮像される2次元のカメラ画像平面は、カメラ部202によって3次元空間中の3次元情報が2次元情報に変換されたものである。カメラ座標系上での3次元の点Pc[Xc,Yc,Zc]を、下記の(3)式によってカメラ画像平面での2次元の点pc[xp,yp]に透視投影変換することによって変換する。
ここで、Aは、カメラの内部パラメータと呼ばれ、焦点距離と画像中心などで表現される所定の3×3の行列である。また、λは任意の係数である。
ユーザの指先と操作平面204の距離がタッチ閾値以下(0≦Z≦Th)の場合、ジェスチャ反応領域サイズとオブジェクト反応領域サイズは同じである。したがってZ=Thの場合、δh=aTh+bかつ、δh=0である。
Hは所定の高さを表す定数(H>Th)である。
となる。
第1の実施形態では、ユーザがジェスチャ操作を実行した指先と操作平面の距離に応じて、ジェスチャ反応領域の大きさを変更する場合について説明した。ユーザが操作平面を斜め上空から見てジェスチャ操作を行う場合、図10(e)に示すように、ユーザがジェスチャ操作を行う位置が、操作したいオブジェクトの表示位置と比べてユーザの体側に近くなる傾向がある。
第1の実施形態では、ユーザの指先がタッチ閾値Thよりも高い位置にあるとき、すなわちホバー操作が行われているときに指先と操作平面の距離に応じて、ジェスチャ反応領域を変化させる場合について説明した。そして、第1の実施形態では、ユーザの指先はタッチ閾値よりも低い位置にある場合のオフセット量δhを0mm、すなわちオブジェクト表示領域とジェスチャ反応領域を同じにすることとして説明した。第3の実施形態では、ユーザの指先と操作平面の距離がタッチ閾値以下になった場合にも、オブジェクト表示領域よりも広い領域をジェスチャ反応領域とする場合について説明する。
δt1は式の切片であり、ユーザの指先が操作平面204に接触しているときのオフセット量である。オフセット量δt1が正の値あることで、タッチ反応領域は常にオブジェクト表示領域よりも大きく設定することができる。
第3の実施形態では、ユーザの指先の高さがタッチ閾値以下になったときにタッチ操作を検出し、そのタッチ操作時の指先の高さからタッチ操作に反応するジェスチャ反応領域の大きさを決定する場合について説明した。
第1から第4の実施形態では、ユーザが指で操作をする場合について説明した。ユーザが指で操作を行わなくても、タッチペン等を用いて操作することとしてもよい。
Claims (10)
- 操作面にオブジェクトを表示する表示手段と、
前記操作面の上空にある物体による操作を認識する認識手段と、
前記認識手段により認識された操作を行った物体と前記操作面との距離を検出する検出手段と、
ある領域内で認識された前記操作を前記オブジェクトに対する入力であるとして受付けて、前記表示手段による前記オブジェクトに関する表示を切り替える表示切替手段、
前記検出手段により検出された前記物体と前記操作面の距離に応じて、前記オブジェクトに対する入力が受付ける前記領域を変化させるよう制御する制御手段と、を有することを特徴とする情報処理装置。 - 前記操作面を撮像する撮像手段を有し、
前記表示手段は前記操作面に対して前記オブジェクトを投影し、
前記検出手段は前記撮像手段により撮像される画像データに基づいて前記操作面と前記操作面の上空の物体との距離を検出し、
前記制御手段は、前記検出手段により検出される前記操作面と前記物体の距離が大きくなるにつれて前記オブジェクトに対する入力が受付けられる前記領域の大きさが大きくなることを特徴とする請求項1に記載の情報処理装置。 - 前記表示手段により表示される前記オブジェクトの位置および大きさ、前記オブジェクトへの前記操作による入力が受付けられる前記領域の位置および大きさを管理するテーブルを記憶する記憶手段を有し、
前記表示手段は前記記憶手段に記憶された前記テーブルに従って、前記操作面の上空の物体による前記操作が前記オブジェクトに対する入力であるかを判定し表示を切り替えることを特徴とする請求項1または2に記載の情報処理装置。 - 前記制御手段は、前記検出手段により検出される距離に応じて、前記オブジェクトへの前記操作による入力が受付けられる前記領域の位置を移動させるよう制御することを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
- 前記制御手段は前記操作面の上空の物体の位置に応じて前記オブジェクトへの前記操作による入力が受付けられる領域の位置を移動させる方向を決定することを特徴とする請求項4に記載の情報処理装置。
- 前記制御手段は前記検出手段により検出される距離が大きくなるにつれて、前記領域の移動量が大きくなることを特徴とする請求項4または5に記載の情報処理装置。
- 前記制御手段は前記検出手段により検出される距離が所定の距離よりも大きい場合に、前記検出手段により検出された前記物体と前記操作面の距離に応じて前記オブジェクトへの前記操作を受付ける前記領域の大きさを変化させ、
前記検出手段により検出される距離が所定の距離よりも小さい場合に、前記検出手段により検出された距離にかかわらず、前記オブジェクトへの前記操作を受付ける前記領域を一定の大きさとするよう制御することを特徴とする請求項1乃至5のいずれか一項に記載の情報処理装置。 - 前記制御手段は、前記表示手段により表示される第1のオブジェクトについての前記操作による入力を受付ける領域と前記表示手段に表示される第2のオブジェクトについての前記操作による入力を受付ける領域とが重複しないよう制御することを特徴とする請求項4に記載の情報処理装置。
- 情報処理装置の制御方法であって、
操作面にオブジェクトを表示する表示ステップと、
前記操作面と前記操作面の上空の物体との距離を検出する検出ステップと、
前記操作面の上空の物体により、前記操作面に表示されるオブジェクトへの操作を受付ける受付け、前記表示ステップにて表示した前記オブジェクトに関する表示を切り替える表示切替ステップと、
前記検出ステップにおいて検出された前記操作面と前記操作面の上空の物体の距離に応じて、前記操作面に表示された前記オブジェクトへの入力を受付ける領域を変化させるよう制御する制御ステップと、を有することを特徴とする情報処理装置の制御方法。 - 請求項9に記載の情報処理装置の制御方法をコンピュータに実行させるためのプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016148209A JP6746419B2 (ja) | 2016-07-28 | 2016-07-28 | 情報処理装置、及びその制御方法ならびにコンピュータプログラム |
| US15/658,114 US20180032142A1 (en) | 2016-07-28 | 2017-07-24 | Information processing apparatus, control method thereof, and storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016148209A JP6746419B2 (ja) | 2016-07-28 | 2016-07-28 | 情報処理装置、及びその制御方法ならびにコンピュータプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018018308A true JP2018018308A (ja) | 2018-02-01 |
| JP6746419B2 JP6746419B2 (ja) | 2020-08-26 |
Family
ID=61009932
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016148209A Expired - Fee Related JP6746419B2 (ja) | 2016-07-28 | 2016-07-28 | 情報処理装置、及びその制御方法ならびにコンピュータプログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US20180032142A1 (ja) |
| JP (1) | JP6746419B2 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020107031A (ja) * | 2018-12-27 | 2020-07-09 | 株式会社デンソー | 指示ジェスチャ検出装置、およびその検出方法 |
| JP2023040955A (ja) * | 2021-09-10 | 2023-03-23 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102561103B1 (ko) * | 2018-11-16 | 2023-07-31 | 삼성전자주식회사 | 로봇 보정 시스템 및 그것의 보정 방법 |
| CN113238650B (zh) * | 2021-04-15 | 2023-04-07 | 青岛小鸟看看科技有限公司 | 手势识别和控制的方法、装置及虚拟现实设备 |
| KR102437930B1 (ko) * | 2022-04-19 | 2022-08-30 | (주) 아하 | 디스플레이 공정에서 비접촉 제스처를 인식하는 방법 및 그를 이용한 디스플레이 기기 |
| CN114820817B (zh) * | 2022-05-07 | 2025-07-18 | 广州艾视维智能科技有限公司 | 基于高精度线激光3d相机的标定方法和三维重建方法 |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9104239B2 (en) * | 2011-03-09 | 2015-08-11 | Lg Electronics Inc. | Display device and method for controlling gesture functions using different depth ranges |
| EP3066551B8 (en) * | 2015-01-30 | 2020-01-01 | Sony Depthsensing Solutions SA/NV | Multi-modal gesture based interactive system and method using one single sensing system |
-
2016
- 2016-07-28 JP JP2016148209A patent/JP6746419B2/ja not_active Expired - Fee Related
-
2017
- 2017-07-24 US US15/658,114 patent/US20180032142A1/en not_active Abandoned
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020107031A (ja) * | 2018-12-27 | 2020-07-09 | 株式会社デンソー | 指示ジェスチャ検出装置、およびその検出方法 |
| JP2023040955A (ja) * | 2021-09-10 | 2023-03-23 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6746419B2 (ja) | 2020-08-26 |
| US20180032142A1 (en) | 2018-02-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10310675B2 (en) | User interface apparatus and control method | |
| US8854433B1 (en) | Method and system enabling natural user interface gestures with an electronic system | |
| JP6746419B2 (ja) | 情報処理装置、及びその制御方法ならびにコンピュータプログラム | |
| US20120169671A1 (en) | Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor | |
| US10268277B2 (en) | Gesture based manipulation of three-dimensional images | |
| JP6643825B2 (ja) | 装置及び方法 | |
| US9544556B2 (en) | Projection control apparatus and projection control method | |
| JP2001184161A (ja) | 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体 | |
| US10254893B2 (en) | Operating apparatus, control method therefor, and storage medium storing program | |
| JP7275885B2 (ja) | 表示装置、方向特定方法、プログラム | |
| JP2004094653A (ja) | 情報入力システム | |
| JP6381361B2 (ja) | データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム | |
| JP2016162162A (ja) | 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム及び接触検出方法 | |
| JP2016103137A (ja) | ユーザインタフェース装置、画像処理装置及び制御用プログラム | |
| JP2017219942A (ja) | 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。 | |
| JP2017162126A (ja) | 入力システム、入力方法、制御用プログラム、及び記憶媒体 | |
| JP2018112894A (ja) | システムおよび制御方法 | |
| JP2018063555A (ja) | 情報処理装置、情報処理方法及びプログラム | |
| JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
| CN110213407A (zh) | 一种电子装置的操作方法、电子装置和计算机存储介质 | |
| JP6624861B2 (ja) | 画像処理装置、制御方法およびプログラム | |
| JP2018116360A (ja) | 手入力装置、手入力装置の制御方法 | |
| JP2018173907A (ja) | 情報処理装置、および情報処理装置の制御方法、プログラム | |
| JP2017117372A (ja) | 操作装置とその制御方法、及びプログラム | |
| JP2017022590A (ja) | 画像処理装置、画像処理装置の制御方法、及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190726 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200311 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200406 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200601 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200707 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200805 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6746419 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| LAPS | Cancellation because of no payment of annual fees |