JP6643825B2 - 装置及び方法 - Google Patents
装置及び方法 Download PDFInfo
- Publication number
- JP6643825B2 JP6643825B2 JP2015147083A JP2015147083A JP6643825B2 JP 6643825 B2 JP6643825 B2 JP 6643825B2 JP 2015147083 A JP2015147083 A JP 2015147083A JP 2015147083 A JP2015147083 A JP 2015147083A JP 6643825 B2 JP6643825 B2 JP 6643825B2
- Authority
- JP
- Japan
- Prior art keywords
- target object
- fingertip
- distance image
- point
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Description
前記装置が有するセンサから前記操作面の上方にある対象オブジェクトまでの距離を示す距離画像を取得する距離画像取得手段と、
前記距離画像に基づいて前記対象オブジェクトの先端部を特定する特定手段と、
前記距離画像取得手段よって取得された距離画像を用いて、前記操作面上での前記対象オブジェクトによるタッチジェスチャーを検出する検出手段と、
前記距離画像を用いて、前記対象オブジェクトの前記操作面上における向きを特定する方向特定手段と、
前記操作面に対して前記対象オブジェクトがなす角度を取得する角度取得手段と、
がなす角度を取得する角度取得手段と、
前記角度取得手段によって取得された角度に応じたシフト量を求めるシフト量決定手段と、
前記特定手段で特定した前記対象オブジェクトの先端部の位置を、前記方向特定手段で特定された前記対象オブジェクトの前記操作面上における向きと逆方向に、前記シフト量決定手段で求めたシフト量にしたがってシフトすることによって、前記タッチジェスチャーによる前記対象オブジェクトの前記操作面上でのタッチ位置を決定する決定手段とを有することを特徴とする装置が提供される。
[実施形態1]
図1は、一実施形態に係るカメラスキャナ101が含まれるネットワーク構成を示す図である。図1に示すように、カメラスキャナ101はイーサネット(登録商標)等のネットワーク104にてホストコンピュータ102およびプリンタ103に接続されている。図1のネットワーク構成において、ホストコンピュータ102からの指示により、カメラスキャナ101から画像を読み取るスキャン機能や、スキャンデータをプリンタ103により出力するプリント機能の実行が可能である。また、ホストコンピュータ102を介さず、カメラスキャナ101への直接の指示により、スキャン機能、プリント機能の実行も可能である。
図2は、一実施形態に係るカメラスキャナ101の構成例を示す図である。図2(a)に示すように、カメラスキャナ101は、コントローラ部201、カメラ部202、腕部203、プロジェクタ207、距離画像センサ部208を含む。カメラスキャナの本体であるコントローラ部201と、撮像を行うためのカメラ部202、プロジェクタ207および距離画像センサ部208は、腕部203により連結されている。腕部203は関節を用いて曲げ伸ばしが可能である。図2(a)には、カメラスキャナ101が設置されている書画台204も示している。カメラ部202および距離画像センサ部208のレンズは書画台204方向に向けられており、破線で囲まれた読み取り領域205内の画像を読み取り可能である。図2(a)の例では、原稿206は読み取り領域205内に置かれているので、カメラスキャナ101に読み取り可能となっている。カメラ部202は単一解像度で画像を撮像するものとしてもよいが、高解像度画像撮像と低解像度画像撮像が可能なものとすることが好ましい。書画台204内にはターンテーブル209を設けてもよい。ターンテーブル209はコントローラ部201からの指示によって回転することが可能であり、ターンテーブル209上に置かれた物体とカメラ部202との角度を変えることができる。また、図2に示されていないが、カメラスキャナ101は、LCDタッチパネル330およびスピーカ340をさらに含むこともできる。さらに、周囲の環境情報を収集するための人感センサ、照度センサ、加速度センサなどの各種センサデバイスを含むこともできる。距離画像とは、画像データの各画素に、距離画像センサ部208からの距離を関連付けた画像データである。
[Xc,Yc,Zc]T = [Rc|tc][X,Y,Z,1]T ... (1)
ここで、Rcおよびtcは、直交座標系に対するカメラの姿勢(回転)と位置(並進)によって求まる外部パラメータによって構成され、Rcを3×3の回転行列、tcを並進ベクトルと呼ぶ。逆に、カメラ座標系で定義された3次元点は(2)式によって、直交座標系への変換することができる。
[X,Y,Z]T = [Rc -1|-Rc -1tc] [Xc,Yc,Zc,1]T ... (2)
さらに、カメラ部202で撮影される2次元のカメラ画像平面は、カメラ部202によって3次元空間中の3次元情報が2次元情報に変換されたものである。すなわち、カメラ座標系上での3次元点Pc[Xc,Yc,Zc]を、(3)式によってカメラ画像平面での2次元座標pc[xp,yp]に透視投影変換することによって変換することが出来る。
λ[xp,yp,1]T =A [Xc,Yc,Zc]T ... (3)
ここで、Aは、カメラの内部パラメータと呼ばれ、焦点距離と画像中心などで表現される3×3の行列である。
図3は、カメラスキャナ101の本体であるコントローラ部201のハードウェア構成例を示す図である。図3に示すように、コントローラ部201は、システムバス301に接続されたCPU302、RAM303、ROM304、HDD305、ネットワークI/F306、画像処理プロセッサ307、カメラI/F308、ディスプレイコントローラ309、シリアルI/F310、オーディオコントローラ311およびUSBコントローラ312を含む。
図4は、CPU302が実行するカメラスキャナ101の制御用プログラムの機能構成401を示す図である。カメラスキャナ101の制御用プログラムは前述のようにHDD305に格納され、CPU302が起動時にRAM303上に展開して実行する。メイン制御部402は制御の中心であり、機能構成401内の他の各モジュールを制御する。画像取得部416は画像入力処理を行うモジュールであり、カメラ画像取得部407、距離画像取得部408から構成される。カメラ画像取得部407はカメラI/F308を介してカメラ部202が出力する画像データを取得し、RAM303へ格納する。距離画像取得部408はカメラI/F308を介して距離画像センサ部208が出力する距離画像データを取得し、RAM303へ格納する。距離画像取得部408の処理の詳細は図5を用いて後述する。
図5に距離画像センサ208の構成を示している。距離画像センサ208は赤外線によるパターン投射方式の距離画像センサである。赤外線パターン投射部361は対象物に、人の目には不可視である赤外線によって3次元測定パターンを投射する。赤外線カメラ362は対象物に投射した3次元測定パターンを読み取るカメラである。RGBカメラ363は人の目に見える可視光をRGB信号で撮影するカメラである。
ジェスチャー認識部409の処理の詳細を、図6Aのフローチャートを用いて説明する。図6Aにおいて、ジェスチャー認識部409が処理を開始すると、ステップS601で初期化処理を行う。初期化処理では、ジェスチャー認識部409は距離画像取得部408から距離画像を1フレーム取得する。ここで、ジェスチャー認識部の開始時は書画台204上に対象物が置かれていない状態であるため、初期状態として書画台204の平面の認識を行う。つまり、取得した距離画像から最も広い平面を抽出し、その位置と法線ベクトル(以降、書画台204の平面パラメータと呼ぶ)を算出し、RAM303に保存する。
ステップS633では以上の方法で指先を検出することが可能となる。
実施形態1では、上面のセンサから指先と平面を撮影する場合の、タッチ位置の決定方法の基本的な部分を説明した。タッチ位置を決定する為に、距離画像センサで取得した距離画像から指先を発見し、指先方向と逆方向に指先位置の座標を所定距離シフトさせることで、タッチ位置の座標を決定する方法をとった。本実施形態では、ユーザーがもう少し細かいタッチ指示を行いたい場合に、タッチ位置の補正を行い、補正後の位置をタッチ位置として特定あるいは推定することで操作性を向上させる方法を、図9のジェスチャー認識部409が実行するフローチャートに沿って説明する。図10(a)は、タッチ位置の補正が必要な場合を模式的に表している。図10(a)の上の図は、書画台204の一部である平面1003に指1001がタッチしている様子を横から見た図である。この場合、実施形態1で説明した方法と同じやり方で発見した指先の3次元点が、指先位置1005で表される。実施形態1で説明した方法で、ユーザー定義の所定の値1007だけ指先の位置を示す指先座標をシフトさせて決めたタッチ位置の点は、タッチ位置1006で表される。図10(a)の下の図は、上の図よりも指1002の、平面1004に対する角度が大きい場合を表している。この場合、実施形態1と同じ方法で求めたタッチ位置の点は、位置1008となるが、実際に平面に接触している点は位置1009である。このように、タッチ点を求めるために、所定の固定値だけシフトさせただけでは、指先の平面に対する角度に応じて、実際にタッチしている、もしくはタッチしているとユーザーが感じる点と、タッチ位置の点として求めた点がずれてしまうことがあり得る。そこで本実施形態では、タッチ位置の点を求めるために指先位置をシフトさせる量を求めるのに、指先の角度を用いる。
v'=(|v||w|cosθ/|w|)×w/|w| ・・・(4)
この(4)式のうちw/|w|はベクトルwと同方向の単位べクトルであるから、定数"|v||w|cosθ/|w|"=|v|cosθが、求めたいベクトルv'の大きさ、すなわち指先の位置をタッチ位置までxy平面内でシフトさせるシフト量である。なお、ベクトルwがxy平面上にあるのなら、ベクトルvのベクトルwに対する正射影v'は、ベクトルvの始点及び終点のz成分をいずれも0に置換することで求めることができる。
実施形態1および2では、上面のセンサから指先と平面を撮影する場合の、タッチ位置の決定方法の基本的な部分と、平面に対する指の角度に応じてタッチ位置を決定する方法を説明した。これらの方法は距離画像センサ208のノイズが少ない場合に成立する。
実施形態3では、距離画像にノイズがある場合に、RGB画像を用いて3次元の指先位置を発見し、タッチ位置を決定する方法を説明した。本実施形態では、RGB画像を用いず、距離画像のみで真の3次元の指先位置を発見し、タッチ位置の決定に用いる方法を説明する。
この直線と書画台の平面1408が交わる点を予測される指先点としてもよい。
上記処理により、正確なタッチ位置を推定することが可能となる。
なお本発明は以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (9)
- 操作面で行われた操作を特定するための装置であって、
前記装置が有するセンサから前記操作面の上方にある対象オブジェクトまでの距離を示す距離画像を取得する距離画像取得手段と、
前記距離画像に基づいて前記対象オブジェクトの先端部を特定する特定手段と、
前記距離画像取得手段よって取得された距離画像を用いて、前記操作面上での前記対象オブジェクトによるタッチジェスチャーを検出する検出手段と、
前記距離画像を用いて、前記対象オブジェクトの前記操作面上における向きを特定する方向特定手段と、
前記操作面に対して前記対象オブジェクトがなす角度を取得する角度取得手段と、
前記角度取得手段によって取得された角度に応じたシフト量を求めるシフト量決定手段と、
前記特定手段で特定した前記対象オブジェクトの先端部の位置を、前記方向特定手段で特定された前記対象オブジェクトの前記操作面上における向きと逆方向に、前記シフト量決定手段で求めたシフト量にしたがってシフトすることによって、前記タッチジェスチャーによる前記対象オブジェクトの前記操作面上でのタッチ位置を決定する決定手段と
を有することを特徴とする装置。 - 前記操作面を含む領域を撮像することによりカラー画像を取得する撮像手段と、
前記特定手段は、前記距離画像と前記カラー画像に含まれる手領域の色とに基づいて、前記操作面上の前記対象オブジェクトの前記先端部の位置を特定することを特徴する請求項1に記載の装置。 - 前記対象オブジェクトは手の指であることを特徴する請求項1または2に記載の装置。
- 前記距離画像取得手段は前記センサとして距離センサを含み、前記距離センサにより測定された距離を画素ごとに有する前記距離画像を取得することを特徴とする請求項1乃至3のいずれか一項に記載の装置。
- 前記特定手段は、前記対象オブジェクトの領域の外形から曲率を算出し、前記曲率が所定値より大きい点を前記対象オブジェクトの前記先端部の位置として特定することを特徴とする請求項1に記載の装置。
- 前記特定手段は、前記対象オブジェクトの領域の外形にフィットする円に基づいて前記外形の曲率を算出し、前記曲率が所定値より大きく、かつ前記円の中心が前記対象オブジェクトの領域の内側にある場合に、前記円にフィットする輪郭点の中央の点を前記対象オブジェクトの前記先端部の位置として特定することを特徴とする請求項1に記載の装置。
- 前記特定手段は、前記対象オブジェクトの領域の外形の輪郭点のうち、隣り合う有限個の輪郭点を囲む最小の円の半径が所定値より小さい場合に、前記有限個の輪郭点の中央の点を前記対象オブジェクトの前記先端部の位置として特定することを特徴とする請求項1に記載の装置。
- 前記特定手段は、前記対象オブジェクトの領域が前記操作面に侵入している場所を特定し、該場所からもっとも遠い前記対象オブジェクトの領域の位置を前記対象オブジェクトの前記先端部の位置として特定することを特徴とする請求項1に記載の装置。
- 装置により、操作面で行われた操作を特定するための方法であって、
前記装置が有するセンサから前記操作面の上方にある対象オブジェクトまでの距離を示す距離画像を取得し、
前記距離画像に基づいて前記対象オブジェクトの先端部を特定し、
取得された距離画像を用いて、前記操作面上での前記対象オブジェクトによるタッチジェスチャーを検出し、
前記距離画像を用いて、前記対象オブジェクトの前記操作面上における向きを特定し、
前記操作面に対して前記対象オブジェクトがなす角度を取得し、
前記取得された角度に応じたシフト量を求め、
前記特定した前記対象オブジェクトの先端部の位置を、前記特定された前記対象オブジェクトの前記操作面上における向きと逆方向に、前記求めたシフト量にしたがってシフトすることによって、前記タッチジェスチャーによる前記対象オブジェクトの前記操作面上のタッチ位置を決定する
ことを特徴とする方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US14/818,770 US10310675B2 (en) | 2014-08-25 | 2015-08-05 | User interface apparatus and control method |
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014170886 | 2014-08-25 | ||
| JP2014170886 | 2014-08-25 | ||
| JP2015010680 | 2015-01-22 | ||
| JP2015010680 | 2015-01-22 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2016139396A JP2016139396A (ja) | 2016-08-04 |
| JP2016139396A5 JP2016139396A5 (ja) | 2018-09-06 |
| JP6643825B2 true JP6643825B2 (ja) | 2020-02-12 |
Family
ID=56560408
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015147083A Expired - Fee Related JP6643825B2 (ja) | 2014-08-25 | 2015-07-24 | 装置及び方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6643825B2 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12169965B2 (en) | 2020-12-10 | 2024-12-17 | Sony Semiconductor Solutions Corporation | Information processing apparatus and information processing method |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6607121B2 (ja) * | 2016-03-30 | 2019-11-20 | セイコーエプソン株式会社 | 画像認識装置、画像認識方法および画像認識ユニット |
| JP6452658B2 (ja) * | 2016-09-27 | 2019-01-16 | キヤノン株式会社 | 情報処理装置、およびその制御方法ならびにプログラム |
| JP7125561B2 (ja) | 2019-07-26 | 2022-08-24 | 富士フイルム株式会社 | 制御装置、投影システム、制御方法、制御プログラム |
| JP7702823B2 (ja) * | 2021-06-30 | 2025-07-04 | 三菱電機エンジニアリング株式会社 | 空中映像表示装置 |
| JP2023113495A (ja) * | 2022-02-03 | 2023-08-16 | 沖電気工業株式会社 | 表示操作部および表示装置 |
| WO2023181357A1 (ja) * | 2022-03-25 | 2023-09-28 | 日本電気株式会社 | 光干渉断層画像生成装置、光干渉断層画像生成方法、及び、記録媒体 |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3529510B2 (ja) * | 1995-09-28 | 2004-05-24 | 株式会社東芝 | 情報入力装置および情報入力装置の制御方法 |
| JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
| WO2008137708A1 (en) * | 2007-05-04 | 2008-11-13 | Gesturetek, Inc. | Camera-based user input for compact devices |
| JP4985531B2 (ja) * | 2008-04-18 | 2012-07-25 | パナソニック株式会社 | ミラーシステム |
| JP4771183B2 (ja) * | 2009-01-30 | 2011-09-14 | 株式会社デンソー | 操作装置 |
| US20130063336A1 (en) * | 2011-09-08 | 2013-03-14 | Honda Motor Co., Ltd. | Vehicle user interface system |
| JP5896578B2 (ja) * | 2012-11-22 | 2016-03-30 | シャープ株式会社 | データ入力装置 |
| JP6089722B2 (ja) * | 2013-01-23 | 2017-03-08 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
-
2015
- 2015-07-24 JP JP2015147083A patent/JP6643825B2/ja not_active Expired - Fee Related
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12169965B2 (en) | 2020-12-10 | 2024-12-17 | Sony Semiconductor Solutions Corporation | Information processing apparatus and information processing method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2016139396A (ja) | 2016-08-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6643825B2 (ja) | 装置及び方法 | |
| US10310675B2 (en) | User interface apparatus and control method | |
| US9600078B2 (en) | Method and system enabling natural user interface gestures with an electronic system | |
| TWI531929B (zh) | 基於影像來識別觸控表面的目標接觸區域之技術 | |
| US20110267265A1 (en) | Spatial-input-based cursor projection systems and methods | |
| JP6723814B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
| TWI559174B (zh) | 以手勢爲基礎之三維影像操控技術 | |
| US20120319945A1 (en) | System and method for reporting data in a computer vision system | |
| CN108027656B (zh) | 输入设备、输入方法和程序 | |
| JP6746419B2 (ja) | 情報処理装置、及びその制御方法ならびにコンピュータプログラム | |
| US10254893B2 (en) | Operating apparatus, control method therefor, and storage medium storing program | |
| US20170228092A1 (en) | Touch region projection onto touch-sensitive surface | |
| JP2016162162A (ja) | 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム及び接触検出方法 | |
| JP2016103137A (ja) | ユーザインタフェース装置、画像処理装置及び制御用プログラム | |
| JP2017219942A (ja) | 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。 | |
| TWI499938B (zh) | 觸控系統 | |
| JP2017162126A (ja) | 入力システム、入力方法、制御用プログラム、及び記憶媒体 | |
| JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
| JP6632298B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
| JP2018063555A (ja) | 情報処理装置、情報処理方法及びプログラム | |
| Haubner et al. | Recognition of dynamic hand gestures with time-of-flight cameras | |
| JP2017117372A (ja) | 操作装置とその制御方法、及びプログラム | |
| TWI566128B (zh) | 虛擬觸控裝置 | |
| JP2024141271A (ja) | 情報処理装置、及びキャリブレーション方法 | |
| JP2018116360A (ja) | 手入力装置、手入力装置の制御方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180724 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180724 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190318 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190322 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190521 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190802 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191101 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20191111 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191209 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200107 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6643825 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| LAPS | Cancellation because of no payment of annual fees |