JP2018109911A - Display device, instruction detection device, and image display method - Google Patents
Display device, instruction detection device, and image display method Download PDFInfo
- Publication number
- JP2018109911A JP2018109911A JP2017000754A JP2017000754A JP2018109911A JP 2018109911 A JP2018109911 A JP 2018109911A JP 2017000754 A JP2017000754 A JP 2017000754A JP 2017000754 A JP2017000754 A JP 2017000754A JP 2018109911 A JP2018109911 A JP 2018109911A
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- display device
- user
- specifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ユーザのジェスチャモーションを取得して表示画像を制御する表示装置、指示検出装置及び画像表示方法に関するものである。 The present invention relates to a display device that acquires a user's gesture motion and controls a display image, an instruction detection device, and an image display method.
昨今、表示装置がモーションセンサを実装して仮想的な釦をソフトウエアで実現することで、ユーザは、表示装置を見ながら映像の操作を手指のジェスチャで行うことができる。ところが、ユーザの手指の大きさ、及びモーションセンサと手指の距離は、ユーザ毎に異なる。したがって、複数のユーザが同じジェスチャを行っても、表示装置は、ユーザ毎に異なるジェスチャを行っていると判定する場合がある。ジェスチャの認識精度を向上する方法として、特許文献1には、手指の大きさとジェスチャ入力領域の比率に基づいて動作を判定する方法が開示されている。
Nowadays, a display device is mounted with a motion sensor and a virtual button is realized by software, so that a user can operate a video with a finger gesture while looking at the display device. However, the size of the user's finger and the distance between the motion sensor and the finger are different for each user. Therefore, even if a plurality of users perform the same gesture, the display device may determine that a different gesture is performed for each user. As a method for improving the recognition accuracy of a gesture,
ユーザがジェスチャにより表示装置を操作する場合、ユーザは、表示装置に対して様々な位置に立つことが想定される。ユーザが立つ位置が異なると、同じ操作であっても、ユーザの手指の動きが異なる場合がある。しかしながら、特許文献1に開示された技術では、ユーザの手指の動きが考慮されていない。したがって、ユーザが、表示装置に対して異なる方向からジェスチャを行うと、同一の操作を行うためのジェスチャであるにもかかわらず、異なるジェスチャであると認識されてしまう場合があった。その結果、表示装置が、ジェスチャによって表示装置を操作しようとしたユーザの意図と異なる動作を実行してしまう場合があるという問題があった。
When the user operates the display device with a gesture, it is assumed that the user stands in various positions with respect to the display device. When the position where the user stands is different, the movement of the user's finger may be different even in the same operation. However, in the technique disclosed in
そこで、本発明は上述した点に鑑みてなされたものであり、ジェスチャによる表示装置の操作の精度を向上させることができる表示装置、指示検出装置及び画像表示方法を提供することを目的とする。 Accordingly, the present invention has been made in view of the above-described points, and an object thereof is to provide a display device, an instruction detection device, and an image display method that can improve the accuracy of operation of the display device by a gesture.
本発明の表示装置は、画像を表示する表示手段と、前記表示手段の表示面側で物体が動く方向を特定する方向特定手段と、前記方向特定手段が特定した前記物体が動く方向に基づいて、前記表示手段において前記物体により指し示された位置である指示位置を特定する位置特定手段と、を有することを特徴とする。 The display device of the present invention is based on display means for displaying an image, direction specifying means for specifying the direction in which the object moves on the display surface side of the display means, and the direction in which the object specified by the direction specifying means moves. And position specifying means for specifying an indicated position which is a position pointed to by the object in the display means.
本発明の指示検出装置は、画像を表示する表示装置に対する指示を検出する指示検出装置であって、前記表示装置の表示面側で物体が動く方向を特定する方向特定手段と、前記方向特定手段が特定した前記物体が動く方向に基づいて、前記表示装置における前記物体により指し示された位置である指示位置を特定する位置特定手段と、前記位置特定手段が特定した前記指示位置を前記表示装置に送信する送信手段と、を有することを特徴とする。 An instruction detection apparatus according to the present invention is an instruction detection apparatus that detects an instruction to a display device that displays an image, the direction specifying unit specifying a direction in which an object moves on the display surface side of the display device, and the direction specifying unit Based on the moving direction of the object specified by the user, position specifying means for specifying an indicated position that is a position pointed to by the object in the display device; and the display device that specifies the indicated position specified by the position specifying means. And transmitting means for transmitting to.
本発明の画像表示方法は、コンピュータが実行する、表示装置の表示面側で物体が動く方向を特定するステップと、前記物体が動く方向に基づいて、画像を表示する表示手段において前記物体により指し示された位置である指示位置を特定するステップと、前記指示位置に基づいて、前記表示手段に表示する画像を処理するステップと、を有することを特徴とする。 The image display method of the present invention is a computer-executed step of specifying a direction in which an object moves on the display screen side of a display device, and a display means for displaying an image based on the direction in which the object moves. A step of specifying an indicated position which is the indicated position; and a step of processing an image to be displayed on the display means based on the indicated position.
本発明によれば、ジェスチャによる表示装置の操作の精度を向上させることができるという効果を奏する。 According to the present invention, there is an effect that the accuracy of operation of the display device by the gesture can be improved.
以下、本発明の実施の形態について図面を参照して詳細に説明する。
<第1の実施形態>
[表示装置1の概要]
本発明の第1の実施形態における表示装置の動作を説明する。第1の実施形態においては、表示装置1が、モーションセンサの認識領域に侵入したユーザの手指とモーションセンサとの位置関係に基づいて、ユーザが行ったジェスチャの方向を特定する。そして、表示装置1は、特定したジェスチャの方向に基づいて、ユーザの表示装置1における指示位置を特定することにより、操作の内容を特定する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<First Embodiment>
[Outline of display device 1]
The operation of the display device in the first embodiment of the present invention will be described. In the first embodiment, the
表示装置1は、ユーザが行ったジェスチャに対応する動きベクトルの回転処理を行い、固定の位置における動作に変換する。本実施形態における固定の位置は、例えば表示装置1の表示部に対して真正面の位置であるが、真正面以外の位置であってもよい。また、以下の説明においては、表示装置1がユーザの手指の動作を座標変換し、表示装置1の表示部の正面に位置する動作へ変換することを、固定位置化演算と称する。
The
図1は、指示検出システムSの概要を示す図である。指示検出システムSは、表示装置1と、映像信号発生器2と、モーションセンサデバイス3とを有する。図1においては、複数のユーザが、ジェスチャを用いて表示装置1を操作していることを想定している。
FIG. 1 is a diagram showing an overview of the instruction detection system S. The instruction detection system S includes a
表示装置1は、制御部11と、表示部12とを有する。制御部11は、モーションセンサデバイス3から取得した物体の位置を示す座標情報に基づいてユーザのジェスチャを特定し、表示部12を制御する指示検出装置である。モーションセンサデバイス3は、表示装置1の表示部12の表示面側で物体の位置を検出する物体検出手段である。制御部11は、座標情報に基づいて特定したユーザのジェスチャによる指示位置を表示部12に通知する。また、制御部11は、映像信号発生器2を制御して、映像信号発生器2から映像信号を受信する。制御部11は、受信した映像信号を表示部12に入力して、映像信号に基づく画像を表示部12に表示させる。
The
表示部12は、映像信号発生器2が出力した動画及び静止画などの映像を表示する。図1においては制御部11が表示部12と分離しているが、制御部11は表示部12と一体に構成されていてもよい。また、表示装置1は、モーションセンサデバイス3を含んでいてもよい。
The
図2は、ユーザの位置による手指の動作の認識の差異を説明するための図である。図2においては、モーションセンサデバイス3が手指を認識する領域である検出可能領域7にユーザU1、ユーザU2、及びユーザU3の手指が存在し、表示装置1の内部にあるユーザ指示領域8を指し示すことを想定している。
FIG. 2 is a diagram for explaining a difference in recognition of finger movement depending on the position of the user. In FIG. 2, the fingers of the user U1, the user U2, and the user U3 are present in the
まず、各ユーザが、各自の手指をユーザ指示領域8に向う、実線の矢印で示した方向に手指を動かす。モーションセンサデバイス3は、各ユーザの手指の動作を検出する。表示装置1の制御部11は、モーションセンサデバイス3が検出した手指の動作を、ユーザ毎に異なる直線の動作と判定する。本実施形態においては、制御部11は、ユーザ毎に異なる直線の動作と判定された動作を、検出可能領域7の内部にある手指であれば、全て同じ動作に変換する。また、本実施形態における動作の変換処理は、直進する動作に限らず、手を回転させる動作や手を水平及び垂直方向に移動する動作など、他の動作にも適用することができる。
First, each user moves his / her finger in the direction indicated by the solid line arrow toward the user instruction area 8. The
図3は、ユーザの動作について説明するための図である。図3は、各機器及びユーザを上部から下部に対して見た場合の平面である。ユーザU1の手指は、侵入位置P1(X1, Z1)より検出可能領域7に侵入し、動きベクトルL2で示す動作を行い、動作停止位置P3(X3, Z3)で停止する。図3において、手首中心T0は、ユーザの手首の中心を示す。
FIG. 3 is a diagram for explaining a user's operation. FIG. 3 is a plan view when each device and user is viewed from the top to the bottom. The finger of the user U1 enters the
図4は、ユーザの動作に対して行う固定位置化演算について説明するための図である。表示装置1の制御部11は、中心位置P0(X0, Z0)を通りZ軸と平行線である中心線L1と動きベクトルL2の延長線とが交わる位置に基づいて、中心線L1と動きベクトルL2とが成す角度θ1を算出する。表示装置1の制御部11は、中心線L1と動きベクトルL2とが交わる位置を回転中心として、角度θ1だけ動きベクトルL2に回転処理を実施することにより、座標変換後動きベクトルL3を算出する。そして、表示装置1の制御部11は、ユーザU1の動作を座標変換後動きベクトルL3として処理する。
FIG. 4 is a diagram for explaining the fixed positioning calculation performed for the user's operation. The
本実施形態においては、図3で示した固定位置化演算前の状態を、図4で示した固定位置化演算後の状態に変換する処理を、図5のブロック図と図6のフローチャートを用いて説明する。
以下、表示装置1の構成及び動作について詳細に説明する。
In this embodiment, the process of converting the state before the fixed positioning calculation shown in FIG. 3 into the state after the fixed positioning calculation shown in FIG. 4 is performed using the block diagram of FIG. 5 and the flowchart of FIG. I will explain.
Hereinafter, the configuration and operation of the
[表示装置1の構成及び動作]
図5は、表示装置1の構成を示すブロック図である。表示装置1は、制御部11と、表示部12と、記憶部13とを有する。制御部11は、検出座標入力部111と、手位置情報検出部112と、指位置情報検出部113と、侵入角度検出部114と、動きベクトル検出部115と、座標変換部116と、検出動作特定部117と、描画部118と、画像保持部119と、画像選択部120と、拡大縮小部121と、合成部122と、を有する。図5の実線は映像信号の流れを示し、破線はセンサ信号及び制御信号の流れを示す。
[Configuration and Operation of Display Device 1]
FIG. 5 is a block diagram illustrating a configuration of the
まず、表示装置1のブロック毎の動作について説明する。
制御部11は、表示装置1を制御する制御手段であり、例えばCPU(Central Processing Unit)である。制御部11は、後述する記憶部13に記憶されたプログラムを実行することにより、検出座標入力部111、手位置情報検出部112、指位置情報検出部113、侵入角度検出部114、動きベクトル検出部115、座標変換部116、検出動作特定部117、描画部118、画像保持部119、画像選択部120、拡大縮小部121、及び合成部122として機能する。
First, the operation of each block of the
The
表示部12は、画像を表示する、例えば液晶パネルである。表示部12は、映像信号発生器2が出力した動画及び静止画などの映像を表示する。記憶部13は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部13は、制御部11が実行するプログラムを記憶している。
The
検出座標入力部111は、初期化時に、中心位置及び検出可能領域7の座標について確認を行う。具体的には、検出座標入力部111は、中心位置P0(X0,Z0)を確認し、中心位置P0(X0,Z0)を基準とした、検出可能領域7の境界の座標を確認する。検出座標入力部111は、確認した中心位置P0(X0,Z0)及び検出可能領域7を、手位置情報検出部112に通知する。検出座標入力部111は、その後、モーションセンサデバイス3から取得した物体の位置を示す座標情報を手位置情報検出部112に通知する。
The detection coordinate
検出座標入力部111は、モーションセンサデバイス3が物体の動く方向を検出した場合、モーションセンサデバイス3から物体の動く方向を取得してもよい。検出座標入力部111は、例えば図3における物体の動く方向を示す動きベクトルL2を取得し、動きベクトル検出部115に通知する。
The detection coordinate
手位置情報検出部112は、検出座標入力部111から取得した物体の位置を示す座標情報に基づいて、ジェスチャを行うユーザの手指の位置を検出する。また、手位置情報検出部112は、ユーザの手指の他に、所定の指示棒の先端位置を検出してもよい。
そして、手位置情報検出部112は、検出座標入力部111から取得した物体の位置を示す座標情報を、指位置情報検出部113及び侵入角度検出部114に通知するとともに、動きベクトル検出部115に、検出した手の位置を示す情報を通知する。
The hand position
The hand position
指位置情報検出部113は、手位置情報検出部112から取得したユーザの手指に関する座標情報に基づいて指の位置を検出する。そして、指位置情報検出部113は、検出した指の位置を示す情報を、動きベクトル検出部115に通知する。
The finger position
侵入角度検出部114は、手位置情報検出部112から取得したユーザの手指に関する座標情報及び検出可能領域7に基づいて、手指の侵入位置P1(X1, Z1)を検出する。そして、侵入角度検出部114は、中心位置P0(X0, Z0)と検出可能領域7とに基づいて中心線L1を算出する。侵入角度検出部114は、中心線L1と、侵入位置P1(X1, Z1)と、動作停止位置P3(X3, Z3)とに基づいて角度θ1を算出する。侵入角度検出部114は、算出した角度θ1を座標変換部116に伝送する。
The intrusion
動きベクトル検出部115は、表示部12の表示面側で物体が動く方向を特定する方向特定手段として機能する。表示部12の表示面側で動く物体は、例えばユーザの手指、又は所定の指示棒である。手指の侵入位置P1(X1, Z1)と、動作停止位置P3(X3, Z3)を結ぶ線の方向が、物体が動く方向に相当する。動きベクトル検出部115は、特定した動く方向を、例えばベクトルとして検出座標入力部111に通知する。
The motion
動きベクトル検出部115は、手位置情報検出部112及び指位置情報検出部113から取得したユーザの手指に関する座標情報に基づいて、物体が動く方向を示す動きベクトルL2を算出する。具体的には、動きベクトル検出部115は、指示を行う指の先端の位置である指先位置P2(X2, Z2)と、動作停止位置P3(X3, Z3)とに基づいて動きベクトルL2を算出する。そして、動きベクトル検出部115は、座標変換部116に動きベクトルL2を示す情報を通知する。動きベクトル検出部115は、動きベクトルL2を侵入角度検出部114に通知してもよい。
The motion
動きベクトル検出部115は、物体の少なくとも一部の外形を特定してもよい。動きベクトル検出部115は、例えば、ユーザの指の先端、又は手首の中心を特定する。
なお、動きベクトル検出部115は、検出座標入力部111から動きベクトルL2を取得した場合、動きベクトルL2の算出を行わず、検出座標入力部111から取得した動きベクトルL2を座標変換部116に通知する。
The motion
When the motion
座標変換部116は、表示部12の中心位置を通り、かつ表示部12と直交する中心線と、手指が動く方向の直線とが交わる位置を回転中心として、中心線と指が動く方向の直線とが成す角度θ1だけ物体が動く方向を回転させることにより、物体が動く方向を変換する。具体的には、座標変換部116は、侵入角度検出部114から取得した角度θ1、及び動きベクトル検出部115から取得した動きベクトルL2を用いて座標変換を実施して、座標変換後動きベクトルL3を算出する。そして、座標変換部116は、座標変換後動きベクトルL3を検出動作特定部117に通知する。
The coordinate
検出動作特定部117は、動きベクトル検出部115が特定した物体が動く方向に基づいて、表示部12において物体により指し示された位置である指示位置を特定する位置特定手段として機能する。検出動作特定部117は、指示位置を特定することで、ユーザの動作を特定する。具体的には、検出動作特定部117は、座標変換部116から取得した座標変換後動きベクトルL3が示す指示位置に基づいてユーザU1の動作を特定する。本実施形態では、検出動作特定部117は、ユーザが、ユーザの人差し指を座標変換後動きベクトルL3の距離だけ直進させた動作を行ったと特定したことを想定している。
The detection
検出動作特定部117は、特定した動作が画像選択であれば画像選択の指示情報を画像選択部120に通知する。検出動作特定部117は、特定した動作が画像の拡大または縮小であれば、拡大または縮小の指示情報を拡大縮小部121に伝送する。検出動作特定部117は、特定した動作によって画像の描画が必要であれば、描画の指示情報を描画部118に伝送する。
If the specified operation is image selection, the detection
検出動作特定部117は、動きベクトル検出部115が物体の少なくとも一部の外形を特定した場合、特定した外形の物体が動く方向に基づいて、指示位置を特定する。例えば、検出動作特定部117は、動きベクトル検出部115が特定した指の先端が動く方向に基づいて指示位置を特定する。また、検出動作特定部117は、表示部12の画面に対する物体が動く方向の角度に基づいて、指示位置を特定してもよい。具体的には、検出動作特定部117は、中心線L1と動きベクトルL2を延長した直線とがなす角度θ1に基づいて、指示位置を特定する。
When the motion
描画部118は、表示部12に表示された画像に対して、検出動作特定部117が特定した指示位置に対応する処理を実行する。具体的には、描画部118は、検出動作特定部117から取得した描画指示に係る情報に基づいて描画を実施し、その画像を合成部122に伝送する。
The
画像保持部119は、映像信号発生器2から動画または静止画などの画像を取得する。画像保持部119が取得する画像の枚数は、表示装置1の記憶部13が保有するメモリ量に応じて定められる。また、画像保持部119は、画像の取得を完了する時刻に、映像信号発生器2に対して完了を示す制御信号を送信してもよい。その後、画像保持部119は、画像選択部120の指示に応じて保持する画像のうち指示された画像を伝送する。なお、画像保持部119は、画像選択部120の指示がある時刻に映像信号発生器2から画像を取得してもよい。
The
画像選択部120は、検出動作特定部117から取得した指示情報に基づいて画像保持部119から画像を取得する。そして、画像選択部120は、画像保持部119から取得した画像を拡大縮小部121に伝送する。拡大縮小部121は、検出動作特定部117から取得した指示情報に基づいて拡大または縮小を行う。拡大縮小部121は、指示情報を取得していない場合、拡大及び縮小を行わず合成部122に伝送する。
The
合成部122は、描画部118から取得した画像と拡大縮小部121から取得した画像とを合成し、表示部12に伝送する。
以下、ユーザが行う動作に対する固定化演算について詳細に説明する。
The combining
Hereinafter, the immobilization calculation for the operation performed by the user will be described in detail.
[ユーザが行う動作に対する固定化演算処理]
以下の説明においては、表示装置1が映像を表示している状態であることを想定している。以下、表示装置1の制御部11が、ユーザU1が行う動作に対して固定値化演算を施し、ユーザの動作を特定する動作について、図6のフローチャートを用いて説明する。図6は、本発明の第1の実施形態に係る、固定位置化演算のフローチャートである。なお、図6のフローチャートにおいては、モーションセンサデバイス3が、検出座標入力部111に座標情報を通知したものとして説明を行う。
[Fixed operation processing for user actions]
In the following description, it is assumed that the
ステップS100において、検出座標入力部111は、検出可能領域7及び認識可能領域の中心位置P0(X0,Z0)を確認する。検出座標入力部111は、確認した検出可能領域7及び認識可能領域の中心位置P0(X0,Z0)を、手位置情報検出部112に通知する。ステップS101及びステップS102において、手位置情報検出部112は、検出座標入力部111から取得した物体の位置を示す座標情報に基づいて、ユーザの手指を示す情報を検出する。手位置情報検出部112は、ステップS101及びステップS102を、手指を検出するまで繰り返す。
In step S100, the detected coordinate
ステップS103において、手位置情報検出部112は、ステップS101及びステップS102において検出した手指について、検出座標入力部111から取得したユーザの手指を示す情報に基づいて、手首の中心や人差し指の先端などの手の外形を示す座標情報を検出する。手位置情報検出部112は、検出した手の外形を示す座標情報を、指位置情報検出部113、侵入角度検出部114、及び動きベクトル検出部115に通知する。
In step S103, the hand position
ステップS104において、侵入角度検出部114は、手位置情報検出部112から取得したユーザの手指に関する座標情報及び検出可能領域7に基づいて、検出可能領域7への侵入位置P1(X1, Z1)を検出し、座標変換部116に通知する。
ステップS105において、指位置情報検出部113は、手位置情報検出部112から取得したユーザの手指に関する座標情報に基づいて、指の先端に関する座標を検出し、動きベクトル検出部115に通知する。
In step S <b> 104, the intrusion
In step S <b> 105, the finger position
ステップS106において、動きベクトル検出部115は、ステップS105で指位置情報検出部113から取得した指の先端に関する座標に基づいて、指先位置P2(X2, Z2)を特定し、侵入角度検出部114に通知する。
ステップS107において、侵入角度検出部114は、ステップS100からステップS106までの動作で取得した中心位置P0(X0, Z0)と、侵入位置P1(X1, Z1)と、指先位置P2(X2, Z2)とに基づいて、ユーザの手指の侵入角度である角度θ1を算出する。侵入角度検出部114は、検出した角度θ1を座標変換部116に通知する。
In step S106, the motion
In step S107, the intrusion
ステップS108及びステップS109において、動きベクトル検出部115は、ユーザが、指を指先位置P2(X2, Z2)から動作停止位置P3(X3, Z3)まで動かす間、動作完了の確認を実施する。ステップS109において、動きベクトル検出部115は、動作が完了していない場合(S109でNo)、ステップS108に戻り、動作完了の確認を実施する。そして、動きベクトル検出部115は、動作完了を確認した後(S109でYes)、動きベクトルL2を算出し、座標変換部116に動きベクトルL2を通知する。
In step S108 and step S109, the motion
ステップS110及びステップS111において、座標変換部116は、動きベクトル検出部115から動きベクトルL2を取得していない場合、指先位置P2(X2, Z2)、及び動作停止位置P3(X3, Z3)を取得する。座標変換部116は、指先位置P2(X2, Z2)、及び動作停止位置P3(X3, Z3)を取得することで、動作開始座標及び動作終了座標を取得する。なお、座標変換部116は、ステップS110及びステップS111において、侵入角度検出部114から角度θ1を取得してもよい。座標変換部116は、ステップS110及びS111において角度θ1を取得した場合、ステップS113を省略する。
In step S110 and step S111, when the coordinate
ステップS112において、座標変換部116は、ステップS110及びステップS111で取得した動作開始座標及び動作終了座標に基づいて、動きベクトルL2を算出する。座標変換部116は、ステップS110及びステップS111において動きベクトルL2を取得している場合、ステップS112を省略する。
ステップS113において、座標変換部116は、侵入角度検出部114から角度θ1を取得する。座標変換部116は、ステップS110及びステップS111において角度θ1を取得している場合、ステップS113を省略する。
In step S112, the coordinate
In step S113, the coordinate
ステップS114において、座標変換部116は、動きベクトルL2と角度θ1とに基づいて座標変換後動きベクトルL3を算出する。座標変換後動きベクトルL3は、ユーザが表示部12の真正面に位置して手指を動かした場合の動作と同一である。そして、座標変換部116は、座標変換後動きベクトルL3を検出動作特定部117に通知する。
In step S114, the coordinate
ステップS115において、検出動作特定部117は、座標変換後動きベクトルL3に基づいてユーザの手指の動作を特定する。本実施形態において、検出動作特定部117は、ユーザが人差し指を表示部12の正面からL3が示す距離だけ動作したと特定する。
In step S115, the detection
ステップS116において、検出動作特定部117は、検出した動作に基づいて他のブロックに指示を通知する。検出動作特定部117は、表示画像の選択を行う動作を特定した場合、画像選択の指示情報を画像選択部120に通知する。検出動作特定部117は、表示画像の拡大または縮小を行う動作を特定した場合、拡大または縮小の指示情報を拡大縮小部121に通知する。検出動作特定部117は、表示画像に描画を実施する動作を特定した場合は描画部118に描画指示を通知する。
In step S116, the detection
ステップS117において、動きベクトル検出部115は、ユーザが動作を継続しているかどうかを判別する。動きベクトル検出部115は、ユーザが動作を継続している場合(S117でYes)、ステップS108に戻り、動作の確認を行う。動きベクトル検出部115は、ユーザが動作を継続していない場合(S117でNo)、検出動作を終了する。
In step S117, the motion
[第1の実施形態の効果]
以上、説明したように、本実施形態においては、表示装置1の検出動作特定部117は、検出可能領域7に入ったユーザの手指の角度に基づいて、ユーザが表示部12の真正面に位置する場合の動作に変換して、ユーザの指示を特定する。このようにすることで、表示装置1の検出動作特定部117は、ユーザが表示部12に対してどのような位置に存在しても、ユーザが実施したジェスチャ動作を特定できる確率を向上することができる。
[Effect of the first embodiment]
As described above, in the present embodiment, the detection
<第2の実施形態>
第2の実施形態においては、表示装置1の制御部11は、モーションセンサデバイス3と表示部12との距離、及びユーザの手指がモーションセンサデバイス3の認識可能な領域に侵入する角度に基づいて、ユーザが手指のジェスチャを用いて表示部12における指示した場所を特定する。
<Second Embodiment>
In the second embodiment, the
図7は、本発明の第2の実施形態の概要を説明するための図である。表示装置1は、測距センサ15をさらに有する。表示装置1の制御部11は、モーションセンサデバイス3と測距センサ15とを直線で結んだセンサ間距離L4を算出する。なお、表示部12は、モーションセンサデバイス3がユーザの動作を認識する検出可能領域7の外部に位置する。認識外距離L5は、検出可能領域7と表示部12との距離を示す。
FIG. 7 is a diagram for explaining the outline of the second embodiment of the present invention. The
上述したように、表示装置1の制御部11は、表示部12が検出可能領域7の外部に位置する場合、ユーザが指し示す位置を検出可能領域7の内部の座標で表現できない。そこで、表示装置1の制御部11は、検出可能領域7と表示部12との距離である認識外距離L5を算出し、検出可能領域7の外部座標を算出する。本実施形態における表示装置1の検出動作特定部117は、表示部12とモーションセンサデバイス3との距離に基づいて認識外距離L5を算出し、検出可能領域7の内部の座標に認識外距離L5を加えることで、ユーザが指し示す指示位置を特定する。
As described above, when the
[ユーザが指し示す指示位置を特定するための演算方法]
表示装置1の制御部11は、ユーザが指し示す位置を検出するための演算を、XYZの三次元空間をXZ平面とZY平面とに分けて実施する。図8は、本発明の第2の実施形態に係る、XZ平面での演算を説明するための図である。制御部11は、XZ平面において、認識外距離L5と、センサ間距離L4及び角度θ2とを求め、指示座標誤差δ1を算出する。そして、制御部11は、指示座標誤差δ1に基づいてユーザ指示位置のX座標を算出する。
[Calculation method for specifying the indicated position pointed to by the user]
The
まず、表示装置1の制御部11は、測距センサ15を用いてセンサ間距離L4を算出する。次に、制御部11は、測距センサ位置P5(X5, Z5)と、センサ間距離L4と、検出可能領域7とに基づいて測距センサ侵入位置P4(X4, Z4)を算出する。また、制御部11は、角度θ2を算出する。
First, the
制御部11は、センサ間距離L4と、角度θ2と、測距センサ侵入位置P4(X4, Z4)とに基づいて、認識外距離L5を算出する。制御部11は、認識外距離L5及び角度θ1に基づいて指示座標誤差δ1を算出する。表示装置1の検出動作特定部117は、認識境界交点P6(X6, Z6)に指示座標誤差δ1及び認識外距離L5を加算することで、ユーザ指示位置P7(X7, Z7)を算出する。
The
図9は、本発明の第2の実施形態に係る、ZY平面での演算を説明するための図である。制御部11は、ユーザ指示位置のY座標であるY7を、XZ平面での演算で求めた認識外距離L5と、認識境界交点Y6と、指先位置P2(Z2, Y2)とに基づいて算出する。そして、制御部11は、ZY平面でのユーザ指示位置P7(Z7, Y7)を算出する。検出動作特定部117は、物体の先端である指先位置P2(X2,Y2,Z2)を起点として物体が動く方向に延長した線と表示装置1との交点を、ユーザ指示位置P7(X7,Y7,Z7)として特定する。
FIG. 9 is a diagram for explaining calculation on the ZY plane according to the second embodiment of the present invention. The
以下、第2の実施形態の動作を、図10のブロック図と図11のフローチャートを用いて説明する。
図10は、本発明の第2の実施形態に係る、表示装置1の構成を示すブロック図である。第2の実施形態における表示装置1は、第1の実施形態の表示装置1に対して、測距センサ15と、デバイス距離検出部123と、指示座標算出部124とをさらに有する。
The operation of the second embodiment will be described below using the block diagram of FIG. 10 and the flowchart of FIG.
FIG. 10 is a block diagram showing the configuration of the
デバイス距離検出部123は、モーションセンサデバイス3と表示部12との第1距離を測定する。具体的には、デバイス距離検出部123は、測距センサ15を用いて、第1距離であるセンサ間距離L4を測定する。指示座標算出部124は、侵入角度検出部114から取得した角度θ1及び角度θ2と、デバイス距離検出部123から取得したセンサ間距離L4と、動きベクトル検出部115から取得した動きベクトルL2とに基づいてユーザが指し示す座標を算出する。
The device
検出動作特定部117は、デバイス距離検出部123が測定した第1距離に基づいて指示座標算出部124が算出したユーザが指し示す座標に基づいて、指示位置を特定する。なお、侵入角度検出部114は、第1の実施形態の動作と、デバイス距離検出部123が検出したセンサ間距離L4を指示座標算出部124に通知する動作の両方を実施する。
The detection
図11は、本発明の第2の実施形態に係る、固定位置化演算のフローチャートである。なお、以下の説明においては、第1の実施形態の動作と異なる動作について説明し、同様の動作については適宜省略する。 FIG. 11 is a flowchart of the fixed positioning calculation according to the second embodiment of the present invention. In the following description, operations different from those of the first embodiment will be described, and similar operations will be omitted as appropriate.
ステップS200において、デバイス距離検出部123は、モーションセンサデバイス3との距離であるセンサ間距離L4を算出するために、測距センサ位置P5(X5, Z5)及び測距センサ15の座標を取得する。そして、デバイス距離検出部123は、測距センサ位置P5(X5, Z5)と測距センサ15とを結ぶ直線と、測距センサ位置P5(X5, Z5)を通りZ軸と平行な直線とがなす角度θ2を算出する。次に、デバイス距離検出部123は、検出可能領域7に基づいて測距センサ侵入位置P4(X4, Z4)を算出することで認識外距離L5を算出する。
In step S200, the device
ステップS201において、指示座標算出部124は、ユーザ指示位置X7を算出する。まず、指示座標算出部124は、侵入角度検出部114から、ユーザの指の指先位置P2(X2, Z2)及び中心線L1に基づいて算出した角度θ1を取得し、認識外距離L5とtanθ1とを積算することで指示座標誤差δ1を算出する。次に、指示座標算出部124は、ユーザの指の指先位置P2(X2, Z2)と検出可能領域7とに基づいて認識境界交点P6(X6, Z6)を算出し、X6に指示座標誤差δ1を加算することでユーザ指示位置X7を算出する。
In step S201, the designated coordinate
ステップS202において、指示座標算出部124は、ユーザ指示位置Y7を算出する。まず、指示座標算出部124は、指先位置P2のZ軸の値であるZ2、認識境界交点P6のZ軸の値であるZ6、及び認識外距離L5に基づいて、ユーザの人差し指の先端を示す指先位置P2から認識境界交点P6までの距離と、ユーザの人差し指の先端の先端を示す指先位置P2から表示部12までの距離との比を算出する。次に、指示座標算出部124は、距離の比に応じて、指先位置P2のY軸の値であるY2、及び認識境界交点P6のY軸の値であるY6に基づいてユーザ指示位置Y7を算出する。
In step S202, the designated coordinate
検出動作特定部117は、上述したステップS201及びステップS202で算出したユーザ指示位置P7(X7, Y7)に基づいてユーザの動作を特定する。具体的には、検出動作特定部117は、センサ間距離L4と、モーションセンサデバイス3が物体を検出できる検出可能領域7における物体を検出した位置と、に基づいて特定した物体と表示部12との第2距離に基づいて、指示位置を特定する。第2距離は、認識外距離L5に相当する。検出動作特定部117は、特定した指示位置を描画部118に通知する。このようにすることで、表示装置1の描画部118は、ユーザがジェスチャにより指示した内容を処理することができる。
The detection
(変形例)
以上の説明においては、デバイス距離検出部123は、測距センサ15を用いて、第1距離であるセンサ間距離L4を検出したが、デバイス距離検出部123は、物体と表示部12との距離を測定してもよい。測距センサ15は、例えば赤外線測距センサを含み、表示部12に対する物体の距離と方位とを検出する。デバイス距離検出部123は、測距センサ15が検出した物体の距離と方位とに基づいて、物体と表示部12との距離を測定する測定手段として機能する。検出動作特定部117は、デバイス距離検出部123が特定した物体と表示部12との距離に基づいて、指示位置を特定する。
(Modification)
In the above description, the device
[第2の実施形態の効果]
以上、説明したように、表示装置1の制御部11は、モーションセンサデバイス3と表示部12との距離を考慮した演算を行うことで、モーションセンサデバイス3及びユーザの位置に関係なく、検出動作特定部117はユーザが指し示す指示位置を特定することができる。このようにすることで、ユーザは、機器やユーザの位置に関係なく、ジェスチャによる制御を行うことができる。そして、ユーザは、例えば意図した座標を中心として、表示装置1の表示部12に表示された画像に対して拡大や縮小などを実施することができる。
[Effects of Second Embodiment]
As described above, the
<第3の実施形態>
第3の実施形態では、表示装置1の制御部11は、ユーザの手指がモーションセンサデバイス3の認識可能な領域に侵入する角度に基づいて、ユーザが指し示す座標を算出するか、常に固定の位置における動作に変換するかを判定する。例えば、表示装置1の制御部11は、手指等の物体が侵入する角度が閾値を超えた場合に、物体が動く方向に基づいてユーザが指し示す座標を算出するか、固定の位置における動作に変換するかを判定する。
<Third Embodiment>
In the third embodiment, the
図12は、本発明の第3の実施形態の概要を説明するための図である。図12において、ユーザU2は表示装置1の正面に位置し、ユーザU1は表示装置1の近傍に位置していることを想定している。そして、ユーザU1は領域8aを、ユーザU2は領域8bを、人差し指で指し示し、指し示す距離を変更する動作を行うことが想定されている。このとき、ユーザU1は、指先を表示装置1の表示部12に向けていない状態で、表示部12に対して垂直方向、つまりZ軸方向に指を動作させる。一方、ユーザU2は、指先を表示装置1の表示部12に向けた状態で、表示部12に対して垂直方向、つまりZ軸方向に指を動作させてユーザU1と同一の動作を行うことが想定される。したがって、表示装置1の制御部11は、ユーザの位置と表示部12の位置との関係に応じて、第1の実施形態及び第2の実施形態において説明した固定位置化演算の実施を行うか判定する。
FIG. 12 is a diagram for explaining the outline of the third embodiment of the present invention. In FIG. 12, it is assumed that the user U <b> 2 is located in front of the
図13は、本発明の第3の実施形態に係る、指示位置の差異を説明するための図である。表示装置1の検出動作特定部117は、ユーザが図13に示した動作L6を実施する場合、指し示す位置をユーザ指示位置P7(X7, Y7, Z7)ではなく、ユーザ指示位置P8(X2, Y2, Z7)と特定する。
FIG. 13 is a diagram for explaining a difference in designated position according to the third embodiment of the present invention. When the user performs the operation L6 shown in FIG. 13, the detection
検出動作特定部117は、固定位置化演算の実施を行うと判定した場合、物体が動く方向が第1の範囲である領域8aである場合に、物体の先端位置を起点として物体が動く方向に延長した線と表示部12との交点であるユーザ指示位置P7(X7, Y7, Z7)を指示位置として特定する。また、検出動作特定部117は、物体が動く方向が第1の範囲と異なる第2の範囲である領域8bである場合に、物体の先端位置を起点として表示部12に直交する方向に延長した線と表示部12との交点をユーザ指示位置P8(X2, Y2, Z7)として特定する。なお、検出動作特定部117は、物体の先端位置を起点として物体が動く方向に延長した線が表示部12の表示領域と交わらない場合に、物体の先端位置を起点として表示部12に直交する方向に延長した線と表示部12との交点を指示位置として特定する。
When it is determined that the fixed positioning calculation is to be performed, the detection
本実施形態における表示装置1の制御部11は、第2の実施形態で説明した方法を用いてユーザが指し示す領域を算出し、ユーザが指し示す領域が表示部12の表示領域の内部か否かに基づいて固定位置化演算を実施するか否かを判定する。なお、ユーザは、固定位置化演算を実施するか否かを判定する領域を設定することができる。例えば、ユーザは、表示部12の表示領域における任意の領域を特定し、ユーザが特定した領域の内部を指し示す場合には固定化演算を行わないように設定する。
以下、図14のブロック図と図15及び図16のフローチャートを用いて、第3の実施形態の表示装置1の構成及び動作を説明する。
The
Hereinafter, the configuration and operation of the
[第3の実施形態に係る表示装置1の構成及び動作]
図14は、本発明の第3及び第4の実施形態に係る、表示装置1の構成を示すブロック図である。表示装置1は、算出方法判定部125をさらに有する。算出方法判定部125は、固定位置化演算を実施するか否かを判定する。
[Configuration and Operation of
FIG. 14 is a block diagram showing the configuration of the
算出方法判定部125は、ユーザが固定位置化演算を実施するか否かを判定する領域を設定した場合、侵入角度検出部114からユーザU1の手指の侵入角度である角度θ1を取得する。算出方法判定部125は、角度θ1に基づいて、ユーザが指示した指示位置が、ユーザが特定した領域の内部を指し示すか否かを判定する。そして、算出方法判定部125は、指示位置が領域の内部を指し示すか否かに基づいて、固定位置化演算を実施するか否かを判定する。
The calculation method determination unit 125 acquires an angle θ1 that is an intrusion angle of the user U1's finger from the intrusion
算出方法判定部125は、ユーザが指し示す領域が表示部12の表示領域の内部か否かに基づいて判定する場合、指示座標算出部124からユーザU1の手指が指示する領域として図13におけるユーザ指示位置P8(X2, Y2, Z7)とユーザ指示位置P7(X7, Y7, Z7)とを取得する。そして、算出方法判定部125は、ユーザ指示位置P7(X7, Y7, Z7)が表示部12の表示領域にある場合は、ユーザが指示する座標としてユーザ指示位置P7(X7, Y7, Z7)を採用する。算出方法判定部125は、ユーザ指示位置P7(X7, Y7, Z7)が表示部12の表示領域外にある場合は、ユーザが指示する座標としてユーザ指示位置P8(X2, Y2, Z7)を採用する。
When the calculation method determination unit 125 determines based on whether or not the region pointed to by the user is inside the display region of the
また、算出方法判定部125は、ユーザ指示位置P8(X2, Y2, Z7)を採用する場合は固定位置化演算を実施しないことを座標変換部116及び検出動作特定部117に通知する。算出方法判定部125は、ユーザ指示位置P7(X7, Y7, Z7)を採用する場合は第2の実施形態と同一の座標変換を実施するように座標変換部116及び検出動作特定部117に通知する。
Further, the calculation method determination unit 125 notifies the coordinate
図15は、本発明の第3の実施形態に係る、固定位置化演算のフローチャート(1)である。図16は、本発明の第3の実施形態に係る、固定位置化演算のフローチャート(2)である。なお、以下の説明においては、第1の実施形態の動作、及び第2の実施形態の動作と異なる動作について説明し、同様の動作については適宜省略する。
以下、図15及び図16を用いて、第3の実施形態の表示装置1の動作を説明する。
FIG. 15 is a flowchart (1) of the fixed positioning calculation according to the third embodiment of the present invention. FIG. 16 is a flowchart (2) of the fixed positioning calculation according to the third embodiment of the present invention. In the following description, an operation different from the operation of the first embodiment and the operation of the second embodiment will be described, and the same operation will be omitted as appropriate.
Hereinafter, the operation of the
ステップS300において、算出方法判定部125は、判定モードを確認する。判定モードは、ユーザがメニューなどで選択することができる。 In step S300, the calculation method determination unit 125 confirms the determination mode. The determination mode can be selected by the user using a menu or the like.
ステップS301において、算出方法判定部125は、侵入角度検出部114から取得した角度θ1と、指示座標算出部124から取得したユーザ指示位置P7(X7, Y7, Z7)及びユーザ指示位置P8(X2, Y2, Z7)とに基づいてユーザ指示位置の採用と、固定位置化演算の判定とを実施する。
In step S301, the calculation method determination unit 125 calculates the angle θ1 acquired from the intrusion
ステップS302において、算出方法判定部125は、ステップS301で実施した判定結果に基づいてユーザ指示位置を決定する。そして、算出方法判定部125は、判定結果に基づき、座標変換部116及び検出動作特定部117に固定位置化演算を実施するか否かを通知する。ステップS108からステップS112における動作は、第1の実施形態及び第2の実施形態と同様であるので省略する。
In step S302, the calculation method determination unit 125 determines the user instruction position based on the determination result performed in step S301. Based on the determination result, the calculation method determination unit 125 notifies the coordinate
ステップS303において、座標変換部116は、ステップS302において算出方法判定部125から取得した判定結果に基づき固定位置化演算の実施可否を判定する。座標変換部116は、ユーザ指示位置が表示部12の表示領域内であり固定位置化演算を実施する場合(S303でYes)、ステップS113に進む。座標変換部116は、ユーザ指示位置が表示部12の表示領域外であり固定位置化演算を実施しない場合(S303でNo)、ステップS115に進む。
In step S303, the coordinate
ステップS113において、検出動作特定部117は、ユーザの指が指し示す領域はユーザの指の先端を延長した場所ではなく、ユーザの指を表示装置の垂直方向、つまりZ軸方向に延長した場所を指示位置として特定する。以下、ステップS114からステップS117までの動作は第1の実施形態及び第2の実施形態と同様であるので省略する。
In step S113, the detection
[第3の実施形態の効果]
以上、説明したように、本実施形態では、表示装置1の制御部11が、表示部12の位置とユーザの位置との関係を、ユーザの指が指し示す領域で判定する。そして、制御部11は、ユーザが表示部12の真横など近接する位置に存在する場合は、ユーザのジェスチャ動作を、ユーザが正面に位置する場合の動作と同一と判定する。このようにすることで、制御部11は、ユーザが表示部12を斜めから指し示していないと想定される位置に存在しても、ユーザに違和感を与えないジェスチャ動作の判定を実施することができる。
[Effect of the third embodiment]
As described above, in the present embodiment, the
<第4の実施形態>
第4の実施形態においては、表示装置1の制御部11は、複数人のユーザがモーションセンサデバイス3の認識領域内に存在し、ジェスチャ動作を実施する場合に、誰の動作を採用するかを判定する調停処理を行う。以下、表示装置1の制御部11が行う調停処理について、図14のブロック図、図17、図18、及び図19のフローチャートを用いて説明する。なお、本実施形態において、動きベクトル検出部115は、特定した動作の動作開始時刻及び動作完了時刻を記憶する。
<Fourth Embodiment>
In the fourth embodiment, the
図17は、本発明の第4の実施形態に係る、複数人が同時に動作する場合の処理を示すフローチャート(1)である。図18は、本発明の第4の実施形態に係る、複数人が同時に動作する場合の処理を示すフローチャート(2)である。なお、以下の説明においては、第1の実施形態の動作、第2の実施形態の動作、及び第3の実施形態の動作と異なる動作について説明し、同様の動作については適宜省略する。 FIG. 17 is a flowchart (1) showing a process when a plurality of persons operate simultaneously according to the fourth embodiment of the present invention. FIG. 18 is a flowchart (2) showing a process when a plurality of persons operate simultaneously according to the fourth embodiment of the present invention. In the following description, an operation different from the operation of the first embodiment, the operation of the second embodiment, and the operation of the third embodiment will be described, and the same operation will be omitted as appropriate.
ステップS400において、動きベクトル検出部115は、複数人の動きベクトルを同時に特定した場合、各動きベクトルについて採用するか否かの判定を、後述する図19のフローチャートを用いて実施する。ステップS401において、動きベクトル検出部115は、採用する動きベクトルが存在する場合はステップS110に、採用する動きベクトルが存在しない場合はステップS108に戻る。
In step S400, when the motion
図19は、本発明の第4の実施形態に係る、複数人が同時に動作する場合の調停処理を示すフローチャートである。動きベクトル検出部115は、上述したステップS400において、動きベクトル検出部115が特定した動きベクトル全てについて、調停処理を実施する。
FIG. 19 is a flowchart illustrating an arbitration process when a plurality of persons operate simultaneously according to the fourth embodiment of the present invention. The motion
ステップS411において、動きベクトル検出部115は、特定した動作の順序が1位か否かを判定する。具体的には、動きベクトル検出部115は、記憶した動作開始時刻の順序を検索し、動作開始時刻の順序が1位か否かを判定する。動きベクトル検出部115は、動作の順序が1位である場合はステップS412に、動作の順序が1位でない場合はステップS416に進む。
In step S411, the motion
ステップS412において、動きベクトル検出部115は、同じ順位の動きベクトルが他に無いかを判定する。具体的には、動きベクトル検出部115は、動作開始時刻が同一の動きベクトルが有るか否かを判定する。動きベクトル検出部115は、同じ順位の動きベクトルが他に無い場合、つまり、動作開始が一番早い動きベクトルだと判定した場合はステップS415に進み、同じ順位の動きベクトルが他にある場合はステップS413に進む。
In step S412, the motion
ステップS413において、動きベクトル検出部115は、動作完了時刻の順序を検索する。動きベクトル検出部115は、動作の順序が最下位である場合又は特定した動作が動作を継続している場合、最後まで動作していたと判断し、ステップS414に進む。動きベクトル検出部115は、動作の順序が最下位ではない場合はステップS415に進む。
In step S413, the motion
ステップS414において、動きベクトル検出部115は、調停処理を実施した動きベクトルを採用する。そして、動きベクトル検出部115は、採用した動きベクトルの情報を、指示座標算出部124に通知する。ステップS415において、動きベクトル検出部115は、調停処理を実施した動きベクトルを採用せずに消去する。
In step S414, the motion
ステップS115において、検出動作特定部117は、動きベクトル検出部115が複数の物体が動く方向を特定した場合に、複数の物体が動きを開始した順序に基づいて選択した物体が動く方向に基づいて、指示位置を特定する。具体的には、検出動作特定部117は、複数の物体のうち、最も早く動きを開始した物体が動く方向に基づいて、指示位置を特定する。また、例えば、検出動作特定部117は、最も早く動きを開始した物体が複数ある場合、複数の物体のうち、最も長く動きを継続した物体が動く方向に基づいて、指示位置を特定する。具体的には、検出動作特定部117は、同時に動いている複数の物体のうち、最後に動いていた物体が動く方向に基づいて、指示位置を特定する。
In step S115, when the motion
[第4の実施形態の効果]
以上説明したように、本実施形態における表示装置1の動きベクトル検出部115は、複数人のユーザがモーションセンサデバイスの認識領域内に存在する場合に、ユーザの動作開始時刻と動作完了時刻とに基づいて、ジェスチャ動作を採用するかの判定を行う。表示装置1の動きベクトル検出部115は、動作開始が一番早いジェスチャを採用し、二番目以降のジェスチャは消去することで、複数人のユーザのうち、誰のジェスチャが採用されたかを容易に判別できる。また、動きベクトル検出部115は、ユーザが同時にジェスチャ動作を行った場合、ジェスチャ動作が長い方を採用することで、ユーザに違和感を与えない調停処理を実施することができる。
[Effect of the fourth embodiment]
As described above, the motion
以上、本発明の実施の形態、およびいくつかの実施の形態をもとに説明した。これらの任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。また本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 In the above, it demonstrated based on embodiment of this invention and some embodiment. New embodiments resulting from any combination of these are also included in the embodiments of the present invention. The effect of the new embodiment produced by the combination has the effect of the original embodiment. The technical scope of the present invention is not limited to the scope described in the above embodiment, and various modifications and changes can be made within the scope of the gist.
例えば、以上の説明においては、表示装置1が、ユーザが行ったジェスチャに対応する動きベクトルの回転処理を行うことにより指示位置を特定する方法について説明したが、動きベクトルに基づいて指示位置を特定する方法は、これに限らない。例えば、表示装置1は、動きベクトルの延長線と表示部12とが交わる位置を指示位置として特定してもよい。
For example, in the above description, the method in which the
1・・・表示装置
12・・・表示部
115・・・動きベクトル検出部
117・・・検出動作特定部
118・・・描画部
123・・・デバイス距離検出部
DESCRIPTION OF
Claims (18)
前記表示手段の表示面側で物体が動く方向を特定する方向特定手段と、
前記方向特定手段が特定した前記物体が動く方向に基づいて、前記表示手段において前記物体により指し示された位置である指示位置を特定する位置特定手段と、
を有することを特徴とする表示装置。 Display means for displaying an image;
Direction specifying means for specifying the direction in which the object moves on the display surface side of the display means;
Position specifying means for specifying an indicated position which is a position pointed to by the object on the display means based on a moving direction of the object specified by the direction specifying means;
A display device comprising:
請求項1に記載の表示装置。 The position specifying means specifies the indicated position based on an angle of a moving direction of the object with respect to a screen of the display means.
The display device according to claim 1.
請求項1又は2に記載の表示装置。 The position specifying means specifies, as the indicated position, an intersection between a line extending in the direction in which the object moves from the tip of the object and the display means,
The display device according to claim 1.
前記位置特定手段は、前記変換手段が変換した後の前記物体が動く方向と前記表示手段との交点を前記指示位置として特定することを特徴とする、
請求項3に記載の表示装置。 The object passes through the center position of the display means and is perpendicular to the display means, and the position where the straight line in the direction in which the object moves intersects the rotation center. Further comprising conversion means for converting the direction of movement of the object by rotating the direction of movement;
The position specifying means specifies, as the indicated position, an intersection between a direction in which the object moves after the conversion means converts and the display means.
The display device according to claim 3.
請求項3又は4に記載の表示装置。 When the moving direction of the object is in the first range, the position specifying means uses an intersection of a line extending in the moving direction of the object from the tip position of the object and the display means as the indicated position. When the direction in which the object moves is a second range different from the first range, a line extended in a direction perpendicular to the display means from the tip position of the object and the display means An intersection point is specified as the indicated position,
The display device according to claim 3 or 4.
請求項5に記載の表示装置。 The position specifying means is orthogonal to the display means starting from the tip position of the object when a line extending in the moving direction of the object from the tip position of the object does not intersect the display area of the display means A point of intersection of the line extended in the direction and the display means is specified as the indicated position,
The display device according to claim 5.
請求項1から6のいずれか一項に記載の表示装置。 The position specifying means specifies the indicated position based on a motion vector of the object starting from a position where the object enters a detectable region where the movement of the object can be detected.
The display device according to any one of claims 1 to 6.
前記位置特定手段は、特定した外形の物体が動く方向に基づいて、前記指示位置を特定することを特徴とする、
請求項1から7のいずれか一項に記載の表示装置。 The direction specifying means specifies an outer shape of at least a part of the object;
The position specifying means specifies the indicated position based on a direction in which an object of the specified outer shape moves,
The display device according to claim 1.
請求項1から8のいずれか一項に記載の表示装置。 The image processing apparatus further comprises processing execution means for executing processing corresponding to the designated position specified by the position specifying means for the image displayed on the display means.
The display device according to claim 1.
前記位置特定手段は、前記測定手段が測定した前記第1距離にさらに基づいて、前記指示位置を特定することを特徴とする、
請求項1から9のいずれか一項に記載の表示装置。 A measuring means for measuring a first distance between the object detecting means for detecting the position of the object on the display surface side of the display means and the display means;
The position specifying means specifies the indicated position further based on the first distance measured by the measuring means;
The display device according to any one of claims 1 to 9.
請求項10に記載の表示装置。 The position specifying means specifies the object and the display specified based on the first distance measured by the measuring means and a position where the object detecting means detects the object in a detectable region where the object can be detected. The pointing position is specified based on a second distance from the means;
The display device according to claim 10.
前記位置特定手段は、前記測定手段が測定した前記距離にさらに基づいて、前記指示位置を特定することを特徴とする、
請求項1から9のいずれか一項に記載の表示装置。 A measuring unit for measuring a distance between the object and the display unit;
The position specifying means specifies the indicated position further based on the distance measured by the measuring means;
The display device according to any one of claims 1 to 9.
請求項1から12のいずれか一項に記載の表示装置。 The position specifying means, when the direction specifying means specifies the direction in which the plurality of objects move, based on the direction in which the selected object moves based on the order in which the plurality of objects started moving, Characterized by specifying
The display device according to any one of claims 1 to 12.
請求項13に記載の表示装置。 The position specifying means specifies the indicated position based on a direction in which an object that has started moving most quickly among the plurality of objects moves.
The display device according to claim 13.
請求項14に記載の表示装置。 The position specifying means specifies the indicated position based on a moving direction of an object that has continued to move the longest among the plurality of objects when there are a plurality of objects that have started moving the earliest. ,
The display device according to claim 14.
請求項13に記載の表示装置。 The position specifying means specifies the indicated position based on a moving direction of an object that moved last among the plurality of objects moving simultaneously,
The display device according to claim 13.
前記表示装置の表示面側で物体が動く方向を特定する方向特定手段と、
前記方向特定手段が特定した前記物体が動く方向に基づいて、前記表示装置における前記物体により指し示された位置である指示位置を特定する位置特定手段と、
前記位置特定手段が特定した前記指示位置を前記表示装置に送信する送信手段と、
を有することを特徴とする指示検出装置。 An instruction detection device that detects an instruction to a display device that displays an image,
Direction specifying means for specifying a direction in which an object moves on the display surface side of the display device;
Position specifying means for specifying an indicated position, which is a position pointed to by the object in the display device, based on a moving direction of the object specified by the direction specifying means;
Transmitting means for transmitting the indicated position specified by the position specifying means to the display device;
An instruction detection device comprising:
表示装置の表示面側で物体が動く方向を特定するステップと、
前記物体が動く方向に基づいて、画像を表示する表示手段において前記物体により指し示された位置である指示位置を特定するステップと、
前記指示位置に基づいて、前記表示手段に表示する画像を処理するステップと、
を有することを特徴とする画像表示方法。 The computer runs,
Identifying the direction in which the object moves on the display surface side of the display device;
Identifying a pointing position that is a position pointed to by the object on a display means for displaying an image based on a moving direction of the object;
Processing an image to be displayed on the display means based on the indicated position;
An image display method characterized by comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017000754A JP2018109911A (en) | 2017-01-05 | 2017-01-05 | Display device, instruction detection device, and image display method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017000754A JP2018109911A (en) | 2017-01-05 | 2017-01-05 | Display device, instruction detection device, and image display method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018109911A true JP2018109911A (en) | 2018-07-12 |
Family
ID=62844440
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017000754A Pending JP2018109911A (en) | 2017-01-05 | 2017-01-05 | Display device, instruction detection device, and image display method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018109911A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230057965A1 (en) * | 2020-01-15 | 2023-02-23 | Ecovacs Robotics Co., Ltd. | Robot and control method therefor |
-
2017
- 2017-01-05 JP JP2017000754A patent/JP2018109911A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230057965A1 (en) * | 2020-01-15 | 2023-02-23 | Ecovacs Robotics Co., Ltd. | Robot and control method therefor |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6057396B2 (en) | 3D user interface device and 3D operation processing method | |
| KR102408359B1 (en) | Electronic device and method for controlling using the electronic device | |
| JP7614268B2 (en) | Information processing device, information processing method, and program | |
| JP6288372B2 (en) | Interface control system, interface control device, interface control method, and program | |
| CN108292448B (en) | Information processing device, information processing method, and program | |
| KR101844390B1 (en) | Systems and techniques for user interface control | |
| JP5343773B2 (en) | Information processing apparatus, display control method, and display control program | |
| JP2011054118A (en) | Apparatus, method, and program for controlling display | |
| JP2016194799A (en) | Image analysis apparatus and image analysis method | |
| JPWO2015015843A1 (en) | Gesture determination device and method, gesture operation device, program, and recording medium | |
| JP6110893B2 (en) | Virtual space location designation method, program, recording medium recording program, and apparatus | |
| CN108027656B (en) | Input Devices, Input Methods and Procedures | |
| CN103150009A (en) | Information processing apparatus, information processing method, and program | |
| CN102314301A (en) | Virtual touch sensing system and method | |
| US11199946B2 (en) | Information processing apparatus, control method, and program | |
| US20150339859A1 (en) | Apparatus and method for navigating through volume image | |
| JP2018142109A (en) | Display control program, display control method, and display control apparatus | |
| JP2006209359A (en) | Apparatus, method and program for recognizing indicating action | |
| CN110949271A (en) | Operation processing device | |
| CN117784926A (en) | Control device, control method, and computer-readable storage medium | |
| CN111565898A (en) | Operating the boot system | |
| US12461599B2 (en) | Detection processing that detects a number of contacts between fingertips of a hand | |
| JP4563723B2 (en) | Instruction motion recognition device and instruction motion recognition program | |
| JP2018109911A (en) | Display device, instruction detection device, and image display method | |
| JP4244202B2 (en) | Operation input device and operation input method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20180227 |