[go: up one dir, main page]

JP2018109911A - Display device, instruction detection device, and image display method - Google Patents

Display device, instruction detection device, and image display method Download PDF

Info

Publication number
JP2018109911A
JP2018109911A JP2017000754A JP2017000754A JP2018109911A JP 2018109911 A JP2018109911 A JP 2018109911A JP 2017000754 A JP2017000754 A JP 2017000754A JP 2017000754 A JP2017000754 A JP 2017000754A JP 2018109911 A JP2018109911 A JP 2018109911A
Authority
JP
Japan
Prior art keywords
display
unit
display device
user
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017000754A
Other languages
Japanese (ja)
Inventor
田中 克昌
Katsumasa Tanaka
克昌 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017000754A priority Critical patent/JP2018109911A/en
Publication of JP2018109911A publication Critical patent/JP2018109911A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device capable of improving the accuracy of an operation of the display device by a user's gesture.SOLUTION: A display device 1 includes: a display part 12 for displaying an image; a motion vector detection part 115 for specifying a direction in which an object moves at a display surface side of display means; and a detection operation specification part 117 for specifying an indication position being a position indicated by the object in the display part 12 on the basis of the direction with the object moving therein, specified by the motion vector detection part 115.SELECTED DRAWING: Figure 4

Description

本発明は、ユーザのジェスチャモーションを取得して表示画像を制御する表示装置、指示検出装置及び画像表示方法に関するものである。   The present invention relates to a display device that acquires a user's gesture motion and controls a display image, an instruction detection device, and an image display method.

昨今、表示装置がモーションセンサを実装して仮想的な釦をソフトウエアで実現することで、ユーザは、表示装置を見ながら映像の操作を手指のジェスチャで行うことができる。ところが、ユーザの手指の大きさ、及びモーションセンサと手指の距離は、ユーザ毎に異なる。したがって、複数のユーザが同じジェスチャを行っても、表示装置は、ユーザ毎に異なるジェスチャを行っていると判定する場合がある。ジェスチャの認識精度を向上する方法として、特許文献1には、手指の大きさとジェスチャ入力領域の比率に基づいて動作を判定する方法が開示されている。   Nowadays, a display device is mounted with a motion sensor and a virtual button is realized by software, so that a user can operate a video with a finger gesture while looking at the display device. However, the size of the user's finger and the distance between the motion sensor and the finger are different for each user. Therefore, even if a plurality of users perform the same gesture, the display device may determine that a different gesture is performed for each user. As a method for improving the recognition accuracy of a gesture, Patent Document 1 discloses a method for determining an action based on a ratio between a finger size and a gesture input area.

特開2014−203367号公報JP 2014-203367 A

ユーザがジェスチャにより表示装置を操作する場合、ユーザは、表示装置に対して様々な位置に立つことが想定される。ユーザが立つ位置が異なると、同じ操作であっても、ユーザの手指の動きが異なる場合がある。しかしながら、特許文献1に開示された技術では、ユーザの手指の動きが考慮されていない。したがって、ユーザが、表示装置に対して異なる方向からジェスチャを行うと、同一の操作を行うためのジェスチャであるにもかかわらず、異なるジェスチャであると認識されてしまう場合があった。その結果、表示装置が、ジェスチャによって表示装置を操作しようとしたユーザの意図と異なる動作を実行してしまう場合があるという問題があった。   When the user operates the display device with a gesture, it is assumed that the user stands in various positions with respect to the display device. When the position where the user stands is different, the movement of the user's finger may be different even in the same operation. However, in the technique disclosed in Patent Document 1, the movement of the user's finger is not considered. Therefore, when the user performs a gesture from a different direction with respect to the display device, the gesture may be recognized as a different gesture although the gesture is for performing the same operation. As a result, there has been a problem that the display device may perform an operation different from the intention of the user who tried to operate the display device with a gesture.

そこで、本発明は上述した点に鑑みてなされたものであり、ジェスチャによる表示装置の操作の精度を向上させることができる表示装置、指示検出装置及び画像表示方法を提供することを目的とする。   Accordingly, the present invention has been made in view of the above-described points, and an object thereof is to provide a display device, an instruction detection device, and an image display method that can improve the accuracy of operation of the display device by a gesture.

本発明の表示装置は、画像を表示する表示手段と、前記表示手段の表示面側で物体が動く方向を特定する方向特定手段と、前記方向特定手段が特定した前記物体が動く方向に基づいて、前記表示手段において前記物体により指し示された位置である指示位置を特定する位置特定手段と、を有することを特徴とする。   The display device of the present invention is based on display means for displaying an image, direction specifying means for specifying the direction in which the object moves on the display surface side of the display means, and the direction in which the object specified by the direction specifying means moves. And position specifying means for specifying an indicated position which is a position pointed to by the object in the display means.

本発明の指示検出装置は、画像を表示する表示装置に対する指示を検出する指示検出装置であって、前記表示装置の表示面側で物体が動く方向を特定する方向特定手段と、前記方向特定手段が特定した前記物体が動く方向に基づいて、前記表示装置における前記物体により指し示された位置である指示位置を特定する位置特定手段と、前記位置特定手段が特定した前記指示位置を前記表示装置に送信する送信手段と、を有することを特徴とする。   An instruction detection apparatus according to the present invention is an instruction detection apparatus that detects an instruction to a display device that displays an image, the direction specifying unit specifying a direction in which an object moves on the display surface side of the display device, and the direction specifying unit Based on the moving direction of the object specified by the user, position specifying means for specifying an indicated position that is a position pointed to by the object in the display device; and the display device that specifies the indicated position specified by the position specifying means. And transmitting means for transmitting to.

本発明の画像表示方法は、コンピュータが実行する、表示装置の表示面側で物体が動く方向を特定するステップと、前記物体が動く方向に基づいて、画像を表示する表示手段において前記物体により指し示された位置である指示位置を特定するステップと、前記指示位置に基づいて、前記表示手段に表示する画像を処理するステップと、を有することを特徴とする。   The image display method of the present invention is a computer-executed step of specifying a direction in which an object moves on the display screen side of a display device, and a display means for displaying an image based on the direction in which the object moves. A step of specifying an indicated position which is the indicated position; and a step of processing an image to be displayed on the display means based on the indicated position.

本発明によれば、ジェスチャによる表示装置の操作の精度を向上させることができるという効果を奏する。   According to the present invention, there is an effect that the accuracy of operation of the display device by the gesture can be improved.

指示検出システムの概要を示す図である。It is a figure which shows the outline | summary of an instruction | indication detection system. ユーザの位置による手指の動作の認識の差異を説明するための図である。It is a figure for demonstrating the difference in recognition of the operation | movement of the finger by a user's position. ユーザの動作について説明するための図である。It is a figure for demonstrating a user's operation | movement. ユーザの動作に対して行う固定位置化演算について説明するための図である。It is a figure for demonstrating the fixed positioning calculation performed with respect to a user's operation | movement. 表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of a display apparatus. 固定位置化演算のフローチャートである。It is a flowchart of a fixed positioning calculation. 本発明の第2の実施形態の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the 2nd Embodiment of this invention. XZ平面での演算を説明するための図である。It is a figure for demonstrating the calculation in a XZ plane. ZY平面での演算を説明するための図である。It is a figure for demonstrating the calculation in a ZY plane. 表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of a display apparatus. 固定位置化演算のフローチャートである。It is a flowchart of a fixed positioning calculation. 本発明の第3の実施形態の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the 3rd Embodiment of this invention. 指示位置の差異を説明するための図である。It is a figure for demonstrating the difference of an instruction | indication position. 表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of a display apparatus. 固定位置化演算のフローチャート(1)である。It is a flowchart (1) of fixed positioning calculation. 固定位置化演算のフローチャート(2)である。It is a flowchart (2) of fixed positioning calculation. 複数人が同時に動作する場合の処理を示すフローチャート(1)である。It is a flowchart (1) which shows a process in case a several person operate | moves simultaneously. 複数人が同時に動作する場合の処理を示すフローチャート(2)である。It is a flowchart (2) which shows a process in case a several person operate | moves simultaneously. 複数人が同時に動作する場合の調停処理を示すフローチャートである。It is a flowchart which shows the arbitration process in case a several person operate | moves simultaneously.

以下、本発明の実施の形態について図面を参照して詳細に説明する。
<第1の実施形態>
[表示装置1の概要]
本発明の第1の実施形態における表示装置の動作を説明する。第1の実施形態においては、表示装置1が、モーションセンサの認識領域に侵入したユーザの手指とモーションセンサとの位置関係に基づいて、ユーザが行ったジェスチャの方向を特定する。そして、表示装置1は、特定したジェスチャの方向に基づいて、ユーザの表示装置1における指示位置を特定することにより、操作の内容を特定する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<First Embodiment>
[Outline of display device 1]
The operation of the display device in the first embodiment of the present invention will be described. In the first embodiment, the display device 1 specifies the direction of the gesture performed by the user based on the positional relationship between the user's finger that has entered the recognition area of the motion sensor and the motion sensor. And the display apparatus 1 specifies the content of operation by specifying the instruction | indication position in a user's display apparatus 1 based on the direction of the specified gesture.

表示装置1は、ユーザが行ったジェスチャに対応する動きベクトルの回転処理を行い、固定の位置における動作に変換する。本実施形態における固定の位置は、例えば表示装置1の表示部に対して真正面の位置であるが、真正面以外の位置であってもよい。また、以下の説明においては、表示装置1がユーザの手指の動作を座標変換し、表示装置1の表示部の正面に位置する動作へ変換することを、固定位置化演算と称する。   The display device 1 performs a rotation process of the motion vector corresponding to the gesture performed by the user, and converts the motion into a fixed position. The fixed position in the present embodiment is, for example, a position directly in front of the display unit of the display device 1, but may be a position other than the directly front. Moreover, in the following description, it is called fixed positioning calculation that the display device 1 performs coordinate conversion of the operation of the user's finger and converts it into an operation positioned in front of the display unit of the display device 1.

図1は、指示検出システムSの概要を示す図である。指示検出システムSは、表示装置1と、映像信号発生器2と、モーションセンサデバイス3とを有する。図1においては、複数のユーザが、ジェスチャを用いて表示装置1を操作していることを想定している。   FIG. 1 is a diagram showing an overview of the instruction detection system S. The instruction detection system S includes a display device 1, a video signal generator 2, and a motion sensor device 3. In FIG. 1, it is assumed that a plurality of users operate the display device 1 using gestures.

表示装置1は、制御部11と、表示部12とを有する。制御部11は、モーションセンサデバイス3から取得した物体の位置を示す座標情報に基づいてユーザのジェスチャを特定し、表示部12を制御する指示検出装置である。モーションセンサデバイス3は、表示装置1の表示部12の表示面側で物体の位置を検出する物体検出手段である。制御部11は、座標情報に基づいて特定したユーザのジェスチャによる指示位置を表示部12に通知する。また、制御部11は、映像信号発生器2を制御して、映像信号発生器2から映像信号を受信する。制御部11は、受信した映像信号を表示部12に入力して、映像信号に基づく画像を表示部12に表示させる。   The display device 1 includes a control unit 11 and a display unit 12. The control unit 11 is an instruction detection device that specifies a user's gesture based on coordinate information indicating the position of an object acquired from the motion sensor device 3 and controls the display unit 12. The motion sensor device 3 is an object detection unit that detects the position of an object on the display surface side of the display unit 12 of the display device 1. The control unit 11 notifies the display unit 12 of the position indicated by the user gesture specified based on the coordinate information. Further, the control unit 11 controls the video signal generator 2 to receive a video signal from the video signal generator 2. The control unit 11 inputs the received video signal to the display unit 12 and causes the display unit 12 to display an image based on the video signal.

表示部12は、映像信号発生器2が出力した動画及び静止画などの映像を表示する。図1においては制御部11が表示部12と分離しているが、制御部11は表示部12と一体に構成されていてもよい。また、表示装置1は、モーションセンサデバイス3を含んでいてもよい。   The display unit 12 displays videos such as moving images and still images output from the video signal generator 2. Although the control unit 11 is separated from the display unit 12 in FIG. 1, the control unit 11 may be configured integrally with the display unit 12. The display device 1 may include a motion sensor device 3.

図2は、ユーザの位置による手指の動作の認識の差異を説明するための図である。図2においては、モーションセンサデバイス3が手指を認識する領域である検出可能領域7にユーザU1、ユーザU2、及びユーザU3の手指が存在し、表示装置1の内部にあるユーザ指示領域8を指し示すことを想定している。   FIG. 2 is a diagram for explaining a difference in recognition of finger movement depending on the position of the user. In FIG. 2, the fingers of the user U1, the user U2, and the user U3 are present in the detectable area 7, which is an area where the motion sensor device 3 recognizes the finger, and indicates the user instruction area 8 inside the display device 1. Assumes that.

まず、各ユーザが、各自の手指をユーザ指示領域8に向う、実線の矢印で示した方向に手指を動かす。モーションセンサデバイス3は、各ユーザの手指の動作を検出する。表示装置1の制御部11は、モーションセンサデバイス3が検出した手指の動作を、ユーザ毎に異なる直線の動作と判定する。本実施形態においては、制御部11は、ユーザ毎に異なる直線の動作と判定された動作を、検出可能領域7の内部にある手指であれば、全て同じ動作に変換する。また、本実施形態における動作の変換処理は、直進する動作に限らず、手を回転させる動作や手を水平及び垂直方向に移動する動作など、他の動作にも適用することができる。   First, each user moves his / her finger in the direction indicated by the solid line arrow toward the user instruction area 8. The motion sensor device 3 detects the movement of each user's finger. The control unit 11 of the display device 1 determines the movement of the finger detected by the motion sensor device 3 as a linear movement that is different for each user. In the present embodiment, the control unit 11 converts the motion determined as a linear motion that is different for each user into the same motion as long as it is a finger within the detectable region 7. In addition, the motion conversion process according to the present embodiment is not limited to the straight motion, but can be applied to other motions such as a motion of rotating the hand and a motion of moving the hand in the horizontal and vertical directions.

図3は、ユーザの動作について説明するための図である。図3は、各機器及びユーザを上部から下部に対して見た場合の平面である。ユーザU1の手指は、侵入位置P1(X1, Z1)より検出可能領域7に侵入し、動きベクトルL2で示す動作を行い、動作停止位置P3(X3, Z3)で停止する。図3において、手首中心T0は、ユーザの手首の中心を示す。   FIG. 3 is a diagram for explaining a user's operation. FIG. 3 is a plan view when each device and user is viewed from the top to the bottom. The finger of the user U1 enters the detectable region 7 from the entry position P1 (X1, Z1), performs the operation indicated by the motion vector L2, and stops at the operation stop position P3 (X3, Z3). In FIG. 3, a wrist center T0 indicates the center of the user's wrist.

図4は、ユーザの動作に対して行う固定位置化演算について説明するための図である。表示装置1の制御部11は、中心位置P0(X0, Z0)を通りZ軸と平行線である中心線L1と動きベクトルL2の延長線とが交わる位置に基づいて、中心線L1と動きベクトルL2とが成す角度θ1を算出する。表示装置1の制御部11は、中心線L1と動きベクトルL2とが交わる位置を回転中心として、角度θ1だけ動きベクトルL2に回転処理を実施することにより、座標変換後動きベクトルL3を算出する。そして、表示装置1の制御部11は、ユーザU1の動作を座標変換後動きベクトルL3として処理する。   FIG. 4 is a diagram for explaining the fixed positioning calculation performed for the user's operation. The control unit 11 of the display device 1 passes the center position P0 (X0, Z0) and the center line L1 and the motion vector based on the position where the center line L1 parallel to the Z axis intersects with the extension line of the motion vector L2. An angle θ1 formed by L2 is calculated. The control unit 11 of the display device 1 calculates a coordinate-converted motion vector L3 by performing a rotation process on the motion vector L2 by an angle θ1 with the position where the center line L1 and the motion vector L2 intersect as the rotation center. And the control part 11 of the display apparatus 1 processes the operation | movement of the user U1 as the motion vector L3 after coordinate transformation.

本実施形態においては、図3で示した固定位置化演算前の状態を、図4で示した固定位置化演算後の状態に変換する処理を、図5のブロック図と図6のフローチャートを用いて説明する。
以下、表示装置1の構成及び動作について詳細に説明する。
In this embodiment, the process of converting the state before the fixed positioning calculation shown in FIG. 3 into the state after the fixed positioning calculation shown in FIG. 4 is performed using the block diagram of FIG. 5 and the flowchart of FIG. I will explain.
Hereinafter, the configuration and operation of the display device 1 will be described in detail.

[表示装置1の構成及び動作]
図5は、表示装置1の構成を示すブロック図である。表示装置1は、制御部11と、表示部12と、記憶部13とを有する。制御部11は、検出座標入力部111と、手位置情報検出部112と、指位置情報検出部113と、侵入角度検出部114と、動きベクトル検出部115と、座標変換部116と、検出動作特定部117と、描画部118と、画像保持部119と、画像選択部120と、拡大縮小部121と、合成部122と、を有する。図5の実線は映像信号の流れを示し、破線はセンサ信号及び制御信号の流れを示す。
[Configuration and Operation of Display Device 1]
FIG. 5 is a block diagram illustrating a configuration of the display device 1. The display device 1 includes a control unit 11, a display unit 12, and a storage unit 13. The control unit 11 includes a detection coordinate input unit 111, a hand position information detection unit 112, a finger position information detection unit 113, an intrusion angle detection unit 114, a motion vector detection unit 115, a coordinate conversion unit 116, and a detection operation. The identification unit 117, the drawing unit 118, the image holding unit 119, the image selection unit 120, the enlargement / reduction unit 121, and the synthesis unit 122 are included. The solid line in FIG. 5 indicates the flow of the video signal, and the broken line indicates the flow of the sensor signal and the control signal.

まず、表示装置1のブロック毎の動作について説明する。
制御部11は、表示装置1を制御する制御手段であり、例えばCPU(Central Processing Unit)である。制御部11は、後述する記憶部13に記憶されたプログラムを実行することにより、検出座標入力部111、手位置情報検出部112、指位置情報検出部113、侵入角度検出部114、動きベクトル検出部115、座標変換部116、検出動作特定部117、描画部118、画像保持部119、画像選択部120、拡大縮小部121、及び合成部122として機能する。
First, the operation of each block of the display device 1 will be described.
The control unit 11 is a control unit that controls the display device 1 and is, for example, a CPU (Central Processing Unit). The control unit 11 executes a program stored in the storage unit 13, which will be described later, to thereby detect a detection coordinate input unit 111, a hand position information detection unit 112, a finger position information detection unit 113, an intrusion angle detection unit 114, a motion vector detection Functions as a unit 115, a coordinate conversion unit 116, a detection operation specifying unit 117, a drawing unit 118, an image holding unit 119, an image selection unit 120, an enlargement / reduction unit 121, and a composition unit 122.

表示部12は、画像を表示する、例えば液晶パネルである。表示部12は、映像信号発生器2が出力した動画及び静止画などの映像を表示する。記憶部13は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部13は、制御部11が実行するプログラムを記憶している。   The display unit 12 is, for example, a liquid crystal panel that displays an image. The display unit 12 displays videos such as moving images and still images output from the video signal generator 2. The storage unit 13 is a storage medium including a ROM (Read Only Memory) and a RAM (Random Access Memory). The storage unit 13 stores a program executed by the control unit 11.

検出座標入力部111は、初期化時に、中心位置及び検出可能領域7の座標について確認を行う。具体的には、検出座標入力部111は、中心位置P0(X0,Z0)を確認し、中心位置P0(X0,Z0)を基準とした、検出可能領域7の境界の座標を確認する。検出座標入力部111は、確認した中心位置P0(X0,Z0)及び検出可能領域7を、手位置情報検出部112に通知する。検出座標入力部111は、その後、モーションセンサデバイス3から取得した物体の位置を示す座標情報を手位置情報検出部112に通知する。   The detection coordinate input unit 111 checks the center position and the coordinates of the detectable region 7 at the time of initialization. Specifically, the detected coordinate input unit 111 confirms the center position P0 (X0, Z0), and confirms the coordinates of the boundary of the detectable region 7 with the center position P0 (X0, Z0) as a reference. The detection coordinate input unit 111 notifies the hand position information detection unit 112 of the confirmed center position P0 (X0, Z0) and the detectable region 7. Thereafter, the detection coordinate input unit 111 notifies the hand position information detection unit 112 of coordinate information indicating the position of the object acquired from the motion sensor device 3.

検出座標入力部111は、モーションセンサデバイス3が物体の動く方向を検出した場合、モーションセンサデバイス3から物体の動く方向を取得してもよい。検出座標入力部111は、例えば図3における物体の動く方向を示す動きベクトルL2を取得し、動きベクトル検出部115に通知する。   The detection coordinate input unit 111 may acquire the moving direction of the object from the motion sensor device 3 when the motion sensor device 3 detects the moving direction of the object. The detection coordinate input unit 111 acquires, for example, a motion vector L2 indicating the moving direction of the object in FIG. 3 and notifies the motion vector detection unit 115 of it.

手位置情報検出部112は、検出座標入力部111から取得した物体の位置を示す座標情報に基づいて、ジェスチャを行うユーザの手指の位置を検出する。また、手位置情報検出部112は、ユーザの手指の他に、所定の指示棒の先端位置を検出してもよい。
そして、手位置情報検出部112は、検出座標入力部111から取得した物体の位置を示す座標情報を、指位置情報検出部113及び侵入角度検出部114に通知するとともに、動きベクトル検出部115に、検出した手の位置を示す情報を通知する。
The hand position information detection unit 112 detects the position of the finger of the user performing the gesture based on the coordinate information indicating the position of the object acquired from the detection coordinate input unit 111. Further, the hand position information detection unit 112 may detect the tip position of a predetermined pointing bar in addition to the user's finger.
The hand position information detection unit 112 notifies the finger position information detection unit 113 and the intrusion angle detection unit 114 of coordinate information indicating the position of the object acquired from the detection coordinate input unit 111, and also notifies the motion vector detection unit 115. The information indicating the position of the detected hand is notified.

指位置情報検出部113は、手位置情報検出部112から取得したユーザの手指に関する座標情報に基づいて指の位置を検出する。そして、指位置情報検出部113は、検出した指の位置を示す情報を、動きベクトル検出部115に通知する。   The finger position information detection unit 113 detects the finger position based on the coordinate information regarding the user's finger acquired from the hand position information detection unit 112. Then, the finger position information detection unit 113 notifies the motion vector detection unit 115 of information indicating the detected finger position.

侵入角度検出部114は、手位置情報検出部112から取得したユーザの手指に関する座標情報及び検出可能領域7に基づいて、手指の侵入位置P1(X1, Z1)を検出する。そして、侵入角度検出部114は、中心位置P0(X0, Z0)と検出可能領域7とに基づいて中心線L1を算出する。侵入角度検出部114は、中心線L1と、侵入位置P1(X1, Z1)と、動作停止位置P3(X3, Z3)とに基づいて角度θ1を算出する。侵入角度検出部114は、算出した角度θ1を座標変換部116に伝送する。   The intrusion angle detection unit 114 detects the intrusion position P1 (X1, Z1) of the finger based on the coordinate information regarding the user's finger acquired from the hand position information detection unit 112 and the detectable region 7. Then, the intrusion angle detection unit 114 calculates the center line L1 based on the center position P0 (X0, Z0) and the detectable region 7. The intrusion angle detection unit 114 calculates the angle θ1 based on the center line L1, the intrusion position P1 (X1, Z1), and the operation stop position P3 (X3, Z3). The intrusion angle detection unit 114 transmits the calculated angle θ1 to the coordinate conversion unit 116.

動きベクトル検出部115は、表示部12の表示面側で物体が動く方向を特定する方向特定手段として機能する。表示部12の表示面側で動く物体は、例えばユーザの手指、又は所定の指示棒である。手指の侵入位置P1(X1, Z1)と、動作停止位置P3(X3, Z3)を結ぶ線の方向が、物体が動く方向に相当する。動きベクトル検出部115は、特定した動く方向を、例えばベクトルとして検出座標入力部111に通知する。   The motion vector detection unit 115 functions as direction specifying means for specifying the direction in which the object moves on the display surface side of the display unit 12. The object that moves on the display surface side of the display unit 12 is, for example, a user's finger or a predetermined pointer. The direction of the line connecting the finger entry position P1 (X1, Z1) and the operation stop position P3 (X3, Z3) corresponds to the direction in which the object moves. The motion vector detection unit 115 notifies the detected coordinate input unit 111 of the specified moving direction, for example, as a vector.

動きベクトル検出部115は、手位置情報検出部112及び指位置情報検出部113から取得したユーザの手指に関する座標情報に基づいて、物体が動く方向を示す動きベクトルL2を算出する。具体的には、動きベクトル検出部115は、指示を行う指の先端の位置である指先位置P2(X2, Z2)と、動作停止位置P3(X3, Z3)とに基づいて動きベクトルL2を算出する。そして、動きベクトル検出部115は、座標変換部116に動きベクトルL2を示す情報を通知する。動きベクトル検出部115は、動きベクトルL2を侵入角度検出部114に通知してもよい。   The motion vector detection unit 115 calculates a motion vector L2 indicating the direction in which the object moves based on the coordinate information regarding the user's finger acquired from the hand position information detection unit 112 and the finger position information detection unit 113. Specifically, the motion vector detection unit 115 calculates the motion vector L2 based on the fingertip position P2 (X2, Z2) that is the position of the tip of the finger that gives an instruction and the motion stop position P3 (X3, Z3). To do. Then, the motion vector detection unit 115 notifies the coordinate conversion unit 116 of information indicating the motion vector L2. The motion vector detection unit 115 may notify the intrusion angle detection unit 114 of the motion vector L2.

動きベクトル検出部115は、物体の少なくとも一部の外形を特定してもよい。動きベクトル検出部115は、例えば、ユーザの指の先端、又は手首の中心を特定する。
なお、動きベクトル検出部115は、検出座標入力部111から動きベクトルL2を取得した場合、動きベクトルL2の算出を行わず、検出座標入力部111から取得した動きベクトルL2を座標変換部116に通知する。
The motion vector detection unit 115 may specify the outer shape of at least a part of the object. The motion vector detection unit 115 specifies, for example, the tip of the user's finger or the center of the wrist.
When the motion vector detection unit 115 acquires the motion vector L2 from the detection coordinate input unit 111, the motion vector detection unit 115 does not calculate the motion vector L2 and notifies the coordinate conversion unit 116 of the motion vector L2 acquired from the detection coordinate input unit 111. To do.

座標変換部116は、表示部12の中心位置を通り、かつ表示部12と直交する中心線と、手指が動く方向の直線とが交わる位置を回転中心として、中心線と指が動く方向の直線とが成す角度θ1だけ物体が動く方向を回転させることにより、物体が動く方向を変換する。具体的には、座標変換部116は、侵入角度検出部114から取得した角度θ1、及び動きベクトル検出部115から取得した動きベクトルL2を用いて座標変換を実施して、座標変換後動きベクトルL3を算出する。そして、座標変換部116は、座標変換後動きベクトルL3を検出動作特定部117に通知する。   The coordinate conversion unit 116 is a straight line in the direction in which the center line and the finger move, with the center line passing through the center position of the display unit 12 and perpendicular to the display unit 12 intersecting with the straight line in the direction in which the finger moves. The direction in which the object moves is converted by rotating the direction in which the object moves by an angle θ1 formed by. Specifically, the coordinate conversion unit 116 performs coordinate conversion using the angle θ1 acquired from the intrusion angle detection unit 114 and the motion vector L2 acquired from the motion vector detection unit 115, and the coordinate vector after the coordinate conversion L3 Is calculated. Then, the coordinate conversion unit 116 notifies the detected motion specifying unit 117 of the post-coordinate conversion motion vector L3.

検出動作特定部117は、動きベクトル検出部115が特定した物体が動く方向に基づいて、表示部12において物体により指し示された位置である指示位置を特定する位置特定手段として機能する。検出動作特定部117は、指示位置を特定することで、ユーザの動作を特定する。具体的には、検出動作特定部117は、座標変換部116から取得した座標変換後動きベクトルL3が示す指示位置に基づいてユーザU1の動作を特定する。本実施形態では、検出動作特定部117は、ユーザが、ユーザの人差し指を座標変換後動きベクトルL3の距離だけ直進させた動作を行ったと特定したことを想定している。   The detection operation specifying unit 117 functions as a position specifying unit that specifies the indicated position that is the position pointed to by the object on the display unit 12 based on the moving direction of the object specified by the motion vector detecting unit 115. The detection operation specifying unit 117 specifies the user's operation by specifying the designated position. Specifically, the detection operation specifying unit 117 specifies the operation of the user U1 based on the designated position indicated by the coordinate-converted motion vector L3 acquired from the coordinate conversion unit 116. In the present embodiment, it is assumed that the detection operation specifying unit 117 specifies that the user has performed an operation in which the user's index finger is moved straight by the distance of the coordinate vector after the coordinate conversion.

検出動作特定部117は、特定した動作が画像選択であれば画像選択の指示情報を画像選択部120に通知する。検出動作特定部117は、特定した動作が画像の拡大または縮小であれば、拡大または縮小の指示情報を拡大縮小部121に伝送する。検出動作特定部117は、特定した動作によって画像の描画が必要であれば、描画の指示情報を描画部118に伝送する。   If the specified operation is image selection, the detection operation specifying unit 117 notifies the image selection unit 120 of image selection instruction information. If the specified operation is image enlargement or reduction, the detection operation specifying unit 117 transmits enlargement / reduction instruction information to the enlargement / reduction unit 121. The detection operation specifying unit 117 transmits drawing instruction information to the drawing unit 118 if drawing of an image is necessary due to the specified operation.

検出動作特定部117は、動きベクトル検出部115が物体の少なくとも一部の外形を特定した場合、特定した外形の物体が動く方向に基づいて、指示位置を特定する。例えば、検出動作特定部117は、動きベクトル検出部115が特定した指の先端が動く方向に基づいて指示位置を特定する。また、検出動作特定部117は、表示部12の画面に対する物体が動く方向の角度に基づいて、指示位置を特定してもよい。具体的には、検出動作特定部117は、中心線L1と動きベクトルL2を延長した直線とがなす角度θ1に基づいて、指示位置を特定する。   When the motion vector detection unit 115 specifies at least a part of the outer shape of the object, the detection operation specifying unit 117 specifies the indicated position based on the moving direction of the object having the specified outer shape. For example, the detection operation specifying unit 117 specifies the designated position based on the moving direction of the finger tip specified by the motion vector detecting unit 115. Further, the detection operation specifying unit 117 may specify the designated position based on the angle of the moving direction of the object with respect to the screen of the display unit 12. Specifically, the detection operation specifying unit 117 specifies the designated position based on an angle θ1 formed by the center line L1 and a straight line obtained by extending the motion vector L2.

描画部118は、表示部12に表示された画像に対して、検出動作特定部117が特定した指示位置に対応する処理を実行する。具体的には、描画部118は、検出動作特定部117から取得した描画指示に係る情報に基づいて描画を実施し、その画像を合成部122に伝送する。   The drawing unit 118 performs a process corresponding to the designated position specified by the detection operation specifying unit 117 on the image displayed on the display unit 12. Specifically, the drawing unit 118 performs drawing based on information related to the drawing instruction acquired from the detection operation specifying unit 117, and transmits the image to the combining unit 122.

画像保持部119は、映像信号発生器2から動画または静止画などの画像を取得する。画像保持部119が取得する画像の枚数は、表示装置1の記憶部13が保有するメモリ量に応じて定められる。また、画像保持部119は、画像の取得を完了する時刻に、映像信号発生器2に対して完了を示す制御信号を送信してもよい。その後、画像保持部119は、画像選択部120の指示に応じて保持する画像のうち指示された画像を伝送する。なお、画像保持部119は、画像選択部120の指示がある時刻に映像信号発生器2から画像を取得してもよい。   The image holding unit 119 acquires an image such as a moving image or a still image from the video signal generator 2. The number of images acquired by the image holding unit 119 is determined according to the amount of memory held by the storage unit 13 of the display device 1. Further, the image holding unit 119 may transmit a control signal indicating completion to the video signal generator 2 at a time when image acquisition is completed. Thereafter, the image holding unit 119 transmits the instructed image among the images to be held in response to an instruction from the image selection unit 120. Note that the image holding unit 119 may acquire an image from the video signal generator 2 at a time when the image selection unit 120 instructs.

画像選択部120は、検出動作特定部117から取得した指示情報に基づいて画像保持部119から画像を取得する。そして、画像選択部120は、画像保持部119から取得した画像を拡大縮小部121に伝送する。拡大縮小部121は、検出動作特定部117から取得した指示情報に基づいて拡大または縮小を行う。拡大縮小部121は、指示情報を取得していない場合、拡大及び縮小を行わず合成部122に伝送する。   The image selection unit 120 acquires an image from the image holding unit 119 based on the instruction information acquired from the detection operation specifying unit 117. Then, the image selection unit 120 transmits the image acquired from the image holding unit 119 to the enlargement / reduction unit 121. The enlargement / reduction unit 121 performs enlargement or reduction based on the instruction information acquired from the detection operation specifying unit 117. When the instruction information is not acquired, the enlargement / reduction unit 121 transmits the instruction information to the synthesis unit 122 without performing enlargement or reduction.

合成部122は、描画部118から取得した画像と拡大縮小部121から取得した画像とを合成し、表示部12に伝送する。
以下、ユーザが行う動作に対する固定化演算について詳細に説明する。
The combining unit 122 combines the image acquired from the drawing unit 118 and the image acquired from the enlargement / reduction unit 121 and transmits the combined image to the display unit 12.
Hereinafter, the immobilization calculation for the operation performed by the user will be described in detail.

[ユーザが行う動作に対する固定化演算処理]
以下の説明においては、表示装置1が映像を表示している状態であることを想定している。以下、表示装置1の制御部11が、ユーザU1が行う動作に対して固定値化演算を施し、ユーザの動作を特定する動作について、図6のフローチャートを用いて説明する。図6は、本発明の第1の実施形態に係る、固定位置化演算のフローチャートである。なお、図6のフローチャートにおいては、モーションセンサデバイス3が、検出座標入力部111に座標情報を通知したものとして説明を行う。
[Fixed operation processing for user actions]
In the following description, it is assumed that the display device 1 is displaying video. Hereinafter, the operation in which the control unit 11 of the display device 1 performs the fixed value calculation on the operation performed by the user U1 and specifies the user's operation will be described with reference to the flowchart of FIG. FIG. 6 is a flowchart of the fixed positioning calculation according to the first embodiment of the present invention. In the flowchart of FIG. 6, the description will be made assuming that the motion sensor device 3 notifies the detected coordinate input unit 111 of the coordinate information.

ステップS100において、検出座標入力部111は、検出可能領域7及び認識可能領域の中心位置P0(X0,Z0)を確認する。検出座標入力部111は、確認した検出可能領域7及び認識可能領域の中心位置P0(X0,Z0)を、手位置情報検出部112に通知する。ステップS101及びステップS102において、手位置情報検出部112は、検出座標入力部111から取得した物体の位置を示す座標情報に基づいて、ユーザの手指を示す情報を検出する。手位置情報検出部112は、ステップS101及びステップS102を、手指を検出するまで繰り返す。   In step S100, the detected coordinate input unit 111 confirms the center position P0 (X0, Z0) of the detectable area 7 and the recognizable area. The detected coordinate input unit 111 notifies the hand position information detecting unit 112 of the confirmed detectable region 7 and the center position P0 (X0, Z0) of the recognizable region. In step S <b> 101 and step S <b> 102, the hand position information detection unit 112 detects information indicating the user's finger based on the coordinate information indicating the position of the object acquired from the detection coordinate input unit 111. The hand position information detection unit 112 repeats steps S101 and S102 until a finger is detected.

ステップS103において、手位置情報検出部112は、ステップS101及びステップS102において検出した手指について、検出座標入力部111から取得したユーザの手指を示す情報に基づいて、手首の中心や人差し指の先端などの手の外形を示す座標情報を検出する。手位置情報検出部112は、検出した手の外形を示す座標情報を、指位置情報検出部113、侵入角度検出部114、及び動きベクトル検出部115に通知する。   In step S103, the hand position information detection unit 112 uses the information indicating the user's finger acquired from the detection coordinate input unit 111 for the finger detected in step S101 and step S102, such as the center of the wrist and the tip of the index finger. Coordinate information indicating the outer shape of the hand is detected. The hand position information detection unit 112 notifies the finger position information detection unit 113, the intrusion angle detection unit 114, and the motion vector detection unit 115 of coordinate information indicating the detected hand shape.

ステップS104において、侵入角度検出部114は、手位置情報検出部112から取得したユーザの手指に関する座標情報及び検出可能領域7に基づいて、検出可能領域7への侵入位置P1(X1, Z1)を検出し、座標変換部116に通知する。
ステップS105において、指位置情報検出部113は、手位置情報検出部112から取得したユーザの手指に関する座標情報に基づいて、指の先端に関する座標を検出し、動きベクトル検出部115に通知する。
In step S <b> 104, the intrusion angle detection unit 114 determines the intrusion position P <b> 1 (X <b> 1, Z <b> 1) into the detectable region 7 based on the coordinate information regarding the user's finger acquired from the hand position information detection unit 112 and the detectable region 7. Detect and notify the coordinate converter 116.
In step S <b> 105, the finger position information detection unit 113 detects coordinates related to the tip of the finger based on the coordinate information related to the user's finger acquired from the hand position information detection unit 112, and notifies the motion vector detection unit 115.

ステップS106において、動きベクトル検出部115は、ステップS105で指位置情報検出部113から取得した指の先端に関する座標に基づいて、指先位置P2(X2, Z2)を特定し、侵入角度検出部114に通知する。
ステップS107において、侵入角度検出部114は、ステップS100からステップS106までの動作で取得した中心位置P0(X0, Z0)と、侵入位置P1(X1, Z1)と、指先位置P2(X2, Z2)とに基づいて、ユーザの手指の侵入角度である角度θ1を算出する。侵入角度検出部114は、検出した角度θ1を座標変換部116に通知する。
In step S106, the motion vector detection unit 115 identifies the fingertip position P2 (X2, Z2) based on the coordinates relating to the tip of the finger acquired from the finger position information detection unit 113 in step S105, and sends it to the intrusion angle detection unit 114. Notice.
In step S107, the intrusion angle detection unit 114 receives the center position P0 (X0, Z0), the intrusion position P1 (X1, Z1), and the fingertip position P2 (X2, Z2) acquired by the operations from step S100 to step S106. Based on the above, an angle θ1 that is an intrusion angle of the user's finger is calculated. The intrusion angle detection unit 114 notifies the coordinate conversion unit 116 of the detected angle θ1.

ステップS108及びステップS109において、動きベクトル検出部115は、ユーザが、指を指先位置P2(X2, Z2)から動作停止位置P3(X3, Z3)まで動かす間、動作完了の確認を実施する。ステップS109において、動きベクトル検出部115は、動作が完了していない場合(S109でNo)、ステップS108に戻り、動作完了の確認を実施する。そして、動きベクトル検出部115は、動作完了を確認した後(S109でYes)、動きベクトルL2を算出し、座標変換部116に動きベクトルL2を通知する。   In step S108 and step S109, the motion vector detection unit 115 confirms the completion of the operation while the user moves the finger from the fingertip position P2 (X2, Z2) to the operation stop position P3 (X3, Z3). In step S109, when the motion has not been completed (No in S109), the motion vector detection unit 115 returns to step S108 and confirms the completion of the motion. Then, after confirming the completion of the operation (Yes in S109), the motion vector detection unit 115 calculates the motion vector L2, and notifies the coordinate conversion unit 116 of the motion vector L2.

ステップS110及びステップS111において、座標変換部116は、動きベクトル検出部115から動きベクトルL2を取得していない場合、指先位置P2(X2, Z2)、及び動作停止位置P3(X3, Z3)を取得する。座標変換部116は、指先位置P2(X2, Z2)、及び動作停止位置P3(X3, Z3)を取得することで、動作開始座標及び動作終了座標を取得する。なお、座標変換部116は、ステップS110及びステップS111において、侵入角度検出部114から角度θ1を取得してもよい。座標変換部116は、ステップS110及びS111において角度θ1を取得した場合、ステップS113を省略する。   In step S110 and step S111, when the coordinate conversion unit 116 has not acquired the motion vector L2 from the motion vector detection unit 115, the coordinate conversion unit 116 acquires the fingertip position P2 (X2, Z2) and the motion stop position P3 (X3, Z3). To do. The coordinate conversion unit 116 acquires the operation start coordinates and the operation end coordinates by acquiring the fingertip position P2 (X2, Z2) and the operation stop position P3 (X3, Z3). Note that the coordinate conversion unit 116 may acquire the angle θ1 from the intrusion angle detection unit 114 in step S110 and step S111. When the coordinate conversion unit 116 acquires the angle θ1 in steps S110 and S111, the coordinate conversion unit 116 omits step S113.

ステップS112において、座標変換部116は、ステップS110及びステップS111で取得した動作開始座標及び動作終了座標に基づいて、動きベクトルL2を算出する。座標変換部116は、ステップS110及びステップS111において動きベクトルL2を取得している場合、ステップS112を省略する。
ステップS113において、座標変換部116は、侵入角度検出部114から角度θ1を取得する。座標変換部116は、ステップS110及びステップS111において角度θ1を取得している場合、ステップS113を省略する。
In step S112, the coordinate conversion unit 116 calculates a motion vector L2 based on the motion start coordinates and motion end coordinates acquired in steps S110 and S111. When the coordinate conversion unit 116 has acquired the motion vector L2 in step S110 and step S111, step S112 is omitted.
In step S113, the coordinate conversion unit 116 acquires the angle θ1 from the intrusion angle detection unit 114. The coordinate conversion unit 116 omits step S113 when the angle θ1 is acquired in step S110 and step S111.

ステップS114において、座標変換部116は、動きベクトルL2と角度θ1とに基づいて座標変換後動きベクトルL3を算出する。座標変換後動きベクトルL3は、ユーザが表示部12の真正面に位置して手指を動かした場合の動作と同一である。そして、座標変換部116は、座標変換後動きベクトルL3を検出動作特定部117に通知する。   In step S114, the coordinate conversion unit 116 calculates a coordinate-converted motion vector L3 based on the motion vector L2 and the angle θ1. The post-coordinate conversion motion vector L3 is the same as the operation when the user moves his / her finger while positioned in front of the display unit 12. Then, the coordinate conversion unit 116 notifies the detected motion specifying unit 117 of the post-coordinate conversion motion vector L3.

ステップS115において、検出動作特定部117は、座標変換後動きベクトルL3に基づいてユーザの手指の動作を特定する。本実施形態において、検出動作特定部117は、ユーザが人差し指を表示部12の正面からL3が示す距離だけ動作したと特定する。   In step S115, the detection operation specifying unit 117 specifies the operation of the user's finger based on the coordinate-transformed motion vector L3. In the present embodiment, the detection operation specifying unit 117 specifies that the user has operated the index finger for the distance indicated by L3 from the front of the display unit 12.

ステップS116において、検出動作特定部117は、検出した動作に基づいて他のブロックに指示を通知する。検出動作特定部117は、表示画像の選択を行う動作を特定した場合、画像選択の指示情報を画像選択部120に通知する。検出動作特定部117は、表示画像の拡大または縮小を行う動作を特定した場合、拡大または縮小の指示情報を拡大縮小部121に通知する。検出動作特定部117は、表示画像に描画を実施する動作を特定した場合は描画部118に描画指示を通知する。   In step S116, the detection operation specifying unit 117 notifies an instruction to another block based on the detected operation. When the operation for selecting a display image is specified, the detection operation specifying unit 117 notifies the image selecting unit 120 of image selection instruction information. When the operation for enlarging or reducing the display image is specified, the detection operation specifying unit 117 notifies the enlargement / reduction unit 121 of enlargement / reduction instruction information. The detection operation specifying unit 117 notifies the drawing unit 118 of a drawing instruction when an operation for drawing on the display image is specified.

ステップS117において、動きベクトル検出部115は、ユーザが動作を継続しているかどうかを判別する。動きベクトル検出部115は、ユーザが動作を継続している場合(S117でYes)、ステップS108に戻り、動作の確認を行う。動きベクトル検出部115は、ユーザが動作を継続していない場合(S117でNo)、検出動作を終了する。   In step S117, the motion vector detection unit 115 determines whether or not the user continues to operate. When the user continues the operation (Yes in S117), the motion vector detection unit 115 returns to step S108 and confirms the operation. If the user does not continue the operation (No in S117), the motion vector detection unit 115 ends the detection operation.

[第1の実施形態の効果]
以上、説明したように、本実施形態においては、表示装置1の検出動作特定部117は、検出可能領域7に入ったユーザの手指の角度に基づいて、ユーザが表示部12の真正面に位置する場合の動作に変換して、ユーザの指示を特定する。このようにすることで、表示装置1の検出動作特定部117は、ユーザが表示部12に対してどのような位置に存在しても、ユーザが実施したジェスチャ動作を特定できる確率を向上することができる。
[Effect of the first embodiment]
As described above, in the present embodiment, the detection operation specifying unit 117 of the display device 1 is positioned in front of the display unit 12 based on the angle of the user's finger that has entered the detectable region 7. It converts into the operation | movement of a case, and specifies a user's instruction | indication. By doing so, the detection operation specifying unit 117 of the display device 1 improves the probability that the gesture operation performed by the user can be specified regardless of the position of the user with respect to the display unit 12. Can do.

<第2の実施形態>
第2の実施形態においては、表示装置1の制御部11は、モーションセンサデバイス3と表示部12との距離、及びユーザの手指がモーションセンサデバイス3の認識可能な領域に侵入する角度に基づいて、ユーザが手指のジェスチャを用いて表示部12における指示した場所を特定する。
<Second Embodiment>
In the second embodiment, the control unit 11 of the display device 1 is based on the distance between the motion sensor device 3 and the display unit 12 and the angle at which the user's finger enters the recognizable region of the motion sensor device 3. The location indicated on the display unit 12 by the user's finger gesture is specified.

図7は、本発明の第2の実施形態の概要を説明するための図である。表示装置1は、測距センサ15をさらに有する。表示装置1の制御部11は、モーションセンサデバイス3と測距センサ15とを直線で結んだセンサ間距離L4を算出する。なお、表示部12は、モーションセンサデバイス3がユーザの動作を認識する検出可能領域7の外部に位置する。認識外距離L5は、検出可能領域7と表示部12との距離を示す。   FIG. 7 is a diagram for explaining the outline of the second embodiment of the present invention. The display device 1 further includes a distance measuring sensor 15. The control unit 11 of the display device 1 calculates an inter-sensor distance L4 that connects the motion sensor device 3 and the distance measuring sensor 15 with a straight line. The display unit 12 is located outside the detectable region 7 where the motion sensor device 3 recognizes the user's operation. The recognition outside distance L5 indicates the distance between the detectable region 7 and the display unit 12.

上述したように、表示装置1の制御部11は、表示部12が検出可能領域7の外部に位置する場合、ユーザが指し示す位置を検出可能領域7の内部の座標で表現できない。そこで、表示装置1の制御部11は、検出可能領域7と表示部12との距離である認識外距離L5を算出し、検出可能領域7の外部座標を算出する。本実施形態における表示装置1の検出動作特定部117は、表示部12とモーションセンサデバイス3との距離に基づいて認識外距離L5を算出し、検出可能領域7の内部の座標に認識外距離L5を加えることで、ユーザが指し示す指示位置を特定する。   As described above, when the display unit 12 is located outside the detectable region 7, the control unit 11 of the display device 1 cannot express the position indicated by the user with the coordinates inside the detectable region 7. Therefore, the control unit 11 of the display device 1 calculates the recognition outside distance L5 that is the distance between the detectable region 7 and the display unit 12, and calculates the external coordinates of the detectable region 7. The detection operation specifying unit 117 of the display device 1 according to the present embodiment calculates the recognition outside distance L5 based on the distance between the display unit 12 and the motion sensor device 3, and recognizes the recognition outside distance L5 to the coordinates inside the detectable region 7. Is added to specify the designated position indicated by the user.

[ユーザが指し示す指示位置を特定するための演算方法]
表示装置1の制御部11は、ユーザが指し示す位置を検出するための演算を、XYZの三次元空間をXZ平面とZY平面とに分けて実施する。図8は、本発明の第2の実施形態に係る、XZ平面での演算を説明するための図である。制御部11は、XZ平面において、認識外距離L5と、センサ間距離L4及び角度θ2とを求め、指示座標誤差δ1を算出する。そして、制御部11は、指示座標誤差δ1に基づいてユーザ指示位置のX座標を算出する。
[Calculation method for specifying the indicated position pointed to by the user]
The control unit 11 of the display device 1 performs an operation for detecting the position pointed to by the user by dividing the XYZ three-dimensional space into an XZ plane and a ZY plane. FIG. 8 is a diagram for explaining calculation in the XZ plane according to the second embodiment of the present invention. The control unit 11 obtains the recognition outside distance L5, the inter-sensor distance L4, and the angle θ2 in the XZ plane, and calculates the indicated coordinate error δ1. Then, the control unit 11 calculates the X coordinate of the user designated position based on the designated coordinate error δ1.

まず、表示装置1の制御部11は、測距センサ15を用いてセンサ間距離L4を算出する。次に、制御部11は、測距センサ位置P5(X5, Z5)と、センサ間距離L4と、検出可能領域7とに基づいて測距センサ侵入位置P4(X4, Z4)を算出する。また、制御部11は、角度θ2を算出する。   First, the control unit 11 of the display device 1 calculates the inter-sensor distance L4 using the distance measuring sensor 15. Next, the control unit 11 calculates the distance measurement sensor entry position P4 (X4, Z4) based on the distance measurement sensor position P5 (X5, Z5), the inter-sensor distance L4, and the detectable region 7. Further, the control unit 11 calculates the angle θ2.

制御部11は、センサ間距離L4と、角度θ2と、測距センサ侵入位置P4(X4, Z4)とに基づいて、認識外距離L5を算出する。制御部11は、認識外距離L5及び角度θ1に基づいて指示座標誤差δ1を算出する。表示装置1の検出動作特定部117は、認識境界交点P6(X6, Z6)に指示座標誤差δ1及び認識外距離L5を加算することで、ユーザ指示位置P7(X7, Z7)を算出する。   The controller 11 calculates the recognition outside distance L5 based on the inter-sensor distance L4, the angle θ2, and the distance measurement sensor intrusion position P4 (X4, Z4). The control unit 11 calculates the designated coordinate error δ1 based on the recognition outside distance L5 and the angle θ1. The detection operation specifying unit 117 of the display device 1 calculates the user instruction position P7 (X7, Z7) by adding the instruction coordinate error δ1 and the recognition outside distance L5 to the recognition boundary intersection P6 (X6, Z6).

図9は、本発明の第2の実施形態に係る、ZY平面での演算を説明するための図である。制御部11は、ユーザ指示位置のY座標であるY7を、XZ平面での演算で求めた認識外距離L5と、認識境界交点Y6と、指先位置P2(Z2, Y2)とに基づいて算出する。そして、制御部11は、ZY平面でのユーザ指示位置P7(Z7, Y7)を算出する。検出動作特定部117は、物体の先端である指先位置P2(X2,Y2,Z2)を起点として物体が動く方向に延長した線と表示装置1との交点を、ユーザ指示位置P7(X7,Y7,Z7)として特定する。   FIG. 9 is a diagram for explaining calculation on the ZY plane according to the second embodiment of the present invention. The control unit 11 calculates Y7, which is the Y coordinate of the user-instructed position, based on the recognition outside distance L5 obtained by calculation on the XZ plane, the recognition boundary intersection Y6, and the fingertip position P2 (Z2, Y2). . Then, the control unit 11 calculates the user instruction position P7 (Z7, Y7) on the ZY plane. The detection operation specifying unit 117 sets the intersection point between the display device 1 and the line extended from the fingertip position P2 (X2, Y2, Z2), which is the tip of the object, in the direction in which the object moves, to the user specified position P7 (X7, Y7). , Z7).

以下、第2の実施形態の動作を、図10のブロック図と図11のフローチャートを用いて説明する。
図10は、本発明の第2の実施形態に係る、表示装置1の構成を示すブロック図である。第2の実施形態における表示装置1は、第1の実施形態の表示装置1に対して、測距センサ15と、デバイス距離検出部123と、指示座標算出部124とをさらに有する。
The operation of the second embodiment will be described below using the block diagram of FIG. 10 and the flowchart of FIG.
FIG. 10 is a block diagram showing the configuration of the display device 1 according to the second embodiment of the present invention. The display device 1 according to the second embodiment further includes a distance measuring sensor 15, a device distance detection unit 123, and an indicated coordinate calculation unit 124, as compared with the display device 1 according to the first embodiment.

デバイス距離検出部123は、モーションセンサデバイス3と表示部12との第1距離を測定する。具体的には、デバイス距離検出部123は、測距センサ15を用いて、第1距離であるセンサ間距離L4を測定する。指示座標算出部124は、侵入角度検出部114から取得した角度θ1及び角度θ2と、デバイス距離検出部123から取得したセンサ間距離L4と、動きベクトル検出部115から取得した動きベクトルL2とに基づいてユーザが指し示す座標を算出する。   The device distance detection unit 123 measures the first distance between the motion sensor device 3 and the display unit 12. Specifically, the device distance detection unit 123 uses the distance measuring sensor 15 to measure the inter-sensor distance L4 that is the first distance. The indicated coordinate calculation unit 124 is based on the angle θ1 and the angle θ2 acquired from the intrusion angle detection unit 114, the inter-sensor distance L4 acquired from the device distance detection unit 123, and the motion vector L2 acquired from the motion vector detection unit 115. To calculate the coordinates indicated by the user.

検出動作特定部117は、デバイス距離検出部123が測定した第1距離に基づいて指示座標算出部124が算出したユーザが指し示す座標に基づいて、指示位置を特定する。なお、侵入角度検出部114は、第1の実施形態の動作と、デバイス距離検出部123が検出したセンサ間距離L4を指示座標算出部124に通知する動作の両方を実施する。   The detection operation specifying unit 117 specifies the designated position based on the coordinates indicated by the user calculated by the designated coordinate calculating unit 124 based on the first distance measured by the device distance detecting unit 123. The intrusion angle detection unit 114 performs both the operation of the first embodiment and the operation of notifying the indicated coordinate calculation unit 124 of the inter-sensor distance L4 detected by the device distance detection unit 123.

図11は、本発明の第2の実施形態に係る、固定位置化演算のフローチャートである。なお、以下の説明においては、第1の実施形態の動作と異なる動作について説明し、同様の動作については適宜省略する。   FIG. 11 is a flowchart of the fixed positioning calculation according to the second embodiment of the present invention. In the following description, operations different from those of the first embodiment will be described, and similar operations will be omitted as appropriate.

ステップS200において、デバイス距離検出部123は、モーションセンサデバイス3との距離であるセンサ間距離L4を算出するために、測距センサ位置P5(X5, Z5)及び測距センサ15の座標を取得する。そして、デバイス距離検出部123は、測距センサ位置P5(X5, Z5)と測距センサ15とを結ぶ直線と、測距センサ位置P5(X5, Z5)を通りZ軸と平行な直線とがなす角度θ2を算出する。次に、デバイス距離検出部123は、検出可能領域7に基づいて測距センサ侵入位置P4(X4, Z4)を算出することで認識外距離L5を算出する。   In step S200, the device distance detection unit 123 acquires the distance measurement sensor position P5 (X5, Z5) and the coordinates of the distance measurement sensor 15 in order to calculate the inter-sensor distance L4 that is the distance to the motion sensor device 3. . The device distance detection unit 123 includes a straight line connecting the distance measurement sensor position P5 (X5, Z5) and the distance measurement sensor 15, and a straight line passing through the distance measurement sensor position P5 (X5, Z5) and parallel to the Z axis. The formed angle θ2 is calculated. Next, the device distance detection unit 123 calculates the recognition outside distance L5 by calculating the distance measurement sensor intrusion position P4 (X4, Z4) based on the detectable region 7.

ステップS201において、指示座標算出部124は、ユーザ指示位置X7を算出する。まず、指示座標算出部124は、侵入角度検出部114から、ユーザの指の指先位置P2(X2, Z2)及び中心線L1に基づいて算出した角度θ1を取得し、認識外距離L5とtanθ1とを積算することで指示座標誤差δ1を算出する。次に、指示座標算出部124は、ユーザの指の指先位置P2(X2, Z2)と検出可能領域7とに基づいて認識境界交点P6(X6, Z6)を算出し、X6に指示座標誤差δ1を加算することでユーザ指示位置X7を算出する。   In step S201, the designated coordinate calculation unit 124 calculates the user designated position X7. First, the designated coordinate calculation unit 124 acquires the angle θ1 calculated based on the fingertip position P2 (X2, Z2) and the center line L1 of the user's finger from the intrusion angle detection unit 114, and recognizes the recognition outside distance L5 and tan θ1. Is added to calculate the designated coordinate error δ1. Next, the designated coordinate calculation unit 124 calculates the recognition boundary intersection P6 (X6, Z6) based on the fingertip position P2 (X2, Z2) of the user's finger and the detectable area 7, and the designated coordinate error δ1 is stored in X6. Is added to calculate the user instruction position X7.

ステップS202において、指示座標算出部124は、ユーザ指示位置Y7を算出する。まず、指示座標算出部124は、指先位置P2のZ軸の値であるZ2、認識境界交点P6のZ軸の値であるZ6、及び認識外距離L5に基づいて、ユーザの人差し指の先端を示す指先位置P2から認識境界交点P6までの距離と、ユーザの人差し指の先端の先端を示す指先位置P2から表示部12までの距離との比を算出する。次に、指示座標算出部124は、距離の比に応じて、指先位置P2のY軸の値であるY2、及び認識境界交点P6のY軸の値であるY6に基づいてユーザ指示位置Y7を算出する。   In step S202, the designated coordinate calculation unit 124 calculates the user designated position Y7. First, the designated coordinate calculation unit 124 indicates the tip of the user's index finger based on Z2 that is the Z-axis value of the fingertip position P2, Z6 that is the Z-axis value of the recognition boundary intersection P6, and the recognition outside distance L5. A ratio between the distance from the fingertip position P2 to the recognition boundary intersection P6 and the distance from the fingertip position P2 indicating the tip of the tip of the user's index finger to the display unit 12 is calculated. Next, the designated coordinate calculation unit 124 determines the user designated position Y7 based on Y2 which is the Y-axis value of the fingertip position P2 and Y6 which is the Y-axis value of the recognition boundary intersection P6 according to the distance ratio. calculate.

検出動作特定部117は、上述したステップS201及びステップS202で算出したユーザ指示位置P7(X7, Y7)に基づいてユーザの動作を特定する。具体的には、検出動作特定部117は、センサ間距離L4と、モーションセンサデバイス3が物体を検出できる検出可能領域7における物体を検出した位置と、に基づいて特定した物体と表示部12との第2距離に基づいて、指示位置を特定する。第2距離は、認識外距離L5に相当する。検出動作特定部117は、特定した指示位置を描画部118に通知する。このようにすることで、表示装置1の描画部118は、ユーザがジェスチャにより指示した内容を処理することができる。   The detection operation specifying unit 117 specifies the user's operation based on the user instruction position P7 (X7, Y7) calculated in step S201 and step S202 described above. Specifically, the detection operation specifying unit 117 includes the object specified based on the inter-sensor distance L4 and the position at which the object is detected in the detectable region 7 where the motion sensor device 3 can detect the object, and the display unit 12. The indicated position is specified based on the second distance. The second distance corresponds to the recognition outside distance L5. The detection operation specifying unit 117 notifies the drawing unit 118 of the specified pointing position. By doing in this way, the drawing unit 118 of the display device 1 can process the content instructed by the user through the gesture.

(変形例)
以上の説明においては、デバイス距離検出部123は、測距センサ15を用いて、第1距離であるセンサ間距離L4を検出したが、デバイス距離検出部123は、物体と表示部12との距離を測定してもよい。測距センサ15は、例えば赤外線測距センサを含み、表示部12に対する物体の距離と方位とを検出する。デバイス距離検出部123は、測距センサ15が検出した物体の距離と方位とに基づいて、物体と表示部12との距離を測定する測定手段として機能する。検出動作特定部117は、デバイス距離検出部123が特定した物体と表示部12との距離に基づいて、指示位置を特定する。
(Modification)
In the above description, the device distance detection unit 123 detects the inter-sensor distance L4, which is the first distance, using the distance measuring sensor 15, but the device distance detection unit 123 detects the distance between the object and the display unit 12. May be measured. The distance measuring sensor 15 includes, for example, an infrared distance measuring sensor, and detects the distance and azimuth of the object with respect to the display unit 12. The device distance detection unit 123 functions as a measurement unit that measures the distance between the object and the display unit 12 based on the distance and direction of the object detected by the distance measuring sensor 15. The detection operation specifying unit 117 specifies the designated position based on the distance between the object specified by the device distance detecting unit 123 and the display unit 12.

[第2の実施形態の効果]
以上、説明したように、表示装置1の制御部11は、モーションセンサデバイス3と表示部12との距離を考慮した演算を行うことで、モーションセンサデバイス3及びユーザの位置に関係なく、検出動作特定部117はユーザが指し示す指示位置を特定することができる。このようにすることで、ユーザは、機器やユーザの位置に関係なく、ジェスチャによる制御を行うことができる。そして、ユーザは、例えば意図した座標を中心として、表示装置1の表示部12に表示された画像に対して拡大や縮小などを実施することができる。
[Effects of Second Embodiment]
As described above, the control unit 11 of the display apparatus 1 performs the detection operation regardless of the position of the motion sensor device 3 and the user by performing the calculation in consideration of the distance between the motion sensor device 3 and the display unit 12. The specifying unit 117 can specify the designated position indicated by the user. By doing in this way, the user can perform control by gesture irrespective of an apparatus or a user's position. For example, the user can enlarge or reduce the image displayed on the display unit 12 of the display device 1 around the intended coordinates.

<第3の実施形態>
第3の実施形態では、表示装置1の制御部11は、ユーザの手指がモーションセンサデバイス3の認識可能な領域に侵入する角度に基づいて、ユーザが指し示す座標を算出するか、常に固定の位置における動作に変換するかを判定する。例えば、表示装置1の制御部11は、手指等の物体が侵入する角度が閾値を超えた場合に、物体が動く方向に基づいてユーザが指し示す座標を算出するか、固定の位置における動作に変換するかを判定する。
<Third Embodiment>
In the third embodiment, the control unit 11 of the display device 1 calculates the coordinates indicated by the user based on the angle at which the user's finger enters the recognizable region of the motion sensor device 3, or always has a fixed position. It is determined whether or not the operation is converted into operation. For example, when the angle at which an object such as a finger enters exceeds a threshold, the control unit 11 of the display device 1 calculates the coordinates indicated by the user based on the moving direction of the object, or converts the movement to a fixed position. Judge whether to do.

図12は、本発明の第3の実施形態の概要を説明するための図である。図12において、ユーザU2は表示装置1の正面に位置し、ユーザU1は表示装置1の近傍に位置していることを想定している。そして、ユーザU1は領域8aを、ユーザU2は領域8bを、人差し指で指し示し、指し示す距離を変更する動作を行うことが想定されている。このとき、ユーザU1は、指先を表示装置1の表示部12に向けていない状態で、表示部12に対して垂直方向、つまりZ軸方向に指を動作させる。一方、ユーザU2は、指先を表示装置1の表示部12に向けた状態で、表示部12に対して垂直方向、つまりZ軸方向に指を動作させてユーザU1と同一の動作を行うことが想定される。したがって、表示装置1の制御部11は、ユーザの位置と表示部12の位置との関係に応じて、第1の実施形態及び第2の実施形態において説明した固定位置化演算の実施を行うか判定する。   FIG. 12 is a diagram for explaining the outline of the third embodiment of the present invention. In FIG. 12, it is assumed that the user U <b> 2 is located in front of the display device 1 and the user U <b> 1 is located in the vicinity of the display device 1. Then, it is assumed that the user U1 points to the area 8a and the user U2 points to the area 8b with an index finger and performs an operation of changing the indicated distance. At this time, the user U1 moves the finger in the vertical direction, that is, the Z-axis direction with respect to the display unit 12 with the fingertip not directed toward the display unit 12 of the display device 1. On the other hand, the user U2 can perform the same operation as the user U1 by moving the finger in the vertical direction, that is, in the Z-axis direction with respect to the display unit 12 with the fingertip directed toward the display unit 12 of the display device 1. is assumed. Therefore, the control unit 11 of the display device 1 performs the fixed positioning calculation described in the first embodiment and the second embodiment according to the relationship between the position of the user and the position of the display unit 12. judge.

図13は、本発明の第3の実施形態に係る、指示位置の差異を説明するための図である。表示装置1の検出動作特定部117は、ユーザが図13に示した動作L6を実施する場合、指し示す位置をユーザ指示位置P7(X7, Y7, Z7)ではなく、ユーザ指示位置P8(X2, Y2, Z7)と特定する。   FIG. 13 is a diagram for explaining a difference in designated position according to the third embodiment of the present invention. When the user performs the operation L6 shown in FIG. 13, the detection operation specifying unit 117 of the display device 1 does not specify the user-specified position P7 (X7, Y7, Z7) but the user-specified position P8 (X2, Y2). , Z7).

検出動作特定部117は、固定位置化演算の実施を行うと判定した場合、物体が動く方向が第1の範囲である領域8aである場合に、物体の先端位置を起点として物体が動く方向に延長した線と表示部12との交点であるユーザ指示位置P7(X7, Y7, Z7)を指示位置として特定する。また、検出動作特定部117は、物体が動く方向が第1の範囲と異なる第2の範囲である領域8bである場合に、物体の先端位置を起点として表示部12に直交する方向に延長した線と表示部12との交点をユーザ指示位置P8(X2, Y2, Z7)として特定する。なお、検出動作特定部117は、物体の先端位置を起点として物体が動く方向に延長した線が表示部12の表示領域と交わらない場合に、物体の先端位置を起点として表示部12に直交する方向に延長した線と表示部12との交点を指示位置として特定する。   When it is determined that the fixed positioning calculation is to be performed, the detection operation specifying unit 117 determines that the object moves in the direction in which the object moves starting from the tip position of the object when the moving direction is the region 8a that is the first range. The user designated position P7 (X7, Y7, Z7) that is the intersection of the extended line and the display unit 12 is specified as the designated position. In addition, when the moving direction of the object is the region 8b that is the second range different from the first range, the detection operation specifying unit 117 extends in the direction orthogonal to the display unit 12 with the tip position of the object as a starting point. The intersection of the line and the display unit 12 is specified as the user instruction position P8 (X2, Y2, Z7). The detection operation specifying unit 117 is orthogonal to the display unit 12 with the tip position of the object as the starting point when the line extending in the moving direction of the object from the tip position of the object does not intersect the display area of the display unit 12. The intersection of the line extended in the direction and the display unit 12 is specified as the designated position.

本実施形態における表示装置1の制御部11は、第2の実施形態で説明した方法を用いてユーザが指し示す領域を算出し、ユーザが指し示す領域が表示部12の表示領域の内部か否かに基づいて固定位置化演算を実施するか否かを判定する。なお、ユーザは、固定位置化演算を実施するか否かを判定する領域を設定することができる。例えば、ユーザは、表示部12の表示領域における任意の領域を特定し、ユーザが特定した領域の内部を指し示す場合には固定化演算を行わないように設定する。
以下、図14のブロック図と図15及び図16のフローチャートを用いて、第3の実施形態の表示装置1の構成及び動作を説明する。
The control unit 11 of the display device 1 according to the present embodiment calculates an area indicated by the user using the method described in the second embodiment, and determines whether the area indicated by the user is inside the display area of the display unit 12. Based on this, it is determined whether or not to perform the fixed positioning calculation. The user can set an area for determining whether or not to perform the fixed positioning calculation. For example, the user specifies an arbitrary area in the display area of the display unit 12 and sets so as not to perform the fixing operation when pointing to the inside of the area specified by the user.
Hereinafter, the configuration and operation of the display device 1 according to the third embodiment will be described with reference to the block diagram of FIG. 14 and the flowcharts of FIGS. 15 and 16.

[第3の実施形態に係る表示装置1の構成及び動作]
図14は、本発明の第3及び第4の実施形態に係る、表示装置1の構成を示すブロック図である。表示装置1は、算出方法判定部125をさらに有する。算出方法判定部125は、固定位置化演算を実施するか否かを判定する。
[Configuration and Operation of Display Device 1 According to Third Embodiment]
FIG. 14 is a block diagram showing the configuration of the display device 1 according to the third and fourth embodiments of the present invention. The display device 1 further includes a calculation method determination unit 125. The calculation method determination unit 125 determines whether or not to perform a fixed positioning calculation.

算出方法判定部125は、ユーザが固定位置化演算を実施するか否かを判定する領域を設定した場合、侵入角度検出部114からユーザU1の手指の侵入角度である角度θ1を取得する。算出方法判定部125は、角度θ1に基づいて、ユーザが指示した指示位置が、ユーザが特定した領域の内部を指し示すか否かを判定する。そして、算出方法判定部125は、指示位置が領域の内部を指し示すか否かに基づいて、固定位置化演算を実施するか否かを判定する。   The calculation method determination unit 125 acquires an angle θ1 that is an intrusion angle of the user U1's finger from the intrusion angle detection unit 114 when the user determines an area for determining whether or not to perform the fixed positioning calculation. Based on the angle θ1, the calculation method determination unit 125 determines whether or not the indicated position indicated by the user points to the inside of the area specified by the user. Then, the calculation method determination unit 125 determines whether or not to perform the fixed positioning calculation based on whether or not the designated position indicates the inside of the region.

算出方法判定部125は、ユーザが指し示す領域が表示部12の表示領域の内部か否かに基づいて判定する場合、指示座標算出部124からユーザU1の手指が指示する領域として図13におけるユーザ指示位置P8(X2, Y2, Z7)とユーザ指示位置P7(X7, Y7, Z7)とを取得する。そして、算出方法判定部125は、ユーザ指示位置P7(X7, Y7, Z7)が表示部12の表示領域にある場合は、ユーザが指示する座標としてユーザ指示位置P7(X7, Y7, Z7)を採用する。算出方法判定部125は、ユーザ指示位置P7(X7, Y7, Z7)が表示部12の表示領域外にある場合は、ユーザが指示する座標としてユーザ指示位置P8(X2, Y2, Z7)を採用する。   When the calculation method determination unit 125 determines based on whether or not the region pointed to by the user is inside the display region of the display unit 12, the user instruction in FIG. The position P8 (X2, Y2, Z7) and the user instruction position P7 (X7, Y7, Z7) are acquired. Then, when the user instruction position P7 (X7, Y7, Z7) is in the display area of the display unit 12, the calculation method determination unit 125 uses the user instruction position P7 (X7, Y7, Z7) as coordinates indicated by the user. adopt. When the user instruction position P7 (X7, Y7, Z7) is outside the display area of the display unit 12, the calculation method determination unit 125 adopts the user instruction position P8 (X2, Y2, Z7) as coordinates indicated by the user. To do.

また、算出方法判定部125は、ユーザ指示位置P8(X2, Y2, Z7)を採用する場合は固定位置化演算を実施しないことを座標変換部116及び検出動作特定部117に通知する。算出方法判定部125は、ユーザ指示位置P7(X7, Y7, Z7)を採用する場合は第2の実施形態と同一の座標変換を実施するように座標変換部116及び検出動作特定部117に通知する。   Further, the calculation method determination unit 125 notifies the coordinate conversion unit 116 and the detection operation specifying unit 117 that the fixed positioning calculation is not performed when the user designated position P8 (X2, Y2, Z7) is adopted. The calculation method determination unit 125 notifies the coordinate conversion unit 116 and the detection operation specifying unit 117 to perform the same coordinate conversion as in the second embodiment when the user designated position P7 (X7, Y7, Z7) is adopted. To do.

図15は、本発明の第3の実施形態に係る、固定位置化演算のフローチャート(1)である。図16は、本発明の第3の実施形態に係る、固定位置化演算のフローチャート(2)である。なお、以下の説明においては、第1の実施形態の動作、及び第2の実施形態の動作と異なる動作について説明し、同様の動作については適宜省略する。
以下、図15及び図16を用いて、第3の実施形態の表示装置1の動作を説明する。
FIG. 15 is a flowchart (1) of the fixed positioning calculation according to the third embodiment of the present invention. FIG. 16 is a flowchart (2) of the fixed positioning calculation according to the third embodiment of the present invention. In the following description, an operation different from the operation of the first embodiment and the operation of the second embodiment will be described, and the same operation will be omitted as appropriate.
Hereinafter, the operation of the display device 1 according to the third embodiment will be described with reference to FIGS. 15 and 16.

ステップS300において、算出方法判定部125は、判定モードを確認する。判定モードは、ユーザがメニューなどで選択することができる。   In step S300, the calculation method determination unit 125 confirms the determination mode. The determination mode can be selected by the user using a menu or the like.

ステップS301において、算出方法判定部125は、侵入角度検出部114から取得した角度θ1と、指示座標算出部124から取得したユーザ指示位置P7(X7, Y7, Z7)及びユーザ指示位置P8(X2, Y2, Z7)とに基づいてユーザ指示位置の採用と、固定位置化演算の判定とを実施する。   In step S301, the calculation method determination unit 125 calculates the angle θ1 acquired from the intrusion angle detection unit 114, the user instruction position P7 (X7, Y7, Z7) and the user instruction position P8 (X2, X7) acquired from the instruction coordinate calculation unit 124. Based on Y2, Z7), the user-instructed position is adopted and the fixed position calculation is determined.

ステップS302において、算出方法判定部125は、ステップS301で実施した判定結果に基づいてユーザ指示位置を決定する。そして、算出方法判定部125は、判定結果に基づき、座標変換部116及び検出動作特定部117に固定位置化演算を実施するか否かを通知する。ステップS108からステップS112における動作は、第1の実施形態及び第2の実施形態と同様であるので省略する。   In step S302, the calculation method determination unit 125 determines the user instruction position based on the determination result performed in step S301. Based on the determination result, the calculation method determination unit 125 notifies the coordinate conversion unit 116 and the detection operation specifying unit 117 whether or not to perform the fixed positioning calculation. The operations from step S108 to step S112 are the same as those in the first embodiment and the second embodiment, and are therefore omitted.

ステップS303において、座標変換部116は、ステップS302において算出方法判定部125から取得した判定結果に基づき固定位置化演算の実施可否を判定する。座標変換部116は、ユーザ指示位置が表示部12の表示領域内であり固定位置化演算を実施する場合(S303でYes)、ステップS113に進む。座標変換部116は、ユーザ指示位置が表示部12の表示領域外であり固定位置化演算を実施しない場合(S303でNo)、ステップS115に進む。   In step S303, the coordinate conversion unit 116 determines whether or not to perform the fixed positioning calculation based on the determination result acquired from the calculation method determination unit 125 in step S302. When the user-designated position is within the display area of the display unit 12 and the fixed position calculation is performed (Yes in S303), the coordinate conversion unit 116 proceeds to step S113. If the user instruction position is outside the display area of the display unit 12 and the fixed positioning calculation is not performed (No in S303), the coordinate conversion unit 116 proceeds to Step S115.

ステップS113において、検出動作特定部117は、ユーザの指が指し示す領域はユーザの指の先端を延長した場所ではなく、ユーザの指を表示装置の垂直方向、つまりZ軸方向に延長した場所を指示位置として特定する。以下、ステップS114からステップS117までの動作は第1の実施形態及び第2の実施形態と同様であるので省略する。   In step S113, the detection operation specifying unit 117 indicates that the area pointed by the user's finger is not a place where the tip of the user's finger is extended, but a place where the user's finger is extended in the vertical direction of the display device, that is, in the Z-axis direction. Specify as location. Hereinafter, the operations from step S114 to step S117 are the same as those in the first embodiment and the second embodiment, and therefore will be omitted.

[第3の実施形態の効果]
以上、説明したように、本実施形態では、表示装置1の制御部11が、表示部12の位置とユーザの位置との関係を、ユーザの指が指し示す領域で判定する。そして、制御部11は、ユーザが表示部12の真横など近接する位置に存在する場合は、ユーザのジェスチャ動作を、ユーザが正面に位置する場合の動作と同一と判定する。このようにすることで、制御部11は、ユーザが表示部12を斜めから指し示していないと想定される位置に存在しても、ユーザに違和感を与えないジェスチャ動作の判定を実施することができる。
[Effect of the third embodiment]
As described above, in the present embodiment, the control unit 11 of the display device 1 determines the relationship between the position of the display unit 12 and the position of the user in the area indicated by the user's finger. Then, when the user is present at a close position such as right next to the display unit 12, the control unit 11 determines that the user's gesture operation is the same as the operation when the user is located in front. By doing in this way, control part 11 can carry out judgment of gesture operation which does not give a sense of incongruity to a user, even if it exists in a position where it is assumed that the user does not point display part 12 from diagonally. .

<第4の実施形態>
第4の実施形態においては、表示装置1の制御部11は、複数人のユーザがモーションセンサデバイス3の認識領域内に存在し、ジェスチャ動作を実施する場合に、誰の動作を採用するかを判定する調停処理を行う。以下、表示装置1の制御部11が行う調停処理について、図14のブロック図、図17、図18、及び図19のフローチャートを用いて説明する。なお、本実施形態において、動きベクトル検出部115は、特定した動作の動作開始時刻及び動作完了時刻を記憶する。
<Fourth Embodiment>
In the fourth embodiment, the control unit 11 of the display device 1 determines which operation is adopted when a plurality of users are present in the recognition area of the motion sensor device 3 and perform a gesture operation. The arbitration process is performed. Hereinafter, the arbitration process performed by the control unit 11 of the display device 1 will be described with reference to the block diagram of FIG. 14, the flowcharts of FIGS. 17, 18, and 19. In the present embodiment, the motion vector detection unit 115 stores the operation start time and the operation completion time of the specified operation.

図17は、本発明の第4の実施形態に係る、複数人が同時に動作する場合の処理を示すフローチャート(1)である。図18は、本発明の第4の実施形態に係る、複数人が同時に動作する場合の処理を示すフローチャート(2)である。なお、以下の説明においては、第1の実施形態の動作、第2の実施形態の動作、及び第3の実施形態の動作と異なる動作について説明し、同様の動作については適宜省略する。   FIG. 17 is a flowchart (1) showing a process when a plurality of persons operate simultaneously according to the fourth embodiment of the present invention. FIG. 18 is a flowchart (2) showing a process when a plurality of persons operate simultaneously according to the fourth embodiment of the present invention. In the following description, an operation different from the operation of the first embodiment, the operation of the second embodiment, and the operation of the third embodiment will be described, and the same operation will be omitted as appropriate.

ステップS400において、動きベクトル検出部115は、複数人の動きベクトルを同時に特定した場合、各動きベクトルについて採用するか否かの判定を、後述する図19のフローチャートを用いて実施する。ステップS401において、動きベクトル検出部115は、採用する動きベクトルが存在する場合はステップS110に、採用する動きベクトルが存在しない場合はステップS108に戻る。   In step S400, when the motion vector detection unit 115 specifies motion vectors of a plurality of persons at the same time, the motion vector detection unit 115 determines whether to adopt each motion vector using a flowchart of FIG. In step S401, the motion vector detection unit 115 returns to step S110 if there is a motion vector to be employed, and returns to step S108 if there is no motion vector to be employed.

図19は、本発明の第4の実施形態に係る、複数人が同時に動作する場合の調停処理を示すフローチャートである。動きベクトル検出部115は、上述したステップS400において、動きベクトル検出部115が特定した動きベクトル全てについて、調停処理を実施する。   FIG. 19 is a flowchart illustrating an arbitration process when a plurality of persons operate simultaneously according to the fourth embodiment of the present invention. The motion vector detection unit 115 performs an arbitration process for all the motion vectors specified by the motion vector detection unit 115 in step S400 described above.

ステップS411において、動きベクトル検出部115は、特定した動作の順序が1位か否かを判定する。具体的には、動きベクトル検出部115は、記憶した動作開始時刻の順序を検索し、動作開始時刻の順序が1位か否かを判定する。動きベクトル検出部115は、動作の順序が1位である場合はステップS412に、動作の順序が1位でない場合はステップS416に進む。   In step S411, the motion vector detection unit 115 determines whether or not the identified motion order is first. Specifically, the motion vector detection unit 115 searches the order of the stored operation start times, and determines whether or not the order of the operation start times is first. The motion vector detection unit 115 proceeds to step S412 when the order of operations is first, and proceeds to step S416 when the order of operations is not first.

ステップS412において、動きベクトル検出部115は、同じ順位の動きベクトルが他に無いかを判定する。具体的には、動きベクトル検出部115は、動作開始時刻が同一の動きベクトルが有るか否かを判定する。動きベクトル検出部115は、同じ順位の動きベクトルが他に無い場合、つまり、動作開始が一番早い動きベクトルだと判定した場合はステップS415に進み、同じ順位の動きベクトルが他にある場合はステップS413に進む。   In step S412, the motion vector detection unit 115 determines whether there is another motion vector having the same rank. Specifically, the motion vector detection unit 115 determines whether there are motion vectors having the same operation start time. If there is no other motion vector of the same order, that is, if it is determined that the motion vector has the earliest motion start, the motion vector detection unit 115 proceeds to step S415, and if there is another motion vector of the same order. The process proceeds to step S413.

ステップS413において、動きベクトル検出部115は、動作完了時刻の順序を検索する。動きベクトル検出部115は、動作の順序が最下位である場合又は特定した動作が動作を継続している場合、最後まで動作していたと判断し、ステップS414に進む。動きベクトル検出部115は、動作の順序が最下位ではない場合はステップS415に進む。   In step S413, the motion vector detection unit 115 searches for the order of operation completion times. The motion vector detection unit 115 determines that the operation has been performed to the end when the order of the operations is the lowest or when the identified operation continues the operation, and proceeds to step S414. The motion vector detection unit 115 proceeds to step S415 when the order of operations is not the lowest.

ステップS414において、動きベクトル検出部115は、調停処理を実施した動きベクトルを採用する。そして、動きベクトル検出部115は、採用した動きベクトルの情報を、指示座標算出部124に通知する。ステップS415において、動きベクトル検出部115は、調停処理を実施した動きベクトルを採用せずに消去する。   In step S414, the motion vector detection unit 115 employs the motion vector subjected to the arbitration process. Then, the motion vector detection unit 115 notifies the designated coordinate calculation unit 124 of information on the adopted motion vector. In step S415, the motion vector detection unit 115 deletes the motion vector that has undergone the arbitration process without adopting the motion vector.

ステップS115において、検出動作特定部117は、動きベクトル検出部115が複数の物体が動く方向を特定した場合に、複数の物体が動きを開始した順序に基づいて選択した物体が動く方向に基づいて、指示位置を特定する。具体的には、検出動作特定部117は、複数の物体のうち、最も早く動きを開始した物体が動く方向に基づいて、指示位置を特定する。また、例えば、検出動作特定部117は、最も早く動きを開始した物体が複数ある場合、複数の物体のうち、最も長く動きを継続した物体が動く方向に基づいて、指示位置を特定する。具体的には、検出動作特定部117は、同時に動いている複数の物体のうち、最後に動いていた物体が動く方向に基づいて、指示位置を特定する。   In step S115, when the motion vector detection unit 115 specifies the direction in which the plurality of objects move, the detection operation specifying unit 117 determines the movement based on the direction in which the selected object moves based on the order in which the plurality of objects start moving. Identify the indicated position. Specifically, the detection operation specifying unit 117 specifies the indicated position based on the moving direction of the object that has started moving the earliest among the plurality of objects. For example, when there are a plurality of objects that have started to move most quickly, the detection operation specifying unit 117 specifies the designated position based on the direction in which the object that has continued to move the longest among the plurality of objects moves. Specifically, the detection operation specifying unit 117 specifies the designated position based on the moving direction of the object that moved last among the plurality of objects moving simultaneously.

[第4の実施形態の効果]
以上説明したように、本実施形態における表示装置1の動きベクトル検出部115は、複数人のユーザがモーションセンサデバイスの認識領域内に存在する場合に、ユーザの動作開始時刻と動作完了時刻とに基づいて、ジェスチャ動作を採用するかの判定を行う。表示装置1の動きベクトル検出部115は、動作開始が一番早いジェスチャを採用し、二番目以降のジェスチャは消去することで、複数人のユーザのうち、誰のジェスチャが採用されたかを容易に判別できる。また、動きベクトル検出部115は、ユーザが同時にジェスチャ動作を行った場合、ジェスチャ動作が長い方を採用することで、ユーザに違和感を与えない調停処理を実施することができる。
[Effect of the fourth embodiment]
As described above, the motion vector detection unit 115 of the display device 1 according to the present embodiment uses the user's operation start time and operation completion time when a plurality of users exist in the recognition area of the motion sensor device. Based on this, it is determined whether or not the gesture operation is adopted. The motion vector detection unit 115 of the display device 1 employs the gesture with the earliest start of operation and erases the second and subsequent gestures, so that it is easy to determine which of the plurality of users has adopted the gesture. Can be determined. In addition, when the user performs gesture operations at the same time, the motion vector detection unit 115 can perform mediation processing that does not give the user a sense of incongruity by adopting the longer gesture operation.

以上、本発明の実施の形態、およびいくつかの実施の形態をもとに説明した。これらの任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。また本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   In the above, it demonstrated based on embodiment of this invention and some embodiment. New embodiments resulting from any combination of these are also included in the embodiments of the present invention. The effect of the new embodiment produced by the combination has the effect of the original embodiment. The technical scope of the present invention is not limited to the scope described in the above embodiment, and various modifications and changes can be made within the scope of the gist.

例えば、以上の説明においては、表示装置1が、ユーザが行ったジェスチャに対応する動きベクトルの回転処理を行うことにより指示位置を特定する方法について説明したが、動きベクトルに基づいて指示位置を特定する方法は、これに限らない。例えば、表示装置1は、動きベクトルの延長線と表示部12とが交わる位置を指示位置として特定してもよい。   For example, in the above description, the method in which the display device 1 specifies the indicated position by performing the rotation process of the motion vector corresponding to the gesture performed by the user has been described. However, the indicated position is specified based on the motion vector. The method to do is not limited to this. For example, the display device 1 may specify the position where the extension line of the motion vector and the display unit 12 intersect as the designated position.

1・・・表示装置
12・・・表示部
115・・・動きベクトル検出部
117・・・検出動作特定部
118・・・描画部
123・・・デバイス距離検出部

DESCRIPTION OF SYMBOLS 1 ... Display apparatus 12 ... Display part 115 ... Motion vector detection part 117 ... Detection operation | movement specific | specification part 118 ... Drawing part 123 ... Device distance detection part

Claims (18)

画像を表示する表示手段と、
前記表示手段の表示面側で物体が動く方向を特定する方向特定手段と、
前記方向特定手段が特定した前記物体が動く方向に基づいて、前記表示手段において前記物体により指し示された位置である指示位置を特定する位置特定手段と、
を有することを特徴とする表示装置。
Display means for displaying an image;
Direction specifying means for specifying the direction in which the object moves on the display surface side of the display means;
Position specifying means for specifying an indicated position which is a position pointed to by the object on the display means based on a moving direction of the object specified by the direction specifying means;
A display device comprising:
前記位置特定手段は、前記表示手段の画面に対する前記物体が動く方向の角度に基づいて、前記指示位置を特定することを特徴とする、
請求項1に記載の表示装置。
The position specifying means specifies the indicated position based on an angle of a moving direction of the object with respect to a screen of the display means.
The display device according to claim 1.
前記位置特定手段は、前記物体の先端を起点として前記物体が動く方向に延長した線と前記表示手段との交点を前記指示位置として特定することを特徴とする、
請求項1又は2に記載の表示装置。
The position specifying means specifies, as the indicated position, an intersection between a line extending in the direction in which the object moves from the tip of the object and the display means,
The display device according to claim 1.
前記表示手段の中心位置を通り、かつ前記表示手段と直交する中心線と、前記物体が動く方向の直線とが交わる位置を回転中心として、前記中心線と前記直線とが成す角度だけ前記物体が動く方向を回転させることにより、前記物体が動く方向を変換する変換手段をさらに有し、
前記位置特定手段は、前記変換手段が変換した後の前記物体が動く方向と前記表示手段との交点を前記指示位置として特定することを特徴とする、
請求項3に記載の表示装置。
The object passes through the center position of the display means and is perpendicular to the display means, and the position where the straight line in the direction in which the object moves intersects the rotation center. Further comprising conversion means for converting the direction of movement of the object by rotating the direction of movement;
The position specifying means specifies, as the indicated position, an intersection between a direction in which the object moves after the conversion means converts and the display means.
The display device according to claim 3.
前記位置特定手段は、前記物体が動く方向が第1の範囲である場合に、前記物体の先端位置を起点として前記物体が動く方向に延長した線と前記表示手段との交点を前記指示位置として特定し、前記物体が動く方向が前記第1の範囲と異なる第2の範囲である場合に、前記物体の先端位置を起点として前記表示手段に直交する方向に延長した線と前記表示手段との交点を前記指示位置として特定することを特徴とする、
請求項3又は4に記載の表示装置。
When the moving direction of the object is in the first range, the position specifying means uses an intersection of a line extending in the moving direction of the object from the tip position of the object and the display means as the indicated position. When the direction in which the object moves is a second range different from the first range, a line extended in a direction perpendicular to the display means from the tip position of the object and the display means An intersection point is specified as the indicated position,
The display device according to claim 3 or 4.
前記位置特定手段は、前記物体の先端位置を起点として前記物体が動く方向に延長した線が前記表示手段の表示領域と交わらない場合に、前記物体の先端位置を起点として前記表示手段に直交する方向に延長した線と前記表示手段との交点を前記指示位置として特定することを特徴とする、
請求項5に記載の表示装置。
The position specifying means is orthogonal to the display means starting from the tip position of the object when a line extending in the moving direction of the object from the tip position of the object does not intersect the display area of the display means A point of intersection of the line extended in the direction and the display means is specified as the indicated position,
The display device according to claim 5.
前記位置特定手段は、前記物体の動きを検出できる検出可能領域に前記物体が入った位置を起点とする前記物体の動きベクトルに基づいて、前記指示位置を特定することを特徴とする、
請求項1から6のいずれか一項に記載の表示装置。
The position specifying means specifies the indicated position based on a motion vector of the object starting from a position where the object enters a detectable region where the movement of the object can be detected.
The display device according to any one of claims 1 to 6.
前記方向特定手段は、前記物体の少なくとも一部の外形を特定し、
前記位置特定手段は、特定した外形の物体が動く方向に基づいて、前記指示位置を特定することを特徴とする、
請求項1から7のいずれか一項に記載の表示装置。
The direction specifying means specifies an outer shape of at least a part of the object;
The position specifying means specifies the indicated position based on a direction in which an object of the specified outer shape moves,
The display device according to claim 1.
前記表示手段に表示された画像に対して、前記位置特定手段が特定した前記指示位置に対応する処理を実行する処理実行手段をさらに有することを特徴とする、
請求項1から8のいずれか一項に記載の表示装置。
The image processing apparatus further comprises processing execution means for executing processing corresponding to the designated position specified by the position specifying means for the image displayed on the display means.
The display device according to claim 1.
前記表示手段の表示面側で前記物体の位置を検出する物体検出手段と前記表示手段との第1距離を測定する測定手段をさらに有し、
前記位置特定手段は、前記測定手段が測定した前記第1距離にさらに基づいて、前記指示位置を特定することを特徴とする、
請求項1から9のいずれか一項に記載の表示装置。
A measuring means for measuring a first distance between the object detecting means for detecting the position of the object on the display surface side of the display means and the display means;
The position specifying means specifies the indicated position further based on the first distance measured by the measuring means;
The display device according to any one of claims 1 to 9.
前記位置特定手段は、前記測定手段が測定した前記第1距離と、前記物体検出手段が前記物体を検出できる検出可能領域における前記物体を検出した位置と、に基づいて特定した前記物体と前記表示手段との第2距離に基づいて、前記指示位置を特定することを特徴とする、
請求項10に記載の表示装置。
The position specifying means specifies the object and the display specified based on the first distance measured by the measuring means and a position where the object detecting means detects the object in a detectable region where the object can be detected. The pointing position is specified based on a second distance from the means;
The display device according to claim 10.
前記物体と前記表示手段との距離を測定する測定手段をさらに有し、
前記位置特定手段は、前記測定手段が測定した前記距離にさらに基づいて、前記指示位置を特定することを特徴とする、
請求項1から9のいずれか一項に記載の表示装置。
A measuring unit for measuring a distance between the object and the display unit;
The position specifying means specifies the indicated position further based on the distance measured by the measuring means;
The display device according to any one of claims 1 to 9.
前記位置特定手段は、前記方向特定手段が複数の前記物体が動く方向を特定した場合に、前記複数の物体が動きを開始した順序に基づいて選択した物体が動く方向に基づいて、前記指示位置を特定することを特徴とする、
請求項1から12のいずれか一項に記載の表示装置。
The position specifying means, when the direction specifying means specifies the direction in which the plurality of objects move, based on the direction in which the selected object moves based on the order in which the plurality of objects started moving, Characterized by specifying
The display device according to any one of claims 1 to 12.
前記位置特定手段は、前記複数の物体のうち、最も早く動きを開始した物体が動く方向に基づいて、前記指示位置を特定することを特徴とする、
請求項13に記載の表示装置。
The position specifying means specifies the indicated position based on a direction in which an object that has started moving most quickly among the plurality of objects moves.
The display device according to claim 13.
前記位置特定手段は、最も早く動きを開始した物体が複数ある場合、前記複数の物体のうち、最も長く動きを継続した物体が動く方向に基づいて、前記指示位置を特定することを特徴とする、
請求項14に記載の表示装置。
The position specifying means specifies the indicated position based on a moving direction of an object that has continued to move the longest among the plurality of objects when there are a plurality of objects that have started moving the earliest. ,
The display device according to claim 14.
前記位置特定手段は、同時に動いている前記複数の物体のうち、最後に動いていた物体が動く方向に基づいて、前記指示位置を特定することを特徴とする、
請求項13に記載の表示装置。
The position specifying means specifies the indicated position based on a moving direction of an object that moved last among the plurality of objects moving simultaneously,
The display device according to claim 13.
画像を表示する表示装置に対する指示を検出する指示検出装置であって、
前記表示装置の表示面側で物体が動く方向を特定する方向特定手段と、
前記方向特定手段が特定した前記物体が動く方向に基づいて、前記表示装置における前記物体により指し示された位置である指示位置を特定する位置特定手段と、
前記位置特定手段が特定した前記指示位置を前記表示装置に送信する送信手段と、
を有することを特徴とする指示検出装置。
An instruction detection device that detects an instruction to a display device that displays an image,
Direction specifying means for specifying a direction in which an object moves on the display surface side of the display device;
Position specifying means for specifying an indicated position, which is a position pointed to by the object in the display device, based on a moving direction of the object specified by the direction specifying means;
Transmitting means for transmitting the indicated position specified by the position specifying means to the display device;
An instruction detection device comprising:
コンピュータが実行する、
表示装置の表示面側で物体が動く方向を特定するステップと、
前記物体が動く方向に基づいて、画像を表示する表示手段において前記物体により指し示された位置である指示位置を特定するステップと、
前記指示位置に基づいて、前記表示手段に表示する画像を処理するステップと、
を有することを特徴とする画像表示方法。
The computer runs,
Identifying the direction in which the object moves on the display surface side of the display device;
Identifying a pointing position that is a position pointed to by the object on a display means for displaying an image based on a moving direction of the object;
Processing an image to be displayed on the display means based on the indicated position;
An image display method characterized by comprising:
JP2017000754A 2017-01-05 2017-01-05 Display device, instruction detection device, and image display method Pending JP2018109911A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017000754A JP2018109911A (en) 2017-01-05 2017-01-05 Display device, instruction detection device, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017000754A JP2018109911A (en) 2017-01-05 2017-01-05 Display device, instruction detection device, and image display method

Publications (1)

Publication Number Publication Date
JP2018109911A true JP2018109911A (en) 2018-07-12

Family

ID=62844440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017000754A Pending JP2018109911A (en) 2017-01-05 2017-01-05 Display device, instruction detection device, and image display method

Country Status (1)

Country Link
JP (1) JP2018109911A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230057965A1 (en) * 2020-01-15 2023-02-23 Ecovacs Robotics Co., Ltd. Robot and control method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230057965A1 (en) * 2020-01-15 2023-02-23 Ecovacs Robotics Co., Ltd. Robot and control method therefor

Similar Documents

Publication Publication Date Title
JP6057396B2 (en) 3D user interface device and 3D operation processing method
KR102408359B1 (en) Electronic device and method for controlling using the electronic device
JP7614268B2 (en) Information processing device, information processing method, and program
JP6288372B2 (en) Interface control system, interface control device, interface control method, and program
CN108292448B (en) Information processing device, information processing method, and program
KR101844390B1 (en) Systems and techniques for user interface control
JP5343773B2 (en) Information processing apparatus, display control method, and display control program
JP2011054118A (en) Apparatus, method, and program for controlling display
JP2016194799A (en) Image analysis apparatus and image analysis method
JPWO2015015843A1 (en) Gesture determination device and method, gesture operation device, program, and recording medium
JP6110893B2 (en) Virtual space location designation method, program, recording medium recording program, and apparatus
CN108027656B (en) Input Devices, Input Methods and Procedures
CN103150009A (en) Information processing apparatus, information processing method, and program
CN102314301A (en) Virtual touch sensing system and method
US11199946B2 (en) Information processing apparatus, control method, and program
US20150339859A1 (en) Apparatus and method for navigating through volume image
JP2018142109A (en) Display control program, display control method, and display control apparatus
JP2006209359A (en) Apparatus, method and program for recognizing indicating action
CN110949271A (en) Operation processing device
CN117784926A (en) Control device, control method, and computer-readable storage medium
CN111565898A (en) Operating the boot system
US12461599B2 (en) Detection processing that detects a number of contacts between fingertips of a hand
JP4563723B2 (en) Instruction motion recognition device and instruction motion recognition program
JP2018109911A (en) Display device, instruction detection device, and image display method
JP4244202B2 (en) Operation input device and operation input method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20180227