[go: up one dir, main page]

JP2006099228A - Data processing apparatus and program - Google Patents

Data processing apparatus and program Download PDF

Info

Publication number
JP2006099228A
JP2006099228A JP2004281979A JP2004281979A JP2006099228A JP 2006099228 A JP2006099228 A JP 2006099228A JP 2004281979 A JP2004281979 A JP 2004281979A JP 2004281979 A JP2004281979 A JP 2004281979A JP 2006099228 A JP2006099228 A JP 2006099228A
Authority
JP
Japan
Prior art keywords
movement
finger
pointer
axis direction
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004281979A
Other languages
Japanese (ja)
Inventor
Takao Sato
隆雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2004281979A priority Critical patent/JP2006099228A/en
Publication of JP2006099228A publication Critical patent/JP2006099228A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】撮像手段により撮像された被写体の移動に基づいて、従来のポインティングデバイスに近い操作指示を行う。
【解決手段】撮像部14の光軸方向と垂直な方向(X軸方向又はY軸方向)における指の移動を検出し、この移動に基づいて、表示画面上のポインタの表示位置を移動させる。また、撮像部14の光軸方向(Z軸方向)における指の移動を検出し、指が撮像部14に近づき、規定の範囲内に入った場合に、表示画面上のポインタの表示位置で指定されている項目の選択操作を検出する。
【選択図】図5
An operation instruction close to that of a conventional pointing device is issued based on movement of a subject imaged by an imaging means.
The movement of a finger in a direction (X-axis direction or Y-axis direction) perpendicular to the optical axis direction of an imaging unit is detected, and the display position of the pointer on the display screen is moved based on this movement. Also, when the movement of the finger in the optical axis direction (Z-axis direction) of the image pickup unit 14 is detected and the finger approaches the image pickup unit 14 and enters the specified range, it is designated by the display position of the pointer on the display screen. Detects the selected item selection operation.
[Selection] Figure 5

Description

本発明は、カメラを利用して表示画面上のポインタ操作を行うデータ処理装置及びプログラムに関する。   The present invention relates to a data processing apparatus and program for performing a pointer operation on a display screen using a camera.

従来、表示画面上での操作指示を行うためのポインタは画面上に常に表示されており、ボールマウス、光学マウス、トラックボールやタッチパッド等の操作によってポインタ移動が行われている。それに対して、携帯電話機やPDA(Personal Digital Assistant)等の小型機器においては、マウスのようなポインタ専用の入力装置を搭載していないものが多く、表示画面に占めるポインタの表示割合も大きく見づらいものとなるため、通常、本体のキー操作によって画面上のフォーカス位置を移動させている。   Conventionally, a pointer for performing an operation instruction on a display screen is always displayed on the screen, and the pointer is moved by operating a ball mouse, an optical mouse, a trackball, a touch pad, or the like. On the other hand, many small devices such as mobile phones and PDAs (Personal Digital Assistants) do not have a pointer-specific input device such as a mouse, and the display ratio of the pointer in the display screen is difficult to see. Therefore, the focus position on the screen is usually moved by key operation of the main body.

また、フォーカス位置が確定した後、その位置に表示されている項目に対応する機能を実行させるために、項目の選択操作を行う必要がある。通常のマウスであれば、クリック又はダブルクリックを行うことにより選択操作を行い、矢印キーで操作する場合には、確定キーを押下することにより、選択操作を行っている。画面上にタッチパネルを装備している場合には、ターゲットとなる位置に直接触れることにより、選択操作を行うことができる。   Further, after the focus position is determined, it is necessary to perform an item selection operation in order to execute a function corresponding to the item displayed at the position. In the case of a normal mouse, the selection operation is performed by clicking or double-clicking, and when the operation is performed using the arrow keys, the selection operation is performed by pressing the enter key. When the touch panel is equipped on the screen, the selection operation can be performed by directly touching the target position.

近年、携帯端末等では小型カメラを搭載したものが多くなっている。例えば、カメラで撮影したユーザの指先のジェスチャーに応じてポインタ移動及びクリック操作が行われる携帯通信端末が提案されている(例えば、特許文献1参照)。
特開2002−290529号公報
In recent years, many portable terminals and the like are equipped with a small camera. For example, a mobile communication terminal is proposed in which a pointer movement and a click operation are performed according to a gesture of a user's fingertip photographed with a camera (see, for example, Patent Document 1).
JP 2002-290529 A

しかし、上記従来技術のようなカメラを利用したジェスチャーによるポインタ操作指示は、従来からのマウス等の平面上におけるポインタ移動操作と付属ボタン押下による選択操作に慣れているユーザにとって使い慣れないものであった。そのため、より従来のポインティングデバイスであるマウス等に近い操作指示が可能となるよう、さらなる開発が望まれていた。   However, the pointer operation instruction by the gesture using the camera as in the above prior art is not familiar to the user who is used to the conventional pointer movement operation on a plane such as a mouse and the selection operation by pressing the attached button. . Therefore, further development has been desired so that an operation instruction closer to a mouse or the like that is a conventional pointing device can be performed.

本発明の課題は、撮像手段により撮像された被写体の移動に基づいて、従来のポインティングデバイスに近い操作指示を可能とするデータ処理装置及びプログラムを提供することである。   An object of the present invention is to provide a data processing apparatus and a program that enable an operation instruction close to that of a conventional pointing device based on movement of a subject imaged by an imaging unit.

上記課題を解決するために、請求項1に記載の発明は、データ処理装置において、被写体を撮像する撮像手段と、前記撮像手段で撮像された被写体の前記撮像手段の光軸方向と垂直な方向における移動を検出する第1の移動検出手段と、前記撮像手段で撮像された被写体の前記撮像手段の光軸方向における移動を検出する第2の移動検出手段と、前記第1の移動検出手段により検出された被写体の前記撮像手段の光軸方向と垂直な方向における移動に基づいて、表示画面上のポインタの表示位置を移動させる表示制御手段と、前記第2の移動検出手段により検出された被写体の前記撮像手段の光軸方向における移動に基づいて、前記表示画面上のポインタの表示位置で指定されている項目の選択操作を検出する選択操作検出手段と、を備えたことを特徴とする。   In order to solve the above-described problem, in the data processing device according to the first aspect of the present invention, there is provided an image capturing unit that captures an image of a subject, and a direction perpendicular to the optical axis direction of the image capturing unit captured by the image capturing unit. A first movement detecting means for detecting movement in the image, a second movement detecting means for detecting movement of the subject imaged by the imaging means in the optical axis direction of the imaging means, and the first movement detecting means. Display control means for moving the display position of the pointer on the display screen based on movement of the detected subject in a direction perpendicular to the optical axis direction of the imaging means, and subject detected by the second movement detection means Selection operation detecting means for detecting the selection operation of an item designated by the display position of the pointer on the display screen based on the movement of the imaging means in the optical axis direction. And wherein the door.

請求項4に記載の発明は、コンピュータに、撮像手段で撮像された被写体の前記撮像手段の光軸方向と垂直な方向における移動を検出する第1の移動検出機能と、前記撮像手段で撮像された被写体の前記撮像手段の光軸方向における移動を検出する第2の移動検出機能と、前記第1の移動検出機能において検出された被写体の前記撮像手段の光軸方向と垂直な方向における移動に基づいて、表示画面上のポインタの表示位置を移動させる表示制御機能と、前記第2の移動検出機能において検出された被写体の前記撮像手段の光軸方向における移動に基づいて、前記表示画面上のポインタの表示位置で指定されている項目の選択操作を検出する選択操作検出機能と、を実現させるためのプログラムである。   According to a fourth aspect of the present invention, a first movement detection function for detecting a movement of a subject imaged by the imaging means in a direction perpendicular to the optical axis direction of the imaging means is captured by the computer and the imaging means. A second movement detection function for detecting movement of the image pickup means in the optical axis direction of the image pickup means, and movement of the object detected in the first movement detection function in a direction perpendicular to the optical axis direction of the image pickup means. Based on the display control function for moving the display position of the pointer on the display screen and the movement of the subject detected in the second movement detection function in the optical axis direction of the imaging means on the display screen. This is a program for realizing a selection operation detecting function for detecting an operation for selecting an item designated by a display position of a pointer.

請求項1、4に記載の発明によれば、被写体の撮像手段の光軸方向と垂直な方向における移動に基づいて、表示画面上のポインタの表示位置を移動させ、被写体の撮像手段の光軸方向における移動に基づいて、表示画面上のポインタの表示位置で指定されている項目の選択操作を検出するので、撮像手段により撮像された被写体の移動に基づいて、従来のポインティングデバイスに近い操作指示を行うことができる。   According to the first and fourth aspects of the present invention, the display position of the pointer on the display screen is moved based on the movement of the subject imaging unit in the direction perpendicular to the optical axis direction, and the optical axis of the subject imaging unit is detected. Since the selection operation of the item specified by the display position of the pointer on the display screen is detected based on the movement in the direction, the operation instruction close to the conventional pointing device is based on the movement of the subject imaged by the imaging means It can be performed.

以下、本発明の実施の形態に係るデータ処理装置としての携帯電話機10について、図面を参照しながら説明する。ただし、発明の範囲は図示例に限定されない。   Hereinafter, a mobile phone 10 as a data processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

図1(a)は、携帯電話機10の外観斜視図である。図1(a)に示すように、表示部12を備えた上部と、操作部13を備えた下部と、が撮像部14を備えたヒンジ17により接合されており、ヒンジ17を軸に上部と下部を折り畳むことができる構成となっている。図1(b)は、携帯電話機10の折り畳んだ状態を示す外観図である。携帯電話機10は、情報を確認するための表示部12と、簡単な操作指示を行うための操作部13と、を備える。なお、本実施の形態では、上記構成の折り畳み式携帯電話機を例として挙げているが、特に限定するものではない。   FIG. 1A is an external perspective view of the mobile phone 10. As shown in FIG. 1A, an upper part provided with a display unit 12 and a lower part provided with an operation unit 13 are joined by a hinge 17 provided with an imaging unit 14, and the upper part about the hinge 17 as an axis. The lower part can be folded. FIG. 1B is an external view showing a folded state of the mobile phone 10. The mobile phone 10 includes a display unit 12 for confirming information and an operation unit 13 for performing simple operation instructions. In the present embodiment, the foldable mobile phone having the above-described configuration is taken as an example, but is not particularly limited.

次に、図2を参照して、携帯電話機10の内部構成を説明する。図2に示すように、携帯電話機10は、制御部11、表示部12、操作部13、撮像部14、記憶部15、検出部16を備え、これら各部はバス18を介して互いに接続されている。   Next, the internal configuration of the mobile phone 10 will be described with reference to FIG. As shown in FIG. 2, the mobile phone 10 includes a control unit 11, a display unit 12, an operation unit 13, an imaging unit 14, a storage unit 15, and a detection unit 16, and these units are connected to each other via a bus 18. Yes.

制御部11は、図示しないCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、CPUにおいて、RAMの所定領域を作業領域としてROMに記憶されている各種制御プログラムに従い、上記各部に制御信号を送って携帯電話機10の動作全般を統括制御する。   The control unit 11 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like (not shown). In the CPU, various controls stored in the ROM using a predetermined area of the RAM as a work area. According to the program, a control signal is sent to each of the above parts to control the overall operation of the mobile phone 10.

制御部11は、撮像部14で撮像された画像から被写体である指の存在が検出された場合に、表示部12の表示画面上の所定位置にポインタを表示させる。ここで、ポインタとは、表示画面中の特定の項目、位置等を指示する表示形態をいい、いわゆるカーソルや表示項目の反転表示等を含む意である。また、制御部11は、撮像部14の光軸方向と垂直な方向における指の移動に基づいて、表示部12の表示画面上のポインタの表示位置を移動させる。また、制御部11は、撮像部14の光軸方向における指の移動に基づいて、表示部12の表示画面上のポインタの表示位置で指定されている項目の選択操作を検出する。   The control unit 11 displays a pointer at a predetermined position on the display screen of the display unit 12 when the presence of a finger as a subject is detected from the image captured by the imaging unit 14. Here, the pointer refers to a display form that indicates a specific item, position, etc. in the display screen, and includes a so-called cursor, a reverse display of a display item, and the like. Further, the control unit 11 moves the display position of the pointer on the display screen of the display unit 12 based on the movement of the finger in the direction perpendicular to the optical axis direction of the imaging unit 14. Further, the control unit 11 detects an operation for selecting an item designated by the display position of the pointer on the display screen of the display unit 12 based on the movement of the finger in the optical axis direction of the imaging unit 14.

表示部12は、液晶ディスプレイ等から構成されており、制御部11から入力された表示データに基づいて表示画面上に画像を表示する。   The display unit 12 includes a liquid crystal display and the like, and displays an image on the display screen based on display data input from the control unit 11.

操作部13は、携帯電話機10に対する操作指示を入力するための数字キー、文字キー、機能キー等の各種キーにより構成され、そのキー操作による押下信号を制御部11に出力する。ユーザは、表示部12に表示される画面を参照しながら操作部13を操作することにより携帯電話機10に対する各種操作指示を入力する。   The operation unit 13 includes various keys such as a numeric key, a character key, and a function key for inputting an operation instruction to the mobile phone 10, and outputs a press signal by the key operation to the control unit 11. The user inputs various operation instructions to the mobile phone 10 by operating the operation unit 13 while referring to the screen displayed on the display unit 12.

撮像部14は、ガラスやプラスチック等からなる光学レンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を平面上に多数配設した撮像画素面等から構成されている。撮像部14は、制御部11から撮影を行う指示が入力されると、光学レンズを介して入力され撮像画素面上に結像された被写体像を電気信号に変換して画像データを生成し、制御部11へ出力する。   The imaging unit 14 includes an optical lens made of glass, plastic, and the like, and an imaging pixel surface in which a large number of imaging elements such as a CCD (Charge Coupled Device) and a CMOS (Complementary Metal Oxide Semiconductor) are arranged on a plane. . When an instruction to perform shooting is input from the control unit 11, the imaging unit 14 converts the subject image input via the optical lens and formed on the imaging pixel surface into an electrical signal, and generates image data. Output to the control unit 11.

記憶部15は、制御部11により実行される各種制御処理プログラム及びこれらのプログラムで利用するデータ等が予め記憶されている記録媒体を有している。この記録媒体は、磁気的・光学的記録媒体又は不揮発性メモリ等で構成されており、OS(Operating System)、各種アプリケーションプログラム、各種条件設定又はデータを格納する。なお、記憶部15が記憶するプログラム又はデータ等は、その一部又は全部を他の機器から通信ネットワークを介して受信して記憶する構成にしてもよい。   The storage unit 15 includes a recording medium in which various control processing programs executed by the control unit 11 and data used by these programs are stored in advance. This recording medium is composed of a magnetic / optical recording medium, a nonvolatile memory, or the like, and stores an OS (Operating System), various application programs, various condition settings or data. Note that a part or all of the programs or data stored in the storage unit 15 may be received from other devices via a communication network and stored.

また、記憶部15には、後述する指の移動の基準となる基準位置A,B,Cを示す画像が記憶されている。また、記憶部15には、画像全体に対する指部分の占有率と、指から撮像部14までの距離と、が対応付けられて記憶されている。具体的には、記憶部15には、占有率と距離とが対応付けられた変換テーブルが記憶されていてもよいし、指から撮像部14までの距離を算出するための占有率を変数とした計算式が記憶されていてもよい。   In addition, the storage unit 15 stores images indicating reference positions A, B, and C that serve as a reference for finger movement, which will be described later. Further, the storage unit 15 stores the occupancy rate of the finger portion with respect to the entire image and the distance from the finger to the imaging unit 14 in association with each other. Specifically, the storage unit 15 may store a conversion table in which the occupation rate and the distance are associated with each other, and the occupation rate for calculating the distance from the finger to the imaging unit 14 is a variable. The calculated formula may be stored.

検出部16は、検出用DSP(Digital Signal Processor)からなり、制御部11の指示により、撮像部14により撮像された画像から、指の検出及び指の移動の検出を行う。指の移動方向として、図3に示すように、撮像部14の光軸方向にZ軸を取り、Z軸に垂直な方向にX軸及びY軸を取る。   The detection unit 16 includes a detection DSP (Digital Signal Processor), and detects a finger and a finger movement from an image captured by the imaging unit 14 according to an instruction from the control unit 11. As the finger moving direction, as shown in FIG. 3, the Z axis is taken in the optical axis direction of the imaging unit 14, and the X axis and the Y axis are taken in the direction perpendicular to the Z axis.

検出部16は、撮像部14により撮像された画像から指の存在を検出する。
図4(a)は、撮像部14におけるn×m個の撮像素子による撮像画像21の模式図である。各画像素子は、n列からなる画素列xとm行からなる画素行yとが格子行列状に配置されている。図4(b)は撮像画像22におけるユーザの指先23を例示した図である。撮像画像22の網掛け表示されている部分は、色相・明度・彩度に基づいて肌色であると検出された画素である。肌色であると検出された画素部分の形状が指の特徴を示す形状である場合には、画像全体に対する指部分の占有率を算出し、占有率が規定値(例えば10%)を超えた場合に、指の存在を検出する。手ぶれや取り込む画像の周辺からの影響により、指が存在するか否かの判断が頻繁に変化してしまうのを防ぐために、前記占有率の変化が所定の範囲内(例えば10%±1%)で所定の時間(例えば1秒間)継続した場合に、指の存在を検出することが好ましい。ここにおける検出は、肌色の検出と形状の判定から行ったが、色及び形状はどのように設定してもよく、特に限定するものではない。
The detection unit 16 detects the presence of a finger from the image captured by the imaging unit 14.
FIG. 4A is a schematic diagram of a captured image 21 obtained by n × m imaging elements in the imaging unit 14. In each image element, a pixel column x consisting of n columns and a pixel row y consisting of m rows are arranged in a lattice matrix. FIG. 4B is a diagram illustrating the user's fingertip 23 in the captured image 22. The shaded portion of the captured image 22 is a pixel that is detected to be a skin color based on hue, lightness, and saturation. When the shape of the pixel portion detected to be skin color is a shape indicating the characteristics of the finger, the occupancy rate of the finger portion with respect to the entire image is calculated, and the occupancy rate exceeds a specified value (for example, 10%) In addition, the presence of a finger is detected. In order to prevent frequent changes in the judgment of whether or not a finger is present due to camera shake or the influence from the periphery of the captured image, the change in the occupation ratio is within a predetermined range (for example, 10% ± 1%). It is preferable to detect the presence of a finger when the operation continues for a predetermined time (for example, 1 second). Although the detection here is performed from the detection of the skin color and the determination of the shape, the color and shape may be set in any way and are not particularly limited.

検出部16は、撮像部14により撮像された画像から撮像部14の光軸方向と垂直な方向(図3のX軸方向及びY軸方向)における指の移動方向及び移動量を検出する。
図5(a)に、指の移動の基準となる基準位置A,Bを示す。指が基準位置Aから基準位置Bへ移動することにより下方向の移動を示す。逆に、指が基準位置Bから基準位置Aへ移動することにより上方向の移動を示す。また、図5(b)に、指の移動の基準となる基準位置A,Cを示す。指が基準位置Aから基準位置Cへ移動することにより右方向の移動を示す。逆に、指が基準位置Cから基準位置Aへ移動することにより左方向の移動を示す。
The detection unit 16 detects the movement direction and amount of movement of the finger in the directions perpendicular to the optical axis direction of the imaging unit 14 (X-axis direction and Y-axis direction in FIG. 3) from the image captured by the imaging unit 14.
FIG. 5 (a) shows reference positions A and B that serve as references for finger movement. A downward movement is indicated by the finger moving from the reference position A to the reference position B. Conversely, the upward movement is indicated by the finger moving from the reference position B to the reference position A. FIG. 5 (b) shows reference positions A and C which are the reference for finger movement. When the finger moves from the reference position A to the reference position C, a rightward movement is indicated. Conversely, the movement of the finger from the reference position C to the reference position A indicates a leftward movement.

基準位置設定モードで、ユーザが実際に操作を行うことにより、基準位置の画像の形、位置、動きを取り込んで、各ユーザに適した基準位置A,B,Cの画像を記憶するようにしてもよい。   In the reference position setting mode, when the user actually performs an operation, the shape, position, and movement of the image at the reference position are captured, and images of the reference positions A, B, and C suitable for each user are stored. Also good.

検出部16は、撮像部14により撮像された画像から撮像部14の光軸方向(図3のZ軸方向)における指の移動を検出する。
指が撮像部14に近づいた場合、画像全体に対する指部分の占有率が増加し、逆に、遠ざかった場合は、占有率が減少する。検出部16は、この占有率に基づいて指から撮像部14までの距離を算出する。検出部16は、記憶部15に記憶されている変換テーブルに基づいて、占有率に対応する距離を取得してもよいし、記憶部15に記憶されている占有率を変数とした計算式により距離を算出することとしてもよい。
The detection unit 16 detects the movement of the finger in the optical axis direction (Z-axis direction in FIG. 3) of the imaging unit 14 from the image captured by the imaging unit 14.
When the finger approaches the imaging unit 14, the occupation ratio of the finger portion with respect to the entire image increases, and conversely, when the finger moves away, the occupation ratio decreases. The detection unit 16 calculates the distance from the finger to the imaging unit 14 based on this occupation rate. The detection unit 16 may acquire a distance corresponding to the occupation rate based on the conversion table stored in the storage unit 15, or by a calculation formula using the occupation rate stored in the storage unit 15 as a variable. The distance may be calculated.

次に、携帯電話機10の動作について、図6、図8、図10及び図11に示すフローチャートを参照しながら説明する。なお、ここでの動作処理は、携帯電話機10の表示部12における画面操作を行う際に制御部11により実行される処理である。このフローチャートは、携帯電話機10を構成するコンピュータに各機能を実現させるためのプログラムを説明するためのものである。   Next, the operation of the mobile phone 10 will be described with reference to the flowcharts shown in FIGS. 6, 8, 10, and 11. The operation process here is a process executed by the control unit 11 when performing a screen operation on the display unit 12 of the mobile phone 10. This flowchart is for explaining a program for causing a computer constituting the mobile phone 10 to realize each function.

図6に示すように、まず、撮像部14により画像が撮影され、画像データが取り込まれる(ステップS1)。画像データは記憶部15に記憶される。   As shown in FIG. 6, first, an image is taken by the imaging unit 14, and image data is captured (step S1). The image data is stored in the storage unit 15.

次に、画像中に指が存在するか否かが判断される(ステップS2)。画像中に指が存在する場合には(ステップS2;YES)、ユーザの指の移動によりポイント制御を行うポイント制御モードに設定されているか否かが判断される(ステップS3)。ポイント制御モードに設定されていない場合には(ステップS3;NO)、ポイント制御モードに設定され(ステップS4)、表示部12の表示画面上の基準位置(例えば、画面の中央)にポインタが表示される(ステップS5)。図7(a)に、指の存在が検出される前の表示部12の表示画面の一例を示す。指の存在が検出されるまでは、ポインタは表示されない。また、図7(b)に、指の存在が検出され、表示部12の表示画面上にポインタ31が表示された例を示す。   Next, it is determined whether or not a finger is present in the image (step S2). If a finger is present in the image (step S2; YES), it is determined whether or not the point control mode in which point control is performed by moving the finger of the user is set (step S3). When the point control mode is not set (step S3; NO), the point control mode is set (step S4), and a pointer is displayed at a reference position on the display screen of the display unit 12 (for example, the center of the screen). (Step S5). FIG. 7A shows an example of the display screen of the display unit 12 before the presence of a finger is detected. The pointer is not displayed until the presence of a finger is detected. FIG. 7B shows an example in which the presence of a finger is detected and the pointer 31 is displayed on the display screen of the display unit 12.

ステップS3において、ポイント制御モードに設定されている場合には(ステップS3;YES)、ステップS6に移行する。   In step S3, when the point control mode is set (step S3; YES), the process proceeds to step S6.

次に、画像解析が行われ(ステップS6)、撮像部14により撮像された画像と、記憶部15に記憶されている基準位置A,B,Cを示す画像とを比較することにより、指が基準位置A,B,Cにあるか否かが判断される(ステップS7,S8,S9)。   Next, image analysis is performed (step S6), and the image captured by the imaging unit 14 is compared with the images indicating the reference positions A, B, and C stored in the storage unit 15, so that the finger is moved. It is determined whether or not the reference position is A, B, C (steps S7, S8, S9).

指が基準位置Aにある場合には(ステップS7;YES)、図8のステップS21へ移行する。指が基準位置Bにある場合には(ステップS7;NO,ステップS8;YES)、図10のステップS51へ移行する。指が基準位置Cにある場合には(ステップS7;NO,ステップS8;NO,ステップS9;YES)、図11のステップS71へ移行する。   If the finger is at the reference position A (step S7; YES), the process proceeds to step S21 in FIG. When the finger is at the reference position B (step S7; NO, step S8; YES), the process proceeds to step S51 in FIG. If the finger is at the reference position C (step S7; NO, step S8; NO, step S9; YES), the process proceeds to step S71 in FIG.

指が基準位置A,B,Cのいずれにもない場合には(ステップS7;NO,ステップS8;NO,ステップS9;NO)、ステップS1に戻る。   If the finger is not in any of the reference positions A, B, and C (step S7; NO, step S8; NO, step S9; NO), the process returns to step S1.

ステップS2において、画像中に指が存在しない場合には(ステップS2;NO)、ポイント制御モードが解除され(ステップS10)、表示部12の表示画面上に表示されているポインタが消去される(ステップS11)。そして、表示部12における画面操作を終了しない場合には(ステップS12;NO)、ステップS1に戻る。表示部12における画面操作を終了する場合には(ステップS12;YES)、動作処理が終了する。なお、画面操作の終了は、指によるポインタの移動処理及びポインタの選択処理の終了を示すもので、操作部13の図示しない操作スイッチによる終了を指示する操作に応答して、終了される。また、この操作スイッチによる開始を指示する操作に応答して、図6のフローで示す処理が開始され、ポインタの移動処理及びポインタの選択処理が行われる。   In step S2, when no finger is present in the image (step S2; NO), the point control mode is canceled (step S10), and the pointer displayed on the display screen of the display unit 12 is deleted (step S10). Step S11). If the screen operation on the display unit 12 is not terminated (step S12; NO), the process returns to step S1. When the screen operation on the display unit 12 is to be ended (step S12; YES), the operation process is ended. The end of the screen operation indicates the end of the pointer movement process with the finger and the selection process of the pointer, and is ended in response to an operation for instructing the end by an operation switch (not shown) of the operation unit 13. Further, in response to an operation for instructing the start by the operation switch, the process shown in the flow of FIG. 6 is started, and a pointer moving process and a pointer selecting process are performed.

次に、図8を参照して、図6のステップS7において、指が基準位置Aにあると判断された場合の処理について説明する。
図8に示すように、撮像部14により画像が撮影され、画像データが取り込まれる(ステップS21)。
Next, with reference to FIG. 8, a process when it is determined in step S7 in FIG. 6 that the finger is at the reference position A will be described.
As shown in FIG. 8, an image is taken by the imaging unit 14, and image data is captured (step S21).

次に、画像解析が行われ(ステップS22)、画像の形状、及び画像全体に対する指部分の占有率が履歴として記憶部15に保存される。そして、撮像部14の光軸方向に垂直な方向、すなわち、図3に示すX軸方向又はY軸方向におけるユーザの指の移動が検出されたか否かが判断される(ステップS23)。X軸方向又はY軸方向におけるユーザの指の移動が検出された場合には(ステップS23;YES)、検出された移動方向が制御部11内のレジスタf1に記憶される(ステップS24)。   Next, image analysis is performed (step S22), and the shape of the image and the occupancy rate of the finger portion with respect to the entire image are stored in the storage unit 15 as a history. Then, it is determined whether or not the movement of the user's finger in the direction perpendicular to the optical axis direction of the imaging unit 14, that is, the X-axis direction or the Y-axis direction shown in FIG. 3 is detected (step S23). When the movement of the user's finger in the X-axis direction or the Y-axis direction is detected (step S23; YES), the detected movement direction is stored in the register f1 in the control unit 11 (step S24).

移動方向が基準位置Aから基準位置Bへ向かう方向の場合には(ステップS25;YES)、図9(a)に示すように、表示部12の表示画面上に移動方向を示す下向き矢印32が表示され(ステップS26)、指の移動量に応じて表示画面上のポインタ31が下へ移動される(ステップS27)。なお、ポインタ31が表示画面上の一番下まで移動した場合には、画面全体が上にスクロールされる。   When the movement direction is the direction from the reference position A to the reference position B (step S25; YES), as shown in FIG. 9A, a downward arrow 32 indicating the movement direction is displayed on the display screen of the display unit 12. Displayed (step S26), the pointer 31 on the display screen is moved downward according to the amount of finger movement (step S27). When the pointer 31 moves to the bottom on the display screen, the entire screen is scrolled up.

移動方向が基準位置Aから基準位置Cへ向かう方向の場合には(ステップS25;NO,ステップS28;YES)、表示部12の表示画面上に右向き矢印が表示され(ステップS29)、指の移動量に応じて表示画面上のポインタが右へ移動される(ステップS30)。なお、ポインタが表示画面上の一番右まで移動した場合には、画面全体が左にスクロールされる。   When the moving direction is the direction from the reference position A to the reference position C (step S25; NO, step S28; YES), a right-pointing arrow is displayed on the display screen of the display unit 12 (step S29), and the finger is moved. The pointer on the display screen is moved to the right according to the amount (step S30). When the pointer moves to the rightmost position on the display screen, the entire screen is scrolled to the left.

移動方向が基準位置Bから基準位置Aへ向かう方向、又は、基準位置Cから基準位置Aへ向かう方向の場合には(ステップS25;NO,ステップS28;NO,ステップS31;YES)、これらの指の移動に伴うポインタの表示位置の移動は行われず、ステップS32に移行する。図6のステップS7において指が基準位置Aにあると判断された場合には、逆方向(基準位置Bから基準位置Aへ向かう方向、又は、基準位置Cから基準位置Aへ向かう方向)の移動は無視することにより、ポインタの表示位置を連続して順方向へ移動させることができる。   If the movement direction is from the reference position B to the reference position A, or from the reference position C to the reference position A (step S25; NO, step S28; NO, step S31; YES), these fingers The display position of the pointer is not moved along with this movement, and the process proceeds to step S32. When it is determined in step S7 in FIG. 6 that the finger is at the reference position A, the movement in the reverse direction (the direction from the reference position B to the reference position A, or the direction from the reference position C to the reference position A). By disregarding, the display position of the pointer can be continuously moved in the forward direction.

次に、画像全体に対する指部分の占有率に基づいて、撮像部14の光軸方向(Z軸方向)における撮像部14から指までの距離Z0が取得され(ステップS32)、ステップS21に戻る。 Next, the distance Z 0 from the imaging unit 14 to the finger in the optical axis direction (Z-axis direction) of the imaging unit 14 is acquired based on the occupancy rate of the finger portion with respect to the entire image (step S32), and the process returns to step S21. .

ステップS23において、X軸方向又はY軸方向におけるユーザの指の移動が検出されなかった場合には(ステップS23;NO)、撮像部14の光軸方向(Z軸方向)における指の移動の検出が行われる。まず、画像全体に対する指部分の占有率の変化があるか否かが判断される(ステップS33)。占有率の変化がある場合には(ステップS33;YES)、占有率が規定値以下であるか否かが判断される(ステップS34)。占有率が規定値以下である場合には(ステップS34;YES)、ユーザが撮像部14の撮影範囲から指を離したと考えられ、ステップS40に移行する。   If the movement of the user's finger in the X-axis direction or the Y-axis direction is not detected in step S23 (step S23; NO), the movement of the finger in the optical axis direction (Z-axis direction) of the imaging unit 14 is detected. Is done. First, it is determined whether or not there is a change in the occupancy ratio of the finger portion with respect to the entire image (step S33). If there is a change in the occupancy rate (step S33; YES), it is determined whether the occupancy rate is equal to or less than a specified value (step S34). When the occupation ratio is equal to or less than the specified value (step S34; YES), it is considered that the user has lifted his / her finger from the shooting range of the imaging unit 14, and the process proceeds to step S40.

占有率が規定値より大きい場合には(ステップS34;NO)、占有率に基づいて撮像部14から指までの距離が算出される(ステップS35)。そして、この距離が規定の範囲内であるか否かが判断される(ステップS36)。例えば、現在の撮像部14から指までの距離が、ステップS32で取得した距離Z0を用いて、Z0/2を中心としてZ0/2の±20%の範囲内であるか否かが判断される。 When the occupation ratio is larger than the specified value (step S34; NO), the distance from the imaging unit 14 to the finger is calculated based on the occupation ratio (step S35). Then, it is determined whether or not this distance is within a specified range (step S36). For example, the distance from the current imaging unit 14 to the finger, using the distance Z 0 obtained in step S32, whether or not within the range of ± 20% of the Z 0/2 around the Z 0/2 is To be judged.

指を撮像部14に近づけた結果、距離が規定の範囲内に入った場合には(ステップS36;YES)、ポインタ選択処理が行われ(ステップS37)、ステップS40に移行する。ポインタ選択処理とは、ポインタの表示位置で指定されている項目を選択する処理をいう。図9(b)に、ポインタ31が項目7を示す位置にあるときにポインタ選択処理が行われた場合の表示例を示す。表示画面上の項目7の部分33が反転表示され、選択されていることを示している。   If the distance is within the specified range as a result of bringing the finger close to the imaging unit 14 (step S36; YES), pointer selection processing is performed (step S37), and the process proceeds to step S40. The pointer selection process is a process for selecting an item designated by the display position of the pointer. FIG. 9B shows a display example when the pointer selection process is performed when the pointer 31 is at the position indicating the item 7. The item 33 portion 33 on the display screen is highlighted to indicate that it is selected.

ステップS31において移動方向が基準位置Bから基準位置Aへ向かう方向、基準位置Cから基準位置Aへ向かう方向のいずれでもない場合(ステップS31;NO)、ステップS33において占有率の変化がない場合(ステップS33;NO)、又は、ステップS36において距離が規定の範囲内でない場合には(ステップS36;NO)、カウントアップが開始される(ステップS38)。移動方向が基準位置Bから基準位置Aへ向かう方向、基準位置Cから基準位置Aへ向かう方向のいずれでもない状態、占有率の変化がない状態、又は、距離が規定の範囲内でない状態で、カウント値Mが所定値以上になった場合には(ステップS39;YES)、ステップS40に移行する。ステップS39からステップS40に移行する処理は、ユーザが指による操作を中断し、上述の状態が所定期間経過した場合である。カウント値Mが所定値に達する前に、指の移動が検出された場合には(ステップS39;NO)、ステップS21に戻る。   If the moving direction is neither the direction from the reference position B to the reference position A or the direction from the reference position C to the reference position A in Step S31 (Step S31; NO), or if the occupation rate does not change in Step S33 ( (Step S33; NO) or when the distance is not within the specified range in Step S36 (Step S36; NO), the count-up is started (Step S38). In a state where the moving direction is neither the direction from the reference position B to the reference position A, the direction from the reference position C to the reference position A, a state where there is no change in the occupation ratio, or a state where the distance is not within the specified range, When the count value M is equal to or greater than the predetermined value (step S39; YES), the process proceeds to step S40. The process that moves from step S39 to step S40 is when the user interrupts the operation with the finger and the above-described state has elapsed for a predetermined period. If movement of the finger is detected before the count value M reaches the predetermined value (step S39; NO), the process returns to step S21.

ステップS40では、移動方向を示す下向き又は右向きの矢印が表示されていれば、その表示が消去される(ステップS40)。そして、カウンタ(カウント値M)がクリアされ(ステップS41)、図6のステップS10に移行する。   In step S40, if a downward or rightward arrow indicating the moving direction is displayed, the display is deleted (step S40). Then, the counter (count value M) is cleared (step S41), and the process proceeds to step S10 in FIG.

次に、図10を参照して、図6のステップS8において、指が基準位置Bにあると判断された場合の処理について説明する。
図10に示すように、まず、表示部12の表示画面上に上向き矢印が表示される(ステップS51)。続いて、撮像部14により画像が撮影され、画像データが取り込まれる(ステップS52)。
Next, with reference to FIG. 10, a process when it is determined in step S8 of FIG. 6 that the finger is at the reference position B will be described.
As shown in FIG. 10, first, an upward arrow is displayed on the display screen of the display unit 12 (step S51). Subsequently, an image is captured by the imaging unit 14 and image data is captured (step S52).

次に、画像解析が行われ(ステップS53)、画像の形状、及び画像全体に対する指部分の占有率が履歴として記憶部15に保存される。そして、撮像部14の光軸方向に垂直な方向(X軸方向又はY軸方向)におけるユーザの指の移動が検出されたか否かが判断される(ステップS54)。X軸方向又はY軸方向におけるユーザの指の移動が検出された場合には(ステップS54;YES)、検出された移動方向が制御部11内のレジスタf1に記憶される(ステップS55)。   Next, image analysis is performed (step S53), and the shape of the image and the occupancy rate of the finger portion with respect to the entire image are stored in the storage unit 15 as a history. Then, it is determined whether or not the movement of the user's finger in a direction perpendicular to the optical axis direction of the imaging unit 14 (X-axis direction or Y-axis direction) is detected (step S54). When the movement of the user's finger in the X-axis direction or the Y-axis direction is detected (step S54; YES), the detected movement direction is stored in the register f1 in the control unit 11 (step S55).

移動方向が基準位置Bから基準位置Aへ向かう方向の場合には(ステップS56;YES)、指の移動量に応じて表示画面上のポインタが上へ移動される(ステップS57)。なお、ポインタが表示画面上の一番上まで移動した場合には、画面全体が下にスクロールされる。   When the movement direction is the direction from the reference position B to the reference position A (step S56; YES), the pointer on the display screen is moved upward according to the movement amount of the finger (step S57). If the pointer moves to the top of the display screen, the entire screen is scrolled down.

移動方向が基準位置Aから基準位置Bへ向かう方向の場合には(ステップS56;NO,ステップS58;YES)、この指の移動に伴うポインタの表示位置の移動は行われず、ステップS59に移行する。   When the moving direction is the direction from the reference position A to the reference position B (step S56; NO, step S58; YES), the pointer display position is not moved along with the movement of the finger, and the process proceeds to step S59. .

次に、画像全体に対する指部分の占有率に基づいて、撮像部14の光軸方向(Z軸方向)における撮像部14から指までの距離Z0が取得され(ステップS59)、ステップS52に戻る。 Next, the distance Z 0 from the imaging unit 14 to the finger in the optical axis direction (Z-axis direction) of the imaging unit 14 is acquired based on the occupancy rate of the finger portion with respect to the entire image (step S59), and the process returns to step S52. .

ステップS54において、X軸方向又はY軸方向におけるユーザの指の移動が検出されなかった場合には(ステップS54;NO)、撮像部14の光軸方向(Z軸方向)における指の移動の検出が行われる。まず、画像全体に対する指部分の占有率の変化があるか否かが判断される(ステップS60)。占有率の変化がある場合には(ステップS60;YES)、占有率が規定値以下であるか否かが判断される(ステップS61)。占有率が規定値以下である場合には(ステップS61;YES)、ユーザが撮像部14の撮影範囲から指を離したと考えられ、ステップS67に移行する。   If the movement of the user's finger in the X-axis direction or the Y-axis direction is not detected in step S54 (step S54; NO), the movement of the finger in the optical axis direction (Z-axis direction) of the imaging unit 14 is detected. Is done. First, it is determined whether or not there is a change in the occupancy ratio of the finger portion with respect to the entire image (step S60). If there is a change in the occupancy (step S60; YES), it is determined whether the occupancy is equal to or less than a specified value (step S61). When the occupation ratio is equal to or less than the specified value (step S61; YES), it is considered that the user has lifted his / her finger from the shooting range of the imaging unit 14, and the process proceeds to step S67.

占有率が規定値より大きい場合には(ステップS61;NO)、占有率に基づいて撮像部14から指までの距離が算出される(ステップS62)。そして、この距離が規定の範囲内であるか否かが判断される(ステップS63)。   When the occupation rate is larger than the specified value (step S61; NO), the distance from the imaging unit 14 to the finger is calculated based on the occupation rate (step S62). Then, it is determined whether this distance is within a specified range (step S63).

距離が規定の範囲内である場合には(ステップS63;YES)、ポインタ選択処理が行われ(ステップS64)、ステップS67に移行する。   If the distance is within the specified range (step S63; YES), pointer selection processing is performed (step S64), and the process proceeds to step S67.

ステップS58において移動方向が基準位置Aから基準位置Bへ向かう方向でない場合(ステップS58;NO)、ステップS60において占有率の変化がない場合(ステップS60;NO)、又は、ステップS63において距離が規定の範囲内でない場合には(ステップS63;NO)、カウントアップが開始される(ステップS65)。移動方向が基準位置Aから基準位置Bへ向かう方向でない状態、占有率の変化がない状態、又は、距離が規定の範囲内でない状態で、カウント値Mが所定値以上になった場合には(ステップS66;YES)、ステップS67に移行する。ステップS66からステップS67に移行する処理は、ユーザが指による操作を中断し、上述の状態が所定期間経過した場合である。カウント値Mが所定値に達する前に、指の移動が検出された場合には(ステップS66;NO)、ステップS52に戻る。   If the moving direction is not the direction from the reference position A to the reference position B in step S58 (step S58; NO), if there is no change in the occupation ratio in step S60 (step S60; NO), or the distance is specified in step S63. If it is not within the range (step S63; NO), the count-up is started (step S65). When the count value M is greater than or equal to a predetermined value when the moving direction is not the direction from the reference position A to the reference position B, the occupancy rate is not changed, or the distance is not within the specified range ( Step S66; YES), the process proceeds to Step S67. The process that proceeds from step S66 to step S67 is when the user interrupts the operation with the finger and the above-described state has elapsed for a predetermined period. If the movement of the finger is detected before the count value M reaches the predetermined value (step S66; NO), the process returns to step S52.

ステップS67では、移動方向を示す上向き矢印の表示が消去される(ステップS67)。そして、カウンタ(カウント値M)がクリアされ(ステップS68)、図6のステップS10に移行する。   In step S67, the display of the upward arrow indicating the moving direction is deleted (step S67). Then, the counter (count value M) is cleared (step S68), and the process proceeds to step S10 in FIG.

次に、図11を参照して、図6のステップS9において、指が基準位置Cにあると判断された場合の処理について説明する。
図11に示すように、まず、表示部12の表示画面上に左向き矢印が表示される(ステップS71)。続いて、撮像部14により画像が撮影され、画像データが取り込まれる(ステップS72)。
Next, with reference to FIG. 11, a process when it is determined that the finger is at the reference position C in step S9 in FIG. 6 will be described.
As shown in FIG. 11, first, a leftward arrow is displayed on the display screen of the display unit 12 (step S71). Subsequently, an image is captured by the imaging unit 14 and image data is captured (step S72).

次に、画像解析が行われ(ステップS73)、画像の形状、及び画像全体に対する指部分の占有率が履歴として記憶部15に保存される。そして、撮像部14の光軸方向に垂直な方向(X軸方向又はY軸方向)におけるユーザの指の移動が検出されたか否かが判断される(ステップS74)。X軸方向又はY軸方向におけるユーザの指の移動が検出された場合には(ステップS74;YES)、検出された移動方向が制御部11内のレジスタf1に記憶される(ステップS75)。   Next, image analysis is performed (step S73), and the shape of the image and the occupancy rate of the finger portion with respect to the entire image are stored in the storage unit 15 as a history. Then, it is determined whether or not the movement of the user's finger in a direction (X-axis direction or Y-axis direction) perpendicular to the optical axis direction of the imaging unit 14 is detected (step S74). When the movement of the user's finger in the X-axis direction or the Y-axis direction is detected (step S74; YES), the detected movement direction is stored in the register f1 in the control unit 11 (step S75).

移動方向が基準位置Cから基準位置Aへ向かう方向の場合には(ステップS76;YES)、指の移動量に応じて表示画面上のポインタが左へ移動される(ステップS77)。なお、ポインタが表示画面上の一番左まで移動した場合には、画面全体が右にスクロールされる。   When the movement direction is the direction from the reference position C to the reference position A (step S76; YES), the pointer on the display screen is moved to the left according to the movement amount of the finger (step S77). If the pointer moves to the leftmost position on the display screen, the entire screen is scrolled to the right.

移動方向が基準位置Aから基準位置Cへ向かう方向の場合には(ステップS76;NO,ステップS78;YES)、この指の移動に伴うポインタの表示位置の移動は行われず、ステップS79に移行する。   When the movement direction is the direction from the reference position A to the reference position C (step S76; NO, step S78; YES), the pointer display position is not moved along with the movement of the finger, and the process proceeds to step S79. .

次に、画像全体に対する指部分の占有率に基づいて、撮像部14の光軸方向(Z軸方向)における撮像部14から指までの距離Z0が取得され(ステップS79)、ステップS72に戻る。 Next, the distance Z 0 from the imaging unit 14 to the finger in the optical axis direction (Z-axis direction) of the imaging unit 14 is acquired based on the occupancy ratio of the finger portion with respect to the entire image (step S79), and the process returns to step S72. .

ステップS74において、X軸方向又はY軸方向におけるユーザの指の移動が検出されなかった場合には(ステップS74;NO)、撮像部14の光軸方向(Z軸方向)における指の移動の検出が行われる。まず、画像全体に対する指部分の占有率の変化があるか否かが判断される(ステップS80)。占有率の変化がある場合には(ステップS80;YES)、占有率が規定値以下であるか否かが判断される(ステップS81)。占有率が規定値以下である場合には(ステップS81;YES)、ユーザが撮像部14の撮影範囲から指を離したと考えられ、ステップS87に移行する。   If the movement of the user's finger in the X-axis direction or the Y-axis direction is not detected in step S74 (step S74; NO), the detection of the finger movement in the optical axis direction (Z-axis direction) of the imaging unit 14 is detected. Is done. First, it is determined whether or not there is a change in the occupancy ratio of the finger portion with respect to the entire image (step S80). If there is a change in the occupancy rate (step S80; YES), it is determined whether the occupancy rate is equal to or less than a specified value (step S81). When the occupation ratio is equal to or less than the specified value (step S81; YES), it is considered that the user has lifted his / her finger from the shooting range of the imaging unit 14, and the process proceeds to step S87.

占有率が規定値より大きい場合には(ステップS81;NO)、占有率に基づいて撮像部14から指までの距離が算出される(ステップS82)。そして、この距離が規定の範囲内であるか否かが判断される(ステップS83)。   When the occupation ratio is larger than the specified value (step S81; NO), the distance from the imaging unit 14 to the finger is calculated based on the occupation ratio (step S82). Then, it is determined whether this distance is within a specified range (step S83).

距離が規定の範囲内である場合には(ステップS83;YES)、ポインタ選択処理が行われ(ステップS84)、ステップS87に移行する。   If the distance is within the specified range (step S83; YES), pointer selection processing is performed (step S84), and the process proceeds to step S87.

ステップS78において移動方向が基準位置Aから基準位置Cへ向かう方向でない場合(ステップS78;NO)、ステップS80において占有率の変化がない場合(ステップS80;NO)、又は、ステップS83において距離が規定の範囲内でない場合には(ステップS83;NO)、カウントアップが開始される(ステップS85)。移動方向が基準位置Aから基準位置Cへ向かう方向でない状態、占有率の変化がない状態、又は、距離が規定の範囲内でない状態で、カウント値Mが所定値以上になった場合には(ステップS86;YES)、ステップS87に移行する。ステップS86からステップS87に移行する処理は、ユーザが指による操作を中断し、上述の状態が所定期間経過した場合である。カウント値Mが所定値に達する前に、指の移動が検出された場合には(ステップS86;NO)、ステップS72に戻る。   If the moving direction is not the direction from the reference position A to the reference position C in step S78 (step S78; NO), if the occupation rate does not change in step S80 (step S80; NO), or the distance is specified in step S83. If not within the range (step S83; NO), the count-up is started (step S85). When the count value M is equal to or greater than a predetermined value when the moving direction is not the direction from the reference position A to the reference position C, the occupancy rate is not changed, or the distance is not within the specified range ( Step S86; YES), the process proceeds to Step S87. The process that moves from step S86 to step S87 is when the user interrupts the operation with the finger and the above-described state has elapsed for a predetermined period. If movement of the finger is detected before the count value M reaches the predetermined value (step S86; NO), the process returns to step S72.

ステップS87では、移動方向を示す左向き矢印の表示が消去される(ステップS87)。そして、カウンタ(カウント値M)がクリアされ(ステップS88)、図6のステップS10に移行する。   In step S87, the left arrow indicating the moving direction is deleted (step S87). Then, the counter (count value M) is cleared (step S88), and the process proceeds to step S10 in FIG.

以上のように、本実施の形態の携帯電話機10によれば、撮像部14の光軸方向と垂直な方向における指の移動に基づいて、表示画面上のポインタの表示位置を移動させ、撮像部14の光軸方向における指の移動に基づいて、表示画面上のポインタの表示位置で指定されている項目の選択操作を検出するので、撮像部14により撮像された指の移動に基づいて、従来のポインティングデバイスに近い操作指示を行うことができる。また、特別なポインティングデバイスを必要としないため、従来の携帯電話機に対して大きな変更を加えることなく、ソフトウェア処理により本発明を実現することができる。   As described above, according to the mobile phone 10 of the present embodiment, the display position of the pointer on the display screen is moved based on the movement of the finger in the direction perpendicular to the optical axis direction of the imaging unit 14, and the imaging unit Since the selection operation of the item designated by the display position of the pointer on the display screen is detected based on the movement of the finger in the direction of the optical axis 14, the conventional operation is performed based on the movement of the finger imaged by the imaging unit 14. The operation instruction close to the pointing device can be performed. Further, since a special pointing device is not required, the present invention can be realized by software processing without greatly changing the conventional mobile phone.

また、撮像部14で撮像された画像から指の存在が検出された場合に、表示画面上の所定位置にポインタを表示することができる。したがって、指が検出されない場合はポインタを表示しないため、表示画面上に意図しないポインタが表示されることなく、見やすい画面構成にすることができる。   In addition, when the presence of a finger is detected from an image captured by the imaging unit 14, a pointer can be displayed at a predetermined position on the display screen. Therefore, since the pointer is not displayed when the finger is not detected, an unintended pointer is not displayed on the display screen, and the screen configuration can be easily viewed.

なお、本実施の形態では、データ処理装置として携帯電話機10を例に挙げているが、デジタルカメラ付きPDA、デジタルカメラ付きPC(Personal Computer)、デジタルカメラ等でもよく、特に限定するものではない。   In the present embodiment, the cellular phone 10 is taken as an example of the data processing device, but a PDA with a digital camera, a PC (Personal Computer) with a digital camera, a digital camera, or the like may be used, and is not particularly limited.

また、本実施の形態においては、図5(a)及び(b)に示すような基準位置A,B,Cを用いた例について説明したが、表示位置の移動範囲が狭い場合には、基準位置を撮像部14の正面中央付近とし、この位置からの被写体の移動を検出して、上下左右にポインタの表示位置を移動させることとしてもよい。   In the present embodiment, the example using the reference positions A, B, and C as shown in FIGS. 5A and 5B has been described. However, when the moving range of the display position is narrow, the reference position The position may be set near the center of the front of the imaging unit 14, the movement of the subject from this position may be detected, and the display position of the pointer may be moved vertically and horizontally.

また、本実施の形態においては、通常モードではポインタを表示せず、ポイント制御モードに設定された場合にポインタを表示画面上に表示することとしたが、通常モードでポインタを表示し、ポイント制御モードの開始によってポインタを通常表示とは異なる識別表示(例えば、ポインタを点滅表示し、若しくは通常表示より大きく表示)することにより、ポインタの移動処理及びポインタの選択処理に移行すると共に、このことをユーザに報知するようにしてもよい。   In the present embodiment, the pointer is not displayed in the normal mode, and the pointer is displayed on the display screen when the point control mode is set. However, the pointer is displayed in the normal mode and the point control is performed. At the start of the mode, the pointer is displayed differently from the normal display (for example, the pointer blinks or is displayed larger than the normal display), and the process moves to the pointer movement process and the pointer selection process. You may make it alert | report to a user.

また、本実施の形態においては、操作部13の図示しない操作スイッチによる開始を指示する操作に応答して、図6のフローで示す処理が開始されてポインタの移動処理及びポインタの選択処理が行われ、また、この操作スイッチによる終了を指示する操作に応答して(ステップS12;YES)、処理を終了するようにしたが、この操作スイッチは必ずしも必要ではなく、図6のステップS2で指の存在が検出されない状態では、ポインタの移動処理及びポインタの選択処理以外の処理を行い、ステップS2で指の存在が検出された場合は、自動的にポインタの移動処理及びポインタの選択処理に移行するようにしてもよい。また、撮像部14のカメラ部分を特定の位置に回動させることにより、自動的にポインタの移動処理及びポインタの選択処理に移行するようにしてもよい。   Further, in the present embodiment, in response to an operation for instructing start by an operation switch (not shown) of the operation unit 13, the processing shown in the flow of FIG. 6 is started to perform pointer movement processing and pointer selection processing. Further, in response to the operation for instructing the end by the operation switch (step S12; YES), the processing is ended. However, this operation switch is not always necessary, and the operation switch is not necessary at step S2 in FIG. In the state where the presence is not detected, processing other than the pointer movement processing and the pointer selection processing is performed. When the presence of a finger is detected in step S2, the processing automatically shifts to the pointer movement processing and the pointer selection processing. You may do it. Alternatively, the camera portion of the imaging unit 14 may be rotated to a specific position to automatically shift to pointer movement processing and pointer selection processing.

また、本実施の形態においては、X軸方向及びY軸方向の移動検出時に取得された距離Z0を基準として、撮像部14から指までの距離がZ0/2±20%の範囲内に入った場合に、ポインタの選択操作として検出することとしたが、撮像部14から指までの距離が所定時間内に規定範囲内(例えば、Z0/2±20%)に2回入った場合に、ポインタの選択操作として検出することとしてもよい。この操作は、従来のマウスによるダブルクリックに相当する操作であり、ポインタの選択操作としてユーザにわかり易い操作を提供できる。また、撮像部14から指までの距離が所定時間内に規定範囲内に入った回数に応じて、例えば1回はクリック操作、2回はダブルクリック操作として夫々区別してもよく、3回以上で他の選択操作を行わせるように設定することもできる。
更に、撮像部14から指までの距離がX軸方向及びY軸方向の移動検出時に取得された距離Z0より短くなった場合に、ポインタの選択操作として検出することとしたが、距離Z0より長くなった場合に、ポインタの選択操作として検出するようにしてもよく、この場合も、距離が所定時間内に規定範囲内に入ったこと若しくはその回数に応じて選択操作を行わせるように設定するようにしてもよい。
In the present embodiment, the distance from the imaging unit 14 to the finger is within a range of Z 0/2 ± 20% with reference to the distance Z 0 acquired when movement in the X-axis direction and the Y-axis direction is detected. When it enters, it is determined as a pointer selection operation, but the distance from the imaging unit 14 to the finger enters the specified range (for example, Z 0/2 ± 20%) twice within a predetermined time Alternatively, it may be detected as a pointer selection operation. This operation is equivalent to a conventional double click with the mouse, and can provide an easy-to-understand operation to the user as a pointer selection operation. Further, depending on the number of times the distance from the imaging unit 14 to the finger has entered the specified range within a predetermined time, for example, one time may be distinguished as a click operation, and two times may be distinguished as a double click operation. It can also be set to perform other selection operations.
Further, when the distance from the imaging unit 14 until the finger becomes shorter than the distance Z 0 obtained when moving the detection of X-axis and Y-axis directions, but was detected as the pointer selection operation, the distance Z 0 If it becomes longer, it may be detected as a pointer selection operation. In this case, too, the distance is within the specified range within a predetermined time or the selection operation is performed according to the number of times. You may make it set.

また、本実施の形態においては、撮像部14から規定の範囲の距離に存在する指を検出することとしたが、撮像部14を覆うように指を移動させて、その移動方向を検出することとしてもよい。   Further, in the present embodiment, a finger that exists within a specified range of distance from the imaging unit 14 is detected, but the finger is moved so as to cover the imaging unit 14 and its moving direction is detected. It is good.

また、本実施の形態においては、撮像部14により撮像される被写体として、親指を例として説明したが、これに限定されず、他の指やペン等の物体を用いることとしてもよい。また、携帯電話機10等のデータ処理装置における撮像部14の位置についても図示例に限定されず、ユーザが使いやすい位置であればよい。   Further, in the present embodiment, the thumb is described as an example of the subject imaged by the imaging unit 14, but the present invention is not limited to this, and another object such as a finger or a pen may be used. Further, the position of the imaging unit 14 in the data processing apparatus such as the mobile phone 10 is not limited to the illustrated example, and may be any position that is easy for the user to use.

また、本実施の形態においては、撮像部14の光軸方向と垂直な方向における指の移動方向を、X軸方向とY軸方向とに分けて検出することとしたが、これら2方向の移動方向をベクトル合成して、合成された方向にポインタを移動させることとしてもよい。   In the present embodiment, the finger movement direction in the direction perpendicular to the optical axis direction of the imaging unit 14 is detected separately for the X-axis direction and the Y-axis direction. The directions may be combined into a vector and the pointer may be moved in the combined direction.

<変形例>
変形例として、図6のステップS5においてポインタを定められた基準位置を初期位置としてこの位置に表示させる代わりに、表示画面中で移動方向とは逆の位置を初期位置としてこの位置にポインタを表示することとしてもよい。例えば、図8のステップS26で下向き矢印を表示させた後、ポインタを表示画面上の中央上位置を初期位置としてこの位置に表示させる。また、図8のステップS29で右向き矢印を表示させた後、ポインタを表示画面上の中央左位置を初期位置としてこの位置に表示させる。また、図10のステップS51で上向き矢印を表示させた後、ポインタを表示画面上の中央下位置を初期位置としてこの位置に表示させる。また、図11のステップS71で左向き矢印を表示させた後、ポインタを表示画面上の中央右位置を初期位置としてこの位置に表示させる。
<Modification>
As a modified example, instead of displaying the reference position determined by the pointer in step S5 in FIG. 6 as the initial position at this position, the pointer is displayed at this position with the position opposite to the moving direction as the initial position on the display screen. It is good to do. For example, after the downward arrow is displayed in step S26 of FIG. 8, the pointer is displayed at this position with the upper center position on the display screen as the initial position. Further, after a right arrow is displayed in step S29 of FIG. 8, the pointer is displayed at this position with the center left position on the display screen as the initial position. Further, after an upward arrow is displayed in step S51 of FIG. 10, the pointer is displayed at this position with the lower center position on the display screen as the initial position. Further, after the left arrow is displayed in step S71 of FIG. 11, the pointer is displayed at this position with the center right position on the display screen as the initial position.

(a)は、本発明の実施の形態における携帯電話機10の外観斜視図であり、(b)は、携帯電話機10の折り畳んだ状態を示す外観図である。(A) is an external appearance perspective view of the mobile phone 10 in embodiment of this invention, (b) is an external view which shows the folded state of the mobile phone 10. FIG. 本発明における携帯電話機10の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the mobile telephone 10 in this invention. 指の移動方向を説明するための図である。It is a figure for demonstrating the moving direction of a finger | toe. (a)は、携帯電話機10における撮像画像の模式図であり、(b)は、撮像画像におけるユーザの指先を示した図である。(A) is the schematic diagram of the captured image in the mobile telephone 10, (b) is the figure which showed the user's fingertip in the captured image. (a)は、指の移動の基準となる基準位置A,Bを示す図であり、(b)は、指の移動の基準となる基準位置A,Cを示す図である。(A) is a figure which shows the reference positions A and B used as the reference | standard of finger movement, (b) is a figure which shows the reference positions A and C used as the reference | standard of finger movement. 携帯電話機10の動作処理を説明するフローチャートである。4 is a flowchart for explaining an operation process of the mobile phone 10. (a)は、指の存在が検出される前の表示部12の表示画面の一例であり、(b)は、ポインタ表示時における表示部12の表示画面の一例である。(A) is an example of the display screen of the display part 12 before presence of a finger | toe is detected, (b) is an example of the display screen of the display part 12 at the time of a pointer display. 携帯電話機10の動作処理を説明するフローチャートである。4 is a flowchart for explaining an operation process of the mobile phone 10. (a)は、ポインタ移動時における表示部12の表示画面の一例であり、(b)は、ポインタ選択時における表示部12の表示画面の一例である。(A) is an example of the display screen of the display unit 12 when the pointer is moved, and (b) is an example of the display screen of the display unit 12 when the pointer is selected. 携帯電話機10の動作処理を説明するフローチャートである。4 is a flowchart for explaining an operation process of the mobile phone 10. 携帯電話機10の動作処理を説明するフローチャートである。4 is a flowchart for explaining an operation process of the mobile phone 10.

符号の説明Explanation of symbols

10 携帯電話機
11 制御部
12 表示部
13 操作部
14 撮像部
15 記憶部
16 検出部
17 ヒンジ
18 バス
DESCRIPTION OF SYMBOLS 10 Mobile telephone 11 Control part 12 Display part 13 Operation part 14 Imaging part 15 Storage part 16 Detection part 17 Hinge 18 Bus

Claims (4)

被写体を撮像する撮像手段と、
前記撮像手段で撮像された被写体の前記撮像手段の光軸方向と垂直な方向における移動を検出する第1の移動検出手段と、
前記撮像手段で撮像された被写体の前記撮像手段の光軸方向における移動を検出する第2の移動検出手段と、
前記第1の移動検出手段により検出された被写体の前記撮像手段の光軸方向と垂直な方向における移動に基づいて、表示画面上のポインタの表示位置を移動させる表示制御手段と、
前記第2の移動検出手段により検出された被写体の前記撮像手段の光軸方向における移動に基づいて、前記表示画面上のポインタの表示位置で指定されている項目の選択操作を検出する選択操作検出手段と、
を備えたことを特徴とするデータ処理装置。
Imaging means for imaging a subject;
First movement detection means for detecting movement of a subject imaged by the imaging means in a direction perpendicular to the optical axis direction of the imaging means;
Second movement detecting means for detecting movement of the subject imaged by the imaging means in the optical axis direction of the imaging means;
Display control means for moving the display position of the pointer on the display screen based on movement of the subject detected by the first movement detection means in a direction perpendicular to the optical axis direction of the imaging means;
Selection operation detection that detects a selection operation of an item designated at the display position of the pointer on the display screen based on the movement of the imaging unit in the optical axis direction of the subject detected by the second movement detection unit Means,
A data processing apparatus comprising:
請求項1に記載のデータ処理装置において、
前記撮像手段で撮像された画像から前記被写体の存在を検出する被写体検出手段を備え、
前記表示制御手段は、前記被写体検出手段により前記被写体の存在が検出された場合に、前記表示画面上の所定位置にポインタを表示させることを特徴とするデータ処理装置。
The data processing apparatus according to claim 1,
Subject detection means for detecting the presence of the subject from an image captured by the imaging means;
The data processing apparatus, wherein the display control means displays a pointer at a predetermined position on the display screen when the presence of the subject is detected by the subject detection means.
請求項1又は2に記載のデータ処理装置において、
前記被写体の基準位置を示す画像を記憶する記憶手段を備え、
前記第1の移動検出手段は、前記撮像手段で撮像された画像と、前記記憶手段に記憶されている前記被写体の基準位置を示す画像とを比較することにより、前記被写体の前記撮像手段の光軸方向と垂直な方向における移動を検出することを特徴とするデータ処理装置。
The data processing apparatus according to claim 1 or 2,
Storage means for storing an image indicating a reference position of the subject;
The first movement detection unit compares the image captured by the imaging unit with an image indicating the reference position of the subject stored in the storage unit, so that the light of the imaging unit of the subject is detected. A data processing apparatus for detecting movement in a direction perpendicular to an axial direction.
コンピュータに、
撮像手段で撮像された被写体の前記撮像手段の光軸方向と垂直な方向における移動を検出する第1の移動検出機能と、
前記撮像手段で撮像された被写体の前記撮像手段の光軸方向における移動を検出する第2の移動検出機能と、
前記第1の移動検出機能において検出された被写体の前記撮像手段の光軸方向と垂直な方向における移動に基づいて、表示画面上のポインタの表示位置を移動させる表示制御機能と、
前記第2の移動検出機能において検出された被写体の前記撮像手段の光軸方向における移動に基づいて、前記表示画面上のポインタの表示位置で指定されている項目の選択操作を検出する選択操作検出機能と、
を実現させるためのプログラム。
On the computer,
A first movement detection function for detecting movement of a subject imaged by the imaging means in a direction perpendicular to the optical axis direction of the imaging means;
A second movement detection function for detecting movement of the subject imaged by the imaging means in the optical axis direction of the imaging means;
A display control function for moving the display position of the pointer on the display screen based on the movement of the subject detected in the first movement detection function in a direction perpendicular to the optical axis direction of the imaging means;
Selection operation detection that detects a selection operation of an item designated by the display position of the pointer on the display screen based on the movement of the subject detected in the second movement detection function in the optical axis direction of the imaging unit Function and
A program to realize
JP2004281979A 2004-09-28 2004-09-28 Data processing apparatus and program Pending JP2006099228A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004281979A JP2006099228A (en) 2004-09-28 2004-09-28 Data processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004281979A JP2006099228A (en) 2004-09-28 2004-09-28 Data processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2006099228A true JP2006099228A (en) 2006-04-13

Family

ID=36239005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004281979A Pending JP2006099228A (en) 2004-09-28 2004-09-28 Data processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2006099228A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009260907A (en) * 2008-03-18 2009-11-05 Nec Corp Portable terminal apparatus, terminal operation method, program, and recording medium
US8094204B2 (en) 2006-08-28 2012-01-10 Sony Corporation Image movement based device control method, program, and apparatus
JP2013178785A (en) * 2013-03-13 2013-09-09 Mitsubishi Electric Corp Map information processing device
JP2014059803A (en) * 2012-09-19 2014-04-03 Alps Electric Co Ltd Input device
KR101417037B1 (en) * 2007-12-20 2014-07-08 주식회사 엘지유플러스 Apparatus and method of screen scrolling in mobile web browser using camera

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094204B2 (en) 2006-08-28 2012-01-10 Sony Corporation Image movement based device control method, program, and apparatus
KR101417037B1 (en) * 2007-12-20 2014-07-08 주식회사 엘지유플러스 Apparatus and method of screen scrolling in mobile web browser using camera
JP2009260907A (en) * 2008-03-18 2009-11-05 Nec Corp Portable terminal apparatus, terminal operation method, program, and recording medium
JP2014059803A (en) * 2012-09-19 2014-04-03 Alps Electric Co Ltd Input device
JP2013178785A (en) * 2013-03-13 2013-09-09 Mitsubishi Electric Corp Map information processing device

Similar Documents

Publication Publication Date Title
JP5921427B2 (en) Imaging control apparatus and control method thereof
JP5915000B2 (en) Information processing apparatus and program
CN103513924B (en) Electronic device and control method thereof
CN107743189B (en) Display control device and display control method
JP5120460B2 (en) Mobile terminal and input control method
US20080079837A1 (en) Focusing Area Adjusting Camera-Carrying Portable Terminal
US20120162105A1 (en) Information processing device, method of processing information, and computer program storage device
JP2009140368A (en) INPUT DEVICE, DISPLAY DEVICE, INPUT METHOD, DISPLAY METHOD, AND PROGRAM
JP6004693B2 (en) Display control apparatus and control method thereof
JP2002041235A (en) Device, wrist watch type device, control method of device and transfer method of pointer
CN105898143A (en) Moving object snapshotting method and mobile terminal
JP6701033B2 (en) Electronic device and control method thereof
CN104461343B (en) Display device, display control method and recording medium
CN107172347A (en) A kind of photographic method and terminal
JP2023179345A (en) Information input method, information input device, electronic equipment, and storage medium
JP5167896B2 (en) Setting device and program
JP2006099228A (en) Data processing apparatus and program
KR101126867B1 (en) Photographing method of wireless terminal capable of photographing shot mode using touch pattern
JP4685708B2 (en) Mobile terminal device
JP6197012B2 (en) Information processing apparatus and information processing method
JP7366682B2 (en) Electronic equipment and its control method
CN112286425A (en) Electronic device, control method of electronic device, and computer-readable medium
JP7613031B2 (en) Electronic device, input method and program
JP2005284644A (en) Data processing apparatus and program
JP6529300B2 (en) Display control device and control method thereof