JP2006099228A - Data processing apparatus and program - Google Patents
Data processing apparatus and program Download PDFInfo
- Publication number
- JP2006099228A JP2006099228A JP2004281979A JP2004281979A JP2006099228A JP 2006099228 A JP2006099228 A JP 2006099228A JP 2004281979 A JP2004281979 A JP 2004281979A JP 2004281979 A JP2004281979 A JP 2004281979A JP 2006099228 A JP2006099228 A JP 2006099228A
- Authority
- JP
- Japan
- Prior art keywords
- movement
- finger
- pointer
- axis direction
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】撮像手段により撮像された被写体の移動に基づいて、従来のポインティングデバイスに近い操作指示を行う。
【解決手段】撮像部14の光軸方向と垂直な方向(X軸方向又はY軸方向)における指の移動を検出し、この移動に基づいて、表示画面上のポインタの表示位置を移動させる。また、撮像部14の光軸方向(Z軸方向)における指の移動を検出し、指が撮像部14に近づき、規定の範囲内に入った場合に、表示画面上のポインタの表示位置で指定されている項目の選択操作を検出する。
【選択図】図5An operation instruction close to that of a conventional pointing device is issued based on movement of a subject imaged by an imaging means.
The movement of a finger in a direction (X-axis direction or Y-axis direction) perpendicular to the optical axis direction of an imaging unit is detected, and the display position of the pointer on the display screen is moved based on this movement. Also, when the movement of the finger in the optical axis direction (Z-axis direction) of the image pickup unit 14 is detected and the finger approaches the image pickup unit 14 and enters the specified range, it is designated by the display position of the pointer on the display screen. Detects the selected item selection operation.
[Selection] Figure 5
Description
本発明は、カメラを利用して表示画面上のポインタ操作を行うデータ処理装置及びプログラムに関する。 The present invention relates to a data processing apparatus and program for performing a pointer operation on a display screen using a camera.
従来、表示画面上での操作指示を行うためのポインタは画面上に常に表示されており、ボールマウス、光学マウス、トラックボールやタッチパッド等の操作によってポインタ移動が行われている。それに対して、携帯電話機やPDA(Personal Digital Assistant)等の小型機器においては、マウスのようなポインタ専用の入力装置を搭載していないものが多く、表示画面に占めるポインタの表示割合も大きく見づらいものとなるため、通常、本体のキー操作によって画面上のフォーカス位置を移動させている。 Conventionally, a pointer for performing an operation instruction on a display screen is always displayed on the screen, and the pointer is moved by operating a ball mouse, an optical mouse, a trackball, a touch pad, or the like. On the other hand, many small devices such as mobile phones and PDAs (Personal Digital Assistants) do not have a pointer-specific input device such as a mouse, and the display ratio of the pointer in the display screen is difficult to see. Therefore, the focus position on the screen is usually moved by key operation of the main body.
また、フォーカス位置が確定した後、その位置に表示されている項目に対応する機能を実行させるために、項目の選択操作を行う必要がある。通常のマウスであれば、クリック又はダブルクリックを行うことにより選択操作を行い、矢印キーで操作する場合には、確定キーを押下することにより、選択操作を行っている。画面上にタッチパネルを装備している場合には、ターゲットとなる位置に直接触れることにより、選択操作を行うことができる。 Further, after the focus position is determined, it is necessary to perform an item selection operation in order to execute a function corresponding to the item displayed at the position. In the case of a normal mouse, the selection operation is performed by clicking or double-clicking, and when the operation is performed using the arrow keys, the selection operation is performed by pressing the enter key. When the touch panel is equipped on the screen, the selection operation can be performed by directly touching the target position.
近年、携帯端末等では小型カメラを搭載したものが多くなっている。例えば、カメラで撮影したユーザの指先のジェスチャーに応じてポインタ移動及びクリック操作が行われる携帯通信端末が提案されている(例えば、特許文献1参照)。
しかし、上記従来技術のようなカメラを利用したジェスチャーによるポインタ操作指示は、従来からのマウス等の平面上におけるポインタ移動操作と付属ボタン押下による選択操作に慣れているユーザにとって使い慣れないものであった。そのため、より従来のポインティングデバイスであるマウス等に近い操作指示が可能となるよう、さらなる開発が望まれていた。 However, the pointer operation instruction by the gesture using the camera as in the above prior art is not familiar to the user who is used to the conventional pointer movement operation on a plane such as a mouse and the selection operation by pressing the attached button. . Therefore, further development has been desired so that an operation instruction closer to a mouse or the like that is a conventional pointing device can be performed.
本発明の課題は、撮像手段により撮像された被写体の移動に基づいて、従来のポインティングデバイスに近い操作指示を可能とするデータ処理装置及びプログラムを提供することである。 An object of the present invention is to provide a data processing apparatus and a program that enable an operation instruction close to that of a conventional pointing device based on movement of a subject imaged by an imaging unit.
上記課題を解決するために、請求項1に記載の発明は、データ処理装置において、被写体を撮像する撮像手段と、前記撮像手段で撮像された被写体の前記撮像手段の光軸方向と垂直な方向における移動を検出する第1の移動検出手段と、前記撮像手段で撮像された被写体の前記撮像手段の光軸方向における移動を検出する第2の移動検出手段と、前記第1の移動検出手段により検出された被写体の前記撮像手段の光軸方向と垂直な方向における移動に基づいて、表示画面上のポインタの表示位置を移動させる表示制御手段と、前記第2の移動検出手段により検出された被写体の前記撮像手段の光軸方向における移動に基づいて、前記表示画面上のポインタの表示位置で指定されている項目の選択操作を検出する選択操作検出手段と、を備えたことを特徴とする。 In order to solve the above-described problem, in the data processing device according to the first aspect of the present invention, there is provided an image capturing unit that captures an image of a subject, and a direction perpendicular to the optical axis direction of the image capturing unit captured by the image capturing unit. A first movement detecting means for detecting movement in the image, a second movement detecting means for detecting movement of the subject imaged by the imaging means in the optical axis direction of the imaging means, and the first movement detecting means. Display control means for moving the display position of the pointer on the display screen based on movement of the detected subject in a direction perpendicular to the optical axis direction of the imaging means, and subject detected by the second movement detection means Selection operation detecting means for detecting the selection operation of an item designated by the display position of the pointer on the display screen based on the movement of the imaging means in the optical axis direction. And wherein the door.
請求項4に記載の発明は、コンピュータに、撮像手段で撮像された被写体の前記撮像手段の光軸方向と垂直な方向における移動を検出する第1の移動検出機能と、前記撮像手段で撮像された被写体の前記撮像手段の光軸方向における移動を検出する第2の移動検出機能と、前記第1の移動検出機能において検出された被写体の前記撮像手段の光軸方向と垂直な方向における移動に基づいて、表示画面上のポインタの表示位置を移動させる表示制御機能と、前記第2の移動検出機能において検出された被写体の前記撮像手段の光軸方向における移動に基づいて、前記表示画面上のポインタの表示位置で指定されている項目の選択操作を検出する選択操作検出機能と、を実現させるためのプログラムである。 According to a fourth aspect of the present invention, a first movement detection function for detecting a movement of a subject imaged by the imaging means in a direction perpendicular to the optical axis direction of the imaging means is captured by the computer and the imaging means. A second movement detection function for detecting movement of the image pickup means in the optical axis direction of the image pickup means, and movement of the object detected in the first movement detection function in a direction perpendicular to the optical axis direction of the image pickup means. Based on the display control function for moving the display position of the pointer on the display screen and the movement of the subject detected in the second movement detection function in the optical axis direction of the imaging means on the display screen. This is a program for realizing a selection operation detecting function for detecting an operation for selecting an item designated by a display position of a pointer.
請求項1、4に記載の発明によれば、被写体の撮像手段の光軸方向と垂直な方向における移動に基づいて、表示画面上のポインタの表示位置を移動させ、被写体の撮像手段の光軸方向における移動に基づいて、表示画面上のポインタの表示位置で指定されている項目の選択操作を検出するので、撮像手段により撮像された被写体の移動に基づいて、従来のポインティングデバイスに近い操作指示を行うことができる。 According to the first and fourth aspects of the present invention, the display position of the pointer on the display screen is moved based on the movement of the subject imaging unit in the direction perpendicular to the optical axis direction, and the optical axis of the subject imaging unit is detected. Since the selection operation of the item specified by the display position of the pointer on the display screen is detected based on the movement in the direction, the operation instruction close to the conventional pointing device is based on the movement of the subject imaged by the imaging means It can be performed.
以下、本発明の実施の形態に係るデータ処理装置としての携帯電話機10について、図面を参照しながら説明する。ただし、発明の範囲は図示例に限定されない。
Hereinafter, a
図1(a)は、携帯電話機10の外観斜視図である。図1(a)に示すように、表示部12を備えた上部と、操作部13を備えた下部と、が撮像部14を備えたヒンジ17により接合されており、ヒンジ17を軸に上部と下部を折り畳むことができる構成となっている。図1(b)は、携帯電話機10の折り畳んだ状態を示す外観図である。携帯電話機10は、情報を確認するための表示部12と、簡単な操作指示を行うための操作部13と、を備える。なお、本実施の形態では、上記構成の折り畳み式携帯電話機を例として挙げているが、特に限定するものではない。
FIG. 1A is an external perspective view of the
次に、図2を参照して、携帯電話機10の内部構成を説明する。図2に示すように、携帯電話機10は、制御部11、表示部12、操作部13、撮像部14、記憶部15、検出部16を備え、これら各部はバス18を介して互いに接続されている。
Next, the internal configuration of the
制御部11は、図示しないCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、CPUにおいて、RAMの所定領域を作業領域としてROMに記憶されている各種制御プログラムに従い、上記各部に制御信号を送って携帯電話機10の動作全般を統括制御する。
The
制御部11は、撮像部14で撮像された画像から被写体である指の存在が検出された場合に、表示部12の表示画面上の所定位置にポインタを表示させる。ここで、ポインタとは、表示画面中の特定の項目、位置等を指示する表示形態をいい、いわゆるカーソルや表示項目の反転表示等を含む意である。また、制御部11は、撮像部14の光軸方向と垂直な方向における指の移動に基づいて、表示部12の表示画面上のポインタの表示位置を移動させる。また、制御部11は、撮像部14の光軸方向における指の移動に基づいて、表示部12の表示画面上のポインタの表示位置で指定されている項目の選択操作を検出する。
The
表示部12は、液晶ディスプレイ等から構成されており、制御部11から入力された表示データに基づいて表示画面上に画像を表示する。
The
操作部13は、携帯電話機10に対する操作指示を入力するための数字キー、文字キー、機能キー等の各種キーにより構成され、そのキー操作による押下信号を制御部11に出力する。ユーザは、表示部12に表示される画面を参照しながら操作部13を操作することにより携帯電話機10に対する各種操作指示を入力する。
The
撮像部14は、ガラスやプラスチック等からなる光学レンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を平面上に多数配設した撮像画素面等から構成されている。撮像部14は、制御部11から撮影を行う指示が入力されると、光学レンズを介して入力され撮像画素面上に結像された被写体像を電気信号に変換して画像データを生成し、制御部11へ出力する。
The
記憶部15は、制御部11により実行される各種制御処理プログラム及びこれらのプログラムで利用するデータ等が予め記憶されている記録媒体を有している。この記録媒体は、磁気的・光学的記録媒体又は不揮発性メモリ等で構成されており、OS(Operating System)、各種アプリケーションプログラム、各種条件設定又はデータを格納する。なお、記憶部15が記憶するプログラム又はデータ等は、その一部又は全部を他の機器から通信ネットワークを介して受信して記憶する構成にしてもよい。
The
また、記憶部15には、後述する指の移動の基準となる基準位置A,B,Cを示す画像が記憶されている。また、記憶部15には、画像全体に対する指部分の占有率と、指から撮像部14までの距離と、が対応付けられて記憶されている。具体的には、記憶部15には、占有率と距離とが対応付けられた変換テーブルが記憶されていてもよいし、指から撮像部14までの距離を算出するための占有率を変数とした計算式が記憶されていてもよい。
In addition, the
検出部16は、検出用DSP(Digital Signal Processor)からなり、制御部11の指示により、撮像部14により撮像された画像から、指の検出及び指の移動の検出を行う。指の移動方向として、図3に示すように、撮像部14の光軸方向にZ軸を取り、Z軸に垂直な方向にX軸及びY軸を取る。
The
検出部16は、撮像部14により撮像された画像から指の存在を検出する。
図4(a)は、撮像部14におけるn×m個の撮像素子による撮像画像21の模式図である。各画像素子は、n列からなる画素列xとm行からなる画素行yとが格子行列状に配置されている。図4(b)は撮像画像22におけるユーザの指先23を例示した図である。撮像画像22の網掛け表示されている部分は、色相・明度・彩度に基づいて肌色であると検出された画素である。肌色であると検出された画素部分の形状が指の特徴を示す形状である場合には、画像全体に対する指部分の占有率を算出し、占有率が規定値(例えば10%)を超えた場合に、指の存在を検出する。手ぶれや取り込む画像の周辺からの影響により、指が存在するか否かの判断が頻繁に変化してしまうのを防ぐために、前記占有率の変化が所定の範囲内(例えば10%±1%)で所定の時間(例えば1秒間)継続した場合に、指の存在を検出することが好ましい。ここにおける検出は、肌色の検出と形状の判定から行ったが、色及び形状はどのように設定してもよく、特に限定するものではない。
The
FIG. 4A is a schematic diagram of a captured
検出部16は、撮像部14により撮像された画像から撮像部14の光軸方向と垂直な方向(図3のX軸方向及びY軸方向)における指の移動方向及び移動量を検出する。
図5(a)に、指の移動の基準となる基準位置A,Bを示す。指が基準位置Aから基準位置Bへ移動することにより下方向の移動を示す。逆に、指が基準位置Bから基準位置Aへ移動することにより上方向の移動を示す。また、図5(b)に、指の移動の基準となる基準位置A,Cを示す。指が基準位置Aから基準位置Cへ移動することにより右方向の移動を示す。逆に、指が基準位置Cから基準位置Aへ移動することにより左方向の移動を示す。
The
FIG. 5 (a) shows reference positions A and B that serve as references for finger movement. A downward movement is indicated by the finger moving from the reference position A to the reference position B. Conversely, the upward movement is indicated by the finger moving from the reference position B to the reference position A. FIG. 5 (b) shows reference positions A and C which are the reference for finger movement. When the finger moves from the reference position A to the reference position C, a rightward movement is indicated. Conversely, the movement of the finger from the reference position C to the reference position A indicates a leftward movement.
基準位置設定モードで、ユーザが実際に操作を行うことにより、基準位置の画像の形、位置、動きを取り込んで、各ユーザに適した基準位置A,B,Cの画像を記憶するようにしてもよい。 In the reference position setting mode, when the user actually performs an operation, the shape, position, and movement of the image at the reference position are captured, and images of the reference positions A, B, and C suitable for each user are stored. Also good.
検出部16は、撮像部14により撮像された画像から撮像部14の光軸方向(図3のZ軸方向)における指の移動を検出する。
指が撮像部14に近づいた場合、画像全体に対する指部分の占有率が増加し、逆に、遠ざかった場合は、占有率が減少する。検出部16は、この占有率に基づいて指から撮像部14までの距離を算出する。検出部16は、記憶部15に記憶されている変換テーブルに基づいて、占有率に対応する距離を取得してもよいし、記憶部15に記憶されている占有率を変数とした計算式により距離を算出することとしてもよい。
The
When the finger approaches the
次に、携帯電話機10の動作について、図6、図8、図10及び図11に示すフローチャートを参照しながら説明する。なお、ここでの動作処理は、携帯電話機10の表示部12における画面操作を行う際に制御部11により実行される処理である。このフローチャートは、携帯電話機10を構成するコンピュータに各機能を実現させるためのプログラムを説明するためのものである。
Next, the operation of the
図6に示すように、まず、撮像部14により画像が撮影され、画像データが取り込まれる(ステップS1)。画像データは記憶部15に記憶される。
As shown in FIG. 6, first, an image is taken by the
次に、画像中に指が存在するか否かが判断される(ステップS2)。画像中に指が存在する場合には(ステップS2;YES)、ユーザの指の移動によりポイント制御を行うポイント制御モードに設定されているか否かが判断される(ステップS3)。ポイント制御モードに設定されていない場合には(ステップS3;NO)、ポイント制御モードに設定され(ステップS4)、表示部12の表示画面上の基準位置(例えば、画面の中央)にポインタが表示される(ステップS5)。図7(a)に、指の存在が検出される前の表示部12の表示画面の一例を示す。指の存在が検出されるまでは、ポインタは表示されない。また、図7(b)に、指の存在が検出され、表示部12の表示画面上にポインタ31が表示された例を示す。
Next, it is determined whether or not a finger is present in the image (step S2). If a finger is present in the image (step S2; YES), it is determined whether or not the point control mode in which point control is performed by moving the finger of the user is set (step S3). When the point control mode is not set (step S3; NO), the point control mode is set (step S4), and a pointer is displayed at a reference position on the display screen of the display unit 12 (for example, the center of the screen). (Step S5). FIG. 7A shows an example of the display screen of the
ステップS3において、ポイント制御モードに設定されている場合には(ステップS3;YES)、ステップS6に移行する。 In step S3, when the point control mode is set (step S3; YES), the process proceeds to step S6.
次に、画像解析が行われ(ステップS6)、撮像部14により撮像された画像と、記憶部15に記憶されている基準位置A,B,Cを示す画像とを比較することにより、指が基準位置A,B,Cにあるか否かが判断される(ステップS7,S8,S9)。
Next, image analysis is performed (step S6), and the image captured by the
指が基準位置Aにある場合には(ステップS7;YES)、図8のステップS21へ移行する。指が基準位置Bにある場合には(ステップS7;NO,ステップS8;YES)、図10のステップS51へ移行する。指が基準位置Cにある場合には(ステップS7;NO,ステップS8;NO,ステップS9;YES)、図11のステップS71へ移行する。 If the finger is at the reference position A (step S7; YES), the process proceeds to step S21 in FIG. When the finger is at the reference position B (step S7; NO, step S8; YES), the process proceeds to step S51 in FIG. If the finger is at the reference position C (step S7; NO, step S8; NO, step S9; YES), the process proceeds to step S71 in FIG.
指が基準位置A,B,Cのいずれにもない場合には(ステップS7;NO,ステップS8;NO,ステップS9;NO)、ステップS1に戻る。 If the finger is not in any of the reference positions A, B, and C (step S7; NO, step S8; NO, step S9; NO), the process returns to step S1.
ステップS2において、画像中に指が存在しない場合には(ステップS2;NO)、ポイント制御モードが解除され(ステップS10)、表示部12の表示画面上に表示されているポインタが消去される(ステップS11)。そして、表示部12における画面操作を終了しない場合には(ステップS12;NO)、ステップS1に戻る。表示部12における画面操作を終了する場合には(ステップS12;YES)、動作処理が終了する。なお、画面操作の終了は、指によるポインタの移動処理及びポインタの選択処理の終了を示すもので、操作部13の図示しない操作スイッチによる終了を指示する操作に応答して、終了される。また、この操作スイッチによる開始を指示する操作に応答して、図6のフローで示す処理が開始され、ポインタの移動処理及びポインタの選択処理が行われる。
In step S2, when no finger is present in the image (step S2; NO), the point control mode is canceled (step S10), and the pointer displayed on the display screen of the
次に、図8を参照して、図6のステップS7において、指が基準位置Aにあると判断された場合の処理について説明する。
図8に示すように、撮像部14により画像が撮影され、画像データが取り込まれる(ステップS21)。
Next, with reference to FIG. 8, a process when it is determined in step S7 in FIG. 6 that the finger is at the reference position A will be described.
As shown in FIG. 8, an image is taken by the
次に、画像解析が行われ(ステップS22)、画像の形状、及び画像全体に対する指部分の占有率が履歴として記憶部15に保存される。そして、撮像部14の光軸方向に垂直な方向、すなわち、図3に示すX軸方向又はY軸方向におけるユーザの指の移動が検出されたか否かが判断される(ステップS23)。X軸方向又はY軸方向におけるユーザの指の移動が検出された場合には(ステップS23;YES)、検出された移動方向が制御部11内のレジスタf1に記憶される(ステップS24)。
Next, image analysis is performed (step S22), and the shape of the image and the occupancy rate of the finger portion with respect to the entire image are stored in the
移動方向が基準位置Aから基準位置Bへ向かう方向の場合には(ステップS25;YES)、図9(a)に示すように、表示部12の表示画面上に移動方向を示す下向き矢印32が表示され(ステップS26)、指の移動量に応じて表示画面上のポインタ31が下へ移動される(ステップS27)。なお、ポインタ31が表示画面上の一番下まで移動した場合には、画面全体が上にスクロールされる。
When the movement direction is the direction from the reference position A to the reference position B (step S25; YES), as shown in FIG. 9A, a
移動方向が基準位置Aから基準位置Cへ向かう方向の場合には(ステップS25;NO,ステップS28;YES)、表示部12の表示画面上に右向き矢印が表示され(ステップS29)、指の移動量に応じて表示画面上のポインタが右へ移動される(ステップS30)。なお、ポインタが表示画面上の一番右まで移動した場合には、画面全体が左にスクロールされる。 When the moving direction is the direction from the reference position A to the reference position C (step S25; NO, step S28; YES), a right-pointing arrow is displayed on the display screen of the display unit 12 (step S29), and the finger is moved. The pointer on the display screen is moved to the right according to the amount (step S30). When the pointer moves to the rightmost position on the display screen, the entire screen is scrolled to the left.
移動方向が基準位置Bから基準位置Aへ向かう方向、又は、基準位置Cから基準位置Aへ向かう方向の場合には(ステップS25;NO,ステップS28;NO,ステップS31;YES)、これらの指の移動に伴うポインタの表示位置の移動は行われず、ステップS32に移行する。図6のステップS7において指が基準位置Aにあると判断された場合には、逆方向(基準位置Bから基準位置Aへ向かう方向、又は、基準位置Cから基準位置Aへ向かう方向)の移動は無視することにより、ポインタの表示位置を連続して順方向へ移動させることができる。 If the movement direction is from the reference position B to the reference position A, or from the reference position C to the reference position A (step S25; NO, step S28; NO, step S31; YES), these fingers The display position of the pointer is not moved along with this movement, and the process proceeds to step S32. When it is determined in step S7 in FIG. 6 that the finger is at the reference position A, the movement in the reverse direction (the direction from the reference position B to the reference position A, or the direction from the reference position C to the reference position A). By disregarding, the display position of the pointer can be continuously moved in the forward direction.
次に、画像全体に対する指部分の占有率に基づいて、撮像部14の光軸方向(Z軸方向)における撮像部14から指までの距離Z0が取得され(ステップS32)、ステップS21に戻る。
Next, the distance Z 0 from the
ステップS23において、X軸方向又はY軸方向におけるユーザの指の移動が検出されなかった場合には(ステップS23;NO)、撮像部14の光軸方向(Z軸方向)における指の移動の検出が行われる。まず、画像全体に対する指部分の占有率の変化があるか否かが判断される(ステップS33)。占有率の変化がある場合には(ステップS33;YES)、占有率が規定値以下であるか否かが判断される(ステップS34)。占有率が規定値以下である場合には(ステップS34;YES)、ユーザが撮像部14の撮影範囲から指を離したと考えられ、ステップS40に移行する。
If the movement of the user's finger in the X-axis direction or the Y-axis direction is not detected in step S23 (step S23; NO), the movement of the finger in the optical axis direction (Z-axis direction) of the
占有率が規定値より大きい場合には(ステップS34;NO)、占有率に基づいて撮像部14から指までの距離が算出される(ステップS35)。そして、この距離が規定の範囲内であるか否かが判断される(ステップS36)。例えば、現在の撮像部14から指までの距離が、ステップS32で取得した距離Z0を用いて、Z0/2を中心としてZ0/2の±20%の範囲内であるか否かが判断される。
When the occupation ratio is larger than the specified value (step S34; NO), the distance from the
指を撮像部14に近づけた結果、距離が規定の範囲内に入った場合には(ステップS36;YES)、ポインタ選択処理が行われ(ステップS37)、ステップS40に移行する。ポインタ選択処理とは、ポインタの表示位置で指定されている項目を選択する処理をいう。図9(b)に、ポインタ31が項目7を示す位置にあるときにポインタ選択処理が行われた場合の表示例を示す。表示画面上の項目7の部分33が反転表示され、選択されていることを示している。
If the distance is within the specified range as a result of bringing the finger close to the imaging unit 14 (step S36; YES), pointer selection processing is performed (step S37), and the process proceeds to step S40. The pointer selection process is a process for selecting an item designated by the display position of the pointer. FIG. 9B shows a display example when the pointer selection process is performed when the
ステップS31において移動方向が基準位置Bから基準位置Aへ向かう方向、基準位置Cから基準位置Aへ向かう方向のいずれでもない場合(ステップS31;NO)、ステップS33において占有率の変化がない場合(ステップS33;NO)、又は、ステップS36において距離が規定の範囲内でない場合には(ステップS36;NO)、カウントアップが開始される(ステップS38)。移動方向が基準位置Bから基準位置Aへ向かう方向、基準位置Cから基準位置Aへ向かう方向のいずれでもない状態、占有率の変化がない状態、又は、距離が規定の範囲内でない状態で、カウント値Mが所定値以上になった場合には(ステップS39;YES)、ステップS40に移行する。ステップS39からステップS40に移行する処理は、ユーザが指による操作を中断し、上述の状態が所定期間経過した場合である。カウント値Mが所定値に達する前に、指の移動が検出された場合には(ステップS39;NO)、ステップS21に戻る。 If the moving direction is neither the direction from the reference position B to the reference position A or the direction from the reference position C to the reference position A in Step S31 (Step S31; NO), or if the occupation rate does not change in Step S33 ( (Step S33; NO) or when the distance is not within the specified range in Step S36 (Step S36; NO), the count-up is started (Step S38). In a state where the moving direction is neither the direction from the reference position B to the reference position A, the direction from the reference position C to the reference position A, a state where there is no change in the occupation ratio, or a state where the distance is not within the specified range, When the count value M is equal to or greater than the predetermined value (step S39; YES), the process proceeds to step S40. The process that moves from step S39 to step S40 is when the user interrupts the operation with the finger and the above-described state has elapsed for a predetermined period. If movement of the finger is detected before the count value M reaches the predetermined value (step S39; NO), the process returns to step S21.
ステップS40では、移動方向を示す下向き又は右向きの矢印が表示されていれば、その表示が消去される(ステップS40)。そして、カウンタ(カウント値M)がクリアされ(ステップS41)、図6のステップS10に移行する。 In step S40, if a downward or rightward arrow indicating the moving direction is displayed, the display is deleted (step S40). Then, the counter (count value M) is cleared (step S41), and the process proceeds to step S10 in FIG.
次に、図10を参照して、図6のステップS8において、指が基準位置Bにあると判断された場合の処理について説明する。
図10に示すように、まず、表示部12の表示画面上に上向き矢印が表示される(ステップS51)。続いて、撮像部14により画像が撮影され、画像データが取り込まれる(ステップS52)。
Next, with reference to FIG. 10, a process when it is determined in step S8 of FIG. 6 that the finger is at the reference position B will be described.
As shown in FIG. 10, first, an upward arrow is displayed on the display screen of the display unit 12 (step S51). Subsequently, an image is captured by the
次に、画像解析が行われ(ステップS53)、画像の形状、及び画像全体に対する指部分の占有率が履歴として記憶部15に保存される。そして、撮像部14の光軸方向に垂直な方向(X軸方向又はY軸方向)におけるユーザの指の移動が検出されたか否かが判断される(ステップS54)。X軸方向又はY軸方向におけるユーザの指の移動が検出された場合には(ステップS54;YES)、検出された移動方向が制御部11内のレジスタf1に記憶される(ステップS55)。
Next, image analysis is performed (step S53), and the shape of the image and the occupancy rate of the finger portion with respect to the entire image are stored in the
移動方向が基準位置Bから基準位置Aへ向かう方向の場合には(ステップS56;YES)、指の移動量に応じて表示画面上のポインタが上へ移動される(ステップS57)。なお、ポインタが表示画面上の一番上まで移動した場合には、画面全体が下にスクロールされる。 When the movement direction is the direction from the reference position B to the reference position A (step S56; YES), the pointer on the display screen is moved upward according to the movement amount of the finger (step S57). If the pointer moves to the top of the display screen, the entire screen is scrolled down.
移動方向が基準位置Aから基準位置Bへ向かう方向の場合には(ステップS56;NO,ステップS58;YES)、この指の移動に伴うポインタの表示位置の移動は行われず、ステップS59に移行する。 When the moving direction is the direction from the reference position A to the reference position B (step S56; NO, step S58; YES), the pointer display position is not moved along with the movement of the finger, and the process proceeds to step S59. .
次に、画像全体に対する指部分の占有率に基づいて、撮像部14の光軸方向(Z軸方向)における撮像部14から指までの距離Z0が取得され(ステップS59)、ステップS52に戻る。
Next, the distance Z 0 from the
ステップS54において、X軸方向又はY軸方向におけるユーザの指の移動が検出されなかった場合には(ステップS54;NO)、撮像部14の光軸方向(Z軸方向)における指の移動の検出が行われる。まず、画像全体に対する指部分の占有率の変化があるか否かが判断される(ステップS60)。占有率の変化がある場合には(ステップS60;YES)、占有率が規定値以下であるか否かが判断される(ステップS61)。占有率が規定値以下である場合には(ステップS61;YES)、ユーザが撮像部14の撮影範囲から指を離したと考えられ、ステップS67に移行する。
If the movement of the user's finger in the X-axis direction or the Y-axis direction is not detected in step S54 (step S54; NO), the movement of the finger in the optical axis direction (Z-axis direction) of the
占有率が規定値より大きい場合には(ステップS61;NO)、占有率に基づいて撮像部14から指までの距離が算出される(ステップS62)。そして、この距離が規定の範囲内であるか否かが判断される(ステップS63)。
When the occupation rate is larger than the specified value (step S61; NO), the distance from the
距離が規定の範囲内である場合には(ステップS63;YES)、ポインタ選択処理が行われ(ステップS64)、ステップS67に移行する。 If the distance is within the specified range (step S63; YES), pointer selection processing is performed (step S64), and the process proceeds to step S67.
ステップS58において移動方向が基準位置Aから基準位置Bへ向かう方向でない場合(ステップS58;NO)、ステップS60において占有率の変化がない場合(ステップS60;NO)、又は、ステップS63において距離が規定の範囲内でない場合には(ステップS63;NO)、カウントアップが開始される(ステップS65)。移動方向が基準位置Aから基準位置Bへ向かう方向でない状態、占有率の変化がない状態、又は、距離が規定の範囲内でない状態で、カウント値Mが所定値以上になった場合には(ステップS66;YES)、ステップS67に移行する。ステップS66からステップS67に移行する処理は、ユーザが指による操作を中断し、上述の状態が所定期間経過した場合である。カウント値Mが所定値に達する前に、指の移動が検出された場合には(ステップS66;NO)、ステップS52に戻る。 If the moving direction is not the direction from the reference position A to the reference position B in step S58 (step S58; NO), if there is no change in the occupation ratio in step S60 (step S60; NO), or the distance is specified in step S63. If it is not within the range (step S63; NO), the count-up is started (step S65). When the count value M is greater than or equal to a predetermined value when the moving direction is not the direction from the reference position A to the reference position B, the occupancy rate is not changed, or the distance is not within the specified range ( Step S66; YES), the process proceeds to Step S67. The process that proceeds from step S66 to step S67 is when the user interrupts the operation with the finger and the above-described state has elapsed for a predetermined period. If the movement of the finger is detected before the count value M reaches the predetermined value (step S66; NO), the process returns to step S52.
ステップS67では、移動方向を示す上向き矢印の表示が消去される(ステップS67)。そして、カウンタ(カウント値M)がクリアされ(ステップS68)、図6のステップS10に移行する。 In step S67, the display of the upward arrow indicating the moving direction is deleted (step S67). Then, the counter (count value M) is cleared (step S68), and the process proceeds to step S10 in FIG.
次に、図11を参照して、図6のステップS9において、指が基準位置Cにあると判断された場合の処理について説明する。
図11に示すように、まず、表示部12の表示画面上に左向き矢印が表示される(ステップS71)。続いて、撮像部14により画像が撮影され、画像データが取り込まれる(ステップS72)。
Next, with reference to FIG. 11, a process when it is determined that the finger is at the reference position C in step S9 in FIG. 6 will be described.
As shown in FIG. 11, first, a leftward arrow is displayed on the display screen of the display unit 12 (step S71). Subsequently, an image is captured by the
次に、画像解析が行われ(ステップS73)、画像の形状、及び画像全体に対する指部分の占有率が履歴として記憶部15に保存される。そして、撮像部14の光軸方向に垂直な方向(X軸方向又はY軸方向)におけるユーザの指の移動が検出されたか否かが判断される(ステップS74)。X軸方向又はY軸方向におけるユーザの指の移動が検出された場合には(ステップS74;YES)、検出された移動方向が制御部11内のレジスタf1に記憶される(ステップS75)。
Next, image analysis is performed (step S73), and the shape of the image and the occupancy rate of the finger portion with respect to the entire image are stored in the
移動方向が基準位置Cから基準位置Aへ向かう方向の場合には(ステップS76;YES)、指の移動量に応じて表示画面上のポインタが左へ移動される(ステップS77)。なお、ポインタが表示画面上の一番左まで移動した場合には、画面全体が右にスクロールされる。 When the movement direction is the direction from the reference position C to the reference position A (step S76; YES), the pointer on the display screen is moved to the left according to the movement amount of the finger (step S77). If the pointer moves to the leftmost position on the display screen, the entire screen is scrolled to the right.
移動方向が基準位置Aから基準位置Cへ向かう方向の場合には(ステップS76;NO,ステップS78;YES)、この指の移動に伴うポインタの表示位置の移動は行われず、ステップS79に移行する。 When the movement direction is the direction from the reference position A to the reference position C (step S76; NO, step S78; YES), the pointer display position is not moved along with the movement of the finger, and the process proceeds to step S79. .
次に、画像全体に対する指部分の占有率に基づいて、撮像部14の光軸方向(Z軸方向)における撮像部14から指までの距離Z0が取得され(ステップS79)、ステップS72に戻る。
Next, the distance Z 0 from the
ステップS74において、X軸方向又はY軸方向におけるユーザの指の移動が検出されなかった場合には(ステップS74;NO)、撮像部14の光軸方向(Z軸方向)における指の移動の検出が行われる。まず、画像全体に対する指部分の占有率の変化があるか否かが判断される(ステップS80)。占有率の変化がある場合には(ステップS80;YES)、占有率が規定値以下であるか否かが判断される(ステップS81)。占有率が規定値以下である場合には(ステップS81;YES)、ユーザが撮像部14の撮影範囲から指を離したと考えられ、ステップS87に移行する。
If the movement of the user's finger in the X-axis direction or the Y-axis direction is not detected in step S74 (step S74; NO), the detection of the finger movement in the optical axis direction (Z-axis direction) of the
占有率が規定値より大きい場合には(ステップS81;NO)、占有率に基づいて撮像部14から指までの距離が算出される(ステップS82)。そして、この距離が規定の範囲内であるか否かが判断される(ステップS83)。
When the occupation ratio is larger than the specified value (step S81; NO), the distance from the
距離が規定の範囲内である場合には(ステップS83;YES)、ポインタ選択処理が行われ(ステップS84)、ステップS87に移行する。 If the distance is within the specified range (step S83; YES), pointer selection processing is performed (step S84), and the process proceeds to step S87.
ステップS78において移動方向が基準位置Aから基準位置Cへ向かう方向でない場合(ステップS78;NO)、ステップS80において占有率の変化がない場合(ステップS80;NO)、又は、ステップS83において距離が規定の範囲内でない場合には(ステップS83;NO)、カウントアップが開始される(ステップS85)。移動方向が基準位置Aから基準位置Cへ向かう方向でない状態、占有率の変化がない状態、又は、距離が規定の範囲内でない状態で、カウント値Mが所定値以上になった場合には(ステップS86;YES)、ステップS87に移行する。ステップS86からステップS87に移行する処理は、ユーザが指による操作を中断し、上述の状態が所定期間経過した場合である。カウント値Mが所定値に達する前に、指の移動が検出された場合には(ステップS86;NO)、ステップS72に戻る。 If the moving direction is not the direction from the reference position A to the reference position C in step S78 (step S78; NO), if the occupation rate does not change in step S80 (step S80; NO), or the distance is specified in step S83. If not within the range (step S83; NO), the count-up is started (step S85). When the count value M is equal to or greater than a predetermined value when the moving direction is not the direction from the reference position A to the reference position C, the occupancy rate is not changed, or the distance is not within the specified range ( Step S86; YES), the process proceeds to Step S87. The process that moves from step S86 to step S87 is when the user interrupts the operation with the finger and the above-described state has elapsed for a predetermined period. If movement of the finger is detected before the count value M reaches the predetermined value (step S86; NO), the process returns to step S72.
ステップS87では、移動方向を示す左向き矢印の表示が消去される(ステップS87)。そして、カウンタ(カウント値M)がクリアされ(ステップS88)、図6のステップS10に移行する。 In step S87, the left arrow indicating the moving direction is deleted (step S87). Then, the counter (count value M) is cleared (step S88), and the process proceeds to step S10 in FIG.
以上のように、本実施の形態の携帯電話機10によれば、撮像部14の光軸方向と垂直な方向における指の移動に基づいて、表示画面上のポインタの表示位置を移動させ、撮像部14の光軸方向における指の移動に基づいて、表示画面上のポインタの表示位置で指定されている項目の選択操作を検出するので、撮像部14により撮像された指の移動に基づいて、従来のポインティングデバイスに近い操作指示を行うことができる。また、特別なポインティングデバイスを必要としないため、従来の携帯電話機に対して大きな変更を加えることなく、ソフトウェア処理により本発明を実現することができる。
As described above, according to the
また、撮像部14で撮像された画像から指の存在が検出された場合に、表示画面上の所定位置にポインタを表示することができる。したがって、指が検出されない場合はポインタを表示しないため、表示画面上に意図しないポインタが表示されることなく、見やすい画面構成にすることができる。
In addition, when the presence of a finger is detected from an image captured by the
なお、本実施の形態では、データ処理装置として携帯電話機10を例に挙げているが、デジタルカメラ付きPDA、デジタルカメラ付きPC(Personal Computer)、デジタルカメラ等でもよく、特に限定するものではない。
In the present embodiment, the
また、本実施の形態においては、図5(a)及び(b)に示すような基準位置A,B,Cを用いた例について説明したが、表示位置の移動範囲が狭い場合には、基準位置を撮像部14の正面中央付近とし、この位置からの被写体の移動を検出して、上下左右にポインタの表示位置を移動させることとしてもよい。
In the present embodiment, the example using the reference positions A, B, and C as shown in FIGS. 5A and 5B has been described. However, when the moving range of the display position is narrow, the reference position The position may be set near the center of the front of the
また、本実施の形態においては、通常モードではポインタを表示せず、ポイント制御モードに設定された場合にポインタを表示画面上に表示することとしたが、通常モードでポインタを表示し、ポイント制御モードの開始によってポインタを通常表示とは異なる識別表示(例えば、ポインタを点滅表示し、若しくは通常表示より大きく表示)することにより、ポインタの移動処理及びポインタの選択処理に移行すると共に、このことをユーザに報知するようにしてもよい。 In the present embodiment, the pointer is not displayed in the normal mode, and the pointer is displayed on the display screen when the point control mode is set. However, the pointer is displayed in the normal mode and the point control is performed. At the start of the mode, the pointer is displayed differently from the normal display (for example, the pointer blinks or is displayed larger than the normal display), and the process moves to the pointer movement process and the pointer selection process. You may make it alert | report to a user.
また、本実施の形態においては、操作部13の図示しない操作スイッチによる開始を指示する操作に応答して、図6のフローで示す処理が開始されてポインタの移動処理及びポインタの選択処理が行われ、また、この操作スイッチによる終了を指示する操作に応答して(ステップS12;YES)、処理を終了するようにしたが、この操作スイッチは必ずしも必要ではなく、図6のステップS2で指の存在が検出されない状態では、ポインタの移動処理及びポインタの選択処理以外の処理を行い、ステップS2で指の存在が検出された場合は、自動的にポインタの移動処理及びポインタの選択処理に移行するようにしてもよい。また、撮像部14のカメラ部分を特定の位置に回動させることにより、自動的にポインタの移動処理及びポインタの選択処理に移行するようにしてもよい。
Further, in the present embodiment, in response to an operation for instructing start by an operation switch (not shown) of the
また、本実施の形態においては、X軸方向及びY軸方向の移動検出時に取得された距離Z0を基準として、撮像部14から指までの距離がZ0/2±20%の範囲内に入った場合に、ポインタの選択操作として検出することとしたが、撮像部14から指までの距離が所定時間内に規定範囲内(例えば、Z0/2±20%)に2回入った場合に、ポインタの選択操作として検出することとしてもよい。この操作は、従来のマウスによるダブルクリックに相当する操作であり、ポインタの選択操作としてユーザにわかり易い操作を提供できる。また、撮像部14から指までの距離が所定時間内に規定範囲内に入った回数に応じて、例えば1回はクリック操作、2回はダブルクリック操作として夫々区別してもよく、3回以上で他の選択操作を行わせるように設定することもできる。
更に、撮像部14から指までの距離がX軸方向及びY軸方向の移動検出時に取得された距離Z0より短くなった場合に、ポインタの選択操作として検出することとしたが、距離Z0より長くなった場合に、ポインタの選択操作として検出するようにしてもよく、この場合も、距離が所定時間内に規定範囲内に入ったこと若しくはその回数に応じて選択操作を行わせるように設定するようにしてもよい。
In the present embodiment, the distance from the
Further, when the distance from the
また、本実施の形態においては、撮像部14から規定の範囲の距離に存在する指を検出することとしたが、撮像部14を覆うように指を移動させて、その移動方向を検出することとしてもよい。
Further, in the present embodiment, a finger that exists within a specified range of distance from the
また、本実施の形態においては、撮像部14により撮像される被写体として、親指を例として説明したが、これに限定されず、他の指やペン等の物体を用いることとしてもよい。また、携帯電話機10等のデータ処理装置における撮像部14の位置についても図示例に限定されず、ユーザが使いやすい位置であればよい。
Further, in the present embodiment, the thumb is described as an example of the subject imaged by the
また、本実施の形態においては、撮像部14の光軸方向と垂直な方向における指の移動方向を、X軸方向とY軸方向とに分けて検出することとしたが、これら2方向の移動方向をベクトル合成して、合成された方向にポインタを移動させることとしてもよい。
In the present embodiment, the finger movement direction in the direction perpendicular to the optical axis direction of the
<変形例>
変形例として、図6のステップS5においてポインタを定められた基準位置を初期位置としてこの位置に表示させる代わりに、表示画面中で移動方向とは逆の位置を初期位置としてこの位置にポインタを表示することとしてもよい。例えば、図8のステップS26で下向き矢印を表示させた後、ポインタを表示画面上の中央上位置を初期位置としてこの位置に表示させる。また、図8のステップS29で右向き矢印を表示させた後、ポインタを表示画面上の中央左位置を初期位置としてこの位置に表示させる。また、図10のステップS51で上向き矢印を表示させた後、ポインタを表示画面上の中央下位置を初期位置としてこの位置に表示させる。また、図11のステップS71で左向き矢印を表示させた後、ポインタを表示画面上の中央右位置を初期位置としてこの位置に表示させる。
<Modification>
As a modified example, instead of displaying the reference position determined by the pointer in step S5 in FIG. 6 as the initial position at this position, the pointer is displayed at this position with the position opposite to the moving direction as the initial position on the display screen. It is good to do. For example, after the downward arrow is displayed in step S26 of FIG. 8, the pointer is displayed at this position with the upper center position on the display screen as the initial position. Further, after a right arrow is displayed in step S29 of FIG. 8, the pointer is displayed at this position with the center left position on the display screen as the initial position. Further, after an upward arrow is displayed in step S51 of FIG. 10, the pointer is displayed at this position with the lower center position on the display screen as the initial position. Further, after the left arrow is displayed in step S71 of FIG. 11, the pointer is displayed at this position with the center right position on the display screen as the initial position.
10 携帯電話機
11 制御部
12 表示部
13 操作部
14 撮像部
15 記憶部
16 検出部
17 ヒンジ
18 バス
DESCRIPTION OF
Claims (4)
前記撮像手段で撮像された被写体の前記撮像手段の光軸方向と垂直な方向における移動を検出する第1の移動検出手段と、
前記撮像手段で撮像された被写体の前記撮像手段の光軸方向における移動を検出する第2の移動検出手段と、
前記第1の移動検出手段により検出された被写体の前記撮像手段の光軸方向と垂直な方向における移動に基づいて、表示画面上のポインタの表示位置を移動させる表示制御手段と、
前記第2の移動検出手段により検出された被写体の前記撮像手段の光軸方向における移動に基づいて、前記表示画面上のポインタの表示位置で指定されている項目の選択操作を検出する選択操作検出手段と、
を備えたことを特徴とするデータ処理装置。 Imaging means for imaging a subject;
First movement detection means for detecting movement of a subject imaged by the imaging means in a direction perpendicular to the optical axis direction of the imaging means;
Second movement detecting means for detecting movement of the subject imaged by the imaging means in the optical axis direction of the imaging means;
Display control means for moving the display position of the pointer on the display screen based on movement of the subject detected by the first movement detection means in a direction perpendicular to the optical axis direction of the imaging means;
Selection operation detection that detects a selection operation of an item designated at the display position of the pointer on the display screen based on the movement of the imaging unit in the optical axis direction of the subject detected by the second movement detection unit Means,
A data processing apparatus comprising:
前記撮像手段で撮像された画像から前記被写体の存在を検出する被写体検出手段を備え、
前記表示制御手段は、前記被写体検出手段により前記被写体の存在が検出された場合に、前記表示画面上の所定位置にポインタを表示させることを特徴とするデータ処理装置。 The data processing apparatus according to claim 1,
Subject detection means for detecting the presence of the subject from an image captured by the imaging means;
The data processing apparatus, wherein the display control means displays a pointer at a predetermined position on the display screen when the presence of the subject is detected by the subject detection means.
前記被写体の基準位置を示す画像を記憶する記憶手段を備え、
前記第1の移動検出手段は、前記撮像手段で撮像された画像と、前記記憶手段に記憶されている前記被写体の基準位置を示す画像とを比較することにより、前記被写体の前記撮像手段の光軸方向と垂直な方向における移動を検出することを特徴とするデータ処理装置。 The data processing apparatus according to claim 1 or 2,
Storage means for storing an image indicating a reference position of the subject;
The first movement detection unit compares the image captured by the imaging unit with an image indicating the reference position of the subject stored in the storage unit, so that the light of the imaging unit of the subject is detected. A data processing apparatus for detecting movement in a direction perpendicular to an axial direction.
撮像手段で撮像された被写体の前記撮像手段の光軸方向と垂直な方向における移動を検出する第1の移動検出機能と、
前記撮像手段で撮像された被写体の前記撮像手段の光軸方向における移動を検出する第2の移動検出機能と、
前記第1の移動検出機能において検出された被写体の前記撮像手段の光軸方向と垂直な方向における移動に基づいて、表示画面上のポインタの表示位置を移動させる表示制御機能と、
前記第2の移動検出機能において検出された被写体の前記撮像手段の光軸方向における移動に基づいて、前記表示画面上のポインタの表示位置で指定されている項目の選択操作を検出する選択操作検出機能と、
を実現させるためのプログラム。 On the computer,
A first movement detection function for detecting movement of a subject imaged by the imaging means in a direction perpendicular to the optical axis direction of the imaging means;
A second movement detection function for detecting movement of the subject imaged by the imaging means in the optical axis direction of the imaging means;
A display control function for moving the display position of the pointer on the display screen based on the movement of the subject detected in the first movement detection function in a direction perpendicular to the optical axis direction of the imaging means;
Selection operation detection that detects a selection operation of an item designated by the display position of the pointer on the display screen based on the movement of the subject detected in the second movement detection function in the optical axis direction of the imaging unit Function and
A program to realize
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004281979A JP2006099228A (en) | 2004-09-28 | 2004-09-28 | Data processing apparatus and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004281979A JP2006099228A (en) | 2004-09-28 | 2004-09-28 | Data processing apparatus and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2006099228A true JP2006099228A (en) | 2006-04-13 |
Family
ID=36239005
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004281979A Pending JP2006099228A (en) | 2004-09-28 | 2004-09-28 | Data processing apparatus and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2006099228A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009260907A (en) * | 2008-03-18 | 2009-11-05 | Nec Corp | Portable terminal apparatus, terminal operation method, program, and recording medium |
| US8094204B2 (en) | 2006-08-28 | 2012-01-10 | Sony Corporation | Image movement based device control method, program, and apparatus |
| JP2013178785A (en) * | 2013-03-13 | 2013-09-09 | Mitsubishi Electric Corp | Map information processing device |
| JP2014059803A (en) * | 2012-09-19 | 2014-04-03 | Alps Electric Co Ltd | Input device |
| KR101417037B1 (en) * | 2007-12-20 | 2014-07-08 | 주식회사 엘지유플러스 | Apparatus and method of screen scrolling in mobile web browser using camera |
-
2004
- 2004-09-28 JP JP2004281979A patent/JP2006099228A/en active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8094204B2 (en) | 2006-08-28 | 2012-01-10 | Sony Corporation | Image movement based device control method, program, and apparatus |
| KR101417037B1 (en) * | 2007-12-20 | 2014-07-08 | 주식회사 엘지유플러스 | Apparatus and method of screen scrolling in mobile web browser using camera |
| JP2009260907A (en) * | 2008-03-18 | 2009-11-05 | Nec Corp | Portable terminal apparatus, terminal operation method, program, and recording medium |
| JP2014059803A (en) * | 2012-09-19 | 2014-04-03 | Alps Electric Co Ltd | Input device |
| JP2013178785A (en) * | 2013-03-13 | 2013-09-09 | Mitsubishi Electric Corp | Map information processing device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5921427B2 (en) | Imaging control apparatus and control method thereof | |
| JP5915000B2 (en) | Information processing apparatus and program | |
| CN103513924B (en) | Electronic device and control method thereof | |
| CN107743189B (en) | Display control device and display control method | |
| JP5120460B2 (en) | Mobile terminal and input control method | |
| US20080079837A1 (en) | Focusing Area Adjusting Camera-Carrying Portable Terminal | |
| US20120162105A1 (en) | Information processing device, method of processing information, and computer program storage device | |
| JP2009140368A (en) | INPUT DEVICE, DISPLAY DEVICE, INPUT METHOD, DISPLAY METHOD, AND PROGRAM | |
| JP6004693B2 (en) | Display control apparatus and control method thereof | |
| JP2002041235A (en) | Device, wrist watch type device, control method of device and transfer method of pointer | |
| CN105898143A (en) | Moving object snapshotting method and mobile terminal | |
| JP6701033B2 (en) | Electronic device and control method thereof | |
| CN104461343B (en) | Display device, display control method and recording medium | |
| CN107172347A (en) | A kind of photographic method and terminal | |
| JP2023179345A (en) | Information input method, information input device, electronic equipment, and storage medium | |
| JP5167896B2 (en) | Setting device and program | |
| JP2006099228A (en) | Data processing apparatus and program | |
| KR101126867B1 (en) | Photographing method of wireless terminal capable of photographing shot mode using touch pattern | |
| JP4685708B2 (en) | Mobile terminal device | |
| JP6197012B2 (en) | Information processing apparatus and information processing method | |
| JP7366682B2 (en) | Electronic equipment and its control method | |
| CN112286425A (en) | Electronic device, control method of electronic device, and computer-readable medium | |
| JP7613031B2 (en) | Electronic device, input method and program | |
| JP2005284644A (en) | Data processing apparatus and program | |
| JP6529300B2 (en) | Display control device and control method thereof |