[go: up one dir, main page]

JP7215117B2 - Display device, imaging device, object moving method, and object moving program - Google Patents

Display device, imaging device, object moving method, and object moving program Download PDF

Info

Publication number
JP7215117B2
JP7215117B2 JP2018224201A JP2018224201A JP7215117B2 JP 7215117 B2 JP7215117 B2 JP 7215117B2 JP 2018224201 A JP2018224201 A JP 2018224201A JP 2018224201 A JP2018224201 A JP 2018224201A JP 7215117 B2 JP7215117 B2 JP 7215117B2
Authority
JP
Japan
Prior art keywords
display
area
unit
coordinates
display object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018224201A
Other languages
Japanese (ja)
Other versions
JP2020087223A (en
Inventor
鉄兵 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018224201A priority Critical patent/JP7215117B2/en
Priority to US16/697,926 priority patent/US11523060B2/en
Publication of JP2020087223A publication Critical patent/JP2020087223A/en
Application granted granted Critical
Publication of JP7215117B2 publication Critical patent/JP7215117B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、表示装置、撮像装置、オブジェクト移動方法、及び、オブジェクト移動プログラムに関する。 The present invention relates to a display device, an imaging device, an object moving method, and an object moving program.

デジタルカメラ等の撮像装置を含む電子機器では、タッチパネル等の表示装置を備え、タッチパネル上での絶対的なタッチ位置に基づく移動(本稿では「タップ操作」という)や、相対的なタッチ位置に基づく移動(本稿では「ドラッグ操作」という)などのユーザの接触操作に応じてタッチパネル上の表示オブジェクトを移動させることによって電子機器の各種操作を行う構成が知られている。 Electronic devices including imaging devices such as digital cameras are equipped with a display device such as a touch panel, and movement based on the absolute touch position on the touch panel (referred to as "tap operation" in this paper) or based on the relative touch position A configuration is known in which various operations of an electronic device are performed by moving a display object on a touch panel according to a user's touch operation such as movement (referred to as "drag operation" in this paper).

特許文献1には、上記構成において、ドラッグ操作を検出した位置が所定の停止位置を通過するとオブジェクト移動を停止する構成が開示されている。 Japanese Patent Application Laid-Open No. 2004-200002 discloses a configuration in which the movement of an object is stopped when the position where the drag operation is detected passes a predetermined stop position in the above configuration.

しかし、特許文献1などの従来の表示装置では、ドラッグ操作を検知した位置が所定の停止位置を通過する、あるいは所定の停止位置に近接すると所定の停止位置に表示オブジェクトを停止させている。ここで、表示オブジェクトの移動可能な領域に制限がある場合を考える。移動可能領域の境界近傍においてドラッグ操作にて表示オブジェクトを移動させるとき、ドラッグ操作の軌跡が移動可能領域外に僅かでもはみ出してしまうと意図しない移動停止が発生して思うように表示オブジェクトを移動させることができなくなるため、タッチ操作の操作性が低下してしまうという問題があった。 However, in the conventional display device such as Patent Document 1, when the position where the drag operation is detected passes through or approaches the predetermined stop position, the display object is stopped at the predetermined stop position. Now consider the case where the movable area of the display object is limited. When a display object is moved by a drag operation near the boundary of the movable area, if the trajectory of the drag operation protrudes even slightly outside the movable area, unintended movement stop occurs and the displayed object can be moved as desired. Therefore, there is a problem that the operability of the touch operation is deteriorated.

本発明は、ユーザのタッチ操作の操作性を向上可能とすることを目的とする。 An object of the present invention is to improve the operability of a user's touch operation.

上述した課題を解決するために、本発明の一観点に係る表示装置は、表示オブジェクトを表示する表示部と、前記表示部の表示を制御する制御部と、前記表示部への指示体の近接または接触を検出する検出部と、前記検出部の検出結果に基づいて前記表示部への入力操作を判定する判定部と、を備え、前記表示部は、前記検出部が検出可能な全領域である第1の領域と、前記第1の領域の一部であり、前記入力操作に応じて前記表示オブジェクトが移動可能な第2の領域と、を有し、前記制御部は、前記判定部が前記表示部へのタップ操作を判定した場合、前記タップ操作の座標が前記第2の領域内のときは前記表示オブジェクトを前記座標へ移動し、前記タップ操作の座標が前記第2の領域外のときは前記表示オブジェクトを前記座標へ移動せず、前記判定部が前記表示部へのドラッグ操作を判定した場合、前記ドラッグ操作の開始座標が前記第2の領域内のときは前記第1の領域内における前記ドラッグ操作の座標変化に基づいて前記表示オブジェクトを前記第2の領域内で移動させ、前記ドラッグ操作の開始座標が前記第2の領域外のときは前記表示オブジェクトを移動させないIn order to solve the above-described problems, a display device according to an aspect of the present invention includes a display unit that displays a display object, a control unit that controls display of the display unit, and an indicator that approaches the display unit. Alternatively, a detection unit that detects contact, and a determination unit that determines an input operation to the display unit based on the detection result of the detection unit, and the display unit is detected in the entire area that can be detected by the detection unit. a certain first area and a second area that is part of the first area and in which the display object can be moved according to the input operation; When a tap operation on the display unit is determined, if the coordinates of the tap operation are within the second area, the display object is moved to the coordinates, and if the coordinates of the tap operation are outside the second area. When the display object is not moved to the coordinates, and the determination unit determines that the drag operation is performed on the display unit, and the start coordinates of the drag operation are within the second area, the display object is moved to the first area. The display object is moved within the second area based on the coordinate change of the drag operation within the second area, and the display object is not moved when the start coordinates of the drag operation are outside the second area .

本開示によれば、ユーザのタッチ操作の操作性を向上できる。 According to the present disclosure, it is possible to improve the operability of the user's touch operation.

レンズ交換式デジタルカメラ(撮像装置)の基本的なハードウェア構成図Basic hardware configuration diagram of an interchangeable lens digital camera (imaging device) 画像表示LCDの表示画面の構成の一例を示す図A diagram showing an example of a configuration of a display screen of an image display LCD 第1実施形態の表示装置における表示オブジェクトの移動パターンを説明する図FIG. 4 is a diagram for explaining movement patterns of display objects in the display device according to the first embodiment; 第1実施形態の表示装置における表示オブジェクトの移動パターンを説明する図FIG. 4 is a diagram for explaining movement patterns of display objects in the display device according to the first embodiment; 第1実施形態の表示装置における表示オブジェクトの移動パターンを説明する図FIG. 4 is a diagram for explaining movement patterns of display objects in the display device according to the first embodiment; 第1実施形態に係る表示装置の機能ブロック図Functional block diagram of the display device according to the first embodiment 第1実施形態におけるタッチ操作による表示オブジェクトの移動制御のフローチャート4 is a flow chart of movement control of a display object by a touch operation in the first embodiment; 第2実施形態におけるタッチ操作による表示オブジェクトの移動制御のフローチャートFlowchart of movement control of a display object by a touch operation in the second embodiment 移動可能領域の表示例を示す図Diagram showing a display example of the movable area 第3実施形態に係る表示装置の機能ブロック図Functional block diagram of the display device according to the third embodiment 第3実施形態における移動可能領域の表示制御のフローチャートFlowchart of display control of movable area in the third embodiment 第4実施形態における移動可能領域の表示制御のフローチャートFlowchart of display control of the movable area in the fourth embodiment 第5実施形態に係る表示装置の機能ブロック図Functional block diagram of the display device according to the fifth embodiment 第5実施形態における移動可能領域の表示制御のフローチャートFlowchart of display control of movable area in the fifth embodiment 第6実施形態における移動可能領域の表示制御のフローチャートFlowchart of display control of the movable area in the sixth embodiment 第7実施形態における移動可能領域の表示制御のフローチャートFlowchart of display control of movable area in the seventh embodiment

以下、添付図面を参照しながら実施形態について説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の符号を付して、重複する説明は省略する。 Embodiments will be described below with reference to the accompanying drawings. In order to facilitate understanding of the description, the same constituent elements in each drawing are denoted by the same reference numerals as much as possible, and overlapping descriptions are omitted.

[第1実施形態]
図1~図5を参照して第1実施形態を説明する。本実施形態では、表示装置10を備える機器としてレンズ交換式デジタルカメラ(撮像装置)100を挙げて説明する。
[First embodiment]
A first embodiment will be described with reference to FIGS. 1 to 5. FIG. In this embodiment, an interchangeable lens type digital camera (imaging device) 100 will be described as a device including the display device 10 .

図1は、レンズ交換式デジタルカメラ(撮像装置)100の基本的なハードウェア構成図である。以降ではレンズ交換式デジタルカメラ100を単に「デジタルカメラ100」とも表記する。図1に示すように、デジタルカメラ100には、交換レンズ200が交換可能に取り付けられる。デジタルカメラ100および交換レンズ200の動作は、制御装置101によって制御される。 FIG. 1 is a basic hardware configuration diagram of a lens-interchangeable digital camera (imaging device) 100. As shown in FIG. Hereinafter, the lens-interchangeable digital camera 100 is also simply referred to as "digital camera 100". As shown in FIG. 1, an interchangeable lens 200 is attached to a digital camera 100 in an interchangeable manner. Operations of the digital camera 100 and the interchangeable lens 200 are controlled by the control device 101 .

操作部材102は、デジタルカメラ100の操作入力をユーザが入力するための部材であり、具体的にはシャッターボタンや、他のスイッチ、レバー類を含む。操作部材102のシャッターボタンが操作されると、制御装置101は、レンズ駆動装置103を介してレンズ201の焦点調整(AF)を行い、絞り/シャッター駆動装置104を介して絞り202の開閉を調節し露光制御(AE)およびシャッター105を開閉する。 The operation member 102 is a member for a user to input operation input of the digital camera 100, and specifically includes a shutter button, other switches, and levers. When the shutter button of the operation member 102 is operated, the control device 101 performs focus adjustment (AF) of the lens 201 via the lens driving device 103 and adjusts opening/closing of the diaphragm 202 via the diaphragm/shutter driving device 104. Then, the exposure control (AE) and the shutter 105 are opened and closed.

シャッター105の開閉によって交換レンズ200を通してイメージセンサ106が受光して捉えた画像信号は、信号処理装置107を介して画像処理装置108に送られる。画像処理装置108にて所定の画像処理を行うとき、処理途中のデータの一時的な保存場所としてバッファメモリ109が使われる。画像処理が完了した画像データは、カードI/F110を介して接続された着脱可能なメモリーカード111に記録される。 An image signal received and captured by the image sensor 106 through the interchangeable lens 200 by opening and closing the shutter 105 is sent to the image processing device 108 via the signal processing device 107 . When the image processing apparatus 108 performs predetermined image processing, a buffer memory 109 is used as a temporary storage location for data being processed. Image data for which image processing has been completed is recorded on a removable memory card 111 connected via a card I/F 110 .

画像データおよび各種情報表示は、LCD制御装置112を介して画像表示LCD(Liquid Crystal Display:液晶ディスプレイ)113に表示される。また画像表示LCD113はタッチパネル115が具備されており、ユーザの手指やタッチペンなどの指示体20の接触または近接を検出するとタッチパネル制御装置114に出力する。タッチパネル制御装置114は、タッチパネル115からの入力を基にタッチ操作状態を判別し制御する。このように操作部材102の他、タッチパネル115を操作することでもデジタルカメラ100の各種設定を行うことができる。 Image data and various information displays are displayed on an image display LCD (Liquid Crystal Display) 113 via an LCD control device 112 . Further, the image display LCD 113 is provided with a touch panel 115 , and upon detection of contact or proximity of an indicator 20 such as a user's finger or a touch pen, outputs to the touch panel control device 114 . The touch panel control device 114 determines and controls the touch operation state based on the input from the touch panel 115 . In this manner, various settings of the digital camera 100 can be performed by operating the touch panel 115 in addition to the operation member 102 .

なお、上記の制御装置101、信号処理装置107、画像処理装置108、LCD制御装置112、タッチパネル制御装置114は、例えばLSIなどを含む集積回路などのハードウェアによって実現される。 The control device 101, the signal processing device 107, the image processing device 108, the LCD control device 112, and the touch panel control device 114 are realized by hardware such as an integrated circuit including LSI.

上記のデジタルカメラ100の構成要素のうち、LCD制御装置112(制御部)、画像表示LCD113(表示部)、タッチパネル制御装置114(判定部)、タッチパネル115(検出部)が、本実施形態に係る表示装置10を構成する。 Among the components of the digital camera 100 described above, the LCD control device 112 (control unit), the image display LCD 113 (display unit), the touch panel control device 114 (determination unit), and the touch panel 115 (detection unit) are related to the present embodiment. A display device 10 is configured.

図2は、画像表示LCD113の表示画面の構成の一例を示す図である。以降の説明では、表示画面の左右方向をx方向、上下方向をy方向とする。 FIG. 2 is a diagram showing an example of the configuration of the display screen of image display LCD 113. As shown in FIG. In the following description, the horizontal direction of the display screen is the x direction, and the vertical direction is the y direction.

デジタルカメラ100が撮影可能状態にあるとき、画像表示LCD113にはライブビューが表示される。ライブビューは、イメージセンサ106が捉えた画像を画像表示LCD113にリアルタイムに表示し、撮影できる機能である。このライブビューの画面全体が撮像範囲113Aであり、ユーザがタッチ操作可能な領域である。以降ではこの領域を「検出可能領域113A(第1の領域)」と呼ぶ。ユーザは、焦点調節を実施する位置を、画面上に表示される測距エリア枠(表示オブジェクト)113Cで指定することができる。ここで、使用する交換レンズ200の種類によっては、撮像範囲113Aの周辺部では焦点調整が難しい場合がある。このため、画面上の測距可能な範囲113Bは、撮像範囲113Aの一部、具体的には画面の撮像中心を含む狭い領域に限定される。以降では、この領域を表示オブジェクト113Cの「移動可能領域113B(第2の領域)」と呼ぶ。したがって、測距エリア枠(表示オブジェクト)113Cの移動可能な範囲は、この移動可能領域113B内に制限される。 A live view is displayed on the image display LCD 113 when the digital camera 100 is in a photographable state. Live view is a function that allows an image captured by the image sensor 106 to be displayed on the image display LCD 113 in real time and captured. The entire screen of this live view is the imaging range 113A, which is an area where the user can perform touch operations. Hereinafter, this area will be referred to as "detectable area 113A (first area)". The user can specify the position where focus adjustment is to be performed using a range-finding area frame (display object) 113C displayed on the screen. Here, depending on the type of interchangeable lens 200 used, it may be difficult to adjust the focus in the peripheral portion of the imaging range 113A. Therefore, the measurable range 113B on the screen is limited to a part of the imaging range 113A, specifically, a narrow area including the imaging center of the screen. Hereinafter, this area will be referred to as the “movable area 113B (second area)” of the display object 113C. Therefore, the movable range of the range-finding area frame (display object) 113C is restricted within this movable area 113B.

なお、図2と、以降の説明で参照する表示画面に関する図面(図3A、図3B、図3C、図7)では、移動可能領域113Bが検出可能領域113Aの中央からやや左側にずれて図示されている。しかしながら、移動可能領域113Bは、その中心位置が検出可能領域113Aの中心位置と一致するよう、検出可能領域113Aの中央部に配置されるのが好ましい。 2 and the drawings (FIGS. 3A, 3B, 3C, and 7) relating to the display screen to be referred to in the following description, the movable area 113B is shown shifted slightly to the left from the center of the detectable area 113A. ing. However, movable area 113B is preferably arranged in the center of detectable area 113A so that its central position coincides with the central position of detectable area 113A.

本実施形態の表示装置10は、このようなデジタルカメラの画面上でタッチ操作を行うときの表示オブジェクト113Cの移動を制御することができる。図3A~図3Cは、第1実施形態の表示装置10における表示オブジェクト113Cの移動パターンを説明する図である。図3A~図3Cでは、ユーザの指20の軌跡が太い実線の矢印で、表示オブジェクト113Cの軌跡が太い点線の矢印で図示されている。 The display device 10 of this embodiment can control movement of the display object 113C when performing a touch operation on the screen of such a digital camera. 3A to 3C are diagrams for explaining movement patterns of the display object 113C in the display device 10 of the first embodiment. 3A to 3C, the trajectory of the user's finger 20 is indicated by a thick solid-line arrow, and the trajectory of the display object 113C is indicated by a thick dotted-line arrow.

図3Aに示すように、移動可能領域113B内でのタッチ操作の場合、タッチした絶対的な座標に表示オブジェクト113Cが移動する。図3Aの例では、操作前の画面(a)では移動可能領域113Bの左側にあった表示オブジェクト113Cが、操作後の画面(b)では、ユーザの指20がタッチされた右側の位置に瞬間的に移動する。 As shown in FIG. 3A, in the case of a touch operation within the movable area 113B, the display object 113C moves to the touched absolute coordinates. In the example of FIG. 3A, the display object 113C, which was on the left side of the movable area 113B on the screen (a) before the operation, is momentarily located on the right side where the user's finger 20 touches on the screen (b) after the operation. to move.

連続的なタッチ座標の時系列変化(ドラッグ操作の軌跡)に基づく表示オブジェクト113Cの移動は、ドラッグ操作の軌跡に沿って表示オブジェクト113Cが相対的に移動できるときは移動させる。一方、移動可能領域113Bの境界に達してそれ以上、ドラッグ操作の軌跡に沿って表示オブジェクト113Cを相対的に移動できないときは、ドラッグ操作の軌跡のうちx方向のX成分またはy方向のY成分の移動できる成分方向のみ移動させる。 The movement of the display object 113C based on continuous time-series changes in touch coordinates (trajectory of the drag operation) is to move the display object 113C relatively along the trajectory of the drag operation, if possible. On the other hand, when the boundary of the movable area 113B is reached and the display object 113C cannot be relatively moved along the trajectory of the drag operation, the X component in the x direction or the Y component in the y direction of the trajectory of the drag operation is displayed. Move only in the direction of the movable component of .

例えば図3Bに示すように、操作前の画面(a)では指20が表示オブジェクト113C上に配置された状態から、操作後の画面(b)のように表示オブジェクト113C上から移動可能領域113Bの外へドラッグ操作が行われた場合には、画面(b)のとおり、操作の前半はドラッグ操作と同じ軌跡で表示オブジェクト113Cが移動し、表示オブジェクト113Cが移動可能領域113Bの上端に達すると、表示オブジェクト113Cはこれ以上y方向には移動できないため、ドラッグ操作の軌跡のx成分のみを反映してx方向に表示オブジェクト113Cが移動する。 For example, as shown in FIG. 3B, in the screen (a) before the operation, the finger 20 is placed on the display object 113C, and as in the screen (b) after the operation, the movable area 113B is moved from the display object 113C to the screen (b) after the operation. When an outward drag operation is performed, as shown in screen (b), the display object 113C moves along the same trajectory as the drag operation in the first half of the operation, and when the display object 113C reaches the upper end of the movable area 113B, Since the display object 113C cannot move further in the y direction, the display object 113C moves in the x direction reflecting only the x component of the trajectory of the drag operation.

また、図3Cに示すように、表示オブジェクト113Cから離れた位置かつ移動可能領域113Bの外の位置からドラッグ操作が行われた場合でも、画面(b)のとおり表示オブジェクト113Cはこのドラッグ操作に基づき移動する。すなわち、画面(a)のとおり表示オブジェクト113Cの初期位置が図3Bと同じ場合には、ドラッグ操作の軌跡が同じならば指20の初期位置によらず表示オブジェクト113Cの軌跡も図3Bと同じとなる。 Further, as shown in FIG. 3C, even when a drag operation is performed from a position away from the display object 113C and outside the movable area 113B, the display object 113C is moved based on this drag operation as shown in screen (b). Moving. That is, when the initial position of the display object 113C is the same as in FIG. 3B as shown in screen (a), if the trajectory of the drag operation is the same, the trajectory of the display object 113C is the same as in FIG. 3B regardless of the initial position of the finger 20. Become.

図4は、第1実施形態に係る表示装置10の機能ブロック図である。本実施形態の表示装置10は、図3A~図3Cに例示したような表示オブジェクト113Cの移動パターンを実現するための機能として、図4に示すようにタッチ検出部11と、操作判定部12と、第1移動制御部13と、第2移動制御部14とを備える。 FIG. 4 is a functional block diagram of the display device 10 according to the first embodiment. The display device 10 of the present embodiment includes a touch detection unit 11 and an operation determination unit 12 as shown in FIG. , a first movement control unit 13 and a second movement control unit 14 .

タッチ検出部11は、画面表示LCD113及びタッチパネル115への指示体20の近接または接触を検出する。 The touch detection unit 11 detects proximity or contact of the pointer 20 to the screen display LCD 113 and the touch panel 115 .

操作判定部12は、タッチ検出部11の検出結果に基づいて画面表示LCD113及びタッチパネル115への入力操作を判定する。操作判定部12は、入力操作がタップ操作、ドラッグ操作のどちらであるかを判定する。 The operation determination unit 12 determines an input operation to the screen display LCD 113 and the touch panel 115 based on the detection result of the touch detection unit 11 . The operation determination unit 12 determines whether the input operation is a tap operation or a drag operation.

第1移動制御部13及び第2移動制御部14は、入力操作に基づき画面表示LCD113上での表示オブジェクト113Cの動作を制御する。第1移動制御部13は、操作判定部12により画面表示LCD113及びタッチパネル115へのタップ操作を判定した場合、タップ操作の座標が移動可能領域113B内のときは表示オブジェクト113Cをその座標へ移動し、移動可能領域113B外のときは表示オブジェクト113Cをその座標へ移動しない。 The first movement control section 13 and the second movement control section 14 control the movement of the display object 113C on the screen display LCD 113 based on the input operation. When the operation determination unit 12 determines that a tap operation has been performed on the screen display LCD 113 and the touch panel 115, the first movement control unit 13 moves the display object 113C to the coordinates when the coordinates of the tap operation are within the movable area 113B. , outside the movable area 113B, the display object 113C is not moved to that coordinate.

第2移動制御部14は、操作判定部12により画面表示LCD113及びタッチパネル115へのドラッグ操作を判定した場合、検出可能領域113A内におけるドラッグ操作の座標変化に基づいて表示オブジェクト113Cを移動可能領域113B内で移動させる。 When the operation determination unit 12 determines a drag operation to the screen display LCD 113 and the touch panel 115, the second movement control unit 14 moves the display object 113C to the movable area 113B based on the coordinate change of the drag operation in the detectable area 113A. move within.

図4に示すタッチ検出部11、操作判定部12、第1移動制御部13、第2移動制御部14の各機能は、図1のLCD制御装置112及びタッチパネル制御装置114を構成するLSIなどのハードウェア上に所定のコンピュータソフトウェア(オブジェクト移動プログラム)を読み込ませることにより、LCD制御装置112及びタッチパネル制御装置114の制御のもとで画像表示LCD113、タッチパネル115を動作させることで実現される。また、表示装置10を構成するLCD制御装置112及びタッチパネル制御装置114は、CPU(Central Processing Unit)CPUやRAM(Random Access Memory)やROM(Read Only Memory)などを含むコンピュータ装置とも表現できる。すなわち、本実施形態のオブジェクト移動プログラムをコンピュータ上で実行させることで、表示装置10は、図4のタッチ検出部11、操作判定部12、第1移動制御部13、第2移動制御部14として機能する。 Each function of the touch detection unit 11, the operation determination unit 12, the first movement control unit 13, and the second movement control unit 14 shown in FIG. It is realized by operating the image display LCD 113 and the touch panel 115 under the control of the LCD control device 112 and the touch panel control device 114 by loading predetermined computer software (object movement program) on the hardware. The LCD control device 112 and the touch panel control device 114 that constitute the display device 10 can also be expressed as computer devices including a CPU (Central Processing Unit) CPU, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. That is, by executing the object movement program of the present embodiment on a computer, the display device 10 functions as the touch detection unit 11, the operation determination unit 12, the first movement control unit 13, and the second movement control unit 14 shown in FIG. Function.

より詳細には、タッチ検出部11は、図1のタッチパネル115及びタッチパネル制御装置114により実現される。操作判定部12は、図1のタッチパネル制御装置114により実現される。第1移動制御部13及び第2移動制御部14は、LCD制御装置112により実現される。 More specifically, the touch detection unit 11 is realized by the touch panel 115 and the touch panel control device 114 in FIG. 1 . The operation determination unit 12 is realized by the touch panel control device 114 shown in FIG. The first movement control section 13 and the second movement control section 14 are implemented by the LCD control device 112 .

図5を参照して第1実施形態に係るオブジェクト移動方法を説明する。図5は、第1実施形態におけるタッチ操作による表示オブジェクト113Cの移動制御のフローチャートである。 An object moving method according to the first embodiment will be described with reference to FIG. FIG. 5 is a flowchart of movement control of the display object 113C by touch operation in the first embodiment.

ステップS1では、タッチ検出部11(タッチパネル115)により、画面表示LCD113への指示体20の近接または接触、すなわちタッチ操作の開始有無が検出される(検出ステップ)。タッチ検出部11は、所定のサンプリング周期で接触または近接の状態を検出し、その都度タッチパネル制御装置114にてタッチした座標を算出している。タッチ操作開始前(ステップS1:NO)では、表示オブジェクト113Cは前回のタッチ操作終了時の表示座標に表示されている。ここでタッチ操作が開始された場合(ステップS1:YES)、操作判定部12により、タッチした座標が表示オブジェクト113Cの移動可能領域113B内の座標か否かが判定される(ステップS2)。 In step S1, the touch detection unit 11 (touch panel 115) detects the proximity or contact of the indicator 20 to the screen display LCD 113, that is, whether or not the touch operation is started (detection step). The touch detection unit 11 detects the state of contact or proximity at a predetermined sampling period, and calculates the coordinates touched by the touch panel control device 114 each time. Before the touch operation is started (step S1: NO), the display object 113C is displayed at the display coordinates at the end of the previous touch operation. If a touch operation is started here (step S1: YES), the operation determination unit 12 determines whether or not the touched coordinates are within the movable area 113B of the display object 113C (step S2).

タッチ操作開始座標が移動可能領域113B内の座標である場合(ステップS2:YES)、タッチした絶対的な座標に基づいて表示オブジェクト113Cを移動する(ステップS3)。ここでタッチ開始座標から一定以上の座標変化がない(ほぼ動いていない)ままタッチ操作が終了した場合(ステップS5:YESかつステップS7:YES)、すなわちタップ操作が行われると、ステップS3で移動した座標で表示オブジェクト113Cの位置指定が完了する。つまり、ステップS3→S5→S7の流れでは、図3Aの画面(a)→(b)に例示した移動パターンになる。 If the touch operation start coordinates are within the movable area 113B (step S2: YES), the display object 113C is moved based on the absolute touched coordinates (step S3). Here, when the touch operation ends without a coordinate change of a certain amount or more from the touch start coordinates (almost no movement) (step S5: YES and step S7: YES), that is, when the tap operation is performed, the movement is performed in step S3. Position designation of the display object 113C is completed at the coordinates. That is, in the flow of steps S3->S5->S7, the movement pattern shown in the screen (a)->(b) of FIG. 3A is obtained.

一方、タッチ開始座標から一定以上の座標変化があった場合(ステップS5:NO)、すなわちドラッグ操作が行われると、連続的なタッチ座標の時系列変化(軌跡)に基づいて表示オブジェクト113CをステップS3で移動した座標を起点として移動可能領域113B内で相対移動させ(ステップS6)、タッチ操作終了(ステップS8:YES)の時点で表示オブジェクト113Cを表示している座標で位置指定が完了する。つまり、ステップS3→S5→S6→S8の流れでは、図3Bの画面(a)→(b)に例示した移動パターンになる。 On the other hand, when there is a coordinate change of a certain amount or more from the touch start coordinate (step S5: NO), that is, when a drag operation is performed, the display object 113C is stepped based on the continuous time-series change (trajectory) of the touch coordinate. Using the coordinates moved in S3 as a starting point, relative movement is performed within the movable area 113B (step S6), and when the touch operation ends (step S8: YES), position designation is completed at the coordinates where the display object 113C is displayed. That is, in the flow of steps S3->S5->S6->S8, the movement pattern shown in the screen (a)->(b) of FIG. 3B is obtained.

タッチ操作開始座標が移動可能領域113B内の座標ではない場合(ステップS2:NO)、表示オブジェクト113Cをタッチ操作開始前の座標から移動させない(ステップS4)。ここでタッチ開始座標から一定以上の座標変化がない(ほぼ動いていない)ままタッチ操作が終了した場合(ステップS5:YESかつステップS7:YES)、すなわちタップ操作が行われると、タッチ操作開始前の座標で表示オブジェクト113Cの位置指定が完了する。つまり、ステップS4→S5→S7の流れでは、図3Cの画面(a)に例示した状態のまま終了する。 If the touch operation start coordinates are not within the movable area 113B (step S2: NO), the display object 113C is not moved from the coordinates before the touch operation is started (step S4). Here, if the touch operation ends without a coordinate change of a certain amount or more from the touch start coordinates (almost no movement) (step S5: YES and step S7: YES), that is, when the tap operation is performed, The position specification of the display object 113C is completed at the coordinates of . That is, the flow of steps S4->S5->S7 ends with the state illustrated in the screen (a) of FIG. 3C.

一方、タッチ開始座標から一定以上の座標変化があった場合(ステップS5:NO)、すなわちドラッグ操作が行われると、連続的なタッチ座標の時系列変化(軌跡)に基づいて表示オブジェクト113Cをタッチ操作開始前の座標を起点として移動可能領域113B内で相対移動させ(ステップS6)、タッチ操作終了(ステップS8:YES)の時点で表示オブジェクト113Cを表示している座標で位置指定が完了する。つまり、ステップS4→S5→S6→S8の流れでは、図3Cの画面(a)→(b)に例示した移動パターンになる。 On the other hand, when there is a coordinate change of a certain amount or more from the touch start coordinate (step S5: NO), that is, when a drag operation is performed, the display object 113C is touched based on the continuous time-series change (trajectory) of the touch coordinate. Relative movement is performed within the movable area 113B using the coordinates before the start of the operation as a starting point (step S6), and the position designation is completed at the coordinates where the display object 113C is displayed when the touch operation ends (step S8: YES). That is, in the flow of steps S4->S5->S6->S8, the movement pattern shown in the screen (a)->(b) of FIG. 3C is obtained.

上記のフローチャートのうち、ステップS3→S5→S7の流れと、ステップS4→S5→S7の流れでは、操作判定部12により、タッチ検出部11のタッチ操作の検出結果に基づいて画面表示LCD113への入力操作がタップ操作と判定される処理(判定ステップ)と、第1移動制御部13により、タップ操作の座標が移動可能領域113B内のときは表示オブジェクト113Cをその座標へ移動し、移動可能領域113B外のときは表示オブジェクトをその座標へ移動しない処理(第1移動ステップ)とが実施される。 In the flow of steps S3->S5->S7 and the flow of steps S4->S5->S7 in the above-described flow chart, the operation determination unit 12 outputs information to the screen display LCD 113 based on the detection result of the touch operation of the touch detection unit 11. When the coordinates of the tap operation are within the movable area 113B, the display object 113C is moved to the coordinates by the process (determining step) of determining that the input operation is the tap operation (determining step), and the movable area When the coordinates are outside 113B, a process (first movement step) of not moving the display object to the coordinates is performed.

一方、上記のフローチャートのうち、ステップS3→S5→S6→S8の流れと、ステップS4→S5→S6→S8の流れでは、操作判定部12により、タッチ検出部11のタッチ操作の検出結果に基づいて画面表示LCD113への入力操作がドラッグ操作と判定される処理(判定ステップ)と、第2移動制御部14により、検出可能領域113A内におけるドラッグ操作の座標変化に基づいて表示オブジェクト113Cを移動可能領域113B内で移動させる処理(第2移動ステップ)が実施される。 On the other hand, in the flow of steps S3->S5->S6->S8 and the flow of steps S4->S5->S6->S8 in the above-described flowchart, the operation determination unit 12 determines based on the touch operation detection result of the touch detection unit 11. A process (determining step) for determining that an input operation to the screen display LCD 113 is a drag operation (determination step), and the second movement control unit 14 can move the display object 113C based on the coordinate change of the drag operation within the detectable area 113A. A process of moving within the area 113B (second moving step) is performed.

本実施形態の効果を説明する。従来、デジタルカメラなどの携帯機器においてタッチパネル115のタッチ操作によって表示オブジェクト113Cの移動操作を行う構成では、タッチ操作用の領域は、表示オブジェクト113Cの移動可能領域113Bに制限されていた。このため、タッチ操作がタッチパネル115の検出可能領域113A上で行われても、移動可能領域113B外の場合にはタッチ操作が受け付けられず、表示オブジェクト113Cの移動が停止されるため、表示オブジェクト113Cの移動操作の操作性が低下してしまうという問題があった。 Effects of the present embodiment will be described. Conventionally, in a configuration in which a display object 113C is moved by a touch operation on the touch panel 115 in a mobile device such as a digital camera, the touch operation area is limited to the movable area 113B of the display object 113C. Therefore, even if the touch operation is performed on the detectable area 113A of the touch panel 115, the touch operation is not accepted outside the movable area 113B, and the movement of the display object 113C is stopped. However, there is a problem that the operability of the movement operation is deteriorated.

これに対して第1実施形態の表示装置10では、ドラッグ操作で表示オブジェクト113Cを相対移動させるときは、移動可能領域113Bよりも広い検出可能領域113Aをタッチ操作用の領域として利用可能としながら、表示オブジェクト113Cは移動可能領域113B内で表示を制限できる。また、タップ操作で表示オブジェクト113Cを絶対的な座標に基づいて移動させるときは、移動可能領域113B内で表示を制限できる。これにより、上記の従来構成の場合の問題を解消でき、表示オブジェクト113Cの移動操作の操作性を向上でき、この結果ユーザのタッチ操作の操作性を向上できる。 On the other hand, in the display device 10 of the first embodiment, when the display object 113C is relatively moved by a drag operation, the detectable area 113A, which is wider than the movable area 113B, can be used as a touch operation area. The display object 113C can be limited in display within the movable area 113B. Also, when the display object 113C is moved based on absolute coordinates by a tap operation, the display can be restricted within the movable area 113B. As a result, it is possible to solve the problem of the conventional configuration described above, improve the operability of the movement operation of the display object 113C, and as a result improve the operability of the user's touch operation.

[第2実施形態]
図6を参照して第2実施形態を説明する。図6は、第2実施形態におけるタッチ操作による表示オブジェクト113Cの移動制御のフローチャートである。
[Second embodiment]
A second embodiment will be described with reference to FIG. FIG. 6 is a flow chart of movement control of the display object 113C by touch operation in the second embodiment.

図6のフローチャートは、基本的には図5のフローチャートと同様であり、図6のステップS21~S28の各処理は、図5のステップS1~8の各処理と同様である。 The flowchart of FIG. 6 is basically the same as the flowchart of FIG. 5, and each process of steps S21-S28 of FIG. 6 is the same as each process of steps S1-8 of FIG.

図5と図6の制御フローの差異は、タッチ操作開始の座標が移動可能領域内ではない場合(ステップS21:YESかつステップS22:NO)、以後の動作がタップ操作またはドラッグ操作いずれの場合も無効操作として表示オブジェクト113Cをタッチ操作開始前の座標から変更しない点である(図5のフローでは、タップ操作は無効操作としているが、ドラッグ操作は表示オブジェクトを相対移動させている)。つまり、ステップS24にて、表示オブジェクト113Cをタッチ操作開始前の座標に継続表示(移動しない)処理を実施した後には、タッチ操作終了(ステップS29:YES)の時点で表示オブジェクト113Cをタッチ操作開始前の座標のままで処理を終了する。 The difference between the control flows in FIGS. 5 and 6 is that if the coordinates at which the touch operation is started are not within the movable area (step S21: YES and step S22: NO), the subsequent operation is either a tap operation or a drag operation. The point is that the display object 113C is not changed from the coordinates before the start of the touch operation as an invalid operation (in the flow of FIG. 5, the tap operation is an invalid operation, but the drag operation relatively moves the display object). That is, in step S24, after the display object 113C is continuously displayed (not moved) to the coordinates before the touch operation is started, the touch operation of the display object 113C is started when the touch operation ends (step S29: YES). Terminate the process with the previous coordinates.

すなわち、第2実施形態では、第2移動制御部14は、ドラッグ操作の開始座標が移動可能領域113B外のときは表示オブジェクト113Cを移動しない機能も有する。図6のフローチャートでは、ステップS24→S29の流れでは、第1移動制御部13(LCD制御装置112)により、タップ操作の座標が移動可能領域113B外のときは表示オブジェクトをその座標へ移動しない処理と、第2移動制御部14(LCD制御装置112)により、ドラッグ操作の座標が移動可能領域113B外のときは表示オブジェクトをその座標へ移動しない処理とが実施される。 That is, in the second embodiment, the second movement control unit 14 also has a function of not moving the display object 113C when the start coordinates of the drag operation are outside the movable area 113B. In the flowchart of FIG. 6, in the flow from step S24 to S29, when the coordinates of the tap operation are outside the movable area 113B, the display object is not moved to the coordinates by the first movement control unit 13 (LCD control device 112). Then, the second movement control unit 14 (LCD control device 112) performs a process of not moving the display object to the coordinates of the drag operation when the coordinates are outside the movable area 113B.

[第3実施形態]
図7~図9を参照して第3実施形態を説明する。第3実施形態では、上記の第1、第2実施形態の表示オブジェクト113Cの移動制御において、移動可能領域113Bの表示/非表示を制御する。
[Third Embodiment]
A third embodiment will be described with reference to FIGS. 7 to 9. FIG. In the third embodiment, display/non-display of the movable area 113B is controlled in the movement control of the display object 113C in the first and second embodiments.

図7は、移動可能領域113Bの表示例を示す図である。図7(a)は移動可能領域113Bの表示無しの画面例であり、(b)、(c)は移動可能領域113Bの表示ありの画面例である。図7(a)~(c)に示すように、表示オブジェクト113C(測距エリア枠)は、移動可能領域113Bの表示の有無に関係なく表示される。移動可能領域113Bの表示は、図7(b)に示すように境界を表示することや、図7(c)に示すように移動可能領域113B外を塗りつぶすなどのパターンがあるが、いずれの場合も表示オブジェクト113Cの表示を阻害しない様態が好ましい。また、図7(c)の移動可能領域113B外を塗りつぶす場合、透過色を用いて被写体像の全体の確認を阻害しない様態が好ましい。 FIG. 7 is a diagram showing a display example of the movable area 113B. FIG. 7(a) is an example of a screen without displaying the movable area 113B, and (b) and (c) are examples of screens with displaying the movable area 113B. As shown in FIGS. 7A to 7C, the display object 113C (range-finding area frame) is displayed regardless of whether or not the movable area 113B is displayed. The display of the movable area 113B has a pattern such as displaying the boundary as shown in FIG. 7B, or painting the outside of the movable area 113B as shown in FIG. It is preferable that the display of the display object 113C is not obstructed. In addition, when the outside of the movable area 113B in FIG. 7C is painted out, it is preferable to use a transparent color so as not to hinder confirmation of the entire subject image.

図8は、第3実施形態に係る表示装置10の機能ブロック図である。第3実施形態では、上記のような移動可能領域113Bのこのような要求を満たすべくタッチ操作中に移動可能領域113Bの表示/非表示を制御する。本実施形態の表示装置10は、上記の移動可能領域の表示処理を実現するための機能として、図8に示すようにタッチ検出部11と、操作判定部12と、表示制御部15とを備える。 FIG. 8 is a functional block diagram of the display device 10 according to the third embodiment. In the third embodiment, display/non-display of the movable area 113B is controlled during a touch operation in order to satisfy such a request for the movable area 113B as described above. The display device 10 of the present embodiment includes a touch detection unit 11, an operation determination unit 12, and a display control unit 15 as shown in FIG. 8 as functions for realizing the display processing of the movable area. .

タッチ検出部11、操作判定部12は、第1実施形態と同様なので説明を省略する。 Since the touch detection unit 11 and the operation determination unit 12 are the same as those in the first embodiment, description thereof is omitted.

表示制御部15は、移動可能領域113B外で入力操作が行われた場合に移動可能領域113Bを示す表示を行う。一方、移動可能領域113B内で行われた入力操作に応じて、移動可能領域113Bを示す表示を行わないように制御する。より詳細には、移動可能領域113B内でドラッグ操作が行われた場合に移動可能領域113Bを示す表示を行い、移動可能領域113B内で前記タップ操作が行われた場合に移動可能領域113Bを示す表示を行わない。また、入力操作がないときは移動可能領域113Bを示す表示を行わない。 The display control unit 15 displays the movable area 113B when an input operation is performed outside the movable area 113B. On the other hand, in response to an input operation performed within the movable area 113B, control is performed so as not to display the movable area 113B. More specifically, when the drag operation is performed within the movable area 113B, the movable area 113B is displayed, and when the tap operation is performed within the movable area 113B, the movable area 113B is displayed. No display. Moreover, when there is no input operation, the display indicating the movable area 113B is not performed.

表示制御部15は、図1のLCD制御装置112により実現される。 The display control unit 15 is implemented by the LCD control device 112 in FIG.

図9は、第3実施形態における移動可能領域113Bの表示制御のフローチャートである。 FIG. 9 is a flow chart of display control of the movable area 113B in the third embodiment.

ステップS31では、タッチ検出部11がタッチ操作を検出する前、すなわち入力操作が無い状態では、表示制御部15(LCD制御装置112)により、移動可能領域113Bが表示されないように制御される(第2非表示ステップ)。タッチ操作を開始した場合(ステップS32:YES)、タッチした座標が表示オブジェクト113Cの移動可能領域113B内の座標か否かを判定する(ステップS33)。 In step S31, before the touch detection unit 11 detects a touch operation, that is, when there is no input operation, the display control unit 15 (LCD control device 112) controls the movable area 113B not to be displayed (second 2 hidden step). If the touch operation is started (step S32: YES), it is determined whether or not the touched coordinates are within the movable area 113B of the display object 113C (step S33).

移動可能領域113B外をタッチしたとき(ステップS33:NO)は、表示制御部15により、移動可能領域113Bが表示される(ステップS34:表示ステップ)。移動可能領域113Bの表示パターンは、例えば図7(b)の境界表示や、図7(c)の領域外の塗りつぶし表示などである。 When the outside of the movable area 113B is touched (step S33: NO), the display control unit 15 displays the movable area 113B (step S34: display step). The display pattern of the movable area 113B is, for example, the boundary display in FIG. 7B or the solid-filled display outside the area in FIG. 7C.

一方、移動可能領域113B内をタッチしたとき(ステップS33:YES)は、タッチ開始座標から一定以上の座標変化がない(ほぼ動いていない)ままタッチ操作が終了した場合(ステップS35:YESかつステップS37:YES)、すなわちタップ操作が行われると、移動可能領域113Bは非表示状態のまま(ステップS39:第1非表示ステップ)で本制御フローを終了する。 On the other hand, when the inside of the movable area 113B is touched (step S33: YES), the touch operation ends without a coordinate change of a certain amount or more from the touch start coordinates (almost no movement) (step S35: YES and step S37: YES), that is, when a tap operation is performed, the movable area 113B remains in the non-display state (step S39: first non-display step), and this control flow ends.

また、タッチ開始座標から一定以上の座標変化があった場合(ステップS35:NO)、すなわちドラッグ操作が行われると、タッチ開始座標が移動可能領域113Bの内外どちらにある場合(ステップS33のYES、NOの両方の場合)でもドラッグ操作中は移動可能領域113Bが表示される(ステップS36)。タッチ操作終了(ステップS38:YES)の時点で、移動可能領域113Bが非表示に切り替えられ(ステップS39)、本制御フローを終了する。 Further, when there is a coordinate change of a certain amount or more from the touch start coordinates (step S35: NO), that is, when the drag operation is performed, whether the touch start coordinates are inside or outside the movable area 113B (YES in step S33, In both cases of NO), the movable area 113B is displayed during the drag operation (step S36). When the touch operation ends (step S38: YES), the movable area 113B is switched to non-display (step S39), and this control flow ends.

第3実施形態では、移動可能領域113B内のタップ操作で絶対的な座標に伴う表示オブジェクト113Cの移動時には移動可能領域113Bを表示せず、移動可能領域113B外を報知する必要性が考えられる操作に限定して移動可能領域113Bを表示することができる。このため、移動可能領域113Bを常時表示させた場合に生じる問題、すなわち表示が煩雑となり被写体の確認にも支障が出るという問題を解消できる。これにより、タッチパネル操作による測距エリア指定における操作性を向上でき、ユーザのタッチ操作により表示オブジェクト113Cを移動させる際に表示オブジェクト113Cの移動可能領域113Bを好適に報知できる。 In the third embodiment, when the display object 113C is moved along with absolute coordinates by a tap operation within the movable area 113B, the movable area 113B is not displayed, and the outside of the movable area 113B is considered to be notified. , the movable area 113B can be displayed. Therefore, it is possible to solve the problem that occurs when the movable area 113B is displayed all the time, that is, the problem that the display becomes complicated and hinders confirmation of the subject. As a result, the operability of specifying the distance measurement area by touch panel operation can be improved, and the movable area 113B of the display object 113C can be preferably notified when the display object 113C is moved by the user's touch operation.

また、第3実施形態の移動可能領域113Bの表示制御は、第1、第2実施形態のタッチ操作による表示オブジェクト113Cの移動制御と併用することにより、ユーザのタッチ操作の操作性がより向上する。 Further, by using the display control of the movable area 113B of the third embodiment together with the movement control of the display object 113C by the touch operation of the first and second embodiments, the operability of the user's touch operation is further improved. .

[第4実施形態]
図10を参照して第4実施形態を説明する。図10は、第4実施形態における移動可能領域113Bの表示制御のフローチャートである。図10のフローチャートは、基本的には第3実施形態の図9のフローチャートと同様であり、図10のステップS41~S45、S49、S51の各処理は、図9のステップS31~S35、S37、S39の各処理と同様である。
[Fourth Embodiment]
A fourth embodiment will be described with reference to FIG. FIG. 10 is a flow chart of display control of the movable area 113B in the fourth embodiment. The flowchart of FIG. 10 is basically the same as the flowchart of FIG. 9 of the third embodiment. It is the same as each process of S39.

図10のフローチャートでは、表示制御部15により、ドラッグ操作中は、タッチ座標が移動可能領域113B外のとき(ステップS46:NO)は移動可能領域113Bが表示され(ステップS48)、タッチ座標が移動可能領域113B内のとき(ステップS46:YES)は移動可能領域113Bが表示されない(ステップS47)。 In the flowchart of FIG. 10, the display control unit 15 displays the movable area 113B (step S48) when the touch coordinates are outside the movable area 113B during the drag operation (step S46: NO), and the touch coordinates are moved. When within the movable area 113B (step S46: YES), the movable area 113B is not displayed (step S47).

第4実施形態では、第3実施形態の表示制御に加えて、移動可能領域113B外で開始されたドラッグ操作が移動可能領域113B内に進入した場合には、移動可能領域113Bが非表示に切り替えられる。これにより、より高精度に、移動可能領域113B外を報知する必要性が考えられる操作に限定して移動可能領域113Bを表示することができる。 In the fourth embodiment, in addition to the display control of the third embodiment, when a drag operation started outside the movable area 113B enters the movable area 113B, the movable area 113B is hidden. be done. As a result, it is possible to display the movable area 113B with a higher degree of accuracy by restricting the operations for which it is considered necessary to notify the outside of the movable area 113B.

[第5実施形態]
図11、図12を参照して第5実施形態を説明する。図11は、第5実施形態に係る表示装置10の機能ブロック図である。第5実施形態では、ユーザが操作部材102を用いて表示オブジェクト113Cを移動操作する。この場合、タッチ操作のように移動可能領域113B外を直接ポイントすることはないので、移動可能領域113Bの表示制御は、第3、第4実施形態のタッチ操作時の表示制御(図7、図8)と異なるものとなる。
[Fifth embodiment]
A fifth embodiment will be described with reference to FIGS. 11 and 12. FIG. FIG. 11 is a functional block diagram of the display device 10 according to the fifth embodiment. In the fifth embodiment, the user operates the operation member 102 to move the display object 113C. In this case, unlike the touch operation, the outside of the movable area 113B is not directly pointed, so the display control of the movable area 113B is similar to the display control at the time of the touch operation in the third and fourth embodiments (FIGS. 7 and 8). 8) will be different.

第5実施形態では、操作部材102によって入力された、表示オブジェクト113Cの移動指示に応じて、移動可能領域113Bを示す表示を行う。本実施形態の表示装置10は、上記の移動可能領域の表示処理を実現するための機能として、図10に示すように操作検出部16と、表示制御部17とを備える。 In the fifth embodiment, display showing the movable area 113B is performed in accordance with an instruction to move the display object 113C input by the operation member 102. FIG. The display device 10 of the present embodiment includes an operation detection unit 16 and a display control unit 17 as shown in FIG. 10 as functions for realizing the display processing of the movable area.

操作検出部16は、操作部材102によって入力された、表示オブジェクト113Cの移動指示を検出する。ここで操作部材102は、例えば、十字キーや8方向レバーなどの方向指示に用いられる操作部材である。これらの操作部材は、移動方向指示を保持する操作(十字キーの押し続け操作、8方向レバーの倒し続け操作)ができるものとする。 The operation detection unit 16 detects an instruction to move the display object 113C input by the operation member 102 . Here, the operating member 102 is, for example, a cross key, an eight-way lever, or other operating member used for direction indication. It is assumed that these operation members can be operated to hold the movement direction instruction (continuous pressing operation of the cross key, continuous pushing operation of the 8-way lever).

表示制御部17は、操作検出部16により検出された移動指示に基づき、移動可能領域113Bの表示/非表示を制御する。 The display control unit 17 controls display/non-display of the movable area 113B based on the movement instruction detected by the operation detection unit 16 .

操作検出部16及び表示制御部17は、図1のLCD制御装置112により実現される。 The operation detection unit 16 and the display control unit 17 are realized by the LCD control device 112 in FIG.

図12は、第5実施形態における移動可能領域113Bの表示制御のフローチャートである。操作検出部16により移動操作の入力が検出される前では、表示オブジェクト113Cは移動可能領域113B内に配置されているので、移動可能領域113Bは非表示状態となっている(ステップS61)。そして、ステップS62にて、操作検出部16により、表示オブジェクト113Cの移動操作の開始が検出されると(ステップS62のYES)、表示制御部17により、移動可能領域113Bが表示される(ステップS63)。移動操作の継続中(ステップS64のNO)は、移動可能領域113Bの表示が継続され、移動操作が終了すると(ステップS64のYES)、移動可能領域113Bが非表示に切り替えられて(ステップS65)、本制御フローを終了する。 FIG. 12 is a flow chart of display control of the movable area 113B in the fifth embodiment. Before the input of the movement operation is detected by the operation detection unit 16, the display object 113C is arranged within the movable area 113B, so the movable area 113B is in a non-display state (step S61). Then, in step S62, when the operation detection unit 16 detects the start of the operation to move the display object 113C (YES in step S62), the display control unit 17 displays the movable area 113B (step S63). ). While the movement operation is continuing (NO in step S64), display of the movable area 113B is continued, and when the movement operation ends (YES in step S64), the movable area 113B is switched to non-display (step S65). , to end this control flow.

つまり第5実施形態では、移動方向指示を保持する操作中に移動可能領域を表示し、移動指示操作を行っていないときは移動可能領域を表示しない。第5実施形態では、移動可能領域113Bの表示を移動操作中に限定するので、移動可能領域113Bを常時表示させると表示が煩雑となり被写体の確認にも支障が出るという問題を解消できる。 That is, in the fifth embodiment, the movable area is displayed during the operation of holding the movement direction instruction, and the movable area is not displayed when the movement instruction operation is not performed. In the fifth embodiment, the display of the movable area 113B is limited to during the movement operation, so that the problem that the display of the movable area 113B is always displayed becomes complicated and the confirmation of the subject is hindered can be solved.

[第6実施形態]
図13を参照して第6実施形態を説明する。図13は、第6実施形態における移動可能領域113Bの表示制御のフローチャートである。
[Sixth embodiment]
A sixth embodiment will be described with reference to FIG. FIG. 13 is a flow chart of display control of the movable area 113B in the sixth embodiment.

第6実施形態では、操作部材102によって入力された移動指示に応じて表示オブジェクト113Cが移動する位置が、移動可能領域113Bの境界と接する位置の場合、移動可能領域113Bを示す表示を行う。また、表示オブジェクト113Cが移動可能領域113Bの境界と接していない位置である場合、移動指示に応じて移動可能領域113Bを示す表示を行わない。 In the sixth embodiment, when the position to which the display object 113C moves in accordance with the movement instruction input by the operation member 102 is in contact with the boundary of the movable area 113B, the movable area 113B is displayed. If the display object 113C is not in contact with the boundary of the movable area 113B, the movable area 113B is not displayed in response to the movement instruction.

図13のステップS71、S72、S76、S77の各処理は、図12のステップS61、S62、S64、S65と同様である。 13 are the same as steps S61, S62, S64 and S65 in FIG.

図13のフローチャートでは、操作検出部16により、移動操作の開始が検出されると(ステップS72のYES)、ステップS73にて表示制御部17により、表示オブジェクト113Cが移動可能領域113Bの外縁の境界部分と接するか否かが判定される。そして、移動方向指示を保持する操作中に、表示オブジェクト113Cが移動可能領域113Bの境界と接するとき(ステップS73のYES)には、表示制御部17により、移動可能領域113Bが表示に切り替えられる(ステップS74)。一方、移動方向指示を保持する操作中であっても表示オブジェクト113Cが移動可能領域の境界に接していないとき(ステップS73のNO)には、表示制御部17により、移動可能領域113Bは非表示のまま維持される(ステップS75)。 In the flowchart of FIG. 13 , when the operation detection unit 16 detects the start of the movement operation (YES in step S72), the display control unit 17 moves the display object 113C to the boundary of the outer edge of the movable area 113B in step S73. It is determined whether or not it touches the part. Then, when the display object 113C touches the boundary of the movable area 113B during the operation of holding the movement direction instruction (YES in step S73), the display control unit 17 switches the movable area 113B to display ( step S74). On the other hand, when the display object 113C is not in contact with the boundary of the movable area even during the operation of holding the movement direction instruction (NO in step S73), the display control unit 17 hides the movable area 113B. is maintained (step S75).

第6実施形態では、操作前の状態では移動可能領域113Bを表示せず、表示オブジェクト113Cが移動可能領域113Bの境界と接する状態となって移動可能領域113B外に出そうな旨を報知する必要性が高い操作に限定して、移動可能領域を表示することができる。このため、移動可能領域を常時表示させると表示が煩雑となり被写体の確認にも支障が出るという問題を解消できる。 In the sixth embodiment, it is necessary to notify that the movable area 113B is not displayed before the operation, and that the display object 113C is in contact with the boundary of the movable area 113B and is about to move out of the movable area 113B. It is possible to display the movable area only for operations that are highly likely to occur. Therefore, it is possible to solve the problem that if the movable area is displayed all the time, the display becomes complicated and it is difficult to check the subject.

[第7実施形態]
図14を参照して第7実施形態を説明する。図14は、第7実施形態における移動可能領域113Bの表示制御のフローチャートである。
[Seventh Embodiment]
A seventh embodiment will be described with reference to FIG. FIG. 14 is a flow chart of display control of the movable area 113B in the seventh embodiment.

第7実施形態では、操作部材102によって入力された移動指示に応じて表示オブジェクト113Cが移動できる場合、移動指示に応じて移動可能領域113Bを示す表示を行わない。 In the seventh embodiment, when the display object 113C can be moved according to the movement instruction input by the operation member 102, the movable area 113B is not displayed according to the movement instruction.

図14のステップS81、S82、S86、S87の各処理は、図13のステップS71、S72、S76、S77と同様である。 14 are the same as steps S71, S72, S76 and S77 in FIG.

図14のフローチャートでは、操作検出部16により、移動操作の開始が検出されると(ステップS82のYES)、ステップS83にて表示制御部17により、指示方向に表示オブジェクト113Cが移動できるか否かが判定される。そして、移動方向指示を保持する操作中に、表示オブジェクト113Cが指示した方向に移動できないとき(ステップS83のNO)には、表示制御部17により、移動可能領域113Bが表示に切り替えられる(ステップS85)。一方、移動方向指示を保持する操作中であっても表示オブジェクト113Cが指示した方向に移動できるとき(ステップS83のYES)には、表示制御部17により、移動可能領域113Bは非表示のまま維持される(ステップS84)。 In the flowchart of FIG. 14, when the operation detection unit 16 detects the start of the movement operation (YES in step S82), the display control unit 17 determines whether the display object 113C can be moved in the designated direction in step S83. is determined. Then, when the display object 113C cannot move in the indicated direction during the operation of holding the movement direction instruction (NO in step S83), the display control unit 17 switches the movable area 113B to display (step S85). ). On the other hand, when the display object 113C can move in the indicated direction even during the operation of holding the movement direction instruction (YES in step S83), the display control unit 17 keeps the movable area 113B non-display. (step S84).

第7実施形態では、操作前の状態では移動可能領域113Bを表示せず、表示オブジェクト113Cが指示方向に移動できない状態となって、移動可能領域113B外を報知する必要性が高い操作に限定して、移動可能領域113Bを表示することができる。このため、移動可能領域113Bを常時表示させると表示が煩雑となり被写体の確認にも支障が出るという問題を解消できる。 In the seventh embodiment, the movable area 113B is not displayed in the state before the operation, and the display object 113C cannot be moved in the designated direction. to display the movable area 113B. Therefore, it is possible to solve the problem that if the movable area 113B is displayed all the time, the display becomes complicated and it is difficult to check the subject.

以上、具体例を参照しつつ本実施形態について説明した。しかし、本開示はこれらの具体例に限定されるものではない。これら具体例に、当業者が適宜設計変更を加えたものも、本開示の特徴を備えている限り、本開示の範囲に包含される。前述した各具体例が備える各要素およびその配置、条件、形状などは、例示したものに限定されるわけではなく適宜変更することができる。前述した各具体例が備える各要素は、技術的な矛盾が生じない限り、適宜組み合わせを変えることができる。 The present embodiment has been described above with reference to specific examples. However, the present disclosure is not limited to these specific examples. Design modifications to these specific examples by those skilled in the art are also included in the scope of the present disclosure as long as they have the features of the present disclosure. Each element included in each specific example described above and its arrangement, conditions, shape, etc. are not limited to those illustrated and can be changed as appropriate. As long as there is no technical contradiction, the combination of the elements included in the specific examples described above can be changed as appropriate.

10 表示装置
20 指示体
100 デジタルカメラ(撮像装置)
102 操作部材
112 LCD制御装置(制御部)
113 画像表示LCD(表示部)
113A 検出可能領域(第1の領域)
113B 移動可能領域(第2の領域)
113C 表示オブジェクト
114 タッチパネル制御装置(判定部)
115 タッチパネル(検出部)
10 display device 20 indicator 100 digital camera (imaging device)
102 operation member 112 LCD control device (control unit)
113 image display LCD (display unit)
113A detectable area (first area)
113B movable area (second area)
113C display object 114 touch panel control device (determination unit)
115 touch panel (detection part)

特開2015-130016号公報JP 2015-130016 A

Claims (9)

表示オブジェクトを表示する表示部と、
前記表示部の表示を制御する制御部と、
前記表示部への指示体の近接または接触を検出する検出部と、
前記検出部の検出結果に基づいて前記表示部への入力操作を判定する判定部と、
を備え、
前記表示部は、
前記検出部が検出可能な全領域である第1の領域と、
前記第1の領域の一部であり、前記入力操作に応じて前記表示オブジェクトが移動可能な第2の領域と、を有し、
前記制御部は、
前記判定部が前記表示部へのタップ操作を判定した場合、前記タップ操作の座標が前記第2の領域内のときは前記表示オブジェクトを前記座標へ移動し、前記タップ操作の座標が前記第2の領域外のときは前記表示オブジェクトを前記座標へ移動せず、
前記判定部が前記表示部へのドラッグ操作を判定した場合、前記ドラッグ操作の開始座標が前記第2の領域内のときは前記第1の領域内における前記ドラッグ操作の座標変化に基づいて前記表示オブジェクトを前記第2の領域内で移動させ、前記ドラッグ操作の開始座標が前記第2の領域外のときは前記表示オブジェクトを移動させない、表示装置。
a display for displaying display objects;
a control unit that controls display on the display unit;
a detection unit that detects proximity or contact of an indicator to the display unit;
a determination unit that determines an input operation to the display unit based on the detection result of the detection unit;
with
The display unit
a first area that is the entire area detectable by the detection unit;
a second area that is part of the first area and in which the display object can be moved according to the input operation;
The control unit
When the determining unit determines that a tap operation has been performed on the display unit, if the coordinates of the tap operation are within the second region, the display object is moved to the coordinates, and the coordinates of the tap operation are in the second region. does not move the display object to the coordinates when outside the area of
When the determination unit determines a drag operation to the display unit and the start coordinates of the drag operation are within the second area, the display is performed based on the coordinate change of the drag operation within the first area. A display device that moves an object within the second area and does not move the display object when the start coordinates of the drag operation are outside the second area .
前記制御部は、
前記第2の領域外で前記入力操作が行われた場合に前記第2の領域を示す表示を行い、
前記第2の領域内で行われた前記入力操作に応じて前記第2の領域を示す表示を行わず、
前記入力操作がないときは前記第2の領域を示す表示を行わない、請求項に記載の表示装置。
The control unit
displaying the second area when the input operation is performed outside the second area;
not displaying the second area in response to the input operation performed in the second area;
2. The display device according to claim 1 , wherein display indicating said second area is not performed when said input operation is not performed.
前記制御部は、
前記第2の領域内で前記ドラッグ操作が行われた場合に前記第2の領域を示す表示を行い、
前記第2の領域内で前記タップ操作が行われた場合に前記第2の領域を示す表示を行わない、請求項に記載の表示装置。
The control unit
displaying the second area when the drag operation is performed in the second area;
3. The display device according to claim 2 , wherein display indicating said second area is not performed when said tap operation is performed within said second area.
前記表示オブジェクトの移動指示を入力する操作部を有し、
前記制御部は、
前記操作部によって入力された前記移動指示に応じて前記第2の領域を示す表示を行う、
請求項2または3に記載の表示装置。
an operation unit for inputting an instruction to move the display object;
The control unit
displaying the second area in response to the movement instruction input by the operation unit;
4. The display device according to claim 2 or 3 .
前記制御部は、
前記操作部によって入力された前記移動指示に応じて前記表示オブジェクトが移動する位置が前記第2の領域の境界と接する位置の場合、前記第2の領域を示す表示を行い、
前記第2の領域の境界と接していない位置である場合、前記移動指示に応じて前記第2の領域を示す表示を行わない、
請求項に記載の表示装置。
The control unit
displaying the second area when the position to which the display object moves in accordance with the movement instruction input by the operation unit is in contact with the boundary of the second area;
If the position is not in contact with the boundary of the second area, display indicating the second area is not performed in response to the movement instruction;
The display device according to claim 4 .
前記制御部は、
前記操作部によって入力された前記移動指示に応じて前記表示オブジェクトが移動できる場合、前記移動指示に応じて前記第2の領域を示す表示を行わない、
請求項4または5に記載の表示装置。
The control unit
not displaying the second area in response to the movement instruction when the display object can be moved in response to the movement instruction input by the operation unit;
The display device according to claim 4 or 5 .
請求項1~のいずれか一項に記載の表示装置を備え、
前記第1の領域が撮像範囲であり、
前記第2の領域が測距可能な範囲であり、
前記表示オブジェクトが測距エリア枠である、
撮像装置。
A display device according to any one of claims 1 to 6 ,
The first area is an imaging range,
the second area is a measurable range,
wherein the display object is a ranging area frame;
Imaging device.
表示オブジェクトを表示する表示部と、
前記表示部の表示を制御する制御部と、
前記表示部への指示体の近接または接触を検出する検出部と、
前記検出部の検出結果に基づいて前記表示部への入力操作を判定する判定部と、
を備え、
前記表示部は、
前記検出部が検出可能な全領域である第1の領域と、
前記第1の領域の一部であり、前記入力操作に応じて前記表示オブジェクトが移動可能な第2の領域と、を有する表示装置のオブジェクト移動方法であって、
前記検出部により前記表示部への前記指示体の近接または接触を検出する検出ステップと、
前記判定部により、検出ステップの検出結果に基づいて前記表示部への前記入力操作を判定する判定ステップと、
前記判定ステップにて前記表示部へのタップ操作を判定した場合、前記制御部により、前記タップ操作の座標が前記第2の領域内のときは前記表示オブジェクトを前記座標へ移動し、前記タップ操作の座標が前記第2の領域外のときは前記表示オブジェクトを前記座標へ移動しない、第1移動ステップと、
前記判定ステップにて前記表示部へのドラッグ操作を判定した場合、前記制御部により、前記ドラッグ操作の開始座標が前記第2の領域内のときは前記第1の領域内における前記ドラッグ操作の座標変化に基づいて前記表示オブジェクトを前記第2の領域内で移動させ、前記ドラッグ操作の開始座標が前記第2の領域外のときは前記表示オブジェクトを移動させない、第2移動ステップと、
を含む、オブジェクト移動方法。
a display for displaying display objects;
a control unit that controls display on the display unit;
a detection unit that detects proximity or contact of an indicator to the display unit;
a determination unit that determines an input operation to the display unit based on the detection result of the detection unit;
with
The display unit
a first area that is the entire area detectable by the detection unit;
and a second area, which is part of the first area and in which the display object can be moved according to the input operation, comprising:
a detection step of detecting proximity or contact of the pointer to the display unit by the detection unit;
a determination step of determining the input operation to the display unit by the determination unit based on the detection result of the detection step;
When the determination step determines that a tap operation has been performed on the display unit, the control unit moves the display object to the coordinates when the coordinates of the tap operation are within the second area, and performs the tap operation . a first moving step of not moving the display object to the coordinates when the coordinates of are outside the second area;
If the determination step determines that the drag operation has been performed on the display unit, the control unit determines the coordinates of the drag operation within the first area when the start coordinates of the drag operation are within the second area. a second moving step of moving the display object within the second area based on the change and not moving the display object when the start coordinates of the drag operation are outside the second area ;
Object movement methods, including
表示オブジェクトを表示する表示部と、
前記表示部の表示を制御する制御部と、
前記表示部への指示体の近接または接触を検出する検出部と、
前記検出部の検出結果に基づいて前記表示部への入力操作を判定する判定部と、
を備え、
前記表示部は、
前記検出部が検出可能な全領域である第1の領域と、
前記第1の領域の一部であり、前記入力操作に応じて前記表示オブジェクトが移動可能な第2の領域と、を有する表示装置のオブジェクト移動プログラムであって、
前記表示部への前記指示体の近接または接触を検出する検出機能と、
前記検出機能の検出結果に基づいて前記表示部への前記入力操作を判定する判定機能と、
前記判定機能により前記表示部へのタップ操作を判定した場合、前記タップ操作の座標が前記第2の領域内のときは前記表示オブジェクトを前記座標へ移動し、前記タップ操作の座標が前記第2の領域外のときは前記表示オブジェクトを前記座標へ移動しない、第1移動機能と、
前記判定機能により前記表示部へのドラッグ操作を判定した場合、前記ドラッグ操作の開始座標が前記第2の領域内のときは前記第1の領域内における前記ドラッグ操作の座標変化に基づいて前記表示オブジェクトを前記第2の領域内で移動させ、前記ドラッグ操作の開始座標が前記第2の領域外のときは前記表示オブジェクトを移動させない、第2移動機能と、
をコンピュータに実現させるためのオブジェクト移動プログラム。
a display for displaying display objects;
a control unit that controls display on the display unit;
a detection unit that detects proximity or contact of an indicator to the display unit;
a determination unit that determines an input operation to the display unit based on the detection result of the detection unit;
with
The display unit
a first area that is the entire area detectable by the detection unit;
and a second area, which is part of the first area and in which the display object can be moved according to the input operation, the object moving program for a display device,
a detection function that detects proximity or contact of the pointer to the display;
a determination function that determines the input operation to the display unit based on the detection result of the detection function;
When the determination function determines that a tap operation has been performed on the display unit, if the coordinates of the tap operation are within the second region, the display object is moved to the coordinates, and the coordinates of the tap operation are in the second region. a first movement function that does not move the display object to the coordinates when outside the area of
When the drag operation to the display unit is determined by the determination function, and the start coordinates of the drag operation are within the second area, the display is performed based on the coordinate change of the drag operation within the first area. a second moving function for moving an object within the second area and not moving the display object when the start coordinates of the drag operation are outside the second area ;
An object movement program for realizing on a computer.
JP2018224201A 2018-11-29 2018-11-29 Display device, imaging device, object moving method, and object moving program Active JP7215117B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018224201A JP7215117B2 (en) 2018-11-29 2018-11-29 Display device, imaging device, object moving method, and object moving program
US16/697,926 US11523060B2 (en) 2018-11-29 2019-11-27 Display device, imaging device, object moving method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018224201A JP7215117B2 (en) 2018-11-29 2018-11-29 Display device, imaging device, object moving method, and object moving program

Publications (2)

Publication Number Publication Date
JP2020087223A JP2020087223A (en) 2020-06-04
JP7215117B2 true JP7215117B2 (en) 2023-01-31

Family

ID=70909420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018224201A Active JP7215117B2 (en) 2018-11-29 2018-11-29 Display device, imaging device, object moving method, and object moving program

Country Status (1)

Country Link
JP (1) JP7215117B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009008954A (en) 2007-06-28 2009-01-15 Sony Corp Imaging apparatus, image display control method, and program
JP2010142563A (en) 2008-12-22 2010-07-01 Panasonic Corp Ultrasonograph
US20110075012A1 (en) 2008-07-03 2011-03-31 Benq Corporation Photographing apparatus and control method thereof
JP2016111569A (en) 2014-12-08 2016-06-20 キヤノン株式会社 Imaging device, control method thereof, and program
JP2018082747A (en) 2016-11-21 2018-05-31 株式会社コーエーテクモゲームス GAME PROGRAM, RECORDING MEDIUM, AND GAME PROCESSING METHOD
JP2018117186A (en) 2017-01-16 2018-07-26 キヤノン株式会社 IMAGING CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009008954A (en) 2007-06-28 2009-01-15 Sony Corp Imaging apparatus, image display control method, and program
US20110075012A1 (en) 2008-07-03 2011-03-31 Benq Corporation Photographing apparatus and control method thereof
JP2010142563A (en) 2008-12-22 2010-07-01 Panasonic Corp Ultrasonograph
JP2016111569A (en) 2014-12-08 2016-06-20 キヤノン株式会社 Imaging device, control method thereof, and program
JP2018082747A (en) 2016-11-21 2018-05-31 株式会社コーエーテクモゲームス GAME PROGRAM, RECORDING MEDIUM, AND GAME PROCESSING METHOD
JP2018117186A (en) 2017-01-16 2018-07-26 キヤノン株式会社 IMAGING CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Also Published As

Publication number Publication date
JP2020087223A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
US20250068301A1 (en) Information processing apparatus for responding to finger and hand operation inputs
JP5854848B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US10205869B2 (en) Video processing apparatus, control method, and recording medium
US20050248542A1 (en) Input device and method for controlling input device
JP2008268726A (en) Photographing device
US9544556B2 (en) Projection control apparatus and projection control method
US9195311B2 (en) Imaging device, imaging method, and program with flick gesture to acquire an image
US8220936B2 (en) Image projection apparatus with operation image generation based on distance to the projection surface, and method for controlling the same
CN110661946B (en) Electronic device, control method of electronic device, and computer-readable medium
KR20140080412A (en) TOUCH CONTROL METHOD and HANDHELD DEVICE UTILIZING THE SAME
JP7215117B2 (en) Display device, imaging device, object moving method, and object moving program
JP7172512B2 (en) Display device, imaging device, display method, and display program
US11523060B2 (en) Display device, imaging device, object moving method, and recording medium
JP6104338B2 (en) Electronic device, control method therefor, program, and storage medium
JP2014155219A (en) Electronic device adjustable in imaging setting
JP6239077B2 (en) Electronic device, control method therefor, program, and storage medium
JP6009056B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, STORAGE MEDIUM
JP2013156925A (en) Electronic apparatus, electronic apparatus control method, program, and storage medium
JP7091159B2 (en) Electronic devices and their control methods
KR101477541B1 (en) Digital image processing apparatus and control method thereof
CN121014210A (en) Imaging device, display control method and program
CN105892916B (en) Information processing method and electronic equipment
JP2012248913A (en) Imaging apparatus
JP2017152841A (en) Imaging apparatus, operation control method, and program
JP5840256B2 (en) Electronic device, control method therefor, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230102

R151 Written notification of patent or utility model registration

Ref document number: 7215117

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151