[go: up one dir, main page]

JP2018013745A - 電子機器およびその制御方法 - Google Patents

電子機器およびその制御方法 Download PDF

Info

Publication number
JP2018013745A
JP2018013745A JP2016144987A JP2016144987A JP2018013745A JP 2018013745 A JP2018013745 A JP 2018013745A JP 2016144987 A JP2016144987 A JP 2016144987A JP 2016144987 A JP2016144987 A JP 2016144987A JP 2018013745 A JP2018013745 A JP 2018013745A
Authority
JP
Japan
Prior art keywords
touch
operation surface
detected
movement
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016144987A
Other languages
English (en)
Other versions
JP2018013745A5 (ja
Inventor
健一郎 笹井
Kenichiro Sasai
健一郎 笹井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016144987A priority Critical patent/JP2018013745A/ja
Priority to CN201780045797.9A priority patent/CN109479096B/zh
Priority to PCT/JP2017/026387 priority patent/WO2018021165A1/ja
Publication of JP2018013745A publication Critical patent/JP2018013745A/ja
Priority to US16/254,411 priority patent/US11039073B2/en
Publication of JP2018013745A5 publication Critical patent/JP2018013745A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Viewfinders (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 本発明の目的は、タッチ操作により所定の処理を行う位置の設定をする際の操作性を向上させることである。
【解決手段】 操作面へのタッチ操作を検出可能なタッチ検出手段と、前記操作面においてタッチ位置の移動が検出された場合には、前記操作面とは異なる位置にある表示部に表示されるアイテムを、タッチが開始された位置に対応した位置に表示せず、前記タッチ位置の移動が検出される前に前記アイテムが表示されていた位置から、前記タッチ位置の移動した量に応じて移動した位置に表示し、前記操作面へのタッチ位置の移動を含まない所定のタッチ操作が検出された場合には、前記表示部に表示される前記アイテムを、前記所定のタッチ操作が検出される前に前記アイテムが表示されていた位置に基づかず、前記所定のタッチ操作がされた位置に基づく位置に表示するように制御する制御手段とを有することを特徴とする。
【選択図】 図3

Description

本発明は、電子機器およびその制御方法に関し、特にタッチパネルにおいて所定の処理を行う位置を設定する際の技術に関する。
近年、タッチパネルにおいてAF位置(自動合焦をする位置)の設定が可能なデジタルカメラが提案されている。特許文献1には、デジタルカメラのファインダーを覗きながら背面モニタを指でタッチした場合はタッチ位置の移動に応じてAFターゲット位置を移動し、ファインダーを覗かず背面モニタをタッチした場合はタッチ位置にカーソルを表示することが開示されている。
特開2012−203143号公報
しかし、特許文献1で提案されている構成の場合、ファインダーを覗いている時にはタッチ位置の移動に応じてAFターゲット位置を移動することしかできない。従って、現在の設定位置から大きく離れた位置にAFターゲット位置を移動したい時には、所望の位置に到達するまで長い距離タッチ位置の移動をしたり、タッチ位置の移動を何度か繰り返さなければならなくなる。長い距離のタッチ位置の移動や、タッチ位置の移動の繰り返しを行うのは、操作が煩わしく所望の設定をするのに時間もかかってしまう。
本発明は、上記の課題に鑑み、タッチ操作により所定の処理を行う位置の設定をする際の操作性を向上させることを目的とする。
上記目的を達成するために、本発明の電子機器は、操作面へのタッチ操作を検出可能なタッチ検出手段と、前記操作面においてタッチ位置の移動が検出された場合には、前記操作面とは異なる位置にある表示部に表示されるアイテムを、タッチが開始された位置に対応した位置に表示せず、前記タッチ位置の移動が検出される前に前記アイテムが表示されていた位置から、前記タッチ位置の移動した量に応じて移動した位置に表示し、前記操作面へのタッチ位置の移動を含まない所定のタッチ操作が検出された場合には、前記表示部に表示される前記アイテムを、前記所定のタッチ操作が検出される前に前記アイテムが表示されていた位置に基づかず、前記所定のタッチ操作がされた位置に基づく位置に表示するように制御する制御手段とを有することを特徴とする。
本発明によれば、タッチ操作により所定の処理を行う位置の設定をする際の操作性を向上させることができる。
本実施形態の構成を適用可能な装置の一例としてのデジタルカメラの外観図 本実施形態の構成を適用可能な装置の一例としてのデジタルカメラの構成例を示すブロック図 本実施形態におけるAF位置設定処理のフローチャート 本実施形態における非接眼時のAF位置設定処理のフローチャート 本実施形態におけるAF枠の移動の様子の一例を示す図
以下、図面を参照して本発明の好適な実施形態を説明する。
図1(a)、(b)に本発明を適用可能な電子機器の一実施形態としてのデジタルカメラの外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。表示部28は画像や各種情報を表示する表示部であり、タッチ操作を受付可能(タッチ検出可能)なタッチパネル70a(操作面)が重畳して設けられている。シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための(切替可能な)操作部である。端子カバー40は外部機器とデジタルカメラ100とを接続する接続ケーブル等のコネクタ(不図示)を保護するカバーである。メイン電子ダイヤル71は回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72はデジタルカメラ100の電源のON及びOFFを切り替える操作部材である。サブ電子ダイヤル73は、選択枠の移動や画像送りなどを行う回転操作部材である。十字キー74は、上、下、左、右部分をそれぞれ押し込み可能な4方向キーである。十字キー74の押された部分に応じた操作が可能である。SETボタン75は主に選択項目の決定などに用いられる押しボタンである。LVボタン(ライブビューボタン)78は、静止画撮影モードにおいては、表示部28におけるライブビュー(以下、LV)表示のONとOFFを切り替えるボタンである。動画撮影モードにおいては、動画撮影(記録)の開始、停止の指示に用いられる。再生ボタン79は、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。なお、シャッターボタン61、メイン電子ダイヤル71、電源スイッチ72、サブ電子ダイヤル73、十字キー74、SETボタン75、LVボタン78、再生ボタン79は操作部70に含まれる。
グリップ部90は、デジタルカメラ100を手で保持しながら操作を可能にするための保持部(把持部)であり、デジタルカメラ100のうちグリップ部90に近い位置には操作部70の部材がある。
ユーザは、ファインダ16(ファインダ部)を覗きこむと、光学ファインダ(OVF)を通して被写体像を見ることができる(視認可能)。接眼センサ77は、物体が1センチや2センチ等の所定距離より近い距離(所定距離未満)に接近していることを検知(接眼検知、接近検知)するための物体検知手段である。例えばユーザがファインダ内表示部76を見ようとファインダ16に目を近付け(接眼部16aを覗きこむようにする)、接眼センサ77が物体(目)の接近を検知すると、OVFを通して見える被写体に、ファインダ内表示部76の表示が重畳して見える。また、接眼センサ77は所定距離以上物体(目)が離れたことを検知すると、ファインダ内表示部76からアイテム等の表示を非表示にする。また、ユーザがファインダ16を覗きこむと、表示部28は非表示になるが、AF位置(焦点調節位置)の設定等のためのタッチパネル70aへのタッチ操作は受け付けることができる。グリップ部90を手で保持し、シャッターボタン61に人差し指をかけた状態で、タッチパネル70aへ親指等でタッチ操作をすると、ファインダ内表示部76の表示(とOVFを通して見える被写体)を見ながらAF位置の移動操作と撮影指示とを素早くできる。ただし、ファインダ16の表示は、OVFでなくても、EVF(電子ビューファインダ)でもよい。ファインダ内表示部76に表示される表示部がEVFの場合には、撮像部22により取得された撮像画像がファインダ内表示部76に表示され、ユーザはファインダ16を覗きこむと被写体を視認することができる。EVFは、後述する表示部28と同じように表示する撮像画像を取得し表示をする。また、EVFの場合、ファインダ内表示部76には撮像画像と共に、撮影に関する情報やAF処理を行う位置を示すAF枠等を表示することができる。
レンズユニット150は、デジタルカメラ100に取り外し可能なレンズ部である。
図2は、本実施形態におけるデジタルカメラ100の構成例を示すブロック図である。
図2において、レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がデジタルカメラ100側と通信を行う為の通信端子であり、通信端子10はデジタルカメラ100がレンズユニット150側と通信を行う為の通信端子である。
AEセンサー17は、レンズユニット150、クイックリターンミラー12を通し、フォーカシングスクリーン13上に結像した被写体(像)の輝度を測光する。
クイックリターンミラー12(以下、ミラー12)は、露光、ライブビュー撮影、動画撮影の際にシステム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。ミラー12は、レンズ103から入射した光束をファインダ16側と撮像部22側とに切替えるためのミラーである。ミラー12は通常時はファインダ16へと光束を導くよう反射させるように配されているが、撮影が行われる場合やライブビュー表示の場合には、撮像部22へと光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。またミラー12はその中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うための焦点検出部11に入射するように透過させる。
撮影者は、ペンタプリズム14とファインダ16を介して、フォーカシングスクリーン13上に結合された像を観察することで、レンズユニット150を通して得た被写体の光学像の焦点状態や構図の確認が可能となる。
ファインダ内表示部76は、レンズ103からファインダ16までの光路上に配置された表示部であり、システム制御部50を介して、現在AF位置を示す枠や、カメラの設定状態を表すアイテム等(マーク、記号等)が表示される。フォーカシングスクリーン13とファインダ内表示部76は近接した位置にあり、それぞれの表示を一度に確認できるように重ねて配置される。
焦点検出部11(AFセンサー)は、撮像画像よりシステム制御部50にデフォーカス量情報を出力する位相差検出方式のAFセンサーである。システム制御部50は通信端子6,10を介して、レンズユニット150を制御可能であり、AF駆動回路3を介して、デフォーカス量情報に基づいて位相差AFを行い、レンズ103の位置を変位させることで位相差AFを行う(AF実行可能)。AFの方法は、位相差AFでなくてもよく、コントラストAFでもよい。
撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
表示部28は画像を表示するための背面モニタ(ファインダ外表示部)であり、画像を表示するディスプレイであれば液晶方式に限らず、有機ELなど他の方式のディスプレイであってもよい。
A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28やファインダ内表示部76に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器19を介して表示部28やファインダ内表示部76により表示される。表示部28やファインダ内表示部76は、LCD等の表示器上に、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器19においてアナログ変換する。さらに、表示部28(ファインダ内の表示がEVFである場合にはEVF)に逐次転送して表示することで、電子ビューファインダとして機能し、スルー画像表示(ライブビュー表示)を行える。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部50は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開され、RAMが用いられる。また、システム制御部50はメモリ32、D/A変換器19、表示部28、ファインダ内表示部76等を制御することにより表示制御も行う。
システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
モード切替スイッチ60、シャッターボタン61、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。
モード切替スイッチ60は、システム制御部50の動作モードを撮影モード、再生モード等のいずれかに切り替える。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ60で、メニュー画面に含まれるこれらのモードのいずれかに直接切り替えられる。あるいは、メニュー画面に一旦切り換えた後に、メニュー画面に含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。
第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。
第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
操作部70の各操作部材は、表示部28に表示される種々の機能アイテムを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。操作部70には、少なくとも以下の操作部が含まれる。シャッターボタン61、メイン電子ダイヤル71、電源スイッチ72、サブ電子ダイヤル73、十字キー74、SETボタン75、LVボタン78、再生ボタン79。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源スイッチ72は、電源のONとOFFの切替操作を受け付ける。
電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
なお操作部70の一つとして、表示部28に対する接触を検知可能なタッチパネル70aを有する。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aを光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、恰もユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。このように、タッチ操作が行われた位置と表示部28の位置とを対応づけて指示を受け付ける設定を絶対座標設定という。
また、絶対座標設定とは異なり、表示部28の所定の位置から、タッチ位置座標ではなく、タッチ操作の移動量や移動方向等に応じて移動した位置(移動操作に応じた量移動した位置)への指示を受け付ける設定を相対座標設定という。
ファインダ内表示部76を見ながら操作をする場合には、絶対座標設定でタッチ操作をすると、タッチパネル70a(表示部28)を見ないでタッチすることになり、所望の位置からずれた位置に誤ってタッチ操作をしてしまう可能性が高い。一方で、相対座標設定でタッチ操作をすると、タッチ操作の位置ではなく移動量で移動指示をするので、ファインダ内表示部76に表示される操作対象の位置を見ながら所望の位置まで、移動する操作をすれば所望の位置への指示をすることができる。なお、表示部28に画像を表示しないが、タッチパネル70aがタッチ操作を受け付ける機能をタッチパッド機能と称する。
システム制御部50はタッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネルにタッチしていなかった指やペンが新たにタッチパネルにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパネルを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・タッチパネルを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネルへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネルに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。タッチムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。タッチオンが検出されてからタッチムーブせずに、素早くタッチアップする一連の操作をタップといい、タップ操作を連続して2回行う操作をダブルタップという。またタッチパネル上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。
次に図3を用いて本実施形態におけるAF位置設定処理について説明をする。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することで実現する。なお、この処理は、デジタルカメラ100に電源が入り、撮影モードになると開始する。
S301では、システム制御部50は、接眼センサ77が物体の接近を検知したか否かを判定する。ファインダ16をユーザが覗きこもうとして顔をファインダ16へ近付けると、接眼センサ77は物体の接近を検知する。接眼センサ77が物体の接近を検知したと判定した場合は、S303へ進み、そうでない場合は、S302の非接眼時のAF位置設定処理へ進む。なお、S301の処理を行わない場合にも、S302以降の処理を行ってもよい。
S302では、システム制御部50は、非接眼時のAF設定の処理を行う。非接眼時のAF設定の処理については図4を用いて後述する。
S303では、システム制御部50は、表示部28(ファインダ外表示部)の表示をOFFにする。ただし、表示部28がもともとOFF(非表示)であった場合にはS302の処理は行わない。
S304では、システム制御部50は、ファインダ内表示部76の表示をONにし、図5(a)、(b)のAF枠501に示すように、現在設定されているAF位置を示すAF枠をファインダ内表示部76に表示する。図5は、タッチパネル70aへのタッチとAF枠の表示位置について説明するための図である。図5(a)、(b)はユーザがファインダ16を覗きながらタッチパネル70aを操作している場合に、ファインダ内表示部76に表示されるAF枠の様子を示している。また、図5(c)、(d)はユーザが表示部28(タッチパネル70a)を見ながらタッチパネル70aを操作している場合に、表示部28に表示されるAF枠の様子を示している。電源のON後、初めてS304の処理を行う場合等、AF位置がユーザにより変更されていない初期位置の場合には、AF位置が撮像範囲の中央となるように設定してもよい。表示部28及びタッチパネル70aの座標も、ファインダ内表示部76の座標も原点を左端とし、右方向がX軸プラス方向、下方向がY軸プラス方向とする。なお、AF枠が表示されるタイミングは、S305においてタッチダウンが検出された後でもよい。
S305では、システム制御部50は、タッチパネル70aへのタッチダウンがされたか否かを判定する。タッチパネル70aへのタッチダウン、すなわち、タッチ操作の開始が検出されたと判定された場合は、S306へ進み、そうでない場合は、S324へ進む。
S306では、システム制御部50は、S305においてタッチダウンされた位置の座標(xt、yt)を取得し、システムメモリ52に記録し、タッチダウンが開始されたタイミングをt=0として時間tの計測を開始する。時間tは、タッチが離されるまでの時間が所定時間より短かったか長かったか、すなわちタップ操作であったか否かを判定するために計測する。時間tはシステムタイマー53により計測する。
S307では、システム制御部50は、タッチパネル70aからタッチが離されたか(タッチアップ)否かを判定する。タッチが離されたと判定した場合は、S312へ進み、そうでない場合は、S308へ進む。
S308では、システム制御部50は、現在のタッチ位置の座標を取得し、システムメモリ52に記録し、直前のタッチ位置の座標を(x(t−1)、y(t−1))とする。直前のタッチ位置の座標とは、S306のタッチダウンの座標、もしくは、前回のS308(前回のS308からタッチアップせずに再びS308に戻った場合)におけるタッチ位置の座標を指す。
S309では、システム制御部50は、S308において取得した現在のタッチ位置の座標と、S306において取得したタッチ位置の座標、または前回のS308におけるタッチ位置座標とを比較し、タッチ位置が移動したか否かを判定する。S306の処理後、初めてS309の処理に進んだ場合にはS306のタッチ位置座標と比較し、そうでない場合には前回のS308で取得したタッチ位置座標と比較をする。タッチ位置が移動したと判定した場合は、S310へ進み、そうでない場合は、S307に戻る。このようにタッチ位置が移動しない限りは、AF枠の位置を移動するS310以降の処理を行わず、S307に戻ってタッチアップがされるのを待つ。
S310では、システム制御部50は、前回のタッチ位置の座標(タッチダウンの座標)と、現在のタッチ位置の座標よりタッチ位置の移動ベクトルを算出する。タッチ位置の移動ベクトルは、タッチパネル70a上のタッチ位置の移動の量を示すものであり、(xt−(t−1)、yt−y(t−1))となる。
S311では、システム制御部50は、S310において算出したタッチ位置の移動ベクトルに基づき、AF枠を移動して表示する。図5(a)において、タッチ位置の移動量が(xA、yA)であった場合には、ファインダ内表示部76においてAF枠501から(xA、yA)に対応する(xa、ya)移動した位置にAF枠502を表示する。(xa、ya)はタッチパネル70aとファインダ内表示部76の大きさの比に基づいて、(xA、yA)より求められる。タッチパネル70aがファインダ内表示部76よりも2倍の大きさであった場合には、タッチパネル70a上でタッチ位置の移動した半分の距離ファインダ内表示部76においてAF枠が移動する。S307においてタッチアップせず、S309においてタッチ位置が移動した、すなわちタッチが継続されたままでタッチ位置が移動したと判定された場合は相対座標設定となり、タッチ位置の移動方向及び移動距離に応じて移動した位置にAF枠は表示される。
S312では、システム制御部50は、S305においてタッチダウンがされてからS307においてタッチが離されるまでの時間が所定時間α未満であったか否かを判定する。すなわち、S306において計測を開始した時間tがt<αを満たすか否かを判定する。t<αを満たすと判定した場合、すなわちタップ操作が行われたと判定した場合は、S313へ進み、そうでない場合は、S315へ進む。αは0.1秒や0.2秒といった時間であり、素早くタッチをしてからタッチを離すまでの時間である。S312においては、タッチダウンからタッチアップまでの時間が所定時間未満であるかを判定するので、タッチパネル70aにユーザの鼻が当たる鼻当たりとの違いが判別しやすくなる。つまり、接眼時にユーザがファインダ16を覗いた際に意図せず鼻が当たった場合、瞬間的にタッチするように、その後すぐにタッチパネル70aから鼻を離す可能性が低いため、タップ操作が検出された場合にはユーザの意図した操作である可能性が高い。よって、タッチダウンからタッチアップまでの時間に基づき、鼻当たり等の意図しないタッチか、ユーザの意図した操作かを区別できる可能性が高い。
S313では、システム制御部50は、S306において取得したタッチ位置の座標(xt、yt)=(x1、y1)とし、システムメモリ52に記録する。(x1、y1)は、S305〜S307において行われたタップ操作のタッチ位置の座標を示すものである。
S314では、システム制御部50は、1回目のタップが終了したタイミングをT=0として時間Tの計測を開始する。時間Tは、次のタップが開始されるまでの時間が所定時間より短かったか長かったかを判定するために計測する。すなわち、連続的にタップ操作が行われたかを判定するための時間である。時間Tはシステムタイマー53により計測する。
S315では、システム制御部50は、現在AF枠が表示されている位置にAF位置を決定し、システムメモリ52に記録する。つまり、S311においてAF枠が表示された位置か、S305からタッチ位置が移動していない場合にはS304においてAF枠が表示された位置にAF位置を決定する。S312でNO、すなわちタップ操作ではないが、タッチ位置を動かさずにタッチを離した場合には、後述するダブルタップのようにタッチ位置にAF枠が移動されないので、意図せずタッチした場合であってもAF位置が変更されない。また、AF位置は、S309においてタッチ位置の移動があった後にタッチが離されると変更されるが、タッチをした後タッチ位置の移動をせずにタッチが離された場合にはAF枠も移動しないので、タッチを離してもAF位置は変更されない。よって、接眼時に仮に鼻が当たってしまったとしても、鼻の位置は指の移動ほどは移動しにくいのでAF位置は変更されにくくなる。
S316では、システム制御部50は、S314において計測を開始した時間Tが所定時間β未満であるか否かを判定する。時間Tが所定時間β経過する前にS317においてタッチが開始されなければ、仮に次にタップが行われても、連続的にタップを行うダブルタップの操作ではなくなるので、S317〜S323のダブルタップが行われた際の処理は行わない。S314において計測を開始した時間TがT<βを満たすと判定した場合は、S317へ進み、そうでない場合は、S305へ進み、再びタッチムーブまたは最初のタップ操作を待つ。βは0.1秒や0.2秒といった時間である。S316〜S320の処理は1回目のタップ操作後、所定時間未満に連続的に2回目のタップ操作が行われたか否かを判定するための処理である。S313で前述したように、鼻当たりによるタップ操作は指によるタップ操作よりも行われる可能性が低いので、連続的にタップ操作を行うダブルタップ操作であれば、鼻当たりによりAF位置が変更される可能性をさらに低減することができる。
S317では、システム制御部50は、S305と同様にタッチパネル70aへのタッチダウンがされたか否かを判定する。タッチパネル70aへのタッチダウン、すなわち、タッチ操作の開始が検出されたと判定された場合は、S318へ進み、そうでない場合は、S316へ進み所定時間β内にタッチダウンがされるのを待つ。所定時間β内にタッチダウンがされなければ、タップ操作を行ったとしてもAF位置の変更は行わない。
S318では、システム制御部50は、S317においてタッチダウンされた位置の座標(x2、y2)を取得し、システムメモリ52に記録し、S306と同様にタッチダウンが開始されたタイミングをt=0として時間tの計測を開始する。
S319では、システム制御部50は、タッチパネル70aからタッチが離されたか(タッチアップ)否かを判定する。タッチが離されたと判定した場合は、S320へ進み、そうでない場合は、タッチアップがされるまで待つ。もしくは、S309へ進み、タッチ位置の移動がされるか否かを判定する。1回目のタップ操作後に行われたタッチがタッチムーブだった場合には、相対座標設定となる。
S320では、システム制御部50は、S317においてタッチダウンがされてからS319においてタッチが離されるまでの時間が所定時間α未満であったか否かを判定する。すなわち、S318において計測を開始した時間tがt<αを満たすか否かを判定する。t<αを満たすと判定した場合は、S321へ進み、そうでない場合は、S305へ進む。
S321では、システム制御部50は、S313において取得した最初のタップ操作の座標(x1、y1)と、S318において取得した2回目のタップ操作の座標(x2、y2)とが近接しているか否かを判定する。すなわち、連続的に行われたタップ操作の座標が近接しているか否かを判定する。最初のタップ操作の座標と2回目のタップ操作の座標が例えば、0.5センチや0.3センチ以内の距離であれば、近接していると判定するものとする。最初のタップ操作と2回目のタップ操作が近接していると判定した場合は、S322へ進み、そうでない場合は、S305へ進む。
S322では、システム制御部50は、図5(b)のAF枠503に示すように、最初のタップ操作の位置の座標(x1、y1)に基づき、ファインダ内表示部76にAF枠を表示する。タッチパネル70aのタッチ位置座標とファインダ内表示部76でAF枠を表示する座標との関係は、タッチパネル70aとファインダ内表示部76の関係に対応している。例えば、タッチパネル70aがファインダ内表示部76の2倍の大きさであり、最初のタップ操作のタッチ位置座標が(x1、y1)である場合には、ファインダ内表示部76において表示されるAF枠の座標は(x1/2、y1/2)となる。このように、ダブルタップがされた場合、すなわち、タッチ位置の移動を伴わない(含まない)所定のタッチ操作がなされた場合には、タッチ位置に基づいてAF枠が表示される絶対座標設定となる。図5(b)のようにもともと設定されていた位置がファインダ内表示部76の左端の方のAF枠501であり、ユーザが右端の方にAF枠を移動したい場合に、相対座標設定だと左端から右端にAF枠を移動する距離分何度もタッチ位置の移動をしなければならない。しかし、右端のあたりをダブルタップすれば、AF枠503の位置に移動することができるので、タッチ位置の移動をタッチパネル70aの端から端までの距離分行わなくても少ない操作でAF位置の移動ができる。
S323では、システム制御部50は、S315と同様に、現在AF枠が表示されている位置にAF位置を決定し、システムメモリ52に記録する。つまり、ダブルタップがされた位置に対応する位置であり、S322においてAF枠が表示された位置にAF位置が決定される。また、さらにAF位置の調整を行いたい場合にはダブルタップで大まかな位置を決めた後に、タッチ位置の移動で調整をすればよい。
S324では、システム制御部50は、撮影準備指示がされたか否かを判定する。撮影準備指示はシャッターボタン61の半押しにより行うことができる。撮影準備指示がされたと判定した場合は、S325へ進み、そうでない場合は、S328へ進む。
S325では、システム制御部50は、S315もしくはS323において設定したAF位置においてAF処理を行う。なお、AF処理を行うタイミングは、S315またはS323でAF位置を設定したタイミングでもよいし、AF位置が設定された後所定時間AF位置の変更操作がされなければAF処理を実行するようにしてもよい。
S326では、システム制御部50は、撮影指示がされたか否かを判定する。撮影指示は、シャッターボタン61の全押しにより行うことができる。撮影指示がされたと判定した場合は、S327へ進み、そうでない場合は、S328へ進む。
S327では、システム制御部50は、撮影処理を行う。S327においては、ユーザの設定したAF位置にAF処理をした撮像が記録媒体200に記録される。
S328では、システム制御部50は、AF位置設定処理を終了するか否かを判定する。AF位置設定処理は、電源のOFFまたはメニュー画面、再生画面への切り替えにより終了する。AF位置設定処理を終了すると判定した場合は、AF位置設定処理を終了し、そうでない場合は、S301へ進む。
次に、図4を用いて図3のS302における非接眼時のAF位置設定処理について説明する。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することで実現する。なお、この処理は、S302に進むと開始する。
S401では、システム制御部50は、ファインダ内表示部76の表示をOFFにする。ただし、ファインダ内表示部76がもともとOFF(非表示)であった場合にはS401の処理は行わない。
S402では、システム制御部50は、表示部28の表示をONにし、ライブビュー画像(LV画像、スルー画像)を表示し、図5(c)、(d)のAF枠504に示すように、現在設定されているAF位置を示すAF枠を表示する。
S403では、システム制御部50は、タッチパネル70aへのタッチダウンがされたか否かを判定する。タッチパネル70aへのタッチダウン、すなわち、タッチ操作の開始が検出されたと判定された場合は、S404へ進み、そうでない場合は、図3のS324へ進む。
S404では、システム制御部50は、S403においてタッチダウンされた位置、もしくは現在のタッチ位置の座標(xt、yt)を取得し、システムメモリ52に記録する。
S405では、システム制御部50は、現在ユーザにより設定されている、非接眼時のタッチ操作の入力方法が絶対座標設定か、相対座標設定か否かを判定する。非接眼時のタッチ操作の入力方法はメニュー画面において設定可能である。非接眼時のタッチ操作の入力方法が、絶対座標設定に設定されていると判定された場合は、S406へ進み、そうでない場合は、S409へ進む。
S406では、システム制御部50は、図5(d)のAF枠506のように、S404において取得したタッチ位置の座標(xt、yt)にAF枠を表示する。つまり、ユーザが表示部28を見ながらタッチパネル70aの操作をしており、絶対座標設定に設定されている場合にはユーザのタッチしている指のすぐ下の座標にAF枠が表示されるようにする。
S407では、システム制御部50は、タッチパネル70aからタッチが離されたか(タッチアップ)否かを判定する。タッチが離されたと判定した場合は、S408へ進み、そうでない場合は、S404へ進む。絶対座標設定の場合には、タッチをした位置にAF枠表示されるので、タッチアップがされるまでS404におけるタッチ位置の座標の取得と、S406におけるAF枠の表示を繰り返し行う。
S408においては、システム制御部50は、現在AF枠が表示されている位置にAF位置を決定し、システムメモリ52に記録する。このように、表示部28を見ながらタッチパネル70aを操作している場合には、タッチアップがされたらその場所にAF位置を決定する。接眼時にはタッチパネル70aへの鼻のタッチによる意図しないAF位置の設定がされる可能性があったが、非接眼時には鼻のタッチの可能性が低いので、タッチを離した位置にAF位置を設定した方が、少ない操作数でAF位置を設定でき、操作性が向上する。
S409では、システム制御部50は、現在のタッチ位置の座標を取得し、(xt、yt)としてシステムメモリ52に記録し、直前のタッチ位置の座標を(x(t−1)、y(t−1))とする。直前のタッチ位置の座標とは、S404のタッチダウンの座標、もしくは、前回のS409(前回のS409からタッチアップせずに再びS409にきた場合)のタッチ位置の座標である。
S410では、システム制御部50は、S409において取得したタッチ位置の座標と、S404において取得したタッチ位置の座標もしくは前回のタッチ位置座標とを比較し、タッチ位置が移動したか否かを判定する。タッチ位置が移動したと判定した場合は、S411へ進み、そうでない場合は、S413へ進む。
S411では、システム制御部50は、直前のタッチ位置の座標と、現在のタッチ位置の座標よりタッチ位置の移動量を算出する。タッチ位置の移動量とは、(xt−(t−1)、yt−y(t−1))である。
S412では、システム制御部50は、S411において算出したタッチ位置の移動ベクトルに基づき、AF枠を移動して表示する。図5(c)において、タッチ位置の移動ベクトルが(xt−(t−1)、yt−y(t−1))=(xB、yB)であった場合には、表示部28においてAF枠504から(xB、yB)移動した位置にAF枠505を表示する。
S413では、システム制御部50は、タッチパネル70aからタッチが離されたか(タッチアップ)否かを判定する。タッチが離されたと判定した場合は、S414へ進み、そうでない場合は、S409へ戻る。
S414では、システム制御部50は、現在AF枠が表示されている位置にAF位置を決定し、システムメモリ52に記録する。
以上、説明した実施形態によれば、絶対座標設定と相対座標設定とをユーザのタッチ操作の種類によって変更することができるので、位置の変更操作を操作性良く行うことができる。大きく位置を移動したい場合には絶対座標設定になるダブルタップで操作をすると、相対座標設定のようにタッチ位置を何度も移動する操作をしなくて済むので、素早く所望の位置へAF位置を近付けることができる。また、現在の位置からX軸方向に少し移動したい場合に、相対座標設定であれば、絶対座標設定のようにタッチ位置にすぐにAF位置が変更されないので、現在のAF位置のY座標からタッチ位置がずれてもX軸方向にタッチ位置を移動すれば所望の位置へ変更できる。つまり、ユーザがこの辺にAF位置を移動したいと思ってAF位置を変更する場合には、ダブルタップですぐに所望の位置付近へAF位置を移動でき、現在の位置からあとこのくらい移動したいという時には、タッチ位置の移動で所望の量移動することができる。また、絶対座標設定であってもダブルタップでAF位置の変更を受付けているので、細かなタッチ操作をしにくい鼻によるAF位置移動の可能性は低減する。さらに、相対座標設定の場合にもタッチ位置の移動がしなければAF位置は移動しないので、タッチ位置の移動しにくい鼻によるAF位置移動の可能性も低減するので、意図しない処理が行われる可能性も低減することができる。
なお、ダブルタップの判定方法は上述した方法以外でも、連続的に素早くタッチをしてタッチを離す操作が2回行われることを判定できればよく、設定するAFの位置は2回目のタップでの位置や2回のタップの中間点等でもよい。
図4のS405において絶対座標設定か、相対座標設定かを判定したが、非接眼時には絶対座標設定としてもよい。
また、本実施形態では図3においてダブルタップをした場合のタッチ位置は絶対座標設定として、ダブルタップがされた位置にAF位置を設定したが、ダブルタップ以外の操作でもよい。つまり、タップ操作や、所定時間以上同じ位置でタッチを継続するロングタッチ操作、押圧操作でもよい。1回のタップ操作であっても2回のタップ操作であっても、タップ操作であれば、絶対座標設定でAF位置を設定するものとすれば、ユーザの操作性は向上する。つまり、タッチが開始されてからタッチ位置を移動しないまま、所定時間が経過する前にタッチを離した場合には、絶対座標設定とする。タッチが開始されてからタッチ位置を移動しても、移動しなくても所定時間以上経過した後にタッチが離された場合には、相対座標設定とする。1回のタップ操作であっても、ユーザが意図せずタッチをしてしまっても、瞬時にタッチアップをしない、もしくはタッチ位置を移動しなければAF位置は変更されないので、意図しない処理が行われる可能性を低減することができる。また、押圧操作の場合には、押圧操作を検出可能なタッチパネルで検出を行い、所定圧力以上の押圧操作がされたら、タッチ操作がされたタッチパネル70aの座標に対応するファインダ内表示部76の座標にAF枠を表示する。押圧力で判定する場合には、タッチパネル70a(大小で押圧検出可能)への押圧力が所定量以上大きくなったことを判定する。なお、ロングタッチの場合には、ノートPCのタッチパッドで操作をする時など、鼻当たりを考慮しなくてもよい場合に有効であるが、上述したようにダブルタップの方がユーザにとしない操作により誤動作が起きにくくなる。
なお、鼻のタッチと指のタッチ位置の移動とを見分けるために、S309において例えば2センチや3センチといった所定距離以上タッチ位置が移動した場合にYesと判定し、所定距離移動した後の移動量に応じて移動した位置にAF枠を決定してもよい。つまり、タッチダウンから2センチ移動したあと、(xe、ye)とX軸方向、Y軸方向へと移動したらファインダ内表示部76において(xe、ye)に対応する距離AF枠を移動して表示し、タッチが離されたらAF位置を決定するようにする。
さらに、動画の記録中においては、ダブルタップではなく1回のタップ操作で絶対座標設定、動画の記録中でない時には、ダブルタップで絶対座標設定としてもよい。動画の記録中には、1回のタップ操作でAF位置の決定をした方がデジタルカメラ100に与える振動が少ないのでよい。
また、ユーザが現在相対座標設定によるAF位置の変更が行われているか、現在表示されているAF位置が絶対座標設定により変更されたものかを認識できるように、AF枠の表示形態を変えてもよい。つまり、ダブルタップがされた後は、AF枠を太枠で表示し、タッチ位置の移動によりAF枠が移動している場合には通常の太さでAF枠を表示するようにしてもよい。表示形態はAF枠の線の太さを変えるだけではなく、点線や意図を変えるようなものでもよい。さらに、AF位置が決定されたことに応じて、AF枠の表示形態を変えてもよい。
なお、上述した実施形態ではAF処理のような所定の処理を行う位置を変更する場合について説明をしたが、画像の再生において表示部28に表示する領域を選択する場合にも本実施形態は適用可能である。つまり、ダブルタップをしたらその領域が表示部28の中央に位置するように拡大をせずに画像を移動し、タッチ位置の移動をしたら現在の表示領域からタッチ位置の移動に応じて移動した領域を表示するようにする。
また、上述した実施形態ではファインダ16を覗いた時に絶対座標設定と相対座標設定とをタッチ操作の種類に応じて変えるものとして説明をしたが、ファインダ16を覗いていない時にも適用してもよい。例えば、タッチパッドで操作をしており、タッチパッドのある装置からHDMI(登録商標)や無線を用いて外部出力先に表示をしているような場合にも適用可能である。また、ノートPC等のタッチパッドを操作して画面上のカーソルや指標を操作する場合にも適用可能である。ノートPC等の大きな表示部に対して操作をする場合、タッチパッド上で何度もタッチムーブをしなくても、ダブルタップやタップですぐにカーソルを移動することができ、操作性が向上する。画像、アイテム、スクロールバーをカーソルで掴んで移動する際にも、長い距離をタッチムーブしなくてもダブルタップですぐに移動できるようにしもよい。この場合、移動する対象を選択した後に、ダブルタップを行うようにする。
上述した実施形態においては、本発明をデジタルカメラ100に適用した場合を例にして説明した。しかし、これはこの例に限定されず、AF処理、AE処理(自動露出処理)、AWB処理(自動ホワイトバランス処理)といった指定位置に基づいた処理(特定の処理)を行う位置を設定する制御を行うことができる電子機器であれば適用可能である。即ち、本発明はパーソナルコンピュータ(PC)や、携帯電話端末や携帯型の画像ビューワ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレットPC、スマートフォン、投影装置、表示部を有する家電装置等に適用可能である。また、デジタルカメラ等で撮影したライブビュー画像を有線または無線通信を介して受信して表示し、リモートでデジタルカメラ(ネットワークカメラを含む)を制御するスマートフォンやタブレットPC、デスクトップPCなどの装置にも適用可能である。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。

Claims (29)

  1. 操作面へのタッチ操作を検出可能なタッチ検出手段と、
    前記操作面においてタッチ位置の移動が検出された場合には、前記操作面とは異なる位置にある表示部に表示されるアイテムを、タッチが開始された位置に対応した位置に表示せず、前記タッチ位置の移動が検出される前に前記アイテムが表示されていた位置から、前記タッチ位置の移動した量に応じて移動した位置に表示し、
    前記操作面へのタッチ位置の移動を含まない所定のタッチ操作が検出された場合には、前記表示部に表示される前記アイテムを、前記所定のタッチ操作が検出される前に前記アイテムが表示されていた位置に基づかず、前記所定のタッチ操作がされた位置に基づく位置に表示するように制御する制御手段とを有することを特徴とする電子機器。
  2. 前記アイテムは、特定の処理を行う位置を示すことを特徴とする請求項1に記載の電子機器。
  3. 接眼部を通して前記表示部を視認可能なファインダ部へ物体が接近したことを検知する接近検知手段をさらに有し、
    前記制御手段は、前記接近検知手段が物体の接近を検知した場合には、前記操作面と一体となるファインダ外表示部に前記アイテムを表示せず、前記表示部に前記アイテムを表示し、前記接近検知手段が物体の接近を検知していない場合には、前記表示部に前記アイテムを表示せず、前記ファインダ外表示部に前記アイテムを表示するように制御することを特徴とする請求項1または2に記載の電子機器。
  4. 前記制御手段は、前記接近検知手段が物体の接近を検知し、前記表示部に前記アイテムを表示している場合に、前記制御を行うことを特徴とする請求項3に記載の電子機器。
  5. 前記制御手段は、前記接近検知手段が物体の接近を検知しておらず、前記ファインダ外表示部に前記アイテムが表示されている場合には、前記操作面においてタッチが開始された位置に前記アイテムを表示するように制御することを特徴とする請求項3または4に記載の電子機器。
  6. 前記制御手段は、前記操作面へのタッチ操作の開始が検出されてから所定時間が経過する前に、前記タッチ操作が開始された位置からタッチ位置の移動がされないまま前記操作面からタッチが離される操作がされた場合には、前記タッチ操作がされた位置に基づく位置に前記アイテムを表示するように制御することを特徴とする請求項1乃至5の何れか1項に記載の電子機器。
  7. 前記制御手段は、前記操作面へのタッチ操作の開始が検出されてから前記所定時間が経過した後に、前記タッチ操作が開始された位置からタッチ位置の移動がされないまま前記操作面からタッチが離された場合には、前記タッチ操作がされた位置に基づかない位置に前記アイテムを表示するように制御することを特徴とする請求項6に記載の電子機器。
  8. 前記操作面においてタッチ位置の移動が検出された後、前記操作面においてタッチが離されたことに応じて、前記アイテムの表示された位置に基づいて前記特定の処理を行い、前記所定のタッチ操作が検出されたことに応じて、前記所定のタッチ操作がされた位置に基づいて前記特定の処理を行う処理手段をさらに有することを特徴とする請求項2に記載の電子機器。
  9. ユーザからの前記特定の処理を行う指示を受付ける受付手段と、
    前記受付手段が前記指示を受付けたことに応じて、前記アイテムの表示された位置に基づいて前記特定の処理を行う処理手段とをさらに有することを特徴とする請求項2に記載の電子機器。
  10. 操作面へのタッチ操作を検出可能なタッチ検出手段と、
    前記操作面とは異なる位置にある表示部の位置を指示する指示手段と、
    前記操作面においてタッチ位置の移動が検出された場合には、タッチが開始された位置に対応した位置を指示せず、前記タッチ位置の移動が検出される前に指示されていた位置から、前記タッチ位置の移動した量に応じて移動した位置を指示し、
    前記操作面へのタッチ位置の移動を含まない所定のタッチ操作が検出された場合には、前記所定のタッチ操作が検出される前に指示されていた位置に基づかず、前記所定のタッチ操作がされた位置に基づいて位置を指示するように制御する制御手段とを有することを特徴とする電子機器。
  11. 接眼部を通して前記表示部を視認可能なファインダ部へ物体が接近したことを検知する接近検知手段をさらに有し、
    前記制御手段は、前記接近検知手段が物体の接近を検知している場合に、前記制御を行うことを特徴とする請求項10に記載の電子機器。
  12. 前記指示手段により指示された位置に基づいて特定の処理を行う処理手段をさらに有することを特徴とする請求項10または11に記載の電子機器。
  13. 前記指示手段により指示された位置を示すアイテムを前記表示部に表示する制御手段をさらに有することを特徴とする請求項10乃至12の何れか1項に記載の電子機器。
  14. 前記制御手段は、前記操作面へのタッチ操作の開始が検出されてから所定時間が経過する前に、前記タッチ操作が開始された位置からタッチ位置の移動がされないまま前記操作面からタッチが離される操作がされた場合には、前記タッチ操作がされた位置に基づく位置を指示するように制御することを特徴とする請求項10乃至13の何れか1項に記載の電子機器。
  15. 前記制御手段は、前記操作面へのタッチ操作の開始が検出されてから前記所定時間が経過した後に、前記タッチ操作が開始された位置からタッチ位置の移動がされないまま前記操作面からタッチが離される操作がされた場合には、前記タッチ操作がされた位置に基づかない位置を指示するように制御することを特徴とする請求項14に記載の電子機器。
  16. 前記表示部は接眼部を通して被写体を視認可能なファインダ部の中にあり、前記操作面は前記ファインダ部の外にあることを特徴とする請求項1乃至15の何れか1項に記載の電子機器。
  17. 前記特定の処理は、オートフォーカス、自動露出、オートホワイトバランスの少なくともいずれかの処理であることを特徴とする請求項2、8、9、12の何れか1項に記載の電子機器。
  18. 前記制御手段は、前記操作面におけるタッチ位置が所定量以上の変化をした場合に、前記操作面におけるタッチ位置の移動がされたと検出するように制御することを特徴とする請求項1乃至17の何れか1項に記載の電子機器。
  19. 操作面へのタッチ操作を検出可能なタッチ検出手段と、
    焦点調節位置を設定する設定手段と、
    前記操作面においてタッチ位置の移動が検出された場合には、前記タッチ位置の移動に応じて前記設定手段の選択する位置を移動し、
    前記操作面へのタッチ位置の移動を含まない所定のタッチ操作が検出された場合には、前記所定のタッチ操作がされた位置に基づいて前記設定手段が位置を選択するように制御する制御手段とを有することを特徴とする電子機器。
  20. 前記所定のタッチ操作は、前記操作面へのタッチを開始してからタッチ位置を移動せずにタッチを離すタップ操作であることを特徴とする請求項1乃至5、10乃至13、19の何れか1項に記載の電子機器。
  21. 前記所定のタッチ操作は、前記操作面へのタッチを開始してからタッチ位置を移動せずにタッチを離すタップ操作を2回行うダブルタップ操作であることを特徴とする請求項1乃至5、10乃至13、19の何れか1項に記載の電子機器。
  22. 前記操作面に対する押圧力の少なくとも大小を検出可能な押圧検出手段とをさらに有し、
    前記所定のタッチ操作は、前記操作面に対する押圧力を所定量以上大きくする操作であることを特徴とする請求項1乃至5、10乃至13、19の何れか1項に記載の電子機器。
  23. 前記所定のタッチ操作は、前記操作面へのタッチを開始してからタッチ位置を移動しないまま、所定時間以上のタッチを継続した後に、タッチを離すロングタッチ操作であることを特徴とする請求項1乃至5、10乃至13、19の何れか1項に記載の電子機器。
  24. 撮像手段をさらに有し、
    前記制御手段は、前記表示部に前記撮像手段により取得した画像と前記アイテムを重畳して表示するように制御することを特徴とする請求項1乃至23の何れか1項に記載の電子機器。
  25. 操作面へのタッチ操作を検出可能なタッチ検出ステップと、
    前記操作面においてタッチ位置の移動が検出された場合には、前記操作面とは異なる位置にある表示部に表示されるアイテムを、タッチが開始された位置に対応した位置に表示せず、前記タッチ位置の移動が検出される前に前記アイテムが表示されていた位置から、前記タッチ位置の移動した量に応じて移動した位置に表示し、
    前記操作面へのタッチ位置の移動を含まない所定のタッチ操作が検出された場合には、前記表示部に表示される前記アイテムを、前記所定のタッチ操作が検出される前に前記アイテムが表示されていた位置に基づかず、前記所定のタッチ操作がされた位置に基づく位置に表示するように制御する制御ステップとを有することを特徴とする電子機器の制御方法。
  26. 操作面へのタッチ操作を検出可能なタッチ検出ステップと、
    前記操作面とは異なる位置にある表示部の位置を指示する指示ステップと、
    前記操作面においてタッチ位置の移動が検出された場合には、タッチが開始された位置に対応した位置を指示せず、前記タッチ位置の移動が検出される前に指示されていた位置から、前記タッチ位置の移動した量に応じて移動した位置を指示し、
    前記操作面へのタッチ位置の移動を含まない所定のタッチ操作が検出された場合には、前記所定のタッチ操作が検出される前に指示されていた位置に基づかず、前記所定のタッチ操作がされた位置に基づいて位置を指示するように制御する制御ステップとを有することを特徴とする電子機器の制御方法。
  27. 操作面へのタッチ操作を検出可能なタッチ検出ステップと、
    焦点調節位置を設定する設定ステップと、
    前記操作面においてタッチ位置の移動が検出された場合には、前記タッチ位置の移動に応じて前記設定ステップにおいて選択する位置を移動し、
    前記操作面へのタッチ位置の移動を含まない所定のタッチ操作が検出された場合には、前記所定のタッチ操作がされた位置に基づいて前記設定ステップにおいて位置を選択するように制御する制御ステップとを有することを特徴とする電子機器の制御方法。
  28. コンピュータを、請求項1乃至24の何れか1項に記載された電子機器の各手段として機能させるためのプログラム。
  29. コンピュータを、請求項1乃至24の何れか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。
JP2016144987A 2016-07-23 2016-07-23 電子機器およびその制御方法 Pending JP2018013745A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016144987A JP2018013745A (ja) 2016-07-23 2016-07-23 電子機器およびその制御方法
CN201780045797.9A CN109479096B (zh) 2016-07-23 2017-07-21 电子设备及其控制方法和记录介质
PCT/JP2017/026387 WO2018021165A1 (ja) 2016-07-23 2017-07-21 電子機器およびその制御方法
US16/254,411 US11039073B2 (en) 2016-07-23 2019-01-22 Electronic apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016144987A JP2018013745A (ja) 2016-07-23 2016-07-23 電子機器およびその制御方法

Publications (2)

Publication Number Publication Date
JP2018013745A true JP2018013745A (ja) 2018-01-25
JP2018013745A5 JP2018013745A5 (ja) 2019-08-29

Family

ID=61016360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016144987A Pending JP2018013745A (ja) 2016-07-23 2016-07-23 電子機器およびその制御方法

Country Status (4)

Country Link
US (1) US11039073B2 (ja)
JP (1) JP2018013745A (ja)
CN (1) CN109479096B (ja)
WO (1) WO2018021165A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181513A (ja) * 2019-04-26 2020-11-05 キヤノン株式会社 電子機器及びその制御方法
CN112352418A (zh) * 2018-06-27 2021-02-09 富士胶片株式会社 摄像装置、摄像方法及程序
JP2021092958A (ja) * 2019-12-10 2021-06-17 キヤノン株式会社 電子機器およびその制御方法、プログラム、並びに記憶媒体

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017130698A1 (ja) * 2016-01-28 2017-08-03 日立マクセル株式会社 撮像装置
WO2019188035A1 (ja) * 2018-03-28 2019-10-03 ソニー株式会社 撮像装置及び撮像装置における通知制御方法、並びに情報処理装置
JP7309435B2 (ja) * 2019-04-26 2023-07-18 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記録媒体
US11252322B2 (en) * 2019-04-26 2022-02-15 Canon Kabushiki Kaisha Electronic device capable of performing control in accordance with a movement operation of an operating body and control method thereof
JP7309466B2 (ja) * 2019-06-11 2023-07-18 キヤノン株式会社 電子機器およびその制御方法
JP7492349B2 (ja) * 2020-03-10 2024-05-29 キヤノン株式会社 撮像装置およびその制御方法、プログラム、並びに記憶媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048666A (ja) * 2009-08-27 2011-03-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2012027721A (ja) * 2010-07-23 2012-02-09 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
JP2012089973A (ja) * 2010-10-18 2012-05-10 Olympus Imaging Corp カメラ
JP2014131312A (ja) * 2014-02-10 2014-07-10 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2015055953A (ja) * 2013-09-11 2015-03-23 コニカミノルタ株式会社 オブジェクト操作システム及び制御プログラム並びに制御方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4929630B2 (ja) * 2005-07-06 2012-05-09 ソニー株式会社 撮像装置、制御方法、およびプログラム
JP5127792B2 (ja) * 2009-08-18 2013-01-23 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記録媒体
JP5717510B2 (ja) * 2010-04-08 2015-05-13 キヤノン株式会社 撮像装置、その制御方法および記憶媒体
JP5872783B2 (ja) 2011-03-24 2016-03-01 オリンパス株式会社 表示装置、表示方法及び表示プログラム
JP5959215B2 (ja) * 2012-02-02 2016-08-02 オリンパス株式会社 撮像装置
JP5936183B2 (ja) * 2012-02-07 2016-06-15 オリンパス株式会社 撮影機器
JP5620947B2 (ja) * 2012-06-27 2014-11-05 キヤノン株式会社 電子機器およびその制御方法、プログラム並びに記憶媒体
JP5940394B2 (ja) * 2012-07-02 2016-06-29 オリンパス株式会社 撮像装置
JP5975794B2 (ja) * 2012-08-29 2016-08-23 キヤノン株式会社 表示制御装置、表示制御方法、プログラム及び記憶媒体
JP5921427B2 (ja) * 2012-12-27 2016-05-24 キヤノン株式会社 撮像制御装置及びその制御方法
CN103513918A (zh) * 2013-04-27 2014-01-15 展讯通信(上海)有限公司 一种在触控设备上控制播放进度的方法及装置、触控设备
KR102121528B1 (ko) * 2013-08-23 2020-06-10 삼성전자주식회사 촬영 장치 및 이의 제어 방법
JP6480703B2 (ja) * 2014-10-23 2019-03-13 オリンパス株式会社 撮影装置、撮影装置の制御方法、およびプログラム
WO2017085983A1 (ja) * 2015-11-17 2017-05-26 ソニー株式会社 制御装置、制御方法、およびプログラム
CN105306824B (zh) * 2015-11-17 2019-05-28 小米科技有限责任公司 拍摄参数调节方法及装置
WO2017130698A1 (ja) * 2016-01-28 2017-08-03 日立マクセル株式会社 撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048666A (ja) * 2009-08-27 2011-03-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2012027721A (ja) * 2010-07-23 2012-02-09 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
JP2012089973A (ja) * 2010-10-18 2012-05-10 Olympus Imaging Corp カメラ
JP2015055953A (ja) * 2013-09-11 2015-03-23 コニカミノルタ株式会社 オブジェクト操作システム及び制御プログラム並びに制御方法
JP2014131312A (ja) * 2014-02-10 2014-07-10 Sony Corp 画像処理装置、画像処理方法及びプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112352418A (zh) * 2018-06-27 2021-02-09 富士胶片株式会社 摄像装置、摄像方法及程序
JP2021132383A (ja) * 2018-06-27 2021-09-09 富士フイルム株式会社 撮像装置、撮像方法、プログラム、及び記録媒体
US11216118B2 (en) 2018-06-27 2022-01-04 Fujifilm Corporation Imaging apparatus, imaging method, and program
JP7152557B2 (ja) 2018-06-27 2022-10-12 富士フイルム株式会社 撮像装置、撮像方法、プログラム、及び記録媒体
US11635856B2 (en) 2018-06-27 2023-04-25 Fujifilm Corporation Imaging apparatus, imaging method, and program
CN112352418B (zh) * 2018-06-27 2023-11-21 富士胶片株式会社 摄像装置、摄像方法
US11954290B2 (en) 2018-06-27 2024-04-09 Fujifilm Corporation Imaging apparatus, imaging method, and program
JP2020181513A (ja) * 2019-04-26 2020-11-05 キヤノン株式会社 電子機器及びその制御方法
JP7327988B2 (ja) 2019-04-26 2023-08-16 キヤノン株式会社 電子機器及びその制御方法
JP2021092958A (ja) * 2019-12-10 2021-06-17 キヤノン株式会社 電子機器およびその制御方法、プログラム、並びに記憶媒体
US11269499B2 (en) 2019-12-10 2022-03-08 Canon Kabushiki Kaisha Electronic apparatus and control method for fine item movement adjustment
JP7377088B2 (ja) 2019-12-10 2023-11-09 キヤノン株式会社 電子機器およびその制御方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
US20190158761A1 (en) 2019-05-23
US11039073B2 (en) 2021-06-15
CN109479096A (zh) 2019-03-15
WO2018021165A1 (ja) 2018-02-01
WO2018021165A4 (ja) 2019-12-05
CN109479096B (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
JP7377088B2 (ja) 電子機器およびその制御方法、プログラム、並びに記憶媒体
CN109479096B (zh) 电子设备及其控制方法和记录介质
JP6667294B2 (ja) 電子機器およびその制御方法
US10447918B2 (en) Imaging control apparatus and method for controlling the same
JP6590666B2 (ja) 電子機器およびその制御方法
CN110661946B (zh) 电子设备、电子设备的控制方法和计算机可读介质
JP2017122984A (ja) 電子機器及びその制御方法
WO2020255675A1 (ja) 電子機器およびその制御方法
JP2018036802A (ja) 電子機器およびその制御方法
JP7383552B2 (ja) 電子機器およびその制御方法
JP6833535B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
CN112015266A (zh) 电子设备、电子设备的控制方法及计算机可读存储介质
CN112312008A (zh) 电子装置、电子装置的控制方法及存储介质
US10419678B2 (en) Imaging control apparatus and method for controlling the same
JP2021018634A (ja) 電子機器およびその制御方法
JP2020197976A (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP7596064B2 (ja) 電子機器
CN113364973A (zh) 电子设备、电子设备的控制方法和计算机可读介质
JP6779777B2 (ja) 撮像制御装置およびその制御方法
JP7714012B2 (ja) 撮像装置、制御方法およびプログラム
JP7451255B2 (ja) 電子機器及びその制御方法
JP6855317B2 (ja) 撮像装置、撮像装置の制御方法、プログラム、及び、記録媒体
WO2024257425A1 (ja) 撮像装置、撮像装置の制御方法、プログラム、および記憶媒体
JP2024136017A (ja) 電子機器

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190718

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200713

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201006