[go: up one dir, main page]

JP2016012872A - 撮影装置及び撮影方法 - Google Patents

撮影装置及び撮影方法 Download PDF

Info

Publication number
JP2016012872A
JP2016012872A JP2014134529A JP2014134529A JP2016012872A JP 2016012872 A JP2016012872 A JP 2016012872A JP 2014134529 A JP2014134529 A JP 2014134529A JP 2014134529 A JP2014134529 A JP 2014134529A JP 2016012872 A JP2016012872 A JP 2016012872A
Authority
JP
Japan
Prior art keywords
image data
image
guide information
live view
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014134529A
Other languages
English (en)
Other versions
JP6518409B2 (ja
Inventor
尚之 宮下
Naoyuki Miyashita
尚之 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014134529A priority Critical patent/JP6518409B2/ja
Priority to CN201580026203.0A priority patent/CN106464784A/zh
Priority to PCT/JP2015/063874 priority patent/WO2016002355A1/ja
Publication of JP2016012872A publication Critical patent/JP2016012872A/ja
Priority to US15/391,665 priority patent/US20170111574A1/en
Application granted granted Critical
Publication of JP6518409B2 publication Critical patent/JP6518409B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】使用者自身のスキルアップを期待できるように使用者の撮影行為を支援する撮影装置及びそれを用いた撮影方法を提供すること。
【解決手段】撮影装置100は、被写体像から画像データを取得する撮像部114と、画像データに基づいて画像を表示する表示素子118と、撮影装置に対して指示を与える操作部130と、撮像部114で取得された画像データに基づいてライブビュー画像を表示素子118に表示させるとともに、操作部130から第1指示が与えられたときに、撮像部114に第1撮影画像データを取得させ、第1撮影画像データに基づいて少なくとも1つの作例画像データを生成し、生成した作例画像データに基づいてガイド情報を生成し、生成したガイド情報をライブビュー画像とともに表示素子118に表示させる制御部128とを備える。
【選択図】図1

Description

本発明は、使用者に適切な内容を提示して使用者の撮影行為を支援する撮影装置及びそれを用いた撮影方法に関する。
近年、撮影時の構図の設定をアシストする機能を有する撮影装置に関する提案がなされている。例えば、特許文献1の表示制御装置は、撮像の結果としてフレームメモリに記憶された原画像データに基づいて、互いに構図の異なる複数の補助画像データを生成し、生成した補助画像データに基づく複数の補助画像を表示素子に表示させるようにしている。さらに、特許文献1の表示制御装置は、個々の補助画像を使用者が撮影するために必要な撮像部の移動方向を示す矢印を表示させるようにしている。また、特許文献2の撮影装置は、撮像の結果として得られたライブ画像における主要被写体と他の被写体とをそれぞれ認識し、認識した主要被写体と他の被写体との位置関係、それぞれの占有面積、占有面積比に基づいて所定の構図条件を満足するような構図となる構図枠の検知を行うようにしている。そして、特許文献2の撮影装置は、構図枠の検知を行うことができた場合に、所定の構図条件にするための撮影装置の移動方向を示す移動マークをライブ画像に重ねて表示させるようにしている。
特開2013−232861号公報 特開2013−183306号公報
特許文献1及び特許文献2は、何れも撮影装置で自動的に判断された正解の構図となるように使用者を導く技術である。この場合、使用者は、自分自身で構図を考える余地が少なく、使用者自身のスキルアップについて気付きを得ることができない可能性がある。
本発明は、前記の事情に鑑みてなされたもので、使用者自身のスキルアップを期待できるように使用者の撮影行為を支援する撮影装置及びそれを用いた撮影方法を提供することを目的とする。
前記の目的を達成するために、本発明の第1の態様の撮影装置は、被写体像から画像データを取得する撮像部と、前記画像データに基づいて画像を表示する表示素子と、撮影装置に対して指示を与える操作部と、前記撮像部でライブビュー画像データとして取得された画像データに基づいてライブビュー画像を前記表示素子に表示させるとともに、前記操作部から前記指示としての第1指示が与えられたときに、前記撮像部に第1撮影画像データとしての前記画像データを取得させ、前記第1撮影画像データに基づいて少なくとも1つの作例画像データを生成し、生成した前記作例画像データに基づいてガイド情報を生成し、生成した前記ガイド情報を前記ライブビュー画像とともに前記表示素子に表示させる制御部とを具備することを特徴とする。
前記の目的を達成するために、本発明の第2の態様の撮影方法は、撮像部により、被写体像から画像データを取得することと、前記撮像部でライブビュー画像データとして取得された画像データに基づいてライブビュー画像を表示素子に表示させることと、操作部からの第1指示が与えられたときに、前記撮像部に第1撮影画像データとしての前記画像データを取得させることと、前記第1撮影画像データに基づいて少なくとも1つの作例画像データを生成することと、前記作例画像データに基づいてガイド情報を生成することと、前記ガイド情報を前記ライブビュー画像とともに前記表示素子に表示させることとを具備することを特徴とする。
本発明によれば、使用者自身のスキルアップを期待できるように使用者の撮影行為を支援する撮影装置及びそれを用いた撮影方法を提供することができる。
本発明の各実施形態に係る撮影装置の一例としての構成を示す図である。 一例の撮影装置の外観図である。 第1の実施形態に係る撮影方法の処理を示すフローチャートである。 構図ガイドモード中の確認時の一例を示す図である。 所望の構図の例を示す図である。 構図の変更の概念を示す図である。 第1撮影画像の撮影に先立って使用者が決定した構図の例を示す図である。 作例画像データの生成の概念を示す図である。 作例画像データの例を示す図である。 第1撮影画像と作例画像の表示例を示す図である。 作例画像が選択されたときの表示例を示す図である。 第1の実施形態におけるガイド情報の表示例を示す図である。 第2撮影画像の撮影の例を示す図である。 第1の実施形態におけるガイド情報の別の表示例を示す図である。 アングルの変更について示した図である。 第2の実施形態におけるガイド情報の例を示す図である。 ガイド情報の変更を示す図である。 第2の実施形態におけるガイド情報の別の例を示す図である。
以下、図面を参照して本発明の実施形態を説明する。
[第1の実施形態]
まず、本発明の第1の実施形態について説明する。図1は、本発明の各実施形態に係る撮影装置の一例としての構成を示す図である。図2は、一例の撮影装置の外観図である。
図1に示す撮影装置100は、撮影レンズ102と、レンズ駆動部104と、絞り106と、絞り駆動部108と、シャッタ110と、シャッタ駆動部112と、撮像部114と、揮発性メモリ116と、表示素子118と、表示素子駆動回路120と、タッチパネル122と、タッチパネル検出回路124と、記録媒体126と、制御部128と、操作部材130と、不揮発性メモリ132と、動きセンサ134と、無線通信回路136とを有している。
撮影レンズ102は、図示しない被写体からの撮影光束を、撮像部114の受光面上に導くための光学系である。この撮影レンズ102は、フォーカスレンズ等の複数のレンズを有しており、またズームレンズとして構成されていても良い。レンズ駆動部104は、モータ及びその駆動回路等を有している。このレンズ駆動部104は、制御部128内のCPU1281の制御に従って、撮影レンズ102を構成している各種のレンズをその光軸方向(図示一点鎖線方向)に駆動させる。
絞り106は、開閉自在に構成され、撮影レンズ102を介して撮像部114に入射する撮影光束の量を調整する。絞り駆動部108は、絞り106を駆動するための駆動部を有している。この絞り駆動部108は、制御部128内のCPU1281の制御に従って絞り106を駆動させる。
シャッタ110は、撮像部114の受光面を遮光状態又は露光状態とするように構成されている。このシャッタ110により、撮像部114の露光時間が調整される。シャッタ駆動部112は、シャッタ110を駆動させるための駆動部を有し、制御部128内のCPU1281の制御に従ってシャッタ110を駆動させる。
撮像部114は、撮影レンズ102を介して集光された被写体からの撮影光束が結像される受光面を有している。撮像部114の受光面は、複数の画素が2次元状に配置されて構成されており、また、受光面の光入射側には、カラーフィルタが設けられている。このような撮像部114は、受光面に結像された撮影光束に対応した像(被写体像)を、その光量に応じた電気信号(以下、画像信号という)に変換する。また、撮像部114は、制御部128内のCPU1281の制御に従って、画像信号に対してCDS(相関二重サンプリング)処理やAGC(自動利得制御)処理等のアナログ処理を施す。さらに、撮像部114は、アナログ処理した画像信号をデジタル信号(以下、画像データという)に変換する。
揮発性メモリ116は、ワークエリアを記憶エリアとして有している。ワークエリアは、撮像部114で得られた画像データ等の、撮影装置100の各部で発生したデータを一時記憶しておくために揮発性メモリ116に設けられた記憶エリアである。
表示素子118は、例えば液晶ディプレイ(LCD)であり、ライブビュー用の画像(ライブビュー画像)及び記録媒体126に記録された画像等の各種の画像を表示する。表示素子駆動回路120は、制御部128のCPU1281から入力された画像データに基づいて表示素子118を駆動させ、表示素子118に画像を表示させる。
タッチパネル122は、表示素子118の表示画面上に一体的に形成されており、表示画面上への使用者の指等の接触位置等を検出する。タッチパネル検出回路124は、タッチパネル122を駆動するとともに、タッチパネル122からの接触検出信号を制御部128のCPU1281に出力する。CPU1281は、接触検出信号から、使用者の表示画面上への接触操作を検出し、その接触操作に応じた処理を実行する。
記録媒体126は、例えばメモリカードであり、撮影動作によって得られた画像ファイルが記録される。画像ファイルは、撮影動作によって得られた画像データに所定のヘッダを付与して構成されるファイルである。画像ファイルには、撮影動作によって得られた画像データの他に、作例画像データ、ガイド情報も記録され得る。作例画像データは、使用者の意図により撮影された画像データに基づいて生成される、他の撮影条件の画像データである。ここでの撮影条件とは、例えば構図の変更(フレーミング)の条件が挙げられる。また、ガイド情報は、ユーザが作例画像と同様の画像を撮影したいと希望した場合に、その撮影をガイドするための情報である。例えば、フレーミングの条件を変更することによって作例画像データが生成された場合、ガイド情報は、作例画像と同様の画像を撮影するために必要となる撮影装置100の移動方向をユーザに対して認識させるための情報である。
制御部128は、撮影装置100の動作を制御するための制御部であり、CPU1281と、AE部1282と、AF部1283と、画像処理部1284と、動き検出部1285とを有している。
CPU1281は、レンズ駆動部104、絞り駆動部108、シャッタ駆動部112、撮像部114、表示素子駆動回路120、タッチパネル検出回路124等の制御部128の外部の各ブロック、及び制御部128の内部の各制御回路の動作を制御する。また、CPU1281は、前述のガイド情報を生成する処理も行う。ガイド情報の生成処理の詳細は後で説明する。
AE部1282は、AE処理を制御する。より詳しくは、AE部1282は、撮像部114で得られた画像データを用いて被写体輝度を算出する。CPU1281は、この被写体輝度に従って、露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)、撮像素子感度等を算出する。
AF部1283は、撮像画面内の焦点状態を検出してAF処理を制御する。より詳しくは、AF部1283は、画像データから算出されるAF評価値に従って画像データのコントラストを評価しつつ、レンズ駆動部104を制御してフォーカスレンズを合焦状態とする。このようなAF処理は、コントラスト方式等と呼ばれる。AF処理として位相差方式が用いられても良い。
画像処理部1284は、画像データに対する各種の画像処理を行う。画像処理としては、ホワイトバランス補正処理、色補正処理、ガンマ(γ)補正処理、拡大・縮小処理、圧縮処理等が含まれる。また、画像処理部1284は、圧縮されている画像データに対する伸張処理も施す。さらに、画像処理部1284は、前述した作例画像データを生成する処理も行う。作例画像データの生成処理の詳細は後で説明する。
動き検出部1285は、撮影装置100の動きを検出する。撮影装置100の動きは、例えば複数フレームの画像データを用いた動きベクトル検出又は動きセンサ134の出力に基づいて検出される。
操作部材130は、使用者によって操作される各種の操作部材である。操作部材130としては、例えば、操作ボタン1301、レリーズボタン1302、モードダイヤル1303、ズームスイッチ1304等が含まれる。操作ボタン1301は、例えば図2に示すように撮影装置100の背面に設けられている。この操作ボタン1301は、例えばメニュー画面上での項目の選択や決定をするための操作部材として用いられる。レリーズボタン1302は、例えば図2に示すように撮影装置100の上面に設けられている。このレリーズボタン1302は、静止画撮影の指示をするための操作部材である。モードダイヤル1303は、例えば図2に示すように撮影装置100の上面に設けられている。このモードダイヤル1303は、撮影装置100の撮影設定を選択するための操作部材である。撮影設定は、例えば動作モードの設定である。動作モードは、通常撮影モードと構図ガイドモードとを含む。通常撮影モードは、ガイド情報の表示がない状態で撮影が行われるモードである。この通常撮影モードでは、絞り優先撮影、シャッタ優先撮影、プログラム撮影、マニュアル撮影といった従来知られた方法で撮影が行われる。一方、構図ガイドモードは、ガイド情報の表示がある状態で撮影が行われるモードである。ズームスイッチ1304は、使用者がズーミング操作をするためのスイッチである。
不揮発性メモリ132は、CPU1281が種々の処理を実行するためのプログラムコードを記憶している。また、不揮発性メモリ132は、撮影レンズ102、絞り106、及び撮像部114等の動作に必要な制御パラメータ、並びに画像処理部1284での画像処理に必要な制御パラメータ等の、各種の制御パラメータを記憶している。
動きセンサ134は、角速度センサ1341と姿勢センサ1342とを含む。角速度センサ1341は、例えばジャイロセンサであり、撮影装置100に発生した3軸周りの角速度を検出する。姿勢センサ1342は、例えば3軸加速度センサであり、撮影装置100に発生した加速度を検出する。
無線通信回路136は、例えば無線LAN通信回路であり、撮影装置100と外部機器200との通信の際の処理を行う。外部機器200は、例えばスマートフォンである。
以下、本実施形態に係る撮影装置100を用いた撮影方法について説明する。図3は、本実施形態に係る撮影方法の処理を示すフローチャートである。図3の処理は、制御部128のCPU1281によって制御される。ここで、図3の処理は、撮影装置100のモードが撮影モードに設定されていることを前提としている。撮影装置100は、画像データを再生するための再生モード等の撮影モード以外の他のモードを有していても良い。
図3の処理は、例えば撮影装置100の電源がオンされたときに開始される。図3の処理が開始されると、CPU1281は、ライブビュー動作を開始させる(ステップS100)。すなわち、CPU1281は、撮像部114を連続動作させ、撮像部114の連続動作によって得られるライブビュー画像データを画像処理部1284において処理し、その後に処理されたライブビュー画像データを表示素子駆動回路120に入力する。表示素子駆動回路120は、入力されたライブビュー画像データに基づいて、撮像部114の撮像結果を表示素子118にリアルタイム表示させる。ライブビュー動作によって表示されるライブビュー画像を見ることにより、使用者は、構図の確認等を行うことができる。
ライブビュー動作中に使用者は、撮影装置100の動作モードを選択する(ステップS102)。動作モードは、例えば操作ボタン1301の操作又はタッチパネル122の操作によって選択される。このような動作モードの選択の後、CPU1281は、動作モードとして構図ガイドモードが選択されているか否かを判定する(ステップS104)。
ステップS104において動作モードとして構図ガイドモードが選択されていると判定した場合に、CPU1281は、第1指示としての撮影開始指示が検知されたか否かを判定する(ステップS106)。撮影開始指示は、例えばレリーズボタン1302の押操作、タッチパネル122を用いたタッチレリーズ操作である。ステップS106において撮影開始の指示が検知されるまで、CPU1281は待機する。なお、撮影開始の指示が検知されずに所定時間が経過した場合に、処理がステップS100に戻るようにしても良い。
図4は、構図ガイドモード中の確認時の一例を示している。構図ガイドモードにおいて、撮影装置100を構えている使用者は、撮影装置100をx、y、z方向に動かしながら所望の構図を見つける。所望の構図とは、使用者が撮影しようとしている被写体(例えば被写体S1)が、図5に示すように、撮影装置100の画角F1内の使用者の所望の位置に配置された状態のことを言うものとする。また、z方向は、撮影装置100の光軸に沿った方向である。また、x方向は、光軸に対して垂直な面方向であって、地表に対して平行な方向である。y方向は、光軸に対して垂直な面方向であって、地表に対して垂直な方向である。
図6は、構図の変更、すなわちフレーミングの概念を示している。例えば図6(a)のように被写体S1が画角F1の中央付近に位置している状態に対し、使用者が撮影装置100を−x方向に動かした場合、図6(b)に示すように、被写体S1は画角F1内の+x方向に移動する。また、図6(a)の状態に対し、使用者が撮影装置100を+x方向に動かした場合、図6(c)に示すように、被写体S1は画角F1内の−x方向に移動する。さらに、図6(a)の状態に対し、使用者が撮影装置100を+z方向に動かした場合又は望遠側のズーミング操作をした場合、図6(d)に示すように、被写体S1は拡大される。このように、使用者が撮影装置100を動かすことにより、被写体S1を画角内の所定の位置に配置することが可能である。
以上のようなフレーミングとともに、使用者は、必要に応じて、絞りやシャッタ速といった撮影パラメータ、ホワイトバランス設定等の画像処理パラメータといった他の撮影条件を変更したりする。そして、所望の撮影条件となったときに第1指示としての撮影開始の指示を行う。例えば、使用者は、図7で示す構図(図6(a)に対応)のときに撮影開始の指示を行ったとする。
ステップS106において撮影開始の指示が検知されたと判定したときに、CPU1281は、ライブビュー動作を中断し、撮像部114による撮影動作を開始させる。撮影動作では、CPU1281は、使用者によって設定された撮影パラメータに従って撮像部114を動作させ、第1撮影画像としての画像データ(第1撮影画像データ)を得る。そして、CPU1281は、画像処理部1284において第1撮影画像データを処理し、処理された第1撮影画像データを記録媒体126に記録させる(ステップS108)。
撮影動作の後、CPU1281は、画像処理部1284によって第1撮影画像データから少なくとも1つの作例画像データを生成する。その後、CPU1281は、第1撮影画像データと作例画像データとを表示素子駆動回路120に入力し、第1撮影画像データに基づく第1撮影画像と作例画像データに基づく作例画像とを表示素子118に表示させる(ステップS110)。
ステップS110の処理についてさらに説明する。図8は、作例画像データの生成の概念を示している。ここで、図8は、フレーミングに対する作例画像データの生成の概念を示している。フレーミングに対する作例画像データとは、第1撮影画像データを取得したときのフレーミングとは異なるフレーミングで取得したことを想定した画像データのことをいう。このような作例画像データは、第1撮影画像データ内に設定される構図枠fの所定位置に被写体を配置した状態で構図枠f内の画像データを画像処理部1284によってトリミングすることによって得られる。ここで、被写体は、例えばフォーカス位置の被写体である。また、構図枠fは、例えば水平方向及び垂直方向の3等分割線によって構成されており、所定のアスペクト比を有している。
トリミングは、例えば3等分割線の交点P1、P2、P3、P4に被写体を配置した状態の画像データに対して行われる。被写体を点P1に配置した状態でトリミングが行われた場合、図9(a)に示す作例画像データi1が生成される。また、被写体を点P2に配置した状態でトリミングが行われた場合、図9(b)に示す作例画像データi2が生成される。また、被写体を点P3に配置した状態でトリミングが行われた場合、図9(c)に示す作例画像データi3が生成される。また、被写体を点P4に配置した状態でトリミングが行われた場合、図9(d)に示す作例画像データi4が生成される。このようにして生成された作例画像データに対しては、表示のための例えば縮小処理も行われる。また、第1撮影画像データに対しても、表示のための例えば縮小処理も行われる。
本実施形態では、作例画像データの生成に3等分割線を利用している。しかしながら、作例画像データの生成のための手法はこれに限定されるものではない。例えば、構図枠fとして、黄金分割線や三角構図線等の一般的に知られる構図線によって構成される枠が用いられても良い。また、トリミングする領域のアスペクト比も16:9、3:2、1:1等の一般的に写真に用いられるアスペクト比が利用され得る。
また、本実施形態では、被写体をフォーカス位置の被写体としている。被写体をフォーカス位置によって決定するのではなく、顔検出等の周知の特徴抽出技術を用いて決定しても良い。
図10は、第1撮影画像と作例画像の表示例を示す図である。一例では、図10に示すように、第1撮影画像の縮小画像I1を表示素子118(タッチパネル122)の画面左上端に表示させ、複数の作例画像の縮小画像i1〜i4を画面右下にタイル表示させている。このように、第1撮影画像と作例画像とを同時に表示させることで、使用者は、フレーミングに対するバリエーションの気付きを得る。
本実施形態では、作例画像の縮小画像をタイル状に表示させているが、作例画像の表示手法はこれに限定されるものではない。例えば、作例画像の枚数が多い場合には、その一部のみを表示させ、所定時間の経過時又は使用者の操作によって別の作例画像に切り替えるように表示をさせても良い。また、第1撮影画像と作例画像とで又は作例画像同士で、画像領域の一部を重ならせように表示させるようにしても良い。さらに、画像を縮小せずに、表示素子118の画面全体に1枚ずつ表示させるようにしても良い。この場合、所定時間の経過時又は使用者の操作によって順次に画像を表示させる。
また、本実施形態では、第1撮影画像データから複数の作例画像データを生成しているが、作例画像データを1つのみ生成するようにしても良い。この場合、次のステップS112の判定は不要である。
ここで、図3の説明に戻る。図10のような表示がされた後、使用者は、所望の作例画像を選択する。第2指示としてのこの選択は、例えば操作ボタン1301の操作又はタッチパネル122の操作によって行われる。使用者による作例画像の選択の間、CPU1281は、使用者によって、作例画像の何れかが選択されたか否かを判定する(ステップS112)。ステップS112において作例画像が選択されるまで、CPU1281は待機する。なお、作例画像が選択されていないと判定された場合に、処理がステップS118に移行するようにしても良い。
ステップS112において作例画像が選択されたと判定した場合に、CPU1281は、選択された作例画像を、例えば図11で示すように、太枠表示させるように表示素子駆動回路120を制御する。図11は、作例画像i1が選択されたときの表示例を示している。太枠表示の後、CPU1281は、選択された作例画像i1に対応したガイド情報を生成する。ガイド情報の生成後、CPU1281は、ライブビュー動作を再開する。その後、CPU1281は、ガイド情報を表示素子駆動回路120に入力し、ライブビュー画像と併せてガイド情報を表示素子118に表示させる(ステップS114)。
ステップS114の処理について説明する。ここでは、一例として、フレーミングに対するガイド情報を表示させる処理について説明する。まず、CPU1281は、ライブビュー動作を再開させてライブビュー画像データを取得する。続いて、CPU1281は、取得したライブビュー画像データと選択された作例画像データとの一致領域を算出する。画像データ間の一致領域を見つける手法としては、テンプレートマッチング等の周知の技術が利用され得る。一致領域の算出後、CPU1281は、一致領域に基づいてガイド情報を生成する。すなわち、CPU1281は、ガイド情報として、ライブビュー画像データ内の作例画像データと対応する一致領域の座標を求める。その後、CPU1281は、ガイド情報を表示素子駆動回路120に入力させてガイド情報を表示させる。図12(a)〜図12(d)は、ガイド情報の表示例を示している。図12(a)〜図12(d)に示すように、ガイド情報の表示は、ライブビュー画像内の作例画像の位置を使用者に認識させるための表示であって、例えば作例画像の領域を示す枠画像Gを表示することにより行われる。
ここで、図3の説明に戻る。ガイド情報Gが表示されている間、CPU1281は、動き検出部1285によって撮影装置100の動きを検出する。そして、CPU1281は、撮影装置100の動きに従って、ガイド情報Gの表示位置を変更する。また、CPU1281は、使用者によるズーミング操作を検出し、検出したズーミング操作に応じて撮影レンズ102の焦点距離を変化させるようにレンズ駆動部104に指示を送る。そして、CPU1281は、このような焦点距離の変更に伴うライブビュー画像の画角変更に応じて、ガイド情報Gの表示位置を変更する(ステップS116)。
ガイド情報Gが表示されている間に、使用者は、ガイド情報Gを参考にしつつ、撮影装置100をx、y、z方向に動かしながら所望の構図を見つける。例えば、図12(a)は、第1撮影画像が得られた直後に表示されるガイド情報Gを示している。この状態で使用者が撮影装置100を動かすとライブビュー画像データ内の作例画像データと対応する一致領域の座標が変化する。したがって、図12(b)〜図12(d)で示すように、ガイド情報Gの表示位置も変化する。なお、図12(b)は使用者が撮影装置100を−x方向に動かした場合のガイド情報の表示状態を示し、図12(c)は使用者が撮影装置100を+x方向に動かした場合のガイド情報の表示状態を示し、図12(d)は使用者が撮影装置100を+z方向に動かした場合又は望遠側のズーミング操作をした場合のガイド情報の表示状態を示している。図12(d)に示すように、ライブビュー画像データ内に作例画像データと対応する一致領域の座標が存在しなくなった場合には、ガイド情報Gは表示されない。このように、本実施形態におけるガイド情報はあくまでも作例画像のフレーミング状態を示している。したがって、フレーミングによってライブビュー画像が変化したときであっても、ガイド情報Gはあたかも被写体に貼り付いているかのように表示される。
なお、第1撮影画像の撮影時と同様、フレーミングの変更とともに、使用者は、必要に応じて、絞りやシャッタ速といった撮影パラメータ、ホワイトバランス設定等の画像処理パラメータといった他の撮影条件を変更したりしても良い。
ここで、図3の説明に戻る。ガイド情報Gの表示位置の変更後、CPU1281は、撮影開始指示が検知されたか否かを判定する(ステップS118)。撮影開始指示は、前述と同様、例えばレリーズボタン1302の押し操作、タッチパネル122を用いたタッチレリーズ操作である。第1撮影画像の撮影時と同様に、使用者は、撮影装置100を操作しながら所望の撮影条件となったときに撮影開始の指示を行う。例えば、使用者は、図12(c)のガイド情報Gから、「被写体に寄ることで邪魔な背景を無くす」というフレーミングに対する気付きを得たとする。この場合、使用者は自ら撮りたいと思った被写体の全体像が写るように図13(a)に示すようにしてフレーミングを設定し直して撮影開始の指示をする。
ステップS118において撮影開始の指示が検知されていないと判定した場合に、CPU1281は、処理をステップS116に戻す。ステップS118において撮影開始の指示が検知されたと判定した場合に、CPU1281は、撮像部114による撮影動作を開始させる。この撮影動作では、CPU1281は、使用者によって設定された撮影パラメータに従って撮像部114を動作させ、第2撮影画像としての画像データ(第2撮影画像データ)を得る。そして、CPU1281は、画像処理部1284において第2撮影画像データを処理し、処理された第2撮影画像データを第1撮影画像データと関連付けた画像ファイルとして記録媒体126に記録させる(ステップS120)。その後、CPU1281は、図3の処理を終了させる。このような撮影動作により、図13(b)に示すような第2撮影画像が記録媒体126に記録される。図13(b)に示す第2撮影画像は、使用者が作例画像を参考にしてフレーミングを行ったりして撮影した画像である。
ステップS104において動作モードとして構図ガイドモードが設定されていない、すなわち通常撮影モードが設定されていると判定した場合に、CPU1281は、通常撮影モードの処理を行う(ステップS122)。通常撮影モードの処理は、従来の撮影モードと同様である。したがって簡単に説明する。すなわち、使用者によって撮影開始の指示がなされたときに、CPU1281は、使用者によって設定された撮影パラメータに従って撮像部114を動作させて撮影画像データを得る。そして、CPU1281は、画像処理部1284において撮影画像データを処理し、処理された撮影画像データを画像ファイルとして記録媒体126に記録させる。通常撮影モードの処理の後、CPU1281は、図3の処理を終了させる。
以上説明したように第1の実施形態では、使用者が意思を持って撮影した第1撮影画像から生成された作例画像を使用者に提示している。これにより、使用者は第1撮影画像と作例画像とを見比べることで自身が望むタイミングにおいて例えばフレーミングに対する気付きを得ることができる。また、使用者によって選択された作例画像に応じたガイド情報をライブビュー画像と併せて表示素子118に表示させることで、使用者は、作例画像によって得た気付きをそのまま次の撮影に反映させることができる。これによって、使用者の撮影技術の向上を図ることができる。
ここで、前述の第1の実施形態では、画像データ間の一致領域に基づいてフレーミングに対するガイド情報を生成する例を示している。これに対し、第2撮影画像の撮影前のライブビュー画像を表示している間の撮影装置100の姿勢の変化量を動きセンサ134によって検出することによって、フレーミングに対するガイド情報を生成しても良い。このガイド情報は、動きセンサ134によって検出した姿勢の変化量を画像上の移動量に換算したものとして得られる。
また、前述の第1の実施形態では、フレーミングに対するガイド情報として作例画像の領域を示す枠画像を表示させている。これに対し、例えば枠画像の代わりに、図14(a)に示すように、作例画像の領域の頂点部にのみ枠画像Gを表示させるようにしても良い。また、図14(b)に示すように、枠画像Gを半透明表示にしても良い。このように、フレーミングに対するガイド情報の表示手法は、種々変形可能である。
また、ガイド情報は、第2撮影画像の撮影前のライブビュー画像が表示されてから所定の時間のみ表示させる等しても良い。
さらに、前述の第1の実施形態で作成される作例画像データは、第1撮影画像データに対して構図を異ならせた画像データである。しかしながら、作例画像データの生成手法はこれに限定されるものではない。例えば、構図変化だけでなく、ホワイトバランス等の絵作りに関わる変化も加えて作例画像データを生成しても良い。
また、前述した第1の実施形態では、作例画像は、撮影装置100の表示素子118に表示される。これに対し、図3のステップS110において、無線通信回路136を介して第1撮影画像データを外部機器200に送信することで、外部機器200において作例画像データを作成したり、外部機器200の表示素子に作例画像を表示させたりすることもできる。この場合、外部機器200の表示素子に表示された作例画像の中から選択された作例画像に従って前述した第1の実施形態と同様のガイド情報の表示がなされる。
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。ここで、第2の実施形態における第1の実施形態と同様の部分については説明を省略する。すなわち、撮影装置100の構成については第1の実施形態と同様であるので説明を省略する。また、本実施形態に係る撮影方法の処理も基本的には図3で示したフローチャートの処理が適用できるので説明を省略する。
第2の実施形態では、被写体に対するアングル変更(ピッチ方向の回転)についての作例画像データを生成する。図15は、アングルの変更について示した図である。本実施形態におけるアングルの変更は、例えば、図15(a)のようにして撮影装置100の光軸を地表に対して水平な方向に向けている状態から、図15(b)のようにして撮影装置100の光軸を地表に対して傾けた状態(ピッチ方向に撮影装置100を動かした状態)にすることを言う。
図15(b)のような作例画像データは、例えば第1撮影画像データの各領域を射影変換することで生成される。すなわち、第1撮影画像データを所定の回転角度だけピッチ方向に回転させたときに相当する画像データを射影変換によって生成する。この回転角度は、撮影装置100を水平に配置したときを基準にしたピッチ方向の回転角度である。このようにして生成された作例画像データに基づいて図3のステップS110で示したような作例画像の表示が行われる。
作例画像が選択された場合には、第2の実施形態においても第1の実施形態と同様に表示素子118にガイド情報が表示される。図16は、第2の実施形態におけるガイド情報の例である。第2の実施形態では、図16に示すように作例画像に対するアングル変化に応じた四角形画像G1をガイド情報として表示素子118に表示させる。図16に示す台形の短辺の長さは、選択された作例画像データの回転角度とライブビュー画像の表示時の撮影装置100の回転角度(ピッチ方向の姿勢変化)との差に応じて決定される。すなわち、短辺の長さは、回転角度の差が大きくなるほどに小さくなる。
図17は、ガイド情報の変更を示している。例えば、図17(a)は、撮影装置100が地表に対して水平に構えられているときに表示されるガイド情報を示している。このとき、使用者によって選択された作例画像が得られる回転角度とライブビュー画像の表示時の撮影装置100の回転角度との差が大きいのでガイド情報G1は台形状となる。これに対し、使用者が被写体を見上げる方向に向けて撮影装置100を動かすと、使用者によって選択された作例画像が得られる回転角度とライブビュー画像の表示時の撮影装置100の回転角度との差が小さくなって、図17(b)に示すように、ガイド情報G1は矩形に近づく。このときに撮影が行われることにより、図15(b)で示した画像と同等の画像が撮影される。
以上説明したように本実施形態によれば、使用者は第1撮影画像と作例画像とを見比べることでアングル変更に対する気付きを得ることができる。また、本実施形態のようにしてガイド情報を表示素子118に表示させることにより、使用者は、作例画像と同等の画像を撮影するためのアングルを、ライブビュー画像を見ながら体感的に把握することが可能である。
ここで、ガイド情報としては、四角形画像G1だけでなく、図17(b)で示したような作例画像が得られる回転の回転軸G2を合わせて表示させても良い。
また、前述した実施形態では、ピッチ方向のみのアングル変化に基づく作例画像データの生成を示している。これに対し、ピッチ方向以外、例えばヨー方向のアングル変化も考慮して良い。
さらに、アングル変化の程度を示す手法は、四角形画像の形状変更に限るものではない。例えば、ライブビュー画像に対する作例画像面の法線を表示させたり、アングルの変化量に応じた回転矢印等を表示させたりしても良い。また、図18(a)及び図18(b)に示すように、四角形画像G1の変化に合わせて作例画像面の法線を示す矢印画像G3を表示させるようにしても良い。この例では、使用者が水平に撮影装置100を構えている状態から被写体を見上げる方向に撮影装置100を動かすと、図18(a)の状態から図18(b)のように矢印画像G3が変化する。すなわち、矢印画像G3は、使用者から見て垂直となる方向に変化する。
以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。
100 撮影装置、102 撮影レンズ、104 レンズ駆動部、106 絞り、108 絞り駆動部、110 シャッタ、112 シャッタ駆動部、114 撮像部、116 揮発性メモリ、118 表示素子、120 表示素子駆動回路、122 タッチパネル、124 タッチパネル検出回路、126 記録媒体、128 制御部、130 操作部材、132 不揮発性メモリ、134 動きセンサ、136 無線通信回路、200 外部機器、1281 CPU、1282 AE部、1283 AF部、1284 画像処理部、1285 動き検出部、1301 操作ボタン、1302 レリーズボタン、1303 モードダイヤル、1304 ズームスイッチ、1341 角速度センサ、1342 姿勢センサ

Claims (8)

  1. 被写体像から画像データを取得する撮像部と、
    前記画像データに基づいて画像を表示する表示素子と、
    撮影装置に対して指示を与える操作部と、
    前記撮像部でライブビュー画像データとして取得された画像データに基づいてライブビュー画像を前記表示素子に表示させるとともに、前記操作部から前記指示としての第1指示が与えられたときに、前記撮像部に第1撮影画像データとしての前記画像データを取得させ、前記第1撮影画像データに基づいて少なくとも1つの作例画像データを生成し、生成した前記作例画像データに基づいてガイド情報を生成し、生成した前記ガイド情報を前記ライブビュー画像とともに前記表示素子に表示させる制御部と、
    を具備することを特徴とする撮影装置。
  2. 前記制御部は、さらに、前記作例画像データに基づく作例画像を前記表示素子に表示させるとともに、前記操作部からの前記指示としての第2指示に基づいて前記作例画像データの1つを選択し、前記選択された作例画像データに基づいて前記ガイド情報を生成し、生成した前記ガイド情報を前記ライブビュー画像とともに前記表示素子に表示させることを特徴とする請求項1に記載の撮影装置。
  3. 前記制御部は、前記作例画像を前記表示素子に表示させる際に、前記第1撮影画像データの縮小画像を併せて前記表示素子に表示させることを特徴とする請求項2に記載の撮影装置。
  4. 前記制御部は、前記第1撮影画像データを取得した際のフレーミングとは異なるフレーミングで取得したことを想定した画像データを前記作例画像データとして前記第1撮影画像データから生成することを特徴とする請求項2に記載の撮影装置。
  5. 前記撮影装置の動きを検出する動き検出部をさらに具備し、
    前記ガイド情報は、前記ライブビュー画像内に表示され、
    前記制御部は、前記動き検出部の検出結果に応じて前記ライブビュー画像内における前記ガイド情報の表示位置を変更することを特徴とする請求項1に記載の撮影装置。
  6. 前記撮影装置のアングル変更を検出する動き検出部をさらに具備し、
    前記ガイド情報は、前記ライブビュー画像内に表示され、
    前記制御部は、前記動き検出部の検出結果に応じて前記ライブビュー画像内における前記ガイド情報の形状を変更することを特徴とする請求項1に記載の撮影装置。
  7. 前記作例画像データは、前記第1撮影画像データをトリミングするか又は前記第1撮影画像データを射影変換することにより得られることを特徴とする請求項1乃至6の何れか1項に記載の撮影装置。
  8. 撮像部により、被写体像から画像データを取得することと、
    前記撮像部でライブビュー画像データとして取得された画像データに基づいてライブビュー画像を表示素子に表示させることと、
    操作部からの第1指示が与えられたときに、前記撮像部に第1撮影画像データとしての前記画像データを取得させることと、
    前記第1撮影画像データに基づいて少なくとも1つの作例画像データを生成することと、
    前記作例画像データに基づいてガイド情報を生成することと、
    前記ガイド情報を前記ライブビュー画像とともに前記表示素子に表示させることと、
    を具備することを特徴とする撮影方法。
JP2014134529A 2014-06-30 2014-06-30 撮影装置及び撮影方法 Expired - Fee Related JP6518409B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014134529A JP6518409B2 (ja) 2014-06-30 2014-06-30 撮影装置及び撮影方法
CN201580026203.0A CN106464784A (zh) 2014-06-30 2015-05-14 摄影装置和摄影方法
PCT/JP2015/063874 WO2016002355A1 (ja) 2014-06-30 2015-05-14 撮影装置及び撮影方法
US15/391,665 US20170111574A1 (en) 2014-06-30 2016-12-27 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014134529A JP6518409B2 (ja) 2014-06-30 2014-06-30 撮影装置及び撮影方法

Publications (2)

Publication Number Publication Date
JP2016012872A true JP2016012872A (ja) 2016-01-21
JP6518409B2 JP6518409B2 (ja) 2019-05-22

Family

ID=55018910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014134529A Expired - Fee Related JP6518409B2 (ja) 2014-06-30 2014-06-30 撮影装置及び撮影方法

Country Status (4)

Country Link
US (1) US20170111574A1 (ja)
JP (1) JP6518409B2 (ja)
CN (1) CN106464784A (ja)
WO (1) WO2016002355A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022177668A (ja) * 2021-05-18 2022-12-01 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI581631B (zh) * 2015-11-12 2017-05-01 群邁通訊股份有限公司 拍照輔助方法及電子裝置
US10270965B2 (en) 2015-12-04 2019-04-23 Ebay Inc. Automatic guided capturing and presentation of images
CN107483830B (zh) * 2017-09-13 2020-08-11 惠州Tcl移动通信有限公司 一种基于移动终端的照片拍摄控制方法、系统及存储介质
US10574881B2 (en) * 2018-02-15 2020-02-25 Adobe Inc. Smart guide to capture digital images that align with a target image model
US20190297265A1 (en) * 2018-03-21 2019-09-26 Sawah Innovations Inc. User-feedback video stabilization device and method
JP7524762B2 (ja) * 2018-08-31 2024-07-30 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
US11636391B2 (en) * 2020-03-26 2023-04-25 International Business Machines Corporation Automatic combinatoric feature generation for enhanced machine learning
JP2022061605A (ja) * 2020-10-07 2022-04-19 オリンパス株式会社 内視鏡システム、内視鏡用アダプタ、および内視鏡の作動方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001223935A (ja) * 2000-02-10 2001-08-17 Olympus Optical Co Ltd 電子カメラ
US20070146528A1 (en) * 2005-12-27 2007-06-28 Casio Computer Co., Ltd Image capturing apparatus with through image display function
JP2011211531A (ja) * 2010-03-30 2011-10-20 Fujifilm Corp 撮像装置
JP2014007516A (ja) * 2012-06-22 2014-01-16 Olympus Imaging Corp 撮影機器及び撮影方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6608650B1 (en) * 1998-12-01 2003-08-19 Flashpoint Technology, Inc. Interactive assistant process for aiding a user in camera setup and operation
JP3863327B2 (ja) * 1999-03-15 2006-12-27 富士フイルムホールディングス株式会社 構図アドバイス機能付きディジタル・スチル・カメラおよびその動作制御方法
JP2002281356A (ja) * 2001-03-21 2002-09-27 Minolta Co Ltd 撮影装置、情報提供装置及び情報提供システム
US20050007468A1 (en) * 2003-07-10 2005-01-13 Stavely Donald J. Templates for guiding user in use of digital camera
JP2006004158A (ja) * 2004-06-17 2006-01-05 Olympus Corp 画像処理プログラム、画像処理方法、画像処理装置及び記録媒体
JP4699040B2 (ja) * 2005-02-15 2011-06-08 パナソニック株式会社 自動追尾制御装置及び自動追尾制御方法、並びにプログラム、自動追尾システム
JP2007158680A (ja) * 2005-12-05 2007-06-21 Victor Co Of Japan Ltd 追尾撮像装置およびこれを利用した追尾撮像システム
JP4025362B2 (ja) * 2006-02-15 2007-12-19 松下電器産業株式会社 撮影装置および撮影方法
US8615112B2 (en) * 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
JP4772009B2 (ja) * 2007-08-07 2011-09-14 三洋電機株式会社 ディジタルカメラ
JP4869270B2 (ja) * 2008-03-10 2012-02-08 三洋電機株式会社 撮像装置及び画像再生装置
JP2010103972A (ja) * 2008-09-25 2010-05-06 Sanyo Electric Co Ltd 画像処理装置及び電子機器
US8237847B2 (en) * 2008-10-16 2012-08-07 Fujinon Corporation Auto focus system having AF frame auto-tracking function
JP6019567B2 (ja) * 2011-03-31 2016-11-02 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
US8659667B2 (en) * 2011-08-29 2014-02-25 Panasonic Corporation Recipe based real-time assistance for digital image capture and other consumer electronics devices
US9279983B1 (en) * 2012-10-30 2016-03-08 Google Inc. Image cropping
JP2014217032A (ja) * 2013-04-30 2014-11-17 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US9667860B2 (en) * 2014-02-13 2017-05-30 Google Inc. Photo composition and position guidance in a camera or augmented reality system
WO2016129049A1 (ja) * 2015-02-10 2016-08-18 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび記憶媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001223935A (ja) * 2000-02-10 2001-08-17 Olympus Optical Co Ltd 電子カメラ
US20070146528A1 (en) * 2005-12-27 2007-06-28 Casio Computer Co., Ltd Image capturing apparatus with through image display function
JP2007180664A (ja) * 2005-12-27 2007-07-12 Casio Comput Co Ltd 撮像装置、及びスルー画像表示方法
CN101026689A (zh) * 2005-12-27 2007-08-29 卡西欧计算机株式会社 摄像装置及直通图像显示方法
JP2011211531A (ja) * 2010-03-30 2011-10-20 Fujifilm Corp 撮像装置
JP2014007516A (ja) * 2012-06-22 2014-01-16 Olympus Imaging Corp 撮影機器及び撮影方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022177668A (ja) * 2021-05-18 2022-12-01 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
JP7755392B2 (ja) 2021-05-18 2025-10-16 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体

Also Published As

Publication number Publication date
US20170111574A1 (en) 2017-04-20
WO2016002355A1 (ja) 2016-01-07
JP6518409B2 (ja) 2019-05-22
CN106464784A (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
JP6518409B2 (ja) 撮影装置及び撮影方法
US9888182B2 (en) Display apparatus
CN106060377B (zh) 显示控制设备和显示控制设备的控制方法
EP2563009B1 (en) Method and electric device for taking panoramic photograph
CN101931752B (zh) 摄像装置、以及对焦方法
JP6512810B2 (ja) 撮像装置および制御方法とプログラム
JP5931619B2 (ja) 撮像装置
JP6659148B2 (ja) 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
US8593545B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium with switched image capturing mode
JP6752681B2 (ja) 表示制御装置、表示制御装置の制御方法及びプログラム並びに記憶媒体
WO2008010559A1 (en) Imaging apparatus
US9774782B2 (en) Image pickup apparatus and image pickup method
JP2012065173A5 (ja) 撮影機器、画像表示方法及びプログラム
KR20120002834A (ko) 참조 영상을 제공하는 촬상장치 및 그의 참조 영상 제공방법
CN103636187B (zh) 摄像装置
JP2009060435A (ja) カメラ
JP2013243552A (ja) 撮像装置およびその制御方法、プログラム、並びに記憶媒体
JP6506440B2 (ja) 撮像装置、撮像方法、およびプログラム
JP6320251B2 (ja) 撮像装置、撮像方法、およびプログラム
JP2016134686A (ja) 撮像装置及び撮像方法
JP5653509B2 (ja) 画像処理装置及び画像処理方法
JP2011164428A (ja) 撮像装置、撮像装置の制御方法
JP2017112442A (ja) 撮像装置、撮像方法及びプログラム
JP2018157263A (ja) 撮像制御装置およびその制御方法
JP5641884B2 (ja) 撮像装置およびその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190422

R151 Written notification of patent or utility model registration

Ref document number: 6518409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees