[go: up one dir, main page]

JP2009058834A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2009058834A
JP2009058834A JP2007227110A JP2007227110A JP2009058834A JP 2009058834 A JP2009058834 A JP 2009058834A JP 2007227110 A JP2007227110 A JP 2007227110A JP 2007227110 A JP2007227110 A JP 2007227110A JP 2009058834 A JP2009058834 A JP 2009058834A
Authority
JP
Japan
Prior art keywords
focus
display
information
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2007227110A
Other languages
Japanese (ja)
Other versions
JP2009058834A5 (en
Inventor
Takeo Okabe
雄生 岡部
Takashi Misawa
岳志 三沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007227110A priority Critical patent/JP2009058834A/en
Priority to US12/196,090 priority patent/US8106998B2/en
Priority to TW97132471A priority patent/TWI471005B/en
Priority to EP10004993A priority patent/EP2219368A1/en
Priority to EP08252846A priority patent/EP2031866A3/en
Priority to CN2008102149316A priority patent/CN101382721B/en
Priority to KR1020080085560A priority patent/KR20090023310A/en
Publication of JP2009058834A publication Critical patent/JP2009058834A/en
Publication of JP2009058834A5 publication Critical patent/JP2009058834A5/ja
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】撮影時に、焦点が合っているかどうか、又はどこに焦点があっているかを容易に判断することができる撮像装置及び合焦状況表示方法を提供する。
【解決手段】「?」、「!」などの文字情報が表示される吹き出しを、撮像手段により撮影された被写体像に重畳してモニタに表示する。それと共に、撮像手段を制御して被写体像の顔領域や中央付近の領域などの所定の領域に焦点を合わせる。被写体像の所定の領域に焦点があっているかどうかを判断し、合焦動作が終了していない場合には、吹き出しに「?」の文字を表示させ、合焦動作を行っている間は「?」の文字を90度回転させることにより「?」から「!」へ遷移させ、合焦動作の終了と同時に吹き出しの内部に焦点があっていることを示す「!」の文字を表示させる。
【選択図】 図4
An imaging apparatus and an in-focus status display method are provided that can easily determine whether or where the subject is in focus during photographing.
A balloon displaying character information such as “?” And “!” Is superimposed on a subject image photographed by an imaging unit and displayed on a monitor. At the same time, the imaging means is controlled to focus on a predetermined area such as a face area of the subject image or an area near the center. It is determined whether or not a predetermined area of the subject image is in focus, and when the focusing operation is not completed, the character “?” Is displayed in the balloon, and “ The character “?” Is changed from “?” To “!” By rotating by 90 degrees, and the character “!” Indicating that the inside of the balloon is in focus is displayed simultaneously with the end of the focusing operation.
[Selection] Figure 4

Description

本発明は撮像装置に係り、特にオートフォーカス動作時に合焦状態を表示する撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that displays a focused state during an autofocus operation.

被写体に焦点があっているかどうかを表示する方法として、以下のような方法が開示されている。   The following method is disclosed as a method for displaying whether or not the subject is in focus.

特許文献1には、電子ビューファインダーの下部に、合焦状態の遷移状態を示すバーグラフを表示することで、ピントの合い具合を確認できる撮像装置が提案されている。   Patent Document 1 proposes an imaging apparatus that can confirm the degree of focus by displaying a bar graph indicating a transition state of an in-focus state at the bottom of an electronic viewfinder.

特許文献2には、フォーカスエイド表示をすることにより、被写体が被写体深度内にあるかどうかを確認できる撮像装置が提案されている。   Patent Document 2 proposes an imaging apparatus that can confirm whether or not a subject is within the subject depth by performing a focus aid display.

特許文献3には、十字型のターゲットマークの表示色や表示形態を変えることにより、合焦、非合焦が判断できる撮像装置が提案されている。
特開平6―113184号公報 特開平6―301098号公報 特開2002―311489号公報
Patent Document 3 proposes an imaging apparatus that can determine in-focus or out-of-focus by changing the display color or display form of a cross-shaped target mark.
JP-A-6-113184 JP-A-6-301098 JP 2002-311489 A

しかしながら、上記特許文献1〜3に記載された撮像装置では、被写体に焦点が合っているということが、必ずしも全てのユーザーに対して分かりやすく表示されているとはいえないという欠点がある。   However, the imaging devices described in Patent Documents 1 to 3 have a drawback in that the fact that the subject is in focus is not necessarily displayed in an easy-to-understand manner for all users.

特に、子供など撮像装置の操作になれていないユーザーが撮影を行う場合を考慮すると、ユーザーの興味を引き、かつユーザーが一目で分かりやすい表示をする必要がある。   In particular, considering the case where a user who is not familiar with the imaging apparatus, such as a child, takes a picture, it is necessary to display the user's interest and display that is easy to understand at a glance.

本発明はこのような事情に鑑みてなされたもので、撮影時に、焦点が合っているかどうか、又はどこに焦点があっているかを容易に判断するための表示が可能な撮像装置及び合焦状態表示方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and an imaging apparatus and an in-focus state display capable of easily determining whether or not the subject is in focus at the time of shooting. It aims to provide a method.

前記目的を達成するために、請求項1に記載の撮像装置は、被写体を撮像する撮像手段と、前記撮像手段を介して被写体を示す画像信号を連続的に取得する画像取得手段と、前記取得した画像信号に基づいてスルー画像を表示する表示手段と、前記取得した画像信号に基づいて被写体のコントラストが最大になるように自動的に焦点調節を行う自動焦点調節手段と、前記自動焦点調節手段による被写体の合焦状態を検出する合焦状態検出手段と、前記表示手段のスルー画像上に合焦情報を表示するための表示領域を合成するとともに、前記合成状態検出手段によって検出された合焦状態に応じて、少なくとも非合焦時と合焦時とで変化する合焦情報を前記表示領域に合成する表示制御手段と、を備えたことを特徴とする。   In order to achieve the object, the imaging apparatus according to claim 1, an imaging unit that images a subject, an image acquisition unit that continuously acquires an image signal indicating the subject via the imaging unit, and the acquisition Display means for displaying a through image based on the obtained image signal, automatic focus adjustment means for automatically performing focus adjustment so as to maximize the contrast of the subject based on the acquired image signal, and the automatic focus adjustment means The focus state detection means for detecting the focus state of the subject by the synthesizer and the display area for displaying the focus information on the through image of the display means are synthesized, and the focus detected by the synthesis state detection means And display control means for synthesizing, in the display area, focusing information that changes at least between out-of-focus and in-focus according to the state.

請求項1に記載の撮像装置によれば、被写体を撮像し、被写体を示す画像信号を連続的に取得し、取得した画像信号に基づいてスルー画像を表示し、表示手段のスルー画像上に合焦情報を表示するための表示領域を合成する。また、取得した画像信号に基づいて被写体のコントラストが最大になるように自動的に焦点調節を行い、焦点調整の結果を検出する。検出された合焦状態に基づいて、表示領域に合成する合焦情報を変化させる。合焦情報には、少なくとも、非合焦時の合焦情報と、合焦時の合焦情報とが含まれる。これにより、被写体の所望の領域に合焦したという情報を、ユーザーにわかり易く示すことができる。   According to the imaging device of the first aspect, the subject is imaged, the image signal indicating the subject is continuously acquired, the through image is displayed based on the acquired image signal, and the image is displayed on the through image of the display unit. A display area for displaying the focus information is synthesized. Further, the focus adjustment is automatically performed based on the acquired image signal so that the contrast of the subject is maximized, and the result of the focus adjustment is detected. Based on the detected focus state, the focus information to be combined with the display area is changed. The focus information includes at least the focus information at the time of out-of-focus and the focus information at the time of focus. Thereby, the information that the subject is focused on the desired area can be easily shown to the user.

請求項2に記載の撮像装置は、請求項1に記載の撮像装置において、前記取得した画像信号から被写体の顔を検出する顔検出手段を備え、前記自動焦点調節手段は、前記顔検出手段によって顔が検出されると、その検出された顔にピントを合わせるように自動焦点調節を行うことを特徴とする。   An imaging apparatus according to a second aspect is the imaging apparatus according to the first aspect, further comprising face detection means for detecting a face of a subject from the acquired image signal, wherein the automatic focus adjustment means is detected by the face detection means. When a face is detected, automatic focus adjustment is performed so as to focus on the detected face.

請求項2に記載の撮像装置によれば、取得した画像信号から被写体の顔を検出し、顔が検出された場合には、検出された顔にピントを合わせるように自動焦点調節を行う。これにより、主要被写体にピントが合っていないという不具合を防止することができる。   According to the imaging apparatus of the second aspect, the face of the subject is detected from the acquired image signal, and when the face is detected, the automatic focus adjustment is performed so that the detected face is focused. As a result, it is possible to prevent a problem that the main subject is not in focus.

請求項3に記載の撮像装置は、請求項2に記載の撮像装置において、前記表示制御手段は、前記表示手段のスルー画像上に表示される表示領域を、前記顔検出手段によって検出された顔の近傍に合成することを特徴とする。   The imaging apparatus according to claim 3 is the imaging apparatus according to claim 2, wherein the display control unit detects a display area displayed on the through image of the display unit by the face detection unit. Is synthesized in the vicinity of.

請求項3に記載の撮像装置によれば、顔が検出された場合には、スルー画像上に表示される表示領域を検出された顔の近傍に合成する。これにより、焦点があっている領域がどこであるかをユーザーに分かりやすく示すことができる。   According to the imaging apparatus of the third aspect, when a face is detected, the display area displayed on the through image is synthesized in the vicinity of the detected face. Thereby, it is possible to easily show the user where the focused area is.

請求項4に記載の撮像装置は、請求項3に記載の撮像装置において、前記表示制御手段によって前記表示手段のスルー画像上に表示される表示領域は、吹き出し形状を有することを特徴とする。   According to a fourth aspect of the present invention, in the imaging device according to the third aspect, the display area displayed on the through image of the display unit by the display control unit has a balloon shape.

請求項4に記載の撮像装置によれば、吹き出し形状の表示領域がスルー画像上に合成される。これにより、ユーザーの興味を引く表示により、合焦状態を明確にユーザーに知らせることができる。   According to the imaging apparatus of the fourth aspect, the balloon-shaped display area is synthesized on the through image. Thereby, it is possible to clearly notify the user of the focused state by a display that attracts the user's interest.

請求項5に記載の撮像装置は、請求項1から4のいずれかに記載の撮像装置において、合焦状態に応じた合焦情報であって、少なくとも非合焦時の合焦情報及び合焦時の合焦情報を記憶する記憶手段を備え、前記表示制御手段は、前記記憶手段に記憶された合焦情報を前記表示領域に合成することを特徴とする。   An imaging apparatus according to a fifth aspect is the imaging apparatus according to any one of the first to fourth aspects, wherein the information is in-focus information corresponding to the in-focus state, and is at least in-focus information and in-focus. Storage means for storing the focus information at the time is provided, and the display control means combines the focus information stored in the storage means with the display area.

請求項5に記載の撮像装置によれば、非合焦時の合焦情報及び合焦時の合焦情報を含む合焦情報が記憶されており、記憶された合焦情報のなかから合焦状態に応じた合焦情報が表示される。これにより、合焦状態をより分かりやすくユーザーに伝えることができ、このような表示によりユーザーは、容易に合焦状態を判断することができる。   According to the imaging device of the fifth aspect, the focusing information including the focusing information at the time of non-focusing and the focusing information at the time of focusing is stored, and focusing is performed from the stored focusing information. Focus information corresponding to the state is displayed. Thus, the in-focus state can be transmitted to the user in an easy-to-understand manner, and such a display allows the user to easily determine the in-focus state.

請求項6に記載の撮像装置は、請求項5に記載の撮像装置において、合焦状態に応じた合焦情報を入力する入力手段を備え、前記記憶手段は、前記入力手段により入力された合焦情報を記憶し、前記表示制御手段は、前記記憶手段に同一の合焦状態に応じた合焦情報が複数記憶されている場合には、複数の合焦情報のうちの所望の合焦情報を選択して前記表示領域に合成することを特徴とする。   An imaging apparatus according to a sixth aspect of the present invention is the imaging apparatus according to the fifth aspect, further comprising an input unit that inputs focusing information corresponding to a focused state, and the storage unit receives the focusing information input by the input unit. Focus information is stored, and the display control means, when a plurality of pieces of focus information corresponding to the same focus state are stored in the storage means, desired focus information among the plurality of focus information Is selected and combined with the display area.

請求項6に記載の撮像装置によれば、入力手段を介して入力された合焦情報が更に記憶されることにより、同一の合焦状態に応じた合焦情報が複数記憶される。同一の合焦状態に応じた合焦情報が複数記憶されている場合には、複数の合焦情報のうちの所望の合焦情報を選択して表示させる。これにより、ユーザーの好みに合わせてカスタマイズすることができる。   According to the imaging apparatus of the sixth aspect, the focus information input via the input unit is further stored, so that a plurality of focus information corresponding to the same focus state is stored. When a plurality of pieces of focusing information corresponding to the same focusing state are stored, desired focusing information among the plurality of focusing information is selected and displayed. Thereby, it can customize according to a user's liking.

請求項7に記載の撮像装置は、請求項5又は6に記載の撮像装置において、前記表示制御手段は、前記合焦状態検出手段により焦点調整中であることが検出された場合には、前記合焦情報を、前記非合焦時の合焦情報から前記合焦時の合焦情報へと遷移させることを特徴とする。   In the imaging device according to claim 7, in the imaging device according to claim 5 or 6, when the display control unit detects that focus adjustment is being performed by the in-focus state detection unit, The focus information is shifted from the focus information at the time of non-focus to the focus information at the time of focus.

請求項7に記載の撮像装置によれば、合焦動作前には非合焦時の合焦情報が表示され、焦点調整中には、非合焦時の合焦情報から合焦時の合焦時の合焦情報へと遷移され、合焦時には合焦時の合焦情報が表示される。これにより、ユーザーの興味を引く表示により、合焦状態を明確にユーザーに知らせることができる。   According to the imaging device of the seventh aspect, the focus information at the time of out-of-focus is displayed before the focus operation, and the focus information at the time of focus is adjusted from the focus information at the time of out-of-focus during focus adjustment. Transition is made to in-focus information, and in-focus information is displayed during in-focus. Thereby, it is possible to clearly notify the user of the focused state by a display that attracts the user's interest.

請求項8に記載の撮像装置は、請求項2から6のいずれかに記載の撮像装置において、前記顔検出手段は、被写体の顔及び表情を検出し、前記表示制御手段は、前記顔検出手段により検出された表情に応じた合焦情報を前記表示領域に合成することを特徴とする。   An imaging apparatus according to an eighth aspect is the imaging apparatus according to any one of the second to sixth aspects, wherein the face detecting unit detects a face and an expression of a subject, and the display control unit is the face detecting unit. The focus information corresponding to the facial expression detected by the above is synthesized in the display area.

請求項8に記載の撮像装置によれば、被写体の顔及び表情を検出し、検出された表情に応じた合焦情報が表示される。これにより、ユーザーの興味を引く表示により、合焦状態をよりわかり易くユーザーに知らせることができる。   According to the imaging apparatus of the eighth aspect, the face and expression of the subject are detected, and the focusing information corresponding to the detected expression is displayed. Thereby, the user can be informed of the in-focus state more easily by a display that attracts the user's interest.

請求項9に記載の撮像装置は、請求項1から8のいずれかに記載の撮像装置において、前記表示制御手段は、前記合焦状態検出手段の検出結果に応じて前記表示領域の大きさを変更することを特徴とする。   An imaging apparatus according to a ninth aspect is the imaging apparatus according to any one of the first to eighth aspects, wherein the display control means adjusts the size of the display area according to a detection result of the in-focus state detection means. It is characterized by changing.

請求項9に記載の撮像装置によれば、合焦状態に応じて表示領域の大きさが変更される。これにより、合焦状態をよりわかり易くユーザーに知らせることができる。   According to the imaging device of the ninth aspect, the size of the display area is changed according to the in-focus state. Thereby, it is possible to inform the user of the in-focus state more easily.

本発明によれば、撮影時に、焦点が合っているかどうか、又はどこに焦点があっているかを容易に判断するための表示をすることができる。   According to the present invention, it is possible to display for easily determining whether or where the subject is in focus during photographing.

以下、添付図面に従って本発明に係るカメラを実施するための最良の形態について詳細に説明する。   The best mode for carrying out a camera according to the present invention will be described below in detail with reference to the accompanying drawings.

<第1の実施の形態>
図1は本発明に係る第1の実施の形態の撮像装置の一実施形態を示す正面斜視図である。図2は、上記撮像装置の一実施形態を示す背面図である。この撮像装置は、レンズを通った光を撮像素子で受け、デジタル信号に変換して記憶メディアに記録するデジタルカメラである。
<First Embodiment>
FIG. 1 is a front perspective view showing an embodiment of an imaging apparatus according to the first embodiment of the present invention. FIG. 2 is a rear view showing an embodiment of the imaging apparatus. This imaging device is a digital camera that receives light passing through a lens with an imaging device, converts the light into a digital signal, and records it on a storage medium.

デジタルカメラ10のカメラボディ12は、横長の四角い箱状に形成されており、その正面には、図1に示すように、レンズ14、ストロボ16、ファインダ窓18、セルフタイマランプ20、AF補助光ランプ22、ストロボ調光センサ24等が配設されている。また、カメラボディ12の上面にはシャッターボタン26、電源/モードスイッチ28、モードダイヤル30等が配設されている。一方、カメラボディ12の背面には、図2に示すように、モニタ32、ファインダ接眼部34、スピーカー36、ズームボタン38、十字ボタン40、MENU/OKボタン42、DISPボタン44、BACKボタン46等が配設されている。   The camera body 12 of the digital camera 10 is formed in the shape of a horizontally long rectangular box, and on the front thereof, as shown in FIG. 1, a lens 14, a strobe 16, a finder window 18, a self-timer lamp 20, an AF auxiliary light. A lamp 22, a strobe light control sensor 24, and the like are provided. A shutter button 26, a power / mode switch 28, a mode dial 30 and the like are disposed on the upper surface of the camera body 12. On the other hand, on the back of the camera body 12, as shown in FIG. 2, a monitor 32, a viewfinder eyepiece 34, a speaker 36, a zoom button 38, a cross button 40, a MENU / OK button 42, a DISP button 44, and a BACK button 46 Etc. are arranged.

なお、図示しないカメラボディ12の下面には、三脚ネジ穴と、開閉自在なカバーを介してバッテリ挿入部とメモリカードスロットとが設けられており、このバッテリ挿入部とメモリカードスロットにバッテリとメモリカードが装填される。   A battery insertion portion and a memory card slot are provided on the lower surface of the camera body 12 (not shown) via a tripod screw hole and an openable / closable cover. The battery insertion portion and the memory card slot have a battery and a memory. The card is loaded.

レンズ14は、沈胴式のズームレンズで構成されており、電源/モードスイッチ28によってカメラのモードを撮影モードに設定することにより、カメラボディ12から繰り出される。なお、レンズ14のズーム機構や沈胴機構については、公知の技術なので、ここでは、その具体的な構成についての説明は省略する。   The lens 14 is constituted by a retractable zoom lens, and is extended from the camera body 12 by setting the camera mode to the photographing mode by the power / mode switch 28. In addition, since the zoom mechanism and the retracting mechanism of the lens 14 are well-known techniques, description of the specific configuration thereof is omitted here.

ストロボ16は、主要被写体に向けてストロボ光を照射できるように、その発光部が水平方向及び垂直方向に揺動できるように構成されている。なお、このストロボ16の構成については、後に詳述する。   The strobe 16 is configured such that its light emitting portion can swing in the horizontal direction and the vertical direction so that strobe light can be emitted toward the main subject. The configuration of the strobe 16 will be described later in detail.

ファインダ窓18は、撮影する被写体を決めるのぞき窓の部分である。   The viewfinder window 18 is a portion of a viewing window that determines a subject to be photographed.

セルフタイマランプ20は、たとえばLED構成されており、後述するシャッターボタン26を押した後、一定時間を経過した後で撮影を行うセルフタイマ機能を用いて撮影を行うときに発光される。   The self-timer lamp 20 is configured, for example, as an LED, and emits light when a picture is taken using a self-timer function for taking a picture after a predetermined time has elapsed after a shutter button 26 described later is pressed.

AF補助光ランプ22は、たとえば高輝度LED構成されており、AF時に必要に応じて発光される。   The AF auxiliary light lamp 22 is configured, for example, as a high-intensity LED, and emits light as necessary during AF.

ストロボ調光センサ24は、後述するようにストロボ16の発光量を調整するものである。   The strobe light control sensor 24 adjusts the light emission amount of the strobe 16 as will be described later.

シャッターボタン26は、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。デジタルカメラ10は、このシャッターボタン26が「半押し」されることにより、AE/AFが作動し、「全押し」されることにより、撮影を実行する。   The shutter button 26 is constituted by a two-stage stroke type switch composed of so-called “half-press” and “full-press”. When the shutter button 26 is “half-pressed”, the digital camera 10 activates AE / AF, and “full-press” to execute shooting.

電源/モードスイッチ28は、デジタルカメラ10の電源をON/OFFする電源スイッチとしての機能と、デジタルカメラ10のモードを設定するモードスイッチとしての機能とを併せ持っており、「OFF位置」と「再生位置」と「撮影位置」との間をスライド自在に配設されている。デジタルカメラ10は、電源/モードスイッチ28をスライドさせて、「再生位置」又は「撮影位置」に合わせることにより、電源がONになり、「OFF位置」に合わせることにより、電源がOFFになる。そして、電源/モードスイッチ28をスライドさせて、「再生位置」に合わせることにより、「再生モード」に設定され、「撮影位置」に合わせることにより、「撮影モード」に設定される。   The power / mode switch 28 has both a function as a power switch for turning on / off the power of the digital camera 10 and a function as a mode switch for setting the mode of the digital camera 10. It is slidably arranged between “position” and “photographing position”. The digital camera 10 is turned on by sliding the power / mode switch 28 to the “reproduction position” or “photographing position”, and turned off by setting it to the “OFF position”. Then, the power / mode switch 28 is slid and set to “playback position” to set to “playback mode”, and to the “shooting position” to set to “shooting mode”.

モードダイヤル30は、デジタルカメラ10の撮影モードを設定する撮影モード設定手段として機能し、このモードダイヤルの設定位置により、デジタルカメラ10の撮影モードが様々なモードに設定される。例えば、絞り、シャッタースピード等がデジタルカメラ10によって自動的に設定される「オート撮影モード」、動画撮影を行う「動画撮影モード」、人物撮影に適した「人物撮影モード」、動体撮影に適した「スポーツ撮影モード」、風景の撮影に適した「風景撮影モード」、夕景及び夜景の撮影に適した「夜景撮影モード」、絞りの目盛りを撮影者が設定し、シャッタースピードをデジタルカメラ10が自動的に設定する「絞り優先撮影モード」、シャッタースピードを撮影者が設定し、絞りの目盛りをデジタルカメラ10が自動的に設定する「シャッタースピード優先撮影モード」、絞り、シャッタースピード等を撮影者が設定する「マニュアル撮影モード」、人物を自動的に検出し、その人物に向けてストロボ光を発光させる「人物検出撮影モード」(詳細は後述)等である。   The mode dial 30 functions as shooting mode setting means for setting the shooting mode of the digital camera 10, and the shooting mode of the digital camera 10 is set to various modes depending on the setting position of the mode dial. For example, an “auto shooting mode” in which an aperture, a shutter speed, etc. are automatically set by the digital camera 10, a “movie shooting mode” for moving image shooting, a “person shooting mode” suitable for portrait shooting, and a moving subject shooting “Sports shooting mode”, “Scenery shooting mode” suitable for landscape shooting, “Night scene shooting mode” suitable for sunset and night scene shooting, the scale of the aperture is set by the photographer, and the shutter speed is automatically set by the digital camera 10 The photographer sets the “aperture priority shooting mode” to be set automatically, the shutter speed is set by the photographer, and the “shutter speed priority shooting mode” in which the digital camera 10 automatically sets the aperture scale, the aperture, the shutter speed, etc. Set “Manual Shooting Mode” to automatically detect a person and emit strobe light toward that person. Out shooting mode "(which will be described in detail later), and the like.

モニタ32は、カラー表示が可能な液晶ディスプレイで構成されている。このモニタ32は、再生モード時に撮影済み画像を表示するための画像表示パネルとして利用されるとともに、各種設定操作を行なう際のユーザインターフェース表示パネルとして利用される。また、撮影モード時には、必要に応じてスルー画像が表示されて、画角確認用の電子ファインダとして利用される。   The monitor 32 is composed of a liquid crystal display capable of color display. The monitor 32 is used as an image display panel for displaying a photographed image in the playback mode, and is also used as a user interface display panel for performing various setting operations. In the photographing mode, a through image is displayed as necessary, and is used as an electronic viewfinder for checking the angle of view.

スピーカー36は、モードダイヤル30などにより音声出力がONに設定されている場合に、所定の音声やブザー音などの音を出力するものである。   The speaker 36 outputs a sound such as a predetermined sound or a buzzer sound when the sound output is set to ON by the mode dial 30 or the like.

ズームボタン38は、ズームを指示するズーム指示手段として機能し、望遠側へのズームを指示するズームテレボタン38Tと、広角側へのズームを指示するズームワイドボタン38Wとからなる。デジタルカメラ10は、撮影モード時に、このズームテレボタン38Tとズームワイドボタン38Wとが操作されることにより、レンズ14の焦点距離が変化する。また、再生モード時に、このズームテレボタン38Tとズームワイドボタン38Wとが操作されることにより、再生中の画像が拡大、縮小する。   The zoom button 38 functions as zoom instruction means for instructing zooming, and includes a zoom tele button 38T for instructing zooming to the telephoto side and a zoom wide button 38W for instructing zooming to the wide angle side. In the digital camera 10, when the zoom tele button 38T and the zoom wide button 38W are operated in the shooting mode, the focal length of the lens 14 changes. Further, when the zoom tele button 38T and the zoom wide button 38W are operated in the reproduction mode, the image being reproduced is enlarged or reduced.

十字ボタン40は、上下左右4方向の指示を入力する方向指示手段として機能し、たとえば、メニュー画面でメニュー項目の選択などに使用される。   The cross button 40 functions as direction indicating means for inputting instructions in four directions, up, down, left, and right, and is used, for example, for selecting a menu item on a menu screen.

MENU/OKボタン42は、各モードの通常画面からメニュー画面への遷移を指示するボタン(MENUボタン)として機能するととともに、選択内容の確定、処理の実行等を指示するボタン(OKボタン)として機能する。   The MENU / OK button 42 functions as a button (MENU button) for instructing a transition from the normal screen to the menu screen in each mode, and also functions as a button (OK button) for instructing selection confirmation, execution of processing, and the like. To do.

DISPボタン44は、モニタ32の表示切り替えを指示するボタンとして機能し、撮影中、このDISPボタン44が押されると、モニタ32の表示が、ON→フレーミングガイド表示→OFFに切り替えられる。また、再生中、このDISPボタン44が押されると、通常再生→文字表示なし再生→マルチ再生に切り替えられる。   The DISP button 44 functions as a button for instructing the display switching of the monitor 32. When the DISP button 44 is pressed during photographing, the display of the monitor 32 is switched from ON to framing guide display to OFF. If the DISP button 44 is pressed during playback, the playback mode is switched from normal playback to playback without character display to multi playback.

BACKボタン46は、入力操作のキャンセルや一つ前の操作状態に戻すことを指示するボタンとして機能する。   The BACK button 46 functions as a button for instructing to cancel the input operation or return to the previous operation state.

図3は、デジタルカメラ10内部の概略構成を示すブロック図である。   FIG. 3 is a block diagram showing a schematic configuration inside the digital camera 10.

同図に示すように、デジタルカメラ10は、CPU110、操作部(シャッターボタン26、電源/モードスイッチ28、モードダイヤル30、ズームボタン38、十字ボタン40、MENU/OKボタン42、DISPボタン44、BACKボタン46等)112、ROM116、EEPROM118、メモリ120、VRAM122、撮像素子124、タイミングジェネレータ(TG)126、アナログ処理部(CDS/AMP)128、A/D変換器130、画像入力制御部132、画像信号処理部134、ビデオエンコーダ136、文字MIX部138、AF検出部140、AE/AWB検出部142、絞り駆動部144、レンズ駆動部146、圧縮伸張処理部148、メディア制御部150、記憶メディア152、顔検出部154、ストロボ発光制御部160等で構成されている。   As shown in the figure, the digital camera 10 includes a CPU 110, an operation unit (shutter button 26, power / mode switch 28, mode dial 30, zoom button 38, cross button 40, MENU / OK button 42, DISP button 44, BACK. Button 46, etc.) 112, ROM 116, EEPROM 118, memory 120, VRAM 122, image sensor 124, timing generator (TG) 126, analog processing unit (CDS / AMP) 128, A / D converter 130, image input control unit 132, image Signal processing unit 134, video encoder 136, character MIX unit 138, AF detection unit 140, AE / AWB detection unit 142, aperture drive unit 144, lens drive unit 146, compression / decompression processing unit 148, media control unit 150, storage medium 152 , Face detection unit 154 It is composed of a flash light emission control unit 160 and the like.

CPU110は、操作部112から入力される操作信号に基づき所定の制御プログラムに従ってデジタルカメラ10の全体を統括制御する。   The CPU 110 performs overall control of the entire digital camera 10 according to a predetermined control program based on an operation signal input from the operation unit 112.

バス114を介してCPU110と接続されたROM116には、このCPU110が実行する制御プログラム及び制御に必要な各種データ等が格納されており、EEPROM118には、ユーザー設定情報等のデジタルカメラ10の動作に関する各種設定情報等が格納されている。また、メモリ(SDRAM)120は、CPU110の演算作業用領域として利用されるとともに、画像データ等の一時記憶領域として利用され、VRAM122は、画像データ専用の一時記憶領域として利用される。   A ROM 116 connected to the CPU 110 via the bus 114 stores a control program executed by the CPU 110 and various data necessary for the control. The EEPROM 118 relates to the operation of the digital camera 10 such as user setting information. Various setting information and the like are stored. The memory (SDRAM) 120 is used as a calculation work area for the CPU 110 and is used as a temporary storage area for image data and the VRAM 122 is used as a temporary storage area dedicated to image data.

撮像素子124は、たとえば、所定のカラーフィルタ配列のカラーCCDで構成されており、レンズ14によって結像された被写体の画像を電子的に撮像する。タイミングジェネレータ(TG)126は、CPU110からの指令に応じて、この撮像素子124を駆動するためのタイミング信号を出力する。   The image sensor 124 is composed of, for example, a color CCD having a predetermined color filter array, and electronically captures an image of a subject imaged by the lens 14. A timing generator (TG) 126 outputs a timing signal for driving the image sensor 124 in response to a command from the CPU 110.

アナログ処理部128は、撮像素子124から出力された画像信号に対して、画素ごとのR、G、B信号をサンプリングホールド(相関二重サンプリング処理)するとともに、増幅してA/D変換器130に出力する。   The analog processing unit 128 samples and holds the R, G, and B signals for each pixel with respect to the image signal output from the image sensor 124 (a correlated double sampling process), and amplifies the signal to the A / D converter 130. Output to.

A/D変換器130は、アナログ処理部128から出力されたアナログのR、G、B信号をデジタルのR、G、B信号に変換して出力する。   The A / D converter 130 converts the analog R, G, and B signals output from the analog processing unit 128 into digital R, G, and B signals and outputs them.

画像入力制御部132は、A/D変換器130から出力されたデジタルのR、G、B信号をメモリ120に出力する。   The image input control unit 132 outputs digital R, G, and B signals output from the A / D converter 130 to the memory 120.

画像信号処理部134は、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理回路)、ホワイトバランス補正回路、ガンマ補正回路、輪郭補正回路、輝度・色差信号生成回路等を含み、CPU110からの指令に従い、入力された画像信号に所要の信号処理を施して、輝度データ(Yデータ)と色差データ(Cr,Cbデータ)とからなる画像データ(YUVデータ)を生成する。   The image signal processing unit 134 includes a synchronization circuit (a processing circuit that converts a color signal into a simultaneous expression by interpolating a spatial shift of the color signal associated with the color filter array of the single CCD), a white balance correction circuit, and a gamma correction. Circuit, contour correction circuit, luminance / color difference signal generation circuit, etc., and according to a command from the CPU 110, the input image signal is subjected to necessary signal processing to obtain luminance data (Y data) and color difference data (Cr, Cb data). ) Is generated.

ビデオエンコーダ136は、CPU110からの指令に従い、モニタ32への表示を制御する。すなわち、CPU110からの指令に従い、入力された画像信号をモニタ32に表示するための映像信号(たとえば、NTSC信号やPAL信号、SCAM信号)に変換してモニタ32に出力するとともに、必要に応じて文字MIX部138で合成された、所定の文字、図形情報をモニタ32に出力する。   The video encoder 136 controls display on the monitor 32 in accordance with a command from the CPU 110. That is, in accordance with a command from the CPU 110, the input image signal is converted into a video signal (for example, an NTSC signal, a PAL signal, or a SCAM signal) for display on the monitor 32 and output to the monitor 32. Predetermined character and graphic information synthesized by the character MIX unit 138 is output to the monitor 32.

AF検出部140は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、所定のフォーカスエリア(たとえば、画面中央部)内の信号を切り出すAFエリア検出部及びAFエリア内の絶対値データを積算する積算部から構成される。   The AF detection unit 140 includes a high-pass filter that passes only a high-frequency component of the G signal, an absolute value processing unit, an AF area detection unit that extracts a signal within a predetermined focus area (for example, the center of the screen), and an absolute value within the AF area. It consists of an integration unit that integrates value data.

AE/AWB検出部142は、CPU110からの指令に従い、入力された画像信号からAE制御及びAWB制御に必要な物理量を算出する。たとえば、AE制御に必要な物理量として、1画面を複数のエリア(たとえば16×16)に分割し、分割したエリアごとにR、G、Bの画像信号の積算値を算出する。   The AE / AWB detection unit 142 calculates a physical quantity necessary for AE control and AWB control from the input image signal in accordance with a command from the CPU 110. For example, as a physical quantity required for AE control, one screen is divided into a plurality of areas (for example, 16 × 16), and an integrated value of R, G, and B image signals is calculated for each divided area.

絞り駆動部144及びレンズ駆動部146は、CPU110からの指令に応じて撮像素子124の駆動部124Aを制御し、撮影レンズ14、絞り15の動作を制御する。   The aperture drive unit 144 and the lens drive unit 146 control the drive unit 124 </ b> A of the image sensor 124 in accordance with a command from the CPU 110 and control the operations of the photographing lens 14 and the aperture 15.

圧縮伸張処理部148は、CPU110からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU110からの指令に従い、入力された圧縮画像データに所定形式の伸張処理を施し、非圧縮の画像データを生成する。   The compression / decompression processing unit 148 performs compression processing in a predetermined format on the input image data in accordance with a command from the CPU 110 to generate compressed image data. Further, in accordance with a command from the CPU 110, the input compressed image data is subjected to a decompression process in a predetermined format to generate uncompressed image data.

メディア制御部150は、CPU110からの指令に従い、メディアスロットに装填された記憶メディア152に対してデータの読み/書きを制御する。   The media control unit 150 controls reading / writing of data with respect to the storage medium 152 loaded in the media slot in accordance with a command from the CPU 110.

顔検出部154は、CPU110からの指令に従い、入力された画像データから画像内の顔領域を抽出し、その位置(たとえば、顔領域の重心)を検出する。この顔領域の抽出は、たとえば、原画像から肌色データを抽出し、肌色範囲と判断された測光点のクラスタを顔として抽出する。この他、画像から顔領域を抽出する方法としては、測光データを色相と彩度に変換し、変換した色相・彩度の二次元ヒストグラムを作成し、解析することで、顔領域を判断する方法や、人の顔の形状に相当する顔候補領域を抽出し、その領域内の特徴量から顔領域を決定する方法、画像から人の顔の輪郭を抽出し、顔領域を決定する方法、複数の顔の形状をしたテンプレートを用意し、そのテンプレートと画像との相関を計算し、この相関値により顔候補領域とすることで人の顔を抽出する方法等が知られており、これらの方法を用いて抽出することができる。   The face detection unit 154 extracts a face area in the image from the input image data in accordance with a command from the CPU 110, and detects the position (for example, the center of gravity of the face area). In this face area extraction, for example, skin color data is extracted from an original image, and a cluster of photometric points determined to be in the skin color range is extracted as a face. In addition, as a method for extracting a face area from an image, a method for determining a face area by converting photometric data into hue and saturation, creating a two-dimensional histogram of the converted hue / saturation, and analyzing it. Or a method for extracting a face candidate region corresponding to the shape of a human face and determining the face region from the feature amount in the region, extracting a human face outline from an image, and determining a face region, There are known methods for extracting a human face by preparing a template having the shape of a human face, calculating the correlation between the template and an image, and using the correlation value as a face candidate region. Can be extracted.

合焦表示作成部156は、文字や記号を内部に表示させる吹き出しを作成する。CPU110は、AF検出部140で行われるAFの状況を把握し、合焦表示作成部156に指令を出す。合焦表示作成部156は、CPU110からの指令に従い、AFの状況に合わせた文字や記号を作成する。また、CPU110は、顔検出部154で検出された顔の位置情報に基づいて、この合焦表示作成部156で作成された表示を顔に近接して表示するように文字MIX部138に指令する。なお、合焦表示作成部156で作成される表示については、後に詳述する。   The in-focus display creation unit 156 creates a balloon that displays characters and symbols inside. The CPU 110 grasps the status of AF performed by the AF detection unit 140 and issues a command to the in-focus display creation unit 156. The in-focus display creation unit 156 creates characters and symbols according to the AF status in accordance with instructions from the CPU 110. Further, based on the face position information detected by the face detection unit 154, the CPU 110 instructs the character MIX unit 138 to display the display created by the in-focus display creation unit 156 close to the face. . The display created by the focus display creation unit 156 will be described in detail later.

ストロボ発光制御部160は、CPU110からの指令に従い、ストロボ16の発光を制御する。   The strobe light emission control unit 160 controls the light emission of the strobe 16 in accordance with a command from the CPU 110.

次に、以上のように構成された本実施の形態のデジタルカメラ10の作用について説明する。   Next, the operation of the digital camera 10 of the present embodiment configured as described above will be described.

まず、一般的な画像の撮影、記録処理の手順について説明する。上記のように、デジタルカメラ10は、電源/モードスイッチ28を撮影位置に合わせることで、撮影モードに設定され、撮影が可能になる。そして、撮影モードに設定されることにより、レンズ14が繰り出され、撮影スタンバイ状態になる。   First, a general image capturing and recording procedure will be described. As described above, the digital camera 10 is set to the shooting mode by setting the power / mode switch 28 to the shooting position, and shooting is possible. Then, when the shooting mode is set, the lens 14 is extended to enter a shooting standby state.

この撮影モードの下、レンズ14を通過した被写体光は、絞り15を介して撮像素子124の受光面に結像される。撮像素子124の受光面には、所定の配列構造(ベイヤー、Gストライプなど)で配列された赤(R)、緑(G)、青(B)のカラーフィルタを介して多数のフォトダイオード(受光素子)が二次元的に配置されている。レンズ14を通過した被写体光は、各フォトダイオードによって受光され、入射光量に応じた量の信号電荷に変換される。   Under this photographing mode, the subject light that has passed through the lens 14 forms an image on the light receiving surface of the image sensor 124 via the diaphragm 15. On the light receiving surface of the image sensor 124, a large number of photodiodes (light receiving) are received via red (R), green (G), and blue (B) color filters arranged in a predetermined arrangement structure (Bayer, G stripe, etc.). Elements) are two-dimensionally arranged. The subject light that has passed through the lens 14 is received by each photodiode and converted into a signal charge in an amount corresponding to the amount of incident light.

各フォトダイオードに蓄積された信号電荷は、タイミングジェネレータ(TG)126から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として順次読み出され、アナログ処理部(CDS/AMP)128に加えられる。   The signal charge accumulated in each photodiode is sequentially read out as a voltage signal (image signal) corresponding to the signal charge based on the drive pulse supplied from the timing generator (TG) 126, and is analog processing section (CDS / AMP). 128.

アナログ処理部128から出力されたアナログのR、G、B信号は、A/D変換器130でデジタルのR、G、B信号に変換され、画像入力制御部132に加えられる。画像入力制御部132は、A/D変換器130から出力されたデジタルのR、G、B信号をメモリ120に出力する。   Analog R, G, and B signals output from the analog processing unit 128 are converted into digital R, G, and B signals by the A / D converter 130 and added to the image input control unit 132. The image input control unit 132 outputs digital R, G, and B signals output from the A / D converter 130 to the memory 120.

撮影画像をモニタ32に出力する場合は、画像入力制御部132からメモリ120に出力された画像信号より画像信号処理部134で輝度/色差信号が生成され、その信号がビデオエンコーダ136に送られる。ビデオエンコーダ136は、入力された輝度/色差信号を表示用の信号形式(たとえばNTSC方式のカラー複合映像信号)に変換し、モニタ32に出力する。これにより、撮像素子124で撮像された画像がモニタ32に表示される。   When outputting the captured image to the monitor 32, a luminance / color difference signal is generated by the image signal processing unit 134 from the image signal output from the image input control unit 132 to the memory 120, and the signal is sent to the video encoder 136. The video encoder 136 converts the input luminance / color difference signal into a display signal format (for example, an NTSC color composite video signal), and outputs it to the monitor 32. As a result, an image captured by the image sensor 124 is displayed on the monitor 32.

撮像素子124から画像信号を定期的に取り込み、その画像信号から生成される輝度/色差信号によってVRAM122内の画像データを定期的に書き換え、モニタ32に出力することにより、撮像素子124で撮像される画像がリアルタイムに表示される。撮影者は、このモニタ32にリアルタイムに表示される画像(スルー画像)を見ることにより、撮影画角を確認することができる。   The image sensor 124 periodically captures an image signal, periodically rewrites the image data in the VRAM 122 with the luminance / color difference signal generated from the image signal, and outputs the image data to the monitor 32 so that the image is captured by the image sensor 124. Images are displayed in real time. The photographer can confirm the shooting angle of view by viewing the image (through image) displayed in real time on the monitor 32.

なお、VRAM122からビデオエンコーダ136に加えられる輝度/色差信号は、必要に応じて文字MIX部138に加えられ、所定の文字や図形等と合成されたのち、ビデオエンコーダ136に加えられる。これにより、所要の撮影情報等がスルー画像に重ねて表示される。   Note that the luminance / color difference signal applied from the VRAM 122 to the video encoder 136 is added to the character MIX unit 138 as necessary, and is combined with a predetermined character, graphic, etc., and then applied to the video encoder 136. As a result, required shooting information and the like are displayed superimposed on the through image.

撮影はシャッターボタン26の押下によって行なわれる。シャッターボタン26が半押しされると、S1ON信号がCPU110に入力され、CPU110はAE/AF処理を実施する。   Shooting is performed by pressing the shutter button 26. When the shutter button 26 is half-pressed, an S1 ON signal is input to the CPU 110, and the CPU 110 performs AE / AF processing.

まず、画像入力制御部132を介して撮像素子124から取り込まれた画像信号がAF検出部140並びにAE/AWB検出部142に入力される。   First, an image signal captured from the image sensor 124 via the image input control unit 132 is input to the AF detection unit 140 and the AE / AWB detection unit 142.

AF検出部140で求めた積算値のデータはCPU110に通知される。   The integrated value data obtained by the AF detection unit 140 is notified to the CPU 110.

CPU110は、レンズ駆動部146を制御してレンズ14を含む撮影光学系のフォーカスレンズ群を移動させながら、複数のAF検出ポイントで焦点評価値(AF評価値)を演算し、評価値が極大となるレンズ位置を合焦位置として決定する。そして、求めた合焦位置にフォーカスレンズ群が移動するように、レンズ駆動部146を制御する。   The CPU 110 calculates a focus evaluation value (AF evaluation value) at a plurality of AF detection points while moving the focus lens group of the photographing optical system including the lens 14 by controlling the lens driving unit 146, and the evaluation value is maximum. Is determined as the in-focus position. Then, the lens driving unit 146 is controlled so that the focus lens group moves to the obtained in-focus position.

CPU110は、AE/AWB検出部142から得た積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。そして、求めた撮影EV値と所定のプログラム線図から絞り値とシャッタースピードを決定し、これに従い撮像素子124の電子シャッターと絞り駆動部144を制御して適正な露光量を得る。同時に、検出された被写体輝度より、ストロボの発光が必要かどうかを判断する。   The CPU 110 detects the brightness of the subject (subject brightness) based on the integrated value obtained from the AE / AWB detection unit 142, and calculates an exposure value (shooting EV value) suitable for shooting. Then, the aperture value and the shutter speed are determined from the obtained shooting EV value and a predetermined program diagram, and the electronic shutter and the aperture drive unit 144 of the image sensor 124 are controlled according to the determined aperture value and an appropriate exposure amount. At the same time, it is determined from the detected subject brightness whether or not the strobe light emission is necessary.

また、AE/AWB検出部142は、自動ホワイトバランス調整時、分割エリアごとにR、G、B信号の色別の平均積算値を算出し、その算出結果をCPU110に提供する。CPU110は、得られたRの積算値、Bの積算値、Gの積算値から分割エリアごとにR/G及びB/Gの比を求め、求めたR/G、B/Gの値のR/G、B/Gの色空間における分布等に基づいて光源種判別を行う。そして、判別された光源種に適したホワイトバランス調整値に従って、たとえば、各比の値がおよそ1(つまり、1画面においてRGBの積算比率がR:G:B≒1:1:1)になるように、ホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランス補正値)を制御し、各色チャンネルの信号に補正をかける。   The AE / AWB detection unit 142 calculates an average integrated value for each color of the R, G, and B signals for each divided area during automatic white balance adjustment, and provides the calculation result to the CPU 110. The CPU 110 obtains the ratio of R / G and B / G for each divided area from the obtained R accumulated value, B accumulated value, and G accumulated value, and R of the obtained R / G and B / G values. The light source type is discriminated based on the distribution in the color space of / G and B / G. Then, according to the white balance adjustment value suitable for the discriminated light source type, for example, the value of each ratio is approximately 1 (that is, the RGB integration ratio is R: G: B≈1: 1: 1 on one screen). As described above, the gain value (white balance correction value) for the R, G, and B signals of the white balance adjustment circuit is controlled to correct the signal of each color channel.

以上のように、シャッターボタン26の半押しによって、AE/AF処理が行なわれる。なお、撮影者は、必要に応じてズームボタン38を操作し、レンズ14をズーミングさせて画角を調整する。   As described above, the AE / AF process is performed by half-pressing the shutter button 26. The photographer operates the zoom button 38 as necessary to zoom the lens 14 and adjust the angle of view.

この後、シャッターボタン26が全押しされると、CPU110にS2ON信号が入力され、CPU110は、撮影、記録処理を開始する。すなわち、測光結果に基づき決定されたシャッター速度、絞り値で撮像素子124を露光する。この際、ストロボ16を発光させる場合は、ストロボ発光制御部160を介してストロボ16を発光させる。ストロボ発光制御部160は、ストロボ調光センサ24での受光量が所定量に達すると、ストロボ16への通電を遮断し、ストロボ16の発光を停止させる。   Thereafter, when the shutter button 26 is fully pressed, an S2ON signal is input to the CPU 110, and the CPU 110 starts photographing and recording processing. That is, the image sensor 124 is exposed with the shutter speed and aperture value determined based on the photometric result. At this time, when the strobe 16 is caused to emit light, the strobe 16 is caused to emit light via the strobe emission control unit 160. When the amount of light received by the strobe light control sensor 24 reaches a predetermined amount, the strobe light emission control unit 160 cuts off the power supply to the strobe 16 and stops the light emission of the strobe 16.

撮像素子124から出力された画像信号は、アナログ処理部128、A/D変換器130、画像入力制御部132を介してメモリ120に取り込まれ、画像信号処理部134において輝度/色差信号に変換されたのち、メモリ120に格納される。   The image signal output from the image sensor 124 is taken into the memory 120 via the analog processing unit 128, the A / D converter 130, and the image input control unit 132, and is converted into a luminance / color difference signal by the image signal processing unit 134. After that, it is stored in the memory 120.

メモリ120に格納された画像データは、圧縮伸張処理部148に加えられ、所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮された後、メモリ120に格納され、所定の画像記録フォーマット(たとえばExif形式)の画像ファイルとされたのち、メディア制御部150を介して記憶メディア152に記録される。   The image data stored in the memory 120 is added to the compression / decompression processing unit 148, compressed in accordance with a predetermined compression format (for example, JPEG format), then stored in the memory 120, and a predetermined image recording format (for example, Exif format). Are recorded on the storage medium 152 via the media control unit 150.

以上のようにして記憶メディア152に記録された画像は、電源/モードスイッチ28を再生位置に合わせて、デジタルカメラ10のモードを再生モードに設定することにより、モニタ32で再生表示させることができる。   The image recorded on the storage medium 152 as described above can be reproduced and displayed on the monitor 32 by setting the power / mode switch 28 to the reproduction position and setting the mode of the digital camera 10 to the reproduction mode. .

電源/モードスイッチ28を再生位置に合わせて、デジタルカメラ10のモードを再生モードに設定すると、CPU110は、メディア制御部150にコマンドを出力し、記憶メディア152に最後に記録された画像ファイルを読み出させる。   When the power / mode switch 28 is set to the playback position and the mode of the digital camera 10 is set to the playback mode, the CPU 110 outputs a command to the media control unit 150 and reads the image file recorded last on the storage medium 152. Let it come out.

読み出された画像ファイルの圧縮画像データは、圧縮伸張処理部148に加えられ、非圧縮の輝度/色差信号に伸張されたのち、ビデオエンコーダ136を介してモニタ32に出力される。これにより、記憶メディア152に記録されている画像がモニタ32に再生表示される。なお、再生時も必要に応じて再生する画像の輝度/色差信号が、文字MIX部138に加えられ、所定の文字や図形等と合成されたのち、ビデオエンコーダ136に加えられる。これにより、撮影済み画像に重ねられて所定の撮影情報等がモニタ32に表示される。   The compressed image data of the read image file is added to the compression / decompression processing unit 148, decompressed to an uncompressed luminance / color difference signal, and then output to the monitor 32 via the video encoder 136. As a result, the image recorded on the storage medium 152 is reproduced and displayed on the monitor 32. It is to be noted that the luminance / color difference signal of the image to be reproduced is added to the character MIX unit 138 and synthesized with a predetermined character, figure, or the like as necessary, and then added to the video encoder 136. As a result, predetermined photographing information and the like are displayed on the monitor 32 so as to be superimposed on the photographed image.

画像のコマ送りは、十字ボタン40の左右のキー操作によって行なわれ、十字ボタン40の右キーが押されると、次の画像ファイルが記憶メディア152から読み出され、モニタ32に再生表示される。また、十字ボタン40の左キーが押されると、一つ前の画像ファイルが記憶メディア152から読み出され、モニタ32に再生表示される。   The frame advance of the image is performed by operating the left and right keys of the cross button 40. When the right key of the cross button 40 is pressed, the next image file is read from the storage medium 152 and reproduced and displayed on the monitor 32. When the left key of the cross button 40 is pressed, the previous image file is read from the storage medium 152 and reproduced and displayed on the monitor 32.

さて、本実施の形態のデジタルカメラ10では、ユーザーに合焦状態を示すため、合焦動作の状況を判断し、その状況に応じた表示(合焦表示)を行う。以下、この合焦表示の手順について説明する。   Now, in the digital camera 10 of the present embodiment, in order to indicate the in-focus state to the user, the state of the in-focus operation is determined, and display according to the state (in-focus display) is performed. Hereinafter, the procedure of this in-focus display will be described.

<合焦表示の第1の実施の形態>
図4は、上記デジタルカメラ10の合焦表示の処理の流れを示すフローチャートである。以下の処理は、主としてCPU110によって行われる。
<First Embodiment of Focus Display>
FIG. 4 is a flowchart showing a flow of focus display processing of the digital camera 10. The following processing is mainly performed by the CPU 110.

モニタ32にスルー画が表示されている撮影スタンバイ状態において、顔検出部154により、入力された被写体像に顔が含まれるかどうか、顔が含まれる場合には、顔領域の抽出と、顔位置の検出が行われる(ステップS10)。   In the shooting standby state in which a through image is displayed on the monitor 32, the face detection unit 154 determines whether or not a face is included in the input subject image. Is detected (step S10).

シャッターボタン26の半押し(S1ON)が検出されたかどうかが判断される(ステップS12)。S1ONが検出されなかった場合(ステップS12でNO)には、再度ステップS12が行われる。   It is determined whether or not half-press (S1 ON) of the shutter button 26 is detected (step S12). If S1ON is not detected (NO in step S12), step S12 is performed again.

S1ONが検出された場合(ステップS12でYES)には、ステップS10において被写体像から顔が検出されたかどうかが判断される(ステップS14)。顔が検出された場合(ステップS14でYES)には、図5に示すように、合焦表示作成部156により抽出された顔領域に隣接して合焦情報を表示するための表示領域である吹き出しが表示され(ステップS16)、吹き出しの内部にまだ焦点があっていない場合の合焦情報である「?」の文字が表示される(ステップS16)。顔が検出されなかった場合(ステップS14でNO)には、図6に示すように、合焦表示作成部156により画面左下に吹き出しが表示され(ステップS18)、吹き出しの内部にまだ焦点があっていない場合の合焦情報である「?」の文字が表示される(ステップS20)。   If S1ON is detected (YES in step S12), it is determined whether a face is detected from the subject image in step S10 (step S14). When a face is detected (YES in step S14), as shown in FIG. 5, it is a display area for displaying focus information adjacent to the face area extracted by the focus display creation unit 156. A balloon is displayed (step S16), and the character “?”, Which is in-focus information when the focus is not yet within the balloon, is displayed (step S16). If no face is detected (NO in step S14), a balloon is displayed at the lower left of the screen by the focus display creation unit 156 as shown in FIG. 6 (step S18), and the focus is still inside the balloon. The character “?”, Which is the focusing information when not, is displayed (step S20).

シャッターボタン26の全押し(S2ON)が検出されたかどうかが判断される(ステップS22)。S2ONが検出されなかった場合(ステップS22でNO)は、AFが正確に行えないため、フォーカスレンズ群を所定の位置へ移動させ(ステップS40)、撮影が行われる(ステップS42)。   It is determined whether or not the shutter button 26 is fully pressed (S2 ON) (step S22). If S2ON is not detected (NO in step S22), since AF cannot be performed accurately, the focus lens group is moved to a predetermined position (step S40), and photographing is performed (step S42).

S2ONが検出された場合(ステップS22でYES)には、レンズ駆動部146を制御してフォーカスレンズ群を移動させながら、複数のAF検出ポイントで焦点評価値を演算し、評価値が極大となるレンズ位置を合焦位置として決定する(ステップS24)。そして、求めた合焦位置にフォーカスレンズ群が移動するように、レンズ駆動部146を制御して、フォーカスレンズ群の移動を開始する。   When S2ON is detected (YES in step S22), the focus evaluation value is calculated at a plurality of AF detection points while the focus lens group is moved by controlling the lens driving unit 146, and the evaluation value becomes maximum. The lens position is determined as the focus position (step S24). Then, the lens driving unit 146 is controlled so that the focus lens group moves to the obtained in-focus position, and movement of the focus lens group is started.

所望の領域に焦点があったかどうかが判断される(ステップS26)。ステップS10において顔が検出された場合には、顔に焦点があっているかどうかが判断され、ステップS10において顔が検出されなかった場合には、中央近辺の所定の領域にある被写体に焦点があっているかどうかが判断される。   It is determined whether or not the desired area is in focus (step S26). If a face is detected in step S10, it is determined whether or not the face is in focus. If no face is detected in step S10, the subject in the predetermined area near the center is in focus. It is judged whether or not.

所望の領域に焦点があっていないと判断された場合(ステップS26でNO)には、求めた合焦位置にフォーカスレンズ群が移動させると同時に、図7に示すように、吹き出し内部に表示されている「?」の文字が「!」の文字になるように、「?」の文字が回転され(ステップS32)、再度ステップS26が行われる。所望の領域に焦点があっている場合、すなわちフォーカスレンズ群の移動が終了した場合(ステップS26でYES)には、図8に示すように、吹き出しの内部に焦点があっている場合の合焦情報である「!」の文字が表示され(ステップS28)、明度をあげて鮮明に吹き出しが表示される(ステップS30)。   If it is determined that the desired area is not in focus (NO in step S26), the focus lens group is moved to the obtained in-focus position, and at the same time, as shown in FIG. The character “?” Is rotated so that the character “?” Is changed to the character “!” (Step S32), and step S26 is performed again. When the desired area is in focus, that is, when the movement of the focus lens group is completed (YES in step S26), as shown in FIG. 8, the focus when the focus is inside the balloon is shown. The character “!” As information is displayed (step S28), and the balloon is clearly displayed with increased brightness (step S30).

すなわち、合焦動作を開始する前(ステップS20)には、焦点があっていない場合の合焦情報である「?」の文字が表示され、合焦動作(ステップS24〜ステップS32)の間は「?」の文字を90度回転させることにより、「?」の文字が徐々に「!」へ遷移され、合焦処理の終了と同時に吹き出しの内部に焦点があっている場合の合焦情報である「!」の文字が表示される(ステップS28)。「?」の回転は、常に所定の回転速度で回転させてもよいし、合焦位置の算出から合焦までに要するおよその時間から回転速度を算出し、算出された回転速度で回転させてもよいし、ステップS24で求められた合焦位置からフォーカスレンズ群の移動に要する時間を算出し、所定の領域に焦点があっている場合と同時に回転が終わるような回転速度を算出し、算出された回転速度で回転させてもよい。   That is, before starting the focusing operation (step S20), the character “?”, Which is the focusing information when there is no focus, is displayed, and during the focusing operation (steps S24 to S32). By rotating the character “?” By 90 degrees, the character “?” Is gradually changed to “!”, And the focus information is obtained when the inside of the balloon is focused at the end of the focusing process. A character “!” Is displayed (step S28). The rotation of “?” May always be performed at a predetermined rotational speed, or the rotational speed is calculated from the approximate time required from the calculation of the in-focus position to the in-focus position, and is rotated at the calculated rotational speed. Alternatively, the time required to move the focus lens group is calculated from the in-focus position obtained in step S24, and the rotation speed is calculated so that the rotation ends at the same time as when the focus is in a predetermined area. It may be rotated at the rotation speed set.

音声出力がONになっているかが判断される(ステップS34)。音声出力がONになっている場合(ステップS34でYES)には、スピーカー36を介して合焦が終了したことを示す音声、メロディ、合図音などの音が出力され(ステップS36)、S2ONが検出されたかどうかが判断される(ステップS38)。音声出力がONになっていない場合(ステップS34でNO)には、S2ONが検出されたかどうかが判断される(ステップS38)。   It is determined whether the audio output is ON (step S34). When the audio output is ON (YES in step S34), sounds such as voice, melody, and cueing sound indicating that focusing has ended are output via the speaker 36 (step S36), and S2ON is set. It is determined whether or not it has been detected (step S38). If the audio output is not ON (NO in step S34), it is determined whether or not S2 ON is detected (step S38).

S2ONが検出されなかった場合(ステップS38でNO)には、焦点評価値を算出するステップ(ステップS24)へ戻る。S2ONが検出された場合(ステップS38でYES)には、撮影が行われる(ステップS42)。   If S2ON is not detected (NO in step S38), the process returns to the step of calculating the focus evaluation value (step S24). If S2ON is detected (YES in step S38), shooting is performed (step S42).

本実施の形態によれば、吹き出しと合焦情報とを表示することにより、ユーザーの興味を引き、これにより合焦状態をユーザーにわかり易く知らせることができる。また、AFが正確に行われなかった場合には合焦情報を表示せず、AFが行われた場合には合焦状態に応じた合焦情報を表示することにより、AF動作を行うようにユーザーを誘導することができる。   According to the present embodiment, it is possible to attract the user's interest by displaying the speech balloon and the focusing information, thereby informing the user of the focusing state in an easy-to-understand manner. Further, when the AF is not performed correctly, the focus information is not displayed, and when the AF is performed, the focus information corresponding to the focus state is displayed so that the AF operation is performed. User can be guided.

また、本実施の形態によれば、顔が検出された場合には、顔の近傍に吹き出し等を表示させることにより、焦点があっている領域がどこであるかをユーザーに分かりやすく示すことができる。また、表示と共に音声などを出力することにより、焦点が合ったことをユーザーにより分かりやすく示すことができる。   Further, according to the present embodiment, when a face is detected, a balloon or the like is displayed in the vicinity of the face, so that the user can easily understand where the focused area is. . In addition, by outputting sound and the like together with the display, it can be shown to the user that the focus has been achieved.

<合焦表示の第2の実施の形態>
合焦表示の第2の実施の形態は、焦点があっているかどうかに応じた文字を吹き出し内部に表示するのみでなく、被写体の状況に応じてメッセージを変えるものである。図9は、上記デジタルカメラ10の合焦表示の処理の流れを示すフローチャートである。以下の処理は、主としてCPU110によって行われる。なお、第1の実施の形態と同一の部分については、同一の符号を付し、詳細な説明を省略する。
<Second Embodiment of Focus Display>
In the second embodiment of the in-focus display, not only the characters depending on whether or not the focus is focused are displayed inside the balloon, but also the message is changed according to the condition of the subject. FIG. 9 is a flowchart showing the flow of focus display processing of the digital camera 10. The following processing is mainly performed by the CPU 110. The same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

モニタ32にスルー画が表示されている撮影スタンバイ状態において、顔検出部154により、入力された被写体像に顔が含まれるかどうか、顔が含まれる場合には、顔領域の抽出と、顔位置の検出が行われる(ステップS10)。   In the shooting standby state in which a through image is displayed on the monitor 32, the face detection unit 154 determines whether or not a face is included in the input subject image. Is detected (step S10).

S1ONが検出されたかどうかが判断される(ステップS12)。S1ONが検出されなかった場合(ステップS12でNO)には、再度ステップS12が行われる。   It is determined whether or not S1ON is detected (step S12). If S1ON is not detected (NO in step S12), step S12 is performed again.

S1ONが検出された場合(ステップS12でYES)には、ステップS10において被写体像から顔が検出されたかどうかが判断される(ステップS14)。顔が検出された場合(ステップS14でYES)には、顔領域に隣接して吹き出しが表示され(ステップS16)、吹き出しの内部にまだ焦点があっていないことを示す「まだだよ〜」の文字が表示される(ステップS50)。顔が検出されなかった場合(ステップS14でNO)には、画面左下に吹き出しが表示され(ステップS18)、吹き出しの内部にまだ焦点があっていないことを示す合焦情報である「まだだよ〜」が表示される(ステップS50)。   If S1ON is detected (YES in step S12), it is determined whether a face is detected from the subject image in step S10 (step S14). If a face is detected (YES in step S14), a speech bubble is displayed adjacent to the face area (step S16), and “no more” is shown indicating that the focus is not yet inside the speech bubble. Characters are displayed (step S50). When the face is not detected (NO in step S14), a balloon is displayed at the lower left of the screen (step S18), and the focus information indicating that the focal point is not yet in the balloon is “still yet. "" Is displayed (step S50).

S2ONが検出されたかどうかが判断される(ステップS22)。S2ONが検出されなかった場合(ステップS22でNO)は、フォーカスレンズ群を所定の位置へ移動させ(ステップS40)、撮影が行われる(ステップS42)。   It is determined whether or not S2ON is detected (step S22). If S2ON is not detected (NO in step S22), the focus lens group is moved to a predetermined position (step S40), and photographing is performed (step S42).

S2ONが検出された場合(ステップS22でYES)には、焦点評価値の算出と合焦位置の決定(合焦動作の開始)を行い(ステップS24)、所望の領域に焦点があったかどうかが判断される(ステップS26)。   When S2ON is detected (YES in step S22), calculation of a focus evaluation value and determination of a focus position (start of focus operation) are performed (step S24), and it is determined whether or not a desired region has a focus. (Step S26).

所望の領域に焦点があっていないと判断された場合(ステップS26でNO)には、求めた合焦位置にフォーカスレンズ群が移動され(ステップS52)、再度ステップS26が行われる。所望の領域に焦点があっている場合(ステップS26でYES)には、合焦が行われた被写体像から顔が検出されたかどうかが判断される(ステップS54)。   If it is determined that the desired area is not in focus (NO in step S26), the focus lens group is moved to the obtained in-focus position (step S52), and step S26 is performed again. If the desired area is in focus (YES in step S26), it is determined whether or not a face has been detected from the focused subject image (step S54).

被写体像から顔が検出されなかった場合(ステップS54でNO)には、吹き出しの内部に焦点があったことを示す合焦情報である「OK!」が表示され(ステップS56)、明度をあげて鮮明に吹き出しが表示される(ステップS30)。   If no face is detected from the subject image (NO in step S54), “OK!”, Which is in-focus information indicating that the focus is inside the balloon, is displayed (step S56), and the brightness is increased. The balloon is clearly displayed (step S30).

被写体像から顔が検出された場合(ステップS54でYES)には、顔検出部154において、ステップS54で検出された顔の表情が検出され(ステップS58)、顔検出部154において、表情が笑顔であるかどうかが判断される(ステップS60)。   If a face is detected from the subject image (YES in step S54), the face detection unit 154 detects the facial expression detected in step S54 (step S58), and the face detection unit 154 has a smiling expression. Is determined (step S60).

笑顔である場合(ステップS60でYES)には、吹き出しの内部に、焦点があったこと、かつ被写体が笑顔であることを示す合焦情報である「いい笑顔だから撮って!」が表示され(ステップS62)、明度をあげて鮮明に吹き出しが表示される(ステップS30)。笑顔でない場合(ステップS60でNO)には、吹き出しの内部に焦点があったことを示す「OK!」の文字が表示され、明度をあげて鮮明に吹き出しが表示される(ステップS30)。   If it is a smile (YES in step S60), the focus information indicating that the focus is on the subject and that the subject is a smile is displayed in the balloon ("Take a picture because it is a good smile!") ( In step S62), the balloon is displayed clearly with increased brightness (step S30). If it is not a smile (NO in step S60), the characters “OK!” Indicating that the focus is inside the speech balloon are displayed, and the speech balloon is clearly displayed with increased brightness (step S30).

音声出力がONになっているかが判断される(ステップS34)。音声出力がONになっている場合(ステップS34でYES)には、スピーカー36を介して合焦が終了したことを示す音声、メロディ、合図音などの音が出力され(ステップS36)、S2ONが検出されたかどうかが判断される(ステップS38)。音声出力がONになっていない場合(ステップS34でNO)には、S2ONが検出されたかどうかが判断される(ステップS38)。   It is determined whether the audio output is ON (step S34). When the audio output is ON (YES in step S34), sounds such as voice, melody, and cueing sound indicating that focusing has ended are output via the speaker 36 (step S36), and S2ON is set. It is determined whether or not it has been detected (step S38). If the audio output is not ON (NO in step S34), it is determined whether or not S2 ON is detected (step S38).

S2ONが検出されなかった場合(ステップS38でNO)には、焦点評価値を算出するステップ(ステップS24)へ戻る。S2ONが検出された場合(ステップS38でYES)には、撮影が行われる(ステップS42)。   If S2ON is not detected (NO in step S38), the process returns to the step of calculating the focus evaluation value (step S24). If S2ON is detected (YES in step S38), shooting is performed (step S42).

本実施の形態によれば、文章により合焦状態を伝えることにより、より分かりやすい表示形態でユーザーに合焦状態を伝えることができる。また、これによりユーザーは、容易に合焦状態を判断することができる。   According to the present embodiment, the in-focus state can be transmitted to the user in a display form that is easier to understand by transmitting the in-focus state by text. This also allows the user to easily determine the in-focus state.

なお、上記実施の形態では、合焦情報と合焦状態とが関連付けられて予めROM116に記録されており、これらの合焦情報を吹き出しの内部に表示したが、合焦情報をユーザーが入力できるようにしてもよい。この場合には、ユーザーが操作部112を介して合焦状態に応じた合焦情報を入力することにより、入力された合焦情報が合焦状態と関連付けてROM116に記録され、所望の領域に焦点があったかどうかの判断(ステップS26)結果に基づいて、ユーザーにより入力された合焦情報の中から合焦状態に応じた合焦情報が選択されて吹き出しの内部に表示される。なお、同一の合焦状態における合焦情報が複数ROM116に記録されている場合には、記録されている合焦情報のうちの最新の合焦情報を自動的に選択して表示するようにしてもよいし、ユーザーにより予め設定された合焦情報を表示するようにしてもよい。   In the above-described embodiment, the focus information and the focus state are associated with each other and recorded in the ROM 116 in advance. The focus information is displayed inside the balloon, but the user can input the focus information. You may do it. In this case, when the user inputs focus information corresponding to the focus state via the operation unit 112, the input focus information is recorded in the ROM 116 in association with the focus state, and is stored in a desired area. Based on the result of the determination of whether or not there is a focus (step S26), the focus information corresponding to the focus state is selected from the focus information input by the user and displayed inside the balloon. In addition, when the focusing information in the same focusing state is recorded in the plurality of ROMs 116, the latest focusing information among the recorded focusing information is automatically selected and displayed. Alternatively, focus information preset by the user may be displayed.

また、上記実施の形態では、顔が検出された場合には、顔の近傍に吹き出し等を表示したが、それに加えて、図10に示すように、顔が検出されたことを示す枠を顔に重ねて表示することで、どこに焦点を合わせるのかをより明確に示すことができる。また、吹き出しを表示する場所は、顔の近傍に限らず、顔検出部154で口を検出し、口から吹き出しが出ているような表示をしてもよい。   In the above embodiment, when a face is detected, a balloon or the like is displayed near the face. In addition, as shown in FIG. 10, a frame indicating that a face has been detected is displayed. By overlaying and displaying, it is possible to show more clearly where to focus. The place where the speech balloon is displayed is not limited to the vicinity of the face, but the mouth may be detected by the face detection unit 154, and a display may be made as if the speech balloon is coming out of the mouth.

また、上記実施の形態では、顔検出部154で顔又は顔とその表情を検出したが、顔検出部154において顔の動きすなわち主要被写体の動きを検出し、被写体の動きに応じた合焦情報を表示するようにしてもよい。つまり、顔検出部154により被写体の動きが検出された場合には、表示された「今だ!」などの合焦情報を振動させ、被写体の動きが検出されなくなった場合、すなわち被写体が静止した場合には、振動している「今だ!」などの合焦情報の振動を止めて、被写体が静止したことをユーザーに伝えるようにしてもよい。   Further, in the above embodiment, the face detection unit 154 detects the face or the face and its expression, but the face detection unit 154 detects the movement of the face, that is, the movement of the main subject, and focuses information corresponding to the movement of the subject. May be displayed. That is, when the movement of the subject is detected by the face detection unit 154, the displayed focus information such as “Now!” Is vibrated, and when the movement of the subject is not detected, that is, the subject is stationary. In this case, the vibration of the focus information such as “Now!” May be stopped and the user may be informed that the subject is stationary.

また、上記実施の形態では、吹き出し内部に表示された合焦情報によりユーザーに合焦状態を示したが、吹き出しの大きさを変えることによって合焦状態を示すようにしてもよい。例えば、最初は示すような小さな吹き出しが表示され(図12(a)参照)、合焦動作が進むにしたがって吹き出しを膨らませ(図12(b)参照)、合焦と共に最大の大きさで吹き出しを表示する(図12(c)参照)ようにしてもよい。   Moreover, in the said embodiment, although the focus state was shown to the user by the focus information displayed inside the balloon, you may make it show a focus state by changing the magnitude | size of a balloon. For example, a small balloon as shown is initially displayed (see FIG. 12 (a)), and the balloon is inflated as the focusing operation proceeds (see FIG. 12 (b)). You may make it display (refer FIG.12 (c)).

また、上記実施の形態では、顔を検出し、検出された顔に焦点を合わせたが、検出対象は顔に限らず、人物全体や、犬、猫、うさぎ等の動物や、車などを検出対象とし、検出されたものに対して焦点を合わせるようにしてもよい。なお、人物全体、動物、車などの検出については、公知の様々な技術を用いることができる。   In the above embodiment, the face is detected and the detected face is focused. However, the detection target is not limited to the face, but the whole person, animals such as dogs, cats, rabbits, cars, and the like are detected. The target may be focused on the detected object. It should be noted that various known techniques can be used for detecting an entire person, an animal, a car, and the like.

また、上記実施の形態では、顔が検出されなかった場合には、画面左下に吹き出しが表示されるが、これに限らず、人の顔、鳥などの動物などのアニメーションを表示させるようにしてもよい。例えば、図11に示すように鳥を画面左下に表示させ、鳥が話しているかのように、クチバチから吹き出しを表示させてもよい。また、吹き出し内部に、文字情報と図形情報とを表示するようにしてもよい。また、吹き出し内部に、合焦状態に合わせたアニメーションを表示するようにしてもよい。例えば、焦点が合っていない場合には笑顔でない顔のアイコンを表示し、焦点があった場合には笑顔のアイコンを表示するようにしてもよい。   In the above embodiment, when a face is not detected, a balloon is displayed at the lower left of the screen. However, the present invention is not limited to this, and animations such as human faces and animals such as birds are displayed. Also good. For example, as shown in FIG. 11, a bird may be displayed at the lower left of the screen, and a balloon may be displayed from a bee as if the bird is talking. Further, character information and graphic information may be displayed inside the balloon. Moreover, you may make it display the animation match | combined with the focused state inside the balloon. For example, a non-smiling face icon may be displayed when the subject is out of focus, and a smiling icon may be displayed when the subject is in focus.

なお、本発明の適用は、デジタルカメラに限定されるものではなく、カメラ付き携帯電話機やビデオカメラ等の撮像装置にも同様に適用することができる。   The application of the present invention is not limited to a digital camera, and can be similarly applied to an imaging apparatus such as a mobile phone with a camera and a video camera.

本発明が適用されたデジタルカメラの第1の実施の形態の正面斜視図である。1 is a front perspective view of a first embodiment of a digital camera to which the present invention is applied. 上記デジタルカメラの第1の実施の形態の背面図である。It is a rear view of 1st Embodiment of the said digital camera. 上記デジタルカメラの第1の実施の形態の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of 1st Embodiment of the said digital camera. 上記デジタルカメラの合焦表示の第1の実施の形態の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of 1st Embodiment of the focus display of the said digital camera. 合焦動作が終了していない場合の合焦表示の一例である。It is an example of a focus display when a focusing operation | movement is not complete | finished. 合焦動作が終了していない場合の合焦表示の一例である。It is an example of a focus display when a focusing operation | movement is not complete | finished. 合焦動作が終了していない場合の合焦表示の一例である。It is an example of a focus display when a focusing operation | movement is not complete | finished. 合焦動作が終了した場合の合焦表示の一例である。It is an example of a focus display when a focusing operation | movement is complete | finished. 上記デジタルカメラの合焦表示の第2の実施の形態の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of 2nd Embodiment of the focus display of the said digital camera. 合焦動作が終了した場合の合焦表示の一例である。It is an example of a focus display when a focusing operation | movement is complete | finished. 合焦動作が終了していない場合の合焦表示の一例である。It is an example of a focus display when a focusing operation | movement is not complete | finished. (a)は合焦動作開始直後の合焦表示の一例であり、(b)は合焦動作中の合焦表示の一例を示し、(c)は合焦時の合焦表示の一例である。(A) is an example of the focus display immediately after the start of the focusing operation, (b) shows an example of the focus display during the focusing operation, and (c) is an example of the focus display at the time of focusing. .

符号の説明Explanation of symbols

10…デジタルカメラ、12…カメラボディ、14…レンズ、16…ストロボ、18…ファインダ窓、20…セルフタイマランプ、22…AF補助光ランプ、24…ストロボ調光センサ、26…シャッターボタン、28…電源/モードスイッチ、30…モードダイヤル、32…モニタ、34…ファインダ接眼部、36…スピーカー、38…ズームボタン、40…十字ボタン、42…MENU/OKボタン、44…DISPボタン、46…BACKボタン、110…CPU、112…操作部、114…バス、116…ROM、118…EEPROM、120…メモリ(SDRAM)、122…VRAM、124…撮像素子(CCD)、126…タイミングジェネレータ(TG)、128…アナログ処理部(CDS/AMP)、130…A/D変換器、132…画像入力制御部、134…画像信号処理部、136…ビデオエンコーダ、138…文字MIX部、140…AF検出部、142…AE/AWB検出部、144…絞り駆動部、146…レンズ駆動部、148…圧縮伸張処理部、150…メディア制御部、152…記憶メディア、154…顔検出部、156…合焦表示作成部、160…ストロボ発光制御部 DESCRIPTION OF SYMBOLS 10 ... Digital camera, 12 ... Camera body, 14 ... Lens, 16 ... Strobe, 18 ... Viewfinder window, 20 ... Self-timer lamp, 22 ... AF auxiliary light lamp, 24 ... Strobe light control sensor, 26 ... Shutter button, 28 ... Power / mode switch, 30 ... mode dial, 32 ... monitor, 34 ... finder eyepiece, 36 ... speaker, 38 ... zoom button, 40 ... cross button, 42 ... MENU / OK button, 44 ... DISP button, 46 ... BACK 110, CPU, 112, operation unit, 114, bus, 116, ROM, 118, EEPROM, 120, memory (SDRAM), 122, VRAM, 124, image sensor (CCD), 126, timing generator (TG), 128: Analog processing unit (CDS / AMP), 130: A / D conversion 132 ... Image input control unit 134 ... Image signal processing unit 136 ... Video encoder 138 ... Character MIX unit 140 ... AF detection unit 142 ... AE / AWB detection unit 144 ... Aperture drive unit 146 ... Lens Drive unit, 148 ... compression / decompression processing unit, 150 ... media control unit, 152 ... storage medium, 154 ... face detection unit, 156 ... focus display creation unit, 160 ... strobe light emission control unit

Claims (9)

被写体を撮像する撮像手段と、
前記撮像手段を介して被写体を示す画像信号を連続的に取得する画像取得手段と、
前記取得した画像信号に基づいてスルー画像を表示する表示手段と、
前記取得した画像信号に基づいて被写体のコントラストが最大になるように自動的に焦点調節を行う自動焦点調節手段と、
前記自動焦点調節手段による被写体の合焦状態を検出する合焦状態検出手段と、
前記表示手段のスルー画像上に合焦情報を表示するための表示領域を合成するとともに、前記合成状態検出手段によって検出された合焦状態に応じて、少なくとも非合焦時と合焦時とで変化する合焦情報を前記表示領域に合成する表示制御手段と、
を備えたことを特徴とする撮像装置。
Imaging means for imaging a subject;
Image acquisition means for continuously acquiring image signals indicating the subject via the imaging means;
Display means for displaying a through image based on the acquired image signal;
Automatic focus adjusting means for automatically adjusting the focus so that the contrast of the subject is maximized based on the acquired image signal;
In-focus state detecting means for detecting the in-focus state of the subject by the automatic focus adjusting means;
The display area for displaying the focus information on the through image of the display means is synthesized, and at least in the out-of-focus state and in the focus state according to the focus state detected by the composite state detection means. Display control means for synthesizing varying focus information in the display area;
An imaging apparatus comprising:
前記取得した画像信号から被写体の顔を検出する顔検出手段を備え、
前記自動焦点調節手段は、前記顔検出手段によって顔が検出されると、その検出された顔にピントを合わせるように自動焦点調節を行う
ことを特徴とする請求項1に記載の撮像装置。
A face detecting means for detecting the face of the subject from the acquired image signal;
The imaging apparatus according to claim 1, wherein when the face is detected by the face detection unit, the automatic focus adjustment unit performs automatic focus adjustment so as to focus on the detected face.
前記表示制御手段は、前記表示手段のスルー画像上に表示される表示領域を、前記顔検出手段によって検出された顔の近傍に合成することを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the display control unit synthesizes a display area displayed on the through image of the display unit in the vicinity of the face detected by the face detection unit. 前記表示制御手段によって前記表示手段のスルー画像上に表示される表示領域は、吹き出し形状を有することを特徴とする請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein a display area displayed on the through image of the display unit by the display control unit has a balloon shape. 合焦状態に応じた合焦情報であって、少なくとも非合焦時の合焦情報及び合焦時の合焦情報を記憶する記憶手段を備え、
前記表示制御手段は、前記記憶手段に記憶された合焦情報を前記表示領域に合成することを特徴とする請求項1から4のいずれかに記載の撮像装置。
A storage unit that stores in-focus information according to the in-focus state, at least in-focus information at the time of out-of-focus and in-focus information at the time of in-focus;
5. The imaging apparatus according to claim 1, wherein the display control unit combines the focus information stored in the storage unit with the display region.
合焦状態に応じた合焦情報を入力する入力手段を備え、
前記記憶手段は、前記入力手段により入力された合焦情報を記憶し、
前記表示制御手段は、前記記憶手段に同一の合焦状態に応じた合焦情報が複数記憶されている場合には、複数の合焦情報のうちの所望の合焦情報を選択して前記表示領域に合成することを特徴とする請求項5に記載の撮像装置。
An input means for inputting in-focus information corresponding to the in-focus state,
The storage means stores the focusing information input by the input means,
When a plurality of pieces of focusing information corresponding to the same focusing state are stored in the storage unit, the display control unit selects the desired focusing information from the plurality of focusing information and displays the focusing information. The imaging device according to claim 5, wherein the imaging device is synthesized into a region.
前記表示制御手段は、前記合焦状態検出手段により焦点調整中であることが検出された場合には、前記合焦情報を、前記非合焦時の合焦情報から前記合焦時の合焦情報へと遷移させることを特徴とする請求項5又は6に記載の撮像装置。   When the focus state detecting unit detects that the focus is being adjusted, the display control unit converts the focus information from the focus information at the time of out-of-focus to the focus at the time of focus. The imaging apparatus according to claim 5 or 6, wherein transition to information is performed. 前記顔検出手段は、被写体の顔及び表情を検出し、
前記表示制御手段は、前記顔検出手段により検出された表情に応じた合焦情報を前記表示領域に合成することを特徴とする請求項2から6のいずれかに記載の撮像装置。
The face detection means detects the face and expression of the subject,
The imaging apparatus according to claim 2, wherein the display control unit synthesizes focus information corresponding to the facial expression detected by the face detection unit in the display area.
前記表示制御手段は、前記合焦状態検出手段の検出結果に応じて前記表示領域の大きさを変更することを特徴とする請求項1から8のいずれかに記載の撮像装置。   The imaging apparatus according to claim 1, wherein the display control unit changes a size of the display area according to a detection result of the in-focus state detection unit.
JP2007227110A 2007-08-31 2007-08-31 Imaging device Abandoned JP2009058834A (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2007227110A JP2009058834A (en) 2007-08-31 2007-08-31 Imaging device
US12/196,090 US8106998B2 (en) 2007-08-31 2008-08-21 Image pickup apparatus and focusing condition displaying method
TW97132471A TWI471005B (en) 2007-08-31 2008-08-26 Image pickup apparatus and focusing condition displaying method
EP10004993A EP2219368A1 (en) 2007-08-31 2008-08-28 Image pickup apparatus and focusing condition displaying method
EP08252846A EP2031866A3 (en) 2007-08-31 2008-08-28 Image pickup apparatus and focusing condition displaying method
CN2008102149316A CN101382721B (en) 2007-08-31 2008-08-29 Image pickup apparatus and focusing condition displaying method
KR1020080085560A KR20090023310A (en) 2007-08-31 2008-08-29 How to display the imaging device and focus conditions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007227110A JP2009058834A (en) 2007-08-31 2007-08-31 Imaging device

Publications (2)

Publication Number Publication Date
JP2009058834A true JP2009058834A (en) 2009-03-19
JP2009058834A5 JP2009058834A5 (en) 2010-04-08

Family

ID=40462628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007227110A Abandoned JP2009058834A (en) 2007-08-31 2007-08-31 Imaging device

Country Status (2)

Country Link
JP (1) JP2009058834A (en)
CN (1) CN101382721B (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011019051A (en) * 2009-07-08 2011-01-27 Sony Ericsson Mobilecommunications Japan Inc Photographing device and photographing control method
JP2011070267A (en) * 2009-09-24 2011-04-07 Casio Computer Co Ltd Image display device, method, and program
TWI407235B (en) * 2009-07-22 2013-09-01 Hon Hai Prec Ind Co Ltd Auto focus system and method same
US8610817B2 (en) 2010-12-28 2013-12-17 Canon Kabushiki Kaisha Image-capturing apparatus and control method therefor
US9638985B1 (en) 2015-12-02 2017-05-02 Nanning Fugui Precision Industrial Co., Ltd. Adjusting device of focusing curve of camera lens motor and method
JP2017138478A (en) * 2016-02-03 2017-08-10 キヤノン株式会社 Display control apparatus, control method therefor, program, and storage medium
JPWO2018230510A1 (en) * 2017-06-13 2020-04-16 ソニー株式会社 Image processing apparatus, image processing method, and imaging system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104954680A (en) * 2015-06-16 2015-09-30 深圳市金立通信设备有限公司 Camera focusing method and terminal
CN108322652A (en) * 2015-06-16 2018-07-24 广东欧珀移动通信有限公司 A focusing prompt method and terminal

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4364465B2 (en) * 2001-09-18 2009-11-18 株式会社リコー Imaging device
JP4344299B2 (en) * 2004-09-16 2009-10-14 富士通マイクロエレクトロニクス株式会社 Imaging apparatus and autofocus focusing time notification method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011019051A (en) * 2009-07-08 2011-01-27 Sony Ericsson Mobilecommunications Japan Inc Photographing device and photographing control method
TWI407235B (en) * 2009-07-22 2013-09-01 Hon Hai Prec Ind Co Ltd Auto focus system and method same
JP2011070267A (en) * 2009-09-24 2011-04-07 Casio Computer Co Ltd Image display device, method, and program
US8793129B2 (en) 2009-09-24 2014-07-29 Casio Computer Co., Ltd. Image display device for identifying keywords from a voice of a viewer and displaying image and keyword
US8610817B2 (en) 2010-12-28 2013-12-17 Canon Kabushiki Kaisha Image-capturing apparatus and control method therefor
US9638985B1 (en) 2015-12-02 2017-05-02 Nanning Fugui Precision Industrial Co., Ltd. Adjusting device of focusing curve of camera lens motor and method
TWI585507B (en) * 2015-12-02 2017-06-01 鴻海精密工業股份有限公司 Adjusting method and device of focusing curve of camera lens
JP2017138478A (en) * 2016-02-03 2017-08-10 キヤノン株式会社 Display control apparatus, control method therefor, program, and storage medium
JPWO2018230510A1 (en) * 2017-06-13 2020-04-16 ソニー株式会社 Image processing apparatus, image processing method, and imaging system

Also Published As

Publication number Publication date
CN101382721B (en) 2012-09-19
CN101382721A (en) 2009-03-11

Similar Documents

Publication Publication Date Title
JP4904108B2 (en) Imaging apparatus and image display control method
TWI355851B (en) Image pickup device and image pickup method
JP4135100B2 (en) Imaging device
US7889985B2 (en) Imaging apparatus
TWI514847B (en) Image processing device, image processing method, and recording medium
JP2009094725A (en) Imaging method and apparatus
TWI459126B (en) Image processing device, image processing method and recording medium capable of generating wide-angle image
JP4730667B2 (en) Automatic regeneration method and apparatus
JP2009058834A (en) Imaging device
JP2006033241A (en) Image pickup device and image acquiring means
JP2008182485A (en) Imaging apparatus and imaging method
JP2004254256A (en) Camera device, display method and program
JP5048614B2 (en) Imaging apparatus and method
JP2008005035A (en) Imaging device
JP2006203811A (en) Imaging apparatus and program thereof
JP2009033544A (en) Image capturing apparatus, image capturing apparatus control method, and program
JP4730553B2 (en) Imaging apparatus and exposure control method
JP2005229326A (en) Camera device and through image display method
JP2010141609A (en) Imaging apparatus
JP2008298847A (en) Photography method and digital camera
JP4852504B2 (en) Imaging apparatus and focus state display method
JP4049291B2 (en) Digital still camera
JP2009139423A (en) Imaging apparatus and subject distance calculation method
JP4553134B2 (en) Image generating apparatus and program thereof
JP2009141978A (en) Camera device, through image display method and program thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20110630