[go: up one dir, main page]

JP2012119858A - Imaging device, imaging method, and program - Google Patents

Imaging device, imaging method, and program Download PDF

Info

Publication number
JP2012119858A
JP2012119858A JP2010266733A JP2010266733A JP2012119858A JP 2012119858 A JP2012119858 A JP 2012119858A JP 2010266733 A JP2010266733 A JP 2010266733A JP 2010266733 A JP2010266733 A JP 2010266733A JP 2012119858 A JP2012119858 A JP 2012119858A
Authority
JP
Japan
Prior art keywords
image
scene
images
photographing
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010266733A
Other languages
Japanese (ja)
Inventor
Hidehiko Sato
秀彦 佐藤
Junzo Sakurai
順三 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AOF IMAGING TECHNOLOGY Ltd
Original Assignee
AOF IMAGING TECHNOLOGY Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AOF IMAGING TECHNOLOGY Ltd filed Critical AOF IMAGING TECHNOLOGY Ltd
Priority to JP2010266733A priority Critical patent/JP2012119858A/en
Priority to US13/297,561 priority patent/US20120133797A1/en
Priority to CN2011103963144A priority patent/CN102487431A/en
Publication of JP2012119858A publication Critical patent/JP2012119858A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Exposure Control For Cameras (AREA)
  • Stroboscope Apparatuses (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device, an imaging method, and a program which enable capturing an image of a good quality by automatically selecting an imaging method corresponding to the scene.SOLUTION: The imaging device sorts an imaged scene on the basis of an image for live viewing captured before a shutter button is pressed. When the imaged scene is sorted as a night view scene, a continuous shooting function is set automatically to be on and whenever a user presses the shutter button once, plural images are captured continuously. Moreover, the images captured continuously are composed such that the content of the composition is switched between when bright and moving fireworks etc. are imaged and when a person is imaged with the bright and moving fireworks etc. as the background.

Description

本発明は、撮影装置、撮影方法、およびプログラムに関し、特に、シーンに応じた撮影方法を自動的に選択し、より画質のよい画像を撮影することができるようにした撮影装置、撮影方法、およびプログラムに関する。   The present invention relates to a photographing apparatus, a photographing method, and a program, and in particular, a photographing apparatus, a photographing method, and a photographing method capable of automatically selecting a photographing method according to a scene and photographing a higher quality image. Regarding the program.

近年販売されているデジタルカメラの多くには、ポートレートモード、風景モード、夜景モードなどの、撮影シーンに適したモードで撮影を行うことができる機能が搭載されている。例えば、風景を撮影する場合、ユーザは、風景モードを選択するだけで絞り値を高めにするなどの、各種のパラメータの値として風景の撮影に最適な値を設定することができる。   Many digital cameras sold in recent years are equipped with a function capable of shooting in a mode suitable for a shooting scene such as a portrait mode, a landscape mode, and a night view mode. For example, when shooting a landscape, the user can set optimum values for shooting a landscape as the values of various parameters, such as increasing the aperture value simply by selecting the landscape mode.

また、夜景モードが選択されている場合、シャッタボタンが一度押されることに応じて複数の画像を撮影し、得られた複数の画像の合成を行うデジタルカメラも提案されている。複数の画像を合成することによって、ダイナミックレンジが拡張された適正な露出の画像を得ることが可能になる。   There has also been proposed a digital camera that captures a plurality of images in response to the shutter button being pressed once when the night view mode is selected, and combines the obtained plurality of images. By combining a plurality of images, it is possible to obtain an image with an appropriate exposure with an extended dynamic range.

例えば、特許文献1には、夜景を背景にしている人物を撮影する場合、低感度かつフラッシュ発光ONでの撮影と、高感度かつフラッシュ発光OFFでの撮影を続けて行い、先の撮影で得られた画像から人物の領域を抽出し、後の撮影で得られた画像の人物の領域の部分に合成する技術が開示されている。   For example, in Patent Document 1, when shooting a person against a background of a night view, low-sensitivity shooting with flash on and high-sensitivity shooting with flash off are continuously performed. A technique is disclosed in which a person area is extracted from an obtained image and is combined with a person area portion of an image obtained by subsequent shooting.

特開2005−86488号公報JP 2005-86488 A

特許文献1に開示されている技術では、手ぶれを抑えるためにシャッタスピードが制限され、特に背景である夜景の部分が適正な露出にならないことがある。一般的に、シャッタスピードを1/焦点距離より長い時間として撮影を行った場合、手ぶれが生じてしまう。また、花火などの、暗闇の中で明るく動く物体を背景として撮影する場合、シャッタスピードの設定などが必要になるが一般のユーザにとっては困難である。   In the technique disclosed in Patent Document 1, the shutter speed is limited in order to suppress camera shake, and in particular, the night scene portion that is the background may not be properly exposed. In general, when shooting is performed with a shutter speed longer than 1 / focal length, camera shake occurs. Also, when shooting an object that moves brightly in the dark, such as fireworks, as a background, it is necessary for the user to set the shutter speed, which is difficult for general users.

本発明の目的は、シーンに応じた撮影方法を自動的に選択し、より画質のよい画像を撮影することができる撮影装置、撮影方法、およびプログラムを提供することである。   An object of the present invention is to provide a photographing apparatus, a photographing method, and a program capable of automatically selecting a photographing method according to a scene and photographing a higher quality image.

本発明の一側面は、撮影手段と、シャッタボタンが操作される前に前記撮影手段により撮影された画像を解析し、撮影が行われているシーンの分類を行うシーン分類手段と、前記シーン分類手段により分類されたシーンが、夜景を被写体として含むシーンである夜景シーンである場合、前記シャッタボタンが操作されたときに複数の画像の撮影が連続して行われるように前記撮影手段を制御する制御手段とを備えることを特徴とする。   One aspect of the present invention is an image capturing unit, a scene classifying unit that analyzes an image captured by the image capturing unit before the shutter button is operated, and classifies a scene that is being captured, and the scene classification. When the scene classified by the means is a night scene that is a scene including a night view as a subject, the photographing means is controlled so that a plurality of images are photographed continuously when the shutter button is operated. And a control means.

本発明の一側面は、撮影手段を備える撮影装置の撮影方法において、シャッタボタンが操作される前に前記撮影手段により撮影された画像を解析し、撮影が行われているシーンの分類を行うシーン分類ステップと、前記シーン分類ステップの処理により分類されたシーンが、夜景を被写体として含むシーンである夜景シーンである場合、前記シャッタボタンが操作されたときに複数の画像の撮影が連続して行われるように前記撮影手段を制御する制御ステップとを含むことを特徴とする。   One aspect of the present invention is a shooting method of a shooting apparatus including a shooting unit, wherein a scene that analyzes an image shot by the shooting unit before a shutter button is operated and classifies a scene in which the shooting is performed When the scene classified by the classification step and the scene classification step is a night scene that is a scene including a night scene as a subject, a plurality of images are continuously captured when the shutter button is operated. And a control step for controlling the photographing means.

本発明の一側面は、撮影手段を備える撮影装置の撮影処理をコンピュータに実行させるプログラムにおいて、シャッタボタンが操作される前に前記撮影手段により撮影された画像を解析し、撮影が行われているシーンの分類を行うシーン分類ステップと、前記シーン分類ステップの処理により分類されたシーンが、夜景を被写体として含むシーンである夜景シーンである場合、前記シャッタボタンが操作されたときに複数の画像の撮影が連続して行われるように前記撮影手段を制御する制御ステップとを含む処理をコンピュータに実行させることを特徴とする。   According to one aspect of the present invention, in a program for causing a computer to execute a shooting process of a shooting apparatus including a shooting unit, an image shot by the shooting unit is analyzed before a shutter button is operated, and shooting is performed. When a scene classification step for classifying a scene and a scene classified by the processing of the scene classification step are night scenes that include night scenes as subjects, a plurality of images are displayed when the shutter button is operated. The computer is caused to execute processing including a control step of controlling the photographing means so that photographing is continuously performed.

本発明によれば、シーンに応じた撮影方法を自動的に選択し、より画質のよい画像を撮影することができる撮影装置、撮影方法、およびプログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging | photography apparatus, the imaging | photography method, and program which can select the imaging | photography method according to a scene automatically and can image | photograph a higher quality image can be provided.

本実施形態に係る撮影装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device which concerns on this embodiment. 撮影装置の機能について説明する図である。It is a figure explaining the function of an imaging device. 撮影装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of an imaging device. 被写体に花火が含まれているか否かの判定方法について説明する図である。It is a figure explaining the determination method whether a to-be-photographed object contains fireworks. 最大値合成について説明する図である。It is a figure explaining maximum value composition. 人物領域の抽出の流れを説明する図である。It is a figure explaining the flow of extraction of a person area. 撮影シーンの例を示す図である。It is a figure which shows the example of an imaging | photography scene. マスクデータの例を示す図である。It is a figure which shows the example of mask data. マスクデータの修正の例を示す図である。It is a figure which shows the example of correction of mask data. ブレンドマップの例を示す図である。It is a figure which shows the example of a blend map. 撮影装置の撮影処理について説明するフローチャートである。It is a flowchart explaining the imaging | photography process of an imaging device. 撮影装置の撮影処理について説明する、図11に続くフローチャートである。FIG. 12 is a flowchart following FIG. 11 for describing photographing processing of the photographing apparatus.

[撮影装置の構成]
図1は、本実施形態に係る撮影装置1の構成例を示すブロック図である。撮影装置1は、デジタルスチルカメラ、デジタルビデオカメラ、携帯電話機などの、静止画の撮影機能を有する装置である。
[Configuration of Shooting Device]
FIG. 1 is a block diagram illustrating a configuration example of a photographing apparatus 1 according to the present embodiment. The photographing apparatus 1 is an apparatus having a still image photographing function, such as a digital still camera, a digital video camera, and a mobile phone.

CPU(Central Processing Unit)11は、所定のプログラムを実行し、撮影装置1の全体の動作を制御する。後述するように、CPU11は、ユーザが撮影しようとしているシーンをシャッタボタンが押される前に分類する。撮影シーンの分類は、CMOS(Complementary Metal Oxide Semiconductor)センサ12により取り込まれたライブビュー用の画像に基づいて行われる。CPU11は、シャッタボタンが押されたとき、CMOSセンサ12を制御して連続して撮影を行ったりストロボ17を発光させたりして、予め分類していた撮影シーンに最適な撮影処理を実行する。   A CPU (Central Processing Unit) 11 executes a predetermined program and controls the overall operation of the photographing apparatus 1. As will be described later, the CPU 11 classifies scenes that the user is about to shoot before the shutter button is pressed. The shooting scenes are classified based on live view images captured by a CMOS (Complementary Metal Oxide Semiconductor) sensor 12. When the shutter button is pressed, the CPU 11 controls the CMOS sensor 12 to perform continuous shooting or cause the flash 17 to emit light, and executes a shooting process optimal for the shooting scenes that have been classified in advance.

CMOSセンサ12は、レンズにより取り込まれた光の光電変換を行い、光電変換によって得られた画像信号のA/D(Analog/Digital)変換を行う。CMOSセンサ12は、A/D変換によって得られた画像データをメモリ13に記憶させる。   The CMOS sensor 12 performs photoelectric conversion of light captured by the lens, and performs A / D (Analog / Digital) conversion of an image signal obtained by the photoelectric conversion. The CMOS sensor 12 stores image data obtained by A / D conversion in the memory 13.

画像処理部14は、シャッタボタンが押される前にCMOSセンサ12により撮影され、メモリ13に記憶された画像をライブビュー用画像としてメモリ13から読み出し、LCD(Liquid Crystal Display)16に表示させる。また、画像処理部14は、ユーザの撮影しようとしている撮影シーンが夜景シーンであるとCPU11により分類された場合、シャッタボタンが押されることに応じて連続して撮影された複数の画像を合成し、1枚の合成画像を出力部15またはLCD16に出力することなどを行う。CPU11から画像処理部14に対しては、撮影シーンの分類結果を表す情報が供給される。さらに、画像処理部14は、ユーザの撮影しようとしている撮影シーンが夜景ではなく屋外等の通常シーンであるとCPU11により分類された場合、1枚の画像を撮影し、撮像画像に対してホワイトバランス処理、輪郭強調処理などの各種の画像処理を施す。   The image processing unit 14 reads an image captured by the CMOS sensor 12 and stored in the memory 13 before the shutter button is pressed from the memory 13 as a live view image, and displays the image on an LCD (Liquid Crystal Display) 16. In addition, when the CPU 11 classifies that the shooting scene that the user is shooting is a night scene, the image processing unit 14 synthesizes a plurality of images that are continuously shot in response to the shutter button being pressed. For example, one composite image is output to the output unit 15 or the LCD 16. Information representing the classification result of the shooting scene is supplied from the CPU 11 to the image processing unit 14. Further, when the CPU 11 classifies that the shooting scene that the user is going to shoot is a normal scene such as an outdoor scene instead of a night view, the image processing unit 14 captures one image and performs white balance on the captured image. Various image processing such as processing and contour enhancement processing are performed.

出力部15は、画像処理部14により生成された合成画像を、撮影装置1に対して着脱可能なメモリカードに記憶させたり、外部の装置に送信したりする。LCD16は、画像処理部14から供給されたライブビュー用画像または合成画像を表示する。   The output unit 15 stores the composite image generated by the image processing unit 14 in a memory card that can be attached to and detached from the photographing apparatus 1 or transmits it to an external device. The LCD 16 displays the live view image or the composite image supplied from the image processing unit 14.

ストロボ17は、CPU11による制御に従って発光し、被写体に光を照射する。操作部18はシャッタボタンなどの各種のボタンにより構成され、ボタンが操作されたとき、ユーザの操作の内容を表す信号をCPU11に出力する。   The strobe 17 emits light according to control by the CPU 11 and irradiates the subject with light. The operation unit 18 includes various buttons such as a shutter button. When the button is operated, the operation unit 18 outputs a signal representing the content of the user operation to the CPU 11.

図2は、以上のような構成を有する撮影装置1の撮影処理を概念的に示した図である。撮影シーンが夜景シーンであると分類された場合、連写機能が自動的にONに設定され、ユーザによりシャッタボタンが1回押されることに応じて、図2に示すように連続して複数の画像の撮影が行われる。図2の例においては2枚の画像が連写機能によって得られる。   FIG. 2 is a diagram conceptually showing the photographing process of the photographing apparatus 1 having the above configuration. When the shooting scene is classified as a night scene, the continuous shooting function is automatically set to ON, and a plurality of images are continuously displayed as shown in FIG. 2 in response to the user pressing the shutter button once. An image is taken. In the example of FIG. 2, two images are obtained by the continuous shooting function.

また、上述したように、連続して撮影された画像の合成が撮影装置1において行われるが、その合成処理の内容が、例えば、矢印#1の先に示すように、明るく動きのある花火などを撮影している場合と、矢印#2の先に示すように、明るく動きのある花火などを背景として人物を撮影している場合とで切り替えられる。以下、背景に対して明るく動きのある被写体が花火である場合について説明するが、自動車のヘッドライトなどの他の被写体を撮影する場合にも同様の処理を適用することが可能である。   Further, as described above, the continuously captured images are combined in the image capturing apparatus 1, and the content of the combining processing is, for example, a bright and moving firework as indicated by the tip of arrow # 1. And a case where a person is photographed against a background of bright and moving fireworks as indicated by the tip of arrow # 2. Hereinafter, a case where a subject moving brightly with respect to the background is fireworks will be described, but the same processing can be applied to photographing other subjects such as a headlight of an automobile.

図3は、図2を参照して説明した撮影処理を実現するための撮影装置1の機能構成例を示すブロック図である。図3に示す機能部のうちの少なくとも一部は、図1のCPU11により所定のプログラムが実行されることによって実現される。   FIG. 3 is a block diagram illustrating a functional configuration example of the imaging apparatus 1 for realizing the imaging process described with reference to FIG. At least a part of the functional units shown in FIG. 3 is realized by the CPU 11 shown in FIG. 1 executing a predetermined program.

図3に示すように、撮影装置1においては、シーン分類部31、顔検出部32、および撮影制御部33が実現される。CMOSセンサ12により撮影され、メモリ13に記憶された画像はシーン分類部31と顔検出部32に入力される。   As shown in FIG. 3, in the photographing apparatus 1, a scene classification unit 31, a face detection unit 32, and a photographing control unit 33 are realized. Images captured by the CMOS sensor 12 and stored in the memory 13 are input to the scene classification unit 31 and the face detection unit 32.

シーン分類部31は、シャッタボタンが押される前にライブビュー用として撮影された画像を解析し、ポートレートシーン、風景シーン、夜景シーンなどの予め設定されている複数のシーンの中から、ユーザが撮影しようとしているシーンを分類する。例えば、肌色の画素の数が閾値より多い画像が撮影された場合、撮影シーンがポートレートシーンであるとして分類され、緑色や空色の画素の数が閾値より多い画像が撮影された場合、撮影シーンが風景シーンであるとして分類される。黒色の画素の数が閾値より多く、黒色の画素の領域に輝度値の高い画素が含まれている画像が撮影された場合、撮影シーンが夜景シーンであるとして分類される。   The scene classification unit 31 analyzes an image captured for live view before the shutter button is pressed, and the user selects a plurality of preset scenes such as a portrait scene, a landscape scene, and a night scene. Classify the scene you are about to shoot. For example, if an image with a number of skin color pixels greater than the threshold is captured, the scene is classified as a portrait scene, and if an image with more green or sky blue pixels than the threshold is captured, Is classified as a landscape scene. When an image in which the number of black pixels is larger than the threshold and a black pixel region includes a pixel with a high luminance value is captured, the captured scene is classified as a night scene.

また、シーン分類部31は、撮影シーンが夜景シーンであると分類した場合、撮影された画像に基づいて、被写体に花火が含まれているか否かを判定する。   When the scene classification unit 31 classifies the captured scene as a night scene, the scene classification unit 31 determines whether or not the subject includes fireworks based on the captured image.

図4は、被写体に花火が含まれているか否かの判定方法について説明する図である。図4の縦軸は時刻を表し、左側に示す4枚の画像はそれぞれライブビュー用画像である。図4においては、画像上の位置を各画像の左上隅を基準(0,0)として説明する。   FIG. 4 is a diagram illustrating a method for determining whether or not a subject includes fireworks. The vertical axis in FIG. 4 represents time, and the four images shown on the left are live view images. In FIG. 4, the position on the image will be described with the upper left corner of each image as the reference (0, 0).

シーン分類部31は、時刻t0に撮影された画像を解析し、最も明るいブロック(画素の集まり)の座標が(5,5)付近であり、画像全体の平均の明るさが、他の画像と較べて相対的にやや明るいことを検出する。また、シーン分類部31は、時刻t0から所定時間経過後の時刻t1に撮影された画像を解析し、最も明るいブロックの座標が不明であり、画像全体の平均の明るさが、他の画像と較べて相対的に暗いことを検出する。時刻t1に撮影された画像には、打ち上げ直後の花火が写っている。   The scene classification unit 31 analyzes the image taken at time t0, the coordinates of the brightest block (collection of pixels) are near (5, 5), and the average brightness of the entire image is different from that of other images. It is detected that it is relatively brighter than that. In addition, the scene classification unit 31 analyzes an image captured at time t1 after a predetermined time has elapsed from time t0, the coordinates of the brightest block are unknown, and the average brightness of the entire image is different from that of other images. It is detected that it is relatively dark compared to it. The image taken at time t1 shows fireworks immediately after launch.

同様に、シーン分類部31は、時刻t1から所定時間経過後の時刻t2に撮影された画像を解析し、最も明るいブロックの座標が(9,6)付近または(21,13)付近であり、画像全体の平均の明るさが、他の画像と較べて相対的に明るいことを検出する。シーン分類部31は、時刻t2から所定時間経過後の時刻t3に撮影された画像を解析し、最も明るいブロックの座標が(14,5)付近であり、画像全体の平均の明るさが、他の画像と較べて相対的にやや明るいことを検出する。   Similarly, the scene classification unit 31 analyzes an image photographed at a time t2 after a lapse of a predetermined time from the time t1, and the coordinates of the brightest block are near (9, 6) or (2 1, 13). It is detected that the average brightness of the entire image is relatively bright compared to other images. The scene classification unit 31 analyzes an image taken at time t3 after a predetermined time has elapsed from time t2, and the coordinates of the brightest block are near (14, 5), and the average brightness of the entire image is other than It is detected that it is relatively brighter than the image of.

例えば、シーン分類部31は、このような解析を行い、画像内で最も明るいブロックの位置が刻々と変化するとともに、画像全体の明るさが刻々と変化していることに基づいて、被写体に花火が含まれていると判定する。なお、被写体に花火が含まれているか否かの判定は、画像内で最も明るいブロックの位置が刻々と変化していることと、画像全体の明るさが刻々と変化していることのいずれか一方に基づいて行われるようにしてもよい。   For example, the scene classification unit 31 performs such an analysis, and based on the fact that the position of the brightest block in the image changes every moment and the brightness of the entire image changes every moment, Is determined to be included. Whether or not the subject contains fireworks is determined by either changing the position of the brightest block in the image or changing the brightness of the entire image. You may make it perform based on one side.

また、撮影装置1にマイクロフォンが設けられている場合、マイクロフォンにより集音された音の音量がシーン分類部31により解析され、画像全体の明るさと音量が比例しているときに、被写体に花火が含まれているとして判定されるようにしてもよい。花火の明るさが明るいほど、観客による歓声や騒音などの音の音量も大きくなるものと考えられる。さらに、撮影装置1の姿勢を検出するセンサが設けられている場合、センサにより検出された撮影装置1の姿勢が、水平方向に対して平行か、もしくは上(空側)を向いているときに、被写体に花火が含まれているとして判定されるようにしてもよい。花火を撮影する場合、通常、ユーザは撮影装置1を水平より上に向けて撮影を行う。   In addition, when the photographing apparatus 1 is provided with a microphone, the volume of the sound collected by the microphone is analyzed by the scene classification unit 31, and when the brightness of the entire image is proportional to the volume, fireworks are generated on the subject. It may be determined that it is included. It is considered that the brighter the fireworks, the louder the sound of the audience, such as cheers and noises. Further, when a sensor for detecting the posture of the photographing apparatus 1 is provided, the posture of the photographing apparatus 1 detected by the sensor is parallel to the horizontal direction or facing upward (sky side). Alternatively, it may be determined that the subject includes fireworks. When shooting fireworks, the user usually takes a picture with the photographing device 1 facing above the horizontal.

このようにすれば、たとえば、容易に、または正確に被写体に花火が含まれているか否かを判定することができる。   In this way, for example, it can be easily or accurately determined whether or not the subject includes fireworks.

シーン分類部31は、以上のようにして分類した撮影シーンの情報と、撮影シーンが夜景シーンであると分類した場合には被写体に花火が含まれているか否かを表す情報を撮影制御部33と画像処理部14に出力する。   The scene classification unit 31 includes information on the shooting scenes classified as described above and information indicating whether or not the subject includes fireworks when the shooting scene is classified as a night scene. And output to the image processing unit 14.

顔検出部32は、シャッタボタンが押される前にライブビュー用として撮影された画像を解析し、撮影された画像から人の顔を検出する。例えば、顔検出部32は、予め用意されている顔の特徴と、撮影された画像の各領域の特徴とをマッチングすることによって人の顔を検出する。顔検出部32は、検出結果に応じて、人の顔が写っているか否かを表す情報を撮影制御部33と画像処理部14に出力する。   The face detection unit 32 analyzes an image captured for live view before the shutter button is pressed, and detects a human face from the captured image. For example, the face detection unit 32 detects a human face by matching a feature of a face prepared in advance with a feature of each area of a captured image. The face detection unit 32 outputs information indicating whether or not a human face is captured to the imaging control unit 33 and the image processing unit 14 according to the detection result.

撮影制御部33は、シーン分類部31と顔検出部32から供給された情報に基づいて撮影モードを設定し、ユーザによりシャッタボタンが押されたとき、設定した撮影モードに従ってCMOSセンサ12とストロボ17を制御して撮影を行う。   The shooting control unit 33 sets a shooting mode based on the information supplied from the scene classification unit 31 and the face detection unit 32, and when the user presses the shutter button, the CMOS sensor 12 and the flash 17 are set according to the set shooting mode. To control shooting.

例えば、撮影制御部33は、撮影シーンが夜景シーンであるとシーン分類部31により分類された場合、連写撮影をONに設定する。撮影制御部33は、シャッタボタンがユーザにより押された場合、その設定に従ってCMOSセンサ12を制御し、複数の画像を連続して撮影する。   For example, when the scene classification unit 31 classifies the shooting scene as a night scene, the shooting control unit 33 sets continuous shooting to ON. When the shutter button is pressed by the user, the shooting control unit 33 controls the CMOS sensor 12 according to the setting and continuously takes a plurality of images.

また、撮影制御部33は、撮影シーンが夜景シーンであると分類され、顔検出部32により人の顔が検出された場合において、シャッタボタンがユーザにより押されることに応じて複数の画像を連続して撮影するとき、最初の撮影時、または最後の撮影時のいずれかにストロボ17を発光させる。ストロボ17の光は人物を照射し、ストロボ17の発光ありで撮影された最初または最後の画像には、人物が明るく写っていることになる。   In addition, when the shooting scene is classified as a night scene and the human face is detected by the face detection unit 32, the shooting control unit 33 continuously displays a plurality of images in response to the user pressing the shutter button. When shooting, the strobe 17 is caused to emit light either at the first shooting or at the last shooting. The light of the strobe 17 illuminates the person, and the person is brightly reflected in the first or last image taken with the light emission of the strobe 17.

このように、撮影装置1においては、撮影シーンが夜景シーンであると分類された場合、連写撮影が行われるように撮影モードの設定が行われる。また、撮影シーンが夜景シーンであると分類された場合において、人の顔が検出されたとき、連続して行われる複数回の撮影のうちの最初の撮影時、または最後の撮影時のいずれかにストロボ17を発光させるように撮影モードの設定が行われる。   Thus, in the photographing apparatus 1, when the photographing scene is classified as a night scene, the photographing mode is set so that continuous photographing is performed. Also, when the shooting scene is classified as a night scene, when a human face is detected, either the first shooting or the last shooting of a plurality of consecutive shootings The shooting mode is set so that the flash 17 emits light.

[画像処理部14における処理について]
ここで、画像処理部14による処理の切り替えについて説明する。画像処理部14においては、シャッタボタンがユーザにより押されたときに以上のようにして撮影された画像を用いて行う処理が、シーン分類部31と顔検出部32による判定結果に応じて切り替えられる。
[About processing in the image processing unit 14]
Here, switching of processing by the image processing unit 14 will be described. In the image processing unit 14, processing performed using the image captured as described above when the shutter button is pressed by the user is switched according to the determination result by the scene classification unit 31 and the face detection unit 32. .

<夜景シーンであり、花火が写っている場合>
撮影シーンが夜景シーンであり、花火が写っている場合、連写機能によって撮影された複数の画像が画像処理部14に供給される。
<When it is a night scene and fireworks are reflected>
When the shooting scene is a night scene and fireworks are shown, a plurality of images shot by the continuous shooting function are supplied to the image processing unit 14.

この場合、画像処理部14は、連写機能によって撮影された複数の画像を、最大値合成によって合成し、1枚の合成画像を生成する。最大値合成は、連写機能によって撮影された複数の画像の対応する画素(各画像上の同じ座標の画素)のうち、画素値が最も高い画素の画素値を合成画像の各画素の画素値とするように複数の画像を合成する処理である。ここでは、画素値が最も高い画素の画素値を合成画像の各画素の画素値とするように合成を行う場合について説明するが、輝度値が最も高い画素の画素値を合成画像の各画素の画素値とするようにすることも可能である。   In this case, the image processing unit 14 synthesizes a plurality of images taken by the continuous shooting function by maximum value synthesis to generate one synthesized image. Maximum value composition is the pixel value of the pixel with the highest pixel value among the corresponding pixels (pixels with the same coordinates on each image) of a plurality of images captured by the continuous shooting function. Is a process of combining a plurality of images. Here, a description will be given of a case where the composition is performed so that the pixel value of the pixel with the highest pixel value is the pixel value of each pixel of the composite image, but the pixel value of the pixel with the highest luminance value is It is also possible to use pixel values.

図5は、最大値合成について説明する図である。図5の左側に示す画像P1〜P3は連写機能によってその順番で撮影された画像であり、右側に示す画像は合成画像である。合成画像の座標(x,y)、(x,y)、(x,y)の位置にある各画素の画素値を求める場合について説明する。 FIG. 5 is a diagram for explaining the maximum value synthesis. Images P1 to P3 shown on the left side of FIG. 5 are images taken in that order by the continuous shooting function, and the image shown on the right side is a composite image. The case where the pixel value of each pixel at the position of the coordinates (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ) of the composite image is described will be described.

画像処理部14は、合成画像の座標(x,y)の画素の画素値を求める場合、画像P1の座標(x,y)の画素の画素値と、画像P2の座標(x,y)の画素の画素値と、画像P3の座標(x,y)の画素の画素値とを比較し、画素値が最大となる画素の画素値を、合成画像の座標(x,y)の画素の画素値として選択する。図5の例においては、矢印#11の先に示すように、画像P1の座標(x,y)の画素の画素値として、合成画像の座標(x,y)の画素の画素値が選択されている。 The image processing unit 14, when obtaining the pixel value of the pixel of the coordinates of the synthesized image (x 1, y 1), the pixel values of the pixels of the coordinates of the image P1 (x 1, y 1), coordinates of the image P2 (x 1 , y 1 ) and the pixel value of the pixel (x 1 , y 1 ) of the image P3 are compared, and the pixel value of the pixel having the maximum pixel value is compared with the coordinate ( x 1 , y 1 ) are selected as pixel values. In the example of FIG. 5, as indicated by the tip of arrow # 11, the pixel value of the pixel at the coordinate (x 1 , y 1 ) of the composite image is used as the pixel value of the pixel at the coordinate (x 1 , y 1 ) of the image P1. A value is selected.

また、画像処理部14は、合成画像の座標(x,y)の画素の画素値を求める場合、画像P1の座標(x,y)の画素の画素値と、画像P2の座標(x,y)の画素の画素値と、画像P3の座標(x,y)の画素の画素値とを比較し、画素値が最大となる画素の画素値を、合成画像の座標(x,y)の画素の画素値として選択する。図5の例においては、矢印#12の先に示すように、画像P2の座標(x,y)の画素の画素値として、合成画像の座標(x,y)の画素の画素値が選択されている。 Further, the image processing unit 14, when obtaining the pixel value of the pixel of the coordinates of the synthesized image (x 2, y 2), the pixel value of the pixel coordinates of the image P1 (x 2, y 2), the coordinates of the image P2 and pixel values of pixels (x 2, y 2), with the pixel values of the pixels of the coordinates of the image P3 (x 2, y 2), the pixel value of the pixel in which the pixel value is maximized, the composite image The pixel value of the pixel at coordinates (x 2 , y 2 ) is selected. In the example of FIG. 5, as indicated by the tip of arrow # 12, the pixel value of the pixel at the coordinate (x 2 , y 2 ) of the composite image is used as the pixel value of the pixel at the coordinate (x 2 , y 2 ) of the image P2. A value is selected.

同様に、画像処理部14は、合成画像の座標(x,y)の画素の画素値を求める場合、画像P1の座標(x,y)の画素の画素値と、画像P2の座標(x,y)の画素の画素値と、画像P3の座標(x,y)の画素の画素値とを比較し、画素値が最大となる画素の画素値を、合成画像の座標(x,y)の画素の画素値として選択する。図5の例においては、矢印#13の先に示すように、画像P3の座標(x,y)の画素の画素値として、合成画像の座標(x,y)の画素の画素値が選択されている。 Similarly, the image processing unit 14, when obtaining the pixel value of the pixel of the coordinates of the synthesized image (x 3, y 3), and the pixel value of the pixel coordinates of the image P1 (x 3, y 3) , the image P2 coordinates and a pixel value of a pixel of the (x 3, y 3), with the pixel values of the pixels of the coordinates of the image P3 (x 3, y 3) , the pixel value of the pixel having a pixel value of the maximum, the composite image Is selected as the pixel value of the pixel at the coordinates (x 3 , y 3 ). In the example of FIG. 5, as indicated by the tip of arrow # 13, the pixel value of the pixel at the coordinate (x 3 , y 3 ) of the composite image is used as the pixel value of the pixel at the coordinate (x 3 , y 3 ) of the image P3. A value is selected.

撮影シーンが夜景シーンであり、花火が写っている場合、画像処理部14は、連写機能によって撮影された複数の画像をこのような最大値合成によって合成し、1枚の合成画像を生成する。各画素の画素値が例えば8ビットで表され、白がRGB=(255,255,255)で表される場合、このように処理することで、それぞれの画像単体では露光不足になっているような画像であっても、複数の画像のうちの明るい画素を集めるように合成が行われることになり、花火の部分が適正な露出になっている合成画像を得ることが可能になる。つまり、花火撮影においては、露光不足や閃光の軌跡を残すために長秒時露光設定によって撮影することが一般的だが、適正な秒時を選択しないと過露光となってディテールやコントラストを失いやすい。そこで、以上のような連写撮影と最大値合成を用いることで、過露光を抑制しつつ、花火を適正な露出にすることができる。   When the shooting scene is a night scene and fireworks are captured, the image processing unit 14 combines a plurality of images shot by the continuous shooting function by such maximum value synthesis to generate one synthesized image. . For example, when the pixel value of each pixel is represented by 8 bits and white is represented by RGB = (255, 255, 255), the image is such that each image alone is underexposed. However, the composition is performed so as to collect bright pixels of the plurality of images, and it is possible to obtain a composite image in which the fireworks part is appropriately exposed. In other words, in fireworks shooting, it is common to shoot with long exposure settings in order to leave underexposure and flash trajectory, but if you do not select the proper time, it will be overexposed and you will lose detail and contrast. . Therefore, by using the continuous shooting and the maximum value composition as described above, it is possible to make the fireworks have an appropriate exposure while suppressing overexposure.

<夜景シーンであり、花火が写っていない場合>
撮影シーンが夜景シーンであり、花火が写っていない場合も、花火が写っている場合と同様に、連写機能によって撮影された複数の画像が画像処理部14に供給される。
<When it is a night scene and fireworks are not reflected>
Even when the shooting scene is a night scene and no fireworks are shown, a plurality of images shot by the continuous shooting function are supplied to the image processing unit 14 as in the case where fireworks are shown.

この場合、画像処理部14は、連写機能によって撮影された複数の画像を、加算合成または平均合成によって合成し、1枚の合成画像を生成する。加算合成は、連写機能によって撮影された複数の画像の対応する画素の画素値の和を合成画像の各画素の画素値とするように複数の画像を合成する処理である。なお加算合成する場合、加算の結果、画素値が上限値(たとえば、255)を超える値になった場合、最も大きな値が、上限値になる割合で、画像全体の画素値を小さくすることができる。   In this case, the image processing unit 14 synthesizes a plurality of images taken by the continuous shooting function by addition synthesis or average synthesis to generate one synthesized image. Additive synthesis is a process of synthesizing a plurality of images so that the sum of the pixel values of corresponding pixels of the plurality of images taken by the continuous shooting function is used as the pixel value of each pixel of the synthesized image. In addition, when adding and synthesizing, if the pixel value becomes a value exceeding an upper limit value (for example, 255) as a result of the addition, the pixel value of the entire image may be reduced at a ratio that the largest value becomes the upper limit value. it can.

一方、平均合成は、連写機能によって撮影された複数の画像の対応する画素の画素値の平均を合成画像の各画素の画素値とするように複数の画像を合成する処理である。平均合成は、例えば、加算合成によって得られた合成画像において、画素値が飽和して白飛びしている画素の割合が所定の割合を超えている場合に選択される。   On the other hand, the average synthesis is a process of synthesizing a plurality of images so that an average of pixel values of corresponding pixels of a plurality of images taken by the continuous shooting function is used as a pixel value of each pixel of the synthesized image. The average composition is selected when, for example, the ratio of the pixels whose pixel values are saturated and whiteout exceeds a predetermined ratio in a composite image obtained by addition composition.

撮影シーンが夜景シーンであり、花火が写っていない場合、画像処理部14は、連写機能によって撮影された複数の画像をこのような加算合成または平均合成によって合成し、1枚の合成画像を生成する。これにより、適正な露出で夜景が写っている合成画像を得ることが可能になる。なお、連写機能によって撮影された複数の画像の手ぶれ補正が行われ、手ぶれ補正後の画像に基づいて加算合成または平均合成が行われるようにすることも可能である。   When the shooting scene is a night scene and no fireworks are captured, the image processing unit 14 combines a plurality of images shot by the continuous shooting function by such addition synthesis or average synthesis, and combines one synthesized image. Generate. As a result, it is possible to obtain a composite image in which a night scene is captured with an appropriate exposure. It is also possible to perform camera shake correction on a plurality of images taken by the continuous shooting function, and to perform addition synthesis or average synthesis based on the image after camera shake correction.

<人の顔が検出された場合>
撮影シーンが夜景シーンであり、人の顔が写っている場合、連写機能によって撮影された複数の画像が画像処理部14に供給される。画像処理部14に供給される複数の画像のうち、最初または最後に撮影された画像は、ストロボ17の発光ありで撮影された画像である。
<When a human face is detected>
When the shooting scene is a night scene and a person's face is captured, a plurality of images shot by the continuous shooting function are supplied to the image processing unit 14. Of the plurality of images supplied to the image processing unit 14, the first or last captured image is an image captured with the flash 17 emitting light.

図6は、人物領域の抽出の流れを説明する図である。画像処理部14は、矢印#21の先に示すように、連写機能によって撮影された複数の画像のうち、ストロボ17の発光なしで撮影された画像と、最初または最後にストロボ17の発光ありで撮影された画像との輝度値の差を求め、マスクデータを生成する。マスクデータは、ストロボ17の発光ありで撮影された画像から人物の領域を抽出するために用いられる。   FIG. 6 is a diagram for explaining the flow of extraction of a person region. As indicated by the tip of the arrow # 21, the image processing unit 14 includes an image shot without the flash 17 and among the plurality of images shot by the continuous shooting function, and the flash of the flash 17 at the beginning or end. The difference in luminance value from the image taken in is obtained, and mask data is generated. The mask data is used to extract a person region from an image taken with the flash 17 emitting light.

以下、適宜、ストロボ17の発光ありで撮影された画像をストロボON画像といい、ストロボ17の発光なしで撮影された画像をストロボOFF画像という。   Hereinafter, as appropriate, an image photographed with the flash 17 emitting light is referred to as a strobe ON image, and an image photographed without the strobe light emitting is referred to as a strobe OFF image.

図7に示すように、花火を背景として人物の撮影を行っている場合について説明する。ストロボ17の発光ありで撮影を行った場合、その撮影によって得られた画像のうちの人物の領域の輝度値は、背景の領域の輝度値と較べて高くなる。これに対して、ストロボ17の発光なしで撮影を行った場合、その撮影によって得られた画像のうちの人物の領域の輝度値は、背景の領域の輝度値と同様に低くなる。   As shown in FIG. 7, a case where a person is photographed with fireworks in the background will be described. When shooting is performed with the flash 17 emitting light, the luminance value of the person area in the image obtained by the shooting is higher than the luminance value of the background area. On the other hand, when shooting is performed without the flash 17 emitting light, the luminance value of the person area in the image obtained by the shooting is low, as is the luminance value of the background area.

画像処理部14は、ストロボON画像とストロボOFF画像の領域毎の輝度値の差を求め、輝度値の差が閾値以上になる領域を示す、図8に示すようなマスクデータを生成する。図8に示すマスクデータのうち、斜線を付して示す領域が、ストロボON画像とストロボOFF画像の輝度値の差が閾値以上になる領域であり、人物の領域に相当する。   The image processing unit 14 obtains a difference in luminance value for each region of the strobe ON image and the strobe OFF image, and generates mask data as shown in FIG. 8 indicating a region where the difference in luminance value is equal to or greater than a threshold value. In the mask data shown in FIG. 8, a hatched area is an area where the difference between the brightness values of the strobe ON image and the strobe OFF image is equal to or greater than a threshold value, and corresponds to a person area.

マスクデータを生成した後、図6の矢印#22の先に示すように、画像処理部14はマスクデータの修正を行う。マスクデータの修正は、人物の一部ではあるが、ストロボ17の光が当たらないためにマスクデータにおいて人物の領域として検出されない部分(ストロボON画像とストロボOFF画像の輝度値の差が閾値以上にならない部分)を、人物の領域に含めるようにマスクデータを加工する処理である。   After generating the mask data, the image processing unit 14 corrects the mask data as indicated by the tip of arrow # 22 in FIG. Correction of mask data is a part of a person but is not detected as a person area in the mask data because the light from the strobe 17 does not strike (the difference between the brightness values of the strobe ON image and the strobe OFF image exceeds a threshold value) This is a process for processing the mask data so as to include the non-applicable part) in the person area.

例えば、ストロボ17の発光ありで撮影を行ったとしても、人の頭の上の方に光が届かないことがある。この場合、マスクデータの人物の領域のうちの頭の部分の形状は、図9において破線の円で囲んで示すように凹んだ形状になる。画像処理部14は、この凹んでいる形状を図8に示すように凹んでいない形状にするように、マスクデータを修正する。顔検出部32により検出された顔の位置を基準として、頭全体がどの範囲にあるのかは予測可能であり、画像処理部14は、例えば、頭全体の範囲を予測し、マスクデータを修正する。   For example, even if shooting is performed with the flash 17 emitting light, the light may not reach the top of the person's head. In this case, the shape of the head portion of the person area of the mask data is a concave shape as shown by being surrounded by a broken-line circle in FIG. The image processing unit 14 corrects the mask data so that the recessed shape becomes a shape that is not recessed as shown in FIG. The range of the entire head can be predicted based on the position of the face detected by the face detection unit 32. For example, the image processing unit 14 predicts the range of the entire head and corrects the mask data. .

マスクデータの修正を行った後、図6の矢印#23と矢印#25の先に示すように、画像処理部14は、マスクデータを用いて、ストロボON画像から人物の領域を抽出する。マスクデータを重ねたときに図8の斜線で示す領域に対応する画像上の領域が、ストロボON画像に写る人物の領域になる。   After correcting the mask data, the image processing unit 14 uses the mask data to extract a person area from the strobe ON image, as indicated by the tip of arrow # 23 and arrow # 25 in FIG. When the mask data is overlaid, the area on the image corresponding to the hatched area in FIG. 8 becomes the person area shown in the strobe ON image.

ストロボON画像から人物の領域を抽出した後、図6の矢印#24の先に示すように、画像処理部14は、人物の領域の画像をブレンドマップに応じて合成画像に合成する。人物の領域の合成先となる合成画像は、上述したように、撮影シーンが夜景シーンであり、花火が写っている場合には最大値合成によって生成された画像であり、花火が写っていない場合には加算合成または平均合成によって生成された画像である。   After extracting the person area from the strobe ON image, as shown by the tip of arrow # 24 in FIG. 6, the image processing unit 14 combines the person area image into a composite image in accordance with the blend map. As described above, the composite image that is the composition destination of the person's area is an image generated by the maximum value composition when the shooting scene is a night scene and the fireworks are captured, and the fireworks are not captured Is an image generated by addition synthesis or average synthesis.

図10はブレンドマップの例を示す図である。図10の横軸は、ストロボON画像とストロボOFF画像の輝度値の差を表し、縦軸は、ストロボON画像から抽出された人物の領域の画素の画素値の合成比率を表す。例えば、合成比率が50%であることは、最終的に得られる合成画像のうちの人物の領域の画素の画素値として、合成画像の画素の画素値と、ストロボON画像から抽出された人物の領域の画素の画素値とを50%ずつ混合した画素値を用いることを表す。   FIG. 10 is a diagram showing an example of a blend map. The horizontal axis in FIG. 10 represents the difference between the brightness values of the strobe ON image and the strobe OFF image, and the vertical axis represents the composition ratio of the pixel values of the person area extracted from the strobe ON image. For example, if the composition ratio is 50%, the pixel value of the pixel in the region of the person in the finally obtained composite image is the pixel value of the pixel in the composite image and the person extracted from the strobe ON image. This means that pixel values obtained by mixing the pixel values of the pixels in the region by 50% are used.

図10の例においては、ストロボON画像とストロボOFF画像の輝度値の差が閾値1以下である場合、ストロボON画像から抽出された人物の領域の画素の画素値の合成比率は0%とされている。また、輝度値の差が閾値1以上、閾値2未満である場合、ストロボON画像から抽出された人物の領域の画素の画素値の合成比率は、輝度値の差に比例して線形的に0%から100%に増えるものとされている。さらに、輝度値の差が閾値2以上である場合、ストロボON画像から抽出された人物の領域の画素の画素値の合成比率は100%とされている。   In the example of FIG. 10, when the difference between the brightness values of the strobe ON image and the strobe OFF image is equal to or smaller than the threshold value 1, the composition ratio of the pixel values of the person area extracted from the strobe ON image is set to 0%. ing. When the difference in luminance value is greater than or equal to the threshold value 1 and less than the threshold value 2, the composition ratio of the pixel values of the person region extracted from the strobe ON image is linearly 0 in proportion to the difference in luminance value. From 100% to 100%. Furthermore, when the difference in luminance value is equal to or greater than the threshold value 2, the composition ratio of the pixel values of the pixels in the person region extracted from the strobe ON image is 100%.

画像処理部14に対しては、このようなブレンドマップの情報が予め設定されている。画像処理部14は、撮影シーンが夜景シーンであり、人の顔が写っている場合、ストロボON画像から抽出した人物の領域の画像を、ブレンドマップに従って合成画像に合成する。   Such blend map information is preset for the image processing unit 14. When the shooting scene is a night scene and a human face is captured, the image processing unit 14 combines the image of the person region extracted from the strobe ON image into a composite image according to the blend map.

これにより、背景と人物の両方の露出が適正な合成画像を得ることが可能になる。上述したように、背景については、最大値合成、加算合成、平均合成などの合成処理によって適正な露出になっている。また、人物については、ストロボ17の発光ありで撮影が行われることによって適正な露出になっている。   This makes it possible to obtain a composite image in which both the background and the person are exposed properly. As described above, the background is appropriately exposed by combining processing such as maximum value combining, addition combining, and average combining. In addition, the person is exposed properly by shooting with the flash 17 emitting light.

[撮影装置1の動作]
次に、図11および図12のフローチャートを参照して、撮影装置1の撮影処理について説明する。
[Operation of the photographing apparatus 1]
Next, imaging processing of the imaging apparatus 1 will be described with reference to the flowcharts of FIGS. 11 and 12.

ステップS1において、撮影制御部33は、CMOSセンサ12を制御してライブビュー用画像を撮影する。撮影されたライブビュー用画像は、メモリ13に記憶された後、シーン分類部31、顔検出部32に供給されるとともに、画像処理部14により読み出され、LCD16に表示される。   In step S <b> 1, the shooting control unit 33 controls the CMOS sensor 12 to shoot a live view image. The captured live view image is stored in the memory 13, supplied to the scene classification unit 31 and the face detection unit 32, read out by the image processing unit 14, and displayed on the LCD 16.

ステップS2において、シーン分類部31は、ライブビュー用画像を解析し、撮影シーンの分類を行う。また、シーン分類部31は、撮影シーンが夜景シーンであると分類した場合、花火が被写体に含まれているか否かの検出も行う。   In step S2, the scene classification unit 31 analyzes the live view image and classifies the shooting scene. The scene classification unit 31 also detects whether or not fireworks are included in the subject when the shooting scene is classified as a night scene.

ステップS3において、顔検出部32は、ライブビュー用画像を解析し、顔の検出を行う。   In step S3, the face detection unit 32 analyzes the live view image and performs face detection.

ステップS4において、シーン分類部31は、撮影シーンが夜景シーンであるか否かを判定する。ステップS4において、撮影シーンが夜景シーンではないと判定された場合、手続きはステップS5に進み、撮影制御部33は、撮影シーンに応じて通常撮影を行う。すなわち、撮影制御部33は、ポートレートシーンや風景シーンなどの撮影シーンに応じたパラメータを設定し、シャッタボタンが押されることに応じて撮影を行う。撮影画像は、画像処理部14によって各種画像処理が行われた後、出力部15に供給される。出力部15は、画像のデータを記録媒体に記録させ、その後、通常撮影処理は終了される。   In step S4, the scene classification unit 31 determines whether or not the shooting scene is a night scene. If it is determined in step S4 that the shooting scene is not a night scene, the procedure proceeds to step S5, and the shooting control unit 33 performs normal shooting according to the shooting scene. That is, the shooting control unit 33 sets parameters according to a shooting scene such as a portrait scene or a landscape scene, and performs shooting when the shutter button is pressed. The captured image is subjected to various types of image processing by the image processing unit 14 and then supplied to the output unit 15. The output unit 15 records the image data on the recording medium, and then the normal photographing process is terminated.

一方、ステップS4において、撮影シーンが夜景シーンであると判定された場合、手続きはステップS6に進み、撮影制御部33は、連写撮影をONに設定する。   On the other hand, when it is determined in step S4 that the shooting scene is a night scene, the procedure proceeds to step S6, and the shooting control unit 33 sets continuous shooting to ON.

ステップS7において、撮影制御部33は、顔検出部32により人の顔が検出されたか否かを判定し、人の顔が検出されたと判定した場合、ステップS8に進み、最初の撮影時、または最後の撮影時のいずれかに発光するようにストロボ17の設定を行う。   In step S7, the imaging control unit 33 determines whether or not a human face has been detected by the face detection unit 32. If it is determined that a human face has been detected, the process proceeds to step S8, The strobe 17 is set to emit light at any time during the last shooting.

ステップS9において、撮影制御部33は、操作部18から供給された信号に基づいて、シャッタボタンが押されたか否かを判定し、押されたと判定するまで待機する。   In step S9, the imaging control unit 33 determines whether or not the shutter button has been pressed based on the signal supplied from the operation unit 18, and waits until it is determined that the shutter button has been pressed.

ステップS9において、撮影制御部33は、シャッタボタンが押されたと判定した場合、手続きはステップS10に進み、CMOSセンサ12を制御し、連写機能によって複数の画像を撮影する。また、撮影制御部33は、最初の撮影時、または最後の撮影時のいずれかにストロボ17を発光させる。連写機能によって撮影された複数の画像は、メモリ13に記憶された後、画像処理部14に供給される。   In step S9, if the shooting control unit 33 determines that the shutter button has been pressed, the procedure proceeds to step S10, the CMOS sensor 12 is controlled, and a plurality of images are shot by the continuous shooting function. Further, the photographing control unit 33 causes the flash 17 to emit light either at the first photographing or at the last photographing. A plurality of images taken by the continuous shooting function are stored in the memory 13 and then supplied to the image processing unit 14.

ステップS11において、画像処理部14は、上述したように、ストロボON画像とストロボOFF画像の輝度値の差に基づいてマスクデータを生成し、適宜修正した後(図8、図9)、マスクデータを用いてストロボON画像から人物の領域の画像を抽出する。   In step S11, as described above, the image processing unit 14 generates mask data based on the difference between the brightness values of the strobe ON image and the strobe OFF image, and appropriately corrects the mask data (FIGS. 8 and 9). Is used to extract the image of the person area from the strobe ON image.

ステップS12において、画像処理部14は、シーン分類部31により花火が検出されたか否かを判定し、花火が検出されたと判定した場合、ステップS13に進み、複数の画像を最大値合成によって合成し、得られた合成画像に、ストロボON画像から抽出した人物の領域の画像を合成する。ストロボON画像から抽出された人物の領域の画像が合成された合成画像のデータは、画像処理部14から出力部15に供給される。   In step S12, the image processing unit 14 determines whether or not fireworks are detected by the scene classification unit 31, and when it is determined that fireworks are detected, the process proceeds to step S13, and a plurality of images are combined by maximum value synthesis. Then, the image of the person region extracted from the strobe ON image is synthesized with the obtained synthesized image. The combined image data obtained by combining the image of the person region extracted from the strobe ON image is supplied from the image processing unit 14 to the output unit 15.

ステップS14において、出力部15は、画像処理部14により生成された合成画像のデータを記録媒体に記録させ、処理を終了する。   In step S14, the output unit 15 records the composite image data generated by the image processing unit 14 on a recording medium, and ends the process.

ステップS12において、花火が検出されていないと判定された場合、ステップS15に進み、画像処理部14は、複数の画像を加算合成または平均合成によって合成し、得られた合成画像に、ストロボON画像から抽出した人物の領域の画像を合成する。その後、ステップS14に進み、合成画像が記録された後、処理は終了される。   When it is determined in step S12 that no fireworks are detected, the process proceeds to step S15, and the image processing unit 14 combines a plurality of images by addition synthesis or average synthesis, and the obtained synthesized image is a strobe ON image. The image of the person area extracted from is synthesized. Thereafter, the process proceeds to step S14, and after the composite image is recorded, the process is terminated.

ステップS7において、撮影制御部33は、人の顔が検出されていないと判定した場合、ステップS16(図12)に進み、シャッタボタンが押されたか否かを判定し、押されたと判定するまで待機する。   If it is determined in step S7 that the human face has not been detected, the shooting control unit 33 proceeds to step S16 (FIG. 12), determines whether or not the shutter button has been pressed, and until it is determined that the button has been pressed. stand by.

ステップS16において、撮影制御部33は、シャッタボタンが押されたと判定した場合、ステップS17に進み、CMOSセンサ12を制御し、連写機能によって複数の画像を撮影する。人の顔が検出されていないから、ここでは、ストロボ17の発光は行われない。連写機能によって撮影された複数の画像は、メモリ13に記憶された後、画像処理部14に供給される。   If it is determined in step S16 that the shutter button has been pressed, the shooting control unit 33 proceeds to step S17, controls the CMOS sensor 12, and takes a plurality of images using the continuous shooting function. Since no human face is detected, the flash 17 does not emit light here. A plurality of images taken by the continuous shooting function are stored in the memory 13 and then supplied to the image processing unit 14.

ステップS18において、画像処理部14は、シーン分類部31により花火が検出されたか否かを判定し、花火が検出されたと判定した場合、ステップS19に進み、複数の画像を最大値合成によって合成する。最大値合成によって生成された合成画像のデータは画像処理部14から出力部15に供給される。   In step S18, the image processing unit 14 determines whether or not fireworks are detected by the scene classification unit 31, and when it is determined that fireworks are detected, the process proceeds to step S19, and a plurality of images are combined by maximum value synthesis. . The synthesized image data generated by the maximum value synthesis is supplied from the image processing unit 14 to the output unit 15.

ステップS20において、出力部15は、画像処理部14により生成された合成画像のデータを記録媒体に記録させ、処理を終了する。   In step S20, the output unit 15 records the composite image data generated by the image processing unit 14 on a recording medium, and ends the process.

一方、ステップS18において、画像処理部14は、花火が検出されていないと判定した場合、ステップS21に進み、撮影された複数の画像を加算合成または平均合成によって合成する。その後、ステップS20において、合成画像が記録された後、処理は終了される。   On the other hand, if it is determined in step S18 that no fireworks are detected, the image processing unit 14 proceeds to step S21, and combines a plurality of captured images by addition synthesis or average synthesis. Thereafter, in step S20, after the composite image is recorded, the process ends.

[発明の実施の形態における効果]
1.以上のように、シャッタボタンが操作される前に撮影シーンを分類するようにしたので、撮影シーンが夜景を含むシーンである場合には、容易に、連写撮影を行う撮影モードに設定することが可能となる。
[Effects of the embodiment of the invention]
1. As described above, since the shooting scenes are classified before the shutter button is operated, when the shooting scene is a scene including a night view, it is easy to set the shooting mode to perform continuous shooting. Is possible.

2.夜景シーンに花火が写っている場合には、連写機能によって撮影された複数の画像の対応する画素のうち、画素値また輝度値が最も高い画素の画素値を合成画像の各画素の画素値とするように複数の画像を合成するようにしたので、花火の部分の露出が適正な、画質のよい夜景を容易に撮影することが可能となる。   2. When fireworks are captured in a night scene, the pixel value of the pixel with the highest pixel value or luminance value among the corresponding pixels of multiple images taken with the continuous shooting function is used as the pixel value of each pixel of the composite image. Since a plurality of images are combined as described above, it is possible to easily shoot a night scene with good image quality in which the fireworks part is properly exposed.

3.夜景シーンに花火が写っていない場合には、連写機能によって撮影された複数の画像の対応する画素の画素値の和を合成画像の各画素の画素値とするように、または、複数の画像の対応する画素の画素値の和が閾値を超える画素の割合が所定の割合を超えるとき、複数の画像の対応する画素の画素値の平均値を前記合成画像の各画素の画素値とするように、複数の画像を合成するようにしたので、露出が適正な、画質のよい夜景を容易に撮影することが可能となる。   3. When fireworks are not captured in the night scene, the sum of the pixel values of the corresponding pixels of the plurality of images captured by the continuous shooting function is used as the pixel value of each pixel of the composite image, or the plurality of images When the ratio of pixels in which the sum of the pixel values of the corresponding pixels exceeds the threshold exceeds a predetermined ratio, the average value of the pixel values of the corresponding pixels of the plurality of images is set as the pixel value of each pixel of the composite image In addition, since a plurality of images are combined, it is possible to easily shoot a night scene with good exposure and good image quality.

4.人物の顔を検出したとき、複数の画像のうちの最初の画像の撮影時、または最後の画像の撮影時にストロボを発光させるようにしたので、また、最初の画像または前記最後の画像からストロボによって照射された領域を抽出し、抽出した前記領域を前記合成画像に重ねて合成するようにしたので、露出が適正であって、かつ手ぶれが生じていない画質のよい夜景を容易に撮影するだけでなく、より人物を最適な画質で撮影することが可能になる。   4). When a person's face is detected, the flash is fired when the first image of the plurality of images is shot or when the last image is shot. Since the irradiated area is extracted and the extracted area is superimposed on the composite image, it is possible to easily shoot a night scene with good image quality that is adequately exposed and free from camera shake. Therefore, it becomes possible to photograph a person with an optimum image quality.

上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

この発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化したり、上記実施の形態に開示されている複数の構成要素を適宜組み合わせたりすることにより種々の発明を形成できる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施の形態に亘る構成要素を適宜組み合わせても良い。   The present invention is not limited to the above-described embodiment as it is, and in the implementation stage, the component may be modified and embodied without departing from the spirit of the invention, or a plurality of components disclosed in the above-described embodiment. Various inventions can be formed by appropriately combining the above. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine the component covering different embodiment suitably.

1 撮影装置
11 CPU
12 CMOSセンサ
13 メモリ
14 画像処理部
15 出力部
16 LCD
17 ストロボ
18 操作部
31 シーン分類部
32 顔検出部
33 撮影制御部
1 Camera 11 CPU
12 CMOS sensor 13 Memory 14 Image processing unit 15 Output unit 16 LCD
17 Strobe 18 Operation Unit 31 Scene Classification Unit 32 Face Detection Unit 33 Shooting Control Unit

Claims (7)

撮影手段と、
シャッタボタンが操作される前に前記撮影手段により撮影された画像を解析し、撮影が行われているシーンの分類を行うシーン分類手段と、
前記シーン分類手段により分類されたシーンが、夜景を被写体として含むシーンである夜景シーンである場合、前記シャッタボタンが操作されたときに複数の画像の撮影が連続して行われるように前記撮影手段を制御する制御手段と
を備えることを特徴とする撮影装置。
Photographing means;
Scene classification means for analyzing an image photographed by the photographing means before a shutter button is operated, and classifying a scene being photographed;
When the scene classified by the scene classification unit is a night scene that is a scene including a night view as a subject, the photographing unit is configured to continuously capture a plurality of images when the shutter button is operated. And a control means for controlling the imaging device.
請求項1に記載の撮影装置において、
前記シーン分類手段は、撮影が行われているシーンが前記夜景シーンであると分類した場合、花火の撮影が行われているか否かを判定し、
花火の撮影が行われていると判定された場合、前記シャッタボタンが操作されたときに撮影された前記複数の画像の対応する画素のうち、画素値または輝度値が最も高い画素の画素値を合成画像の各画素の画素値とするように、前記複数の画像を合成する画像処理手段をさらに備える
ことを特徴とする撮影装置。
The imaging device according to claim 1,
The scene classification means determines whether or not shooting of fireworks is performed when the scene being shot is classified as the night scene.
If it is determined that fireworks are being shot, the pixel value of the pixel having the highest pixel value or luminance value is selected from the corresponding pixels of the plurality of images shot when the shutter button is operated. An imaging apparatus, further comprising: an image processing unit that combines the plurality of images so as to obtain a pixel value of each pixel of the combined image.
請求項2に記載の撮影装置において、
前記画像処理手段は、花火の撮影が行われていないと判定された場合、前記シャッタボタンが操作されたときに撮影された手ぶれ補正後の前記複数の画像の対応する画素の画素値の和を前記合成画像の各画素の画素値とするように、または、前記複数の画像の対応する画素の画素値の和が閾値を超える画素の割合が所定の割合を超えるとき、前記複数の画像の対応する画素の画素値の平均値を前記合成画像の各画素の画素値とするように、前記複数の画像を合成する
ことを特徴とする撮影装置。
The imaging device according to claim 2,
When it is determined that no fireworks are shot, the image processing means calculates a sum of pixel values of corresponding pixels of the plurality of images after camera shake correction that is shot when the shutter button is operated. Corresponding to the plurality of images so as to be the pixel value of each pixel of the composite image, or when the ratio of pixels in which the sum of pixel values of corresponding pixels of the plurality of images exceeds a threshold exceeds a predetermined ratio The plurality of images are combined so that an average value of pixel values of pixels to be used is a pixel value of each pixel of the combined image.
請求項2または請求項3に記載の撮影装置において、
前記撮影手段により撮影された画像から人物の顔を検出する顔検出手段と、
ストロボを発光する発光手段と
をさらに備え、
前記制御手段は、前記シャッタボタンが操作される前に撮影された画像から前記顔検出手段により人物の顔が検出された場合、前記複数の画像のうちの最初の画像の撮影時、または最後の画像の撮影時にストロボを発光させるように前記発光手段を制御し、
前記画像処理手段は、前記最初の画像または前記最後の画像からストロボによって照射された領域を抽出し、抽出した前記領域を前記合成画像に重ねて合成する
ことを特徴とする撮影装置。
In the imaging device according to claim 2 or 3,
Face detection means for detecting a human face from an image photographed by the photographing means;
And a flash means for emitting a flash,
When the face detection unit detects a person's face from an image captured before the shutter button is operated, the control unit is configured to capture the first image of the plurality of images or the last Controlling the light emitting means to emit a strobe when taking an image,
The image processing unit extracts a region irradiated with a strobe from the first image or the last image, and superimposes the extracted region on the composite image.
請求項1に記載の撮影装置において、
前記撮影手段により撮影された画像から人物の顔を検出する顔検出手段と、
ストロボを発光する発光手段と
をさらに備え、
前記制御手段は、前記シャッタボタンが操作される前に撮影された画像から前記顔検出手段により人物の顔が検出された場合、前記複数の画像のうちの最初の画像の撮影時、または最後の画像の撮影時にストロボを発光させるように前記発光手段を制御する
ことを特徴とする撮影装置。
The imaging device according to claim 1,
Face detection means for detecting a human face from an image photographed by the photographing means;
And a flash means for emitting a flash,
When the face detection unit detects a person's face from an image captured before the shutter button is operated, the control unit is configured to capture the first image of the plurality of images or the last An image-taking apparatus, wherein the light-emitting means is controlled to emit a strobe when an image is taken.
撮影手段を備える撮影装置の撮影方法において、
シャッタボタンが操作される前に前記撮影手段により撮影された画像を解析し、撮影が行われているシーンの分類を行うシーン分類ステップと、
前記シーン分類ステップの処理により分類されたシーンが、夜景を被写体として含むシーンである夜景シーンである場合、前記シャッタボタンが操作されたときに複数の画像の撮影が連続して行われるように前記撮影手段を制御する制御ステップと
を含むことを特徴とする撮影方法。
In a photographing method of a photographing apparatus provided with photographing means,
A scene classification step of analyzing an image photographed by the photographing means before a shutter button is operated, and classifying a scene being photographed;
When the scene classified by the process of the scene classification step is a night scene that is a scene including a night scene as a subject, the plurality of images are continuously captured when the shutter button is operated. And a control step for controlling the photographing means.
撮影手段を備える撮影装置の撮影処理をコンピュータに実行させるプログラムにおいて、
シャッタボタンが操作される前に前記撮影手段により撮影された画像を解析し、撮影が行われているシーンの分類を行うシーン分類ステップと、
前記シーン分類ステップの処理により分類されたシーンが、夜景を被写体として含むシーンである夜景シーンである場合、前記シャッタボタンが操作されたときに複数の画像の撮影が連続して行われるように前記撮影手段を制御する制御ステップと
を含む処理をコンピュータに実行させるプログラム。
In a program for causing a computer to execute a photographing process of a photographing apparatus including a photographing unit,
A scene classification step of analyzing an image photographed by the photographing means before a shutter button is operated, and classifying a scene being photographed;
When the scene classified by the process of the scene classification step is a night scene that is a scene including a night scene as a subject, the plurality of images are continuously captured when the shutter button is operated. A program for causing a computer to execute a process including a control step for controlling the photographing means.
JP2010266733A 2010-11-30 2010-11-30 Imaging device, imaging method, and program Pending JP2012119858A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010266733A JP2012119858A (en) 2010-11-30 2010-11-30 Imaging device, imaging method, and program
US13/297,561 US20120133797A1 (en) 2010-11-30 2011-11-16 Imaging apparatus, imaging method and computer program
CN2011103963144A CN102487431A (en) 2010-11-30 2011-11-28 Photographic device, photographic method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010266733A JP2012119858A (en) 2010-11-30 2010-11-30 Imaging device, imaging method, and program

Publications (1)

Publication Number Publication Date
JP2012119858A true JP2012119858A (en) 2012-06-21

Family

ID=46126380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010266733A Pending JP2012119858A (en) 2010-11-30 2010-11-30 Imaging device, imaging method, and program

Country Status (3)

Country Link
US (1) US20120133797A1 (en)
JP (1) JP2012119858A (en)
CN (1) CN102487431A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014036403A (en) * 2012-08-10 2014-02-24 Canon Inc Imaging apparatus and method of controlling the same
KR20140064066A (en) * 2012-11-19 2014-05-28 삼성전자주식회사 Photographing apparatusand method for controlling thereof
JP2014239396A (en) * 2013-06-10 2014-12-18 キヤノン株式会社 Imaging apparatus and control method for imaging apparatus
KR101481798B1 (en) * 2014-07-18 2015-01-13 주식회사 모리아타운 Method and apparatus for generating bulb shutter image
JP2015022225A (en) * 2013-07-22 2015-02-02 キヤノン株式会社 Image capturing device, image capturing system, method of controlling image capturing device, program, and recording medium
CN104519263A (en) * 2013-09-27 2015-04-15 联想(北京)有限公司 Method for acquiring image and electronic device
JP2015130059A (en) * 2014-01-07 2015-07-16 オリンパス株式会社 Image processing apparatus and image processing method
JP2015142370A (en) * 2014-01-30 2015-08-03 キヤノン株式会社 Image processing apparatus, imaging device, control method for those, program, and recording medium
JPWO2014050535A1 (en) * 2012-09-25 2016-08-22 日産自動車株式会社 Imaging apparatus and imaging method
JP2017034718A (en) * 2016-10-28 2017-02-09 オリンパス株式会社 Image processing apparatus, image processing method, and program
KR20180019708A (en) * 2015-06-30 2018-02-26 후아웨이 테크놀러지 컴퍼니 리미티드 Shooting method and device
CN110166711A (en) * 2019-06-13 2019-08-23 Oppo广东移动通信有限公司 Image processing method, image processing apparatus, electronic device, and storage medium
JP2020537441A (en) * 2017-10-14 2020-12-17 華為技術有限公司Huawei Technologies Co.,Ltd. Photography method and electronic equipment
JP2021100249A (en) * 2018-03-27 2021-07-01 華為技術有限公司Huawei Technologies Co.,Ltd. Shooting and user interface using night shooting mode processing
JP2021166330A (en) * 2020-04-06 2021-10-14 大日本印刷株式会社 Shooting system
JP2021175067A (en) * 2020-04-23 2021-11-01 大日本印刷株式会社 Photographing system
JP2023181265A (en) * 2018-07-05 2023-12-21 Omデジタルソリューションズ株式会社 Image synthesis processing method

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5141733B2 (en) * 2010-08-18 2013-02-13 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP5765945B2 (en) * 2011-01-14 2015-08-19 キヤノン株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US9354748B2 (en) 2012-02-13 2016-05-31 Microsoft Technology Licensing, Llc Optical stylus interaction
US9870066B2 (en) 2012-03-02 2018-01-16 Microsoft Technology Licensing, Llc Method of manufacturing an input device
US9075566B2 (en) 2012-03-02 2015-07-07 Microsoft Technoogy Licensing, LLC Flexible hinge spine
US9158383B2 (en) 2012-03-02 2015-10-13 Microsoft Technology Licensing, Llc Force concentrator
JP5917258B2 (en) * 2012-04-20 2016-05-11 キヤノン株式会社 Image processing apparatus and image processing method
US20130300590A1 (en) 2012-05-14 2013-11-14 Paul Henry Dietz Audio Feedback
KR101900097B1 (en) * 2012-07-30 2018-09-20 삼성전자주식회사 Image capturing method and image capturing apparatus
US8964379B2 (en) 2012-08-20 2015-02-24 Microsoft Corporation Switchable magnetic lock
US8786767B2 (en) 2012-11-02 2014-07-22 Microsoft Corporation Rapid synchronized lighting and shuttering
JP5761272B2 (en) * 2013-08-06 2015-08-12 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP6218496B2 (en) * 2013-08-21 2017-10-25 キヤノン株式会社 Imaging apparatus and imaging method
US10120420B2 (en) 2014-03-21 2018-11-06 Microsoft Technology Licensing, Llc Lockable display and techniques enabling use of lockable displays
US10324733B2 (en) 2014-07-30 2019-06-18 Microsoft Technology Licensing, Llc Shutdown notifications
US9979890B2 (en) 2015-04-23 2018-05-22 Apple Inc. Digital viewfinder user interface for multiple cameras
US20170053378A1 (en) * 2015-08-20 2017-02-23 Oregon Health & Science University Methods of enhancing digital images
US9716825B1 (en) 2016-06-12 2017-07-25 Apple Inc. User interface for camera effects
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
CN108810413B (en) * 2018-06-15 2020-12-01 Oppo广东移动通信有限公司 Image processing method and apparatus, electronic device, computer-readable storage medium
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. User interfaces for simulated depth effects
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US10701279B2 (en) * 2018-10-02 2020-06-30 Adobe Inc. Utilizing alignment models and motion vector path blending to generate a long exposure digital image from a sequence of short exposure digital images
CN111901480B (en) * 2019-05-06 2021-05-28 苹果公司 User interface for capturing and managing visual media
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
CN111242860B (en) 2020-01-07 2024-02-27 影石创新科技股份有限公司 Super night scene image generation method and device, electronic equipment and storage medium
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN112492216B (en) * 2020-12-14 2022-06-07 维沃移动通信有限公司 Shooting control method and shooting control device
CN112785535B (en) * 2020-12-30 2024-07-30 北京迈格威科技有限公司 Method and device for acquiring night scene light track image and hand-held terminal
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles
CN113259594A (en) * 2021-06-22 2021-08-13 展讯通信(上海)有限公司 Image processing method and device, computer readable storage medium and terminal
US12506953B2 (en) 2021-12-03 2025-12-23 Apple Inc. Device, methods, and graphical user interfaces for capturing and displaying media
US12401889B2 (en) 2023-05-05 2025-08-26 Apple Inc. User interfaces for controlling media capture settings

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4840848B2 (en) * 2005-09-21 2011-12-21 ソニー株式会社 Imaging apparatus, information processing method, and program
JP2007288235A (en) * 2006-04-12 2007-11-01 Sony Corp Imaging apparatus and imaging method
CN101137012B (en) * 2006-07-25 2010-09-08 富士胶片株式会社 Screening device and method
KR101341095B1 (en) * 2007-08-23 2013-12-13 삼성전기주식회사 Apparatus and method for capturing images having optimized quality under night scene conditions
JP4544332B2 (en) * 2008-04-07 2010-09-15 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5246590B2 (en) * 2008-11-05 2013-07-24 カシオ計算機株式会社 Imaging apparatus, image generation method, and program
JP5281495B2 (en) * 2009-06-18 2013-09-04 キヤノン株式会社 Image processing apparatus and method

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014036403A (en) * 2012-08-10 2014-02-24 Canon Inc Imaging apparatus and method of controlling the same
JPWO2014050535A1 (en) * 2012-09-25 2016-08-22 日産自動車株式会社 Imaging apparatus and imaging method
KR101930460B1 (en) * 2012-11-19 2018-12-17 삼성전자주식회사 Photographing apparatusand method for controlling thereof
KR20140064066A (en) * 2012-11-19 2014-05-28 삼성전자주식회사 Photographing apparatusand method for controlling thereof
JP2014239396A (en) * 2013-06-10 2014-12-18 キヤノン株式会社 Imaging apparatus and control method for imaging apparatus
JP2015022225A (en) * 2013-07-22 2015-02-02 キヤノン株式会社 Image capturing device, image capturing system, method of controlling image capturing device, program, and recording medium
CN104519263A (en) * 2013-09-27 2015-04-15 联想(北京)有限公司 Method for acquiring image and electronic device
JP2015130059A (en) * 2014-01-07 2015-07-16 オリンパス株式会社 Image processing apparatus and image processing method
JP2015142370A (en) * 2014-01-30 2015-08-03 キヤノン株式会社 Image processing apparatus, imaging device, control method for those, program, and recording medium
KR101481798B1 (en) * 2014-07-18 2015-01-13 주식회사 모리아타운 Method and apparatus for generating bulb shutter image
KR20180019708A (en) * 2015-06-30 2018-02-26 후아웨이 테크놀러지 컴퍼니 리미티드 Shooting method and device
KR102025714B1 (en) * 2015-06-30 2019-09-26 후아웨이 테크놀러지 컴퍼니 리미티드 Shooting method and device
US10897579B2 (en) 2015-06-30 2021-01-19 Huawei Technologies Co., Ltd. Photographing method and apparatus
JP2017034718A (en) * 2016-10-28 2017-02-09 オリンパス株式会社 Image processing apparatus, image processing method, and program
JP2020537441A (en) * 2017-10-14 2020-12-17 華為技術有限公司Huawei Technologies Co.,Ltd. Photography method and electronic equipment
US11838650B2 (en) 2018-03-27 2023-12-05 Huawei Technologies Co., Ltd. Photographing using night shot mode processing and user interface
JP2021100249A (en) * 2018-03-27 2021-07-01 華為技術有限公司Huawei Technologies Co.,Ltd. Shooting and user interface using night shooting mode processing
JP7169383B2 (en) 2018-03-27 2022-11-10 華為技術有限公司 Capture and user interface using night mode processing
JP7703608B2 (en) 2018-07-05 2025-07-07 Omデジタルソリューションズ株式会社 Image synthesis processing method
JP2023181265A (en) * 2018-07-05 2023-12-21 Omデジタルソリューションズ株式会社 Image synthesis processing method
CN110166711A (en) * 2019-06-13 2019-08-23 Oppo广东移动通信有限公司 Image processing method, image processing apparatus, electronic device, and storage medium
JP7447648B2 (en) 2020-04-06 2024-03-12 大日本印刷株式会社 shooting system
JP2021166330A (en) * 2020-04-06 2021-10-14 大日本印刷株式会社 Shooting system
JP2021175067A (en) * 2020-04-23 2021-11-01 大日本印刷株式会社 Photographing system
JP7476644B2 (en) 2020-04-23 2024-05-01 大日本印刷株式会社 Shooting System

Also Published As

Publication number Publication date
US20120133797A1 (en) 2012-05-31
CN102487431A (en) 2012-06-06

Similar Documents

Publication Publication Date Title
JP2012119858A (en) Imaging device, imaging method, and program
CN110445988B (en) Image processing method, device, storage medium and electronic device
CN102377943B (en) Image pickup apparatus and image pickup method
US8723974B2 (en) Image pickup apparatus, image pickup method and recording device recording image processing program
TWI508555B (en) Image processing apparatus and image processing method for performing image synthesis
CN101931752B (en) Imaging apparatus and focusing method
KR101303410B1 (en) Image capture apparatus and image capturing method
CN110445989B (en) Image processing method, device, storage medium and electronic device
CN104883480B (en) Photographic device and image capture method
CN102572286A (en) Photographic device, photographic method and program
US8237854B2 (en) Flash emission method and flash emission apparatus
CN105516611A (en) An imaging device and a shooting method
CN110430370B (en) Image processing method, device, storage medium and electronic device
CN106878624A (en) Camera and camera method
CN110290325A (en) Image processing method, device, storage medium and electronic device
JP5984975B2 (en) Imaging apparatus, imaging method, and program
US20200304723A1 (en) Image processing device, imaging apparatus, image processing method, and program
JP2013157904A (en) Imaging device, method for controlling the same, program and recording medium
JP5048599B2 (en) Imaging device
JP5223663B2 (en) Imaging device
JP2002369075A (en) Imaging device, image processing device, imaging program, and image processing program
JP2014179920A (en) Imaging apparatus, control method thereof, program, and storage medium
CN106878606A (en) An image generation method based on an electronic device and the electronic device
JP5200820B2 (en) Imaging apparatus, imaging method, and image processing program
JP2007124292A (en) Imaging apparatus, imaging method, and imaging program