[go: up one dir, main page]

JP2009284270A - Image processing apparatus, imaging device, image processing method, and program - Google Patents

Image processing apparatus, imaging device, image processing method, and program Download PDF

Info

Publication number
JP2009284270A
JP2009284270A JP2008134821A JP2008134821A JP2009284270A JP 2009284270 A JP2009284270 A JP 2009284270A JP 2008134821 A JP2008134821 A JP 2008134821A JP 2008134821 A JP2008134821 A JP 2008134821A JP 2009284270 A JP2009284270 A JP 2009284270A
Authority
JP
Japan
Prior art keywords
unit
detection
detection information
imaging
past
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2008134821A
Other languages
Japanese (ja)
Inventor
Shingo Nagataki
真吾 長滝
Koichiro Seo
宏一郎 瀬尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008134821A priority Critical patent/JP2009284270A/en
Publication of JP2009284270A publication Critical patent/JP2009284270A/en
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

【課題】監視カメラなどによる定点撮影または準定点撮影において、動領域の検出結果を有効に利用した露光制御等を実現することが可能な画像処理装置、撮像装置、画像処理方法、およびプログラムを提供する。
【解決手段】少なくとも、外部からの制御に基づき画像の入力を行う撮像部101と、画像から画面内の動領域を検出し検出情報を出力する検出部102と、検出部102が出力した過去の検出情報を蓄積する蓄積部103と、蓄積部103に蓄積された過去の検出情報に基づいて撮像部101に所定の制御を施す制御部104とを有する。
【選択図】図4
Provided are an image processing apparatus, an imaging apparatus, an image processing method, and a program capable of realizing exposure control and the like that effectively use a detection result of a moving region in fixed-point shooting or quasi-fixed-point shooting using a monitoring camera or the like. To do.
At least an imaging unit that inputs an image based on control from the outside, a detection unit that detects a moving area in the screen from the image and outputs detection information, and a past output from the detection unit The storage unit 103 stores detection information, and the control unit 104 performs predetermined control on the imaging unit 101 based on past detection information stored in the storage unit 103.
[Selection] Figure 4

Description

本発明は、監視カメラなど適用される画像処理装置、撮像装置、画像処理方法、およびプログラムに関するものである。   The present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program to be applied such as a surveillance camera.

カメラの入力画像から人物の顔を検出し、その検出結果に基づき露光制御、ホワイトバランス制御、フォーカス制御などを行うことで被写体である人物を明瞭に撮影する技術が知られている(たとえば特許文献1,2,3参照)。   A technique is known in which a person's face is detected from an input image of a camera and a person who is a subject is clearly photographed by performing exposure control, white balance control, focus control, and the like based on the detection result (for example, Patent Documents). 1, 2, 3).

特許文献1に記載の技術によれば、入力された画像データの中から予め顔を検出しておき、顔が検出された領域についての測光結果のウェイトを高く評価して露光制御を行うことで、撮影対象となる画像における人物の露光が適正となるようにしている。   According to the technique described in Patent Document 1, a face is detected in advance from input image data, and exposure control is performed by highly evaluating the weight of a photometric result for an area where the face is detected. The exposure of the person in the image to be photographed is made appropriate.

また、特許文献2に記載の技術によれば、顔検出を行う画像を保持し、この画像に対してAF、AE、AWB評価値を導出する。
このため、特許文献2に記載の技術によれば、顔検出対象画像と撮影対象画像との時間差によって多少人物が移動するような場合には、特許文献1に記載の技術より正しい制御が期待できる。
Further, according to the technique described in Patent Document 2, an image for face detection is held, and AF, AE, and AWB evaluation values are derived for this image.
For this reason, according to the technique described in Patent Document 2, when a person moves somewhat due to the time difference between the face detection target image and the shooting target image, more accurate control than the technique described in Patent Document 1 can be expected. .

一方、特許文献3に記載の技術によれば、ほぼ同一とみなせる被写体について、時間的に近い複数枚の画像に対して顔検出を行うことで、検出結果の確からしさを向上させ、高精度な露光制御を実現する。
特開2003-107555号公報 特開2005-318554号公報 特開2007-82026号公報
On the other hand, according to the technique described in Patent Document 3, the accuracy of the detection result is improved by performing face detection on a plurality of images close in time with respect to subjects that can be regarded as substantially the same, and high accuracy. Realize exposure control.
JP 2003-107555 A JP 2005-318554 A JP 2007-82026 A

上述した技術において共通するのは、顔検出対象画像とその検出結果に基づいて各種制御を行う画像、すなわち、撮影対象画像との時間差が比較的小さく、2つの画像間に大きな差分がないことを前提とする点である。   What is common in the above-described techniques is that the time difference between the face detection target image and the image on which various controls are performed based on the detection result, that is, the shooting target image is relatively small, and there is no large difference between the two images. This is a premise.

つまり、上述した技術は、いずれも撮影対象画像そのものに存在する顔領域を検出し、まさにその領域が鮮明となるよう各種制御を行うものである。
換言すれば、これらの技術は、たとえば、被写体自身が撮影されることを意識し、ほぼ静止状態でカメラに向かっている場合など、主に静止画の撮影において有効な技術といえる。
In other words, all of the above-described techniques detect a face area existing in the image to be imaged itself, and perform various controls so that the area becomes clear.
In other words, these techniques can be said to be effective techniques mainly for taking still images, for example, when the subject itself is taken to be photographed and the camera is almost stationary and facing the camera.

一方で、上述した技術では、監視カメラで動画像撮影する場合など、被写体が基本的に静止していないケースへの適用は難しい。   On the other hand, the above-described technique is difficult to apply to a case where the subject is basically not stationary, such as when a moving image is captured with a surveillance camera.

図1(a)はある時刻における入力画像の一例を示す図である。また、図1(b)は図1(a)に示す入力画像の時刻から若干の時間が経過した後の入力画像の一例を示す図である。   FIG. 1A is a diagram illustrating an example of an input image at a certain time. FIG. 1B is a diagram showing an example of the input image after a slight time has elapsed from the time of the input image shown in FIG.

特許文献1および3に記載の技術は、図1(a)において符号F21で示す位置に顔が検出された場合、図1(b)においても位置F21と同等の位置F31に顔が存在し、検出されることを前提としている。
しかしながら、図1(b)において実際に顔が存在する位置は符号F32で示す位置であるため、これら技術は有効に機能しない。
In the techniques described in Patent Documents 1 and 3, when a face is detected at a position indicated by reference numeral F21 in FIG. 1A, a face exists at a position F31 equivalent to the position F21 in FIG. It is assumed that it will be detected.
However, since the position where the face actually exists in FIG. 1B is the position indicated by the symbol F32, these techniques do not function effectively.

また、顔検出対象画像を取得する時点では、顔領域がどこであるかは不明であるため、必ずしも顔が検出できるような露光制御が行われるとは限らない。
たとえば、同じ場所を撮影する場合であっても、昼間の晴天下では顔が検出され、夜間の街灯の下では顔が検出されない、ということは一般に起こりうる。
Further, at the time of acquiring the face detection target image, it is unknown where the face region is, and therefore exposure control that can detect the face is not always performed.
For example, even when photographing the same place, it is generally possible that a face is detected under clear daylight and no face is detected under a streetlight at night.

図2(a)は、昼間に撮影された画像の一例を示す図である。また、図2(b)は、図2(a)と同一のアングルで夜間に撮影された画像の一例を示す図である。   FIG. 2A is a diagram illustrating an example of an image taken in the daytime. FIG. 2B is a diagram showing an example of an image taken at night at the same angle as FIG.

手法にもよるが、画像から人物の顔を検出するためには、顔領域内に所定のコントラストが必要である。
しかし、図2(b)に示すような画像においては、街灯1の周辺の明るい領域の影響で顔領域のコントラストが低くなるような露光制御がなされることがあり、検出に失敗する可能性がある。
顔検出対象画像に顔領域が存在しても、検出自体が不可能な場合、上記した技術はいずれも利用できない。
Although depending on the technique, in order to detect a human face from an image, a predetermined contrast is required in the face area.
However, in the image as shown in FIG. 2B, exposure control may be performed such that the contrast of the face area is lowered due to the influence of the bright area around the street lamp 1, and the detection may fail. is there.
If the face detection target image cannot be detected even if a face region exists in the face detection target image, none of the above-described techniques can be used.

また、ある人物が映っている一連の動画像(シーン)を構成する全ての静止画において、必ずしも顔が検出されるとは限らない。すなわち、現状の顔検出技術は、検出率100%ではない。
このようなケースで上記した技術を用いた場合は、顔が検出された静止画とそうでない静止画とで大きく異なる露光制御が行われる。
その結果、上記技術では、1つのシーンにおいて露光が安定せず、動画像として見た場合、チラツキが発生する問題が起こりうる。
Further, a face is not always detected in all still images constituting a series of moving images (scenes) in which a certain person is shown. That is, the current face detection technology is not 100% detection rate.
When the above-described technique is used in such a case, exposure control that is largely different between a still image in which a face is detected and a still image in which the face is not detected is performed.
As a result, in the above technique, the exposure is not stable in one scene, and flickering may occur when viewed as a moving image.

図3(a)〜(e)は、人物が登場するシーンの一例を構成するフレーム群を示す図である。   FIGS. 3A to 3E are diagrams showing a group of frames constituting an example of a scene in which a person appears.

ここでは、図3(b)のフレームFLbと図3(d)のフレームFLdでのみ顔が検出できたと仮定する。
また、図3(a)のフレームFLaの測光結果を元に図3(b)のフレームFLbの露光制御を行うものとする。
同様に、図3(b)のフレームFLbの測光結果を元に図3(c)のフレームFLcの露光制御を行うものとする。
図3(c)のフレームFLcの測光結果を元に図3(d)のフレームFLdの露光制御を行うものとする。
図3(d)のフレームFLdの測光結果を元に図3(e)のフレームFLeの露光制御を行うものとする。
そして、上記した技術により顔が検出されたときは、顔が検出されなかったときと比べて画像が明るくなるよう露光制御されるものとする。
Here, it is assumed that the face can be detected only in the frame FLb in FIG. 3B and the frame FLd in FIG.
Further, it is assumed that the exposure control of the frame FLb in FIG. 3B is performed based on the photometry result of the frame FLa in FIG.
Similarly, it is assumed that the exposure control of the frame FLc in FIG. 3C is performed based on the photometry result of the frame FLb in FIG.
Assume that the exposure control of the frame FLd in FIG. 3D is performed based on the photometric result of the frame FLc in FIG.
Assume that the exposure control of the frame FLe in FIG. 3E is performed based on the photometric result of the frame FLd in FIG.
When a face is detected by the above-described technique, exposure control is performed so that the image becomes brighter than when a face is not detected.

すると、図3(a)〜(e)に示すとおり、フレームFLb、フレームFLdは相対的に暗く、フレームFLc、フレームFLeは相対的に明るくなるよう露光制御されるため、1つのシーンにおいて露光が安定しない事態が発生する。
このように撮影された動画像には、チラツキが知覚されることとなることが予測される。もっとも、顔領域における測光結果のウェイトとそれ以外の領域における測光結果のウェイトとの差を小さくすればチラツキは軽減される。
しかし、それでは上記した技術の持つ効果をも損なわれることとなる。
Then, as shown in FIGS. 3A to 3E, the exposure is controlled so that the frames FLb and FLd are relatively dark and the frames FLc and FLe are relatively bright. An unstable situation occurs.
It is predicted that flicker will be perceived in the moving image shot in this way. However, flickering can be reduced by reducing the difference between the weight of the photometric result in the face area and the weight of the photometric result in the other areas.
However, this also impairs the effects of the technology described above.

本発明は、監視カメラなどによる定点撮影または準定点撮影において、動領域の検出結果を有効に利用した露光制御等を実現することが可能な画像処理装置、撮像装置、画像処理方法、およびプログラムを提供することにある。   The present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program capable of realizing exposure control and the like that effectively use a detection result of a moving area in fixed-point shooting or quasi-fixed-point shooting using a surveillance camera or the like. It is to provide.

本発明の第1の観点の画像処理装置は、制御情報に応じた状態で撮像された画像から画面内の動領域を検出し、検出情報を出力する検出部と、前記検出部が出力した過去の検出情報を蓄積する蓄積部と、前記蓄積部に蓄積された過去の検出情報に基づいて前記制御情報を生成し、当該制御情報に応じて撮像状態を制御する制御部とを有する。   An image processing apparatus according to a first aspect of the present invention detects a moving area in a screen from an image captured in a state according to control information, outputs a detection information, and a past output by the detection unit And a control unit that generates the control information based on the past detection information stored in the storage unit and controls the imaging state in accordance with the control information.

本発明の第2の観点の撮像装置は、少なくとも、外部からの制御に基づき画像の撮像を行う撮像部と、前記撮像部で撮像された画像から画面内の動領域を検出し検出情報を出力する検出部と、前記検出部が出力した過去の検出情報を蓄積する蓄積部と、前記蓄積部に蓄積された過去の検出情報履歴に基づいて前記撮像部に所定の制御を施す制御部とを有する。   An imaging device according to a second aspect of the present invention includes at least an imaging unit that captures an image based on control from the outside, and detects a moving area in the screen from the image captured by the imaging unit and outputs detection information A detection unit that accumulates past detection information output by the detection unit, and a control unit that performs predetermined control on the imaging unit based on past detection information history accumulated in the storage unit. Have.

好適には、前記撮像部は、画像の撮像に関する評価値を取得して前記制御部に出力し、前記制御部の制御情報に従って撮像条件を変化させる機能を有し、前記制御部は、前記蓄積部による検出情報履歴により過去に動領域が検出されたか否かを判定し、過去に動領域が検出されていないと判定した場合には、画面全体または画面中央部から前記評価値を取得し、過去に動領域が検出されていたと判定した場合には、過去に動領域が検出された領域についての前記評価値を取得するように前記撮像部を制御し、前記撮像部による評価値に応じた制御情報を前記撮像部に出力して撮像条件を変化させる。   Preferably, the imaging unit has a function of acquiring an evaluation value related to imaging of an image, outputting the evaluation value to the control unit, and changing an imaging condition according to control information of the control unit, and the control unit includes the storage It is determined whether or not a moving region has been detected in the past from the detection information history by the unit, and if it is determined that no moving region has been detected in the past, the evaluation value is acquired from the entire screen or the center of the screen, When it is determined that a moving area has been detected in the past, the imaging unit is controlled to acquire the evaluation value for the area in which the moving area has been detected in the past, and the evaluation value obtained by the imaging unit is determined. Control information is output to the imaging unit to change imaging conditions.

好適には、前記制御部は、過去に動領域が検出された領域が画面全体に占める割合が所定以上となるまで画面全体または画面中央部から評価値を取得するように制御する。   Preferably, the control unit performs control so that an evaluation value is acquired from the entire screen or the central portion of the screen until the ratio of the area in which the moving area has been detected in the past occupies the predetermined value or more.

好適には、前記撮像部は、画像の撮像に関する評価値を取得して前記制御部に出力し、前記制御部の制御情報に従って撮像条件を変化させる機能を有し、前記制御部は、前記撮像部において複数の領域に区分された画面の各領域についての部分評価値を取得するように制御し、前記部分評価値が取得される各領域が、前記蓄積部の検出情報履歴により動領域の検出の頻度が高い領域か否かを判定し、検出頻度が高いと判定した場合、前記部分評価値に相対的に高い重み付けをして前記部分評価値を更新し、検出頻度が低いと判定した場合、相対的に低い重み付けをして前記部分評価値を更新し、更新した部分評価値を加味して画面全体の評価値を得、当該画面全体の評価値に応じた制御情報を前記撮像部に出力して撮像条件を変化させる。   Preferably, the imaging unit has a function of acquiring an evaluation value related to imaging of an image, outputting the evaluation value to the control unit, and changing an imaging condition according to control information of the control unit, and the control unit includes the imaging Control to acquire a partial evaluation value for each area of the screen divided into a plurality of areas in the section, and each area from which the partial evaluation value is acquired is detected as a moving area based on the detection information history of the storage section. If it is determined whether the frequency of the region is high and it is determined that the detection frequency is high, the partial evaluation value is updated by relatively weighting the partial evaluation value, and the detection frequency is determined to be low The partial evaluation value is updated by relatively low weighting, the evaluation value of the entire screen is obtained by taking into account the updated partial evaluation value, and control information corresponding to the evaluation value of the entire screen is stored in the imaging unit. Output and change imaging conditions.

好適には、前記制御部は、前記部分評価値を更新するための重み付けの値を動領域の検出頻度に応じて設定する。   Suitably, the said control part sets the value of the weight for updating the said partial evaluation value according to the detection frequency of a moving region.

好適には、前記蓄積部に蓄積されている過去の検出情報の一部または全部を所定の条件において消去する消去部を含む。   Preferably, an erasing unit that erases part or all of past detection information stored in the storage unit under a predetermined condition is included.

好適には、前記所定の条件が、前回の消去から所定時間経過していることである。   Preferably, the predetermined condition is that a predetermined time has elapsed since the previous erasure.

好適には、前記撮像部は、撮影アングルを変更して撮像可能であり、現在のアングル情報を前記消去部に出力し、前記消去部は、アングル情報から撮影アングルの変化を検出すると消去信号を前記蓄積部に出力し、前記蓄積部は、前記消去信号を受けて、前記蓄積された過去の検出情報の少なくとも一部を破棄する。   Preferably, the imaging unit is capable of imaging by changing a shooting angle, and outputs current angle information to the erasing unit, and the erasing unit outputs an erasing signal when a change in the shooting angle is detected from the angle information. The storage unit outputs to the storage unit, and the storage unit receives the erase signal and discards at least a part of the stored past detection information.

好適には、アングル情報に応じて切り替え処理を行う切替部を有し、前記撮像部は、撮影アングルを変更して撮像可能であり、現在のアングル情報を前記切替部に出力し、前記蓄積部は、前記N種(Nは自然数)のアングルに対応する独立したN個の蓄積部を含み、前記切替部は、前記アングル情報に応じた蓄積部に切り替えて、対応する検出情報の蓄積および検出情報履歴の前記制御部への入力を行わせる。   Preferably, the image processing unit includes a switching unit that performs switching processing according to angle information, the imaging unit is capable of imaging by changing a shooting angle, outputs current angle information to the switching unit, and the storage unit Includes independent N storage units corresponding to the N types of angles (N is a natural number), and the switching unit switches to a storage unit corresponding to the angle information to store and detect corresponding detection information. The information history is input to the control unit.

好適には、前記検出部による検出情報および前記蓄積部の検出情報履歴に基づいて、前記蓄積部に蓄積された過去の検出情報履歴の収束度を取得する収束度取得部と、
前記収束度と検出情報履歴とから動領域の検出の対象とする入力画像の範囲を示す範囲情報を生成する範囲設定部と、を含み、前記検出部は、範囲設定部で設定された範囲で動領域の検出を行う。
Preferably, based on the detection information by the detection unit and the detection information history of the storage unit, a convergence degree acquisition unit for acquiring a convergence level of past detection information history stored in the storage unit;
A range setting unit that generates range information indicating a range of an input image that is a target of moving region detection from the convergence degree and the detection information history, and the detection unit is a range set by the range setting unit. Detect moving area.

好適には、前記収束度取得部は、前記検出部による検出情報を参照し動領域が少なくとも一つ検出されたと認識した場合、前記蓄積部の検出情報履歴から検出された動領域が過去に動領域が検出された領域に包含されているか否かを判定し、包含されていないと判定した場合は収束度を減少させ、包含されていると判定した場合は収束度を増加させて、前記範囲設定部に出力する。   Preferably, when the convergence degree acquiring unit recognizes that at least one moving region has been detected by referring to detection information from the detecting unit, the moving region detected from the detection information history of the storage unit has moved in the past. It is determined whether or not the region is included in the detected region, and when it is determined that the region is not included, the convergence is decreased, and when it is determined that the region is included, the convergence is increased and the range is determined. Output to the setting section.

好適には、前記範囲設定部は、検出情報履歴の収束後も動領域の検出を所定回数行うごとに画面全体を検出対象となるように範囲を設定する。   Preferably, the range setting unit sets the range so that the entire screen becomes the detection target every time the detection of the moving area is performed a predetermined number of times even after the detection information history converges.

本発明の第3の観点の画像処理方法は、制御情報に応じた状態で撮像された画像から画面内の動領域を検出し、検出情報を得る検出ステップと、前記検出ステップで得られた過去の検出情報を蓄積する蓄積ステップと、前記蓄積ステップで蓄積された過去の検出情報に基づいて前記制御情報を生成する生成ステップと、前記制御情報に応じて撮像状態を制御する制御ステップとを有する。   An image processing method according to a third aspect of the present invention includes a detection step of detecting a moving area in a screen from an image captured in a state corresponding to control information, obtaining detection information, and a past obtained in the detection step. An accumulation step for accumulating the detected information, a generation step for generating the control information based on the past detection information accumulated in the accumulation step, and a control step for controlling the imaging state according to the control information .

本発明の第4の観点は、制御情報に応じた状態で撮像された画像から画面内の動領域を検出し、検出情報を得る検出処理と、前記検出処理で得られた過去の検出情報を蓄積する蓄積処理と、前記蓄積処理で蓄積された過去の検出情報に基づいて前記制御情報を生成する生成処理と、前記制御情報に応じて撮像状態を制御する制御処理とを含む画像処理をコンピュータに実行させるプログラムである。   According to a fourth aspect of the present invention, a detection process for detecting a moving area in a screen from an image captured in a state corresponding to control information and obtaining detection information, and past detection information obtained by the detection process are obtained. An image process including an accumulation process to be accumulated, a generation process to generate the control information based on past detection information accumulated in the accumulation process, and a control process to control an imaging state according to the control information. This is a program to be executed.

本発明によれば、検出部において、制御情報に応じた状態で撮像された画像から画面内の動領域が検出され、その検出情報が蓄積部に出力される。
蓄積部においては、検出部が出力した過去の検出情報が蓄積される。
そして、制御部において、蓄積部に蓄積された過去の検出情報に基づいて制御情報が生成され、この制御情報に応じて撮像状態が制御される。
According to the present invention, the detection unit detects a moving area in the screen from an image captured in a state corresponding to the control information, and outputs the detection information to the storage unit.
In the storage unit, past detection information output by the detection unit is stored.
Then, in the control unit, control information is generated based on past detection information stored in the storage unit, and the imaging state is controlled in accordance with this control information.

本発明によれば、監視カメラなどによる定点撮影または準定点撮影において、動領域の検出結果を有効に利用した露光制御等を実現することができる。   ADVANTAGE OF THE INVENTION According to this invention, the exposure control etc. which utilized the detection result of a moving area effectively in fixed-point imaging | photography or semi-fixed-point imaging | photography with a surveillance camera etc. are realizable.

以下、本発明の実施形態を図面に関連付けて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本実施形態においては、監視カメラなどによる定点撮影または準定点撮影において、顔検出結果を有効に利用した露光制御を実現する画像処理装置を有する撮像装置(カメラ装置)について説明する。   In the present embodiment, an imaging apparatus (camera apparatus) having an image processing apparatus that realizes exposure control that effectively uses face detection results in fixed-point shooting or quasi-fixed-point shooting with a monitoring camera or the like will be described.

本実施形態においては、まず、本発明の背景および概要を説明した後、具体的な構成例について説明する。   In the present embodiment, first, the background and outline of the present invention will be described, and then a specific configuration example will be described.

監視カメラの監視用途においては、不審人物を明瞭に見たい、というニーズが存在する。
既存の技術では、主に静止画を対象とし、今現在、正に顔が存在する領域が明瞭となるような制御を行っている。
監視カメラなどは、定点撮影、または、プリセットされたアングルを手動あるいは自動で切り替える準定点撮影を行い、その撮影時間は、1日24時間、1年365日、以上連続することが少なくない。
There is a need to clearly see a suspicious person in surveillance camera surveillance applications.
In the existing technology, a still image is mainly targeted, and control is performed so that the area where the face is present is clear now.
Surveillance cameras and the like perform fixed-point shooting or semi-fixed-point shooting that switches a preset angle manually or automatically, and the shooting time is often 24 hours a day, 365 days a year.

たとえば、屋外で使用する場合、昼夜で被写体の照明条件が変わる。すなわち、夜間の照明条件では顔が検出されない可能性があり、顔が検出されなければ、既存の技術を適用することは困難となる。
監視カメラにおいては、たとえ顔が検出できなくとも、顔が存在しうる領域は明瞭に見えることが望まれる。
For example, when used outdoors, the lighting conditions of the subject change day and night. In other words, there is a possibility that a face may not be detected under night illumination conditions, and if a face is not detected, it is difficult to apply an existing technique.
In a surveillance camera, it is desirable that a region where a face can exist is clearly visible even if the face cannot be detected.

また、光と影の具合により、同じ画面内でも検出できる顔とできない顔が存在しうる。
監視カメラにおいては、人が存在しうる領域はすべからく明瞭に見えることが望ましい。そして、監視カメラにおいては、画面内の特定の人物だけが明瞭に見えても、それ以外の人物が不明瞭であっては困る。
Further, depending on the condition of light and shadow, there may be a face that can be detected and a face that cannot be detected even within the same screen.
In a surveillance camera, it is desirable that all areas where people can exist are clearly visible. In the surveillance camera, even if only a specific person on the screen can be clearly seen, it is not necessary that other persons are unclear.

一般的に、監視用途では基本的に被写体の人物が撮影されていることは意識されていない。被写体は激しく移動する可能性があるが、既存の技術においては、被写体がほぼ静止していることを前提としている。
つまり、既存の技術をそのまま監視用途に適用することは難しい。
Generally, in surveillance applications, it is not conscious that a subject person is basically photographed. The subject may move violently, but existing technology assumes that the subject is almost stationary.
That is, it is difficult to apply the existing technology as it is for monitoring purposes.

そこで、本発明においては、まず、画面を「人物が存在しうる領域」と「人物が存在することはない領域」に分離する。
その目的のために、本実施形態においては、顔検出を行い、検出結果を蓄積して、人物が存在しうる部分(=顔が存在しえない部分)を示すマップを生成する。
そして、本実施形態においては、人物の存在位置さえ特定できれば、検出内容は顔でなくとも構わない。同じアングルであれば、昼でも夜でも、人が存在しうる領域はほぼ同じと期待できるケースが多いことから、夜の顔検出が難しい場合には、昼の間に顔検出を行ってマップを生成しておき、そのマップを使って夜の露光制御を行う。
Therefore, in the present invention, first, the screen is divided into “area where a person can exist” and “area where no person exists”.
For this purpose, in the present embodiment, face detection is performed, detection results are accumulated, and a map indicating a portion where a person can exist (= portion where a face cannot exist) is generated.
In the present embodiment, the detected content does not have to be a face as long as the position of the person can be specified. If the angle is the same, there are many cases where people can be expected to have almost the same area at daytime and nighttime. It is generated and the night exposure control is performed using the map.

また、本実施形態においては、上述した「人物が存在しうる領域」全体の視認性を上げる方向で制御を行う。
この場合、照明条件の違いにより、たとえ検出できない顔があっても、その部分の視認性も向上する方向で制御される。
長時間撮影後、マップの更新が収束してきたら、たとえば顔が存在しうる場所、しない場所、が安定し、マップの更新が収束してきた場合、顔が存在しうる場所に限って顔検出を行っても、画面全体に対し顔検出を行う場合と等価な結果が得られる。
In the present embodiment, the control is performed in the direction of increasing the visibility of the entire “region where a person can exist” described above.
In this case, even if there is a face that cannot be detected due to the difference in illumination conditions, the face is controlled in a direction that improves the visibility.
If the map update converges after shooting for a long time, for example, if the place where the face can exist and the place where the face does not exist is stable and the map update converges, the face detection is performed only in the place where the face can exist. However, an equivalent result to that obtained when face detection is performed on the entire screen can be obtained.

また、現在の顔位置から制御を行う既存技術と併用する場合であっても、検出にかかる電力消費を抑えることが可能となる。
顔検出の検出速度が遅い、あるいは顔検出の検出率が低い場合であっても、マップの更新収束に時間がかかるだけで、最終的に得られるマップに違いはなく、顔検出にかかる消費電力を抑制することができる。
In addition, even when used in combination with existing technology that controls from the current face position, it is possible to reduce power consumption for detection.
Even if the detection speed of face detection is slow or the detection rate of face detection is low, it only takes time for map update convergence, there is no difference in the final map, and the power consumption for face detection Can be suppressed.

次に、本発明の具体的な実施形態について説明する。   Next, specific embodiments of the present invention will be described.

<第1実施形態>
まず、本発明の第1の実施形態について説明する。なお、本第1の実施形態においては、定点撮影、つまり、常に一定のアングルで撮影されることを想定している。
<First Embodiment>
First, a first embodiment of the present invention will be described. In the first embodiment, it is assumed that fixed-point shooting, that is, shooting at a constant angle is always performed.

図4は、本発明の第1の実施形態に係る画像処理装置を適用した撮像装置(カメラ装置)の構成の一例を示すブロック図である。   FIG. 4 is a block diagram illustrating an example of a configuration of an imaging apparatus (camera apparatus) to which the image processing apparatus according to the first embodiment of the present invention is applied.

本撮像装置100は、図4に示すように、撮像部101、検出部102、蓄積部103、および制御部104を有する。
これらの構成要素のうち、検出部102、蓄積部103、および制御部104により画像処理装置が形成される。
As shown in FIG. 4, the imaging apparatus 100 includes an imaging unit 101, a detection unit 102, a storage unit 103, and a control unit 104.
Among these components, the detection unit 102, the storage unit 103, and the control unit 104 form an image processing apparatus.

撮像部101は、被写体からの反射光などで構成される光波を入力し、画像に変換し、入力画像IM、後段の検出部102等の処理系に出力する。
撮像部101は、画像と同時にたとえば露光制御のための制御評価値(露光評価値)ESTを得て、制御部104に出力する。
撮像部101は、外部の制御部104からの制御情報CTLに基づき、出力画像における露光量を変化させる。
The imaging unit 101 receives a light wave composed of reflected light from a subject, converts the light wave into an image, and outputs the image to a processing system such as the input image IM and the subsequent detection unit 102.
The imaging unit 101 obtains, for example, a control evaluation value (exposure evaluation value) EST for exposure control simultaneously with the image, and outputs the control evaluation value to the control unit 104.
The imaging unit 101 changes the exposure amount in the output image based on the control information CTL from the external control unit 104.

検出部102は、撮像部101による画像IMを入力し、入力画像IM中から被写体である人物の顔を検出し、検出情報DTCを蓄積部103に出力する。ここでは、顔が画面内の動領域(構造物)に相当する。
ここで、検出情報とは、具体的には顔が検出された位置やサイズなど、画像中における顔領域を特定するための情報である。
なお、検出部102に要求される検出速度は、既存技術で要求される速度と比べて遅くても構わない。また、検出率が低くても構わないが、誤検出率は低いことが望ましい。
たとえば、検出部102は、各領域について顔らしさを示す評価値を算出し、この評価値が所定の閾値以上であれば顔領域、所定の閾値未満であれば非顔領域とする顔検出手法を適用することができる。この場合は、前記所定の閾値を高く設定することで、誤検出率を低下させることが可能である。
The detection unit 102 receives the image IM from the imaging unit 101, detects the face of a person who is a subject from the input image IM, and outputs detection information DTC to the storage unit 103. Here, the face corresponds to a moving area (structure) in the screen.
Here, the detection information is information for specifying a face region in the image, such as the position and size where the face is specifically detected.
Note that the detection speed required for the detection unit 102 may be slower than the speed required for the existing technology. The detection rate may be low, but it is desirable that the false detection rate is low.
For example, the detection unit 102 calculates an evaluation value indicating the likelihood of a face for each area. Can be applied. In this case, it is possible to reduce the false detection rate by setting the predetermined threshold value high.

蓄積部103は、検出部102による検出情報DTCを入力し、所定の形式に変換して、蓄積する。
なお、以下では、蓄積部103に蓄積された過去の検出情報のことを「検出情報履歴」と呼ぶこととする。
The storage unit 103 receives the detection information DTC from the detection unit 102, converts it into a predetermined format, and stores it.
Hereinafter, the past detection information stored in the storage unit 103 is referred to as “detection information history”.

制御部104は、撮像部101による露光評価値ESTと蓄積部103に蓄積された検出情報履歴DTCHとを入力し、これらに基づいて撮像部101における露光量を制御する機能を有する。   The control unit 104 has a function of inputting the exposure evaluation value EST from the imaging unit 101 and the detection information history DTCH stored in the storage unit 103 and controlling the exposure amount in the imaging unit 101 based on these.

図5は、本実施形態に係る撮像部101の詳細な構成の一例を示すブロック図である。   FIG. 5 is a block diagram illustrating an example of a detailed configuration of the imaging unit 101 according to the present embodiment.

撮像部101は、少なくとも、レンズ1011、絞り1012、CCDやCMOSセンサからなる撮像素子1013、アナログ‐デジタル(AD)コンバータ1014、および露光評価値算出部1015により構成される。   The imaging unit 101 includes at least a lens 1011, an aperture 1012, an imaging element 1013 including a CCD or a CMOS sensor, an analog-digital (AD) converter 1014, and an exposure evaluation value calculation unit 1015.

撮像部101において、入力された光波は、レンズ1011を通して撮像素子1013上に被写体を結像する。撮像素子1013は、被写体からの光をアナログ電気信号に変換し、ADコンバータ1014はさらにアナログ電気信号をデジタル信号に変換し、最終的にデジタルの画像データ(IM)として出力する。
この過程において、露光評価値算出部1015は、出力される画像データについての露光評価値を算出して、制御部104に出力する。
In the imaging unit 101, the input light wave forms an image of the subject on the imaging element 1013 through the lens 1011. The image sensor 1013 converts light from the subject into an analog electrical signal, and the AD converter 1014 further converts the analog electrical signal into a digital signal, which is finally output as digital image data (IM).
In this process, the exposure evaluation value calculation unit 1015 calculates an exposure evaluation value for the output image data and outputs it to the control unit 104.

また、撮像部101は、必要に応じてさらに、絞り1012、電子シャッタ・メカニカルシャッタ、可変ゲインアンプなどを内包する。そして、撮像部101は、制御部104からの制御情報CTLに基づいて絞り1012の開口、シャッタの開放時間、ゲイン量などを変化させることで、出力画像の露光量を適正に調節できるものとする。   The imaging unit 101 further includes a diaphragm 1012, an electronic shutter / mechanical shutter, a variable gain amplifier, and the like as necessary. The imaging unit 101 can appropriately adjust the exposure amount of the output image by changing the aperture of the diaphragm 1012, the shutter opening time, the gain amount, and the like based on the control information CTL from the control unit 104. .

図5に示す撮像部101では、簡単のため絞り1012のみを配している。外部からの制御情報CTLに基づき、絞り1012の開口を大きくしたり、小さくしたりすることで、撮像素子1013に照射される光の量、ひいては、露光量を調節できる。
また、別の制御情報により、露光評価値算出部1015に対して、撮像素子1013上の所定の領域からのみ露光評価値ESTを取得するよう制御してもよい。
あるいは、露光評価値算出部1015において、各領域の部分評価値に領域ごとに独立したウェイトを乗算後、全ての部分評価値を加算したものを露光評価値ESTとするよう制御してもよい。
In the imaging unit 101 shown in FIG. 5, only the aperture 1012 is provided for simplicity. Based on the control information CTL from the outside, by increasing or decreasing the aperture of the aperture 1012, the amount of light irradiated to the image sensor 1013 and thus the exposure amount can be adjusted.
Further, by another control information, the exposure evaluation value calculation unit 1015 may be controlled to acquire the exposure evaluation value EST only from a predetermined region on the image sensor 1013.
Alternatively, the exposure evaluation value calculation unit 1015 may control the partial evaluation value of each region multiplied by an independent weight for each region and then add all the partial evaluation values as the exposure evaluation value EST.

図6は、光波を入力し、蓄積部103に検出情報履歴を構築するまでの動作フローの一例を示すフローチャートである。   FIG. 6 is a flowchart illustrating an example of an operation flow from inputting a light wave to constructing a detection information history in the storage unit 103.

処理開始後、ステップST1において、撮像部101が、入力された光波を画像データIMに変換し、検出部102に出力する。
次に、ステップST2において、検出部102が、前記画像データにおける顔領域を検出し、検出情報DTCを蓄積部103に出力する。
最後に、ステップS3において、検出部103による検出情報DTCにより蓄積部103内の検出情報履歴DTCHを更新した上で、処理を終了する。
After starting the processing, in step ST1, the imaging unit 101 converts the input light wave into image data IM and outputs the image data IM to the detection unit 102.
Next, in step ST <b> 2, the detection unit 102 detects a face area in the image data, and outputs detection information DTC to the storage unit 103.
Finally, in step S3, the detection information history DTCH in the storage unit 103 is updated with the detection information DTC by the detection unit 103, and then the process ends.

図7(a)および(b)は、本実施形態における顔検出の状況および検出情報履歴の形式の一例を示す図である。   FIGS. 7A and 7B are diagrams showing an example of a face detection situation and a detection information history format in the present embodiment.

図7(a)は、一連の画像における顔検出の状況の一例を示す図である。
図7(a)において、各画像F01〜F06は、縦横5x5の領域に分割され、顔が検出された領域にはハッチングが施され、それ以外の領域にはハッチングは施されていないものとする。
FIG. 7A is a diagram illustrating an example of a face detection situation in a series of images.
In FIG. 7A, each of the images F01 to F06 is divided into 5 × 5 vertical and horizontal areas, the areas where the face is detected are hatched, and the other areas are not hatched. .

図7(b)は、蓄積部103内の検出情報履歴の形式の一例を示す図である。
ここで、図7(b)は、図7(a)に示す6枚の画像についての検出結果を蓄積している様子を示している。
図7(b)において、顔が検出された画像を特定する情報と、前記画像における顔領域の座標とのセットを1つのエントリとし、過去の一定期間についての検出情報がいわゆるキューの形で保持されている。
図7(b)においては、検出情報DTCとして、フレームF01の第1の顔領域座標(3,2)、フレームF01の第2の顔領域座標(1,3)、フレームF02の第1の顔領域座標(1,4)、フレームF02の第1の顔領域座標(2,4)が例示されている。
さらに、図7(b)においては、検出情報DTCとして、フレームF05の第1の顔領域座標(2,3)、フレームF06の第1の顔領域座標(2,2)、フレームF06の第2の顔領域座標(3,3)が例示されている。
なお、キューが一杯になると、基本的に古い検出情報DTCから順に破棄されるものとする。
FIG. 7B is a diagram illustrating an example of the format of the detection information history in the storage unit 103.
Here, FIG. 7B shows a state where the detection results for the six images shown in FIG. 7A are accumulated.
In FIG. 7 (b), a set of information specifying the image in which the face is detected and the coordinates of the face area in the image is set as one entry, and the detection information for a certain past period is held in the form of a so-called queue. Has been.
In FIG. 7B, the detection information DTC includes the first face area coordinates (3, 2) of the frame F01, the second face area coordinates (1, 3) of the frame F01, and the first face of the frame F02. The area coordinates (1, 4) and the first face area coordinates (2, 4) of the frame F02 are illustrated.
Further, in FIG. 7B, the detection information DTC includes the first face area coordinates (2, 3) of the frame F05, the first face area coordinates (2, 2) of the frame F06, and the second face area of the frame F06. The face area coordinates (3, 3) are illustrated.
It is assumed that when the queue is full, the old detection information DTC is basically discarded in order.

図8(a)および(b)は、本実施形態における顔検出の状況および検出情報履歴の形式の別の一例を示す図である。   FIGS. 8A and 8B are diagrams showing another example of the face detection status and the detection information history format in the present embodiment.

図8(a)は、一連の画像における顔検出の状況の別の一例を示す図である。
図8(a)において、図7(a)と同様に、各画像F11〜F16は、縦横5x5の領域に分割され、顔が検出された領域はハッチングが施され、それ以外の領域にはハッチングは施されていないものとする。
FIG. 8A is a diagram illustrating another example of the situation of face detection in a series of images.
In FIG. 8A, as in FIG. 7A, each of the images F11 to F16 is divided into 5 × 5 vertical and horizontal areas, the area where the face is detected is hatched, and the other areas are hatched. Shall not be given.

図8(b)は、蓄積部103内の検出情報履歴の形式の別の一例を示す図である。
図8(b)の例では、図7(b)に示す形式とは異なり、過去の検出情報を画像の各領域における顔検出の度数マップの形で保持する。
なお、前記度数の取りうる値には所定の上限が存在し、この上限値を超える度数は、上限値でクリップされるものとする。
たとえば、所定の領域において過去に一度でも顔が検出されたか否かだけ区別できればよいなら、度数の取りうる値は0と1だけであり、既に過去に一度顔が検出された領域(すなわち、度数1の領域)において再び顔が検出された場合でも、度数は1のままとなる。
この場合、蓄積部103は、過去の検出情報を、画像の各領域における過去の検出の有無を示す二値情報の形式で蓄積することになる。
また、図8(b)において、検出情報履歴は縦横5x5のマップ形式を採っているが、画面の領域分割方法はこれに限るものではない。
FIG. 8B is a diagram illustrating another example of the format of the detection information history in the storage unit 103.
In the example of FIG. 8B, unlike the format shown in FIG. 7B, the past detection information is held in the form of a frequency map for face detection in each region of the image.
It should be noted that a predetermined upper limit exists for the value that the frequency can take, and the frequency exceeding the upper limit is clipped at the upper limit.
For example, if it is only necessary to distinguish whether or not a face has been detected once in a predetermined area, the values that can be taken are only 0 and 1, and the area in which a face has already been detected in the past (that is, the frequency) Even when a face is detected again in the area (1), the frequency remains at 1.
In this case, the accumulation unit 103 accumulates past detection information in the form of binary information indicating the presence or absence of past detection in each region of the image.
In FIG. 8B, the detection information history has a 5 × 5 map format, but the screen area dividing method is not limited to this.

図9(a)〜(f)は、図8(a)に示す6枚の画像F11〜F16の検出結果により、蓄積部103において図8(b)に示す形式の検出情報履歴が順次更新されていく様子を示す図である。5x5の各領域に書かれた数字は、度数を意味する。
なお、図9(a)〜(f)においては、度数の取りうる上限値を3としているため、4回以上顔が検出された領域に対応する度数は3のまま更新されない。
この場合、蓄積部103は、過去の検出情報を、画像の各領域における過去の検出頻度を示す多値情報の形式で蓄積することなる。
9A to 9F, the detection information history of the format shown in FIG. 8B is sequentially updated in the storage unit 103 based on the detection results of the six images F11 to F16 shown in FIG. It is a figure which shows a mode that it goes. The number written in each 5 × 5 area means frequency.
In FIGS. 9A to 9F, since the upper limit value that the frequency can take is 3, the frequency corresponding to the area where the face is detected four times or more remains 3 and is not updated.
In this case, the storage unit 103 stores past detection information in the form of multi-value information indicating the past detection frequency in each region of the image.

図10は、制御部104により撮像部101を制御する際の動作フローの一例を示すフローチャートである。   FIG. 10 is a flowchart illustrating an example of an operation flow when the imaging unit 101 is controlled by the control unit 104.

処理開始後、制御部104は、ステップST11において、撮像部101が出力する露光評価値を取得する。
そして、制御部104は、ステップST12において、撮像部101による露光評価値ESTに応じた制御情報CTLを撮像部101に送出し、撮像部101を制御する。
次に、制御部104は、ステップST13において、蓄積部103内の検出情報履歴DTCHを読み出し、過去に顔が検出されたことがあるか否かを判定する。
制御部104は、ステップST13において、過去に顔が検出されたことがないと判定した場合、ステップS14の処理に移行し、画面全体または画面中央部から露光評価値を取得するよう撮像部101を制御し、処理を終了する。
他方、制御部104は、ステップST13において、過去に顔が検出されたことがあると判定した場合、ステップS15の処理に移行し、過去に顔が検出された領域についてのみ露光評価値を取得するよう撮像部101を制御し、処理を終了する。
After starting the process, the control unit 104 acquires an exposure evaluation value output from the imaging unit 101 in step ST11.
In step ST <b> 12, the control unit 104 sends control information CTL corresponding to the exposure evaluation value EST from the imaging unit 101 to the imaging unit 101 to control the imaging unit 101.
Next, in step ST13, the control unit 104 reads the detection information history DTCH in the storage unit 103, and determines whether a face has been detected in the past.
If the control unit 104 determines in step ST13 that no face has been detected in the past, the control unit 104 proceeds to the process of step S14 and causes the imaging unit 101 to acquire an exposure evaluation value from the entire screen or the center of the screen. Control and end the process.
On the other hand, when it is determined in step ST13 that the face has been detected in the past, the control unit 104 proceeds to the process of step S15 and acquires the exposure evaluation value only for the region in which the face has been detected in the past. The imaging unit 101 is controlled to end the processing.

図10に示す動作フローによれば、過去に顔が検出されている領域、つまり、顔が存在する確率が高い領域についてのみ露光評価値を取得するため、顔が存在しうる領域の視認性が向上するような露光制御を行うことが可能となる。
ただし、過去に十分な頻度で顔が検出されていない場合、適切な露光評価値が取得できない可能性がある。
そのようなときは、過去に顔が検出された領域が画面全体に占める割合が所定以上となるまで、画面全体または画面中央部から露光評価値を取得するよう制御することが望ましい。
According to the operation flow shown in FIG. 10, the exposure evaluation value is acquired only for a region where a face has been detected in the past, that is, a region where the probability that a face exists is high. It is possible to perform exposure control that improves.
However, if a face has not been detected with sufficient frequency in the past, an appropriate exposure evaluation value may not be acquired.
In such a case, it is desirable to perform control so that the exposure evaluation value is acquired from the entire screen or the center of the screen until the ratio of the area in which the face has been detected in the past occupies the predetermined screen or more.

図11は、制御部104により撮像部101を制御する際の動作フローの別の一例を示すフローチャートである。   FIG. 11 is a flowchart illustrating another example of an operation flow when the imaging unit 101 is controlled by the control unit 104.

処理開始後、制御部104は、ステップST21において、画面全体の露光評価値をゼロで初期化する。
次に、制御部104は、以下に示すステップST22〜ステップST26に示す処理を画面の各領域に対して実行する。
制御部104は、ステップST22において、撮像部101から複数の領域に区分された画面の各領域についての部分評価値を取得し、続くステップST23において蓄積部103の検出情報履歴DTCHにより顔検出の頻度が高い領域か否かを判定する。
制御部104は、ステップST23において顔検出頻度が高いと判定した場合、ステップST24において前記部分評価値に相対的に高いウェイトをかけて(重み付けして)前記部分評価値を更新し、ステップST26の処理に移行する。
他方、制御部104は、ステップST23において、顔検出頻度が低いと判定した場合、ステップST25において相対的に低いウェイトをかけて前記部分評価値を更新し、ステップST26の処理に移行する。
次に、制御部104は、ステップST26において、画面全体の露光評価値に前記更新された部分評価値を加算する。
全ての領域について、ステップST22〜ステップST26の処理を終了の後、制御部104は、ステップST27において、露光評価値を各領域のウェイトに応じて正規化する。
そして、制御部104は、ステップST28において最終的に得られた露光評価値に基づいて撮像部101を制御し、処理を終了する。
After starting the process, the control unit 104 initializes the exposure evaluation value of the entire screen to zero in step ST21.
Next, the control part 104 performs the process shown to step ST22-step ST26 shown below with respect to each area | region of a screen.
In step ST22, the control unit 104 acquires partial evaluation values for each area of the screen divided into a plurality of areas from the imaging unit 101, and in subsequent step ST23, the frequency of face detection based on the detection information history DTCH of the storage unit 103. It is determined whether the area is high.
When it is determined in step ST23 that the face detection frequency is high, the control unit 104 updates the partial evaluation value by applying a relatively high weight (weighting) to the partial evaluation value in step ST24. Transition to processing.
On the other hand, if it is determined in step ST23 that the face detection frequency is low, the control unit 104 updates the partial evaluation value by applying a relatively low weight in step ST25, and proceeds to the process of step ST26.
Next, in step ST26, the control unit 104 adds the updated partial evaluation value to the exposure evaluation value for the entire screen.
After completing the processing of step ST22 to step ST26 for all regions, the control unit 104 normalizes the exposure evaluation value according to the weight of each region in step ST27.
And the control part 104 controls the imaging part 101 based on the exposure evaluation value finally obtained in step ST28, and complete | finishes a process.

図11に示す動作フローによれば、過去に顔が一度でも検出されている領域、つまり、顔が存在する確率が高い領域に大きいウェイトをかけて露光評価値を算出するため、顔が存在しうる領域の視認性が向上するような露光制御を行うことが可能となる。
ただし、図10に示す動作フローとは異なり、過去に顔が存在しなかった領域についても部分評価値を算出するため、検出結果の蓄積時間が十分でない場合であっても、例外的な処理を行う必要がない利点がある。
また、部分評価値を更新するためのウェイトの値を顔の検出頻度に応じて適切に設定することで、顔が存在する確率が高い領域ほど、視認性が高くなるような露光制御が可能となる。
According to the operation flow shown in FIG. 11, since an exposure evaluation value is calculated by applying a large weight to a region where a face has been detected in the past, that is, a region where the probability that a face exists is high, there is no face. It is possible to perform exposure control that improves the visibility of the area that can be obtained.
However, unlike the operation flow shown in FIG. 10, partial evaluation values are calculated even for areas where no faces existed in the past, so even if the accumulation time of detection results is not sufficient, exceptional processing is performed. There is an advantage that does not need to be done.
In addition, by appropriately setting the weight value for updating the partial evaluation value according to the detection frequency of the face, it is possible to perform exposure control such that the visibility is higher in an area where the probability that a face exists is higher. Become.

ここで、図2(a)および(b)に示す画像と同一のアングルで昼間に長時間撮影する場合を考察する。   Here, consider the case of shooting for a long time in the day at the same angle as the images shown in FIGS. 2 (a) and 2 (b).

図12(a)および(b)は、検出情報履歴の収束状態および露光制御の元に夜間撮影された画像の一例を示す図である。   FIGS. 12A and 12B are diagrams illustrating an example of an image captured at night under the convergence state of the detection information history and exposure control.

蓄積部103内の検出情報履歴の形式を図8(b)に示すものとし、簡単のため頻度の上限を1とすると、検出情報履歴は、図12(a)に示す状態に収束するものと推察される。
つまり、路上に相当する領域では顔が検出され、それ以外の領域たとえば街灯周辺では顔が検出されないことを示す結果が得られる。
なお、検出部102の検出率や検出速度は、検出情報履歴の更新が収束するまでにかかる時間に影響するだけで、収束した検出情報履歴に大きな差分を生じさせるものではない。
この検出情報履歴を用いて、図11に示す動作フローに従い、頻度が1の領域についての部分評価値のウェイトが高く、頻度が0の領域についての部分評価値のウェイトが低くなるように全体の評価値を算出する。これにより、同一アングルにて夜間撮影を行う場合でも、街灯周辺の明るい領域の影響を受けることなく、露光制御を行うことができるようになる。
また、検出情報履歴の収束までにかかる時間を犠牲にすることで、検出部102の回路規模抑制や、消費電力低下を実現することも可能となる。
Assuming that the format of the detection information history in the storage unit 103 is as shown in FIG. 8B and the upper limit of the frequency is 1 for simplicity, the detection information history converges to the state shown in FIG. Inferred.
That is, a result is obtained that indicates that a face is detected in an area corresponding to the road, and no face is detected in other areas, for example, around street lamps.
Note that the detection rate and detection speed of the detection unit 102 only affect the time taken for the update of the detection information history to converge, and do not cause a large difference in the converged detection information history.
Using this detection information history, according to the operation flow shown in FIG. 11, the weight of the partial evaluation value for the region with the frequency of 1 is high and the weight of the partial evaluation value for the region with the frequency of 0 is low. An evaluation value is calculated. As a result, even when shooting at night from the same angle, exposure control can be performed without being affected by bright areas around the street lamp.
Further, by sacrificing the time taken until the detection information history converges, it is possible to reduce the circuit scale of the detection unit 102 and to reduce power consumption.

図12(b)は、このような露光制御の元に夜間撮影された画像の一例を示している。
図2(b)に示す画像と比べ、街灯1の周辺部が白とびする可能性はあるものの、顔が存在しうる重要な領域のコントラストは保持した画像が得られることが期待できる。また、そのような露光制御が行われることにより、顔検出率自体の向上も期待できる。
FIG. 12B shows an example of an image taken at night under such exposure control.
Compared with the image shown in FIG. 2B, although there is a possibility that the peripheral portion of the streetlight 1 is overexposed, it can be expected that an image maintaining the contrast of an important region where a face can exist can be obtained. In addition, by performing such exposure control, an improvement in the face detection rate itself can be expected.

また、本実施形態においては、既存の技術とは異なり、ある画像で検出された顔領域のウェイトのみを高くするのではなく、過去に顔検出がなされた領域全てのウェイトを高くする。
つまり、本実施形態によれば、より広い面積についてのウェイトを高くするため、特定の人物の移動など画像中の小領域の変化に対してロバストな制御が可能となる。
加えて、過去に顔検出がなされた領域の総和は、連続する画像間で急激に変化するのではなく、長時間掛けてなだらかに変化(拡大)していくため、人物が移動していくシーンにおいて露光が安定しない状況を回避できるようになる。
Further, in the present embodiment, unlike the existing technology, only the weight of the face area detected in a certain image is not increased, but the weight of all areas in which face detection has been performed in the past is increased.
In other words, according to the present embodiment, since the weight for a larger area is increased, it is possible to perform robust control against changes in a small region in the image such as movement of a specific person.
In addition, the total of the areas where face detection has been performed in the past does not change abruptly between successive images, but gradually changes (enlarges) over a long period of time, so a scene in which a person moves In this case, it is possible to avoid a situation where the exposure is unstable.

なお、本第1の実施形態の説明においては、顔の検出情報により人物の存在する位置、ひいては視認性を高めたい位置を特定していたが、たとえば動きの検出情報により人物の存在する位置を特定し、その部分の視認性を高めるような露光制御を行ってもかまわない。
また、本第1の実施形態を応用し、露光制御の代わりに、フォーカス制御、ホワイトバランス制御を行うようにしても、顔が存在しうる領域の視認性を向上できることは当業者にとって自明である。
In the description of the first embodiment, the position where the person exists, and thus the position where the visibility is desired to be improved is specified by the face detection information. However, for example, the position where the person exists is determined by the movement detection information. The exposure control may be performed so as to identify and improve the visibility of the portion.
It is obvious to those skilled in the art that even if the first embodiment is applied and focus control and white balance control are performed instead of exposure control, the visibility of a region where a face can exist can be improved. .

<第2の実施形態>
本第2の実施形態および後で説明する第3の実施形態においては、準定点撮影、つまり、時間帯などにより異なるアングルで撮影されるケースに対して本発明を応用する場合を例に説明する。
<Second Embodiment>
In the second embodiment and the third embodiment to be described later, a case where the present invention is applied to quasi-fixed point shooting, that is, a case of shooting at a different angle depending on a time zone will be described as an example. .

図13は、本発明の第2の実施形態に係る画像処理装置を適用した撮像装置(カメラ装置)の構成の一例を示すブロック図である。
なお、第2の実施形態において、上述した第1の実施形態の撮像装置(画像処理装置)と同一構成のブロックについては同一符号を付して表し、その詳細な説明を省略する。
FIG. 13 is a block diagram illustrating an example of a configuration of an imaging apparatus (camera apparatus) to which the image processing apparatus according to the second embodiment of the present invention is applied.
In the second embodiment, blocks having the same configuration as those of the imaging apparatus (image processing apparatus) of the first embodiment described above are denoted by the same reference numerals, and detailed description thereof is omitted.

本第2の実施形態の撮像装置100Aは、図13に示すように、撮像部101A、検出部102、蓄積部103A、制御部104、および消去部105を有する。   As illustrated in FIG. 13, the imaging apparatus 100A according to the second embodiment includes an imaging unit 101A, a detection unit 102, a storage unit 103A, a control unit 104, and an erasing unit 105.

撮像部101Aは、被写体からの反射光などで構成される光波を入力し、画像に変換して、後段の検出部102等の処理系に出力する。
この構成は本発明の第1の実施形態の撮像装置100における撮像部101とほぼ同等である。本第2の実施形態の撮像部101Aは、撮影アングルを変更するための図示しないモータを備え、現在の撮影アングルの情報であるアングル情報ANGLを出力する点が、第1の実施形態の撮像部101と異なる。
撮像部101Aは、アングル情報ANGLを消去部105に出力する。
The imaging unit 101A receives a light wave composed of reflected light from a subject, converts the light wave into an image, and outputs the image to a processing system such as a detection unit 102 at a later stage.
This configuration is almost the same as that of the imaging unit 101 in the imaging apparatus 100 according to the first embodiment of the present invention. The imaging unit 101A of the second embodiment includes a motor (not shown) for changing the shooting angle, and outputs the angle information ANGL that is information of the current shooting angle. The imaging unit of the first embodiment. 101.
The imaging unit 101A outputs the angle information ANGL to the erasing unit 105.

蓄積部103Aは、検出部102による検出情報DTCを入力し、所定の形式に変換して、蓄積する。
この構成は本発明の第1の実施形態の撮像装置100における蓄積部103とほぼ同等である。本第2の実施形態の蓄積部103Aは、外部より消去信号ERSを受け取ると、検出情報履歴DTCHの全部または一部を破棄する点が、第1の実施形態の蓄積部103と異なる。
The storage unit 103A receives the detection information DTC from the detection unit 102, converts it into a predetermined format, and stores it.
This configuration is almost the same as that of the storage unit 103 in the imaging apparatus 100 according to the first embodiment of the present invention. The storage unit 103A according to the second embodiment is different from the storage unit 103 according to the first embodiment in that when the erasure signal ERS is received from the outside, all or part of the detection information history DTCH is discarded.

消去部105は、撮像部101Aによるアングル情報ANGLを入力し、撮影アングルの変化を検出すると、蓄積部103Aに消去信号ERSを出力する。   When the erasing unit 105 receives the angle information ANGL from the imaging unit 101A and detects a change in the shooting angle, the erasing unit 105 outputs an erasing signal ERS to the storage unit 103A.

図14(a)〜(e)は、本第2の実施形態の応用の一例を説明するための図である。   FIGS. 14A to 14E are diagrams for explaining an example of application of the second embodiment.

図14(a)は、内蔵モータにより撮影アングルを変えることができるドーム型監視カメラ200のイメージ図である。
このドーム型監視カメラ200は、本第2の実施形態における撮像装置の応用の一例である。
また、図14(b)は、L字型の屋内廊下210を真上から見たときのイメージ図である。
なお、図中の黒丸部分に相当する位置の天井には、図14(a)に示すドーム型監視カメラ200が設置されているものとする。
FIG. 14A is an image diagram of a dome-type surveillance camera 200 that can change the shooting angle by a built-in motor.
The dome-type monitoring camera 200 is an example of an application of the imaging device in the second embodiment.
FIG. 14B is an image diagram when the L-shaped indoor corridor 210 is viewed from directly above.
It is assumed that a dome-type surveillance camera 200 shown in FIG. 14A is installed on the ceiling at a position corresponding to the black circle portion in the figure.

図14(c−1)は、図14(b)における右向き矢印RAの方向(アングルA)に撮影アングルが設定されているときの撮影画像の一例を示すイメージ図である。
図14(c−2)は、図14(b)における上向き矢印UAの方向(アングルB)に撮影アングルが設定されているときの撮影画像の一例を示すイメージ図である。
図14(c−1)および(c−2)に示すように、2つ(以上)の撮影アングルを時間帯などで切り替えて撮影する場合、第1の実施形態の撮像装置を用いると不都合が生じるおそれがある。
FIG. 14C-1 is an image diagram illustrating an example of a photographed image when the photographing angle is set in the direction of the right arrow RA (angle A) in FIG.
FIG. 14C-2 is an image diagram illustrating an example of a photographed image when the photographing angle is set in the direction of the upward arrow UA (angle B) in FIG.
As shown in FIGS. 14 (c-1) and (c-2), when two (or more) shooting angles are switched in a time zone or the like, it is inconvenient to use the imaging device of the first embodiment. May occur.

図14(d−1)および(d−2)は、それぞれ、アングルA、アングルBに撮影アングルが固定された状況で、本発明の第1の実施形態の撮像装置100を用いて長時間撮影を行った場合の検出情報履歴の一例を示す図である。
撮影アングルにより、画面において顔が存在しうる領域はそれぞれ異なる。
FIGS. 14 (d-1) and 14 (d-2) are images taken for a long time using the imaging apparatus 100 according to the first embodiment of the present invention in a situation where the shooting angle is fixed to the angle A and the angle B, respectively. It is a figure which shows an example of the detection information log | history at the time of performing.
The area where the face can exist on the screen varies depending on the shooting angle.

図14(e)は、前記2つの撮影アングルを適宜切り替えて本発明の第1の実施形態の撮像装置100を用いて長時間撮影を行った場合の検出情報履歴の一例を示す図である。
図14(e)に示す検出情報履歴は、図14(d−1)および(d−2)に示す検出情報履歴を合成したものと等価である。
そのため、アングルAでは顔が存在しえない領域や、逆にアングルBでは顔が存在しえない領域にも顔が検出されたものとして露光制御が行われてしまう。これは期待する制御ではない。
FIG. 14E is a diagram illustrating an example of the detection information history when the two shooting angles are appropriately switched and long-time shooting is performed using the imaging apparatus 100 according to the first embodiment of the present invention.
The detection information history shown in FIG. 14 (e) is equivalent to a combination of the detection information histories shown in FIGS. 14 (d-1) and (d-2).
For this reason, exposure control is performed on the assumption that a face is detected even in a region where a face cannot exist at angle A, or a region where a face cannot exist at angle B. This is not the expected control.

このような課題を解決すべく、本第2の実施形態においては、第1の実施形態の構成に加えて、さらに消去部105を備える。
以下では、消去部105の動作を中心に説明を行う。
In order to solve such a problem, the second embodiment further includes an erasing unit 105 in addition to the configuration of the first embodiment.
Hereinafter, the operation of the erasing unit 105 will be mainly described.

図15は、消去部105が蓄積部103A内の検出情報履歴を破棄する動作フローを示すフローチャートである。   FIG. 15 is a flowchart showing an operation flow in which the erasure unit 105 discards the detection information history in the storage unit 103A.

処理開始後、消去部105は、ステップST31において、撮像部101Aが出力するアングル情報ANGLを参照し、前回参照した際の撮影アングルから変化があったか否かを判定する。
消去部105は、ステップST31において撮影アングルが変化していないと判定した場合、何もせずに処理を終了する。
他方、消去部105は、ステップST31において撮影アングルが変化したと判定した場合、ステップST32において蓄積部103A内の検出情報履歴DTCHを全て破棄し、処理を終了する。
After starting the processing, in step ST31, the erasure unit 105 refers to the angle information ANGL output from the imaging unit 101A, and determines whether or not there has been a change from the shooting angle at the previous reference.
If the erasing unit 105 determines in step ST31 that the shooting angle has not changed, the erasing unit 105 ends the process without doing anything.
On the other hand, when determining that the shooting angle has changed in step ST31, the erasure unit 105 discards all of the detection information history DTCH in the storage unit 103A in step ST32 and ends the process.

たとえば、1日24時間のうち、午前の12時間はアングルAに固定し、午後の12時間はアングルBに固定して撮影を行うとする。
また、撮影アングルの切り替えが発生しないときは、図11に示す動作フローで逐次蓄積部103A内の検出情報履歴の更新を行うものとする。
すると、アングルの切り替え直後は、消去部105により、一旦蓄積部103A内の検出情報履歴が破棄される。
アングルの切り替え後、十分な時間が経過すると、蓄積部103A内の検出情報履歴は、午前は図14(d−1)に示すものに、午後は図14(d−2)に示すものに漸近していくが、図14(e)に示すものになることはない。
ただし、本第2の実施形態においても、前述した第1の実施形態の説明と同様、検出情報履歴の形式は図8(b)に示す形式を採用するものとする。
つまり、本発明の第1の実施形態に係る撮像装置を応用する場合の課題が解決する。
For example, of the 24 hours a day, 12 hours in the morning are fixed at angle A, and 12 hours in the afternoon are fixed at angle B.
Further, when the switching of the shooting angle does not occur, the detection information history in the accumulation unit 103A is sequentially updated in the operation flow shown in FIG.
Then, immediately after the angle is switched, the erasure unit 105 once discards the detection information history in the storage unit 103A.
When a sufficient time has elapsed after the angle is switched, the detection information history in the storage unit 103A is asymptotic to that shown in FIG. 14 (d-1) in the morning and that shown in FIG. 14 (d-2) in the afternoon. However, it does not become the one shown in FIG.
However, also in the second embodiment, the format shown in FIG. 8B is adopted as the format of the detection information history as in the description of the first embodiment.
That is, the problem in applying the imaging apparatus according to the first embodiment of the present invention is solved.

なお、撮像部101Aの撮影アングルが時間帯によって決まる場合、消去部105は、アングル情報の変化ではなく、午前から午後、午後から午前、といった時刻変化をトリガーに検出情報履歴を破棄するよう動作しても、同等の効果が得られる。
また、撮影アングルを完全に固定する場合であっても、時間帯によって人物が存在しうる領域が異なる場合などは、第1の実施形態に係る撮像装置に消去部を追加し、所定の時刻になると蓄積部103内の検出情報履歴を破棄するようにしてもよい。
When the shooting angle of the imaging unit 101A is determined by the time zone, the erasing unit 105 operates not to change the angle information but to discard the detection information history triggered by a time change such as AM to PM and PM to AM. However, the same effect can be obtained.
In addition, even when the shooting angle is completely fixed, if the area where a person can exist differs depending on the time zone, an erasure unit is added to the imaging apparatus according to the first embodiment, and the predetermined time is set. Then, the detection information history in the storage unit 103 may be discarded.

なお、固定アングルでの撮影に応用する場合、消去部105は必ずしも検出情報履歴を全て破棄する必要はない。
たとえば、検出情報履歴の形式として図7(b)に示す形式を用いる場合には、消去を行う際、検出情報履歴のうち時間的に古い検出情報だけを破棄する。
これにより、破棄による検出情報履歴の内容の急激な変化を回避し、破棄の前後で画像の明るさが大きく変化することを防ぐことができる。
あるいは、現在から所定時間T前までについての新しい検出情報履歴は図7(b)に示す形式で、所定時間Tより前の古い検出情報履歴は図8(b)に示す形式にて保持しても構わない。
このようなハイブリッド形式にて検出情報履歴を保持することで、蓄積部103Aの容量が限られた状況であっても長時間に亘る検出情報履歴を保持でき、検出情報履歴のうち新しい検出情報は残してそれより古い検出情報は破棄するということが可能となる。
Note that when applied to shooting at a fixed angle, the erasure unit 105 does not necessarily need to discard the entire detection information history.
For example, when the format shown in FIG. 7B is used as the format of the detection information history, only the oldest detection information in the detection information history is discarded when erasing.
Thereby, it is possible to avoid an abrupt change in the content of the detection information history due to the discarding, and to prevent the brightness of the image from changing greatly before and after the discarding.
Alternatively, the new detection information history from the present to the predetermined time T before is stored in the format shown in FIG. 7B, and the old detection information history before the predetermined time T is stored in the format shown in FIG. 8B. It doesn't matter.
By holding the detection information history in such a hybrid format, even when the capacity of the storage unit 103A is limited, it is possible to hold the detection information history over a long period of time. The detection information older than that can be discarded.

<第3の実施形態>
本第3の実施形態に係る撮像装置100Bは、上述した第2の実施形態に係る撮像装置100Aと同様、複数の撮影アングルを時間などで切り替えて撮影するケースを想定している。
説明の簡単のため、ここでは、第2の実施形態におけるアングルA、アングルBの2種類の撮影アングルを切り替えて検出情報を蓄積するものとして説明する。
<Third Embodiment>
The imaging apparatus 100B according to the third embodiment assumes a case where a plurality of imaging angles are switched by time or the like as in the imaging apparatus 100A according to the second embodiment described above.
For the sake of simplicity of explanation, here, it is assumed that detection information is accumulated by switching between two types of shooting angles, angle A and angle B, in the second embodiment.

図16は、本発明の第3の実施形態に係る画像処理装置を適用した撮像装置(カメラ装置)の構成の一例を示すブロック図である。
なお、第3の実施形態において、上述した第1および第2の実施形態に記載の撮像装置(画像処理装置)と同一構成のブロックについては同一符号を付して表し、その詳細な説明を省略する。
FIG. 16 is a block diagram illustrating an example of a configuration of an imaging apparatus (camera apparatus) to which the image processing apparatus according to the third embodiment of the present invention is applied.
Note that in the third embodiment, blocks having the same configuration as those of the imaging devices (image processing devices) described in the first and second embodiments are denoted by the same reference numerals, and detailed description thereof is omitted. To do.

本第3の実施形態の撮像装置100Bは、図16に示すように、撮像部101A、検出部102、蓄積部103B−1,103B−2、制御部104、スイッチ106−1,106−2、および切替部107を有する。   As illustrated in FIG. 16, the imaging apparatus 100B according to the third embodiment includes an imaging unit 101A, a detection unit 102, storage units 103B-1 and 103B-2, a control unit 104, switches 106-1 and 106-2, And a switching unit 107.

蓄積部103B−1はアングルAに対応する検出情報DTC−Aを、蓄積部103B−2はアングルBに対応する検出情報DTC−Bをそれぞれ蓄積するものとする。
蓄積部103B−1,103B−2は、説明の便宜上異なる符号を付しているが、蓄積部103と同一のブロックである。
Assume that storage unit 103B-1 stores detection information DTC-A corresponding to angle A, and storage unit 103B-2 stores detection information DTC-B corresponding to angle B.
The accumulating units 103B-1 and 103B-2 are denoted by the same reference numerals as the accumulating unit 103, although different reference numerals are attached for convenience of explanation.

スイッチ106−1は、検出部102が出力する検出情報DTCを、蓄積部103B−1、蓄積部103B−2のいずれに蓄積するかを、切替部107の出力する切替信号SSWを元に選択する。
スイッチ106−1は、端子aが検出部102の検出情報DTCの出力ラインに接続され、端子bが蓄積部103B−1の入力部に接続され、端子cが蓄積部103B−2の入力部に接続されている。
スイッチ106−1は、切替信号SSWに応じて端子aを端子bまたは端子cと選択的に接続する。
The switch 106-1 selects whether the detection information DTC output from the detection unit 102 is stored in the storage unit 103B-1 or the storage unit 103B-2 based on the switching signal SSW output from the switching unit 107. .
In the switch 106-1, the terminal a is connected to the output line of the detection information DTC of the detection unit 102, the terminal b is connected to the input unit of the storage unit 103B-1, and the terminal c is connected to the input unit of the storage unit 103B-2. It is connected.
The switch 106-1 selectively connects the terminal a with the terminal b or the terminal c according to the switching signal SSW.

スイッチ106−2は、制御部104に入力する検出情報履歴DTCHを、蓄積部103B−1または蓄積部103B−2のいずれから取得するかを、切替部107の出力する切替信号SSWを元に選択する。
スイッチ106−2は、端子aが制御部104の検出情報履歴の入力部に接続され、端子bが蓄積部103B−1の出力部に接続され、端子cが蓄積部103B−2の出力部に接続されている。
スイッチ106−2は、切替信号SSWに応じて端子aを端子bまたは端子cと選択的に接続する。
The switch 106-2 selects, based on the switching signal SSW output from the switching unit 107, whether the detection information history DTCH input to the control unit 104 is acquired from the storage unit 103B-1 or the storage unit 103B-2. To do.
In the switch 106-2, the terminal a is connected to the detection information history input unit of the control unit 104, the terminal b is connected to the output unit of the storage unit 103B-1, and the terminal c is connected to the output unit of the storage unit 103B-2. It is connected.
The switch 106-2 selectively connects the terminal a with the terminal b or the terminal c according to the switching signal SSW.

切替部107は、撮像部101Aからのアングル情報ANGLを入力し、撮影アングルの変化を検出すると、現在の撮影アングルに応じた切替信号SSWをスイッチ106−1,106−2に出力する。   When the switching unit 107 receives the angle information ANGL from the imaging unit 101A and detects a change in the shooting angle, the switching unit 107 outputs a switching signal SSW corresponding to the current shooting angle to the switches 106-1 and 106-2.

図17は、切替部107がスイッチ106−1およびスイッチ106−2を切り替える切替信号を出力する動作フローを示すフローチャートである。   FIG. 17 is a flowchart illustrating an operation flow in which the switching unit 107 outputs a switching signal for switching between the switch 106-1 and the switch 106-2.

処理開始後、切替部107は、ステップST41において、撮像部101Aが出力するアングル情報ANGLを参照し、現在の撮影アングルが、アングルAであるか否かを判定する。
切替部107は、ステップST41においてアングルAであると判定した場合、ステップST42において、アングルAに対応する蓄積部103B−1に接続すべくスイッチ106−1,106−2に対し切替信号SSWを出力し、処理を終了する。
他方、切替部107は、ステップST41においてアングルAではないと判定した場合、すなわちアングルBであると判定した場合、ステップST43において、アングルBに対応する蓄積部103B−2に接続すべくスイッチ106−1,106−2に対し切替信号SSWを出力し、処理を終了する。
After starting the processing, the switching unit 107 refers to the angle information ANGL output from the imaging unit 101A in step ST41 and determines whether or not the current shooting angle is the angle A.
If the switching unit 107 determines that the angle is A in step ST41, the switching unit 107 outputs a switching signal SSW to the switches 106-1 and 106-2 to connect to the storage unit 103B-1 corresponding to the angle A in step ST42. Then, the process ends.
On the other hand, if the switching unit 107 determines that it is not the angle A in step ST41, that is, if it is determined that the angle is B, the switch 106- is connected to the storage unit 103B-2 corresponding to the angle B in step ST43. The switching signal SSW is output to 1, 106-2, and the process is terminated.

第2の実施形態においては、アングルの切り替えを行う際、唯一の蓄積部103A内の検出情報履歴を一旦破棄していた。
そのため、アングル切り替えの時間間隔が短いケースでは、検出情報が十分蓄積されず、効果を十分に発揮できないおそれがある。
しかし、本第3の実施形態においては、蓄積部をアングルの数だけ持たせることで、アングルの切り替えの際に蓄積された検出情報の破棄を行わないため、前記課題を解決することができる。
In the second embodiment, when the angle is switched, the only detection information history in the storage unit 103A is once discarded.
Therefore, in the case where the angle switching time interval is short, the detection information is not sufficiently accumulated, and there is a possibility that the effect cannot be exhibited sufficiently.
However, in the third embodiment, by providing the storage units as many as the number of angles, the detection information stored at the time of switching the angles is not discarded, so that the above problem can be solved.

なお、本第3の実施形態の説明においては、簡単のため、撮影アングルをアングルA、アングルBの2種類に限定したが、蓄積部をアングルの数だけ持たせ、切替部でアングルに対応した蓄積部に切り替えるようスイッチを制御すれば、3種類以上のアングルに対応することも可能であることは言うまでもない。   In the description of the third embodiment, for the sake of simplicity, the shooting angles are limited to two types, angle A and angle B. However, the storage unit has the same number of angles, and the switching unit corresponds to the angle. It goes without saying that if the switch is controlled so as to switch to the storage unit, it is possible to cope with three or more angles.

<第4の実施形態>
第4の実施形態においては、第1の実施形態に係る撮像装置の改良版を提示する。
<Fourth Embodiment>
In the fourth embodiment, an improved version of the imaging apparatus according to the first embodiment is presented.

図18は、本発明の第4の実施形態に係る画像処理装置を適用した撮像装置(カメラ装置)の構成の一例を示すブロック図である。
なお、第4の実施形態において、上述した第1の実施形態に記載の撮像装置(画像処理装置)と同一構成のブロックについては同一符号を付して表し、その詳細な説明を省略する。
FIG. 18 is a block diagram illustrating an example of a configuration of an imaging apparatus (camera apparatus) to which the image processing apparatus according to the fourth embodiment of the present invention is applied.
Note that in the fourth embodiment, blocks having the same configuration as those of the imaging device (image processing device) described in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

本第3の実施形態の撮像装置100Cは、図18に示すように、撮像部101、検出部102C、蓄積部103、制御部104、収束度取得部108、および範囲設定部109を有する。   As illustrated in FIG. 18, the imaging apparatus 100C of the third embodiment includes an imaging unit 101, a detection unit 102C, a storage unit 103, a control unit 104, a convergence degree acquisition unit 108, and a range setting unit 109.

検出部102Cは、画像を入力し、この画像中から人物の顔を検出し、検出情報DTCVを蓄積部103および収束度取得部108に出力する。
この構成は本発明の第1の実施形態に記載の撮像装置100における検出部102とほぼ同等である。本第4の実施形態の検出部102Cは、画像に加えて範囲情報RNGを入力し、画像中のどの範囲を顔検出の対象とするかを外部から指定することができる点が、第1の実施形態の検出部102と異なる。
The detection unit 102C receives an image, detects a human face from the image, and outputs detection information DTCV to the storage unit 103 and the convergence degree acquisition unit 108.
This configuration is substantially the same as that of the detection unit 102 in the imaging apparatus 100 according to the first embodiment of the present invention. The first embodiment is that the detection unit 102C according to the fourth embodiment can input range information RNG in addition to an image, and can specify from the outside which range in the image is a target for face detection. Different from the detection unit 102 of the embodiment.

収束度取得部108は、検出部102Cによる検出情報DTCと蓄積部103による検出情報履歴DTCHとを入力し、履歴収束度を更新する。
収束度取得部108は、履歴収束度を範囲設定部109に出力する。
所定の撮影アングルに固定して長時間撮影する場合、撮影開始直後は顔が検出される領域が徐々に拡大していくのに対し、時間が経つにつれて新たに顔が検出される領域が発生しないという状況に収束する。
このような状況を、検出情報履歴が収束する、と呼ぶことにする。
履歴収束度とは、検出情報履歴DTCHが収束状態にどれだけ近いかを示す数値であり、値が大きいほどより収束状態に近いものとする。
なお、履歴収束度を保持する記憶領域は、図18に示すブロック図では省略している。また、履歴収束度は、本第4の実施形態に係る撮像装置100Cが動作を開始する前にゼロで初期化されているものとする。
The convergence degree acquisition unit 108 inputs the detection information DTC from the detection unit 102C and the detection information history DTCH from the storage unit 103, and updates the history convergence degree.
The convergence degree acquisition unit 108 outputs the history convergence degree to the range setting unit 109.
When shooting for a long time with a fixed shooting angle, the area where the face is detected gradually expands immediately after the start of shooting, but no new area is detected over time. It converges to the situation.
Such a situation is called that the detection information history converges.
The history convergence degree is a numerical value indicating how close the detection information history DTCH is to the convergence state, and the larger the value, the closer to the convergence state.
Note that the storage area for holding the history convergence is omitted in the block diagram shown in FIG. The history convergence is assumed to be initialized to zero before the imaging apparatus 100C according to the fourth embodiment starts operation.

範囲設定部109は、蓄積部103による検出情報履歴DTCHと収束度取得部108による履歴収束度HCNVを入力し、顔が検出されることのなかった領域は除外した検出範囲を設定し、設定した範囲情報RNGを検出部102Cに出力する。
範囲情報とは、検出部102Cが入力画像のどの範囲に対して顔検出を行うかを示すための情報である。
The range setting unit 109 inputs the detection information history DTCH by the storage unit 103 and the history convergence level HCNV by the convergence level acquisition unit 108, and sets and sets a detection range excluding the area where no face is detected The range information RNG is output to the detection unit 102C.
The range information is information for indicating to which range of the input image the detection unit 102C performs face detection.

図19は、収束度取得部108が履歴収束度を更新する動作フローを示すフローチャートである。   FIG. 19 is a flowchart showing an operation flow in which the convergence degree acquisition unit 108 updates the history convergence degree.

処理開始後、収束度取得部108は、ステップST51において、今回の検出情報を参照し、顔が1つ以上検出されているか否かを判定する。
収束度取得部108は、ステップST51において顔が全く検出されていなかったと判定した場合、処理を終了する。
他方、収束度取得部108は、ステップST51において顔が少なくとも1つ検出されていたと判定した場合、次のステップST52において、今回検出された顔領域が過去に顔が検出された領域に包含されるか否かを判定する。
なお、収束度取得部108は、過去にどの領域で顔が検出されているかは、検出情報履歴DTCHを参照することで知ることができる。
収束度取得部108は、ステップST52において包含されていなかったと判定した場合、ステップST53において所定の値だけ収束度を減少させ、処理を終了する。
他方、収束度取得部108は、ステップST52において包含されていたと判定した場合、ステップ54において所定の値だけ収束度を増加させ、処理を終了する。
After the start of processing, the convergence degree acquisition unit 108 determines whether or not one or more faces have been detected in step ST51 with reference to the current detection information.
If the convergence degree obtaining unit 108 determines in step ST51 that no face has been detected, the convergence degree obtaining unit 108 ends the process.
On the other hand, when it is determined in step ST51 that at least one face has been detected, the convergence degree acquiring unit 108 includes the face area detected this time in the area in which the face has been detected in the past in next step ST52. It is determined whether or not.
It should be noted that the convergence level acquisition unit 108 can know in which area the face has been detected in the past by referring to the detection information history DTCH.
If it is determined that the convergence is not included in step ST52, the convergence acquisition unit 108 decreases the convergence by a predetermined value in step ST53, and ends the process.
On the other hand, when it is determined that the convergence degree acquisition unit 108 is included in step ST52, the convergence degree is increased by a predetermined value in step 54, and the process ends.

図20は、範囲設定部109が範囲情報を生成する動作フローを示すフローチャートである。   FIG. 20 is a flowchart illustrating an operation flow in which the range setting unit 109 generates range information.

処理開始後、範囲設定部109は、ステップST61において、入力された履歴収束度HCNVの値が所定の閾値以上か否かを判定する。
範囲設定部109は、ステップST61において収束度が所定の閾値未満であると判定した場合、検出情報履歴は収束していないとみなし、ステップST62において入力画像全体を範囲情報RNGとして出力し、処理を終了する。
他方、範囲設定部109は、ステップST61において収束度が所定の閾値以上であると判定した場合、検出情報履歴は収束しているとみなし、検出情報履歴を参照する。
そして、範囲設定部109は、ステップST63において少なくとも過去にN回(Nは正の整数)顔が検出された領域を含むような範囲情報を所定の方法で生成して出力し、処理を終了する。
ここで、検出情報履歴の形式が図8(b)に示すものである場合、前記Nのとりうる最大値は頻度の上限値と等価である。
なお、前記所定の方法とは、具体的には、過去に顔が検出された領域そのものを範囲として範囲情報を生成する方法、過去に顔が検出された領域を包含する矩形を範囲として範囲情報を生成する方法などが挙げられる。しかし、その他検出情報履歴を利用する任意の方法であって構わない。
また、本発明の実施形態に記載の目的以外で顔検出を利用しない場合は、検出情報履歴収束後は範囲を固定的にゼロと設定し、事実上顔検出を行わないようにしても良い。
After the start of processing, range setting section 109 determines in step ST61 whether or not the input history convergence degree HCNV value is equal to or greater than a predetermined threshold value.
If the range setting unit 109 determines in step ST61 that the degree of convergence is less than the predetermined threshold value, the range setting unit 109 regards that the detection information history has not converged, and outputs the entire input image as range information RNG in step ST62. finish.
On the other hand, if the range setting unit 109 determines in step ST61 that the degree of convergence is greater than or equal to a predetermined threshold, the range setting unit 109 regards the detection information history as converged and refers to the detection information history.
Then, the range setting unit 109 generates and outputs range information including a region where the face has been detected at least N times in the past (N is a positive integer) in step ST63, and ends the processing. .
Here, when the format of the detection information history is as shown in FIG. 8B, the maximum value that N can take is equivalent to the upper limit value of the frequency.
The predetermined method is specifically a method of generating range information in the range of the area in which the face has been detected in the past, or range information in the range of a rectangle including the area in which the face has been detected in the past. The method of producing | generating etc. is mentioned. However, any other method using the detection information history may be used.
If face detection is not used for purposes other than those described in the embodiment of the present invention, the range may be fixedly set to zero after the detection information history has converged, and face detection may not be performed in practice.

ここで、仮に、図19に示すフローチャートのステップST53において、収束度をゼロに設定するとした場合、次のように処理される。
新たに顔検出される領域が所定回数連続して過去に顔検出された領域内に収まっていれば、図20に示すフローチャートのステップS61において検出情報履歴は収束したとみなされ、入力画像の顔検出対象範囲が過去に顔検出された領域に制限されることになる。
Here, if the convergence is set to zero in step ST53 of the flowchart shown in FIG. 19, the following processing is performed.
If the newly detected face area is within the previously detected face area for a predetermined number of times, the detection information history is considered to have converged in step S61 of the flowchart shown in FIG. The detection target range is limited to the area where the face has been detected in the past.

第1の実施形態に係る撮像装置によれば、常に入力画像全体を顔検出の対象としていた。
一方、本第4の実施形態に係る撮像装置においては、検出情報履歴が収束した後は、今まで顔が検出されることのなかった領域は除外して顔検出を行う。顔検出手法にもよるものの、一般に検出対象となる面積が狭い方が顔検出に掛かるコストが低減することは自明である。つまり、顔検出に掛かる消費電力を低下させることができる。
ただし、検出情報履歴の収束を誤判定した場合、実際には顔が存在する領域まで検出の対象外とされてしまう恐れがある。
According to the imaging apparatus according to the first embodiment, the entire input image is always the target for face detection.
On the other hand, in the imaging device according to the fourth embodiment, after the detection information history converges, face detection is performed by excluding an area where no face has been detected so far. Although it depends on the face detection method, it is obvious that the cost for face detection is generally reduced when the area to be detected is narrow. That is, power consumption for face detection can be reduced.
However, when the convergence of the detection information history is erroneously determined, there is a possibility that the area where the face actually exists is excluded from detection.

図21は、横軸に顔検出回数、縦軸を過去に顔検出された領域の数としてプロットしたグラフの一例を示す図である。   FIG. 21 is a diagram illustrating an example of a graph in which the horizontal axis indicates the number of face detections and the vertical axis indicates the number of face detection areas in the past.

なお、図21に示すグラフは、常に入力画像全体を顔検出対象としているものとする。期間D01においては、顔検出を行うたびに新たに領域が増えている状態なので、検出情報履歴は収束とはみなされない。
しかし、期間D02においては、顔検出されても全て過去に顔検出された領域に収まっているため、仮に前記所定回数がたとえば5回であるとすれば、期間D02中に検出情報履歴は収束したとみなされることとなる。
しかし、実際には、期間D03にて再び新たな領域において顔が検出されている。
そのため、もし、期間D03において、図20に示すフローチャートに基づいて、範囲設定部109を動作させるとする。すると、顔検出対象となる範囲が、期間D02の時点で過去に顔検出されたことがある領域に限定され、期間D03にて新たに検出されるはずの領域は顔検出対象から除外された状態で顔検出がなされることになる。その結果、期間D03以降において、顔の検出もれが発生してしまうことになる。
Note that the graph shown in FIG. 21 always assumes that the entire input image is the face detection target. In the period D01, since the area is newly increased every time face detection is performed, the detection information history is not regarded as convergence.
However, in the period D02, even if the face is detected, all are within the area where the face has been detected in the past. Therefore, if the predetermined number of times is, for example, five, the detection information history has converged during the period D02. Will be considered.
However, in practice, a face is detected again in a new area in the period D03.
Therefore, it is assumed that the range setting unit 109 is operated in the period D03 based on the flowchart shown in FIG. Then, the range to be a face detection target is limited to a region where a face has been detected in the past at the time period D02, and a region that should be newly detected in the time period D03 is excluded from the face detection target. The face is detected. As a result, face detection leaks occur after the period D03.

このような状況を回避するため、検出情報履歴の収束後も顔検出を所定回数行うごとに一度の割合で入力画像の全体を検出対象とするような範囲情報を出力するよう、範囲設定部109の動作を修正することが望ましい。   In order to avoid such a situation, the range setting unit 109 outputs the range information so that the entire input image is detected once every time face detection is performed a predetermined number of times even after the convergence of the detection information history. It is desirable to correct the behavior of

以上説明したように、本実施形態によれば、以下の効果を得ることができる。
定点、または、準定点での動画撮影において、人物の顔が存在する確率が高い領域の視認性を向上することができる。
顔検出率に有利な照明条件下で検出された顔検出情報を、顔検出率に不利な照明条件下での撮影時にも利用することで、顔が存在する確率の高い領域の視認性を向上するとともに、顔検出率向上も期待できる。
従来は検出できなかった顔が検出できるようになることで、顔検出を別目的で使用する場合であっても、その適用可能シーンが広がる。
長時間動作後は、顔が存在しない領域を以降の顔検出対象の範囲から除外することで、あるいは、検出対象範囲をゼロとし、顔検出動作そのものを停止させることで、顔検出に掛かる消費電力を低減できる。
長時間蓄積された検出情報履歴に基づき、露光制御(または、フォーカス制御、ホワイトバランス制御)を行うため、特定の人物の移動など画像中の小領域の短期的な変化に対してロバストな制御を実現でき、動画像におけるチラツキを低減することができる。
As described above, according to the present embodiment, the following effects can be obtained.
In moving image shooting at a fixed point or a quasi-fixed point, it is possible to improve the visibility of an area where a human face is highly likely to exist.
By using face detection information detected under lighting conditions favorable to the face detection rate, even when shooting under lighting conditions unfavorable to the face detection rate, the visibility of areas where there is a high probability that a face exists is improved. In addition, the face detection rate can be improved.
Since faces that could not be detected in the past can be detected, the applicable scenes can be expanded even when face detection is used for another purpose.
After operating for a long time, power consumption for face detection can be achieved by excluding the area where the face does not exist from the subsequent face detection target range, or by setting the detection target range to zero and stopping the face detection operation itself. Can be reduced.
Based on the detection information history accumulated for a long time, exposure control (or focus control, white balance control) is performed. This can be realized, and flicker in moving images can be reduced.

なお、以上詳細に説明した方法は、上記手順に応じたプログラムとして形成し、CPU等のコンピュータで実行するように構成することも可能である。
また、このようなプログラムは、半導体メモリ、磁気ディスク、光ディスク、フロッピー(登録商標)ディスク等の記録媒体、この記録媒体をセットしたコンピュータによりアクセスし上記プログラムを実行するように構成可能である。
Note that the method described above in detail can be formed as a program according to the above-described procedure and executed by a computer such as a CPU.
Such a program can be configured to be accessed by a recording medium such as a semiconductor memory, a magnetic disk, an optical disk, a floppy (registered trademark) disk, or the like, and to execute the program by a computer in which the recording medium is set.

ある時刻およびそれが経過した時刻における入力画像の一例を示す図である。It is a figure which shows an example of the input image in a certain time and the time when it passed. 同一のアングルで昼間および夜間に撮影された画像の一例を示す図である。It is a figure which shows an example of the image image | photographed in the daytime and the night with the same angle. 人物が登場するシーンの一例を構成するフレーム群を示す図である。It is a figure which shows the frame group which comprises an example of the scene where a person appears. 本発明の第1の実施形態に係る画像処理装置を適用した撮像装置(カメラ装置)の構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a configuration of an imaging apparatus (camera apparatus) to which an image processing apparatus according to a first embodiment of the present invention is applied. 本実施形態に係る撮像部の詳細な構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the imaging part which concerns on this embodiment. 光波を入力し、蓄積部に検出情報履歴を構築するまでの動作フローの一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement flow until it inputs a light wave and builds a detection information log | history in a storage part. 本実施形態における顔検出の状況および検出情報履歴の形式の一例を示す図である。It is a figure which shows an example of the state of the face detection in this embodiment, and the format of a detection information log | history. 本実施形態における顔検出の状況および検出情報履歴の形式の別の一例を示す図である。It is a figure which shows another example of the condition of the face detection in this embodiment, and the format of a detection information log | history. 図8(a)に示す6枚の画像の検出結果により、蓄積部において図8(b)に示す形式の検出情報履歴が順次更新されていく様子を示す図である。It is a figure which shows a mode that the detection information log | history of the format shown in FIG.8 (b) is sequentially updated in the accumulation | storage part by the detection result of six images shown to Fig.8 (a). 制御部により撮像部を制御する際の動作フローの一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement flow at the time of controlling an imaging part by a control part. 制御部により撮像部を制御する際の動作フローの別の一例を示すフローチャートである。It is a flowchart which shows another example of the operation | movement flow at the time of controlling an imaging part by a control part. 検出情報履歴の収束状態および露光制御の元に夜間撮影された画像の一例を示す図である。It is a figure which shows an example of the image image | photographed at night under the convergence state of detection information history, and exposure control. 本発明の第2の実施形態に係る画像処理装置を適用した撮像装置(カメラ装置)の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the imaging device (camera apparatus) to which the image processing apparatus which concerns on the 2nd Embodiment of this invention is applied. 本第2の実施形態の応用の一例を説明するための図である。It is a figure for demonstrating an example of the application of the 2nd embodiment. 消去部が蓄積部内の検出情報履歴を破棄する動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow which an erasure | elimination part discards the detection information log | history in a storage part. 本発明の第3の実施形態に係る画像処理装置を適用した撮像装置(カメラ装置)の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the imaging device (camera device) to which the image processing apparatus which concerns on the 3rd Embodiment of this invention is applied. 切替部が2つのスイッチを切り替える切替信号を出力する動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow which a switching part outputs the switching signal which switches two switches. 本発明の第4の実施形態に係る画像処理装置を適用した撮像装置(カメラ装置)の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the imaging device (camera device) to which the image processing apparatus which concerns on the 4th Embodiment of this invention is applied. 収束度取得部が履歴収束度を更新する動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow in which a convergence degree acquisition part updates a history convergence degree. 範囲設定部が範囲情報を生成する動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow in which a range setting part produces | generates range information. 横軸に顔検出回数、縦軸を過去に顔検出された領域の数としてプロットしたグラフの一例を示す図である。It is a figure which shows an example of the graph which plotted the frequency | count of face detection on the horizontal axis, and plotted the number of the area | regions where the vertical axis | shaft was detected in the past.

符号の説明Explanation of symbols

100,100A〜100C・・・撮像装置(カメラ装置)、101,101A・・・撮像部、1011・・・レンズ、1012・・・絞り、1013・・・撮像素子、1014・・・アナログ‐デジタル(AD)コンバータ、1015・・・露光評価値算出部、102・・・検出部、103,103A,103B−1,103B−2・・・蓄積部、104・・・制御部、105・・・消去部、106−1,106−2・・・スイッチ、107・・・切替部、108・・・収束度取得部、109・・・範囲設定部。   DESCRIPTION OF SYMBOLS 100,100A-100C ... Imaging device (camera apparatus), 101, 101A ... Imaging part, 1011 ... Lens, 1012 ... Aperture, 1013 ... Imaging element, 1014 ... Analog-digital (AD) converter, 1015 ... exposure evaluation value calculation unit, 102 ... detection unit, 103, 103A, 103B-1, 103B-2 ... storage unit, 104 ... control unit, 105 ... Erasing unit, 106-1, 106-2 ... switch, 107 ... switching unit, 108 ... convergence degree obtaining unit, 109 ... range setting unit.

Claims (26)

制御情報に応じた状態で撮像された画像から画面内の動領域を検出し、検出情報を出力する検出部と、
前記検出部が出力した過去の検出情報を蓄積する蓄積部と、
前記蓄積部に蓄積された過去の検出情報に基づいて前記制御情報を生成し、当該制御情報に応じて撮像状態を制御する制御部と
を有する画像処理装置。
A detection unit that detects a moving region in the screen from an image captured in a state according to control information, and outputs detection information;
An accumulation unit that accumulates past detection information output by the detection unit;
An image processing apparatus comprising: a control unit that generates the control information based on past detection information stored in the storage unit and controls an imaging state according to the control information.
前記制御部は、
前記蓄積部による検出情報履歴により過去に動領域が検出されたか否かを判定し、過去に動領域が検出されていないと判定した場合には、画面全体または画面中央部から評価値を取得し、過去に動領域が検出されていたと判定した場合には、過去に動領域が検出された領域についての前記評価値を取得するように前記制御情報を生成し、
前記評価値に応じた制御情報により撮像条件を変化させる
請求項1記載の画像処理装置。
The controller is
It is determined whether or not a moving area has been detected in the past based on the detection information history by the storage unit. If it is determined that no moving area has been detected in the past, an evaluation value is acquired from the entire screen or the center of the screen. When it is determined that a moving area has been detected in the past, the control information is generated so as to obtain the evaluation value for the area in which the moving area has been detected in the past,
The image processing apparatus according to claim 1, wherein the imaging condition is changed by control information corresponding to the evaluation value.
前記制御部は、
過去に動領域が検出された領域が画面全体に占める割合が所定以上となるまで画面全体または画面中央部から評価値を取得するように制御する
請求項2記載の画像処理装置。
The controller is
The image processing apparatus according to claim 2, wherein control is performed so that an evaluation value is acquired from the entire screen or the center of the screen until the ratio of the area in which the moving area has been detected in the past occupies a predetermined value or more.
前記制御部は、
複数の領域に区分された画面の各領域についての部分評価値を取得し、
前記部分評価値が取得される各領域が、前記蓄積部の検出情報履歴により動領域の検出の頻度が高い領域か否かを判定し、検出頻度が高いと判定した場合、前記部分評価値に相対的に高い重み付けをして前記部分評価値を更新し、検出頻度が低いと判定した場合、相対的に低い重み付けをして前記部分評価値を更新し、更新した部分評価値を加味して画面全体の評価値を得、当該画面全体の評価値に応じた制御情報により撮像条件を変化させる
請求項1記載の画像処理装置。
The controller is
Get partial evaluation values for each area of the screen divided into multiple areas,
It is determined whether each region from which the partial evaluation value is acquired is a region where the detection frequency of the storage unit is high based on the detection information history of the storage unit. If the partial evaluation value is updated with relatively high weighting and the detection frequency is determined to be low, the partial evaluation value is updated with relatively low weighting, and the updated partial evaluation value is taken into account. The image processing apparatus according to claim 1, wherein an evaluation value for the entire screen is obtained and imaging conditions are changed by control information corresponding to the evaluation value for the entire screen.
前記制御部は、
前記部分評価値を更新するための重み付けの値を動領域の検出頻度に応じて設定する
請求項4記載の画像処理装置。
The controller is
The image processing apparatus according to claim 4, wherein a weighting value for updating the partial evaluation value is set according to a detection frequency of a moving area.
前記蓄積部に蓄積されている過去の検出情報の一部または全部を所定の条件において消去する消去部を含む
請求項1から5のいずれか一に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising an erasing unit that erases part or all of past detection information accumulated in the accumulation unit under a predetermined condition.
前記所定の条件が、
前回の消去から所定時間経過していることである
請求項6記載の画像処理装置。
The predetermined condition is
The image processing apparatus according to claim 6, wherein a predetermined time has elapsed since the previous erasure.
前記画像には、
撮影アングルを変更して撮像した画像を含み、
前記消去部は、
アングル情報から撮影アングルの変化を検出すると消去信号を前記蓄積部に出力し、
前記蓄積部は、
前記消去信号を受けて、前記蓄積された過去の検出情報の少なくとも一部を破棄する
請求項6記載の画像処理装置。
In the image,
Includes images taken with different shooting angles,
The eraser is
When a change in shooting angle is detected from the angle information, an erasure signal is output to the storage unit,
The storage unit
The image processing apparatus according to claim 6, wherein in response to the erasure signal, at least a part of the accumulated past detection information is discarded.
アングル情報に応じて切り替え処理を行う切替部を有し、
前記画像には、
撮影アングルを変更して撮像した画像を含み、
前記蓄積部は、
前記N種(Nは自然数)のアングルに対応する独立したN個の蓄積部を含み、
前記切替部は、
前記アングル情報に応じた蓄積部に切り替えて、対応する検出情報の蓄積および検出情報履歴の前記制御部への入力を行わせる
請求項1から5のいずれか一に記載の画像処理装置。
It has a switching unit that performs switching processing according to angle information,
In the image,
Includes images taken with different shooting angles,
The storage unit
Including N independent storage units corresponding to the N kinds of angles (N is a natural number),
The switching unit is
The image processing apparatus according to any one of claims 1 to 5, wherein the storage unit corresponding to the angle information is switched to store corresponding detection information and input the detection information history to the control unit.
前記検出部による検出情報および前記蓄積部の検出情報履歴に基づいて、前記蓄積部に蓄積された過去の検出情報履歴の収束度を取得する収束度取得部と、
前記収束度と検出情報履歴とから動領域の検出の対象とする入力画像の範囲を示す範囲情報を生成する範囲設定部と、を含み、
前記検出部は、
範囲設定部で設定された範囲で動領域の検出を行う
請求項1から9のいずれか一に記載の画像処理装置。
Based on the detection information by the detection unit and the detection information history of the storage unit, a convergence level acquisition unit that acquires the convergence level of past detection information history stored in the storage unit;
A range setting unit that generates range information indicating a range of an input image that is a target of detection of a moving region from the convergence degree and the detection information history,
The detector is
The image processing apparatus according to claim 1, wherein the moving region is detected within a range set by a range setting unit.
前記収束度取得部は、
前記検出部による検出情報を参照し動領域が少なくとも一つ検出されたと認識した場合、前記蓄積部の検出情報履歴から検出された動領域が過去に動領域が検出された領域に包含されているか否かを判定し、包含されていないと判定した場合は収束度を減少させ、包含されていると判定した場合は収束度を増加させて、前記範囲設定部に出力する
請求項10記載の画像処理装置。
The convergence degree acquisition unit
If it is recognized that at least one moving area has been detected by referring to the detection information by the detection unit, whether the moving area detected from the detection information history of the storage unit is included in the area where the moving area has been detected in the past The image according to claim 10, wherein when it is determined that it is not included, the convergence is decreased, and when it is determined that it is included, the convergence is increased and output to the range setting unit. Processing equipment.
前記範囲設定部は、
検出情報履歴の収束後も動領域の検出を所定回数行うごとに画面全体を検出対象となるように範囲を設定する
請求項10または11記載の画像処理装置。
The range setting unit includes:
The image processing apparatus according to claim 10 or 11, wherein a range is set so that the entire screen is a detection target every time a moving area is detected a predetermined number of times after convergence of the detection information history.
少なくとも、外部からの制御に基づき画像の撮像を行う撮像部と、
前記撮像部で撮像された画像から画面内の動領域を検出し検出情報を出力する検出部と、
前記検出部が出力した過去の検出情報を蓄積する蓄積部と、
前記蓄積部に蓄積された過去の検出情報履歴に基づいて前記撮像部に所定の制御を施す制御部と
を有する撮像装置。
At least an imaging unit that captures an image based on external control;
A detection unit that detects a moving area in a screen from an image captured by the imaging unit and outputs detection information;
An accumulation unit that accumulates past detection information output by the detection unit;
An imaging apparatus comprising: a control unit that performs predetermined control on the imaging unit based on past detection information history accumulated in the accumulation unit.
前記撮像部は、
画像の撮像に関する評価値を取得して前記制御部に出力し、前記制御部の制御情報に従って撮像条件を変化させる機能を有し、
前記制御部は、
前記蓄積部による検出情報履歴により過去に動領域が検出されたか否かを判定し、過去に動領域が検出されていないと判定した場合には、画面全体または画面中央部から前記評価値を取得し、過去に動領域が検出されていたと判定した場合には、過去に動領域が検出された領域についての前記評価値を取得するように前記撮像部を制御し、
前記撮像部による評価値に応じた制御情報を前記撮像部に出力して撮像条件を変化させる
請求項13記載の撮像装置。
The imaging unit
Obtaining an evaluation value related to imaging of an image and outputting it to the control unit, and having a function of changing imaging conditions according to control information of the control unit,
The controller is
It is determined whether or not a moving area has been detected in the past based on the detection information history by the storage unit. If it is determined that no moving area has been detected in the past, the evaluation value is acquired from the entire screen or the center of the screen. If it is determined that a moving area has been detected in the past, the imaging unit is controlled to acquire the evaluation value for the area in which the moving area has been detected in the past,
The imaging apparatus according to claim 13, wherein control information corresponding to an evaluation value by the imaging unit is output to the imaging unit to change imaging conditions.
前記制御部は、
過去に動領域が検出された領域が画面全体に占める割合が所定以上となるまで画面全体または画面中央部から評価値を取得するように制御する
請求項14記載の撮像装置。
The controller is
The imaging apparatus according to claim 14, wherein control is performed so that an evaluation value is acquired from the entire screen or the center of the screen until the ratio of the area in which the moving area has been detected in the past occupies a predetermined ratio or more.
前記撮像部は、
画像の撮像に関する評価値を取得して前記制御部に出力し、前記制御部の制御情報に従って撮像条件を変化させる機能を有し、
前記制御部は、
前記撮像部において複数の領域に区分された画面の各領域についての部分評価値を取得するように制御し、
前記部分評価値が取得される各領域が、前記蓄積部の検出情報履歴により動領域の検出の頻度が高い領域か否かを判定し、検出頻度が高いと判定した場合、前記部分評価値に相対的に高い重み付けをして前記部分評価値を更新し、検出頻度が低いと判定した場合、相対的に低い重み付けをして前記部分評価値を更新し、更新した部分評価値を加味して画面全体の評価値を得、当該画面全体の評価値に応じた制御情報を前記撮像部に出力して撮像条件を変化させる
請求項13記載の撮像装置。
The imaging unit
Obtaining an evaluation value related to imaging of an image and outputting it to the control unit, and having a function of changing imaging conditions according to control information of the control unit,
The controller is
Control to acquire a partial evaluation value for each area of the screen divided into a plurality of areas in the imaging unit,
It is determined whether each region from which the partial evaluation value is acquired is a region where the detection frequency of the storage unit is high based on the detection information history of the storage unit. If the partial evaluation value is updated with relatively high weighting and the detection frequency is determined to be low, the partial evaluation value is updated with relatively low weighting, and the updated partial evaluation value is taken into account. The imaging apparatus according to claim 13, wherein an evaluation value for the entire screen is obtained, and control information corresponding to the evaluation value for the entire screen is output to the imaging unit to change imaging conditions.
前記制御部は、
前記部分評価値を更新するための重み付けの値を動領域の検出頻度に応じて設定する
請求項16記載の撮像装置。
The controller is
The imaging apparatus according to claim 16, wherein a weighting value for updating the partial evaluation value is set according to a detection frequency of a moving area.
前記蓄積部に蓄積されている過去の検出情報の一部または全部を所定の条件において消去する消去部を含む
請求項13から17のいずれか一に記載の撮像装置。
The imaging device according to any one of claims 13 to 17, further comprising an erasing unit that erases part or all of past detection information accumulated in the accumulation unit under a predetermined condition.
前記所定の条件が、
前回の消去から所定時間経過していることである
請求項18記載の撮像装置。
The predetermined condition is
The imaging apparatus according to claim 18, wherein a predetermined time has elapsed since the previous erasure.
前記撮像部は、
撮影アングルを変更して撮像可能であり、現在のアングル情報を前記消去部に出力し、
前記消去部は、
アングル情報から撮影アングルの変化を検出すると消去信号を前記蓄積部に出力し、
前記蓄積部は、
前記消去信号を受けて、前記蓄積された過去の検出情報の少なくとも一部を破棄する
請求項18記載の撮像装置。
The imaging unit
It is possible to take an image by changing the shooting angle, and output the current angle information to the erasure unit,
The eraser is
When a change in shooting angle is detected from the angle information, an erasure signal is output to the storage unit,
The storage unit
The imaging apparatus according to claim 18, wherein in response to the erasure signal, at least a part of the accumulated past detection information is discarded.
アングル情報に応じて切り替え処理を行う切替部を有し、
前記撮像部は、
撮影アングルを変更して撮像可能であり、現在のアングル情報を前記切替部に出力し、
前記蓄積部は、
前記N種(Nは自然数)のアングルに対応する独立したN個の蓄積部を含み、
前記切替部は、
前記アングル情報に応じた蓄積部に切り替えて、対応する検出情報の蓄積および検出情報履歴の前記制御部への入力を行わせる
請求項13から17のいずれか一に記載の撮像装置。
It has a switching unit that performs switching processing according to angle information,
The imaging unit
It is possible to take an image by changing the shooting angle, and output the current angle information to the switching unit,
The storage unit
Including N independent storage units corresponding to the N kinds of angles (N is a natural number),
The switching unit is
The imaging device according to any one of claims 13 to 17, wherein the storage unit corresponding to the angle information is switched to store corresponding detection information and input the detection information history to the control unit.
前記検出部による検出情報および前記蓄積部の検出情報履歴に基づいて、前記蓄積部に蓄積された過去の検出情報履歴の収束度を取得する収束度取得部と、
前記収束度と検出情報履歴とから動領域の検出の対象とする入力画像の範囲を示す範囲情報を生成する範囲設定部と、を含み、
前記検出部は、
範囲設定部で設定された範囲で動領域の検出を行う
請求項13から21のいずれか一に記載の撮像装置。
Based on the detection information by the detection unit and the detection information history of the storage unit, a convergence level acquisition unit that acquires the convergence level of past detection information history stored in the storage unit;
A range setting unit that generates range information indicating a range of an input image that is a target of detection of a moving region from the convergence degree and the detection information history,
The detector is
The imaging device according to any one of claims 13 to 21, wherein a moving region is detected within a range set by a range setting unit.
前記収束度取得部は、
前記検出部による検出情報を参照し動領域が少なくとも一つ検出されたと認識した場合、前記蓄積部の検出情報履歴から検出された動領域が過去に動領域が検出された領域に包含されているか否かを判定し、包含されていないと判定した場合は収束度を減少させ、包含されていると判定した場合は収束度を増加させて、前記範囲設定部に出力する
請求項22記載の撮像装置。
The convergence degree acquisition unit
If it is recognized that at least one moving area has been detected by referring to the detection information by the detection unit, whether the moving area detected from the detection information history of the storage unit is included in the area where the moving area has been detected in the past The degree of convergence is decreased when it is determined that it is not included, and the degree of convergence is increased when it is determined that it is included, and is output to the range setting unit. apparatus.
前記範囲設定部は、
検出情報履歴の収束後も動領域の検出を所定回数行うごとに画面全体を検出対象となるように範囲を設定する
請求項22または23記載の撮像装置。
The range setting unit includes:
The imaging device according to claim 22 or 23, wherein a range is set so that the entire screen is a detection target every time a moving area is detected a predetermined number of times after convergence of the detection information history.
制御情報に応じた状態で撮像された画像から画面内の動領域を検出し、検出情報を得る検出ステップと、
前記検出ステップで得られた過去の検出情報を蓄積する蓄積ステップと、
前記蓄積ステップで蓄積された過去の検出情報に基づいて前記制御情報を生成する生成ステップと、
前記制御情報に応じて撮像状態を制御する制御ステップと
を有する画像処理方法。
A detection step of detecting a moving region in the screen from an image captured in a state corresponding to the control information and obtaining detection information;
An accumulation step of accumulating past detection information obtained in the detection step;
A generation step of generating the control information based on the past detection information accumulated in the accumulation step;
An image processing method comprising: a control step of controlling an imaging state in accordance with the control information.
制御情報に応じた状態で撮像された画像から画面内の動領域を検出し、検出情報を得る検出処理と、
前記検出処理で得られた過去の検出情報を蓄積する蓄積処理と、
前記蓄積処理で蓄積された過去の検出情報に基づいて前記制御情報を生成する生成処理と、
前記制御情報に応じて撮像状態を制御する制御処理と
を含む画像処理をコンピュータに実行させるプログラム。
A detection process for detecting a moving area in the screen from an image captured in a state corresponding to the control information and obtaining detection information;
An accumulation process for accumulating past detection information obtained by the detection process;
A generation process for generating the control information based on past detection information accumulated in the accumulation process;
A program that causes a computer to execute image processing including control processing that controls an imaging state according to the control information.
JP2008134821A 2008-05-22 2008-05-22 Image processing apparatus, imaging device, image processing method, and program Ceased JP2009284270A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008134821A JP2009284270A (en) 2008-05-22 2008-05-22 Image processing apparatus, imaging device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008134821A JP2009284270A (en) 2008-05-22 2008-05-22 Image processing apparatus, imaging device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2009284270A true JP2009284270A (en) 2009-12-03

Family

ID=41454249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008134821A Ceased JP2009284270A (en) 2008-05-22 2008-05-22 Image processing apparatus, imaging device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2009284270A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010161718A (en) * 2009-01-09 2010-07-22 Canon Inc Image processing apparatus and image processing method
JP2011188163A (en) * 2010-03-08 2011-09-22 Sony Corp Imaging control apparatus and method
JP5328815B2 (en) * 2009-01-14 2013-10-30 パナソニック株式会社 Imaging apparatus and imaging method
JP2016170472A (en) * 2015-03-11 2016-09-23 カシオ計算機株式会社 Information processing apparatus, information processing method, and program
JP2024028633A (en) * 2020-03-31 2024-03-04 コベルコ建機株式会社 Surrounding detection device for working machines

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357396A (en) * 2000-06-16 2001-12-26 Matsushita Electric Ind Co Ltd Image processing device and image recognition device
JP2007006033A (en) * 2005-06-22 2007-01-11 Omron Corp Object determining device, imaging device, and monitoring device
JP2007082026A (en) * 2005-09-16 2007-03-29 Fujifilm Corp Target image position detecting device and method, and program for controlling target image position detecting device
JP2007324856A (en) * 2006-05-31 2007-12-13 Sony Corp Imaging apparatus and imaging control method
JP2008035415A (en) * 2006-07-31 2008-02-14 Canon Inc Imaging apparatus and control method thereof
JP2008035167A (en) * 2006-07-28 2008-02-14 Victor Co Of Japan Ltd Imaging apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357396A (en) * 2000-06-16 2001-12-26 Matsushita Electric Ind Co Ltd Image processing device and image recognition device
JP2007006033A (en) * 2005-06-22 2007-01-11 Omron Corp Object determining device, imaging device, and monitoring device
JP2007082026A (en) * 2005-09-16 2007-03-29 Fujifilm Corp Target image position detecting device and method, and program for controlling target image position detecting device
JP2007324856A (en) * 2006-05-31 2007-12-13 Sony Corp Imaging apparatus and imaging control method
JP2008035167A (en) * 2006-07-28 2008-02-14 Victor Co Of Japan Ltd Imaging apparatus
JP2008035415A (en) * 2006-07-31 2008-02-14 Canon Inc Imaging apparatus and control method thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010161718A (en) * 2009-01-09 2010-07-22 Canon Inc Image processing apparatus and image processing method
JP5328815B2 (en) * 2009-01-14 2013-10-30 パナソニック株式会社 Imaging apparatus and imaging method
JP2011188163A (en) * 2010-03-08 2011-09-22 Sony Corp Imaging control apparatus and method
JP2016170472A (en) * 2015-03-11 2016-09-23 カシオ計算機株式会社 Information processing apparatus, information processing method, and program
JP2024028633A (en) * 2020-03-31 2024-03-04 コベルコ建機株式会社 Surrounding detection device for working machines
JP7632701B2 (en) 2020-03-31 2025-02-19 コベルコ建機株式会社 Surrounding detection device for work machines

Similar Documents

Publication Publication Date Title
US11532076B2 (en) Image processing method, electronic device and storage medium
CN109005366B (en) Camera module night scene camera processing method, device, electronic device and storage medium
JP5729407B2 (en) Imaging apparatus, display control method, and program
CN110445989B (en) Image processing method, device, storage medium and electronic device
CN102891960B (en) Method and camera for determining an image adjustment parameter
US20190370948A1 (en) Unified Bracketing Approach for Imaging
CN101185322B (en) Method, device and controller for digital imaging
JP5887508B2 (en) Exposure control apparatus, imaging apparatus, image display apparatus, and exposure control method
JP2018112996A (en) Video recognition device, video recognition method and program
WO2008147724A2 (en) Methods, systems and apparatuses for motion detection using auto-focus statistics
JP2009284270A (en) Image processing apparatus, imaging device, image processing method, and program
CN109756680B (en) Image synthesis method, apparatus, electronic device and readable storage medium
KR100850621B1 (en) Image correction device
CN117177062B (en) Camera switching method and electronic device
KR20100055937A (en) Method and apparatus for controlling flash emmision, and digital photographing apparatus using thereof
JP2016173777A (en) Image processing device
JP5832618B2 (en) Imaging apparatus, control method thereof, and program
JP3478769B2 (en) Imaging device and method, and computer-readable recording medium
JP2022130038A (en) IMAGING DEVICE, CONTROL METHOD, AND PROGRAM
CN113994660A (en) Intelligent flash intensity control system and method
CN113132645A (en) Image acquisition method, device, equipment and storage medium
JP2023001975A (en) Information processing apparatus, information processing method, and program
US20240147061A1 (en) Image acquisition method and device
CN115278046B (en) Shooting method, device, electronic device and storage medium
JP6262958B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120723

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20130625