JP6741237B2 - Image processing device, terminal device, image processing method, and storage medium - Google Patents
Image processing device, terminal device, image processing method, and storage medium Download PDFInfo
- Publication number
- JP6741237B2 JP6741237B2 JP2019189200A JP2019189200A JP6741237B2 JP 6741237 B2 JP6741237 B2 JP 6741237B2 JP 2019189200 A JP2019189200 A JP 2019189200A JP 2019189200 A JP2019189200 A JP 2019189200A JP 6741237 B2 JP6741237 B2 JP 6741237B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- person
- captured image
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理装置、端末機器、画像処理方法及び記憶媒体に関する。 The present invention relates to an image processing device, a terminal device, an image processing method, and a storage medium .
デジタルスチルカメラやビデオカメラなどの撮像装置には、美肌や美白と呼ばれるように顔を綺麗に写すことが可能な美顔処理機能が備えられているものがある。この美顔処理機能は、人物が写っていないシーンで動作してしまうと、肌色に近い色の箇所がボケたり、白っぽくなったりするため、撮影時に撮像画像(ライブビュー画像)内に人物の顔が写っていることを条件に動作するようにしている。例えば、従来、美顔処理機能として、人物撮影時に被写体(例えば、撮影者)の顔を検出し、この撮像画像に対して露出補正、ソフトフォーカス補正、美肌補正を施すようにした撮像装置が、特許文献1のように提案されている。また、撮像画像内に人物の顔が写っているかを検出し、顔が写っている場合には更にその唇領域を検出して艶処理を施すようにした技術が特許文献2のように提案されている。
2. Description of the Related Art Some image pickup devices such as digital still cameras and video cameras are provided with a facial treatment function capable of beautifully capturing a face, which is called beautiful skin and whitening. If this facial processing function operates in a scene where no human is shown, the areas near the skin color will be blurred or whitish, so the human face will appear in the captured image (live view image) during shooting. It works on condition that it is in the image. For example, conventionally, as an image processing function, an imaging device that detects a face of a subject (for example, a photographer) at the time of photographing a person and performs exposure correction, soft focus correction, and skin softening correction on the captured image is disclosed. Proposed as in
ところで、自分自身を撮影する自分撮りなどでは、レリーズ操作を行う毎に自身の顔の向きやカメラの位置を変えながら複数枚連続して撮影する場合があるが、このような撮影方法では、例えば、連続撮影の途中において人物の顔がカメラに対して横向きとなって略正面を向いていない状態に変わってしまうと、顔を検出することができなくなるために、横向きの撮像画像に対しては美顔処理が施されないことがあった。その結果、複数枚連続して撮影した画像の中には美顔処理が施された画像と、美顔処理が施されない画像とが混在してしまうことになる。 By the way, in self-portraits such as taking a picture of yourself, there are cases in which multiple pictures are taken continuously while changing the direction of the face or the position of the camera each time the release operation is performed. , If the face of a person turns sideways with respect to the camera during continuous shooting and the face does not face the front, the face cannot be detected. Sometimes facial treatment was not applied. As a result, an image that has been subjected to facial treatment and an image that has not been subjected to facial treatment will coexist in a plurality of consecutively captured images.
本発明の課題は、人物を被写体として撮影する場合にその撮像画像に対して所定の画像処理を確実に施すことができるようにすることである。 An object of the present invention is to ensure that when a person is photographed as a subject, predetermined image processing can be performed on the captured image.
上述した課題を解決するために本発明は、
撮像画像を取得する画像取得手段と、
前記画像取得手段によって取得された撮像画像内から人物の顔を検出する第1の検出手段と、
前記撮像手段を構成する撮像レンズの収差を補正する情報に基づいて前記撮像画像を補正した撮像画像内から、人物の顔を検出する第2の検出手段と、
前記第1の検出手段によって人物の顔を検出することができず、かつ、前記第2の検出手段によって人物の顔を検出することができた場合に、前記取得された撮像画像に対して人物の顔に応じた所定の画像処理を施す画像処理手段と、
を備える画像処理装置である。
In order to solve the above-mentioned problems, the present invention provides
An image acquisition means for acquiring a captured image,
First detection means for detecting a face of a person from the captured image acquired by the image acquisition means;
Second detecting means for detecting a face of a person from the captured image obtained by correcting the captured image based on the information for correcting the aberration of the imaging lens forming the imaging means;
Can not detect the face of a person by said first detection means and, where it was able to detect a person's face by said second detection means, said relative obtained IMAGING image image processing means for performing predetermined image processing corresponding to a human face thereof,
A images processing device Ru comprising a.
本発明によれば、人物を被写体として撮影する場合にその撮像画像に対して所定の画像処理を確実に施すことができる。 According to the present invention, when a person is photographed as a subject, it is possible to reliably perform predetermined image processing on the captured image.
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(第1実施形態)
先ず、図1〜図4を参照して本発明の第1実施形態を説明する。
第1実施形態は、画像処理装置として撮像装置に適用した場合を例示したもので、後で詳細に説明するが、撮影指示操作(レリーズ操作)に応じて撮像された撮像画像(静止画像)を取得して撮影処理を行うことにより撮影画像を生成する場合において、撮像画像に対して撮影処理を行う際に、その撮像画像内から人物の顔を検出することができた場合にはその撮像画像に対して所定の画像処理を施すが、人物の顔を検出することができない場合にはその撮像画像に対して所定の画像処理を施す必要があるか否かを判別し、所定の画像処理を施す必要があると判別した場合にはその撮像画像に対して所定の画像処理を施すべきことを指示するようにしたことを特徴としている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
First, a first embodiment of the present invention will be described with reference to FIGS.
The first embodiment exemplifies a case where it is applied to an imaging device as an image processing device, and as will be described in detail later, a captured image (still image) captured according to a shooting instruction operation (release operation) is displayed. When a captured image is generated by acquiring and performing a capturing process, when a face of a person can be detected from the captured image when performing the capturing process on the captured image, the captured image If the human face cannot be detected, it is determined whether or not the captured image needs to be subjected to the predetermined image processing, and the predetermined image processing is performed. When it is determined that it is necessary to perform the processing, it is instructed to perform a predetermined image processing on the captured image.
図1は、撮像装置の基本的な構成要素を示したブロック図である。
この撮像装置は、被写体を高精細に撮影可能な撮像機能、記録保存されている撮影済み画像(記録画像)を任意に読み出して再生する画像再生機能などの基本的な機能の他に、撮像画像(ライブビュー画像)を解析しながら人物の顔を検出する顔検出機能と、撮像画像(ライブビュー画像)に対して美肌や美白と呼ばれる処理を施す美顔処理機能と、を備えたデジタルカメラである。
FIG. 1 is a block diagram showing basic components of the image pickup apparatus.
This image pickup device has a basic function such as an image pickup function capable of shooting a subject in high definition, an image playback function for arbitrarily reading and playing back a recorded image (recorded image) recorded and stored, and a captured image. A digital camera having a face detection function of detecting a person's face while analyzing (live view image), and a facial treatment function of performing a process called beautiful skin and whitening on a captured image (live view image). ..
上述の顔検出機能は、人物の顔の輪郭やその顔を形成するバーツ(目、口、鼻、額など)の形や位置関係などを総合的に判断して人物の顔を認識する機能で、当該撮像装置(カメラ)に対して人物の顔が略正面に向いていれば、その撮像画像(静止画像:ライブビュー画像)内に人物の顔が写っていると判断できるが、当該撮像装置(カメラ)に対して人物の顔が横向き(例えば、真横)であると、その撮像画像(ライブビュー画像)内に人物の顔が写っていると判断できない場合がある。なお、このような顔検出機能は、カメラにおいて一般的に用いられている技術であり、本実施形態ではその周知技術を利用するようにしているため、その具体的な説明については省略するものとする。また、上述の美顔処理機能は、撮像画像(ライブビュー画像)に対して美顔処理を行う機能、つまり、撮像画像内の人物の顔のみを対象とするのではなく、首、腕などの肌色の部分をも対象として、その部分を美肌や美白と呼ばれる加工処理を行う機能である。 The face detection function described above is a function for recognizing a person's face by comprehensively determining the contour of the person's face and the shape and positional relationship of the baht (eyes, mouth, nose, forehead, etc.) forming the face. If the person's face is oriented substantially in front of the imaging device (camera), it can be determined that the person's face is included in the captured image (still image: live view image). If the person's face is sideways (for example, right beside) with respect to the (camera), it may not be possible to determine that the person's face is included in the captured image (live view image). It should be noted that such a face detection function is a technique generally used in a camera, and in the present embodiment, a well-known technique thereof is used, so a detailed description thereof will be omitted. To do. In addition, the facial processing function described above is a function for performing facial processing on a captured image (live view image), that is, not only targeting only the face of a person in the captured image, but the skin color of the neck or arm. This is a function that also applies processing to so-called skin-whitening and whitening that part.
そして、本実施形態は、例えば、自分自身を撮影する自分撮り時に、撮影指示操作(レリーズ操作)毎に自身の顔の向きやカメラの位置を変えながら複数枚連続して撮影する連続撮影中において、各撮像画像に対して顔検出を行った結果、撮像画像内から人物の顔を検出することができた場合には、その撮像画像に対して所定の画像処理(美顔処理)を施すようにしているが、カメラに対して自身の顔の向きや位置が変えられることによって人物の顔を検出することができなくなった場合には、その撮像画像に対して所定の画像処理(美顔処理)を施す必要があるか否かを判別し、その処理を施す必要があると判別した場合にその撮像画像に対して美顔処理を施すようにしている。 Further, the present embodiment is, for example, during continuous shooting in which a plurality of images are continuously shot while changing the direction of the face and the position of the camera for each shooting instruction operation (release operation) at the time of self-shooting when shooting oneself. As a result of performing face detection on each captured image, when a person's face can be detected from the captured image, a predetermined image processing (face treatment) is performed on the captured image. However, if it becomes impossible to detect the face of a person due to the change of the direction or position of the face of the camera, the predetermined image processing (face treatment) is performed on the captured image. It is determined whether or not it is necessary to perform the facial treatment, and if it is determined that the processing needs to be performed, the facial treatment is performed on the captured image.
制御部1は、電源部(二次電池)2からの電力供給によって動作し、記憶部3内に格納されている各種のプログラムに応じてこの撮像装置(デジタルカメラ)の全体動作を制御するもので、この制御部1には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。記憶部3は、例えば、ROM、フラッシュメモリなどを有する構成で、後述する図3及び図4に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているプログラムメモリ3aと、フラグなどのデータを一時記憶するワークメモリ3bなどを有している。なお、記憶部3は、例えば、撮影済み画像を記憶可能なSDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しないが、通信機能を介してネットワークに接続されている状態においては所定のサーバ装置側の記憶領域を含むものであってもよい。なお、SDカードなどの可搬型メモリは、高画質の撮影済み画像(記録画像)を複数記憶するメモリである。
The
操作部4は、図示省略したが、電源オン/オフを行う電源キー、撮影を指示するレリーズキー、各種の動作モードを指定するモード指定キーなど、各種のキーを備えたもので、制御部1は、このキーの操作に応じて、例えば、電源オン/オフ、撮影処理、モード指定処理などを実行する。なお、モード指定キーは、基本的な動作モードとして、撮影が可能なモード(RECモード)と撮影済み画像(記録画像)を再生するモード(PLAYモード)とを切り替え指定する他に、RECモード内において美顔処理機能を動作させる美顔撮影モードなどを指定可能としている。制御部1は、この操作部4上でのキーの操作に応じて、モード変更処理、撮影処理などを実行する。表示部5は、画像を表示する高精細液晶、有機EL(Electro Luminescence)などであり、撮像された画像(ライブビュー画像)をリアルタイムに表示するモニタ画面(ライブビュー画面)となったり、撮影済み画像(記録画像)を再生する再生画面となったりする。
Although not shown, the operation unit 4 is provided with various keys such as a power key for turning on/off the power, a release key for instructing shooting, and a mode designation key for designating various operation modes. Performs power on/off, shooting processing, mode designation processing, and the like in accordance with the operation of this key. Note that the mode designation key is used to switch between a shooting mode (REC mode) and a playback mode of a captured image (recorded image) (PLAY mode) as a basic operation mode. In, it is possible to specify a beauty shooting mode, etc. for operating the beauty processing function. The
撮像部6は、撮像レンズ6aからの被写体像が図示しない撮像素子(CCDやCMOSなど)に結像されることにより被写体を高精細に撮像することが可能なもので、更に、各種のセンサ、アナログ処理部、デジタル処理部を有している。制御部1は、撮影指示操作(レリーズ操作)に応じて、撮像部6から撮像画像を取得して撮影処理を行うことにより撮影画像を生成するようにしている。すなわち、制御部1は、撮像部6によって撮像された画像をRAW(Bayerパターン)画像として取得し、このRAW画像に対して、例えば、データ補間(デモザイク)、カラー変換、ホワイトバランスやシャープネスを調整する現像処理を行うと共に、更に、この現像処理時に所定画像処理として美顔処理も併せて行うことにより撮影画像を生成するようにしている。そして、制御部1は、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる。また、美顔処理機能を動作させる美顔撮影モードであって人物の顔が検出されている場合は、上述したようにRAW画像に限らず、ライブビュー画像に対しても美顔処理を行うようにしている。
The
図2は、ライブビュー画像を見ながら撮影者自身を撮影するいわゆる自分撮りが可能な構成の撮像装置の外観図を示した図である。
撮像装置を構成する筐体11は、薄型矩形の表示ブロック11aと、この表示ブロック11aの周囲を囲む矩形枠状のフレームブロック11bと、表示ブロック11aとフレームブロック11bとを連結するレンズブロック11cを有する構成で、表示ブロック11aの一端中央部(図示の例では上端中央部)とレンズブロック11cの一端中央部(図示の例では下端中央部)とは、横回転用のヒンジ部(図示省略)を介して横方向に回転可能に取り付けられている。また、フレームブロック11bの両端部内側(図2(1)の例では左右側上部内側)とレンズブロック11cの両端部(図示の例では左右側部)とは、縦回転用のヒンジ部(図示省略)を介して縦方向に回転可能に取り付けられている。
FIG. 2 is a diagram showing an external view of an image pickup apparatus having a configuration capable of so-called self-portrait, in which the photographer himself/herself is photographed while watching the live view image.
The housing 11 constituting the image pickup device includes a thin
表示ブロック11aにはその中央部分に表示部5が配設され、レンズブロック11cの中央部には撮像部6を構成する撮像レンズ6aが配設されており、上述の横回転用のヒンジ部を介して表示ブロック11aをレンズブロック11cに対して180°回転させることにより、表示部5及び撮像レンズ6aを同じ方向に向けたり、逆方向に向けたりすることが可能となっている。なお、表示ブロック11aとレンズブロック11cを一体化して本体ブロックとし、フレームブロック11bの両端部内側(図2(1)の例では左右側上部内側)と本体ブロックの両端部(図示の例では左右側部)とが、縦回転用のヒンジ部(図示省略)を介して縦方向に回転可能に取り付けられるようにしてもよい。図2(1)は、通常の撮影のために表示部5及び撮像レンズ6aを180°逆方向に向けた状態において、表示ブロック11aに対してフレームブロック11bを閉じた状態、図2(2)は、自分撮りを可能とするために表示部5及び撮像レンズ6aを同じ方向に向けた状態において、表示ブロック11aに対してフレームブロック11bを開いた状態を示している。
The
次に、第1実施形態における撮像装置(デジタルカメラ)の動作概念を図3及び図4に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。このことは後述する他の実施形態においても同様であり、記録媒体の他に、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。なお、図3及び図4は、撮像装置の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図3及び図4のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。 Next, the operation concept of the image pickup apparatus (digital camera) in the first embodiment will be described with reference to the flowcharts shown in FIGS. 3 and 4. Here, each function described in these flowcharts is stored in the form of a readable program code, and the operation according to this program code is sequentially executed. Further, the operation according to the above-mentioned program code transmitted via a transmission medium such as a network can be sequentially executed. This is the same in other embodiments described later, and the operation unique to the present embodiment can be executed using a program/data externally supplied via a transmission medium in addition to the recording medium. 3 and 4 are flowcharts showing the outline of the operation of the characteristic part of the present embodiment in the overall operation of the image pickup apparatus, and when the flow of FIGS. 3 and 4 is exited, the overall operation is performed. Return to the main flow (not shown).
図3及び図4は、美顔撮影モードが指定された場合に実行開始される撮像装置の動作(第1実施形態の特徴的な動作)を説明するためのフローチャートである。以下、美顔撮影モードにおいてレリーズ操作毎に自身の顔の向きやカメラの位置を変えながら自分自身を複数枚連続して撮影する連続撮影を行う場合を例にして第1実施形態の特徴的な動作を説明するものとする。
先ず、制御部1は、レリーズ操作が行われたかを調べたり(図3のステップA1)、美顔撮影モードを解除する操作が行われたかを調べたりする(ステップA2)。いま、美顔撮影モードを解除する操作が行われた場合には(ステップA2でYES)、図3及び図4のフローから抜けるが、レリーズ操作が行われた場合には(ステップA1でYES)、撮像部6から撮像画像(ライブビュー画像)を取得する(ステップA3)。
FIG. 3 and FIG. 4 are flowcharts for explaining the operation of the imaging device (the characteristic operation of the first embodiment) that is started when the beauty portrait shooting mode is designated. Hereinafter, the characteristic operation of the first embodiment will be described by taking as an example a case where continuous photography is performed in which a plurality of self images are continuously captured while changing the face orientation and the camera position for each release operation in the beauty shooting mode. Shall be explained.
First, the
そして、取得した撮像画像(ライブビュー画像)を解析することにより人物の顔を検出する処理(ステップA4)を行い、撮像画像内から人物の顔を検出することができたか否か(顔が写っているか否か)を調べる(ステップA5)。すなわち、人物の目、口、鼻、額などの形や位置関係などを総合的に判断して、撮像画像内に人物の顔が写っているか否かを検出する。 Then, the process of detecting the face of the person by analyzing the acquired captured image (live view image) (step A4) is performed, and whether or not the face of the person can be detected from the captured image (whether the face is captured) Is checked) (step A5). That is, the shape, positional relationship, and the like of the person's eyes, mouth, nose, and forehead are comprehensively determined to detect whether or not the person's face is included in the captured image.
いま、撮像画像内の人物の顔が検出することができなかった場合、例えば、人物の顔が写っていない場合、又は、写っていても人物の顔が略正面(例えば、正面に対して約45°以内)に向いていない場合には(ステップA5でNO)、美顔処理を含まない現像処理を施して撮影画像を生成する(ステップA6)。すなわち、撮像部6によって撮像された画像に対して、例えば、データ補間(デモザイク)を行ったり、カラー変換したり、オートホワイトバランスやシャープネスなどを調整したりする現像処理を施して撮影画像を生成する。そして、制御部1は、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップA7)。その後、上述のステップA1に戻る。
Now, when the face of the person in the captured image cannot be detected, for example, when the face of the person is not captured, or even when the face of the person is captured, the face of the person is substantially in front (for example, about If the orientation is not within 45° (NO in step A5), development processing not including facial treatment is performed to generate a photographed image (step A6). That is, a captured image is generated by subjecting the image captured by the
一方、撮像画像内の人物の顔を検出した場合には(ステップA5でYES)、次のステップA8に移り、美顔処理を含む現像処理を施して撮影画像を生成する。すなわち、撮像画像に対して上述の現像処理と共に所定の画像処理として美顔処理を施すようにするが、美顔処理としては、例えば、人物の顔に限らず、首、腕などの肌色の部分を対象として、画像の露出を補正したり、彩度、明度を補正する処理を行うことによって肌を白くしたり、ソフトフォーカスなどを行うことによって皺、肌荒れ、シミが目立ちにくくしたりする画像処理を施すが、検出した顔の領域内のみに美顔処理を施すようにしてもよい。そして、制御部1は、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップA9)。このように人物の顔を検出して所定の画像処理として美顔処理を施すと、所定の画像処理(美顔処理)の実行可否を示す情報として美顔フラグ(図示省略)を可(オン)に設定する処理を行う(ステップA10)。
On the other hand, when the face of the person in the captured image is detected (YES in step A5), the process proceeds to the next step A8, and the development process including the facial treatment is performed to generate the captured image. That is, the above-described development processing is performed on the picked-up image as well as the predetermined facial image processing, and the facial processing is not limited to, for example, the face of a person, but skin-colored portions such as necks and arms. As an example, image processing is performed to correct the exposure of the image, whiten the skin by correcting the saturation and brightness, and to make wrinkles, rough skin, and spots less noticeable by performing soft focus. However, the facial treatment may be performed only in the detected face area. Then, the
そして、図4のステップA11に移り、上述の美顔フラグはオンされているかを調べるが、いま、美顔フラグはオンされているので(ステップA11でYES)、当該撮像装置(カメラ)の状態が所定の状態に変化したかを調べる(ステップA12)。ここで、当該撮像装置(カメラ)が所定の状態に変化したとは、撮影環境が大きく変化したり、当該撮像装置(カメラ)と被写体(人物)との位置関係や被写体(人物)に対する画角が大きく変化したりした場合であり、美顔処理を施す必要がある撮影を継続する意思がないと判別される状態に変化したかを調べる。 Then, the process proceeds to step A11 of FIG. 4 to check whether the above-mentioned facial beauty flag is turned on. Since the facial beauty flag is now turned on (YES in step A11), the state of the imaging device (camera) is predetermined. It is checked whether the state has changed to (step A12). Here, the fact that the imaging device (camera) has changed to a predetermined state means that the shooting environment has changed significantly, the positional relationship between the imaging device (camera) and the subject (person), and the angle of view with respect to the subject (person). If there is a large change in the image, it is checked whether the state has changed to a state in which it is determined that there is no intention to continue shooting that requires facial treatment.
すなわち、その一例としては、AWB(オートホワイトバランス)調整が設定されている状態においてホワイトバランスの光源判定が切り替わった場合である。また、他の例としては、AE(自動露出)調整が設定されている状態においてライトバリュー値(LV値)が急激に変化した場合(例えば、撮像画像の画素毎の輝度値の合計が3フレームの間に30%以上変化した場合)である。更に、他の例としては、レンズ部の回転(撮像レンズ6aと表示部5の位置関係(向き)が変化)した場合、又はAF(オートフォーカス)が設定されている状態においてAFによるフォーカス距離が急激に変化(100%以上変化)した場合である。
That is, as an example, there is a case where the white balance light source determination is switched in the state where the AWB (auto white balance) adjustment is set. Further, as another example, when the light value value (LV value) suddenly changes in a state in which the AE (automatic exposure) adjustment is set (for example, the sum of the luminance values for each pixel of the captured image is 3 frames). If there is a change of 30% or more during the period). Further, as another example, when the lens unit is rotated (the positional relationship (direction) between the
いま、当該撮像装置(カメラ)が所定の状態に変化していなければ(ステップA12でNO)、レリーズ操作が行われたかを調べたり(ステップA13)、美顔撮影モードを解除する操作が行われたかを調べたりする(ステップA14)。いま、美顔撮影モードを解除する操作が行われた場合には(ステップA14でYES)、図3及び図4のフローから抜けるが、レリーズ操作が行われた場合には(ステップA13でYES)、撮像部6から撮像画像(ライブビュー画像)を取得し(ステップA15)、この撮像画像に対して上述の美顔処理を含む現像処理を施して撮影画像を生成する(ステップA16)。そして、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップA17)。その後、美顔フラグがオンされているかを調べるためにステップA11に戻る。 If the image pickup apparatus (camera) has not changed to a predetermined state (NO in step A12), it is checked whether a release operation has been performed (step A13), or whether an operation for canceling the facial photographing mode has been performed. (Step A14). When the operation for canceling the facial photographing mode is performed (YES in step A14), the process exits the flow of FIGS. 3 and 4, but when the release operation is performed (YES in step A13), A picked-up image (live view image) is acquired from the image pickup unit 6 (step A15), and the picked-up image is generated by subjecting the picked-up image to development processing including the above-described facial treatment (step A16). Then, the generated image (captured image) is subjected to image compression processing to be converted into a standard file format, and then recorded and stored in the recording medium of the storage unit 3 (step A17). After that, the process returns to step A11 to check whether the facial beauty flag is turned on.
このように自分撮り時の連続撮影中において、所定の画像処理(美顔処理)の実行可否を示す情報(美顔フラグ)として可(オン)の情報が設定されている状態では(ステップA11でYES)、当該撮像装置(カメラ)が所定の状態に変化していないことを条件に(ステップA12でNO)、人物の顔を検出する処理を行うことなく、美顔処理を施す必要があると判別して、撮像画像に対して美顔処理を施すようにしている。言い換えれば、人物の顔が真横に向くなどして、人物の顔を検出することができない場合でも、当該撮像装置(カメラ)の状態が所定の状態に変化していない限り、美顔フラグのオンが保持されていれば、その保持されている間に順次撮像された各撮像画像に対しては、美顔処理を施すようにしている。一方、当該撮像装置(カメラ)が所定の状態に変化した場合には(ステップA12でYES)、美顔フラグをオフする処理(ステップA18)を行った後、上述のステップA1に戻り、上述の処理を繰り返す。 In this way, during continuous shooting during self-portrait, in the state where the information (possible ON) is set as the information (face flag) indicating whether or not predetermined image processing (face processing) can be executed (YES in step A11). On the condition that the image pickup apparatus (camera) has not changed to a predetermined state (NO in step A12), it is determined that the facial processing needs to be performed without performing the processing of detecting the face of the person. The facial treatment is applied to the captured image. In other words, even if the person's face cannot be detected because the person's face is facing sideways, the face flag is not turned on unless the state of the imaging device (camera) has changed to a predetermined state. If the image is held, the facial treatment is applied to each of the picked-up images sequentially picked up while the image is held. On the other hand, if the imaging device (camera) has changed to a predetermined state (YES in step A12), the facial flag is turned off (step A18), and then the process returns to step A1 to perform the above-described process. repeat.
以上のように、第1実施形態において制御部1は、撮像部6により撮像された撮像画像内から人物の顔を検出することができた場合にはその撮像画像に対して所定の画像処理を施すが、人物の顔を検出することができない場合にはその撮像画像に対して所定の画像処理を施す必要があるか否かを判別し、所定の画像処理を施す必要があると判別した場合にその撮像画像に対して所定の画像処理を施すべきことを指示するようにしたので、人物を被写体として撮影する場合にその人物の顔の向きや位置が変化したとしてもその撮像画像に対して所定の画像処理を確実に施すことができる。
As described above, in the first embodiment, when the face of a person can be detected in the captured image captured by the
制御部1は、撮影指示操作(レリーズ操作)が行われる毎に撮像部6から撮像画像を取得して撮影処理を行うことにより複数枚の撮影画像を生成する連続撮影中において、レリーズ操作が行われる毎に取得した各撮像画像に対して人物の顔を検出する動作を行うようにしたので、例えば、自分撮り時に、撮影指示操作(レリーズ操作)毎に自身の顔の向きやカメラの位置を変えながら複数枚連続して撮影した場合でも、各撮像画像に対して所定の画像処理を確実に施すことができる。
The
人物の顔を検出することができた撮像画像に対して所定の画像処理の実行可否を示す情報(美顔フラグ)として可の情報(オン)を設定している場合には、人物の顔を検出することができない撮像画像に対しても所定の画像処理を施す必要があると判別するようにしたので、人物の顔を検出する処理の実行に代わって美顔フラグをオンするだけでよく、処理の負担を軽減することが可能となると共に、顔検出処理は1回行えばよく、省電力化も可能となる。 If information (ON) is set as the information (face flag) indicating whether or not predetermined image processing can be performed on the captured image in which the person's face can be detected, the person's face is detected. Since it is determined that the predetermined image processing needs to be performed on the captured image that cannot be processed, it is sufficient to turn on the facial beauty flag instead of executing the processing for detecting the face of the person. The load can be reduced, and the face detection process only needs to be performed once, so that power can be saved.
当該撮影装置(カメラ)の状態が所定の状態に変化したことを検出した撮像画像に対して、所定の画像処理の実行可否を示す情報(美顔フラグ)として否の情報(オフ)を設定している場合には、所定の画像処理を施す必要がないと判別するようにしたので、所定の画像処理の実行可否を、当該撮影装置(カメラ)の状態が所定の状態に変化したか否かに基づいて決定することができる。 For the captured image that has detected that the state of the imaging device (camera) has changed to a predetermined state, information (off) is set as information (face flag) indicating whether or not predetermined image processing can be executed. If it is determined that it is not necessary to perform the predetermined image processing, it is determined whether or not the predetermined image processing can be performed by determining whether the state of the photographing apparatus (camera) has changed to the predetermined state. Can be determined based on.
当該撮影装置(カメラ)の状態が所定の状態に変化したとは、ホワイトバランスの光源判定の切り替わり、ライトバリュー値の急激な変化、撮像レンズ部の回転した場合、フォーカス距離が急激に変化した場合、のいずれかを検出した場合であり、撮影環境が大きく変化したり、当該撮像装置(カメラ)と被写体(人物)との位置関係や被写体に対する画角が大きく変化したりした場合を当該撮影装置(カメラ)の状態が所定の状態に変化したものとして検出することができる。 When the state of the image capturing device (camera) has changed to a predetermined state, it means that the light source determination of white balance is switched, the light value is changed rapidly, the imaging lens unit is rotated, or the focus distance is changed rapidly. , Which is the case in which the shooting environment changes significantly, or the positional relationship between the imaging device (camera) and the subject (person) or the angle of view with respect to the subject changes significantly. It can be detected that the state of the (camera) has changed to a predetermined state.
撮像画像に対して施す所定の画像処理は、その撮像画像内の肌色部分に美顔処理を施す処理であるので、人物の顔に限らず、首、腕なども含めて同様の美顔処理を施すことができる。 Since the predetermined image processing to be performed on the captured image is processing to apply a facial treatment to the skin color portion in the captured image, the same facial treatment is applied to not only the face of a person but also the neck, arms and the like. You can
なお、上述した第1実施形態においては、当該撮影装置(カメラ)の状態が所定の状態に変化した場合として、ホワイトバランスの光源判定の切り替わり、ライトバリュー値の急激な変化、撮像レンズ部の回転した場合、フォーカス距離が急激に変化した場合のいずれかを示したが、それらの組合せであってもよく、それらに限らないことは勿論である。
また、美顔フラグがオンの状態では、顔検出処理を行わないようにしているが、美顔フラグがオンの状態であっても、顔検出処理を行うようにしてもよい。
In the above-described first embodiment, when the state of the image capturing apparatus (camera) changes to a predetermined state, the white balance light source determination is switched, the light value value is rapidly changed, and the imaging lens unit is rotated. In this case, any one of the cases where the focus distance is drastically changed is shown, but it is needless to say that the combination thereof may be used.
Further, although the face detection processing is not performed when the beauty flag is on, the face detection processing may be performed even when the beauty flag is on.
(第2実施形態)
以下、この発明の第2実施形態について図5及び図6を参照して説明する。
なお、上述した第1実施形態においては、所定の画像処理(美顔処理)の実行可否を、当該撮影装置(カメラ)の状態が所定の状態に変化したか否かに基づいて判別するようにしたが、この第2実施形態においては、人物の顔を検出することができなかった場合に、この検出処理とは異なる他の検出処理を行い、この他の検出処理の検出結果に基づいて所定の画像処理を施す必要があるか否かを判別するようにしたものである。すなわち、人物の顔を検出することができた場合には、その顔の肌色を一時記憶しておき、人物の顔を検出することができなかった場合の所定の画像処理(美顔処理)の実行可否を、一時記憶の肌色と同等の肌色の領域が所定の面積以上であるか否かに基づいて判別するようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。
(Second embodiment)
The second embodiment of the present invention will be described below with reference to FIGS. 5 and 6.
In the above-described first embodiment, whether or not the predetermined image processing (face treatment) can be executed is determined based on whether or not the state of the photographing apparatus (camera) has changed to the predetermined state. However, in the second embodiment, when the face of the person cannot be detected, another detection process different from this detection process is performed, and a predetermined result is detected based on the detection result of the other detection process. This is to determine whether or not it is necessary to perform image processing. That is, if the face of the person can be detected, the skin color of the face is temporarily stored, and predetermined image processing (face-cleaning process) is executed when the face of the person cannot be detected. It is determined whether or not the possibility is based on whether or not the area of the skin color equivalent to the skin color of the temporary storage is equal to or larger than a predetermined area. Here, in both embodiments, the basic or the same thing is shown with the same reference numeral, and the description thereof will be omitted. Hereinafter, the characteristic part of the second embodiment will be mainly described. ..
図5は、美顔撮影モードが指定された場合に実行開始される撮像装置の動作(第2実施形態の特徴的な動作)を説明するためのフローチャートである。
先ず、制御部1は、美顔撮影モードが指定されている状態において、レリーズ操作が行われたかを調べたり(ステップB1)、美顔撮影モードを解除する操作が行われたかを調べたりする(ステップB2)。いま、美顔撮影モードを解除する操作が行われた場合には(ステップB2でYES)、図5のフローから抜けるが、レリーズ操作が行われた場合には(ステップB1でYES)、撮像部6から撮像画像(ライブビュー画像)を取得する(ステップB3)。
FIG. 5 is a flow chart for explaining the operation of the image pickup apparatus (the characteristic operation of the second embodiment) that is started when the facial image capturing mode is designated.
First, the
そして、取得した撮像画像(ライブビュー画像)を解析することにより人物の顔を検出する処理(ステップB4)を行い、撮像画像内に人物の顔が写っているか否かを調べる(ステップB5)。いま、撮像画像内に人物の顔が写っていることを検出すると(ステップB5でYES)、図6(1)に示すように顔検出領域(図中、破線で囲った矩形領域)を特定し、その顔検出領域から肌色情報を取得してワークメモリ3bに一時記憶しておく(ステップB6)。この場合、シミ、ホクロなどの一部を除くために顔検出領域内において同等の色(同一色又は近似色)が連続している各領域のうち最も広い面積を持つ領域内の色を肌色情報として取得する。なお、この一時記憶の肌色情報は、一色の情報としてもよいが、色の範囲を示す情報としてもよい。
Then, a process of detecting a human face by analyzing the acquired captured image (live view image) is performed (step B4), and it is checked whether or not the human face is included in the captured image (step B5). When it is detected that a person's face is included in the captured image (YES in step B5), a face detection area (a rectangular area surrounded by a broken line in the figure) is identified as shown in FIG. 6(1). The skin color information is acquired from the face detection area and temporarily stored in the
次に、撮像画像に対して美顔処理を含む現像処理を施して撮影画像を生成する(ステップB7)。なお、この場合の美顔処理も第1実施形態と同様であり、人物の顔に限らず、首、腕などの肌色の部分を対象として、画像の露出を補正したり、彩度、明度を補正する処理を行うことによって肌を白くしたり、ソフトフォーカスなどを行うことによって皺、肌荒れ、シミが目立ちにくくしたりする画像処理を施すようにしているが、検出した顔の領域内のみに美顔処理を施すようにしてもよい。次に、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップB8)。その後、上述のステップB1に戻り、以下、上述の動作を繰り返す。 Next, the captured image is subjected to development processing including facial treatment to generate a captured image (step B7). The facial treatment in this case is similar to that of the first embodiment, and the exposure of the image is corrected and the saturation and the brightness are corrected not only for the face of the person but also for the skin-colored portions such as the neck and the arms. Image processing is performed to make the skin whiter by performing the processing described above, and to make wrinkles, rough skin, and spots less noticeable by performing soft focus, etc., but the facial processing is performed only within the detected face area. May be applied. Next, the generated image (captured image) is subjected to image compression processing to be converted into a standard file format, and then recorded and stored in the recording medium of the storage unit 3 (step B8). Then, the process returns to step B1 described above, and the above operation is repeated.
ここで、次にレリーズ操作(ステップB1でYES)によって撮像された画像を取得し(ステップB3)、この撮像画像に対して顔検出処理(ステップB4)を行った結果、人物の顔を検出することができなかった場合(ステップB5でNO)、ステップB9に移り、肌の色情報が一時記憶されているかを調べる。すなわち、今回のレリーズ操作前に顔検出が行われ肌の色情報がワークメモリ3bに一時記憶されたかを調べる。肌の色情報が一時記憶されている場合(ステップB9でYES)、ステップB10に移る。このステップB10は、上述の顔検出時に一時記憶しておいた肌色情報を読み出し、その肌色情報と同等の色(同一色又は近似色)で、かつ所定の面積以上の領域(例えば、撮像画像全体に対して5%以上の領域)を肌領域として検出する処理を行うもので、その検出処理の結果、撮像画像内から上述の条件に該当する肌領域を検出することができたかを調べる(ステップB11)。
Here, the image captured by the release operation (YES in step B1) is acquired next (step B3), and the face detection processing (step B4) is performed on this captured image, and as a result, the face of the person is detected. If not possible (NO in step B5), the process proceeds to step B9 to check whether the skin color information is temporarily stored. That is, it is checked whether face detection is performed before the release operation this time and the skin color information is temporarily stored in the
図6(2)は、撮像画像内の人物の顔が横に向いているために、顔を検出することができなかった場合において、顔検出時に一時記憶しておいた肌色情報(顔の肌色)と同等の色が連続している領域であり、かつ所定の面積以上の領域を、肌領域として検出した場合を例示した図で、図中、斜線を付した領域(顔と首の領域)は、検出した肌領域を示している。いま、該当する肌領域を検出することができなければ(ステップB11でNO)、美顔処理を含まない現像処理を施して撮影画像を生成し(ステップB12)、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップB8)。その後、上述のステップB1に戻る。
また、肌の色情報が一時記憶されていない場合(ステップB9でNO)も同様に、美顔処理を含まない現像処理を施して撮影画像を生成し(ステップB12)、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップB8)。その後、上述のステップB1に戻り、以下、上述の動作を繰り返す。
FIG. 6B shows the skin color information (face skin color) temporarily stored at the time of face detection when the face cannot be detected because the face of the person in the captured image is facing sideways. ) Is a region in which the same color is continuous, and is a diagram illustrating a case where a region having a predetermined area or more is detected as a skin region. In the figure, a shaded region (face and neck region) Indicates the detected skin area. If the corresponding skin area cannot be detected (NO in step B11), a development process that does not include facial treatment is performed to generate a captured image (step B12), and the generated image (captured image) is generated. Then, the image is compressed and converted into a standard file format, and then recorded and stored in the recording medium of the storage unit 3 (step B8). Then, the process returns to step B1 described above.
Also, when the skin color information is not temporarily stored (NO in step B9), similarly, development processing that does not include facial treatment is performed to generate a captured image (step B12), and the generated image (captured image) is generated. The image is subjected to image compression processing to be converted into a standard file format, and then recorded and saved in the recording medium of the storage unit 3 (step B8). After that, the process returns to step B1 described above, and the above operation is repeated.
一方、上述のように顔検出時にその肌色情報(顔の肌色)が一時記憶されている状態において、人物の顔を検出することができない場合でも、その一時記憶の肌色情報と同等の色情報を有する領域であり、かつ、所定の面積以上の領域を、人物の肌領域として検出する処理を行った結果(ステップB10)、肌領域を検出することができた場合には(ステップB11でYES)、美顔処理を施す必要があると判別して、ステップB7に移り、撮像画像に対して美顔処理を含む現像処理を施して撮影画像を生成する。なお、この場合、例えば、所定の面積以上の肌領域が複数存在している場合には最も広い領域を、顔領域として検出するようにすれば、顔の領域のみに美顔処理を施すことも可能となる。次に、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップB8)。その後、上述の On the other hand, even if a person's face cannot be detected while the skin color information (face skin color) is temporarily stored at the time of face detection as described above, color information equivalent to the skin color information in the temporary storage is obtained. As a result of performing the process of detecting an area that is included and has a predetermined area or more as the human skin area (step B10), if the skin area can be detected (YES in step B11). When it is determined that the facial processing needs to be performed, the process proceeds to step B7, and the captured image is subjected to the development processing including the facial processing to generate a photographed image. In this case, for example, when there are a plurality of skin areas having a predetermined area or more, if the widest area is detected as the face area, it is possible to apply the facial treatment to only the face area. Becomes Next, the generated image (captured image) is subjected to image compression processing to be converted into a standard file format, and then recorded and stored in the recording medium of the storage unit 3 (step B8). Then the above
以上のように、第2実施形態において制御部1は、人物の顔を検出することができなかった場合に、この検出処理とは異なる他の検出処理を行い、この他の検出処理の検出結果に基づいて所定の画像処理を施す必要があるか否かを判別するようにしたから、顔検出処理という一義的な検出に拘らず、多角的な検出が可能となる。
As described above, in the second embodiment, when the face of a person cannot be detected, the
顔検出時にその肌色情報(顔の肌色)が一時記憶されている状態において、上述の他の検出処理として、この一時記憶の肌色と同等の肌色の領域が所定の面積以上であるか否かを検出する処理を行い、その検出結果に基づいて美顔処理の実行可否を判別するようにしたので、顔を検出することができなかった場合にもその撮像画像に対して肌の部分を的確に特定して美顔処理を施すことができる。 In the state in which the skin color information (face skin color) is temporarily stored at the time of face detection, as another detection processing described above, it is determined whether the skin color area equivalent to the skin color in the temporary storage is a predetermined area or more. Since the detection process is performed and whether or not the facial treatment can be executed is determined based on the detection result, even if the face cannot be detected, the skin portion can be accurately specified in the captured image. Then, facial treatment can be performed.
(第3実施形態)
以下、この発明の第3実施形態について図7及び図8を参照して説明する。
この第3実施形態は上述した第2実施形態と同様に、人物の顔を検出することができなかった場合に、この検出処理とは異なる他の検出処理を行い、この他の検出処理の検出結果に基づいて所定の画像処理を施す必要があるか否かを判別するようにしたものである。更に、第3実施形態は、人物の顔を検出することができなかった場合の他の検出処理として、人物の顔を検出することができた際にその髪の色を一時記憶しておき、この一時記憶の髪の色と同等の肌色の領域が所定の面積以上であるか否かを検出する処理を行い、この検出結果に基づいて所定の画像処理(美顔処理)の実行可否を判別するようにしたものである。ここで、第1、第3の実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第3実施形態の特徴部分を中心に説明するものとする。
(Third Embodiment)
Hereinafter, a third embodiment of the present invention will be described with reference to FIGS. 7 and 8.
In the third embodiment, similarly to the above-described second embodiment, when the face of a person cannot be detected, another detection process different from this detection process is performed, and the detection of the other detection process is performed. Based on the result, it is determined whether or not it is necessary to perform predetermined image processing. Further, in the third embodiment, as another detection process when the face of the person cannot be detected, the color of the hair is temporarily stored when the face of the person can be detected. A process of detecting whether or not the area of the skin color equivalent to the hair color of the temporary memory is equal to or larger than a predetermined area is performed, and based on the detection result, it is determined whether or not the predetermined image processing (facial treatment) can be performed. It was done like this. Here, in the first and third embodiments, basically or the same in terms of names are denoted by the same reference numerals, the description thereof will be omitted, and the characteristic part of the third embodiment will be mainly described below. I shall explain.
図7は、美顔撮影モードが指定された場合に実行開始される撮像装置の動作(第3実施形態の特徴的な動作)を説明するためのフローチャートである。なお、図7は、第2実施形態の図5と基本的に同様であるため、基本的に同様な部分については、簡単に説明するものとする。
先ず、制御部1は、美顔撮影モードが指定されている状態において、レリーズ操作が行われたかを調べたり(ステップC1)、美顔撮影モードを解除する操作が行われたかを調べたりする(ステップC2)。いま、美顔撮影モードを解除する操作が行われた場合には(ステップC2でYES)、図7のフローから抜けるが、レリーズ操作が行われた場合には(ステップC1でYES)、撮像部6から撮像画像(ライブビュー画像)を取得する(ステップC3)。そして、取得した撮像画像(ライブビュー画像)を解析することにより人物の顔を検出する処理(ステップC4)を行い、撮像画像内に人物の顔が写っているか否かを調べる(ステップC5)。
FIG. 7 is a flow chart for explaining the operation of the image pickup apparatus (the characteristic operation of the third embodiment) which is started when the facial photographing mode is designated. Since FIG. 7 is basically the same as FIG. 5 of the second embodiment, basically the same parts will be briefly described.
First, the
いま、撮像画像内に人物の顔が写っていることを検出すると(ステップC5でYES)、図8(1)に示すように顔検出領域(図中、細かい破線で囲った矩形領域)を特定すると共に、その顔検出領域を基にその周辺の領域を髪領域として特定し、この髪領域から髪の色情報を取得してワークメモリ3bに一時記憶しておく(ステップC6)。すなわち、髪領域は、顔検出領域を除いた矩形領域(図中、粗い破線で囲った矩形領域)であり、そのX方向の長さ(幅)を顔検出領域の幅の1.5倍、そのY方向の長さ(高さ)を顔検出領域の高さの1.5倍とした大きさの領域であって、その領域の下端を顔検出領域の下端に一致させた位置に配置した領域を髪領域として検出する。
When it is detected that the person's face is included in the captured image (YES in step C5), a face detection area (a rectangular area surrounded by fine broken lines in the figure) is identified as shown in FIG. 8(1). At the same time, the peripheral area is specified as the hair area based on the face detection area, and the hair color information is acquired from the hair area and temporarily stored in the
このようにして検出した髪領域内において同等の色(同一色又は近似色)が連続している各領域のうち最も広い面積を持つ領域内の色を髪の色情報として取得して一時記憶しておく。なお、この一時記憶の髪の色情報は、一色の情報であってもよいが、色の範囲を示す情報であってもよい。そして、撮像画像に対して美顔処理を含む現像処理を施して撮影画像を生成するが、検出した顔の領域内のみに美顔処理を施すようにしてもよい(ステップC7)。この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップC8)。その後、上述のステップC1に戻る。 The color in the area having the widest area among the areas in which the same color (same or similar color) is continuously detected in the hair area thus detected is acquired as the hair color information and temporarily stored. Keep it. The hair color information of the temporary storage may be information of one color or may be information indicating a range of colors. Then, the captured image is subjected to development processing including facial treatment to generate a photographed image, but facial treatment may be performed only within the detected face area (step C7). The generated image (captured image) is subjected to image compression processing to be converted into a standard file format, and then recorded and stored in the recording medium of the storage unit 3 (step C8). Then, the process returns to step C1 described above.
ここで、次にレリーズ操作(ステップC1でYES)によって撮像された画像を取得し(ステップC3)、この撮像画像に対して顔検出処理(ステップC4)を行った結果、人物の顔を検出することができなかった場合には(ステップC5でNO)、ステップC9に移り、髪の色情報が一時記憶されているかを調べる。すなわち、今回のレリーズ操作前に顔検出が行われ髪の色情報がワークメモリ3bに一時記憶されたかを調べる。髪の色情報が一時記憶されている場合(ステップC9でYES)、ステップC10に移り、図8(2)に示すように撮像画像内の顔可能性領域(図中、細かい破線で囲った矩形領域)を検出する処理を行う。この場合、通常の顔検出時に使用する肌色(一般的な肌色)と同等の色(同一色又は近似色)が連続している領域を顔可能性領域として検出する。ここで、顔可能性領域を検出することができなければ(ステップC11でNO)、美顔処理を含まない現像処理を施して撮影画像を生成し(ステップC14)、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップC8)。その後、上述のステップC1に戻り、以下、上述の動作を繰り返す。
Here, next, an image captured by the release operation (YES in step C1) is acquired (step C3), and the face detection process (step C4) is performed on the captured image, and as a result, the face of the person is detected. If not possible (NO in step C5), the process moves to step C9 to check whether the hair color information is temporarily stored. That is, it is checked whether face detection was performed before the release operation this time and hair color information was temporarily stored in the
顔可能性領域を検出することができた場合には(ステップC11でYES)、上述の顔検出時に一時記憶しておいた髪の色情報を読み出し、この髪の色情報と同等の色情報を有する領域であり、かつ、所定の面積以上の領域を、人物の髪領域として検出する処理を行う(ステップA12)。すなわち、髪の色情報と同等の色(同一色又は近似色)で、かつ図8(2)に示すように顔検出領域を除いた矩形領域(図中、粗い破線で囲った矩形領域)で、そのX方向の長さ(幅)を顔検出領域の幅の2.0倍、そのY方向の長さ(高さ)を顔検出領域の高さの1.5倍とした大きさ領域であって、その領域の下端を顔可能性領域の下端に一致させた位置に配置した領域を髪領域として検出する。 When the face possibility area can be detected (YES in step C11), the hair color information temporarily stored at the time of face detection is read out, and color information equivalent to this hair color information is read. A process is performed to detect an area that is included and has a predetermined area or more as a person's hair area (step A12). That is, the color is the same as the color information of the hair (the same color or an approximate color) and is a rectangular area excluding the face detection area as shown in FIG. 8B (a rectangular area surrounded by a rough broken line in the figure). In the size area, the length (width) in the X direction is 2.0 times the width of the face detection area, and the length (height) in the Y direction is 1.5 times the height of the face detection area. Then, the area arranged at the position where the lower end of the area matches the lower end of the face possibility area is detected as the hair area.
そして、撮像画像内から上述の条件に該当する髪領域を検出することができたか、つまり、髪であるとみなしてもよい程度(例えば、30%程度)に、顔検出時に一時記憶しておいた髪の色を占めている領域を髪領域として検出することができたかを調べる(ステップC13)。ここで、髪領域を検出できなければ(ステップC13でNO)、美顔処理を含まない現像処理を施して撮影画像を生成し(ステップC14)、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップC8)。その後、上述のステップC1に戻る。
また、髪の色情報が一時記憶されていない場合(ステップC9でNO)も同様に、美顔処理を含まない現像処理を施して撮影画像を生成し(ステップC14)、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップC8)。その後、上述のステップC1に戻り、以下、上述の動作を繰り返す。
Then, whether or not the hair region corresponding to the above condition can be detected from the captured image, that is, the hair region is temporarily stored at the time of face detection to the extent that it can be regarded as hair (for example, about 30%). It is checked whether or not the area occupying the existing hair color can be detected as the hair area (step C13). Here, if the hair region cannot be detected (NO in step C13), development processing that does not include facial treatment is performed to generate a captured image (step C14), and image compression processing is performed on this generated image (captured image). Then, the data is converted into a standard file format and recorded and stored in the recording medium of the storage unit 3 (step C8). Then, the process returns to step C1 described above.
Similarly, when the hair color information is not temporarily stored (NO in step C9), similarly, a development process that does not include facial treatment is performed to generate a captured image (step C14), and the generated image (captured image) is generated. After the image compression processing is performed on the above to convert it into a standard file format, it is recorded and stored in the recording medium of the storage unit 3 (step C8). After that, the process returns to step C1 described above, and the above operation is repeated.
一方、顔検出時にその髪の色情報を一時記憶している状態において、人物の顔を検出できない場合でも、その髪の色情報と同等の色情報を有する領域であり、かつ、所定の面積以上の領域を、人物の髪領域として検出する処理を行った結果(ステップC12)、髪領域を検出することができた場合には(ステップC13でYES)、美顔処理を施す必要があると判別して、ステップC7に移り、撮像画像内の顔可能性領域に対して美顔処理を含む現像処理を施して撮影画像を生成する。すなわち、顔可能性領域の周辺に髪領域が存在している場合には、その顔可能性領域は顔領域であると判断し、その顔可能性領域に対して美顔処理を施す。そして、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップC8)。その後、上述のステップC1に戻り、以下、上述の動作を繰り返す。 On the other hand, in the state where the color information of the hair is temporarily stored at the time of face detection, even if the face of the person cannot be detected, the area has the same color information as the color information of the hair, and has a predetermined area or more. As a result of performing the process of detecting the area of No. 1 as the hair area of the person (step C12), if the hair area can be detected (YES in step C13), it is determined that the facial processing needs to be performed. Then, the process proceeds to step C7 to perform a development process including a facial beauty process on the face possibility area in the captured image to generate a captured image. That is, when there is a hair area around the face possibility area, it is determined that the face possibility area is a face area, and the facial treatment is performed on the face possibility area. Then, the generated image (captured image) is subjected to image compression processing to be converted into a standard file format, and then recorded and stored in the recording medium of the storage unit 3 (step C8). After that, the process returns to step C1 described above, and the above operation is repeated.
以上のように、第3実施形態において制御部1は、人物の顔を検出することができた場合にはその髪の色を一時記憶しておき、人物の顔を検出することができなかった場合にはその撮像画像に対して、顔可能性領域を特定してその周辺に一時記憶の肌色と同等で所定の面積以上の領域が存在していれば、その領域を髪領域として検出する処理を行い、美顔処理の実行可否を、その検出結果に基づいて判別するようにしたので、顔可能性領域の周辺に髪領域が存在している場合には、その顔可能性領域は顔領域であると判断して美顔処理を施すことができ、人物の髪の色から撮像画像内の人物の顔部分を的確に特定して美顔処理を施すことができる。
As described above, in the third embodiment, when the
なお、上述した第3実施形態においては、人物の顔を検出することができなかった場合に顔可能性領域を検出し、この顔可能性領域の周辺に髪領域が存在していれば、その顔可能性領域を顔領域であると判断して美顔処理を施すようにしたが、一時記憶の髪の色に基づいて髪領域を検出すると共に、この髪領域に基づいてその周辺の顔領域を検出して美顔処理を施すようにしてもよい。 In the above-described third embodiment, a face possibility area is detected when a person's face cannot be detected, and if a hair area exists around this face possibility area, Although the face possibility area is judged to be the face area and the facial treatment is performed, the hair area is detected based on the hair color of the temporary memory, and the peripheral face area is detected based on this hair area. You may make it detect and apply a facial treatment.
(第4実施形態)
以下、この発明の第4実施形態について図9を参照して説明する。
この第4実施形態は上述した第2及び第3実施形態と同様に、人物の顔が検出されない場合に、この検出処理とは異なる他の検出処理を行い、この他の検出処理の検出結果に基づいて所定の画像処理を施す必要があるか否かを判別するようにしたものである。更に、第4実施形態では、人物の顔を検出することができなかった場合の他の検出処理として、撮像部6を構成する撮像レンズ6aの収差を補正する情報に基づいて収差補正処理を行うと共に、その補正された撮像画像内から人物の顔を検出する処理を行い、この検出結果に基づいて所定の画像処理(美顔処理)の実行可否を判別するようにしたものである。なお、ここでは、収差補正処理として、公知の技術を使用して歪曲収差を補正するものとする。ここで、第1、第4の実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第4実施形態の特徴部分を中心に説明するものとする。
(Fourth Embodiment)
Hereinafter, a fourth embodiment of the present invention will be described with reference to FIG.
In the fourth embodiment, similarly to the second and third embodiments described above, when a human face is not detected, another detection process different from this detection process is performed, and the detection result of this other detection process is displayed. Based on this, it is determined whether or not it is necessary to perform predetermined image processing. Further, in the fourth embodiment, as another detection process when the face of the person cannot be detected, the aberration correction process is performed based on the information for correcting the aberration of the
図9は、美顔撮影モードが指定された場合に実行開始される撮像装置の動作(第4実施形態の特徴的な動作)を説明するためのフローチャートである。なお、図9は、第2実施形態の図5と基本的に同様であるため、基本的に同様な部分については、簡単に説明するものとする。
先ず、制御部1は、美顔撮影モードが指定されている状態において、レリーズ操作が行われたかを調べたり(ステップD1)、美顔撮影モードを解除する操作が行われたかを調べたりする(ステップD2)。いま、美顔撮影モードを解除する操作が行われた場合には(ステップD2でYES)、図9のフローから抜けるが、レリーズ操作が行われた場合には(ステップD1でYES)、撮像部6から撮像画像(ライブビュー画像)を取得する(ステップD3)。
FIG. 9 is a flow chart for explaining the operation of the image pickup apparatus (the characteristic operation of the fourth embodiment) which is started when the facial image capturing mode is designated. Since FIG. 9 is basically the same as FIG. 5 of the second embodiment, basically the same parts will be briefly described.
First, the
そして、取得した撮像画像(ライブビュー画像)を解析することにより人物の顔を検出する処理(ステップD4)を行い、撮像画像内に人物の顔が写っているか否かを調べる(ステップD5)。いま、撮像画像内に人物の顔が写っていることを検出すると(ステップD5でYES)、撮像画像に対して美顔処理を含む現像処理を施して撮影画像を生成するが、検出した顔の領域内のみに美顔処理を施すようにしてもよい(ステップD7)。この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップD7)。その後、上述のステップD1に戻る。 Then, a process of detecting a human face by analyzing the acquired captured image (live view image) is performed (step D4), and it is checked whether or not the human face is included in the captured image (step D5). When it is detected that a person's face is included in the captured image (YES in step D5), the captured image is subjected to development processing including facial beauty processing to generate a captured image. The facial treatment may be applied only to the inside (step D7). The generated image (captured image) is subjected to image compression processing to be converted into a standard file format, and then recorded and stored in the recording medium of the storage unit 3 (step D7). Then, the process returns to step D1 described above.
ここで、次にレリーズ操作(ステップD1でYES)によって撮像された画像を取得し(ステップD3)、この撮像画像に対して顔検出処理(ステップD4)を行った結果、人物の顔を検出することができなかった場合には、例えば、人物の顔が撮像レンズ6aの中心部からその周縁部に移動したような場合には(ステップD5でNO)、ステップD8に移り、撮像画像に対して歪曲収差補正処理を行う(ステップD9)。すなわち、撮像レンズ6aの収差を補正する情報に基づいて歪曲収差補正を行い、この補正した撮像画像に対して再度、人物の顔を検出する処理を行う(ステップD9)。この場合、歪曲収差補正を行っても人物の顔を検出できなければ(ステップD10でNO)、美顔処理を含まない現像処理を施して撮影画像を生成し(ステップD11)、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップD7)。
Here, next, an image captured by the release operation (YES in step D1) is acquired (step D3), and the face detection processing (step D4) is performed on this captured image, and as a result, the face of the person is detected. If it is not possible, for example, if the face of the person moves from the central part of the
一方、歪曲収差補正(ステップD8)を行った結果、人物の顔を検出することができた場合には(ステップD10でYES)、美顔処理を施す必要があると判別して、ステップD6に移り、撮像画像に対して美顔処理を含む現像処理を施して撮影画像を生成する。なお、美顔処理は、第1実施形態と同様に、人物の顔に限らず、首、腕などの肌色の部分を対象としてもよいが顔の領域のみに美顔処理を施すようにしてもよい。次に、この生成画像(撮影画像)に対して画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップD7)。その後、上述のステップD1に戻り、以下、上述の動作を繰り返す。 On the other hand, as a result of performing the distortion aberration correction (step D8), when the face of the person can be detected (YES in step D10), it is determined that the facial treatment needs to be performed, and the process proceeds to step D6. , The captured image is subjected to development processing including facial treatment to generate a captured image. Similar to the first embodiment, the facial treatment may be performed not only on the face of a person but also on skin-colored portions such as the neck and arms, but facial treatment may be performed only on the facial region. Next, the generated image (captured image) is subjected to image compression processing to be converted into a standard file format, and then recorded and stored in the recording medium of the storage unit 3 (step D7). Then, the process returns to step D1 described above, and the above operation is repeated.
以上のように、第4実施形態において制御部1は、人物の顔を検出することができなかった場合に、撮像部6を構成する撮像レンズ6aの収差を補正する情報に基づいて収差補正処理を行うと共に、その補正された撮像画像内から人物の顔を検出する処理を行い、この検出結果に基づいて美顔処理の実行可否を判別するようにしたから、人物の顔が撮像レンズ6aの収差が大きい位置に移動しても、収差補正処理を行ってから再び顔検出処理を行うことができ、顔検出がより確実なものとなる。
As described above, in the fourth embodiment, the
なお、上述した第2実施形態の検出処理である人物の肌領域を検出する処理を行ってもなお、顔を検出することができない場合には、更に、上述した第3実施形態の処理として、人物の髪領域を検出する処理を行うようにしてもよい。この場合、最初に顔を検出したときに髪の色も取得しておけばよい。 In addition, when the face cannot be detected even after performing the process of detecting the skin area of the person, which is the detection process of the above-described second embodiment, further, as the process of the above-described third embodiment, You may make it perform the process which detects a person's hair area. In this case, the hair color may be acquired when the face is first detected.
また、上述した第4実施形態の検出処理である収差補正を行ってもなお、人物の顔を検出することができない場合には、更に、上述した第2実施形態の処理として、人物の肌領域を検出する処理、又は上述した第3実施形態の処理として、人物の髪領域を検出する処理を行うようにしてもよい。この場合、最初に顔を検出したときに肌の色、又は髪の色も取得しておけばよい。 Further, if the face of the person cannot be detected even after performing the aberration correction which is the detection processing of the above-described fourth embodiment, the skin area of the person is further processed as the processing of the above-described second embodiment. May be performed, or as the processing of the third embodiment described above, processing of detecting the hair area of a person may be performed. In this case, the skin color or the hair color may be acquired when the face is first detected.
上述した各実施形態においては、画像処理装置として撮像手段を備える撮像装置に適用した場合を例示したが、これに限らず、画像処理装置には撮像手段を備えず、別途通信手段を備え、撮像手段を備える外部装置が撮像する撮像画像を、通信手段を介して取得するようにしてもよい。 In each of the above-described embodiments, the case where the invention is applied to the image pickup apparatus including the image pickup means as the image processing apparatus is not limited to this, and the image processing apparatus is not provided with the image pickup means but is provided with the separate communication means. The captured image captured by the external device including the unit may be acquired via the communication unit.
上述した各実施形態においては、所定の画像処理として美顔処理として、美肌、美白を例示したが、これに限らず、顔の形状、睫、眉毛、口元などを加工する顔加工処理であってもよく、更に、画像加工の対象は、顔に限らず、顔の背景を顔の肌色に応じて補正する処理を施すようにしてもよい。 In each of the above-described embodiments, as the predetermined image processing, the facial processing is exemplified by skin beautification and whitening. However, the present invention is not limited to this, and the facial processing for processing the shape of the face, eyelashes, eyebrows, mouth, etc. Of course, the target of image processing is not limited to the face, and a process of correcting the background of the face according to the skin color of the face may be performed.
上述した各実施形態においては、撮影指示操作(レリーズ操作)毎に自身の顔の向きやカメラの位置を変えながら複数枚連続して撮影する場合を示したが、撮影指示操作に応じて連写機能を動作させる場合であっても同様に適用可能である。例えば、1回のレリーズ操作で静止画像を複数枚(例えば、3秒間隔で3枚又は5枚)連続して高速撮影する場合に、各撮像画像に対して人物の顔を検出するようにしてもよく、更には、動画撮影中に人物の顔を検出するようにしてもよい。 In each of the above-described embodiments, the case where a plurality of images are continuously shot while changing the direction of the face and the position of the camera for each shooting instruction operation (release operation) has been described. However, continuous shooting is performed according to the shooting instruction operation. The same is applicable when operating the function. For example, when a plurality of still images (for example, 3 or 5 at 3 second intervals) are continuously shot at high speed by one release operation, the face of a person is detected for each captured image. Alternatively, the face of a person may be detected during moving image shooting.
また、上述した各実施形態においては、画像処理装置として撮像装置に適用した場合を例示したが、これに限らず、例えば、カメラ機能付きパーソナルコンピュータ・PDA(個人向け携帯型情報通信機器)・タブレット端末装置・スマートフォンなどの携帯電話機・電子ゲーム・音楽プレイヤーなどであってもよい。 Further, although cases have been described with the above-described embodiments where the image processing apparatus is applied to an imaging apparatus, the present invention is not limited to this, and, for example, a personal computer with a camera function, a PDA (personal portable information communication device), and a tablet. It may be a terminal device, a mobile phone such as a smartphone, an electronic game, a music player, or the like.
また、上述した各実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。 Further, the “apparatus” and “unit” shown in each of the above-described embodiments may be separated into a plurality of housings according to their functions, and are not limited to a single housing. Further, the steps described in the above-described flowcharts are not limited to time-series processing, and a plurality of steps may be processed in parallel or separately and independently.
以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
撮像画像を取得する取得手段と、
前記取得手段によって取得された撮像画像内から人物の顔を検出する第1の検出手段と、
保存用の撮影画像を生成するために前記撮像画像に撮影処理を行うと共に、前記第1の検出手段によって人物の顔を検出することができた場合にその撮像画像に対して所定の画像処理を施す画像処理手段と、
前記第1の検出手段によって人物の顔を検出することができなかった場合にその撮像画像に対して前記所定の画像処理を施す必要があるか否かを判別する判別手段と、
前記第1の検出手段によって人物の顔を検出することができなかった撮像画像に対しても前記判別手段によって前記所定の画像処理を施す必要があると判別された場合には、その撮像画像に対して前記所定の画像処理を施すべきことを前記画像処理手段に指示する制御手段と、
を備えることを特徴とする画像処理装置である。
(請求項2)
請求項2に記載の発明は、請求項1に記載の画像処理装置において、
前記画像処理手段は、撮影指示操作に応じて、前記撮影処理と前記所定の画像処理とを行い、
前記第1の検出手段は、前記撮影指示操作が連続して行われ、複数枚の撮影画像が生成される連続撮影中において、前記撮影指示操作が行われる毎に前記取得手段によって取得される各撮像画像に対して人物の顔を検出する動作を行う、
ことを特徴とする。
(請求項3)
請求項3に記載の発明は、請求項2に記載の画像処理装置において、
前記第1の検出手段によって人物の顔を検出することができた場合にその撮像画像に対して、前記所定の画像処理の実行可否を示す情報として可の情報を設定する処理を行う設定手段を、更に備え、
前記判別手段は、前記設定手段によって前記可の情報が設定されている場合には、前記第1の検出手段によって人物の顔を検出することができなかった場合でもその撮像画像に対して前記所定の画像処理を施す必要があると判別する、
ことを特徴とする。
(請求項4)
請求項4に記載の発明は、請求項3に記載の画像処理装置において、
当該画像処理装置の状態が所定の状態に変化したかを検出する第2の検出手段を、更に備え、
前記設定手段は、前記第2の検出手段によって当該画像処理装置の状態が所定の状態に変化したことが検出された撮像画像に対して、前記所定の画像処理の実行可否を示す情報として否の情報を設定する処理を行い、
前記判別手段は、前記設定手段によって前記否の情報が設定されている場合には、前記所定の画像処理を施す必要がないと判別する、
ことを特徴とする。
(請求項5)
請求項5に記載の発明は、請求項4に記載の画像処理装置において、
前記第2の検出手段は、少なくともホワイトバランスの光源判定の切り替わり、ライトバリュー値の急激な変化、撮像レンズ部の回転、フォーカス距離の急激な変化のいずれかを、当該画像処理装置の状態が所定の状態に変化したこと、として検出する、
ことを特徴とする。
(請求項6)
請求項6に記載の発明は、請求項1又は2に記載の画像処理装置において、
前記画像処理手段が撮影処理を行う際に、前記第1の検出手段によって人物の顔を検出することができなかった場合にその撮像画像に対して、前記第1の検出手段による検出処理とは異なる他の検出処理を行う第3の検出手段を、更に備え、
前記判別手段は、前記第1の検出手段によって人物の顔を検出することができなかった場合にその撮像画像に対して前記第3の検出手段による検出結果に基づいて前記所定の画像処理を施す必要があるか否かを判別する、
ことを特徴とする。
(請求項7)
請求項7に記載の発明は、請求項6に記載の画像処理装置において、
前記第1の検出手段によって人物の顔を検出することができなかった場合にその撮像画像内の顔の領域から人物の肌の色情報を取得する取得手段を、更に備え、
前記第3の検出手段は、前記取得手段によって取得された撮像画像内から前記取得手段によって取得した肌の色情報と同等の色情報を有する領域であり、かつ、所定の面積以上の領域を、人物の肌領域として検出する処理を行い、
前記判別手段は、前記第1の検出手段によって人物の顔を検出することができなかった場合であって、前記第3の検出手段によって人物の肌領域を検出することができた場合には、その撮像画像に対して前記所定の画像処理を施す必要があると判別する、
ことを特徴とする。
(請求項8)
請求項8に記載の発明は、請求項6に記載の画像処理装置において、
前記第1の検出手段によって人物の顔を検出することができた場合に、その顔の周囲の領域から人物の髪の色情報を取得する取得手段を、更に備え、
前記第3の検出手段は、前記取得手段によって取得された撮像画像内から前記取得手段によって取得した髪の色情報と同等の色情報を有する領域であり、かつ、所定の面積以上の領域を、人物の髪領域として検出する処理を行い、
前記判別手段は、前記第1の検出手段によって人物の顔を検出することができなかった場合であって、前記第3の検出手段によって人物の髪領域を検出することができた場合には、その撮像画像に対して前記所定の画像処理を施す必要があると判別する、
ことを特徴とする。
(請求項9)
請求項9に記載の発明は、請求項6に記載の画像処理装置において、
前記取得手段は、当該画像処理装置が備える撮像手段によって撮像される撮像画像を取得し、
前記第3の検出手段は、前記撮像手段を構成する撮像レンズの収差を補正する情報に基づいて補正された撮像画像内から人物の顔を検出する処理を行い、
前記判別手段は、前記第1の検出手段によって人物の顔を検出することができなかった場合であって、前記第3の検出手段によって人物の顔を検出することができた場合には、その撮像画像に対して前記所定の画像処理を施す必要があると判別する、
ことを特徴とする。
(請求項10)
請求項10に記載の発明は、請求項1乃至9のいずれか1項に記載の画像処理装置において、
前記取得手段によって取得された撮像画像に対して前記画像処理手段が施す所定の画像処理は、その撮像画像内の肌色部分に美顔処理を施す処理である、
ことを特徴とする。
(請求項11)
請求項11に記載の発明は、
撮像画像を取得する処理と、
前記取得した撮像画像内から人物の顔を検出する処理と、
保存用の撮影画像を生成するために前記撮像画像に撮影処理を行うと共に、前記人物の顔を検出することができた場合にその撮像画像に対して所定の画像処理を施す処理と、
前記人物の顔を検出することができなかった場合にその撮像画像に対して前記所定の画像処理を施す必要があるか否かを判別する処理と、
前記人物の顔を検出することができなかった撮像画像に対しても前記所定の画像処理を施す必要があると判別された場合には、その撮像画像に対して前記所定の画像処理を施すべきことを指示する処理と、
を含むことを特徴とする画像処理方法である。
(請求項12)
請求項12に記載の発明は、
コンピュータに対して、
撮像画像を取得する機能と、
前記取得した撮像画像内から人物の顔を検出する機能と、
保存用の撮影画像を生成するために前記撮像画像に撮影処理を行うと共に、前記人物の顔を検出することができた場合にその撮像画像に対して所定の画像処理を施す機能と、
前記撮影手段が撮影処理を行う際に、前記人物の顔を検出することができなかった場合にその撮像画像に対して前記所定の画像処理を施す必要があるか否かを判別する機能と、
前記人物の顔を検出することができなかった撮像画像に対しても前記所定の画像処理を施す必要があると判別された場合には、その撮像画像に対して前記所定の画像処理を施すべきことを指示する機能と、
を実現させるためのプログラムである。
Although the embodiment of the present invention has been described above, the present invention is not limited to this, and includes the invention described in the claims and the scope equivalent thereto.
The inventions described in the claims of the present application will be additionally described below.
(Appendix)
(Claim 1)
The invention according to
An acquisition means for acquiring a captured image,
First detection means for detecting a face of a person from the captured image acquired by the acquisition means;
The captured image is subjected to a capturing process to generate a captured image for storage, and a predetermined image process is performed on the captured image when the face of the person can be detected by the first detecting unit. Image processing means to perform,
Determination means for determining whether or not it is necessary to perform the predetermined image processing on the captured image when the face of the person cannot be detected by the first detection means,
If it is determined by the determination means that the predetermined image processing needs to be performed on the captured image for which the face of the person cannot be detected by the first detection means, On the other hand, control means for instructing the image processing means to perform the predetermined image processing,
An image processing apparatus comprising:
(Claim 2)
The invention described in
The image processing means performs the shooting process and the predetermined image process according to a shooting instruction operation,
Each of the first detection means is acquired by the acquisition means each time the shooting instruction operation is performed during continuous shooting in which the shooting instruction operation is continuously performed and a plurality of shot images are generated. Performs the operation to detect the face of a person in the captured image,
It is characterized by
(Claim 3)
The invention described in
Setting means for performing, when the face of the person can be detected by the first detecting means, processing for setting, as information indicating whether or not the predetermined image processing can be executed, to the captured image , Prepare for more,
When the setting information sets the permission information, the determination means sets the predetermined value for the captured image even when the face of the person cannot be detected by the first detection means. It is determined that the image processing of
It is characterized by
(Claim 4)
The invention according to claim 4 is the image processing apparatus according to
Further comprising a second detecting means for detecting whether or not the state of the image processing apparatus has changed to a predetermined state,
The setting unit determines whether or not information indicating whether or not the predetermined image processing can be performed is performed on the captured image in which the state of the image processing apparatus is detected to be changed to the predetermined state by the second detecting unit. Perform the process of setting information,
The determining means determines that the predetermined image processing need not be performed when the setting information has been set by the setting means.
It is characterized by
(Claim 5)
The invention described in
The second detection means determines whether the state of the image processing apparatus is predetermined to be at least one of switching of light source determination of white balance, rapid change of light value value, rotation of imaging lens unit, and rapid change of focus distance. Change to the state of
It is characterized by
(Claim 6)
The invention according to
What is the detection processing by the first detection unit for the captured image when the face of the person cannot be detected by the first detection unit when the image processing unit performs the photographing process? Further comprising a third detecting means for performing another different detecting process,
The discriminating means performs the predetermined image processing on the captured image based on the detection result of the third detecting means when the face of the person cannot be detected by the first detecting means. Determine if it is necessary,
It is characterized by
(Claim 7)
The invention according to claim 7 is the image processing apparatus according to
Further comprising: an acquisition unit that acquires the skin color information of the person from the face region in the captured image when the first detection unit cannot detect the face of the person,
The third detection means is an area having color information equivalent to the skin color information acquired by the acquisition means from the captured image acquired by the acquisition means, and an area having a predetermined area or more, Perform processing to detect the skin area of a person,
In the case where the determination means cannot detect the face of the person by the first detection means and the skin area of the person can be detected by the third detection means, It is determined that the predetermined image processing needs to be performed on the captured image,
It is characterized by
(Claim 8)
The invention according to claim 8 is the image processing apparatus according to
When the face of the person can be detected by the first detecting means, an acquisition means for acquiring the color information of the hair of the person from the area around the face is further provided.
The third detection means is an area having color information equivalent to the color information of the hair acquired by the acquisition means in the captured image acquired by the acquisition means, and an area having a predetermined area or more, Performs processing to detect as a person's hair area,
When the determination means cannot detect the face of the person by the first detection means and when the hair area of the person can be detected by the third detection means, It is determined that the predetermined image processing needs to be performed on the captured image,
It is characterized by
(Claim 9)
According to a ninth aspect of the invention, in the image processing apparatus according to the sixth aspect,
The acquisition unit acquires a captured image captured by an imaging unit included in the image processing device,
The third detection unit performs a process of detecting a face of a person from a captured image that is corrected based on information that corrects aberration of an imaging lens that forms the imaging unit,
When the determination means cannot detect the face of the person by the first detection means and when the face of the person can be detected by the third detection means, It is determined that the predetermined image processing needs to be performed on the captured image,
It is characterized by
(Claim 10)
According to a tenth aspect of the invention, in the image processing apparatus according to any one of the first to ninth aspects,
The predetermined image processing performed by the image processing unit on the captured image acquired by the acquisition unit is a process of applying a facial processing to a skin color portion in the captured image.
It is characterized by
(Claim 11)
The invention according to claim 11 is
A process of acquiring a captured image,
A process of detecting a person's face from the acquired captured image;
A process of performing a shooting process on the captured image to generate a captured image for storage, and a process of performing a predetermined image process on the captured image when the face of the person can be detected,
A process of determining whether or not the predetermined image processing needs to be performed on the captured image when the face of the person cannot be detected;
If it is determined that the predetermined image processing needs to be performed on the captured image in which the face of the person cannot be detected, the predetermined image processing should be performed on the captured image. Process to instruct that,
And an image processing method including:
(Claim 12)
The invention according to claim 12 is
To the computer
A function to acquire a captured image,
A function of detecting a person's face from the acquired captured image;
A function of performing shooting processing on the captured image to generate a captured image for storage, and performing predetermined image processing on the captured image when the face of the person can be detected,
A function of determining whether or not the predetermined image processing needs to be performed on the captured image when the face of the person cannot be detected when the image capturing unit performs the image capturing process,
If it is determined that the predetermined image processing needs to be performed on the captured image in which the face of the person cannot be detected, the predetermined image processing should be performed on the captured image. And the ability to instruct
It is a program for realizing.
1 制御部
3 記憶部
3a プログラムメモリ
4 操作部
5 表示部
6 撮像部
6a 撮像レンズ
Claims (8)
前記画像取得手段によって取得された撮像画像内から人物の顔を検出する第1の検出手段と、
前記撮像手段を構成する撮像レンズの収差を補正する情報に基づいて前記撮像画像を補正した撮像画像内から、人物の顔を検出する第2の検出手段と、
前記第1の検出手段によって人物の顔を検出することができず、かつ、前記第2の検出手段によって人物の顔を検出することができた場合に、前記取得された撮像画像に対して人物の顔に応じた所定の画像処理を施す画像処理手段と、
を備える画像処理装置。 An image acquisition means for acquiring a captured image by the imaging means,
First detection means for detecting a face of a person from the captured image acquired by the image acquisition means;
Second detecting means for detecting a face of a person from the captured image obtained by correcting the captured image based on the information for correcting the aberration of the imaging lens forming the imaging means;
Can not detect the face of a person by said first detection means and, where it was able to detect a person's face by said second detection means, a person with respect to the obtained captured image Image processing means for performing predetermined image processing according to the face,
Images processing device Ru comprising a.
前記第1の検出手段及び前記第2の検出手段の両方によって人物の顔が検出できなかった場合に、前記人物の顔が検出できなかった撮像画像の色情報と、前記記憶手段によって記憶された肌の色情報とに基づいて、前記人物の顔が検出できなかった撮像画像に前記所定の画像処理を施すか否かを判別する判別手段と、をさらに備え、When the face of the person cannot be detected by both the first detecting unit and the second detecting unit, the color information of the captured image in which the face of the person cannot be detected is stored by the storage unit. Based on the skin color information, further comprising a determination unit that determines whether or not to perform the predetermined image processing on the captured image in which the face of the person cannot be detected,
前記画像処理手段は、前記人物の顔が検出できなかった撮像画像に、前記判別手段により前記所定の画像処理を施すと判別された場合に、前記所定の画像処理を施す、The image processing means performs the predetermined image processing when the determination means determines to perform the predetermined image processing on the captured image in which the face of the person cannot be detected,
請求項1に記載の画像処理装置。The image processing apparatus according to claim 1.
前記第1の検出手段及び前記第2の検出手段の両方によって人物の顔が検出できなかった場合に、前記人物の顔が検出できなかった撮像画像の色情報と、前記記憶手段によって記憶された髪の色情報とに基づいて、前記人物の顔が検出できなかった撮像画像に前記所定の画像処理を施すか否かを判別する判別手段と、をさらに備え、When the face of the person cannot be detected by both the first detecting unit and the second detecting unit, the color information of the captured image in which the face of the person cannot be detected and the color information stored by the storing unit are stored. Based on the color information of the hair, further comprises a determination means for determining whether or not to perform the predetermined image processing on the captured image in which the face of the person cannot be detected,
前記画像処理手段は、前記人物の顔が検出できなかった撮像画像に、前記判別手段により前記所定の画像処理を施すと判別された場合に、前記所定の画像処理を施す、The image processing means performs the predetermined image processing when the determination means determines to perform the predetermined image processing on the captured image in which the face of the person cannot be detected,
請求項1に記載の画像処理装置。The image processing apparatus according to claim 1.
請求項1から3のいずれか1項に記載の画像処理装置。 During the continuous shooting in which the first detection unit, the second detection unit, and the image processing unit are continuously instructed to shoot, and the captured image is acquired by the image acquisition unit for each shooting command. Perform each function ,
The image processing apparatus according to claim 1 .
前記第1の検出手段、前記第2の検出手段、及び前記画像処理手段は、前記撮像装置を操作するユーザが自分の顔を前記撮像装置で撮像する自分撮り中において、各々の機能を実行する、The first detecting unit, the second detecting unit, and the image processing unit perform their respective functions during a self-portrait when the user operating the image pickup apparatus takes a picture of his or her face with the image pickup apparatus. ,
請求項1から4のいずれか1項に記載の画像処理装置。The image processing apparatus according to claim 1.
前記画像取得処理で取得した撮像画像内から人物の顔を検出する第1の検出処理と、
前記撮像手段を構成する撮像レンズの収差を補正する情報に基づいて、前記取得した撮像画像を補正した撮像画像内から、人物の顔を検出する第2の検出処理と、
前記第1の検出処理で人物の顔を検出することができず、かつ、前記第2の検出処理で人物の顔を検出することができた場合には、前記取得した撮像画像に対して所定の画像処理を施す画像処理と、
を含むことを特徴とする画像処理方法。 An image acquisition process for acquiring a captured image by the imaging means,
A first detection process for detecting a human face from the captured image acquired by the image acquisition process;
A second detection process of detecting a person's face from the captured image in which the acquired captured image is corrected based on the information for correcting the aberration of the imaging lens forming the imaging unit;
When the person's face can not be detected by the first detection processing and the person's face can be detected by the second detection processing, a predetermined value is set for the acquired captured image. Image processing to apply the image processing of
An image processing method comprising:
前記画像取得処理で取得した撮像画像内から人物の顔を検出する第1の検出処理と、A first detection process for detecting a person's face from the captured image acquired by the image acquisition process;
前記撮像手段を構成する撮像レンズの収差を補正する情報に基づいて、前記取得した撮像画像を補正した撮像画像内から、人物の顔を検出する第2の検出処理と、A second detection process of detecting a person's face from the captured image obtained by correcting the acquired captured image based on information for correcting aberration of the imaging lens forming the imaging unit;
前記第1の検出処理で人物の顔を検出することができず、かつ、前記第2の検出処理で人物の顔を検出することができた場合には、前記取得した撮像画像に対して所定の画像処理を施す画像処理と、When the person's face cannot be detected by the first detection processing and the person's face can be detected by the second detection processing, a predetermined value is set for the acquired captured image. Image processing to apply the image processing of
をコンピュータに実行させるプログラムを非一時的に記憶する記憶媒体。A storage medium that non-temporarily stores a program that causes a computer to execute.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019189200A JP6741237B2 (en) | 2019-10-16 | 2019-10-16 | Image processing device, terminal device, image processing method, and storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019189200A JP6741237B2 (en) | 2019-10-16 | 2019-10-16 | Image processing device, terminal device, image processing method, and storage medium |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017081455A Division JP2017130976A (en) | 2017-04-17 | 2017-04-17 | Image processing apparatus, image processing method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020018002A JP2020018002A (en) | 2020-01-30 |
| JP6741237B2 true JP6741237B2 (en) | 2020-08-19 |
Family
ID=69580672
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019189200A Expired - Fee Related JP6741237B2 (en) | 2019-10-16 | 2019-10-16 | Image processing device, terminal device, image processing method, and storage medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6741237B2 (en) |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4539729B2 (en) * | 2008-02-15 | 2010-09-08 | ソニー株式会社 | Image processing apparatus, camera apparatus, image processing method, and program |
| JP2010226416A (en) * | 2009-03-24 | 2010-10-07 | Nikon Corp | Digital camera |
| JP6016622B2 (en) * | 2012-12-26 | 2016-10-26 | キヤノン株式会社 | Imaging apparatus, control method therefor, and program |
-
2019
- 2019-10-16 JP JP2019189200A patent/JP6741237B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2020018002A (en) | 2020-01-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6179569B2 (en) | Image processing apparatus, image processing method, and program | |
| JP5089405B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
| TWI444041B (en) | Image processing device, image processing method, and recording medium | |
| US20130242127A1 (en) | Image creating device and image creating method | |
| JP4911165B2 (en) | Imaging apparatus, face detection method, and program | |
| KR101357987B1 (en) | Image capture apparatus and image capturing method | |
| US9900523B2 (en) | Image processing apparatus which performs image processing on photographic subject | |
| JP7039183B2 (en) | Image processing equipment, image processing methods, and programs | |
| CN109639959B (en) | Image processing device, image processing method, and recording medium | |
| JP2017130976A (en) | Image processing apparatus, image processing method, and program | |
| CN102289785B (en) | Image processing device and image processing method | |
| JP6299116B2 (en) | Imaging apparatus, imaging method, and recording medium | |
| JP6741237B2 (en) | Image processing device, terminal device, image processing method, and storage medium | |
| JP4802884B2 (en) | Imaging apparatus, captured image recording method, and program | |
| JP2020102059A (en) | Image processor | |
| JP2019075716A (en) | Image processing device, image processing method, and program | |
| JP2015119436A (en) | Imaging device | |
| WO2020166256A1 (en) | Information processing terminal, program, information processing system, and color correction method | |
| JP6260094B2 (en) | Image processing apparatus, image processing method, and program | |
| JP7409440B2 (en) | Image processing device, image processing method and program | |
| JP7054437B2 (en) | Image processing equipment, image processing methods and programs | |
| CN111083345A (en) | Apparatus and method for generating a unique illumination and non-volatile computer readable medium thereof | |
| JP6991750B2 (en) | Image processing equipment, image processing methods, and programs | |
| JP6668646B2 (en) | Image processing apparatus, image processing method, and program | |
| JP2021170343A (en) | Image processing equipment, image processing methods and programs |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191030 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191030 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200612 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200626 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200709 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6741237 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |