JP2003308530A - Image recognizer - Google Patents
Image recognizerInfo
- Publication number
- JP2003308530A JP2003308530A JP2002112126A JP2002112126A JP2003308530A JP 2003308530 A JP2003308530 A JP 2003308530A JP 2002112126 A JP2002112126 A JP 2002112126A JP 2002112126 A JP2002112126 A JP 2002112126A JP 2003308530 A JP2003308530 A JP 2003308530A
- Authority
- JP
- Japan
- Prior art keywords
- color
- image
- area
- range
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000000284 extract Substances 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000003086 colorant Substances 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 3
- 238000012545 processing Methods 0.000 description 12
- 238000001914 filtration Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
【発明の詳細な説明】Detailed Description of the Invention
【0001】[0001]
【発明の属する技術分野】本発明は、写真等の画像に含
まれる人物の顔などの目的物の画像部分の領域を抽出す
る技術に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for extracting a region of an image portion of an object such as a human face included in an image such as a photograph.
【0002】[0002]
【従来の技術】たとえば、写真等の画像に含まれる人物
の顔の画像部分の抽出の技術としては、特開2000-18772
1号公報記載の技術などが知られている。この技術で
は、画素色が肌色である画像部分を切り出し、切り出し
た画像部分を対象として、所定の後処理を施すことによ
り人物の顔の画像部分を決定している。すなわち、この
技術では、人物の顔の画像部分の主要な特徴量を肌色と
して、人物の顔の画像部分を抽出している。2. Description of the Related Art For example, as a technique for extracting an image portion of a person's face included in an image such as a photograph, there is Japanese Patent Laid-Open No. 2000-18772.
The technology described in Japanese Patent Publication No. 1 is known. In this technique, an image portion of a person's face is determined by cutting out an image portion whose pixel color is flesh color and performing a predetermined post-processing on the clipped image portion. That is, in this technique, the main feature amount of the image portion of the human face is used as the skin color to extract the image portion of the human face.
【0003】[0003]
【発明が解決しようとする課題】通常の生活環境下で撮
影された画像においては、人物の顔の画像部分の色の分
布範囲と、人物の背景として写し込まれた壁の画像部分
の色の分布範囲や蛍光灯が写し込まれた画像部分の色の
分布範囲とが部分的に重なることがある。また、このた
めに、肌色の分布範囲内の色の画素部分を切り出すと、
人物の顔の画像部分と共に、壁や蛍光灯などが写し込ま
れた画像部分も切り出されてしまうことがある。すなわ
ち、精度よく人物の顔の画像部分の領域のみを切り出す
ことができないことがある。そして、このような場合、
一般的には、切り出した画像部分を対象として行う人物
の顔の画像部分を決定するための後処理の精度も劣化
し、また、その処理量も増大することになる。In an image photographed under a normal living environment, the color distribution range of the image portion of the person's face and the color of the image portion of the wall imaged as the person's background are shown. The distribution range or the color distribution range of the image portion in which the fluorescent lamp is imprinted may partially overlap. Also, for this reason, when cutting out the pixel portion of the color within the skin color distribution range,
An image part on which a wall or a fluorescent lamp is imprinted may be cut out together with an image part of a person's face. That is, it may not be possible to accurately cut out only the area of the image portion of the person's face. And in this case,
In general, the accuracy of the post-processing for determining the image portion of the face of the person performed on the cut-out image portion also deteriorates, and the amount of processing increases.
【0004】そこで、本発明は、画像に含まれる目的物
の画像部分をよく精度良く抽出することを課題とする。Therefore, an object of the present invention is to extract an image portion of a target object included in an image with good accuracy.
【0005】[0005]
【課題を解決するための手段】前記課題達成のために、
本発明は、たとえば、画像に含まれる人物の顔の画像部
分の領域を抽出する画像認識装置であって、人物の肌色
の色範囲を少なくとも蛍光灯色が除外されるように分割
した複数の色範囲のいずれかに色が含まれる画素の領域
を抽出する人物肌領域抽出手段と、前記人物肌領域抽出
手段が抽出した領域に基づいて、画像に含まれる人物の
顔の画像部分の領域を算出する顔領域算出手段とを有す
ることを特徴とする画像認識装置を提供する。[Means for Solving the Problems] To achieve the above objects,
The present invention is, for example, an image recognition apparatus for extracting a region of an image portion of a person's face included in an image, and a plurality of colors obtained by dividing a person's skin color range into at least fluorescent lamp colors are excluded. A human skin region extracting unit that extracts a region of pixels including a color in any of the ranges, and a region of an image portion of a person's face included in an image is calculated based on the region extracted by the human skin region extracting unit. An image recognition apparatus is provided which comprises:
【0006】このような画像認識装置によれば、色が人
物の肌の色範囲内にある蛍光灯の画像部分の領域が人物
の肌の画像部分の領域と共に抽出されてしまうことを排
除し、人物の肌に確実に対応する画像部分の領域だけを
抽出することができる。したがって、このようにして抽
出した領域を基礎として、画像に含まれる人物の顔の画
像部分の領域を抽出すれば、精度良い人物の顔の画像部
分の領域の抽出が可能となる。また、不要な蛍光灯の領
域が、顔領域算出の処理の対象から予め除外されるの
で、処理量が少なくて済み、高速な人物の顔の画像部分
の領域の抽出が可能となる。According to such an image recognition apparatus, it is possible to prevent the region of the image portion of the fluorescent light whose color is within the human skin color range from being extracted together with the region of the human skin image portion. It is possible to extract only the area of the image portion that reliably corresponds to the skin of the person. Therefore, if the area of the image portion of the person's face included in the image is extracted on the basis of the area thus extracted, the area of the image portion of the person's face can be accurately extracted. In addition, since unnecessary fluorescent lamp regions are excluded from the target of the face region calculation processing in advance, the processing amount is small, and the region of the image portion of the human face can be extracted at high speed.
【0007】また、前記課題達成のために、本発明は、
たとえば、画像に含まれる人物の顔の画像部分の領域を
抽出する画像認識装置であって、人物の肌色の色範囲を
少なくともL*a*b*カラーモデルにおいてa*データの値が
略1〜4となる色が除外されるように分割した複数の色
範囲のいずれかに色が含まれる画素の領域を抽出する人
物肌領域抽出手段と、前記人物肌領域抽出手段が抽出し
た領域に基づいて、画像に含まれる人物の顔の画像部分
の領域を算出する顔領域算出手段とを有することを特徴
とする画像認識装置を提供する。In order to achieve the above object, the present invention provides
For example, in an image recognition device that extracts a region of an image portion of a person's face included in an image, the color range of a person's skin color is at least approximately 1 to 1 in the L * a * b * color model. Based on the human skin region extracting means for extracting a region of pixels including a color in any of a plurality of color ranges divided so as to exclude the color of 4, and the region extracted by the human skin region extracting means. An image recognition apparatus, comprising: a face area calculation unit that calculates an area of an image portion of a face of a person included in an image.
【0008】このようにすることにより、色が人物の肌
の色範囲内にある蛍光灯や壁の画像部分の領域が人物の
肌の画像部分が領域と共に抽出されてしまうことを排除
し、人物の肌に確実に対応する画像部分の領域だけを抽
出することができる。したがって、同様に、このように
して抽出した領域を基礎として、画像に含まれる人物の
顔の画像部分の領域を抽出すれば、精度良い人物の顔の
画像部分の領域の抽出が可能となる。また、不要な蛍光
灯や壁の領域が、顔領域算出の処理の対象から予め除外
されるので、処理量が少なくて済み、高速な人物の顔の
画像部分の領域の抽出が可能となる。By doing so, it is possible to prevent the area of the image portion of the fluorescent lamp or the wall whose color is within the human skin color range from being extracted together with the area of the human skin image portion. It is possible to extract only the area of the image portion that surely corresponds to the skin. Therefore, similarly, if the area of the image portion of the person's face included in the image is extracted based on the area thus extracted, the area of the image portion of the person's face can be accurately extracted. Further, since unnecessary fluorescent lamps and wall regions are excluded in advance from the target of the face area calculation processing, the processing amount is small, and the area of the image portion of the human face can be extracted at high speed.
【0009】また、より具体的には、このような画像認
識装置において、前記人物肌領域抽出手段が、L*a*b*カ
ラーモデルにおいて、L*データの値が略40〜96の範
囲内、かつ、B*データの値が略0〜16の範囲内、か
つ、a*データの値が略-6〜1もしくは略4〜16の範
囲内の画素の領域を抽出するようにすれば、効率よく人
物の肌に確実に対応する画像部分の領域だけを抽出する
ことができる。More specifically, in such an image recognition apparatus, the human skin area extracting means has an L * a * b * color model in which the L * data value is within a range of approximately 40 to 96. If the B * data value is in the range of approximately 0 to 16 and the a * data value is in the range of approximately −6 to 1 or approximately 4 to 16, the pixel area is extracted. It is possible to efficiently extract only the area of the image portion that surely corresponds to the skin of the person.
【0010】また、さらに、このような画像認識装置に
おいて、前記顔領域算出手段が、前記画像上において、
前記人物肌領域抽出手段が抽出した領域と連続している
肌色の画素の領域を算出するようにすることにより、上
述のようにして蛍光灯や壁の画像部分と推定される色範
囲の領域を排除しことに伴い、人物の肌に対応する画像
部分の領域の一部も前記人物肌領域抽出手段によって抽
出されなくなった場合であっても、この抽出されなかっ
た人物の肌に対応する画像部分のみを、蛍光灯や壁の画
像部分と分離して求めることができ、結果として人物の
肌に対応する画像部分全体の領域を求めることができる
ようになる。Further, in such an image recognition device, the face area calculation means is
By calculating the area of the skin-colored pixels that is continuous with the area extracted by the human skin area extraction means, the area of the color range estimated to be the image part of the fluorescent lamp or the wall is calculated as described above. Due to the elimination, even if a part of the area of the image portion corresponding to the skin of the person is no longer extracted by the person skin area extracting means, the image portion corresponding to the skin of the person that is not extracted is extracted. Can be obtained separately from the fluorescent lamp or the image portion of the wall, and as a result, the entire area of the image portion corresponding to the skin of the person can be obtained.
【0011】また、前記課題達成のために、本発明は、
たとえば、画像に含まれる目的物の画像部分の領域を抽
出する画像認識方法であって、目的物の色範囲を、目的
物と色範囲が重複する所定の異物の色範囲が除外される
ように分割した複数の色範囲のいずれかに色が含まれる
画素の領域を抽出するステップと、前記画像上におい
て、抽出した領域と連続している目的物の色範囲内の色
の画素の領域を算出するステップとを有することを特徴
とする画像認識方法を提供する。In order to achieve the above object, the present invention provides
For example, an image recognition method for extracting a region of an image portion of a target object included in an image, wherein a color range of the target object is excluded so that a color range of a predetermined foreign substance whose color range overlaps with the target object is excluded. A step of extracting a pixel area in which a color is included in any one of a plurality of divided color ranges; and a pixel area of a color within the color range of the object which is continuous with the extracted area on the image is calculated. An image recognition method is provided.
【0012】このような画像認識方法によれば、色が目
的物の色範囲内にある異物の画像部分の領域が目的物の
画像部分が領域と共に抽出されてしまうことを排除し、
目的物に確実に対応する画像部分の領域だけを抽出する
ことができる。したがって、このようにして抽出した領
域を基礎として、画像に含まれる目的物の画像部分の領
域を抽出すれば、精度良い目的物の画像部分の領域の抽
出が可能となる。また、不要な異物の領域が、次のステ
ップの処理の対象から予め除外されるので、処理量が少
なくて済み、高速な目的物の画像部分の領域の抽出が可
能となる。また、さらに、上述のようにして異物の画像
部分と推定される色範囲の領域を排除したことに伴い、
目的物に対応する画像部分の領域の一部が抽出されなく
なった場合であっても、この抽出されなかった目的物す
る画像部分のみを、異物の画像部分と分離して求めるこ
とができ、結果として目的物の画像部分全体の領域を求
めることができるようになる。According to such an image recognition method, the region of the image portion of the foreign matter whose color is within the color range of the object is excluded from being extracted together with the image portion of the object,
It is possible to extract only the area of the image portion that reliably corresponds to the target object. Therefore, if the area of the image portion of the target object included in the image is extracted based on the area thus extracted, the area of the image portion of the target object can be accurately extracted. In addition, since the area of unnecessary foreign matter is excluded in advance from the processing target of the next step, the processing amount is small and the area of the image portion of the target object can be extracted at high speed. In addition, with the exclusion of the color range area estimated to be the image portion of the foreign matter as described above,
Even when a part of the image part area corresponding to the target object is not extracted, only the image part of the target object that is not extracted can be obtained separately from the foreign object image part. As a result, the entire area of the image portion of the target object can be obtained.
【0013】[0013]
【発明の実施の形態】以下、本発明の実施形態につい
て、画像より人物の顔の画像部分を抽出する場合への適
用を例にとり説明する。図1に本実施形態に係る画像認
識装置の構成を示す。図示するように、本画像認識装置
は、L*a*b*変換部1、L*b*フィルタ2、第1a*フィルタ
3、第2a*フィルタ4、第1肌色領域抽出部5、第2肌
色領域抽出部6、肌色領域合成部7、顔領域抽出部8と
を有する。ただし、本画像認識装置は、CPUや、主記
憶や、ハードディスク装置等の外部記憶装置や、キーボ
ードやポインティングデバイスなどの入力装置や、表示
装置などを備えた、一般的な構成を有する電子計算機上
に構築することができる。この場合、本画像認識装置の
各部は、CPUが外部記憶装置から主記憶にロードされ
たプログラムを実行することにより電子計算機上に具現
化されるプロセスとして実現される。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below by taking an example of application to a case where an image portion of a human face is extracted from an image. FIG. 1 shows the configuration of the image recognition apparatus according to this embodiment. As shown in the figure, the image recognition apparatus includes an L * a * b * conversion unit 1, an L * b * filter 2, a first a * filter 3, a second a * filter 4, a first skin color region extraction unit 5, and a second skin color region extraction unit 5. It has a skin color area extraction unit 6, a skin color area synthesis unit 7, and a face area extraction unit 8. However, the image recognition device is a computer having a general configuration including a CPU, a main memory, an external storage device such as a hard disk device, an input device such as a keyboard and a pointing device, and a display device. Can be built into. In this case, each unit of the image recognition apparatus is realized as a process embodied on the electronic computer by the CPU executing the program loaded from the external storage device into the main memory.
【0014】以下、本画像認識装置の動作を、図2に示
したフローチャートに沿って説明する。まず、L*a*b*変
換部1は、入力するオリジナル画像のカラーモデルをCI
E(Commission International de I'Eclariage) L*a*b
*カラーに変換する(ステップ21)。すなわち、オリ
ジナル画像の各画素の色をL*データ、a*データ、b*デー
タによって表現した画像に変換する。L*a*b*カラーモデ
ルでは、黒から白(明度=Lightness : L*)と緑から赤
の範囲の要素(a*)、青から黄の範囲の要素(b*)の2
つの色彩要素とによって色を表現する。The operation of the image recognition apparatus will be described below with reference to the flow chart shown in FIG. First, the L * a * b * conversion unit 1 sets the color model of the input original image to CI
E (Commission International de I'Eclariage) L * a * b
* Convert to color (step 21). That is, the color of each pixel of the original image is converted into an image represented by L * data, a * data, and b * data. In the L * a * b * color model, there are two elements: black to white (lightness = Lightness: L *), elements from green to red (a *), elements from blue to yellow (b *).
A color is represented by two color elements.
【0015】次に、L*b*フィルタ2は、L*a*b*カラーに
変換されたオリジナル画像に対して、各画素のL*デー
タ、b*データに着目したフィルタリング処理を行う(ス
テップ22)。すなわち、図3aに特性を示すように、L
*データの値が40〜96の範囲内で、かつ、B*データ
の値が0〜16の範囲内にない画素の画素値を全て黒色
(L*=-100、a*=b*=0)に変更する。ここで、本発明
者らの実験によればデジタルカメラで撮影された人間の
肌の色は、L*データの値が40〜96の範囲内、a*デー
タの値が-6〜16の範囲内、B*データの値が0〜16
の範囲内におおよそ収まる。Next, the L * b * filter 2 performs a filtering process on the original image converted into the L * a * b * color by paying attention to the L * data and b * data of each pixel (step 22). That is, as shown in the characteristic of FIG.
* All pixel values of pixels whose data value is in the range of 40 to 96 and B * data value is not in the range of 0 to 16 are black (L * =-100, a * = b * = 0 ). Here, according to the experiments performed by the present inventors, human skin colors photographed by a digital camera have L * data values in the range of 40 to 96 and a * data values in the range of −6 to 16. Of which, the value of B * data is 0-16
Approximately fits within the range.
【0016】次に、第1a*フィルタ3と第2a*フィルタ
4は、L*b*フィルタ2でフィルタリング処理が施された
画像に対して、それぞれa*データに着目したフィルタリ
ング処理を行う(ステップ23、24)。第1a*フィル
タ3は、図3bに特性を示すように、a*データの値が4
〜16の範囲内にない画素の画素値を全て黒色(L*=-1
00、a*=b*=0)に変更する。一方、第2a*フィルタ4
は、図3cに特性を示すように、a*データの値が-6〜1
の範囲内にない画素の画素値を全て黒色(L*=-100、
a*=b*=0)に変更する。Next, the first a * filter 3 and the second a * filter 4 respectively perform the filtering process focusing on the a * data with respect to the image subjected to the filtering process by the L * b * filter 2 (step 23, 24). The first a * filter 3 has a * data value of 4 as shown in FIG. 3b.
All pixel values of pixels that are not within the range of ~ 16 are black (L * =-1
00, a * = b * = 0). On the other hand, the second a * filter 4
As shown in Fig. 3c, the value of a * data is -6 to 1
All pixel values of pixels that are not within the range are black (L * =-100,
Change to a * = b * = 0).
【0017】図4に、第1a*フィルタ3と第2a*フィル
タ4がそれぞれ出力する二つの画像の例を示す。図4b
は図4aのオリジナル画像に対して第1a*フィルタ3が
出力する画像を示しており、図4cは図4aのオリジナル
画像に対して第2a*フィルタ4が出力する画像を示して
いる。また、図4dは、図4bと図4cの画像を合成した
画像を示しており、L*b*フィルタ2でフィルタリング処
理が施された画像に対して、図3dに特性を示すようなa
*データの値が-6〜1の範囲内もしくは4〜16の範囲
内にない画素の画素値を全て黒色(L*=-100、a*=b*=
0)に変更するフィルタリング処理を施して得られる画
像と同じである。FIG. 4 shows an example of two images output by the first a * filter 3 and the second a * filter 4, respectively. Figure 4b
Shows the image output by the first a * filter 3 for the original image of FIG. 4a, and FIG. 4c shows the image output by the second a * filter 4 for the original image of FIG. 4a. Further, FIG. 4d shows an image obtained by combining the images of FIGS. 4b and 4c, and for the image subjected to the filtering process by the L * b * filter 2, the characteristic shown in FIG.
* All pixel values of pixels whose data values are not within the range of -6 to 1 or 4 to 16 are black (L * =-100, a * = b * =
It is the same as the image obtained by performing the filtering process for changing to 0).
【0018】ここで、本発明者らの実験によれば、一般
的に、デジタルカメラで撮影された画像において、人間
の肌の色の範囲内に入るオフィスや家屋の内壁や蛍光灯
の色は、a*データが1〜4の範囲内にあることが多い。
したがって、図4b、cに示すように、L*b*フィルタ2及
び第1a*フィルタ3と第2a*フィルタ4によれば、人間
の肌に真に対応する画像部分を、オフィスや家屋の内壁
や蛍光灯の画像部分を排除した上で求めることができ
る。Here, according to the experiments by the present inventors, generally, in an image taken by a digital camera, the colors of the inner wall of an office or a house and the fluorescent light which fall within the range of human skin color are , A * data is often in the range of 1 to 4.
Therefore, as shown in FIGS. 4b and 4c, according to the L * b * filter 2, the first a * filter 3 and the second a * filter 4, the image portion that truly corresponds to human skin is displayed on the inner wall of the office or house. It can be obtained after excluding the image part of the fluorescent lamp.
【0019】さて、図4dの画像より理解されるよう
に、a*データが1〜4の範囲内の色を黒色に変更して人
間の肌の色の範囲内に入るオフィスや家屋の内壁や蛍光
灯の色を排除したために、第1a*フィルタ3と第2a*フ
ィルタ4の出力する画像のいずれにも、人間の肌に対応
する画像部分のうちのa*データが1〜4の範囲内にある
画素が含まれなくなってしまう。As can be understood from the image of FIG. 4d, the a * data is changed from a color in the range of 1 to 4 to black and falls within the range of human skin color. Since the color of the fluorescent lamp is excluded, the a * data of the image portion corresponding to human skin is within the range of 1 to 4 in both the images output by the first a * filter 3 and the second a * filter 4. The pixels in are no longer included.
【0020】そこで、次に、第1a*フィルタ3と第2a*
フィルタ4の出力する画像から、人間の肌に対応する画
像部分を求める処理を行う。すなわち、第1肌色領域抽
出部5は、図5aに示す第1a*フィルタ3の出力画像中
の非黒色領域を求め、図5cにおいて、オリジナル画像
において、求めた非黒色領域(図5c中に501、50
2で示す領域)と空間的に連続している肌色画素の領域
を求める(ステップ25)。ここで肌色画素としては、
L*データの値が40〜96の範囲内、a*データの値が-
6〜16の範囲内、B*データの値が0〜16の範囲内の
画素を肌色画素とする。また、好ましくは、非黒色領域
と直接または他の画素を介して連続している肌色の画素
であっても、隣接画素の画素値となめらかに連続してい
ない(画素値の差分が所定値より大きい)画素値の画素
は、非黒色領域と空間的に連続している肌色画素の領域
には含めないようにする。この結果、図示した例では、
図5aに示す第1a*フィルタ3の出力画像に対しては、
図5eに示すように顔に対応する領域504と首に対応
する領域505の二つの肌色領域が求まることになる。
なお、オフィスや家屋の内壁や蛍光灯の画素は、その色
が人間の肌の色の範囲内にあっても、非黒色領域と連続
していないために肌色領域内に含まれることはない。Then, next, the first a * filter 3 and the second a *
From the image output by the filter 4, a process of obtaining an image portion corresponding to human skin is performed. That is, the first skin color region extraction unit 5 obtains the non-black region in the output image of the first a * filter 3 shown in FIG. 5a, and in FIG. 5c, the obtained non-black region (501 in FIG. , 50
The area of the skin color pixel which is spatially continuous with the area 2) is obtained (step 25). Here, as the skin color pixel,
L * data value is in the range of 40 to 96, a * data value is-
Pixels within the range of 6 to 16 and B * data values within the range of 0 to 16 are considered as skin color pixels. Further, preferably, even a flesh-colored pixel that is continuous with the non-black region directly or through another pixel is not smoothly continuous with the pixel value of the adjacent pixel (the difference between the pixel values is greater than a predetermined value). Pixels having (larger) pixel values should not be included in the area of the skin color pixel that is spatially continuous with the non-black area. As a result, in the example shown,
For the output image of the first a * filter 3 shown in FIG. 5a,
As shown in FIG. 5e, two skin color regions, that is, a region 504 corresponding to the face and a region 505 corresponding to the neck are obtained.
Even if the color of the inner wall of the office or the house or the pixel of the fluorescent lamp is within the range of human skin color, it is not included in the skin color region because it is not continuous with the non-black region.
【0021】一方、第2肌色領域抽出部6は、図5bに
示す第2a*フィルタ4の出力画像中の非黒色領域を求
め、図5dにおいて、オリジナル画像において、求めた
非黒色領域(図5d中に503で示す領域)と連続してい
る肌色画素の領域を求める(ステップ26)。この結
果、図示した例では、図5bに示す第2a*フィルタ4の
出力画像に対しては、図5fに示すように顔に対応する
一つの肌色領域506が求まることになる。On the other hand, the second skin color area extraction unit 6 obtains the non-black area in the output image of the second a * filter 4 shown in FIG. 5b, and in FIG. 5d, the non-black area obtained in the original image (FIG. 5d). The area of the skin color pixel which is continuous with the area indicated by 503) is obtained (step 26). As a result, in the illustrated example, for the output image of the second a * filter 4 shown in FIG. 5b, one skin color region 506 corresponding to the face is obtained as shown in FIG. 5f.
【0022】次に、肌色領域合成部7は、第1肌色領域
抽出部5と第2肌色領域抽出部6がそれぞれ抽出した肌
色領域を合成した領域内の画像部分をオリジナル画像よ
り抽出する(ステップ27)。この結果、図5gに示す
ように、抽出した画像部分は、人物の肌に対応する画像
部分となる。Next, the skin color area synthesizing section 7 extracts from the original image the image portion in the area where the skin color areas extracted by the first skin color area extracting section 5 and the second skin color area extracting section 6 are combined. 27). As a result, as shown in FIG. 5g, the extracted image portion becomes an image portion corresponding to the skin of the person.
【0023】そして、顔領域抽出部8は、肌色領域合成
部7が抽出した画像部分に基づいてオリジナル画像中の
人間の顔に対応する領域を求める(ステップ29)。人
間の顔に対応する領域の算出法には様々な手法を用いる
ことができるが、たとえば、次のような手法を用いるこ
とができる。すなわち、まず、肌色領域合成部7が抽出
した画像部分中の肌色領域の輪郭線を求める。図示した
例では、図5hに示すように、顔に対応する肌色領域の
輪郭線507と首に対応する肌色領域の輪郭線508が
求まることになる。次に、求めた各輪郭線を顔の輪郭の
一部と見なして、その輪郭線に整合する仮想的な顔の輪
郭線を設定する。たとえば、顔に対応する肌色領域の輪
郭線507に対しては、図5jに示す仮想的な顔の輪郭
線509を設定し、首に対応する肌色領域の輪郭線50
8に対しては図5kに示す仮想的な顔の輪郭線510を
設定する。Then, the face area extracting section 8 obtains an area corresponding to the human face in the original image based on the image portion extracted by the skin color area synthesizing section 7 (step 29). Various methods can be used to calculate the region corresponding to the human face, and for example, the following method can be used. That is, first, the contour line of the flesh color area in the image portion extracted by the flesh color area synthesis unit 7 is obtained. In the illustrated example, as shown in FIG. 5h, the contour line 507 of the skin color area corresponding to the face and the contour line 508 of the skin color area corresponding to the neck are obtained. Next, each of the obtained contour lines is regarded as a part of the face contour, and a virtual face contour line that matches the contour line is set. For example, for the contour line 507 of the skin color area corresponding to the face, the virtual contour line 509 of FIG. 5j is set, and the contour line 50 of the skin color area corresponding to the neck is set.
For 8, the virtual outline 510 of the face shown in FIG. 5k is set.
【0024】そして、図5m、図5nに示すように、設定
した各仮想的な顔の輪郭線内の画像部分をオリジナル画
像から抽出し、抽出した画像部分が人間の顔としての特
徴を備えているかどうかを、予め用意しておいた顔パタ
ーン情報Pに対するパターンマッチング処理を施して調
べる。そして、抽出した画像部分が人間の顔としての特
徴を備えていれば、その画像部分を人間の顔に対応する
領域(図5rに示す領域)として決定する。なお、顔パタ
ーン情報Pは、画像である必要はなく、人間の顔が通常
備える特徴(たとえば目に対応する形状が二つ、二つの
目に対応する配置で存在するなど)を規定するものであ
れば良い。Then, as shown in FIGS. 5m and 5n, the image portion within the set contour line of each virtual face is extracted from the original image, and the extracted image portion is provided with the characteristics as a human face. Whether or not there is a pattern matching process for the face pattern information P prepared in advance is performed to check. Then, if the extracted image portion has a feature as a human face, the image portion is determined as a region corresponding to the human face (region shown in FIG. 5r). The face pattern information P does not need to be an image, and defines the features that a human face usually has (for example, two shapes corresponding to eyes, existing in an arrangement corresponding to two eyes, etc.). I wish I had it.
【0025】さて、顔領域抽出部8は、以上のようにし
て求めた人間の顔に対応する領域の情報を、図5qのオ
リジナル画像と共に、これらを用いて処理を行う処理シ
ステムに出力する(ステップ30)。ここで、このよう
な画像と画像中の人間の顔に対応する領域の情報を用い
る処理システムとしては、不審人物の侵入を監視する監
視システムや、画像へ他の画像や文字を顔が隠れないよ
うに合成するなどの処理を行う画像処理システム、画像
を顔の向きや大きさが適切になるように自動的にレイア
ウトして葉書などに印刷するシステムなどがある。The face area extraction unit 8 outputs the information of the area corresponding to the human face obtained as described above, together with the original image of FIG. 5q, to a processing system which performs processing using these ( Step 30). Here, as a processing system that uses such an image and information of a region corresponding to a human face in the image, a monitoring system that monitors intrusion of a suspicious person or a face that does not hide other images or characters in the image There are an image processing system that performs processing such as synthesizing, a system that automatically lays out an image so that the face direction and size are appropriate, and prints it on a postcard or the like.
【0026】以上、本発明の実施形態について説明し
た。以上のように本実施形態によれば、人間の肌色の色
範囲に含まれる色を持つ蛍光灯や壁などをできるだけ除
外して、人間の肌に対応する画像部分を良好に抽出し、
抽出した画像部分より人間の顔に対応する画像部分の領
域を精度良く算出することができるようになる。The embodiments of the present invention have been described above. As described above, according to the present embodiment, fluorescent lamps and walls having a color included in the color range of human skin color are excluded as much as possible, and an image portion corresponding to human skin is well extracted,
It becomes possible to accurately calculate the area of the image portion corresponding to the human face from the extracted image portion.
【0027】なお、以上の実施形態において、第1a*フ
ィルタ3と第2a*フィルタ4と第1肌色領域抽出部5と
第2に肌色領域抽出部と肌色領域合成部7とに代えて、
図3dに特性を示すようにa*データの値が-6〜1の範囲
内もしくは4〜16の範囲内にない画素の画素値を全て
黒色(L*=-100、a*=b*=0)に変更するフィルタリン
グ処理を行うa*フィルタと、このa*フィルタの出力画像
に対して肌色領域の抽出を行う肌色領域抽出部を設ける
ようにしても良い。In the above embodiment, instead of the first a * filter 3, the second a * filter 4, the first skin color region extraction unit 5, and the second skin color region extraction unit and skin color region synthesis unit 7,
As shown in the characteristic of FIG. 3d, all the pixel values of the pixels whose a * data values are not within the range of -6 to 1 or 4 to 16 are black (L * =-100, a * = b * = It is also possible to provide an a * filter that performs a filtering process for changing to 0), and a skin color area extraction unit that extracts a skin color area from the output image of this a * filter.
【0028】また、以上の各フィルタの特性は、本実施
形態を適用する画像が通常の生活環境下で撮影されたも
のでない場合などには、適宜、当該画像が撮影された環
境に応じて修正して良い。また、以上では、画像より人
物の顔の画像部分を抽出する場合について説明したが、
本実施形態の目的物の色範囲を、目的物の色範囲に部分
的に重複する異物の色範囲が除かれるように分割して目
的物の画像部分を抽出する手法は、任意の目的物の画像
部分を抽出するために同様に適用することができる。Further, the characteristics of each filter described above are appropriately corrected according to the environment in which the image is captured, when the image to which the present embodiment is applied is not captured in a normal living environment. You can do it. In the above, the case of extracting the image portion of the face of the person from the image has been described.
The method of extracting the image portion of the target object by dividing the color range of the target object of this embodiment so that the color range of the foreign matter partially overlapping the color range of the target object is excluded is It can be similarly applied to extract image parts.
【0029】また、本実施形態は、静止画のシーケンス
である動画に対しても同様に適用可能である。The present embodiment is also applicable to a moving image that is a sequence of still images.
【0030】[0030]
【発明の効果】以上のように、本発明によれば、画像に
含まれる目的物の画像部分をよく精度良く抽出すること
ができる。As described above, according to the present invention, the image portion of the target object included in the image can be extracted with good accuracy.
【図1】本発明の実施形態に係る画像認識装置の構成を
示すブロック図である。FIG. 1 is a block diagram showing a configuration of an image recognition device according to an embodiment of the present invention.
【図2】本発明の実施形態に係る画像認識装置の動作を
示すフローチャートである。FIG. 2 is a flowchart showing an operation of the image recognition device according to the embodiment of the present invention.
【図3】本発明の実施形態に係る画像認識装置が備える
フィルタの特性を示すブロック図である。FIG. 3 is a block diagram showing characteristics of a filter included in the image recognition apparatus according to the embodiment of the present invention.
【図4】本発明の実施形態に係る画像認識装置の動作例
を示す図である。FIG. 4 is a diagram showing an operation example of the image recognition apparatus according to the embodiment of the present invention.
【図5】本発明の実施形態に係る画像認識装置の動作例
を示す図である。FIG. 5 is a diagram showing an operation example of the image recognition apparatus according to the embodiment of the present invention.
1:L*a*b*変換部、2:L*b*フィルタ、3:第1a*フィ
ルタ、4:第2a*フィルタ、5:第1肌色領域抽出部、
6:第2肌色領域抽出部、7:肌色領域合成部、8:顔
領域抽出部。1: L * a * b * conversion unit, 2: L * b * filter, 3: first a * filter, 4: second a * filter, 5: first skin color region extraction unit,
6: Second skin color area extraction unit, 7: Skin color area synthesis unit, 8: Face area extraction unit.
Claims (6)
を抽出する画像認識装置であって、 人物の肌色の色範囲を少なくとも蛍光灯色が除外される
ように分割した複数の色範囲のいずれかに色が含まれる
画素の領域を抽出する人物肌領域抽出手段と、 前記人物肌領域抽出手段が抽出した領域に基づいて、画
像に含まれる人物の顔の画像部分の領域を算出する顔領
域算出手段とを有することを特徴とする画像認識装置。1. An image recognition apparatus for extracting an area of an image portion of a person's face included in an image, wherein a plurality of color ranges obtained by dividing a person's skin color range so that at least fluorescent colors are excluded. A human skin region extracting unit that extracts a region of a pixel whose color is included in any one of the above, and a region of the image portion of the person's face included in the image based on the region extracted by the human skin region extracting unit. An image recognition apparatus, comprising: a face area calculation means.
を抽出する画像認識装置であって、 人物の肌色の色範囲を少なくともL*a*b*カラーモデルに
おいてa*データの値が略1〜4となる色が除外されるよ
うに分割した複数の色範囲のいずれかに色が含まれる画
素の領域を抽出する人物肌領域抽出手段と、 前記人物肌領域抽出手段が抽出した領域に基づいて、画
像に含まれる人物の顔の画像部分の領域を算出する顔領
域算出手段とを有することを特徴とする画像認識装置。2. An image recognition apparatus for extracting an area of an image portion of a human face included in an image, wherein the skin tone color range of the person is at least a * data value in an L * a * b * color model. Human skin area extracting means for extracting an area of a pixel in which a color is included in any of a plurality of color ranges divided so that colors of approximately 1 to 4 are excluded, and an area extracted by the human skin area extracting means And a face area calculating unit that calculates an area of an image portion of a person's face included in the image based on the image recognition apparatus.
て、L*データの値が略40〜96の範囲内、かつ、B*デ
ータの値が略0〜16の範囲内、かつ、a*データの値が
略-6〜1もしくは略4〜16の範囲内の画素の領域を
抽出することを特徴とする画像認識装置。3. The image recognition apparatus according to claim 2, wherein the human skin area extracting unit has a L * a * b * color model in which the L * data value is within a range of approximately 40 to 96, and , B * data value is in the range of approximately 0 to 16 and a * data value is in the range of approximately -6 to 1 or approximately 4 to 16 apparatus.
って、 前記顔領域算出手段は、前記画像上において、前記人物
肌領域抽出手段が抽出した領域と空間的に連続している
肌色の画素の領域を算出することを有することを特徴と
する画像認識装置。4. The image recognition apparatus according to claim 2 or 3, wherein the face area calculation means is a skin color spatially continuous with the area extracted by the human skin area extraction means on the image. An image recognition apparatus comprising: calculating a pixel area of the pixel.
抽出する画像認識方法であって、 目的物の色範囲を目的物と色範囲が重複する所定の異物
の色範囲が除外されるように分割した複数の色範囲のい
ずれかに色が含まれる画素の領域を抽出するステップ
と、 前記画像上において、抽出した領域と連続している目的
物の色範囲内の色の画素の領域を算出するステップとを
有することを特徴とする画像認識方法。5. An image recognition method for extracting a region of an image portion of a target object included in an image, wherein a color range of the target object is excluded from a color range of a predetermined foreign substance whose color range overlaps with that of the target object. A step of extracting a pixel area in which a color is included in any of a plurality of color ranges divided as described above, and a pixel area of a color in the color range of the object that is continuous with the extracted area on the image An image recognition method comprising the step of:
るコンピュータプログラムであって、 前記コンピュータプログラムは、前記コンピュータに、 目的物の色範囲を、目的物と色範囲が重複する所定の異
物の色範囲が除外されるように分割した複数の色範囲の
いずれかに色が含まれる画素の領域を抽出するステップ
と、 前記画像上において、抽出した領域と連続している目的
物の色範囲内の色の画素の領域を算出するステップとを
実行させることを特徴とするコンピュータプログラム。6. A computer program read and executed by a computer, wherein the computer program causes the computer to exclude a color range of a target object and a color range of a predetermined foreign substance having a color range overlapping with the target object. Extracting a region of a pixel whose color is included in one of a plurality of color ranges divided as described above, and a pixel of a color within the color range of the object that is continuous with the extracted region on the image And a step of calculating a region of the computer program.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002112126A JP2003308530A (en) | 2002-04-15 | 2002-04-15 | Image recognizer |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002112126A JP2003308530A (en) | 2002-04-15 | 2002-04-15 | Image recognizer |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2003308530A true JP2003308530A (en) | 2003-10-31 |
Family
ID=29394724
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002112126A Pending JP2003308530A (en) | 2002-04-15 | 2002-04-15 | Image recognizer |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2003308530A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1331099C (en) * | 2004-04-23 | 2007-08-08 | 中国科学院自动化研究所 | Content based image recognition method |
| CN100377164C (en) * | 2004-10-21 | 2008-03-26 | 佳能株式会社 | Method, device and storage medium for detecting face complexion area in image |
-
2002
- 2002-04-15 JP JP2002112126A patent/JP2003308530A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1331099C (en) * | 2004-04-23 | 2007-08-08 | 中国科学院自动化研究所 | Content based image recognition method |
| CN100377164C (en) * | 2004-10-21 | 2008-03-26 | 佳能株式会社 | Method, device and storage medium for detecting face complexion area in image |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2907120B2 (en) | Red-eye detection correction device | |
| US6728401B1 (en) | Red-eye removal using color image processing | |
| JP4574249B2 (en) | Image processing apparatus and method, program, and imaging apparatus | |
| US7358994B2 (en) | Image processing apparatus, image processing method, recording medium thereof, and program thereof | |
| CN107993209B (en) | Image processing method, apparatus, computer-readable storage medium and electronic device | |
| JP3684017B2 (en) | Image processing apparatus and method | |
| CN113688820B (en) | Method, device and electronic device for identifying stroboscopic stripe information | |
| JP2008226194A (en) | Pupil color correction apparatus and program | |
| CN110047059B (en) | Image processing method and device, electronic equipment and readable storage medium | |
| CN112489144B (en) | Image processing method, image processing device, terminal device and storage medium | |
| JP2004310475A (en) | Image processing apparatus, mobile phone for performing image processing, and image processing program | |
| KR101875891B1 (en) | apparatus and method for face detection using multi detection | |
| CN115082995A (en) | Face living body detection method and device and electronic equipment | |
| JP2012022652A (en) | Image processing apparatus, image processing method, and program | |
| JP2009038737A (en) | Image processing device | |
| JP2000339471A (en) | Image extraction method and apparatus | |
| CN115035393A (en) | Stroboscopic scene classification method, model training method, related device and electronic equipment | |
| CN113920556A (en) | Face anti-counterfeiting method and device, storage medium and electronic equipment | |
| JP2006004124A (en) | Picture correction apparatus and method, and picture correction program | |
| JP2005316743A (en) | Image processing method and image processing apparatus | |
| US10872229B2 (en) | Image processing device, image processing method, and recording medium | |
| JP2003308530A (en) | Image recognizer | |
| CN112700396A (en) | Illumination evaluation method and device for face picture, computing equipment and storage medium | |
| JP2663878B2 (en) | Human motion area detection device | |
| JP2003264849A (en) | Color moving image processing method and processing apparatus |