JP2006301779A - Image processing system, image processing method, and image processing program - Google Patents
Image processing system, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2006301779A JP2006301779A JP2005119735A JP2005119735A JP2006301779A JP 2006301779 A JP2006301779 A JP 2006301779A JP 2005119735 A JP2005119735 A JP 2005119735A JP 2005119735 A JP2005119735 A JP 2005119735A JP 2006301779 A JP2006301779 A JP 2006301779A
- Authority
- JP
- Japan
- Prior art keywords
- face candidate
- face
- image
- learning
- extraction process
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 184
- 238000003672 processing method Methods 0.000 title claims description 26
- 238000000605 extraction Methods 0.000 claims abstract description 294
- 230000013016 learning Effects 0.000 claims abstract description 239
- 238000013528 artificial neural network Methods 0.000 claims abstract description 70
- 238000012937 correction Methods 0.000 claims description 175
- 238000000034 method Methods 0.000 claims description 134
- 230000008569 process Effects 0.000 claims description 101
- 230000006870 function Effects 0.000 claims description 70
- 238000004364 calculation method Methods 0.000 claims description 32
- 238000003702 image correction Methods 0.000 claims description 17
- 238000013500 data storage Methods 0.000 abstract description 20
- 239000000284 extract Substances 0.000 abstract description 4
- 210000002569 neuron Anatomy 0.000 description 72
- 238000004891 communication Methods 0.000 description 11
- 230000014509 gene expression Effects 0.000 description 11
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 230000001186 cumulative effect Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 208000029152 Small face Diseases 0.000 description 2
- 230000002860 competitive effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000723369 Cocculus trilobus Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000000491 multivariate analysis Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- WFKWXMTUELFFGS-UHFFFAOYSA-N tungsten Chemical compound [W] WFKWXMTUELFFGS-UHFFFAOYSA-N 0.000 description 1
- 229910052721 tungsten Inorganic materials 0.000 description 1
- 239000010937 tungsten Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像情報に対して画像処理を施す画像処理システム、画像処理方法及び画像処理プログラムに関する。 The present invention relates to an image processing system, an image processing method, and an image processing program that perform image processing on image information.
近年、デジタルスチルカメラが普及し、その性能も大きく向上している。これに伴い、撮影画像の高品質化に対する要望もより高まっている。撮影の被写体の多くは人物であるが、この場合、撮影されている顔部分に対する高品質化の要望は特に高い。こうした要望を受けて、撮影画像から顔領域を抽出し、抽出した顔領域の情報に基づいて補正処理を施す技術が多く開示されている。例えば、顔候補領域の特徴部分の位置関係が顔の特徴部位(目等)と一致するか否かを判定することにより、顔候補領域が顔であるか否かをコホーネンの自己組織化による学習方法を使用して判定する方法が提案されている(例えば、特許文献1、特許文献2参照。)。 In recent years, digital still cameras have become widespread and their performance has greatly improved. In connection with this, the request | requirement with respect to the quality improvement of a picked-up image is also increasing. Many of the subjects to be photographed are people, but in this case, there is a particularly high demand for higher quality for the face portion being photographed. In response to such a request, many techniques for extracting a face area from a photographed image and performing correction processing based on the extracted face area information are disclosed. For example, it is determined whether or not the face candidate area is a face by determining whether the positional relationship of the characteristic part of the face candidate area matches the characteristic part (eyes, etc.) of the face, by Kohonen's self-organization A method of determining using a method has been proposed (see, for example, Patent Document 1 and Patent Document 2).
また、撮影スタジオも従来の写真館に加え、子供専用写真館や女性専用写真館等、様々なニーズに応じて多様化している。こうした写真館では、写真館毎にコンセプトやターゲットユーザが異なるため、被写体となる人物の人数・性別・年齢に偏りがある。また、それぞれ異なるコンセプトやターゲットユーザに即した撮影画像を作り出そうとしているので、撮影光源、配光等のライティングや構図等の撮影条件が写真館毎に大きく異なり、同じ被写体を撮影しても、撮影した元画像データの特性は異なる。
しかし、従来の技術においては、置かれた環境(撮影条件等の傾向)が異なるシステム毎に、その環境に応じてシステム内の顔候補領域抽出処理の抽出条件をカスタマイズして精度を向上させることは人的負荷が大きいため、困難であった。 However, in the conventional technology, for each system with different environments (trends such as shooting conditions), the extraction conditions of face candidate area extraction processing in the system are customized according to the environment to improve accuracy. Was difficult due to heavy human load.
本発明は上記の従来技術における問題に鑑みてなされたものであって、各システムに応じて、顔候補領域抽出処理の精度を向上させることを課題とする。 The present invention has been made in view of the above-described problems in the prior art, and an object of the present invention is to improve the accuracy of face candidate area extraction processing according to each system.
上記課題を解決するために、請求項1に記載の発明は、取得した画像情報に基づいて画像を表示する表示手段と、学習によって抽出条件が決定される顔候補領域抽出処理により前記画像情報から顔候補領域を抽出する顔候補領域抽出手段と、前記表示手段に表示される画像上に前記抽出された顔候補領域を表示させる表示制御手段と、オペレータが前記表示された顔候補領域から顔領域を選択するための顔領域選択手段と、少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正手段と、前記選択結果に基づいて、前記顔候補領域抽出処理の学習を実施する学習手段と、を備えたことを特徴とする画像処理システムである。 In order to solve the above-mentioned problem, the invention according to claim 1 is characterized in that display means for displaying an image based on acquired image information, and face candidate region extraction processing in which extraction conditions are determined by learning, from the image information. Face candidate area extracting means for extracting a face candidate area, display control means for displaying the extracted face candidate area on an image displayed on the display means, and an operator from the displayed face candidate area A face area selecting means for selecting the image, an image correcting means for performing a predetermined correction process on at least the selected face area to generate a corrected image, and the face candidate area extracting process based on the selection result. An image processing system comprising learning means for performing learning.
請求項2に記載の発明は、請求項1に記載の画像処理システムにおいて、前記学習された顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、当該学習結果を前記顔候補領域抽出処理に反映させる反映手段を備えたことを特徴とする。 According to a second aspect of the present invention, in the image processing system according to the first aspect, when a learning result of the learned face candidate region extraction process satisfies a predetermined condition, the learning result is extracted as the face candidate region. A reflection means for reflecting in the processing is provided.
請求項3に記載の発明は、請求項1又は2に記載の画像処理システムにおいて、前記顔候補領域抽出処理は、ニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする。 According to a third aspect of the present invention, in the image processing system according to the first or second aspect, the face candidate area extraction process is a face candidate area extraction process using a neural network.
請求項4に記載の発明は、取得した画像情報に基づいて画像を表示する表示手段と、学習によって抽出条件が決定される第1の顔候補領域抽出処理により前記画像情報から顔候補領域を抽出する顔候補領域抽出手段と、前記表示手段に表示される画像上に前記抽出された顔候補領域を表示させる表示制御手段と、オペレータが前記表示された顔候補領域から顔領域を選択するための顔領域選択手段と、少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正手段と、前記選択結果に基づいて、前記第1の顔候補領域抽出処理とは異なる構成を有し、学習によって抽出条件が決定される第2の顔候補領域抽出処理の学習を実施する学習手段と、を備えたことを特徴とする画像処理システムである。 According to a fourth aspect of the present invention, a face candidate region is extracted from the image information by display means for displaying an image based on the acquired image information and a first face candidate region extraction process in which an extraction condition is determined by learning. A face candidate area extracting means for displaying, a display control means for displaying the extracted face candidate area on an image displayed on the display means, and an operator for selecting a face area from the displayed face candidate areas Different from the first face candidate area extraction process based on the selection result, the image correction means that performs a predetermined correction process on at least the selected face area to generate a corrected image, and the selection result An image processing system comprising: learning means for performing learning of a second face candidate region extraction process having a configuration and having an extraction condition determined by learning.
請求項5に記載の発明は、請求項4に記載の画像処理システムにおいて、前記学習された第2の顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、前記第1の顔候補領域抽出処理を当該第2の顔候補領域抽出処理に置き換える置換手段を備えたことを特徴とする。 According to a fifth aspect of the present invention, in the image processing system according to the fourth aspect, the first face candidate is obtained when a learning result of the learned second face candidate region extraction process satisfies a predetermined condition. The image processing apparatus includes a replacement unit that replaces the area extraction process with the second face candidate area extraction process.
請求項6に記載の発明は、請求項4又は5に記載の画像処理システムにおいて、前記第1の顔候補領域抽出処理は、第1のニューラルネットワークを用いた顔候補領域抽出処理であって、前記第2の顔候補領域抽出処理は、前記第1のニューラルネットワークとは異なる構成を有する第2のニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする。
The invention according to
請求項7に記載の発明は、取得した画像情報に基づいて画像を表示する表示手段と、所定の領域抽出処理により前記画像情報から顔候補領域を抽出する顔候補領域抽出手段と、前記表示手段に表示される画像上に前記抽出された顔候補領域を表示させる表示制御手段と、オペレータが前記表示された顔候補領域から顔領域を選択するための顔領域選択手段と、少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正手段と、前記選択結果に基づいて、学習によって抽出条件が決定される顔候補領域抽出処理の学習を実施する学習手段と、を備えたことを特徴とする画像処理システムである。
The invention according to
請求項8に記載の発明は、請求項7に記載の画像処理システムにおいて、前記学習された顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、当該学習結果を反映した顔候補領域抽出処理を導入する導入手段を備えたことを特徴とする。
In the image processing system according to
請求項9に記載の発明は、請求項7又は8に記載の画像処理システムにおいて、前記顔候補領域抽出処理は、ニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする。
The invention according to
請求項10に記載の発明は、請求項1〜9のいずれか一項に記載の画像処理システムにおいて、前記学習手段は、顔であるか否かの判定対象となる顔候補領域の大きさに応じて、学習を実施することを特徴とする。 According to a tenth aspect of the present invention, in the image processing system according to any one of the first to ninth aspects, the learning means sets the size of the face candidate region to be determined as to whether or not the face is a face. According to this, learning is performed.
請求項11に記載の発明は、請求項1〜10のいずれか一項に記載の画像処理システムにおいて、前記学習手段は、前記画像が撮影された時の配光条件に応じて、学習を実施することを特徴とする。
The invention according to
請求項12に記載の発明は、取得した画像情報に基づいて画像を表示する表示手段と、学習によって抽出条件が決定される顔候補領域抽出処理により前記画像情報から顔候補領域を抽出する顔候補領域抽出手段と、前記表示手段に表示される画像上に前記抽出された顔候補領域を表示させる表示制御手段と、オペレータが前記表示された顔候補領域から顔領域を選択するための顔領域選択手段と、前記選択結果に基づいて、前記顔候補領域抽出処理の学習を実施する第1の学習手段と、学習によって算出条件が決定される補正強度算出処理により補正強度を算出する補正強度算出手段と、前記算出された補正強度に基づいて前記画像情報に補正処理を施す補正処理手段と、オペレータの指示に従って前記算出された補正強度を修正する補正強度修正手段と、前記修正結果に基づいて、前記補正強度算出処理の学習を実施する第2の学習手段と、を備えたことを特徴とする画像処理システムである。 According to a twelfth aspect of the present invention, there is provided display means for displaying an image based on acquired image information, and face candidates for extracting face candidate regions from the image information by face candidate region extraction processing in which extraction conditions are determined by learning. Area extraction means, display control means for displaying the extracted face candidate area on an image displayed on the display means, and face area selection for an operator to select a face area from the displayed face candidate areas Means for correcting the face candidate area extraction process based on the selection result, and a correction intensity calculation means for calculating a correction intensity by a correction intensity calculation process in which a calculation condition is determined by learning. Correction processing means for performing correction processing on the image information based on the calculated correction strength, and a correction strength for correcting the calculated correction strength in accordance with an operator instruction. And correction means, on the basis of the modification result is an image processing system characterized by comprising a second learning means for performing learning of the correction intensity calculation process.
請求項13に記載の発明は、学習によって抽出条件が決定される顔候補領域抽出処理により画像情報から顔候補領域を抽出する顔候補領域抽出工程と、前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示工程と、オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択工程と、少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正工程と、前記選択結果に基づいて、前記顔候補領域抽出処理の学習を実施する学習工程と、を含むことを特徴とする画像処理方法である。 According to a thirteenth aspect of the present invention, there is provided a face candidate region extraction step of extracting a face candidate region from image information by a face candidate region extraction process in which an extraction condition is determined by learning, and an image is displayed on the display means based on the image information A display step of displaying the extracted face candidate region on the image, a face region selecting step of allowing the operator to select a face region from the displayed face candidate region, and at least the selected face region An image processing method comprising: an image correction step of performing a predetermined correction process for generating a corrected image; and a learning step of performing learning of the face candidate region extraction process based on the selection result It is.
請求項14に記載の発明は、請求項13に記載の画像処理方法において、前記学習された顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、当該学習結果を前記顔候補領域抽出処理に反映させることを特徴とする。
The invention described in
請求項15に記載の発明は、請求項13又は14に記載の画像処理方法において、前記顔候補領域抽出処理は、ニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする。 According to a fifteenth aspect of the present invention, in the image processing method according to the thirteenth or fourteenth aspect, the face candidate area extraction process is a face candidate area extraction process using a neural network.
請求項16に記載の発明は、学習によって抽出条件が決定される第1の顔候補領域抽出処理により画像情報から顔候補領域を抽出する顔候補領域抽出工程と、前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示工程と、オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択工程と、少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正工程と、前記選択結果に基づいて、前記第1の顔候補領域抽出処理とは異なる構成を有し、学習によって抽出条件が決定される第2の顔候補領域抽出処理の学習を実施する学習工程と、を含むことを特徴とする画像処理方法である。 According to a sixteenth aspect of the present invention, there is provided a face candidate region extraction step of extracting a face candidate region from image information by a first face candidate region extraction process in which an extraction condition is determined by learning, and an image based on the image information. A display step of displaying the extracted face candidate region on the image, and a face region selecting step of allowing the operator to select a face region from the displayed face candidate region. The image correction process for performing a predetermined correction process on the face area and generating a corrected image, and the first face candidate area extraction process based on the selection result, the extraction condition is determined by learning. And a learning step of performing learning of the determined second face candidate region extraction process.
請求項17に記載の発明は、請求項16に記載の画像処理方法において、前記学習された第2の顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、前記第1の顔候補領域抽出処理を当該第2の顔候補領域抽出処理に置き換えることを特徴とする。
The invention according to
請求項18に記載の発明は、請求項16又は17に記載の画像処理方法において、前記第1の顔候補領域抽出処理は、第1のニューラルネットワークを用いた顔候補領域抽出処理であって、前記第2の顔候補領域抽出処理は、前記第1のニューラルネットワークとは異なる構成を有する第2のニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする。
The invention according to
請求項19に記載の発明は、所定の顔候補領域抽出処理により画像情報から顔候補領域を抽出する顔候補領域抽出工程と、前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示工程と、オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択工程と、少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正工程と、前記選択結果に基づいて、学習によって抽出条件が決定される顔候補領域抽出処理の学習を実施する学習工程と、を含むことを特徴とする画像処理方法である。 According to a nineteenth aspect of the present invention, there is provided a face candidate region extracting step of extracting a face candidate region from image information by a predetermined face candidate region extraction process, and displaying an image on a display unit based on the image information, A display step for displaying the extracted face candidate region on the top, a face region selecting step for allowing an operator to select a face region from the displayed face candidate region, and a predetermined correction process for at least the selected face region. And an image correction process for generating a corrected image, and a learning process for performing learning of a face candidate region extraction process in which an extraction condition is determined by learning based on the selection result. Is the method.
請求項20に記載の発明は、請求項19に記載の画像処理方法において、前記学習された顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、当該学習結果を反映した顔候補領域抽出処理による顔候補領域抽出処理を導入することを特徴とする。 According to a twentieth aspect of the present invention, in the image processing method according to the nineteenth aspect, when a learning result of the learned face candidate region extraction process satisfies a predetermined condition, the face candidate region reflecting the learning result It is characterized by introducing face candidate region extraction processing by extraction processing.
請求項21に記載の発明は、請求項19又は20に記載の画像処理方法において、前記顔候補領域抽出処理は、ニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする。
The invention according to
請求項22に記載の発明は、請求項13〜21のいずれか一項に記載の画像処理方法において、前記学習工程では、顔であるか否かの判定対象となる顔候補領域の大きさに応じて、学習を実施することを特徴とする。 According to a twenty-second aspect of the present invention, in the image processing method according to any one of the thirteenth to twenty-first aspects, in the learning step, the size of a face candidate region that is a determination target of whether or not the face is a target is determined. According to this, learning is performed.
請求項23に記載の発明は、請求項13〜22のいずれか一項に記載の画像処理方法において、前記学習工程では、前記画像が撮影された時の配光条件に応じて、学習を実施することを特徴とする。
The invention according to claim 23 is the image processing method according to any one of
請求項24に記載の発明は、学習によって抽出条件が決定される顔候補領域抽出処理により画像情報から顔候補領域を抽出する顔候補領域抽出工程と、前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示工程と、オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択工程と、前記選択結果に基づいて、前記顔候補領域抽出処理の学習を実施する第1の学習工程と、学習によって算出条件が決定される補正強度算出処理により補正強度を算出する補正強度算出工程と、前記算出された補正強度に基づいて前記画像情報に補正処理を施す補正処理工程と、オペレータの指示に従って前記算出された補正強度を修正する補正強度修正工程と、前記修正結果に基づいて、前記補正強度算出処理の学習を実施する第2の学習工程と、を含むことを特徴とする画像処理方法である。 According to a twenty-fourth aspect of the present invention, there is provided a face candidate region extraction step of extracting a face candidate region from image information by a face candidate region extraction process in which an extraction condition is determined by learning, and an image is displayed on the display means based on the image information. Based on the display result, a display step of displaying the extracted face candidate region on the image, a face region selection step of selecting a face region from the displayed face candidate region, and the selection result. Based on the first learning step for performing the learning of the face candidate region extraction processing, the correction strength calculating step for calculating the correction strength by the correction strength calculation processing in which the calculation condition is determined by learning, and the calculated correction strength A correction processing step for correcting the image information, a correction strength correction step for correcting the calculated correction strength in accordance with an operator instruction, and the correction result Based on a second learning step of performing learning of the correction intensity calculation process, an image processing method, which comprises a.
請求項25に記載の発明は、コンピュータに、学習によって抽出条件が決定される顔候補領域抽出処理により画像情報から顔候補領域を抽出する顔候補領域抽出機能と、前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示機能と、オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択機能と、少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正機能と、前記選択結果に基づいて、前記顔候補領域抽出処理の学習を実施する学習機能と、を実現させるための画像処理プログラムである。 According to a twenty-fifth aspect of the present invention, there is provided a face candidate region extraction function for extracting a face candidate region from image information by a face candidate region extraction process in which an extraction condition is determined by learning, and an image based on the image information. A display function for causing the display means to display the extracted face candidate area on the image, and a face area selection function for causing the operator to select a face area from the displayed face candidate area, at least the selected Image processing for realizing an image correction function for performing a predetermined correction process on the face area and generating a corrected image, and a learning function for performing learning of the face candidate area extraction process based on the selection result It is a program.
請求項26に記載の発明は、請求項25に記載の画像処理プログラムにおいて、前記コンピュータに、前記学習された顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、当該学習結果を前記顔候補領域抽出処理に反映させる機能を実現させることを特徴とする。 The invention according to claim 26 is the image processing program according to claim 25, wherein, when the learning result of the learned face candidate region extraction process satisfies a predetermined condition, the learning result is stored in the computer. It is characterized by realizing a function to be reflected in the face candidate area extraction process.
請求項27に記載の発明は、請求項25又は26に記載の画像処理プログラムにおいて、前記顔候補領域抽出処理は、ニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする。 The invention according to claim 27 is the image processing program according to claim 25 or 26, wherein the face candidate area extraction process is a face candidate area extraction process using a neural network.
請求項28に記載の発明は、コンピュータに、学習によって抽出条件が決定される第1の顔候補領域抽出処理により画像情報から顔候補領域を抽出する顔候補領域抽出機能と、前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示機能と、オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択機能と、少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正機能と、前記選択結果に基づいて、前記第1の顔候補領域抽出処理とは異なる構成を有し、学習によって抽出条件が決定される第2の顔候補領域抽出処理の学習を実施する学習機能と、を実現させるための画像処理プログラムである。 The invention according to claim 28 is based on the face candidate area extraction function for extracting a face candidate area from image information by a first face candidate area extraction process in which an extraction condition is determined by learning, and the image information. A display function for displaying the image on the display means and displaying the extracted face candidate area on the image, a face area selection function for allowing the operator to select a face area from the displayed face candidate area, and at least An image correction function that performs a predetermined correction process on the selected face area to generate a corrected image, and a configuration different from the first face candidate area extraction process based on the selection result, An image processing program for realizing a learning function for performing learning of a second face candidate region extraction process in which an extraction condition is determined.
請求項29に記載の発明は、請求項28に記載の画像処理プログラムにおいて、前記コンピュータに、前記学習された第2の顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、前記第1の顔候補領域抽出処理を当該第2の顔候補領域抽出処理に置き換える機能を実現させることを特徴とする。 According to a twenty-ninth aspect of the present invention, in the image processing program according to the twenty-eighth aspect, when the learning result of the learned second face candidate region extraction process satisfies a predetermined condition in the computer, the first It is characterized in that a function of replacing one face candidate area extraction process with the second face candidate area extraction process is realized.
請求項30に記載の発明は、請求項28又は29に記載の画像処理プログラムにおいて、前記第1の顔候補領域抽出処理は、第1のニューラルネットワークを用いた顔候補領域抽出処理であって、前記第2の顔候補領域抽出処理は、前記第1のニューラルネットワークとは異なる構成を有する第2のニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする。
The invention according to
請求項31に記載の発明は、コンピュータに、所定の顔候補領域抽出処理により画像情報から顔候補領域を抽出する顔候補領域抽出機能と、前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示機能と、オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択機能と、少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正機能と、前記選択結果に基づいて、学習によって抽出条件が決定される顔候補領域抽出処理の学習を実施する学習機能と、を実現させるための画像処理プログラムである。 According to a thirty-first aspect of the present invention, a computer displays a face candidate region extraction function for extracting a face candidate region from image information by a predetermined face candidate region extraction process, and displays an image on a display unit based on the image information. A display function for displaying the extracted face candidate area on the image, a face area selection function for allowing the operator to select a face area from the displayed face candidate area, and at least a predetermined face area for the selected face area An image for realizing an image correction function that performs correction processing and generates a corrected image, and a learning function that performs learning of face candidate region extraction processing in which an extraction condition is determined by learning based on the selection result It is a processing program.
請求項32に記載の発明は、請求項31に記載の画像処理プログラムにおいて、前記コンピュータに、前記学習された顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、当該学習結果を反映した顔候補領域抽出処理による顔候補領域抽出処理を導入する機能を実現させることを特徴とする。 According to a thirty-second aspect of the present invention, in the image processing program according to the thirty-first aspect, the learning result is reflected when the learning result of the learned face candidate region extraction process satisfies a predetermined condition in the computer. The present invention is characterized in that a function for introducing face candidate area extraction processing by the face candidate area extraction processing performed is realized.
請求項33に記載の発明は、請求項31又は32に記載の画像処理プログラムにおいて、前記顔候補領域抽出処理は、ニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする。
The invention according to
請求項34に記載の発明は、請求項25〜33のいずれか一項に記載の画像処理プログラムにおいて、前記学習機能を実現させる際に、顔であるか否かの判定対象となる顔候補領域の大きさに応じて、学習を実施することを特徴とする。 A 34th aspect of the present invention is the image processing program according to any one of the 25th to 33rd aspects, wherein when the learning function is realized, a face candidate region that is a target for determining whether or not it is a face. Learning is performed according to the size of.
請求項35に記載の発明は、請求項25〜34のいずれか一項に記載の画像処理プログラムにおいて、前記学習機能を実現させる際に、前記画像が撮影された時の配光条件に応じて、学習を実施することを特徴とする。 According to a thirty-fifth aspect of the present invention, in the image processing program according to any one of the twenty-fifth to thirty-fourth aspects, when the learning function is realized, according to a light distribution condition when the image is captured. It is characterized by carrying out learning.
請求項36に記載の発明は、コンピュータに、学習によって抽出条件が決定される顔候補領域抽出処理により画像情報から顔候補領域を抽出する顔候補領域抽出機能と、前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示機能と、オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択機能と、前記選択結果に基づいて、前記顔候補領域抽出処理の学習を実施する第1の学習機能と、学習によって算出条件が決定される補正強度算出処理により補正強度を算出する補正強度算出機能と、前記算出された補正強度に基づいて前記画像情報に補正処理を施す補正処理機能と、オペレータの指示に従って前記算出された補正強度を修正する補正強度修正機能と、前記修正結果に基づいて、前記補正強度算出処理の学習を実施する第2の学習機能とを実現させるための画像処理プログラムである。 According to a thirty-sixth aspect of the present invention, a face candidate region extraction function for extracting a face candidate region from image information by a face candidate region extraction process in which an extraction condition is determined by learning, and an image based on the image information. A display function for displaying the extracted face candidate area on the image, a face area selecting function for allowing the operator to select a face area from the displayed face candidate area, and the selection result. Based on a first learning function for performing learning of the face candidate region extraction process, a correction intensity calculating function for calculating a correction intensity by a correction intensity calculating process in which a calculation condition is determined by learning, and the calculated correction A correction processing function for correcting the image information based on the intensity, and a correction intensity correction function for correcting the calculated correction intensity according to an operator instruction , On the basis of the modification result is an image processing program for realizing a second learning function implementing learning of the correction intensity calculation process.
請求項1、13、25に記載の発明によれば、オペレータによる顔領域の選択結果に基づいて、顔候補領域抽出処理の学習を実施するので、ランニングする環境に応じて、顔候補領域抽出処理の抽出条件を自動的に最適化することにより、顔候補領域抽出処理の精度を向上させることができる。
According to the invention described in
請求項2、14、26に記載の発明によれば、学習結果を顔候補領域抽出処理に反映させることにより、顔候補領域抽出処理の精度を向上させることができる。
According to the invention described in
請求項3、15、27に記載の発明によれば、ランニングする環境に応じて、ニューラルネットワークを用いた顔候補領域抽出処理の抽出条件を自動的に最適化することにより、顔候補領域抽出処理の精度を向上させることができる。 According to the third, fifteenth and twenty-seventh aspects of the present invention, the face candidate region extraction process is automatically optimized by automatically optimizing the extraction conditions of the face candidate region extraction process using the neural network according to the running environment. Accuracy can be improved.
請求項4、16、28に記載の発明によれば、第1の顔候補領域抽出処理により抽出された顔候補領域からオペレータが顔領域を選択した結果に基づいて、第2の顔候補領域抽出処理の学習を実施するので、ランニングする環境に応じて、第2の顔候補領域抽出処理の抽出条件を自動的に最適化することにより、第2の顔候補領域抽出処理の精度を向上させることができる。
According to the invention described in
請求項5、17、29に記載の発明によれば、第1の顔候補領域抽出処理を第2の顔候補領域抽出処理に置き換えることにより、顔候補領域抽出処理の精度を向上させることができる。
According to the invention described in
請求項6、18、30に記載の発明によれば、ランニングする環境に応じて、第2のニューラルネットワークを用いた顔候補領域抽出処理の抽出条件を自動的に最適化することにより、第2の顔候補領域抽出処理の精度を向上させることができる。
According to the invention described in
請求項7、19、31に記載の発明によれば、所定の領域抽出処理により抽出された顔候補領域からオペレータが顔領域を選択した結果に基づいて、顔候補領域抽出処理の学習を実施するので、ランニングする環境に応じて、顔候補領域抽出処理の抽出条件を自動的に最適化することにより、顔候補領域抽出処理の精度を向上させることができる。 According to the seventh, nineteenth and thirty-first aspects of the present invention, learning of the face candidate area extraction process is performed based on the result of the operator selecting the face area from the face candidate areas extracted by the predetermined area extraction process. Therefore, the accuracy of the face candidate area extraction process can be improved by automatically optimizing the extraction conditions of the face candidate area extraction process according to the running environment.
請求項8、20、32に記載の発明によれば、学習結果を反映した顔候補領域抽出処理を導入することにより、顔候補領域抽出処理の精度を向上させることができる。
According to the invention described in
請求項9、21、33に記載の発明によれば、ランニングする環境に応じて、ニューラルネットワークを用いた顔候補領域抽出処理の抽出条件を自動的に最適化することにより、顔候補領域抽出処理の精度を向上させることができる。
According to the invention described in
請求項10、22、34に記載の発明によれば、あらゆる大きさの顔候補領域に対して顔候補領域抽出処理の精度を向上させることができ、全体として抽出精度を向上させることができる。また、出現頻度の高い顔候補領域の大きさに対して抽出精度が上がるため、重要度の高い顔候補領域に対して抽出精度を向上させることができる。 According to the tenth, twenty-second, and thirty-fourth aspects of the present invention, the accuracy of face candidate region extraction processing can be improved for face candidate regions of any size, and the extraction accuracy as a whole can be improved. In addition, since the extraction accuracy increases with respect to the size of the face candidate region having a high appearance frequency, the extraction accuracy can be improved for the face candidate region having a high importance.
請求項11、23、35に記載の発明によれば、あらゆる配光条件に対して顔候補領域抽出処理の精度を向上させることができ、全体として抽出精度を向上させることができる。また、出現頻度の高い配光条件に対して抽出精度が上がるため、重要度の高い配光条件に対して抽出精度を向上させることができる。
According to the invention described in
請求項12、24、36に記載の発明によれば、ランニングする環境に応じて、顔候補領域抽出処理の精度を向上させることができるとともに、補正強度算出処理の精度を向上させることができる。
According to the invention described in
[第1の実施の形態]
まず、本発明を適用した第1の実施の形態について説明する。
図1に、第1の実施の形態に係る画像処理システム100の構成を示す。画像処理システム100は、フィルムに撮影され、現像された画像を印画紙に光学焼付けする写真プリントシステムであり、図1に示すように、光源部1、撮像部2、露光制御部3、画像情報取得部4、画像判定部5、教師データ記憶部6、ニューロ学習部7、画像処理部8、指示入力部9、表示部10により構成される。
[First Embodiment]
First, a first embodiment to which the present invention is applied will be described.
FIG. 1 shows a configuration of an
光源部1で発した光は、色調整フィルタ(Y、M、C)を透過して色調の調整がなされ、光拡散部材の中を乱反射して均質化され、フィルムに照射される。フィルムを透過した光はレンズを通り、印画紙上にフィルム上の画像を結像し、露光制御部3の制御により露光される。露光された印画紙は、現像処理装置(図示略)で現像処理され、写真ができ上がる。フィルムを透過した光は、可動ミラーによって適宜撮像部2に導かれる。撮像部2は、可動ミラーから入力された光画像を採取し、フィルム画像情報として画像情報取得部4に出力する。
The light emitted from the light source unit 1 is transmitted through the color adjustment filters (Y, M, C), and the color tone is adjusted. The light is diffusely reflected in the light diffusing member, homogenized, and irradiated onto the film. The light transmitted through the film passes through the lens, forms an image on the film on the photographic paper, and is exposed under the control of the
露光制御部3は、画像処理部8において行われる補正処理に基づいて、フィルムの露光時間、光源のカラーバランスを決定し、その決定された露光時間及びカラーバランスに従って、色調整フィルタ及びシャッタを制御する。
The
画像情報取得部4は、撮像部2から入力された画像情報を取得し、画像判定部5に出力する。
The image
画像判定部5は、画像情報取得部4から取得された画像情報から各種の特性値(画素信号値の平均、分散等の統計値、配光条件等)を算出し、算出された特性値を入力信号とし、顔らしさを示す値を出力信号とする階層型ニューラルネットワークをニューロ学習部7から取得し、当該階層型ニューラルネットワークを用いて顔候補領域を抽出する。ここでは、学習によって抽出条件が決定される顔候補領域抽出処理として、ニューラルネットワークを用いた顔候補領域抽出処理を用いる。なお、「学習によって抽出条件が決定される顔候補領域抽出処理」とは、所定のアルゴリズムに従えば、一意的に抽出条件を決定することが可能な顔候補領域抽出処理をいう。
The
教師データ記憶部6は、指示入力部9により入力された顔領域であるか否かの情報を含む、ニューラルネットワークの学習に必要な教師データを記憶する。
The teacher
ニューロ学習部7は、教師データ記憶部6に記憶された顔領域であるか否かの情報を教師データとして階層型ニューラルネットワークの学習を実施する。また、ニューロ学習部7は、階層型ニューラルネットワークを、さらに学習を実施した階層型ニューラルネットワークに置き換えるニューロ置換処理を実行する(図15及び図16参照)。本実施の形態で適用される階層型ニューラルネットワークについては、後に図3及び図4を参照して説明する。
The neuro-
画像処理部8は、補正対象となる画像データを表示部10に表示する際に、表示画像上に画像判定部5により抽出された顔候補領域を表示した表示用データを作成し、表示部10に出力する。また、画像処理部8は、画像判定部5で抽出された顔候補領域、及び指示入力部9により入力された顔領域であるか否かの情報に基づいて、補正対象の画像情報を補正処理することによって補正画像を作成し、作成された補正画像を表示部10に出力する。また、補正画像のプリント出力指示があった場合、画像処理部8は、補正画像情報を露光制御部3に出力する。
When displaying the image data to be corrected on the
指示入力部9は、キーボードやマウス等の入力デバイスを備え、入力デバイスの操作による操作信号を画像処理部8に出力する。なお、指示入力部9は、表示部10の表示画面を覆うように設けられたタッチパネルを備えていてもよい。タッチパネルは、電磁誘導式、磁気歪式、感圧式等の読み取り原理によって、タッチ指示された座標を検出し、検出した座標を位置信号として画像処理部8に出力する。
The
表示部10は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等の表示画面を有し、画像処理部8から入力される表示制御信号に従って、所要の表示を行う。
The
なお、本発明が適用される画像処理システムは、図1に示したような、光学焼付けする写真プリントシステムである画像処理システム100に限定されるものではない。図2に、本発明が適用される画像処理システムの他の例として、画像処理システム200の構成を示す。以下では、画像処理システム200において、図1の画像処理システム100と同一の構成要素には同一の符号を付し、機能が同一である構成要素については、その機能説明を省略する。
The image processing system to which the present invention is applied is not limited to the
画像処理システム200は、図2に示すように、画像情報取得部4、画像判定部5、教師データ記憶部6、ニューロ学習部7、画像処理部8、指示入力部9、表示部10、縮小画像作成部11、DSC(デジタルスチルカメラ)12、原稿スキャナ13、記録メディアドライバ14、通信制御部15、画像情報出力部16、プリンタ部17、記録メディア書き込み部18により構成される。
As shown in FIG. 2, the
画像情報取得部4は、DSC12、原稿スキャナ13、記録メディアドライバ14、通信制御部15を介して入力されたデジタル画像情報を取得し、縮小画像作成部11又は画像処理部8に出力する。
The image
画像処理部8は、画像判定部5で抽出された顔候補領域、及び指示入力部9により入力された顔領域であるか否かの情報に基づいて、補正対象の画像情報を補正処理することによって補正画像を作成し、作成された補正画像を表示部10に出力する。また、補正画像のプリント出力指示があった場合、画像処理部8は、指定された出力先に対応する補正画像を作成し、画像情報出力部16に出力する。
The
縮小画像作成部11は、必要に応じて(例えば、オペレータから指示があった場合に)画像情報取得部4から取得された画像情報から縮小画像(サムネイル画像)を作成し、画像判定部5に出力する。
The reduced
DSC12は、フォーカシングレンズ、ズームレンズ、シャッタ、絞り等を含む撮影用の光学レンズユニット、CCD(Charge Coupled Device)等の撮像素子を含む光電変換ユニット等により構成されており、被写体の撮影によって得られた撮影画像を光電変換してデジタル画像信号を取得し、取得されたデジタル画像信号を、画像情報取得部4に出力する。
The
原稿スキャナ13は、光源、CCD、A/Dコンバータ等により構成され、原稿台に載置された写真プリント等の原稿に光源の光を照射し、その反射光をCCDにより電気信号(アナログ信号)に変換し、A/Dコンバータにより、このアナログ信号をデジタル信号に変換することによってデジタル画像信号を取得し、取得されたデジタル画像信号を画像情報取得部4に出力する。
The
記録メディアドライバ14は、CD−R、メモリスティック(登録商標)、スマートメディア(登録商標)、コンパクトフラッシュ(登録商標)、マルチメディアカード(登録商標)、SDメモリカード(登録商標)等の各種記録メディアが装着可能な構成となっており、これらの記録メディアに記録された画像信号を読み取り、読み取り結果を画像情報取得部4に出力する。
The
通信制御部15は、LAN(Local Area Network)、インターネット等の通信ネットワークNに接続された外部装置と画像処理システム200との間の通信を制御する。具体的には、通信制御部15は、外部装置から受信された画像情報を画像情報取得部4に出力するための制御や、画像情報出力部16から取得された画像情報を指定されたアドレスに送信するための制御を行う。
The
画像情報出力部16は、画像処理部8で処理された画像情報を、指定された出力先(通信制御部15、プリンタ部17、記録メディア書き込み部18のいずれか)に出力する。
The image
プリンタ部17は、画像情報出力部16から入力された画像情報に基づいて感光材料に露光し、露光された感光材料を現像処理して乾燥し、写真プリントを作成する。
The
記録メディア書き込み部18は、各種の記録メディアが装着可能な構成となっており、画像処理部8で処理された画像情報を、装着された記録メディアに記録する。
The recording
〈ニューラルネットワーク〉
次に、本実施の形態の画像処理において使用されるニューラルネットワークについて簡単に説明する。このニューラルネットワークは、図3に示すように、入力層、中間層、及び出力層を有する階層型のニューラルネットワーク(以下、単にニューラルネットワークという。)である。ニューラルネットワークは、デジタルニューラルネットワークチップを利用することが望ましいが、汎用のDSP(Digital Signal Processor)と専用のエミュレートプログラムを用いても実現することができるし、通常のCPUとエミュレートプログラムを用いても構わない。
<neural network>
Next, a neural network used in the image processing according to the present embodiment will be briefly described. As shown in FIG. 3, this neural network is a hierarchical neural network (hereinafter simply referred to as a neural network) having an input layer, an intermediate layer, and an output layer. The neural network preferably uses a digital neural network chip, but can also be realized by using a general-purpose DSP (Digital Signal Processor) and a dedicated emulation program, or using a normal CPU and an emulation program. It doesn't matter.
ニューラルネットワークの各層は、ニューロンと呼ばれる構成単位からなっている。入力層を除けば、任意のニューロンは図4に示すようにシナプスと呼ばれる入力を多数受け取り、各々の入力値xiに対して結合強度と呼ばれる所定の重みwiを掛けてその総和を求め、それを所定の出力関数fで評価した結果を出力yとして与える機能素子として機能する。出力関数fは、式(1)のように表される。
ここで、各ニューロンの入力の重みwiはニューラルネットワークの入力・出力の関係、言い替えればニューラルネットワークの動作を決定する重要な情報であり、ニューラルネットワークに対して学習作業を行うことによって決定する。なお、図3では中間層は1層のみ記してあるが、これは1以上の任意の階層の構成とすることができる。階層型ネットワークでは、中間層は1層あれば、合成可能な任意の関数を実現できることが知られているが、中間層を多くした方が学習効率や、ニューロンの個数の点から有利であることが知られている。 Here, the input weight w i of each neuron is important information for determining the relationship between the input and output of the neural network, in other words, the operation of the neural network, and is determined by performing a learning operation on the neural network. In FIG. 3, only one intermediate layer is shown, but this can be configured in one or more arbitrary layers. Hierarchical networks are known to be able to achieve any function that can be synthesized if there is only one intermediate layer, but increasing the number of intermediate layers is advantageous in terms of learning efficiency and the number of neurons. It has been known.
ニューラルネットワークは以下のような特徴を有している。
(1)比較的単純な構成でありながら、多入力・多出力の非線形システムを実現できる。
(2)各層内の各ニューロンは独立して動作させることができ、並列処理によって高速な動作が期待できる。
(3)適切な教師データを与えて学習させることにより、任意の入出力関係を実現させることができる。
(4)系として汎化能力がある。すなわち、必ずしも教師データとして与えていない、未学習の入力パターンに対しても、おおむね正しい出力を与える能力がある。
The neural network has the following characteristics.
(1) A multi-input / multi-output nonlinear system can be realized with a relatively simple configuration.
(2) Each neuron in each layer can be operated independently, and high-speed operation can be expected by parallel processing.
(3) Arbitrary input / output relations can be realized by providing appropriate teacher data for learning.
(4) The system has generalization ability. That is, there is an ability to give a generally correct output even to an unlearned input pattern that is not necessarily given as teacher data.
ここで、教師データとは、入力パターンと、その入力パターンに対する望ましい出力パターンの対であり、通常複数個用意する。特定の入力パターンに対して望ましい出力パターンを決定する作業は、一般に熟練者の主観的な判断に頼って決定する。ニューラルネットワークの主な応用としては(a)非線形の関数近似、(b)クラスタリング(識別、認識、分類)が挙げられる。 Here, the teacher data is a pair of an input pattern and a desired output pattern for the input pattern, and a plurality of teacher data are usually prepared. The operation of determining a desired output pattern for a specific input pattern is generally determined by relying on the subjective judgment of an expert. Major applications of neural networks include (a) nonlinear function approximation and (b) clustering (identification, recognition, classification).
次に、ニューラルネットワークに対する教師データを用いた学習方法について説明する。p番目の入力パターンに対する、第L層のi番目のニューロンの状態を式(3)及び式(4)のように表現する。
このように定義した場合に、広く用いられている誤差逆伝搬学習法(バックプロパゲーション学習法、以下BP法と略す。)では、誤差評価関数として平均自乗誤差を用いて、以下のようにエラーEを定義する。
この場合、BP法に基づく各結合強度の修正量Δwは次式で定められる。
例えば、Δwの定義を次のように変更するという提案がある。
あるいは、学習率ηを学習回数nに応じて、次式を満たすように動的に変化させるという提案もある。
さらには、エラーの評価を平均自乗誤差ではなく、シグモイド関数の導関数を打ち消すような形式にするという提案もある。いずれにせよ、BP法を用いて十分な回数学習作業を施すことにより、教師データに対して近似した出力を得ることができるようになる。 Furthermore, there is also a proposal to make the error evaluation in a form that cancels out the derivative of the sigmoid function instead of the mean square error. In any case, an output approximate to the teacher data can be obtained by performing the learning operation a sufficient number of times using the BP method.
次に、第1の実施の形態における動作について説明する。
まず、図5のフローチャートを参照して、画像処理システム100又は200において実行される画像処理全体の流れを説明する。
Next, the operation in the first embodiment will be described.
First, the overall flow of image processing executed in the
まず、画像情報取得部4に入力された画像情報(以下、入力画像情報という。)が取得される(ステップS1)。次いで、画像判定部5において、ステップS1で取得された入力画像情報から、肌色領域(肌色色相領域)が抽出される(ステップS2)。
First, image information input to the image information acquisition unit 4 (hereinafter referred to as input image information) is acquired (step S1). Next, in the
肌色領域の抽出方法については制限されないが、明度や彩度、色相値といった色値を利用して、所定の範囲の特定色が連続する領域を肌色領域とする方法や、画像からエッジを抽出する等して楕円等の特定の形状パターンを抽出する方法、パターンマッチングやニューラルネットワークを利用する方法、又はこれらを組み合わせた方法等を用いることができる。 The skin color region extraction method is not limited, but using color values such as lightness, saturation, and hue value, a region in which a specific color in a predetermined range continues is used as a skin color region, or an edge is extracted from an image. For example, a method for extracting a specific shape pattern such as an ellipse, a method using pattern matching or a neural network, a method combining these, or the like can be used.
例えば、特開平4−346332号公報に開示されている元画像を多数画素に分割し、各画素のBGR値から色相値と彩度値のヒストグラムを作成し、その形状からヒストグラムを分割し、分割した各部位に相当する各画素で構成される領域に画像を分割し、分割された複数の領域から顔に相当する領域を推定する方法、特開平6−309433号公報、特開平6−67320号公報、特開平5−158164号公報、特開平5−165120号公報に開示されている色相値、彩度値、輝度値等のヒストグラムに基づいて肌色領域を決定し、この肌色領域を顔領域とする方法、特開平8−184925号公報に開示されている画像に二値化等の処理を施して複数の領域に分割し、複数の領域から顔に相当する領域である確度が最も高い領域を抽出する方法、特開平8−221567号公報、特開2000−20694号公報、特開2000−32272号公報、特開2000−201358号公報、特開2000−207569号公報に開示されているラインプロセス法を用いた方法等が挙げられる。 For example, the original image disclosed in Japanese Patent Laid-Open No. 4-346332 is divided into a large number of pixels, a histogram of hue value and saturation value is created from the BGR value of each pixel, and the histogram is divided from the shape. A method of dividing an image into regions composed of pixels corresponding to each part and estimating a region corresponding to a face from a plurality of divided regions, Japanese Patent Laid-Open Nos. 6-309433 and 6-67320 A skin color area is determined based on a histogram of hue value, saturation value, luminance value, etc. disclosed in Japanese Patent Laid-Open No. 5-158164 and Japanese Patent Laid-Open No. 5-165120, and this skin color area is defined as a face area. The method disclosed in JP-A-8-184925 is subjected to processing such as binarization to divide the image into a plurality of regions, and the region having the highest probability of being a region corresponding to a face is determined from the plurality of regions. Line process disclosed in JP-A-8-221567, JP-A-2000-20694, JP-A-2000-32272, JP-A-2000-201158, JP-A-2000-20769 The method using the method is mentioned.
また、カラーデジタル画像からエッジと低周波画像を生成し、所定のパラメータ(例えば、彩度、色相、明度の各値)が所定の初期条件(各所定範囲の値)と合致する初期画素を抽出し、低周波画像に対して抽出された初期画素から単純領域拡張を行い、画像エッジに到達した場合に単純領域拡張を強制的に終了させて、領域抽出を行うこともできる。また、画像に対し人物の目領域の画素を中心とした対数極座標変換を施し、対数極座標変換後の画像を用いて単純領域拡張を行ったり、対数極座標変換後の画像に対して顔領域を抽出するためのテンプレートを用いてパターンマッチングを行ったりして、領域抽出を行うこともできる。 Also, edges and low-frequency images are generated from color digital images, and initial pixels whose predetermined parameters (for example, saturation, hue, and brightness values) match predetermined initial conditions (values in each predetermined range) are extracted. It is also possible to perform simple region expansion from the initial pixel extracted for the low-frequency image, and forcibly end simple region expansion when the image edge is reached, thereby performing region extraction. Also, logarithmic polar coordinate conversion is performed on the image centered on the pixels of the human eye area, and simple area expansion is performed using the image after logarithmic polar coordinate conversion, or a face area is extracted from the image after logarithmic polar coordinate conversion It is also possible to perform region extraction by performing pattern matching using a template for the purpose.
肌色領域が抽出されると、肌色領域の形態を表す[領域面積/周囲長]や、[最短径/最長径]、画素信号値の分散等の各種特性値が算出される。そして、各特性値を入力信号として、人物の顔候補領域抽出処理を学習した階層型ニューラルネットワーク(以下、階層型ニューラルネットワークを「ニューロ」と略称する。)を用いることにより、当該抽出された肌色領域が顔候補領域であるか否かを判定する処理(以下、「ニューロ判定処理」という。)が行われる(ステップS3)。図6に示すように、各特性値を入力信号(入力パラメータ)とし、顔信頼度パラメータを出力信号としたニューロを用いて顔候補領域が抽出される。顔信頼度パラメータは、0〜1の数値で顔らしさを示すものであって、1に近づくほど顔である可能性が高いことを示している。顔信頼度パラメータが予め定められている閾値以上の場合に、顔候補領域として抽出される。 When the skin color area is extracted, various characteristic values such as [area area / peripheral length] representing the form of the skin color area, [shortest diameter / longest diameter], and dispersion of pixel signal values are calculated. Then, using each characteristic value as an input signal, the extracted skin color is obtained by using a hierarchical neural network in which human face candidate region extraction processing is learned (hereinafter, the hierarchical neural network is abbreviated as “neuro”). A process of determining whether or not the area is a face candidate area (hereinafter referred to as “neuro determination process”) is performed (step S3). As shown in FIG. 6, a face candidate region is extracted using a neuron having each characteristic value as an input signal (input parameter) and a face reliability parameter as an output signal. The face reliability parameter indicates the likelihood of a face with a numerical value from 0 to 1, and the closer to 1, the higher the possibility that the face is. When the face reliability parameter is equal to or greater than a predetermined threshold, the face candidate area is extracted.
次に、ステップS1で取得された入力画像情報が表示部10に表示され、その画像上に、抽出された顔候補領域が他の領域と明確に区別できるように強調して表示される(ステップS4)。強調して表示する方法としては、強調すべき領域を線で囲んだり、領域内の色を変えたりして、対象領域を明示する方法が好ましい。例えば、図7(a)に示す人物を撮影した補正対象画像21において、図7(b)に示すように、画像判定部5により抽出された顔候補領域22a,22b,22cが線で囲まれて表示される。ここでは、顔候補領域22a,22bについては、正しく判断されているが、顔候補領域22cについては、着物の柄部分が顔候補領域であると誤って判断されている。図7では、ステップS3において抽出された顔候補領域の形状に沿って線で囲んで顔候補領域を表示することとしたが、顔判定方法に応じて抽出され得る領域であって、顔の位置が特定されるために十分な表示(矩形・楕円・正円等)であればよい。
Next, the input image information acquired in step S1 is displayed on the
次に、オペレータは、表示部10に表示された補正対象画像21上の顔候補領域22a,22b,22cが顔領域であるか否かを判断し、指示入力部9を介して、顔候補領域22a,22b,22cから顔領域を選択する(ステップS5)。具体的には、指示入力部9のマウス操作によって、顔領域であると判断した顔候補領域にマウスポインタを移動させ、クリックすることにより、顔領域を選択する。選択された顔領域は、領域内の色を変える等して選択されたことが示される。図7(c)は、顔候補領域22a,22bが顔領域であると判断され、選択された場合の例である。ここでは、顔領域であると判断した顔候補領域をマウス操作により選択することとしたが、間違って抽出された顔候補領域がない場合にはリターンキーを押下する、また、間違って顔候補領域と判断されたもの(オペレータが顔領域でないと判断した顔候補領域)にマウスポインタを移動させ、クリックすることにより、選択からはずす、という方法を用いてもよい。
Next, the operator determines whether or not the
次に、画像処理部8により、少なくとも選択された顔領域について所定の補正処理が施され、補正画像が生成される(ステップS6)。ここでは、顔領域に適した画像処理が施されるれるだけでなく、他の領域についても違和感がないように画像処理が施される。具体的には、顔領域の濃度が目標濃度になるよう画像全体に対して濃度補正処理を施す、顔領域の色が目標の色目になるよう画像全体に対して色補正処理を施す、顔領域の濃度や色が目標の濃度・色になるよう顔領域のみに対して補正処理を施す、顔領域が適正な大きさになるよう画像全体を拡縮処理する、顔領域が適正な位置になるよう画像全体を位置補正する、プリント枚数のデフォルト値を抽出した顔の数に設定する、又はこれらの組み合わせ等、さまざまな補正処理を施すことができる。
Next, a predetermined correction process is performed on at least the selected face area by the
画像情報が入力される度にステップS1〜ステップS6の処理が行われ、ステップS5において選択された顔領域の選択結果が教師データとして教師データ記憶部6に蓄積される(ステップS7)。教師データは、ニューロ出力の望ましい値(すなわち、顔領域である場合には1、顔領域でない場合には0)と、対応する入力信号群(すなわち、肌色領域の各特性値)の対である。
Each time image information is input, the processing of steps S1 to S6 is performed, and the selection result of the face area selected in step S5 is accumulated in the teacher
教師データ記憶部6に蓄積された教師データの数が所定数を超えた場合、これらの教師データに基づいてニューロの学習が実施される(ステップS8)。ここで、学習とは、教師データに基づいてニューロにおける各結合強度を算出することをいう。ステップS8における学習は、定期的に行うようにしてもよい。
When the number of teacher data stored in the teacher
ステップS8における学習結果が所定の条件を満たす場合に、学習結果がニューロに反映される。反映とは、ニューロの学習により得られた新たな各結合強度を用いたニューロに置き換えることをいう。 When the learning result in step S8 satisfies a predetermined condition, the learning result is reflected in the neuron. Reflecting means replacing with a neuro that uses each new connection strength obtained by learning the neuro.
なお、撮影画像においては、大きく写っている人物が重要な場合が多いため、ニューロの学習を行う際には、顔であるか否かの判定対象となる顔候補領域の大きさに応じて、学習を実施することが好ましい。
図8は、顔候補領域の大きさに応じたニューロ学習処理を示すフローチャートである。
In the captured image, since a large image of a person is often important, when learning a neuro, depending on the size of the face candidate area to be determined whether or not it is a face, It is preferable to carry out learning.
FIG. 8 is a flowchart showing a neuro-learning process according to the size of the face candidate area.
まず、入力パラメータ(1〜n)が取得される(ステップS11)。
次に、顔候補領域の大きさに応じて、顔候補領域抽出処理に用いるニューロが選択される(ステップS12)。
First, input parameters (1 to n) are acquired (step S11).
Next, a neuro to be used for the face candidate area extraction process is selected according to the size of the face candidate area (step S12).
顔候補領域の大きさが大きい場合には、入力パラメータ及び正解値のセットが大きい顔候補領域用の教師データに追加され、教師データが所定数蓄積された後、ニューロAの学習が実施される(ステップS13)。顔候補領域の大きさが中くらいである場合には、入力パラメータ及び正解値のセットが中くらいの顔候補領域用の教師データに追加され、教師データが所定数蓄積された後、ニューロBの学習が実施される(ステップS14)。顔候補領域の大きさが小さい場合には、入力パラメータ及び正解値のセットが小さい顔候補領域用の教師データに追加され、教師データが所定数蓄積された後、ニューロCの学習が実施される(ステップS15)。 When the size of the face candidate area is large, a set of input parameters and correct answer values is added to the teacher data for the large face candidate area, and after a predetermined number of teacher data is accumulated, neuro A learning is performed. (Step S13). When the size of the face candidate area is medium, the set of input parameters and correct values is added to the teacher data for the medium face candidate area, and after a predetermined number of teacher data is accumulated, Learning is performed (step S14). When the size of the face candidate area is small, a set of input parameters and correct values is added to the teacher data for the small face candidate area. After a predetermined number of teacher data is accumulated, neuro C learning is performed. (Step S15).
各ニューロの学習は、所定の画像数の処理が行われ、所定数の教師データが蓄積された場合に実施されることとしてもよい。この場合には、出現頻度の高い顔候補領域の大きさに対して特に抽出精度が上がり、重要度の高い顔候補領域に対して抽出精度を向上させることができる。 Learning of each neuro may be performed when a predetermined number of images are processed and a predetermined number of teacher data is accumulated. In this case, the extraction accuracy is particularly improved for the size of the face candidate region having a high appearance frequency, and the extraction accuracy can be improved for the face candidate region having a high importance.
また、大・中・小の顔候補領域用の教師データがそれぞれ所定数ずつ蓄積された場合(例えば、大・中・小それぞれ500画像以上等)に各ニューロの学習が実施されることとしてもよい。この場合には、出現頻度の低い顔候補領域の大きさに対しても抽出精度が確保され、あらゆる大きさの顔候補領域に対して顔候補領域抽出処理の精度を向上させることができる。また、学習の難度が高い顔候補領域の大きさに対する抽出精度、重要度が高い顔候補領域の大きさに対する抽出精度を確保する目的で、各ニューロの学習が実施されるまでに蓄積される教師データの数を顔候補領域の大きさ毎に変更することも可能である。 Further, when a predetermined number of teacher data for large, medium, and small face candidate areas are accumulated (for example, each of large, medium, and small 500 images or more), learning of each neuro may be performed. Good. In this case, the extraction accuracy is ensured even for the size of the face candidate region having a low appearance frequency, and the accuracy of the face candidate region extraction process can be improved for the face candidate region of any size. In addition, in order to ensure the extraction accuracy for the size of the face candidate region with high learning difficulty and the extraction accuracy for the size of the face candidate region with high importance, the teacher accumulated until learning of each neuro is performed It is also possible to change the number of data for each face candidate area size.
また、ニューロの学習を行う際には、画像が撮影された時の配光条件に応じて、学習を実施することが好ましい。撮影時の配光条件には、順光、逆光、ストロボ(フラッシュ光利用状態)、アンダー等が含まれることが好ましい。
図9は、配光条件に応じたニューロ学習処理を示すフローチャートである。
Further, when performing neuro learning, it is preferable to perform learning in accordance with the light distribution condition when the image is taken. It is preferable that the light distribution conditions at the time of photographing include forward light, backlight, strobe (flash light use state), under, and the like.
FIG. 9 is a flowchart showing a neuro-learning process according to the light distribution condition.
まず、入力パラメータ(1〜n)が取得される(ステップS21)。
次に、配光条件に応じて、顔候補領域抽出処理に用いるニューロが選択される(ステップS22)。配光条件判別処理については、後に図10を参照して説明する。
First, input parameters (1 to n) are acquired (step S21).
Next, a neuro used for the face candidate area extraction process is selected according to the light distribution condition (step S22). The light distribution condition determination process will be described later with reference to FIG.
撮影シーンが順光シーンの場合には、入力パラメータ及び正解値のセットが順光用の教師データに追加され、教師データが所定数蓄積された後、ニューロDの学習が実施される(ステップS23)。撮影シーンがストロボシーンの場合には、入力パラメータ及び正解値のセットがストロボ用の教師データに追加され、教師データが所定数蓄積された後、ニューロEの学習が実施される(ステップS24)。撮影シーンが逆光シーンの場合には、入力パラメータ及び正解値のセットが逆光用の教師データに追加され、教師データが所定数蓄積された後、ニューロFの学習が実施される(ステップS25)。撮影シーンがアンダーシーンの場合には、入力パラメータ及び正解値のセットがアンダー用の教師データに追加され、教師データが所定数蓄積された後、ニューロGの学習が実施される(ステップS26)。 When the shooting scene is a front light scene, a set of input parameters and correct answer values is added to the front light teacher data, and after a predetermined number of teacher data has been accumulated, neuro D learning is performed (step S23). ). When the shooting scene is a strobe scene, a set of input parameters and correct answer values is added to the strobe teacher data, and after a predetermined number of teacher data has been accumulated, neuro E learning is performed (step S24). When the shooting scene is a backlight scene, a set of input parameters and correct answer values is added to the backlight teacher data, and after a predetermined number of teacher data has been accumulated, neuro F learning is performed (step S25). When the shooting scene is an underscene, a set of input parameters and correct values is added to the under teacher data, and after a predetermined number of teacher data is accumulated, neuro G learning is performed (step S26).
各ニューロの学習は、所定の画像数の処理が行われ、所定数の教師データが蓄積された場合に実施されることとしてもよい。この場合には、出現頻度の高い配光条件(撮影シーン)に対して特に抽出精度が上がり、重要度の高い配光条件に対して抽出精度を向上させることができる。 Learning of each neuro may be performed when a predetermined number of images are processed and a predetermined number of teacher data is accumulated. In this case, the extraction accuracy is particularly improved for light distribution conditions (photographing scenes) having a high appearance frequency, and the extraction accuracy can be improved for light distribution conditions having a high importance.
また、各配光条件用の教師データがそれぞれ所定数ずつ蓄積された場合に各ニューロの学習が実施されることとしてもよい。この場合には、出現頻度の低い配光条件に対しても抽出精度が確保され、あらゆる配光条件に対して顔候補領域抽出処理の精度を向上させることができる。また、学習の難度が高い配光条件に対する抽出精度、重要度が高い配光条件に対する抽出精度を確保する目的で、各ニューロの学習が実施されるまでに蓄積される教師データの数を配光条件毎に変更することも可能である。
その他、撮影光源(太陽光、ストロボ光、蛍光灯光、タングステン光)に応じて分類することが好ましい。
Further, learning of each neuro may be performed when a predetermined number of teacher data for each light distribution condition is accumulated. In this case, extraction accuracy is ensured even for light distribution conditions with low appearance frequency, and the accuracy of face candidate region extraction processing can be improved for all light distribution conditions. Also, for the purpose of ensuring the extraction accuracy for light distribution conditions with a high degree of learning difficulty and the extraction accuracy for light distribution conditions with a high degree of importance, the number of teacher data accumulated until each neuro learning is carried out is distributed. It is also possible to change for each condition.
In addition, it is preferable to classify according to the photographing light source (sunlight, strobe light, fluorescent light, tungsten light).
ここで、図10を参照して、配光条件判別処理について説明する。
まず、画像データが所定の画像領域に分割され、各分割領域が画像データ全体に占める割合を示す占有率(第1の占有率、第2の占有率)を算出する占有率算出処理が行われる(ステップS31)。占有率算出処理の詳細は、後に図11、図12を参照して説明する。
Here, the light distribution condition determination processing will be described with reference to FIG.
First, image data is divided into predetermined image areas, and an occupancy ratio calculation process is performed to calculate an occupancy ratio (first occupancy ratio, second occupancy ratio) indicating the ratio of each divided area to the entire image data. (Step S31). Details of the occupation rate calculation process will be described later with reference to FIGS.
次いで、ステップS31において算出された占有率(第1の占有率、第2の占有率)と、少なくとも、画像データの画面中央部における肌色の平均輝度値と、撮影条件に応じて予め設定された係数に基づいて、配光条件を特定する(光源条件及び露出条件を定量的に表す)指標(指標1〜6)が算出される(ステップS32)。ステップS32における各指標の算出方法については、後に詳細に説明する。 Next, the occupancy ratio (first occupancy ratio, second occupancy ratio) calculated in step S31, at least the average brightness value of the skin color in the screen center portion of the image data, and the shooting conditions are set in advance. Based on the coefficients, indexes (indexes 1 to 6) for specifying light distribution conditions (quantitatively representing light source conditions and exposure conditions) are calculated (step S32). The calculation method of each index in step S32 will be described in detail later.
次いで、ステップS32において算出された指標に基づいて画像データの配光条件が判別され(ステップS33)、本配光条件判別処理が終了する。各指標に基づく配光条件の判別方法は、後に詳細に説明する。 Next, the light distribution condition of the image data is determined based on the index calculated in step S32 (step S33), and the main light distribution condition determination process ends. A method for determining the light distribution condition based on each index will be described in detail later.
次に、図11を参照して、図10のステップS31において実行される第1の占有率算出処理について詳細に説明する。 Next, with reference to FIG. 11, the first occupation rate calculation process executed in step S31 of FIG. 10 will be described in detail.
まず、画像データのRGB(Red,Green,Blue)値がHSV表色系に変換される(ステップS41)。次いで、画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS42)。 First, RGB (Red, Green, Blue) values of image data are converted into the HSV color system (step S41). Next, the image data is divided into regions composed of a combination of predetermined brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S42).
明度(V)は、明度値が0〜25(v1)、26〜50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜255(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、撮影シーンの判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、さらに、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(10)を満たす色相’(H)を肌色領域(H1)とし、式(10)を満たさない領域を(H2)とする。ただし、入力画像データの値をInR、InG、InBとする。 Lightness (V) is 0-25 (v1), 26-50 (v2), 51-84 (v3), 85-169 (v4), 170-199 (v5), 200-224 (v6) , 225 to 255 (v7). Hue (H) is a skin hue hue area (H1 and H2) with a hue value of 0 to 39, 330 to 359, a green hue area (H3) with a hue value of 40 to 160, and a blue hue area with a hue value of 161 to 250 It is divided into four areas (H4) and a red hue area (H5). Note that the red hue region (H5) is not used in the following calculation because it is found that the contribution to the discrimination of the shooting scene is small. The flesh color hue area is further divided into a flesh color area (H1) and other areas (H2). Hereinafter, among the flesh-colored hue regions (H = 0 to 39, 330 to 359), the hue '(H) that satisfies the following equation (10) is defined as the flesh-colored region (H1), and the region that does not satisfy the equation (10) is ( H2). However, the values of the input image data are InR, InG, and InB.
10 < 彩度(S) <175、
色相’(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相’(H) = 色相(H) − 300 (300 ≦ 色相(H) < 360のとき)、
輝度(Y) = InR × 0.30 + InG × 0.59 + InB × 0.11 (9)
として、
色相’(H)/輝度(Y) < 3.0 × (彩度(S)/255) + 0.7 (10)
10 <Saturation (S) <175,
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300),
Hue '(H) = Hue (H)-300 (when 300 ≤ Hue (H) <360),
Luminance (Y) = InR x 0.30 + InG x 0.59 + InB x 0.11 (9)
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) + 0.7 (10)
したがって、画像データの分割領域の数は4×7=28個となる。なお、式(9)及び(10)において明度(V)を用いることも可能である。 Therefore, the number of divided areas of the image data is 4 × 7 = 28. In addition, it is also possible to use the brightness (V) in the expressions (9) and (10).
2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第1の占有率が算出される(ステップS43)。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとする。 When the two-dimensional histogram is created, a first occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S43). Let Rij be the first occupancy calculated in the divided area composed of the combination of the lightness area vi and the hue area Hj.
次に、指標1及び指標2の算出方法について説明する。
表1に、ストロボ撮影としての確度、すなわち、ストロボ撮影時の顔領域の明度状態を定量的に示す指標1を算出するために必要な第1の係数を分割領域別に示す。表1に示された各分割領域の係数は、各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Table 1 shows, for each divided area, the first coefficient necessary for calculating the index 1 that quantitatively indicates the accuracy of strobe shooting, that is, the brightness state of the face area at the time of strobe shooting. The coefficient of each divided area shown in Table 1 is a weighting coefficient by which the first occupation ratio Rij of each divided area is multiplied, and is set in advance according to the shooting conditions.
明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1は、式(11)のように定義される。
表2に、逆光撮影としての確度、すなわち、逆光撮影時の顔領域の明度状態を定量的に示す指標2を算出するために必要な第2の係数を分割領域別に示す。表2に示された各分割領域の係数は、各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2は、式(12)のように定義される。
次に、図12を参照して、指標3を算出するために実行される第2の占有率算出処理について詳細に説明する。
Next, the second occupancy rate calculation process executed to calculate the
まず、画像データのRGB値がHSV表色系に変換される(ステップS51)。次いで、画像データが、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS52)。 First, the RGB values of the image data are converted into the HSV color system (step S51). Next, the image data is divided into regions each consisting of a combination of the distance from the outer edge of the captured image screen and the brightness, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S52).
図13(a)〜(d)に、画像データの画面の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図13(a)に示す領域n1が外枠であり、図13(b)に示す領域n2が、外枠の内側の領域であり、図13(c)に示す領域n3が、領域n2のさらに内側の領域であり、図13(d)に示す領域n4が、撮影画像画面の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。したがって、画像データを、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。 FIGS. 13A to 13D show four regions n1 to n4 divided according to the distance from the outer edge of the screen of the image data. A region n1 illustrated in FIG. 13A is an outer frame, a region n2 illustrated in FIG. 13B is a region inside the outer frame, and a region n3 illustrated in FIG. 13C is further added to the region n2. A region n4 shown in FIG. 13D is an inner region and is a central region of the captured image screen. Further, the lightness is divided into seven regions v1 to v7 as described above. Therefore, when the image data is divided into regions each having a combination of the distance from the outer edge of the captured image screen and the brightness, the number of divided regions is 4 × 7 = 28.
2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第2の占有率が算出される(ステップS53)。明度領域vi、画面領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとする。 When the two-dimensional histogram is created, a second occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S53). The second occupancy calculated in the divided area composed of the combination of the brightness area vi and the screen area nj is defined as Qij.
次に、指標3の算出方法について説明する。
表3に、指標3を算出するために必要な第3の係数を分割領域別に示す。表3に示された各分割領域の係数は、各分割領域の第2の占有率Qijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Table 3 shows the third coefficient necessary for calculating the
明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3は、式(13)のように定義される。
次に、指標4の算出方法について説明する。
まず、画像データのRGB(Red,Green,Blue)値から、式(9)を用いて輝度Yを算出する。また、画像データの画面中央部における肌色領域の平均輝度値x1を算出する。ここで、画面中央部とは、例えば、図13において、領域n3及び領域n4により構成される領域である。次いで、画像データの最大輝度値と平均輝度値との差分値x2を算出する。
Next, a method for calculating the
First, the luminance Y is calculated from the RGB (Red, Green, Blue) values of the image data using Equation (9). Also, the average luminance value x1 of the skin color area in the center of the screen of the image data is calculated. Here, the screen center portion is, for example, a region constituted by a region n3 and a region n4 in FIG. Next, a difference value x2 between the maximum luminance value and the average luminance value of the image data is calculated.
次いで、画像データの輝度の標準偏差x3を算出し、画面中央部における平均輝度値x4を算出する。また、画像データにおける肌色領域の最大輝度値Yskin_maxと最小輝度値Yskin_minの差分値と、肌色領域の平均輝度値Yskin_aveとの比較値x5を算出する。この比較値x5は、下記の式(14)のように表される。
x5=(Yskin_max−Yskin_min)/2 −Yskin_ave (14)
Next, the standard deviation x3 of the luminance of the image data is calculated, and the average luminance value x4 at the center of the screen is calculated. Also, a comparison value x5 between the difference value between the maximum luminance value Yskin_max and the minimum luminance value Yskin_min of the skin color area in the image data and the average luminance value Yskin_ave of the skin color area is calculated. This comparison value x5 is expressed as the following equation (14).
x5 = (Yskin_max−Yskin_min) / 2−Yskin_ave (14)
次いで、算出された値x1〜x5のそれぞれに、撮影条件に応じて予め設定された第4の係数を乗算し、和をとることにより、指標4が算出される。指標4は、下記の式(15)のように定義される。
指標4=0.06×x1+1.13×x2+0.02×x3+(−0.01)×x4+0.03×x5−6.50 (15)
Next, the
また、画像データの画面中央部における肌色領域の平均輝度値を指標4’とする。ここでの画面中央部とは、例えば、図13の領域n2、領域n3及び領域n4から構成される領域である。 Further, the average luminance value of the skin color area in the center of the screen of the image data is set as an index 4 '. Here, the center of the screen is, for example, an area composed of the areas n2, n3, and n4 in FIG.
また、指標5は、指標1、指標3、指標4’を用いて式(16)のように定義され、指標6は、指標2、指標3、指標4’を用いて式(17)のように定義される。
指標5=0.46×指標1+0.61×指標3+0.01×指標4’−0.79 (16)
指標6=0.58×指標2+0.18×指標3+(−0.03)×指標4’+3.34 (17)
ここで、式(16)及び式(17)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
In addition, the
Here, the weighting coefficient by which each index is multiplied in Expression (16) and Expression (17) is set in advance according to the shooting conditions.
次に、図10のステップS33における配光条件の判別方法について説明する。
図14(a)は、順光、逆光、ストロボの各光源条件で60枚ずつ撮影し、合計180枚のデジタル画像データについて、指標5及び指標6を算出し、各光源条件での指標5及び指標6の値をプロットしたものである。図14(a)によれば、指標5の値が0.5より大きい場合、ストロボ撮影シーンが多く、指標5の値が0.5以下で、指標6の値が−0.5より大きい場合、逆光シーンが多く、指標5の値が0.5以下で、指標6の値が−0.5以下の場合、順光シーンが多いことがわかる。このように指標5及び指標6の値により撮影シーンを定量的に判別することができる。
Next, a method for determining light distribution conditions in step S33 of FIG. 10 will be described.
In FIG. 14A, 60 images are taken under each light source condition of forward light, backlight, and strobe, and
図14(b)は、ストロボ撮影シーンとアンダー撮影シーンの撮影画像各60枚のうち、指標5が0.5より大きい画像の指標4及び指標5を算出し、プロットしたものである。図14(b)によれば、指標4の値が0より大きい場合、ストロボ撮影シーンが多く、指標4の値が0以下の場合、アンダー撮影シーンが多いことがわかる。
FIG. 14B is a graph in which
次に、図15及び図16のフローチャートを参照して、現状のニューロ(以下、旧ニューロという。)を、学習実施後のニューロ(以下、新ニューロという。)に置き換えるニューロ置換処理について説明する。本実施の形態では、二通りのニューロ置換処理について説明する。 Next, with reference to the flowcharts of FIGS. 15 and 16, a neuro replacement process for replacing the current neuro (hereinafter referred to as an old neuro) with a post-learning neuro (hereinafter referred to as a new neuro) will be described. In this embodiment, two types of neuro replacement processing will be described.
まず、図15のフローチャートを参照して、ニューロ学習部7において実行されるニューロ置換処理1について説明する。
まず、新ニューロが取得され(ステップS61)、旧ニューロが取得される(ステップS62)。次いで、新ニューロ及び旧ニューロの出力結果の判定に用いる判定用画像情報が取得される(ステップS63)。
First, the neuro replacement process 1 executed in the
First, a new neuro is acquired (step S61), and an old neuro is acquired (step S62). Next, determination image information used to determine the output results of the new neuron and the old neuron is acquired (step S63).
次いで、ステップS63で取得された判定用画像情報について、新ニューロを用いて、各肌色領域に対して行った、肌色領域が顔候補領域であるか否かの判定結果が取得されるとともに、旧ニューロを用いて同様に判定結果が取得され、新ニューロと旧ニューロから出力された顔判定結果の差分情報が取得される(ステップS64)。肌色領域が顔候補領域であるか否かの判定結果は、上述したニューロの出力値であり、0〜1の連続値で示される。 Next, with respect to the image information for determination acquired in step S63, a determination result as to whether or not the skin color region is a face candidate region, which is performed on each skin color region using the new neuro, is acquired. The determination result is similarly acquired using the neuro, and the difference information between the face determination results output from the new neuro and the old neuro is acquired (step S64). The determination result of whether or not the skin color area is a face candidate area is the above-described neuro output value, and is indicated by a continuous value of 0 to 1.
次いで、過去所定シーン数の差分情報の平均値が算出され(ステップS65)、前回までに算出された平均値と、今回算出された平均値とが比較され(ステップS66)、差分情報の平均値の変化量が収斂したか否かが判定される(ステップS67)。 Next, an average value of difference information for a predetermined number of past scenes is calculated (step S65), and the average value calculated up to the previous time is compared with the average value calculated this time (step S66). It is determined whether or not the amount of change has converged (step S67).
ステップS67において、差分情報の平均値の変化量が収斂していないと判定された場合(ステップS67;NO)、旧ニューロの顔判定結果を新ニューロの出力信号の望ましい値とした教師データを用いて、新ニューロの学習が実施される(ステップS68)。そして、ステップS68の学習実施により微修正された新ニューロがセットされ(ステップS69)、ステップS63に戻り、このセットされた新ニューロについて、ステップS63〜S67の処理が繰り返される。 In step S67, when it is determined that the change amount of the average value of the difference information is not converged (step S67; NO), the teacher data using the old neuro face determination result as the desired value of the output signal of the new neuro is used. Thus, the new neuro learning is performed (step S68). Then, a new neuro that is finely corrected by the execution of learning in step S68 is set (step S69), and the process returns to step S63, and the processes of steps S63 to S67 are repeated for the set new neuro.
ステップS67において、差分情報の平均値の変化量が収斂したと判定された場合(ステップS67;YES)、旧ニューロが新ニューロに置き換えられ(ステップS70)、本ニューロ置換処理1が終了する。 In step S67, when it is determined that the amount of change in the average value of the difference information has converged (step S67; YES), the old neuro is replaced with the new neuro (step S70), and the present neuro replacement process 1 ends.
次に、図16のフローチャートを参照して、ニューロ学習部7において実行されるニューロ置換処理2について説明する。
まず、新ニューロが取得され(ステップS71)、旧ニューロが取得される(ステップS72)。次いで、新ニューロ及び旧ニューロの出力結果の判定に用いる判定用画像情報が取得される(ステップS73)。
Next, the
First, a new neuro is acquired (step S71), and an old neuro is acquired (step S72). Next, determination image information used to determine the output results of the new neuron and the old neuron is acquired (step S73).
次いで、ステップS73で取得された判定用画像情報について、新ニューロを用いて顔判定結果が取得されるとともに、旧ニューロを用いて顔判定結果が取得される(ステップS74)。 Next, for the determination image information acquired in step S73, a face determination result is acquired using the new neuron, and a face determination result is acquired using the old neuron (step S74).
次いで、旧ニューロの顔判定結果に基づいて、撮影画像上に顔候補領域が表示された画像が表示部10に表示される(ステップS75)。 Next, based on the old neuro face determination result, an image in which the face candidate area is displayed on the captured image is displayed on the display unit 10 (step S75).
次いで、オペレータが、表示部10に表示された顔候補領域表示画像を観察し、顔領域であるか否かの判断に修正が必要であると判断した場合、指示入力部9の操作により、正しい顔判定の判断(正解値)を入力し、オペレータが判断した正解値が取得される(ステップS76)。
Next, when the operator observes the face candidate area display image displayed on the
次いで、正解値と旧ニューロの顔判定結果との差分値(第1差分値)が算出される(ステップS77)。
(第1差分値)=(正解値)−(旧ニューロの顔判定結果)
Next, a difference value (first difference value) between the correct answer value and the old neuro face determination result is calculated (step S77).
(First difference value) = (correct value) − (old neuro face determination result)
また、正解値と新ニューロの顔判定結果との差分値(第2差分値)が算出される(ステップS78)。
(第2差分値)=(正解値)−(新ニューロの顔判定結果)
Also, a difference value (second difference value) between the correct answer value and the new neuro face determination result is calculated (step S78).
(Second difference value) = (correct value) − (new neuro face determination result)
次いで、過去所定シーン数の第1差分値及び第2差分値の平均値が算出され、第1差分値の平均値が第2差分値の平均値より大きいか否かが判定される(ステップS79)。 Next, an average value of the first difference value and the second difference value of the past predetermined number of scenes is calculated, and it is determined whether or not the average value of the first difference value is larger than the average value of the second difference value (step S79). ).
ステップS79において、第1差分値の平均値が第2差分値の平均値以下であると判定された場合(ステップS79;NO)、正解値を新ニューロの出力信号の望ましい値とした教師データを用いて、新ニューロの学習が実施される(ステップS80)。そして、ステップS80の学習実施により微修正された新ニューロがセットされ(ステップS81)、ステップS73に戻り、このセットされた新ニューロについて、ステップS73〜S79の処理が繰り返される。 In step S79, when it is determined that the average value of the first difference value is equal to or less than the average value of the second difference value (step S79; NO), the teacher data having the correct value as a desired value of the output signal of the new neuron is obtained. In this way, new neuro learning is performed (step S80). Then, a new neuro that is finely corrected by the execution of learning in step S80 is set (step S81), and the process returns to step S73, and the processes in steps S73 to S79 are repeated for the set new neuro.
ステップS79において、第1の補正値の平均値が第2の補正値の平均値より大きいと判定された場合(ステップS79;YES)、旧ニューロが新ニューロに置き換えられ(ステップS82)、本ニューロ置換処理2が終了する。
If it is determined in step S79 that the average value of the first correction value is greater than the average value of the second correction value (step S79; YES), the old neuron is replaced with the new neuron (step S82), and the current neuron The
ニューロ置換処理2においては、ステップS75,S76を省略し、ステップS77,S78で用いる正解値として予め用意された値を用いることにより、自動処理が可能となる。
In the
なお、図15のニューロ置換処理1と図16のニューロ置換処理2を連結した処理を実行するようにしてもよい。この場合、図15のステップS67において、差分情報の平均値の変化量が収斂したら(ステップS67;YES)、図16のニューロ置換処理2に移行し、ニューロ置換処理2では、新ニューロとして、ニューロ置換処理1で学習済みの新ニューロが取得される。このように、ニューロ置換処理1とニューロ置換処理2を組み合わせると、ニューロ置換処理1で高速に大体の学習を終了し、ニューロ置換処理2では、僅かな量の、より高度な学習を実施すればよいため、ニューロ置換時の高度な学習を短時間で実施することができる。
Note that a process obtained by connecting the neuro replacement process 1 in FIG. 15 and the
また、図15のニューロ置換処理1のステップS67において、差分情報の平均値の変化量が収斂しない場合(ステップS67;NO)、または、図16のニューロ置換処理2のステップS79において、第1差分値の平均値が第2差分値の平均値以下であると判定された場合に(ステップS79;NO)、旧ニューロから新ニューロへ置き換えずに、図5の処理をさらに進めることとしてもよい。
Further, when the change amount of the average value of the difference information does not converge in step S67 of the neuro replacement process 1 in FIG. 15 (step S67; NO), or in step S79 of the
また、図15のニューロ置換処理1又は図16のニューロ置換処理2は、オペレータがランニングしている間に行ってもよいが、処理が重くなるおそれがあるため、夜間等にまとめて処理することとしてもよい。
Further, the neuro replacement process 1 in FIG. 15 or the
以上説明したように、第1の実施の形態の画像処理システム100,200によれば、オペレータによる顔領域の選択結果に基づいてニューロの学習を実施し、学習されたニューロの学習結果が所定の条件を満たす場合に、学習結果をニューロに反映させるので、ランニングする環境に応じて、顔候補領域抽出処理の抽出条件を自動的に最適化することにより、顔候補領域抽出処理の精度を向上させることができる。
As described above, according to the
[第2の実施の形態]
次に、本発明を適用した第2の実施の形態について説明する。
第2の実施の形態に示す画像処理システムにおいて、第1の実施の形態に示した画像処理システム100,200と同一の構成部分については同一の符号を付し、その構成については図示及び説明を省略する。以下、第2の実施の形態に特徴的な構成及び処理について説明する。
[Second Embodiment]
Next, a second embodiment to which the present invention is applied will be described.
In the image processing system shown in the second embodiment, the same components as those in the
画像判定部5は、画像情報取得部4から取得された画像情報から各種の特性値を算出し、算出された特性値を入力信号とし、顔らしさを示す値を出力信号とする第1のニューロをニューロ学習部7から取得し、当該第1のニューロを用いて顔候補領域を抽出する。第1のニューロが第1のニューロとは異なる構成を有する第2のニューロに置き換えられた後には、画像判定部5は、第2のニューロをニューロ学習部7から取得し、第2のニューロを用いて顔候補領域を抽出する。ここで、異なる構成とは、中間層の数が異なる場合や、入力パラメータの数や種類が異なる場合を含む。
The
ニューロ学習部7は、教師データ記憶部6に記憶された顔領域であるか否かの情報を教師データとして、第1のニューロとは異なる構成の第2のニューロの学習を実施する。さらに、ニューロ学習部7は、第1のニューロを、第2のニューロに置き換えるニューロ置換処理を実行する。
The neuro-
次に、第2の実施の形態における動作について説明する。
まず、図17のフローチャートを参照して、第2の実施の形態の画像処理システムにおいて実行される画像処理全体の流れを説明する。
Next, the operation in the second embodiment will be described.
First, the flow of the entire image processing executed in the image processing system according to the second embodiment will be described with reference to the flowchart of FIG.
まず、画像情報取得部4に入力された画像情報が取得される(ステップS91)。次いで、画像判定部5において、ステップS91で取得された入力画像情報から、肌色領域が抽出される(ステップS92)。
First, the image information input to the image
肌色領域が抽出されると、肌色領域の各種特性値が算出される。そして、各特性値を入力信号として、人物の顔候補領域抽出処理を学習した第1のニューロを用いることにより、当該抽出された肌色領域が顔候補領域であるか否かを判定する第1のニューロ判定処理が行われる(ステップS93)。 When the skin color area is extracted, various characteristic values of the skin color area are calculated. Then, by using each characteristic value as an input signal and using the first neuron learned from the human face candidate area extraction process, it is determined whether or not the extracted skin color area is a face candidate area. A neuro determination process is performed (step S93).
次に、ステップS91で取得された入力画像情報が表示部10に表示され、その画像上に、抽出された顔候補領域が他の領域と明確に区別できるように強調して表示される(ステップS94)。
Next, the input image information acquired in step S91 is displayed on the
次に、オペレータは、表示部10に表示された補正対象画像上の顔候補領域が顔領域であるか否かを判断し、指示入力部9を介して、顔候補領域から顔領域を選択する(ステップS95)。
Next, the operator determines whether the face candidate area on the correction target image displayed on the
次に、画像処理部8により、少なくとも選択された顔領域について所定の補正処理が施され、補正画像が生成される(ステップS96)。
Next, a predetermined correction process is performed on at least the selected face area by the
画像情報が入力される度にステップS91〜ステップS96の処理が行われ、ステップS95において選択された顔領域の選択結果が教師データとして教師データ記憶部6に蓄積される(ステップS97)。
Each time image information is input, the processing of steps S91 to S96 is performed, and the selection result of the face area selected in step S95 is accumulated in the teacher
教師データ記憶部6に蓄積された教師データの数が所定数を超えた場合、これらの教師データに基づいて第2のニューロの学習が実施される(ステップS98)。
When the number of teacher data accumulated in the teacher
ステップS98における学習結果が所定の条件を満たす場合には、第1のニューロが第2のニューロに置き換えらえる。
第1のニューロを第2のニューロに置き換える処理は、図15及び図16に示した処理と同様の処理であるため、説明を省略する。ただし、図15及び図16において「旧ニューロ」を「第1のニューロ」、「新ニューロ」を「第2のニューロ」と読み替えるものとする。
If the learning result in step S98 satisfies a predetermined condition, the first neuron can be replaced with the second neuron.
The process of replacing the first neuron with the second neuron is the same process as the process shown in FIGS. 15 and 16 and will not be described. However, in FIG. 15 and FIG. 16, “old neuro” is read as “first neuro” and “new neuro” is read as “second neuro”.
以上説明したように、第2の実施の形態の画像処理システムによれば、第1のニューロを用いた顔候補領域抽出処理により抽出された顔候補領域からオペレータが顔領域を選択した結果に基づいて、第2のニューロの学習を実施し、学習された第2のニューロの学習結果が所定の条件を満たす場合に、第1のニューロを第2のニューロに置き換えるので、ランニングする環境に応じて、第2のニューロを用いた顔候補領域抽出処理の抽出条件を自動的に最適化することにより、顔候補領域抽出処理の精度を向上させることができる。 As described above, according to the image processing system of the second embodiment, the operator selects a face area from the face candidate areas extracted by the face candidate area extraction process using the first neuron. Then, when the learning of the second neuro is performed and the learning result of the learned second neuro satisfies the predetermined condition, the first neuro is replaced with the second neuro, so depending on the running environment The accuracy of the face candidate area extraction process can be improved by automatically optimizing the extraction conditions of the face candidate area extraction process using the second neuron.
第2の実施の形態では、第1のニューロを第1のニューロとは異なる第2のニューロに置き換える場合について説明したが、顔候補領域抽出処理がテンプレートマッチング法を用いたものの場合には、テンプレートの大きさを変えたり、テンプレートの構成を変えたり(例えば、目と口のテンプレートを目と口と眉にする等)して、顔候補領域抽出処理の構成を変えればよい。 In the second embodiment, the case where the first neuron is replaced with a second neuron different from the first neuron has been described. However, in the case where the face candidate region extraction process uses a template matching method, a template is used. And the configuration of the face candidate area extraction process may be changed by changing the size of the template or changing the configuration of the template (for example, changing the template of the eyes and mouth to the eyes, mouth, and eyebrows).
[第3の実施の形態]
次に、本発明を適用した第3の実施の形態について説明する。
第3の実施の形態に示す画像処理システムにおいて、第1の実施の形態に示した画像処理システム100,200と同一の構成部分については同一の符号を付し、その構成については図示及び説明を省略する。以下、第3の実施の形態に特徴的な構成及び処理について説明する。
[Third Embodiment]
Next, a third embodiment to which the present invention is applied will be described.
In the image processing system shown in the third embodiment, the same components as those in the
画像判定部5は、所定の領域抽出処理により、画像情報取得部4により取得された画像情報から顔候補領域を抽出する。ニューロ判定処理が導入された後には、画像判定部5は、ニューロ学習部7からニューロを取得し、ニューロを用いて顔候補領域を抽出する。
The
ニューロ学習部7は、教師データ記憶部6に記憶された顔領域であるか否かの情報を教師データとしてニューロの学習を実施する。さらに、ニューロ学習部7は、学習結果を反映したニューロを用いたニューロ判定処理を導入する。
The neuro-
次に、第3の実施の形態における動作について説明する。
まず、図18のフローチャートを参照して、第3の実施の形態の画像処理システムにおいて実行される画像処理全体の流れを説明する。
Next, the operation in the third embodiment will be described.
First, the flow of the entire image processing executed in the image processing system according to the third embodiment will be described with reference to the flowchart of FIG.
まず、画像情報取得部4に入力された画像情報が取得される(ステップS101)。次いで、画像判定部5において、ステップS101で取得された入力画像情報から、肌色領域が抽出される(ステップS102)。
First, the image information input to the image
肌色領域が抽出されると、肌色領域の各種特性値が算出される。そして、所定の領域抽出処理により、各特性値に基づいて、人物の顔候補領域抽出処理が行われる(ステップS103)。 When the skin color area is extracted, various characteristic values of the skin color area are calculated. Then, a human face candidate area extraction process is performed based on each characteristic value by a predetermined area extraction process (step S103).
次に、ステップS101で取得された入力画像情報が表示部10に表示され、その画像上に、抽出された顔候補領域が他の領域と明確に区別できるように強調して表示される(ステップS104)。
Next, the input image information acquired in step S101 is displayed on the
次に、オペレータは、表示部10に表示された補正対象画像上の顔候補領域が顔領域であるか否かを判断し、指示入力部9を介して、顔候補領域から顔領域を選択する(ステップS105)。
Next, the operator determines whether the face candidate area on the correction target image displayed on the
次に、画像処理部8により、少なくとも選択された顔領域について所定の補正処理が施され、補正画像が生成される(ステップS106)。
Next, a predetermined correction process is performed on at least the selected face area by the
画像情報が入力される度にステップS101〜ステップS106の処理が行われ、ステップS105において選択された顔領域の選択結果が教師データとして教師データ記憶部6に蓄積される(ステップS107)。
Each time image information is input, the processing of step S101 to step S106 is performed, and the selection result of the face area selected in step S105 is accumulated in the teacher
教師データ記憶部6に蓄積された教師データの数が所定数を超えた場合、これらの教師データに基づいてニューロの学習が実施される(ステップS108)。
When the number of teacher data stored in the teacher
ステップS108における学習結果が所定の条件を満たす場合には、ステップS103の顔候補領域抽出処理に、学習結果を反映したニューロによる顔候補領域抽出処理(ニューロ判定処理)が導入される。
学習結果を反映したニューロ判定処理を導入する処理は、図15及び図16に示した処理と同様の処理であるが、この処理においては、旧ニューロに相当するものがないため、旧ニューロの顔判定結果を、予め設定された定数として実行すればよい。
When the learning result in step S108 satisfies a predetermined condition, a neuro candidate face extraction process (neuro determination process) reflecting the learning result is introduced into the face candidate area extraction process in step S103.
The process of introducing the neuro-determination process reflecting the learning result is the same as the process shown in FIG. 15 and FIG. 16, but in this process there is nothing equivalent to the old neuro, so the face of the old neuro The determination result may be executed as a preset constant.
以上説明したように、第3の実施の形態に示す画像処理システムによれば、顔候補領域抽出処理により抽出された顔候補領域からオペレータが顔領域を選択した結果に基づいて、ニューロの学習を実施し、学習されたニューロの学習結果が所定の条件を満たす場合に、学習結果を反映したニューロによる顔候補領域抽出処理を導入するので、ランニングする環境に応じて、顔候補領域抽出処理の抽出条件を自動的に最適化することにより、顔候補領域抽出処理の精度を向上させることができる。 As described above, according to the image processing system shown in the third embodiment, neuro learning is performed based on the result of the operator selecting a face area from the face candidate areas extracted by the face candidate area extraction process. When a learned neurolearning result is implemented and meets a predetermined condition, a face candidate region extraction process using the neuron reflecting the learning result is introduced, so the extraction of the face candidate region extraction process is performed according to the running environment By automatically optimizing the conditions, the accuracy of the face candidate area extraction process can be improved.
[第4の実施の形態]
次に、本発明を適用した第4の実施の形態について説明する。
第4の実施の形態に示す画像処理システムにおいて、第1の実施の形態に示した画像処理システム100,200と同一の構成部分については同一の符号を付し、その構成については図示及び説明を省略する。以下、第4の実施の形態に特徴的な構成及び処理について説明する。
[Fourth Embodiment]
Next, a fourth embodiment to which the present invention is applied will be described.
In the image processing system shown in the fourth embodiment, the same components as those in the
画像判定部5は、画像情報取得部4から取得された画像情報から各種の特性値を算出し、算出された特性値を入力信号とし、顔らしさを示す値を出力信号とするニューロ(以下、顔判定ニューロという。)をニューロ学習部7から取得し、顔判定ニューロを用いて顔候補領域を抽出する。また、画像判定部5は、画像情報から算出された特性値、及び顔判定ニューロの判定結果を入力信号とし、画像情報を階調変換するための階調補正パラメータを出力信号とするニューロ(以下、補正ニューロという。)をニューロ学習部7から取得し、補正ニューロを用いて階調補正パラメータを算出する。
The
ニューロ学習部7は、教師データ記憶部6に記憶された顔領域であるか否かの情報を教師データとして顔判定ニューロの学習を実施する。さらに、ニューロ学習部7は、教師データ記憶部6に記憶された追加補正値(補正量)を教師データとして補正ニューロの学習を実施する。
The neuro-
次に、第4の実施の形態における動作について説明する。
まず、図19のフローチャートを参照して、第4の実施の形態の画像処理システムにおいて実行される画像処理全体の流れを説明する。
Next, the operation in the fourth embodiment will be described.
First, an overall flow of image processing executed in the image processing system according to the fourth embodiment will be described with reference to the flowchart of FIG.
まず、画像情報取得部4に入力された画像情報が取得される(ステップS111)。次いで、画像判定部5において、ステップS111で取得された入力画像情報から、肌色領域が抽出される(ステップS112)。
First, the image information input to the image
肌色領域が抽出されると、肌色領域の各種特性値が算出される。そして、各特性値を入力信号として、人物の顔候補領域抽出処理を学習した顔判定ニューロを用いることにより、当該抽出された肌色領域が顔候補領域であるか否かを判定するニューロ判定処理が行われる(ステップS113)。 When the skin color area is extracted, various characteristic values of the skin color area are calculated. Then, by using the face determination neuron that learned the human face candidate area extraction process using each characteristic value as an input signal, a neuro determination process for determining whether or not the extracted skin color area is a face candidate area. Performed (step S113).
次に、ステップS111で取得された入力画像情報が表示部10に表示され、その画像上に、抽出された顔候補領域が表示される(ステップS114)。
Next, the input image information acquired in step S111 is displayed on the
次に、オペレータは、表示部10に表示された補正対象画像上の顔候補領域が顔領域であるか否かを判断し、指示入力部9を介して、顔候補領域から顔領域を選択する(ステップS115)。
Next, the operator determines whether the face candidate area on the correction target image displayed on the
画像情報が入力される度にステップS111〜ステップS115の処理が行われ、ステップS115において選択された顔領域の選択結果が教師データとして教師データ記憶部6に蓄積される(ステップS116)。 Each time image information is input, the processes of steps S111 to S115 are performed, and the selection result of the face area selected in step S115 is accumulated as teacher data in the teacher data storage unit 6 (step S116).
教師データ記憶部6に蓄積された教師データの数が所定数を超えた場合、これらの教師データに基づいて顔判定ニューロの学習が実施される(ステップS117)。
When the number of teacher data stored in the teacher
ステップS117における学習結果が所定の条件を満たす場合に、学習結果が顔判定ニューロに反映される。 When the learning result in step S117 satisfies a predetermined condition, the learning result is reflected in the face determination neuron.
ステップS115の後、画像情報から算出された特性値、ステップS113のニューロ判定処理における判定結果を入力信号(入力パラメータ)とし、階調補正パラメータを出力信号とした補正ニューロを用いて階調補正パラメータが算出される(ステップS118)。階調補正パラメータは、階調補正処理における補正強度を示している。入力パラメータとしては、画像の大きさ、解像度、種々の統計値等があるが、顔の抽出結果(自動抽出又はオペレータの選択結果)が含まれることが好ましい。 After step S115, the tone correction parameter is calculated using the correction value using the characteristic value calculated from the image information and the determination result in the neuro determination process of step S113 as the input signal (input parameter) and the tone correction parameter as the output signal. Is calculated (step S118). The tone correction parameter indicates the correction strength in the tone correction process. Input parameters include image size, resolution, various statistical values, and the like, but preferably include face extraction results (automatic extraction or operator selection results).
図20は、補正ニューロの出力信号である階調補正パラメータが、明るさ補正パラメータ及びコントラスト補正パラメータである場合を示している。図1に示す画像処理システム100の場合、補正ニューロにより算出された明るさ補正パラメータにより、シャッタの開閉時間が制御される。また、図2に示す画像処理システム200の場合は、補正ニューロにより算出された明るさ補正パラメータ及び/又はコントラスト補正パラメータに基づいて、信号値変換特性の制御がなされ、画像情報の階調補正が施される。
FIG. 20 shows a case where the gradation correction parameters that are output signals of the correction neuron are the brightness correction parameter and the contrast correction parameter. In the case of the
なお、補正ニューロで算出された階調補正パラメータは、明るさ補正パラメータ、コントラスト補正パラメータのいずれか一方又は他の階調補正パラメータであってもよく、出力される階調補正パラメータの数に従って、出力層のニューロンの個数が調整される。 Note that the gradation correction parameter calculated by the correction neuron may be either a brightness correction parameter, a contrast correction parameter, or another gradation correction parameter, and according to the number of gradation correction parameters to be output, The number of neurons in the output layer is adjusted.
次いで、ステップS118で算出された階調補正パラメータに基づいて、入力画像情報に対する補正値が設定され(ステップS119)、その設定された補正値に基づいて入力画像情報に補正処理を施すことにより、補正画像が作成される(ステップS120)。 Next, a correction value for the input image information is set based on the gradation correction parameter calculated in step S118 (step S119), and the input image information is corrected based on the set correction value, thereby performing a correction process. A corrected image is created (step S120).
次いで、ステップS120で作成された補正画像が表示部10に表示される(ステップS121)。オペレータは、表示部10に表示された補正画像を観察し、補正結果が良好であるか否かを目視判定し、その判定結果を指示入力部9により入力する。
Next, the corrected image created in step S120 is displayed on the display unit 10 (step S121). The operator observes the correction image displayed on the
目視判定による補正画像の補正結果が良好ではないという判断結果が入力された場合(ステップS122;NO)、追加補正があれば(ステップS123;YES)、オペレータによる指示入力部9の操作により追加補正値が入力され、ステップS119に戻り、その入力された追加補正値が設定され(ステップS119)、ステップS120〜S123の処理が繰り返される。
If a determination result indicating that the correction result of the corrected image by visual determination is not good is input (step S122; NO), and if there is additional correction (step S123; YES), additional correction is performed by operating the
目視判定による補正画像の補正結果が良好であるという判断結果が入力された場合(ステップS122;YES)、又は、ステップS123において追加補正がない場合には(ステップS123;NO)、本画像処理が終了する。 When a determination result indicating that the correction result of the corrected image by visual determination is good is input (step S122; YES), or when there is no additional correction in step S123 (step S123; NO), the main image processing is performed. finish.
また、階調補正パラメータと追加補正値の加算値が教師データとして教師データ記憶部6に蓄積される(ステップS124)。そして、蓄積された教師データの数が所定数を超えた場合、これらの教師データに基づいて補正ニューロの学習が実施され(ステップS125)、学習された補正ニューロを用いてステップS118の処理が行われる。ステップS125における学習は、定期的に行うようにしてもよい。 Further, the addition value of the gradation correction parameter and the additional correction value is accumulated as teacher data in the teacher data storage unit 6 (step S124). When the number of accumulated teacher data exceeds a predetermined number, learning of the correction neuron is performed based on these teacher data (step S125), and the process of step S118 is performed using the learned correction neuron. Is called. The learning in step S125 may be performed periodically.
以上説明したように、第4の実施の形態の画像処理システムによれば、オペレータによる顔領域の選択結果に基づいて顔判定ニューロの学習を実施し、学習された顔判定ニューロの学習結果が所定の条件を満たす場合に、学習結果を顔判定ニューロに反映させるので、顔候補領域抽出処理の精度を向上させることができる。 As described above, according to the image processing system of the fourth embodiment, learning of the face determination neuro is performed based on the selection result of the face area by the operator, and the learning result of the learned face determination neuro is predetermined. When the above condition is satisfied, the learning result is reflected in the face determination neuron, so that the accuracy of the face candidate area extraction process can be improved.
また、オペレータにより指示された追加補正値を補正ニューロの教師データとして学習し、この学習した補正ニューロを用いて画像情報を補正するようにしたため、ランニングする環境に応じて、補正強度算出処理(階調補正パラメータ算出処理)の精度を向上させることができ、オペレータの嗜好に合った画像を得ることができる。 Further, since the additional correction value instructed by the operator is learned as teacher data of the correction neuron, and the image information is corrected using the learned correction neuron, the correction intensity calculation process (steps) is performed according to the running environment. The accuracy of the tone correction parameter calculation process) can be improved, and an image suitable for the operator's preference can be obtained.
また、顔判定ニューロと補正ニューロについて、1回のオペレーティングで教師データを取得し、個々に学習性能を上げることができる。 In addition, for the face determination neuron and the correction neuron, it is possible to acquire the teacher data by one operation and individually improve the learning performance.
なお、第4の実施の形態では、図19に示す処理の前半部分が第1の実施の形態の図5に示した処理と同様の場合について説明したが、図19の処理の前半部分を行う代わりに、第2の実施の形態の図17に示した処理、又は第3の実施の形態の図18に示した処理を行うこととしてもよい。 In the fourth embodiment, the case where the first half of the process shown in FIG. 19 is the same as the process shown in FIG. 5 of the first embodiment has been described. However, the first half of the process shown in FIG. 19 is performed. Instead, the process shown in FIG. 17 of the second embodiment or the process shown in FIG. 18 of the third embodiment may be performed.
また、第4の実施の形態では、補正処理の例として、画像の明るさやコントラストをコントロールする階調補正処理を行う場合について説明したが、色補正処理、ノイズ除去処理、シャープネス補正処理、顔の大きさや顔の位置を適正にする拡縮処理やトリミング処理等を行うこととしてもよい。 In the fourth embodiment, as an example of correction processing, the case of performing gradation correction processing for controlling the brightness and contrast of an image has been described. However, color correction processing, noise removal processing, sharpness correction processing, face correction processing, and the like are described. Enlargement / reduction processing, trimming processing, or the like for making the size and face position appropriate may be performed.
なお、上記各実施の形態における記述は、本発明に係る画像処理システムの例であり、これに限定されるものではない。システムを構成する各部の細部構成及び細部動作に関しても本発明の趣旨を逸脱することのない範囲で適宜変更可能である。 The descriptions in the above embodiments are examples of the image processing system according to the present invention, and the present invention is not limited to this. The detailed configuration and detailed operation of each part constituting the system can be changed as appropriate without departing from the spirit of the present invention.
図21に、物理的に独立した複数の装置から構成される画像処理システム300の構成を示す。画像処理システム300は、図21に示すように、画像入力装置30、画像処理装置31、画像出力装置32、システム制御装置33、通信制御部15により構成される。なお、図21において、図2の画像処理装置200と同一の構成要素には同一の符号を付し、機能が同一の構成要素については、その機能説明を省略する。
FIG. 21 shows a configuration of an
画像入力装置30は、画像情報取得部4、DSC12、原稿スキャナ13、記録メディアドライバ14により構成される。
The
画像処理装置31は、画像判定部5、教師データ記憶部6、ニューロ学習部7、指示入力部9、表示部10、縮小画像作成部11、画像処理部34により構成される。
The
画像判定部5は、画像情報から各種の特性値を算出し、算出された特性値を入力信号とし、顔らしさを示す値を出力信号とする顔判定ニューロをニューロ学習部7から取得し、顔判定ニューロを用いて顔候補領域を抽出する。また、画像判定部5は、画像情報から算出された特性値、顔判定結果を入力信号とし、画像情報を階調変換するための階調補正パラメータを出力信号とする補正ニューロをニューロ学習部7から取得し、補正ニューロを用いて階調補正パラメータを算出する。
The
画像処理部34は、画像判定部5で抽出された顔候補領域、及び指示入力部9により入力された顔領域であるか否かの情報、画像判定部5で算出された階調補正パラメータ及び/又は指示入力部9から入力された追加補正値に基づいて、補正対象の画像情報を補正処理することによって補正画像を作成し、作成された補正画像を表示部10に出力する。
The
画像出力装置32は、画像情報出力部16、プリンタ部17、記録メディア書き込み部18、画像処理部35により構成される。画像処理部35は、システム制御装置33から入力された制御信号に従って、画像判定部5で算出された階調補正パラメータ及び/又は指示入力部9から入力された追加補正値に基づいて、指定された出力先に出力するための階調変換を行って補正画像を作成し、作成された補正画像を画像情報出力部16に出力する。
The
システム制御装置33は、通信制御部15、画像入力装置30、画像処理装置31、画像出力装置32における各種処理を統括的に制御する。
The
なお、画像入力装置30、画像処理装置31、画像出力装置32の各々は、必要に応じて複数配置されていてもよい。例えば、システム全体の画像処理能力に対し、画像入力装置30の処理能力が劣る場合には、画像入力装置30を複数配置し、システム制御装置33の制御により並列動作させることができる。
Note that a plurality of the
上記各実施の形態では、学習によって抽出条件が決定される顔候補領域抽出処理として、ニューラルネットワークを用いた顔候補領域抽出処理を用いたが、ニューラルネットワークは、判定の対象となるデータの特性を学習によって判定条件に反映する代表的な方法の1つであり、好ましい。ニューラルネットワークには、上記各実施の形態で説明した階層型ニューラルネットワークや、非階層型ニューラルネットワーク(競合学習型ベクトル量子化ニューラルネットワーク等。競合学習の一例はコホーネンの自己組織化等。)等、種々の方法があり、本発明に適用することができる。 In each of the above embodiments, the face candidate area extraction process using a neural network is used as the face candidate area extraction process in which the extraction condition is determined by learning. The neural network uses the characteristics of data to be determined. This is one of the typical methods of reflecting the determination conditions by learning, which is preferable. As the neural network, the hierarchical neural network described in each of the above embodiments, the non-hierarchical neural network (competitive learning type vector quantization neural network, etc., an example of competitive learning is Kohonen's self-organization, etc.), etc. There are various methods that can be applied to the present invention.
その他、学習によって抽出条件が決定される顔候補領域抽出処理として、当業界で知られる種々の方法を用いることができる。例えば、抽出した領域(肌色領域)の特徴パラメータを、予め設けた閾値に対する大小で顔か否かの判定をする方法を本発明に適用することも可能である。具体的には、あるパラメータの顔と顔でない入力データを個々に出現頻度ヒストグラム化し、判別基準法等の統計的方法を用いて閾値を決定し、その閾値を用いたときの正答率を判定して賢くなっていれば更新する。パラメータは、ニューロの入力パラメータで使われているようなデータでもよいし、入力パラメータで使われているようなデータから二次的に算出されるマハラノビスの距離等の統計値でもよい。他にも、判別分析や主成分分析等の多変量解析の統計的方法を適用することも可能である。 In addition, various methods known in the art can be used as face candidate region extraction processing in which extraction conditions are determined by learning. For example, it is also possible to apply to the present invention a method for determining whether a feature parameter of an extracted region (skin color region) is a face based on a predetermined threshold value. Specifically, face and non-face input data of a certain parameter are individually made into appearance frequency histograms, threshold values are determined using a statistical method such as a discrimination criterion method, and the correct answer rate when using the threshold values is determined. Update if you are smarter. The parameters may be data such as those used in neuro input parameters, or may be statistical values such as Mahalanobis distances that are secondarily calculated from data such as those used in input parameters. In addition, statistical methods of multivariate analysis such as discriminant analysis and principal component analysis can be applied.
1 光源部
2 撮像部
3 露光制御部
4 画像情報取得部
5 画像判定部
6 教師データ記憶部
7 ニューロ学習部
8 画像処理部
9 指示入力部
10 表示部
11 縮小画像作成部
12 DSC
13 原稿スキャナ
14 記録メディアドライバ
15 通信制御部
16 画像情報出力部
17 プリンタ部
18 記録メディア書き込み部
21 補正対象画像
22a,22b,22c 顔候補領域
30 画像入力装置
31 画像処理装置
32 画像出力装置
33 システム制御装置
34,35 画像処理部
100,200,300 画像処理システム
N 通信ネットワーク
DESCRIPTION OF SYMBOLS 1
13
Claims (36)
学習によって抽出条件が決定される顔候補領域抽出処理により前記画像情報から顔候補領域を抽出する顔候補領域抽出手段と、
前記表示手段に表示される画像上に前記抽出された顔候補領域を表示させる表示制御手段と、
オペレータが前記表示された顔候補領域から顔領域を選択するための顔領域選択手段と、
少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正手段と、
前記選択結果に基づいて、前記顔候補領域抽出処理の学習を実施する学習手段と、
を備えたことを特徴とする画像処理システム。 Display means for displaying an image based on the acquired image information;
Face candidate region extraction means for extracting a face candidate region from the image information by face candidate region extraction processing in which an extraction condition is determined by learning;
Display control means for displaying the extracted face candidate area on an image displayed on the display means;
A face area selection means for an operator to select a face area from the displayed face candidate areas;
Image correction means for performing a predetermined correction process on at least the selected face area and generating a corrected image;
Learning means for performing learning of the face candidate area extraction process based on the selection result;
An image processing system comprising:
前記学習された顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、当該学習結果を前記顔候補領域抽出処理に反映させる反映手段を備えたことを特徴とする画像処理システム。 The image processing system according to claim 1,
An image processing system comprising: a reflecting unit configured to reflect a learning result in the face candidate region extraction process when a learning result of the learned face candidate region extraction process satisfies a predetermined condition.
前記顔候補領域抽出処理は、ニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする画像処理システム。 The image processing system according to claim 1 or 2,
The face candidate area extraction process is a face candidate area extraction process using a neural network.
学習によって抽出条件が決定される第1の顔候補領域抽出処理により前記画像情報から顔候補領域を抽出する顔候補領域抽出手段と、
前記表示手段に表示される画像上に前記抽出された顔候補領域を表示させる表示制御手段と、
オペレータが前記表示された顔候補領域から顔領域を選択するための顔領域選択手段と、
少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正手段と、
前記選択結果に基づいて、前記第1の顔候補領域抽出処理とは異なる構成を有し、学習によって抽出条件が決定される第2の顔候補領域抽出処理の学習を実施する学習手段と、
を備えたことを特徴とする画像処理システム。 Display means for displaying an image based on the acquired image information;
Face candidate region extraction means for extracting a face candidate region from the image information by a first face candidate region extraction process in which an extraction condition is determined by learning;
Display control means for displaying the extracted face candidate area on an image displayed on the display means;
A face area selection means for an operator to select a face area from the displayed face candidate areas;
Image correction means for performing a predetermined correction process on at least the selected face area and generating a corrected image;
Learning means for performing learning of a second face candidate area extraction process having an arrangement different from that of the first face candidate area extraction process based on the selection result, wherein an extraction condition is determined by learning;
An image processing system comprising:
前記学習された第2の顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、前記第1の顔候補領域抽出処理を当該第2の顔候補領域抽出処理に置き換える置換手段を備えたことを特徴とする画像処理システム。 The image processing system according to claim 4,
When a learning result of the learned second face candidate area extraction process satisfies a predetermined condition, a replacement unit is provided that replaces the first face candidate area extraction process with the second face candidate area extraction process. An image processing system characterized by that.
前記第1の顔候補領域抽出処理は、第1のニューラルネットワークを用いた顔候補領域抽出処理であって、
前記第2の顔候補領域抽出処理は、前記第1のニューラルネットワークとは異なる構成を有する第2のニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする画像処理システム。 The image processing system according to claim 4 or 5,
The first face candidate area extraction process is a face candidate area extraction process using a first neural network,
2. The image processing system according to claim 1, wherein the second face candidate area extraction process is a face candidate area extraction process using a second neural network having a configuration different from that of the first neural network.
所定の領域抽出処理により前記画像情報から顔候補領域を抽出する顔候補領域抽出手段と、
前記表示手段に表示される画像上に前記抽出された顔候補領域を表示させる表示制御手段と、
オペレータが前記表示された顔候補領域から顔領域を選択するための顔領域選択手段と、
少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正手段と、
前記選択結果に基づいて、学習によって抽出条件が決定される顔候補領域抽出処理の学習を実施する学習手段と、
を備えたことを特徴とする画像処理システム。 Display means for displaying an image based on the acquired image information;
Face candidate area extraction means for extracting a face candidate area from the image information by a predetermined area extraction process;
Display control means for displaying the extracted face candidate area on an image displayed on the display means;
A face area selection means for an operator to select a face area from the displayed face candidate areas;
Image correction means for performing a predetermined correction process on at least the selected face area and generating a corrected image;
Learning means for performing learning of a face candidate region extraction process in which an extraction condition is determined by learning based on the selection result;
An image processing system comprising:
前記学習された顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、当該学習結果を反映した顔候補領域抽出処理を導入する導入手段を備えたことを特徴とする画像処理システム。 The image processing system according to claim 7,
An image processing system comprising: an introduction unit that introduces a face candidate area extraction process that reflects the learning result when a learning result of the learned face candidate area extraction process satisfies a predetermined condition.
前記顔候補領域抽出処理は、ニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする画像処理システム。 The image processing system according to claim 7 or 8,
The face candidate area extraction process is a face candidate area extraction process using a neural network.
前記学習手段は、顔であるか否かの判定対象となる顔候補領域の大きさに応じて、学習を実施することを特徴とする画像処理システム。 In the image processing system according to any one of claims 1 to 9,
The image processing system according to claim 1, wherein the learning unit performs learning according to a size of a face candidate region that is a determination target of whether or not the face is a face.
前記学習手段は、前記画像が撮影された時の配光条件に応じて、学習を実施することを特徴とする画像処理システム。 In the image processing system according to any one of claims 1 to 10,
The image processing system according to claim 1, wherein the learning unit performs learning according to a light distribution condition when the image is captured.
学習によって抽出条件が決定される顔候補領域抽出処理により前記画像情報から顔候補領域を抽出する顔候補領域抽出手段と、
前記表示手段に表示される画像上に前記抽出された顔候補領域を表示させる表示制御手段と、
オペレータが前記表示された顔候補領域から顔領域を選択するための顔領域選択手段と、
前記選択結果に基づいて、前記顔候補領域抽出処理の学習を実施する第1の学習手段と、
学習によって算出条件が決定される補正強度算出処理により補正強度を算出する補正強度算出手段と、
前記算出された補正強度に基づいて前記画像情報に補正処理を施す補正処理手段と、
オペレータの指示に従って前記算出された補正強度を修正する補正強度修正手段と、
前記修正結果に基づいて、前記補正強度算出処理の学習を実施する第2の学習手段と、
を備えたことを特徴とする画像処理システム。 Display means for displaying an image based on the acquired image information;
Face candidate region extraction means for extracting a face candidate region from the image information by face candidate region extraction processing in which an extraction condition is determined by learning;
Display control means for displaying the extracted face candidate area on an image displayed on the display means;
A face area selection means for an operator to select a face area from the displayed face candidate areas;
First learning means for performing learning of the face candidate region extraction processing based on the selection result;
A correction strength calculation means for calculating a correction strength by a correction strength calculation process in which a calculation condition is determined by learning;
Correction processing means for performing correction processing on the image information based on the calculated correction strength;
Correction intensity correction means for correcting the calculated correction intensity in accordance with an operator instruction;
Second learning means for performing learning of the correction strength calculation processing based on the correction result;
An image processing system comprising:
前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示工程と、
オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択工程と、
少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正工程と、
前記選択結果に基づいて、前記顔候補領域抽出処理の学習を実施する学習工程と、
を含むことを特徴とする画像処理方法。 A face candidate region extraction step of extracting a face candidate region from image information by a face candidate region extraction process in which an extraction condition is determined by learning;
A display step of displaying an image on a display unit based on the image information, and displaying the extracted face candidate region on the image;
A face area selection step for allowing an operator to select a face area from the displayed face candidate areas;
An image correction step of performing a predetermined correction process on at least the selected face area to generate a corrected image;
A learning step of performing learning of the face candidate area extraction process based on the selection result;
An image processing method comprising:
前記学習された顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、当該学習結果を前記顔候補領域抽出処理に反映させることを特徴とする画像処理方法。 The image processing method according to claim 13.
When the learning result of the learned face candidate area extraction process satisfies a predetermined condition, the learning result is reflected in the face candidate area extraction process.
前記顔候補領域抽出処理は、ニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする画像処理方法。 The image processing method according to claim 13 or 14,
The face candidate area extraction process is a face candidate area extraction process using a neural network.
前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示工程と、
オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択工程と、
少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正工程と、
前記選択結果に基づいて、前記第1の顔候補領域抽出処理とは異なる構成を有し、学習によって抽出条件が決定される第2の顔候補領域抽出処理の学習を実施する学習工程と、
を含むことを特徴とする画像処理方法。 A face candidate region extraction step of extracting a face candidate region from image information by a first face candidate region extraction process in which an extraction condition is determined by learning;
A display step of displaying an image on a display unit based on the image information, and displaying the extracted face candidate region on the image;
A face area selection step for allowing an operator to select a face area from the displayed face candidate areas;
An image correction step of performing a predetermined correction process on at least the selected face area to generate a corrected image;
A learning step of performing learning of a second face candidate region extraction process having a configuration different from that of the first face candidate region extraction process based on the selection result, wherein an extraction condition is determined by learning;
An image processing method comprising:
前記学習された第2の顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、前記第1の顔候補領域抽出処理を当該第2の顔候補領域抽出処理に置き換えることを特徴とする画像処理方法。 The image processing method according to claim 16.
When the learning result of the learned second face candidate area extraction process satisfies a predetermined condition, the first face candidate area extraction process is replaced with the second face candidate area extraction process. Image processing method.
前記第1の顔候補領域抽出処理は、第1のニューラルネットワークを用いた顔候補領域抽出処理であって、
前記第2の顔候補領域抽出処理は、前記第1のニューラルネットワークとは異なる構成を有する第2のニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする画像処理方法。 The image processing method according to claim 16 or 17,
The first face candidate area extraction process is a face candidate area extraction process using a first neural network,
2. The image processing method according to claim 1, wherein the second face candidate area extraction process is a face candidate area extraction process using a second neural network having a configuration different from that of the first neural network.
前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示工程と、
オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択工程と、
少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正工程と、
前記選択結果に基づいて、学習によって抽出条件が決定される顔候補領域抽出処理の学習を実施する学習工程と、
を含むことを特徴とする画像処理方法。 A face candidate region extraction step of extracting a face candidate region from the image information by a predetermined face candidate region extraction process;
A display step of displaying an image on a display unit based on the image information, and displaying the extracted face candidate region on the image;
A face area selection step for allowing an operator to select a face area from the displayed face candidate areas;
An image correction step of performing a predetermined correction process on at least the selected face area to generate a corrected image;
A learning step of performing learning of a face candidate region extraction process in which an extraction condition is determined by learning based on the selection result;
An image processing method comprising:
前記学習された顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、当該学習結果を反映した顔候補領域抽出処理による顔候補領域抽出処理を導入することを特徴とする画像処理方法。 The image processing method according to claim 19, wherein
When the learning result of the learned face candidate area extraction process satisfies a predetermined condition, a face candidate area extraction process based on the face candidate area extraction process reflecting the learning result is introduced.
前記顔候補領域抽出処理は、ニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする画像処理方法。 The image processing method according to claim 19 or 20,
The face candidate area extraction process is a face candidate area extraction process using a neural network.
前記学習工程では、顔であるか否かの判定対象となる顔候補領域の大きさに応じて、学習を実施することを特徴とする画像処理方法。 The image processing method according to any one of claims 13 to 21,
In the learning step, learning is performed in accordance with the size of a face candidate region that is a determination target of whether or not it is a face.
前記学習工程では、前記画像が撮影された時の配光条件に応じて、学習を実施することを特徴とする画像処理方法。 The image processing method according to any one of claims 13 to 22,
In the learning step, learning is performed according to a light distribution condition when the image is photographed.
前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示工程と、
オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択工程と、
前記選択結果に基づいて、前記顔候補領域抽出処理の学習を実施する第1の学習工程と、
学習によって算出条件が決定される補正強度算出処理により補正強度を算出する補正強度算出工程と、
前記算出された補正強度に基づいて前記画像情報に補正処理を施す補正処理工程と、
オペレータの指示に従って前記算出された補正強度を修正する補正強度修正工程と、
前記修正結果に基づいて、前記補正強度算出処理の学習を実施する第2の学習工程と、
を含むことを特徴とする画像処理方法。 A face candidate region extraction step of extracting a face candidate region from image information by a face candidate region extraction process in which an extraction condition is determined by learning;
A display step of displaying an image on a display unit based on the image information, and displaying the extracted face candidate region on the image;
A face area selection step for allowing an operator to select a face area from the displayed face candidate areas;
A first learning step of performing learning of the face candidate region extraction process based on the selection result;
A correction strength calculation step of calculating a correction strength by a correction strength calculation process in which a calculation condition is determined by learning;
A correction processing step for correcting the image information based on the calculated correction strength;
A correction strength correction step of correcting the calculated correction strength in accordance with an operator's instruction;
A second learning step of performing learning of the correction strength calculation process based on the correction result;
An image processing method comprising:
学習によって抽出条件が決定される顔候補領域抽出処理により画像情報から顔候補領域を抽出する顔候補領域抽出機能と、
前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示機能と、
オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択機能と、
少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正機能と、
前記選択結果に基づいて、前記顔候補領域抽出処理の学習を実施する学習機能と、
を実現させるための画像処理プログラム。 On the computer,
A face candidate region extraction function for extracting a face candidate region from image information by a face candidate region extraction process in which an extraction condition is determined by learning;
A display function for displaying an image on a display unit based on the image information, and displaying the extracted face candidate region on the image;
A face area selection function that allows an operator to select a face area from the displayed face candidate areas;
An image correction function for performing a predetermined correction process on at least the selected face area and generating a corrected image;
A learning function for performing learning of the face candidate area extraction process based on the selection result;
An image processing program for realizing
前記コンピュータに、
前記学習された顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、当該学習結果を前記顔候補領域抽出処理に反映させる機能を実現させることを特徴とする画像処理プログラム。 The image processing program according to claim 25,
In the computer,
An image processing program for realizing a function of reflecting a learning result in the face candidate area extraction process when a learning result of the learned face candidate area extraction process satisfies a predetermined condition.
前記顔候補領域抽出処理は、ニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする画像処理プログラム。 In the image processing program according to claim 25 or 26,
An image processing program characterized in that the face candidate area extraction process is a face candidate area extraction process using a neural network.
学習によって抽出条件が決定される第1の顔候補領域抽出処理により画像情報から顔候補領域を抽出する顔候補領域抽出機能と、
前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示機能と、
オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択機能と、
少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正機能と、
前記選択結果に基づいて、前記第1の顔候補領域抽出処理とは異なる構成を有し、学習によって抽出条件が決定される第2の顔候補領域抽出処理の学習を実施する学習機能と、
を実現させるための画像処理プログラム。 On the computer,
A face candidate region extraction function for extracting a face candidate region from image information by a first face candidate region extraction process in which an extraction condition is determined by learning;
A display function for displaying an image on a display unit based on the image information, and displaying the extracted face candidate region on the image;
A face area selection function that allows an operator to select a face area from the displayed face candidate areas;
An image correction function for performing a predetermined correction process on at least the selected face area and generating a corrected image;
A learning function for performing learning of a second face candidate area extraction process having a different configuration from the first face candidate area extraction process based on the selection result, and an extraction condition determined by learning;
An image processing program for realizing
前記コンピュータに、
前記学習された第2の顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、前記第1の顔候補領域抽出処理を当該第2の顔候補領域抽出処理に置き換える機能を実現させることを特徴とする画像処理プログラム。 The image processing program according to claim 28, wherein
In the computer,
Realizing a function of replacing the first face candidate region extraction process with the second face candidate region extraction process when a learning result of the learned second face candidate region extraction process satisfies a predetermined condition An image processing program characterized by the above.
前記第1の顔候補領域抽出処理は、第1のニューラルネットワークを用いた顔候補領域抽出処理であって、
前記第2の顔候補領域抽出処理は、前記第1のニューラルネットワークとは異なる構成を有する第2のニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする画像処理プログラム。 The image processing program according to claim 28 or 29,
The first face candidate area extraction process is a face candidate area extraction process using a first neural network,
The image processing program characterized in that the second face candidate area extraction process is a face candidate area extraction process using a second neural network having a configuration different from that of the first neural network.
所定の顔候補領域抽出処理により画像情報から顔候補領域を抽出する顔候補領域抽出機能と、
前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示機能と、
オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択機能と、
少なくとも前記選択された顔領域について所定の補正処理を施し、補正画像を生成する画像補正機能と、
前記選択結果に基づいて、学習によって抽出条件が決定される顔候補領域抽出処理の学習を実施する学習機能と、
を実現させるための画像処理プログラム。 On the computer,
A face candidate area extraction function for extracting a face candidate area from image information by a predetermined face candidate area extraction process;
A display function for displaying an image on a display unit based on the image information, and displaying the extracted face candidate region on the image;
A face area selection function that allows an operator to select a face area from the displayed face candidate areas;
An image correction function for performing a predetermined correction process on at least the selected face area and generating a corrected image;
Based on the selection result, a learning function for performing learning of face candidate area extraction processing in which extraction conditions are determined by learning;
An image processing program for realizing
前記コンピュータに、
前記学習された顔候補領域抽出処理の学習結果が所定の条件を満たす場合に、当該学習結果を反映した顔候補領域抽出処理による顔候補領域抽出処理を導入する機能を実現させることを特徴とする画像処理プログラム。 The image processing program according to claim 31, wherein
In the computer,
When a learning result of the learned face candidate area extraction process satisfies a predetermined condition, a function of introducing a face candidate area extraction process by a face candidate area extraction process reflecting the learning result is realized. Image processing program.
前記顔候補領域抽出処理は、ニューラルネットワークを用いた顔候補領域抽出処理であることを特徴とする画像処理プログラム。 In the image processing program according to claim 31 or 32,
An image processing program characterized in that the face candidate area extraction process is a face candidate area extraction process using a neural network.
前記学習機能を実現させる際に、顔であるか否かの判定対象となる顔候補領域の大きさに応じて、学習を実施することを特徴とする画像処理プログラム。 The image processing program according to any one of claims 25 to 33,
An image processing program for performing learning according to the size of a face candidate region that is a determination target of whether or not a face is present when realizing the learning function.
前記学習機能を実現させる際に、前記画像が撮影された時の配光条件に応じて、学習を実施することを特徴とする画像処理プログラム。 The image processing program according to any one of claims 25 to 34,
An image processing program for performing learning according to a light distribution condition when the image is photographed when the learning function is realized.
学習によって抽出条件が決定される顔候補領域抽出処理により画像情報から顔候補領域を抽出する顔候補領域抽出機能と、
前記画像情報に基づいて画像を表示手段に表示させるとともに、当該画像上に前記抽出された顔候補領域を表示させる表示機能と、
オペレータに前記表示された顔候補領域から顔領域を選択させる顔領域選択機能と、
前記選択結果に基づいて、前記顔候補領域抽出処理の学習を実施する第1の学習機能と、
学習によって算出条件が決定される補正強度算出処理により補正強度を算出する補正強度算出機能と、
前記算出された補正強度に基づいて前記画像情報に補正処理を施す補正処理機能と、
オペレータの指示に従って前記算出された補正強度を修正する補正強度修正機能と、
前記修正結果に基づいて、前記補正強度算出処理の学習を実施する第2の学習機能と
を実現させるための画像処理プログラム。 On the computer,
A face candidate region extraction function for extracting a face candidate region from image information by a face candidate region extraction process in which an extraction condition is determined by learning;
A display function for displaying an image on a display unit based on the image information, and displaying the extracted face candidate region on the image;
A face area selection function that allows an operator to select a face area from the displayed face candidate areas;
A first learning function for performing learning of the face candidate region extraction process based on the selection result;
A correction strength calculation function for calculating a correction strength by a correction strength calculation process in which a calculation condition is determined by learning; and
A correction processing function for performing correction processing on the image information based on the calculated correction strength;
A correction strength correction function for correcting the calculated correction strength according to an operator's instruction;
An image processing program for realizing a second learning function for performing learning of the correction intensity calculation processing based on the correction result.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005119735A JP2006301779A (en) | 2005-04-18 | 2005-04-18 | Image processing system, image processing method, and image processing program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005119735A JP2006301779A (en) | 2005-04-18 | 2005-04-18 | Image processing system, image processing method, and image processing program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2006301779A true JP2006301779A (en) | 2006-11-02 |
Family
ID=37470023
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005119735A Pending JP2006301779A (en) | 2005-04-18 | 2005-04-18 | Image processing system, image processing method, and image processing program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2006301779A (en) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010038447A1 (en) * | 2008-10-01 | 2010-04-08 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
| CN101916366A (en) * | 2010-08-09 | 2010-12-15 | 黑龙江八一农垦大学 | Method and device for identifying non-sperm eggs before hatching |
| JP2011090413A (en) * | 2009-10-20 | 2011-05-06 | Canon Inc | Image recognition apparatus, processing method thereof, and program |
| US8643738B2 (en) | 2007-06-29 | 2014-02-04 | Olympus Corporation | Face detection device, digital camera, and computer readable storage medium which stores a face detection program |
| JP2018112550A (en) * | 2017-01-12 | 2018-07-19 | 清華大学Tsinghua University | Inspection apparatus and method for detecting firearms |
| JP2018159976A (en) * | 2017-03-22 | 2018-10-11 | 株式会社東芝 | Information processing apparatus, method, and program |
| CN109143796A (en) * | 2018-10-26 | 2019-01-04 | 中国科学院微电子研究所 | Method and device for determining lithography light source, and model training method and device |
| CN109313802A (en) * | 2016-06-03 | 2019-02-05 | 皇家飞利浦有限公司 | Biological Object Detection |
| JP2019212074A (en) * | 2018-06-06 | 2019-12-12 | 京セラドキュメントソリューションズ株式会社 | Identification photo generating system, identification photo generating server, and identification photo generating program |
| JP2020021228A (en) * | 2018-07-31 | 2020-02-06 | キヤノン株式会社 | Information processing device, information processing method, and program |
| JP2020095428A (en) * | 2018-12-12 | 2020-06-18 | 株式会社東芝 | Model learning system, model learning method, program and storage medium |
| WO2020261634A1 (en) * | 2019-06-25 | 2020-12-30 | 三菱電機株式会社 | Boundary line detection device and water level measurement device |
| JP2021173208A (en) * | 2020-04-24 | 2021-11-01 | トヨタ自動車株式会社 | Vehicle control device, vehicle control method and vehicle control computer program |
-
2005
- 2005-04-18 JP JP2005119735A patent/JP2006301779A/en active Pending
Cited By (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8643738B2 (en) | 2007-06-29 | 2014-02-04 | Olympus Corporation | Face detection device, digital camera, and computer readable storage medium which stores a face detection program |
| WO2010038447A1 (en) * | 2008-10-01 | 2010-04-08 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
| JP2010086429A (en) * | 2008-10-01 | 2010-04-15 | Canon Inc | Image processor and image processing method |
| US8797416B2 (en) | 2008-10-01 | 2014-08-05 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
| JP2011090413A (en) * | 2009-10-20 | 2011-05-06 | Canon Inc | Image recognition apparatus, processing method thereof, and program |
| US8643739B2 (en) | 2009-10-20 | 2014-02-04 | Canon Kabushiki Kaisha | Image recognition apparatus, processing method thereof, and computer-readable storage medium |
| CN101916366A (en) * | 2010-08-09 | 2010-12-15 | 黑龙江八一农垦大学 | Method and device for identifying non-sperm eggs before hatching |
| US11232567B2 (en) | 2016-06-03 | 2022-01-25 | Koninklijke Philips N.V. | Biological object detection |
| CN109313802B (en) * | 2016-06-03 | 2024-01-23 | 皇家飞利浦有限公司 | Biological object detection |
| CN109313802A (en) * | 2016-06-03 | 2019-02-05 | 皇家飞利浦有限公司 | Biological Object Detection |
| JP2019522276A (en) * | 2016-06-03 | 2019-08-08 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Detection of biological objects |
| JP2018112550A (en) * | 2017-01-12 | 2018-07-19 | 清華大学Tsinghua University | Inspection apparatus and method for detecting firearms |
| JP2018159976A (en) * | 2017-03-22 | 2018-10-11 | 株式会社東芝 | Information processing apparatus, method, and program |
| JP2019212074A (en) * | 2018-06-06 | 2019-12-12 | 京セラドキュメントソリューションズ株式会社 | Identification photo generating system, identification photo generating server, and identification photo generating program |
| JP7157370B2 (en) | 2018-06-06 | 2022-10-20 | 京セラドキュメントソリューションズ株式会社 | ID photo generation system, ID photo generation server and ID photo generation program |
| JP7218118B2 (en) | 2018-07-31 | 2023-02-06 | キヤノン株式会社 | Information processing device, information processing method and program |
| JP2020021228A (en) * | 2018-07-31 | 2020-02-06 | キヤノン株式会社 | Information processing device, information processing method, and program |
| CN109143796A (en) * | 2018-10-26 | 2019-01-04 | 中国科学院微电子研究所 | Method and device for determining lithography light source, and model training method and device |
| JP2020095428A (en) * | 2018-12-12 | 2020-06-18 | 株式会社東芝 | Model learning system, model learning method, program and storage medium |
| US11676065B2 (en) | 2018-12-12 | 2023-06-13 | Kabushiki Kaisha Toshiba | Model training system |
| JP2021005158A (en) * | 2019-06-25 | 2021-01-14 | 三菱電機株式会社 | Boundary line detection device and water level measurement device |
| WO2020261634A1 (en) * | 2019-06-25 | 2020-12-30 | 三菱電機株式会社 | Boundary line detection device and water level measurement device |
| JP2021173208A (en) * | 2020-04-24 | 2021-11-01 | トヨタ自動車株式会社 | Vehicle control device, vehicle control method and vehicle control computer program |
| JP7226388B2 (en) | 2020-04-24 | 2023-02-21 | トヨタ自動車株式会社 | VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD AND COMPUTER PROGRAM FOR VEHICLE CONTROL |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN114723643B (en) | Low-light image enhancement method based on reinforcement learning and aesthetic evaluation | |
| JP4335476B2 (en) | Method for changing the number, size, and magnification of photographic prints based on image saliency and appeal | |
| US8384792B2 (en) | Imaging apparatus, method for controlling the same, and program | |
| JP4709147B2 (en) | System and method for removing red eye phenomenon from digital images | |
| US7609908B2 (en) | Method for adjusting the brightness of a digital image utilizing belief values | |
| EP3664016B1 (en) | Image detection method and apparatus, and terminal | |
| US20070071316A1 (en) | Image correcting method and image correcting system | |
| JP2002109525A (en) | Image processing path changing method based on saliency and appeal of image | |
| JP6812387B2 (en) | Image processing equipment and image processing methods, programs, storage media | |
| US20110043666A1 (en) | Image processing apparatus, image processing method, and computer program storage medium | |
| US20090231628A1 (en) | Image Processing Apparatus, Image Processing Method, Computer Program for Image Processing | |
| JP2006319534A (en) | Imaging apparatus, method, and program | |
| CN102984448A (en) | Method of controlling an action, such as a sharpness modification, using a colour digital image | |
| JP2005086516A (en) | Imaging apparatus, printing apparatus, image processing apparatus, and program | |
| CN101983507A (en) | Automatic redeye detection | |
| JP2006301779A (en) | Image processing system, image processing method, and image processing program | |
| JP2005092759A (en) | Image processing device and method, red-eye detection method, and program | |
| JP2019106045A (en) | Image processing device, method, and program | |
| JP2006031440A (en) | Image processing method, image processing apparatus, image processing program and image processing system | |
| CN118212231B (en) | Image processing method and related equipment | |
| JP2009151350A (en) | Image correction method and device | |
| JP2006039666A (en) | Image processing method, image processor and image processing program | |
| JP7780879B2 (en) | Information processing device, information processing method, and program | |
| JP2007184888A (en) | Imaging apparatus, image processor, image processing method, and image processing program | |
| JP4449619B2 (en) | Image processing method, image processing apparatus, and image processing program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20070827 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20080221 |