JP2013188341A - 画像処理装置と画像処理方法およびプログラム - Google Patents
画像処理装置と画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2013188341A JP2013188341A JP2012056747A JP2012056747A JP2013188341A JP 2013188341 A JP2013188341 A JP 2013188341A JP 2012056747 A JP2012056747 A JP 2012056747A JP 2012056747 A JP2012056747 A JP 2012056747A JP 2013188341 A JP2013188341 A JP 2013188341A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- skin
- hair
- region
- body hair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】肌画像から肌のキメ構造を考慮して体毛の除去を行う。
【解決手段】体毛検出部20は、肌を含む処理対象画像の色変換を行い、色変換後の処理対象画像から生成した色分布情報に基づき体毛画素と肌画素を区分する第1閾値を決定して色変換画像と比較し、体毛に相当する体毛領域を検出する。体毛除去部30のキメ構造推定部は、皮丘画素と皮溝画素を区分する第2閾値を決定し、体毛領域の注目画素を基準とした判定領域内における肌画素が皮丘画素と皮溝画素のいずれであるか第2閾値を用いて判定を行い肌のキメの構造を推定する。キメ構造推定部は、判定領域内における皮丘画素と皮溝画素の割合に応じて、注目画素が皮丘画素と皮溝画素のいずれであるか推定する。体毛除去部30の補間部は、検出された体毛領域を推定したキメの構造に応じて補間する。
【選択図】 図1
【解決手段】体毛検出部20は、肌を含む処理対象画像の色変換を行い、色変換後の処理対象画像から生成した色分布情報に基づき体毛画素と肌画素を区分する第1閾値を決定して色変換画像と比較し、体毛に相当する体毛領域を検出する。体毛除去部30のキメ構造推定部は、皮丘画素と皮溝画素を区分する第2閾値を決定し、体毛領域の注目画素を基準とした判定領域内における肌画素が皮丘画素と皮溝画素のいずれであるか第2閾値を用いて判定を行い肌のキメの構造を推定する。キメ構造推定部は、判定領域内における皮丘画素と皮溝画素の割合に応じて、注目画素が皮丘画素と皮溝画素のいずれであるか推定する。体毛除去部30の補間部は、検出された体毛領域を推定したキメの構造に応じて補間する。
【選択図】 図1
Description
この技術は、画像処理装置と画像処理方法およびプログラムに関し、肌を含む処理対象画像から肌のキメ構造を考慮して体毛を除去する。
従来、肌画像から体毛領域を検出することが行われている。例えば、特許文献1では、濃淡画像の最頻値を閾値として最頻値以上は肌、最頻値未満は体毛と判定している。
ところで、人の肌や体毛の色は人種によって大きく変わる。したがって、濃淡画像の最頻値を閾値として体毛の判定を行う場合、濃淡画像の作り方によっては体毛の検出がうまくいかないことが想定される。また、肌のキメの解析等を行う場合、肌画像に体毛が含まれていないことが望ましい。しかし、体毛検出を行い肌画像から体毛を除去すると、体毛部分でキメの状態が示されていない画像となってしまう。
そこで、この技術では、肌を含む処理対象画像から肌のキメ構造を考慮して体毛の除去を行うことができる画像処理装置と画像処理方法およびプログラムを提供することを目的とする。
この技術の第1の側面は、肌を含む処理対象画像から体毛に相当する体毛領域を検出する体毛検出部と、前記処理対象画像における肌のキメの構造を推定するキメ構造推定部と、前記体毛検出部で検出した体毛領域を、前記キメ構造推定部で推定されたキメの構造に基づいて補間する補間部とを備える画像処理装置にある。
この技術においては、肌を含む処理対象画像から体毛に相当する体毛領域を体毛検出部で検出する。体毛検出部は、例えば体毛領域と他の領域との色分離が容易な色変換係数を決定して、この色変換係数を用いて処理対象画像の色変換を行い、色変換後の処理対象画像から色分布情報を生成する。色変換係数は、体毛領域の検出における誤りの少ない係数を用いる。体毛検出部は、色分布情報に基づき体毛画素と肌画素を区分するための第1閾値を決定して、色変換後の処理対処画像の各画素値を第1閾値と比較して体毛領域の検出を行い、体毛分布情報を生成する。色変換係数と第1閾値は、例えば名種毎に決定する。また、検出された体毛領域に対しては、体毛除去をより確実に行うことができるように領域拡張を行う。
キメ構造推定部は、処理対象画像における肌のキメの構造を推定する。キメ構造推定部は、例えば皮丘画素と皮溝画素を区分するための第2閾値を決定し、体毛領域の注目画素を基準とした判定領域内における肌画素が皮丘画素と皮溝画素のいずれであるか第2閾値を用いて判定し、判定領域内における皮丘画素と皮溝画素の割合に応じて、注目画素が皮丘画素と皮溝画素のいずれであるか推定する。また、キメ構造推定部は、体毛領域の注目画素を基準とした判定領域内に肌画素が含まれていない場合、判定領域のサイズを拡大する。第2閾値は、処理対象画像における肌画素の輝度分布から皮丘画素分布と皮溝分布を推定して、推定結果に基づいて決定する。
補間部は、体毛検出部で検出した体毛領域を、キメ構造推定部で推定されたキメの構造に基づいて補間する。補間部は、注目画素が皮丘画素と推定された場合、注目画素の近傍領域における皮丘画素を用いて注目画素の補間を行い、注目画素が皮溝画素と推定された場合、近傍領域における皮溝画素を用いて注目画素の補間を行う。また、補間部は、注目画素の位置における体毛幅に応じて近傍領域の領域サイズを設定する。体毛幅は、例えば注目画素の位置における体毛主要方向を判別して、体毛主要方向に対する直交方向の体毛領域サイズを体毛幅とする。体毛領域サイズは、例えば注目画素を基準とした方向判定領域内における注目画素と連続する体毛画素の画素数に基づいて判別する。
この技術の第2の側面は、肌を含む処理対象画像から体毛に相当する体毛領域を検出する工程と、前記処理対象画像における肌のキメの構造を推定する工程と、前記検出した体毛領域を、前記推定したキメの構造に基づいて補間する工程とを含む画像処理方法にある。
この技術の第3の側面は、肌を含む処理対象画像の画像処理をコンピュータで実行させるプログラムであって、前記処理対象画像から体毛に相当する体毛領域を検出する手順と、前記処理対象画像における肌のキメの構造を推定する手順と、前記検出した体毛領域を、前記推定したキメの構造に基づいて補間する手順とを前記コンピュータで実行させるプログラムにある。
なお、本技術のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、光ディスクや磁気ディスク、半導体メモリなどの記憶媒体、あるいは、ネットワークなどの通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ上でプログラムに応じた処理が実現される。
この技術によれば、肌を含む処理対象画像から体毛に相当する体毛領域が検出される。また、処理対象画像における肌のキメの構造が推定される。検出した体毛領域は、推定したキメの構造に基づいて補間される。このため、肌画像から肌のキメ構造を考慮して体毛の除去を行うことができるようになる。
以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
1.画像処理システムの構成
2.第1の実施の形態
2−1.体毛検出部の構成
2−2.体毛検出部の動作
2−3.体毛除去部の構成
2−4.体毛除去部の動作
3.第2の実施の形態
3−1.体毛検出部の構成および動作
3−2.体毛除去部の構成
3−3.体毛除去部の動作
4.他の実施の形態
1.画像処理システムの構成
2.第1の実施の形態
2−1.体毛検出部の構成
2−2.体毛検出部の動作
2−3.体毛除去部の構成
2−4.体毛除去部の動作
3.第2の実施の形態
3−1.体毛検出部の構成および動作
3−2.体毛除去部の構成
3−3.体毛除去部の動作
4.他の実施の形態
<1.画像処理システムの構成>
図1は、本技術の画像処理装置の構成を示している。画像処理装置10は、撮像装置で撮影された肌画像や画像記録装置等に記憶されている肌画像から肌のキメ構造を考慮して体毛の除去を行う。
図1は、本技術の画像処理装置の構成を示している。画像処理装置10は、撮像装置で撮影された肌画像や画像記録装置等に記憶されている肌画像から肌のキメ構造を考慮して体毛の除去を行う。
例えば、撮像装置は、肌の表皮を撮影して得られた肌画像を画像処理装置10に出力する。撮像装置は、特定の種類の撮像装置に限定されるものではなく、任意の撮像装置を採用することができる。撮像装置は、肌のキメの状態を認識できる程度の撮影が可能なマクロレンズを備えている。なお、撮像装置は、フォーカス調整機能、被写体に照明光を照射可能な光源、フォーカス位置を固定にして毎回撮影できるように、レンズの先に肌に密着させるアタッチメント等を備えることが望ましい。また、撮像装置は画像処理装置10と一体に構成されていてもよく、別個に構成されていてもよい。
画像処理装置10は、体毛検出部20と体毛除去部30を有している。体毛検出部20は、肌を含む処理対象画像から体毛に相当する体毛領域を検出して検出結果を体毛除去部30に出力する。例えば、体毛検出部20は、体毛領域示すマップを生成して、検出結果として体毛除去部30に出力する。体毛除去部30は、キメ構造を保持した状態で処理対象画像から体毛除去部30で検出された体毛を除去する。体毛除去部30は、キメ構造想定部と補間部を有している。体毛除去部30は、処理対象画像における肌のキメの構造をキメ構造想定部で推定する。また、体毛除去部30は、体毛検出部20で検出した体毛領域を、キメ構造推定部で推定されたキメの構造に基づき補間部で補間する。
<2.第1の実施の形態>
[2−1.体毛検出部の構成]
図2は体毛検出部の構成を示している。体毛検出部20は、色変換係数決定部21、色変換部22、色分布情報生成部23、閾値決定部24、2値化部25、領域拡張部26を含むように構成されている。
[2−1.体毛検出部の構成]
図2は体毛検出部の構成を示している。体毛検出部20は、色変換係数決定部21、色変換部22、色分布情報生成部23、閾値決定部24、2値化部25、領域拡張部26を含むように構成されている。
色変換係数決定部21は、体毛検出のエラー率が最小となるように色変換係数を決定する。色変換係数決定部21は、決定した色変換係数を色変換部22に出力する。
色変換部22は、色変換係数決定部21で決定した色変換係数を用いて処理対象画像の色変換を行うことで、肌の色と体毛の色の区分が容易とされた色変換画像を生成して色分布情報生成部23に出力する。
色分布情報生成部23は、色変換画像から肌の色と体毛の色の分布状況を示す色分布情報を生成する。色分布情報生成部23は、色変換画像の画素値を用いて、例えばヒストグラムや累積ヒストグラムを色分布情報として生成する。
閾値決定部24は、色分布情報生成部23で生成された色分布情報に基づき、色変換画像を肌の色の画素と体毛の色の画素に区分するための体毛判別閾値(第1閾値)を決定する。色変換画像の画素値を用いてヒストグラムや累積ヒストグラムを生成する場合、肌の色と体毛の色で頻度が高くなる。また、色変換画像では、肌の色と体毛の色の区分が容易となるように色変換が行われている。したがって、ヒストグラムや累積ヒストグラムから、色変換画像を肌の色の画素と体毛の色の画素に区分するための体毛判別閾値を容易かつ適切に決定できる。閾値決定部24は、決定した体毛判別閾値を2値化部25に出力する。
2値化部25は、閾値決定部24から供給された体毛判別閾値を用いて色変換画像の2値化処理を行う。2値化部25は、色変換画像の各画素値と体毛判別閾値を比較して、例えば画素値が体毛判別閾値以下の画素を体毛画素、画素値が体毛判別閾値よりも大きい画素を肌画素とする。すなわち、2値化部25は、体毛検出部20に入力された処理対象画像の各画素が、肌画素と体毛画素のいずれであるか示した体毛マップ(2値マップ)を生成する。
領域拡張部26は、2値化部25で生成された体毛マップに対して領域拡張処理を行う。領域拡張部26は、体毛画素と判別した領域を拡張する処理、すなわち処理対象画像における体毛幅が例えば所定幅となるように拡張する処理を行い、体毛除去部30で処理対象画像から体毛をより確実に除去できるようにする。
[2−2.体毛検出部の動作]
次に、体毛検出部20の動作について説明する。なお、以下の説明では、画像処理装置10で処理する処理対象画像が、例えばRGBカラーフィルタを備えた撮像装置で生成された3原色の画像とする。
次に、体毛検出部20の動作について説明する。なお、以下の説明では、画像処理装置10で処理する処理対象画像が、例えばRGBカラーフィルタを備えた撮像装置で生成された3原色の画像とする。
体毛検出部20は、肌を含む処理対象画像から体毛に相当する体毛領域を検出する。体毛検出部20は、例えば体毛検出のエラー率が最小となるように決定した色変換係数で色変換を行うことにより色変換画像を生成して、この色変換画像の各画素が肌画素と体毛画素のいずれであるか示した体毛マップを、体毛領域の検出結果として生成する。
図3は体毛検出部の動作を示すフローチャートである。ステップST1で体毛検出部20は色変換係数を決定する。体毛検出部20の色変換係数決定部21は、体毛検出のエラー率が最小となるように色変換係数を決定してステップST2に進む。
ここで、処理対象画像の3原色画像データを「R,G,B」としたとき、各色に対する重み付けを行い、色変換後の画像データ「Colori」を式(1)に示す値とする。
Colori=αi R×R+αi G×G+αi B×B ・・・(1)
Colori=αi R×R+αi G×G+αi B×B ・・・(1)
なお、式(1)において、「αi R」は赤画像データに対する重み、「αi G」は緑画像データに対する重み、「αi B」は青画像データに対する重みであり、式(2)の条件を満たすように設定する。
αi R+αi G+αi B=1 ・・・(2)
αi R+αi G+αi B=1 ・・・(2)
したがって、色変換係数決定部21は、体毛検出のエラー率が最小となるように変換係数、すなわち重み「αi R」,「αi G」を決定する。
体毛検出のエラー率は、例えば被験者の肌画像から予め正解データを作成する。次に、重み「αi R」,「αi G」を変化させて体毛検出を行い、体毛検出結果と正解データの相違からエラー率を算出する。エラー率としては、例えばFAR(=False Acceptance Rate)とFRR(=False Rejection Rate)を算出する。また、図4に示すようにFARとFRRが等しくなるときの値EER(=Equal Error Rate)を最小のエラー率として、このときの重み「αi R」,「αi G」を、体毛検出のエラー率が最小となる色変換係数とする。さらに、肌の色や体毛の色は人種によって異なる。したがって、例えば変数「i」で人種を示すようにして、人種毎に体毛検出のエラー率が最小となる色変換係数を決定する。
ステップST2で体毛検出部20は、色変換を行う。体毛検出部20の色変換部22は、決定された色変換係数を用いて色変換を行いステップST3に進む。色変換部22は、決定された色変換係数を用いて式(3)の演算を行い、色変換画像の画像データ「Colori」を算出する。
Colori=αi R×R+αi G×G+(1−αi R−αi G)×B ・・・(3)
Colori=αi R×R+αi G×G+(1−αi R−αi G)×B ・・・(3)
ステップST3で体毛検出部20は、色分布情報の生成を行う。体毛検出部20の色分布情報生成部23は、色変換画像の画像データ「Colori」の分布を示す色分布情報、例えば累積ヒストグラムを生成してステップST4に進む。図5は、累積ヒストグラムを例示している。例えば、色変換によって、体毛の色が色変換によってほぼ「Colori-h」の色に変換される場合、体毛を示す画素の頻度は一点鎖線で示すような分布となる。また、肌の色が色変換によってほぼ「Colori-s」の色に変換される場合、肌を示す画素の頻度は点線で示すような分布となる。したがって、累積ヒストグラムは、体毛を示す画素の分布に肌を示す画素の分布を加算した実線で示す分布となる。
ステップST4で体毛検出部20は、体毛判別閾値を決定する。体毛検出部20の閾値決定部24は、色分布情報に基づき、肌の色の画素と体毛の色の画素を区別するための体毛判別閾値(第1閾値)を決定してステップST5に進む。
色変換画像を用いてヒストグラムや累積ヒストグラムを生成する場合、肌の色と体毛の色で頻度が高くなる。また、色変換画像では、肌の色と体毛の色の区分が容易となるように色変換が行われている。したがって、ヒストグラムや累積ヒストグラムから、色変換画像を肌の色の画素と体毛の色の画素に区分するための体毛判別閾値を容易かつ適切に決定できる。
例えば重み「αi R」,「αi G」を変化させて体毛検出のエラー率が最小となるときの値を用いる。また、このときの閾値を「thi」、閾値「thi」における累積ヒストグラム上での頻度を「f(thi)」、全累積頻度を「f(alli)」とすると、ヒストグラムの頻度の割合ThRatioiは、式(4)として表すことができる。したがって、閾値決定部24は、累積ヒストグラムにおいて累積頻度が割合ThRatioiとなるときの画像データ「Colori」を体毛判別閾値Mthに決定する。
ステップST5で体毛検出部20は、2値化処理を行う。体毛検出部20の2値化部25は、体毛判別閾値Mthと色変換画像の各画素の画素値を比較して、体毛マップ(2値マップ)を生成してステップST6に進む。2値化部25は、例えば式(5)に示すように2値化を行い体毛マップを生成する。例えば2値化部25は、画素位置(X,Y)のデータColor(X,Y)が体毛判別閾値Mth以下である場合には体毛マップにおける画素位置Map(X,Y)の画素値を「255」、体毛判別閾値Mthよりも大きい場合には画素値を「0」とする。このようにして、2値化部25は、処理対象画像における体毛画素の分布を示す体毛マップを生成する。
ステップST6で体毛検出部20は、体毛領域の拡張を行う。体毛検出部20の領域拡張部26は、体毛マップに対して体毛画素と判別した領域を拡張する処理、すなわち処理対象画像における体毛幅が所定幅となるように拡張する処理を行い、より確実に体毛を除去できるようにする。
なお、上述の体毛検出部20では、RGBの3原色の画像データを用いて体毛検出を行う場合について説明した、本技術はこれに限定されるものではない。例えばRGB色分布から体毛と肌の分離が容易となるような色空間軸を求め、この色空間軸で体毛と肌の色を定義して体毛検出を行うようにすることも可能である。
[2−3.体毛除去部の構成]
体毛除去部30は、キメ構造を保持した状態で処理対象画像から体毛除去部30で検出された体毛を除去する。
体毛除去部30は、キメ構造を保持した状態で処理対象画像から体毛除去部30で検出された体毛を除去する。
図6は、体毛除去部の構成を示している。体毛除去部30は、キメ構造推定部31と補間部32を含むように構成されている。また、キメ構造推定部31は、キメ構造判定閾値決定部311、推定処理部312を含むように構成されている。
キメ構造推定部31のキメ構造判定閾値決定部311は、体毛領域以外の領域の画素を皮丘画素と皮溝画素に区分するためのキメ構造判定閾値(第2閾値)を決定する。図7は、キメ構造判定閾値決定部311の構成を示している。キメ構造判定閾値決定部311は、キメ色分布情報生成部3111とキメ色分布解析部3112を含むように構成されている。
キメ色分布情報生成部3111は、処理対象画像と体毛マップに基づき、体毛領域以外の画素からキメ色分布情報、例えば体毛領域以外の画素である肌画素から輝度のヒストグラムを作成する。
キメ色分布解析部3112は、キメ色分布情報生成部3111で生成されたキメ色分布情報から皮丘画素の分布と皮溝画素の分布を推定して、推定結果から皮丘画素と皮溝画素を区分するためのキメ構造判定閾値を決定する。キメ色分布解析部3112は、キメ構造判定閾値を推定処理部312に出力する。
推定処理部312は、キメ構造判定閾値決定部311で決定されたキメ構造判定閾値を用いて、体毛領域を除く処理対象画像の画素が皮丘画素と皮溝画素のいずれであるか判定する。さらに、判定結果を利用して、体毛領域内の注目画素が皮丘画素と皮溝画素のいずれに属するか推定情報を生成する。推定処理部312は、推定情報を補間部32に出力する。
補間部32は、キメ構造推定部31から供給された推定情報に基づき、体毛領域の画素補間に用いる画素を切り替えて、キメ構造を考慮した補間を行い、体毛を除去した画像領域でもキメ構造が保持されるようにする。
[2−4.体毛除去部の動作]
図8は、体毛除去部の動作を示すフローチャートである。ステップST11で体毛除去部30は、キメ構造判定閾値を算出する。体毛除去部30のキメ構造推定部31は、処理対象画像と体毛マップに基づき、体毛領域以外の画素に対してキメ色分布情報例えば輝度のヒストグラムを作成する。次に、キメ構造推定部31は、キメ色分布情報から皮丘画素とそれ以外の皮溝画素の分布を推定して、推定結果に基づき、体毛領域以外の領域の画素を皮丘画素と皮溝画素に区分するためのキメ構造判定閾値(第2閾値)を決定してステップST12に進む。
図8は、体毛除去部の動作を示すフローチャートである。ステップST11で体毛除去部30は、キメ構造判定閾値を算出する。体毛除去部30のキメ構造推定部31は、処理対象画像と体毛マップに基づき、体毛領域以外の画素に対してキメ色分布情報例えば輝度のヒストグラムを作成する。次に、キメ構造推定部31は、キメ色分布情報から皮丘画素とそれ以外の皮溝画素の分布を推定して、推定結果に基づき、体毛領域以外の領域の画素を皮丘画素と皮溝画素に区分するためのキメ構造判定閾値(第2閾値)を決定してステップST12に進む。
ここで、皮丘画素は皮溝画素に比べて明るい画素となる。したがって、体毛領域以外の画素についての輝度のヒストグラムは、例えば図9に示すように、理想的には明るい皮丘画素の分布(点線で示す)と暗い皮溝画素の分布(一点鎖線で示す)が合成された分布(実線で示す)となる。キメ構造推定部31は、合成後の分布を示すキメ色分布情報から皮丘画素の分布と皮溝画素の分布を推定する。例えば、図9に示す合成後の1次元分布に対してGMM(Gaussian Mixture Model)近似を行うことで2クラス(皮丘を示すクラスと皮溝を示すクラス)に分類し、その境界をキメ構造判定閾値ybin_thとする。また、合成後の分布から、皮丘画素の分布のピーク位置と皮溝画素の分布のピーク位置を推定して、皮丘画素のピーク位置と皮溝画素のピーク位置との中間位置をキメ構造判定閾値ybin_thとしてもよい。また、一方のピーク位置から他方のピーク位置方向に所定量離れた位置をキメ構造判定閾値ybin_thとしてもよい。
ステップST12で体毛除去部30は、キメ構造の推定を行う。体毛除去部30のキメ構造推定部31は、キメ構造判定閾値と体毛領域以外の画素の画素値を比較して、画素値がキメ構造判定閾値よりも大きい画素は皮丘画素、画素値がキメ構造判定閾値以下の画素は皮溝画素と判定する。さらに、キメ構造推定部31は、体毛領域以外の画素の判定結果を利用して、体毛領域内の注目画素が皮丘画素と皮溝画素のいずれに属するか推定情報を生成する。
図10は、推定情報の生成動作を示すフローチャートである。ステップST21でキメ構造推定部31は、推定を行う体毛領域内の画素(注目画素)を基準として判定領域を設定する。また、キメ構造推定部31は、判定領域を初期サイズとしてステップST22に進む。
ステップST22でキメ構造推定部31は、判定領域における体毛画素の画素数nHを算出してステップST23に進む。
ステップST23でキメ構造推定部31は、判定領域内において肌画素の画素数nSを算出してステップST24に進む。例えば判定領域の初期サイズが3×3画素である場合、注目画素を除く他の領域が8画素であることから式(6)に基づき画素数nSを算出できる。
nS=8−nH ・・・(6)
nS=8−nH ・・・(6)
ステップST24でキメ構造推定部31は、画素数nSが「0」よりも大きいか判別する。キメ構造推定部31は、画素数nSが「0」である場合にステップST25に進み、画素数nSが「0」より大きい場合にステップST26に進む。
ステップST25でキメ構造推定部31は、判定領域内に肌画素が含まれていないことから判定領域を拡張する。キメ構造推定部31は、注目画素を基準として判定領域の拡張を行いステップST22に戻る。例えば、キメ構造推定部31は、注目画素を基準として上下左右に判定領域をそれぞれ1画素分だけ拡張して、判定領域を通常サイズとする。
ステップST26でキメ構造推定部31は、皮丘画素の画素数nSrを算出する。キメ構造推定部31は、判定領域内における皮丘画素の画素数nSrを算出してステップST27に進む。
ステップST27でキメ構造推定部31は、皮丘割合RatioSrを算出する。キメ構造推定部31は、式(7)の演算を行い、判定領域内における皮丘画素の割合を示す皮丘割合RatioSrを推定情報とする。
このように推定情報の生成を行うと、例えば図11の(A)に示すように、判定領域を初期サイズ(3×3画素)としたときの画素数nSが「0」よりも大きい場合、初期サイズの判定領域内の画素に基づいて推定情報が生成される。また、図11の(B)に示すように、判定領域を初期サイズとしたときの画素数nSが「0」である場合、通常サイズ(5×5画素)の判定領域内の画素に基づいて推定情報が生成される。
このようにしてキメ構造推定部31は推定情報を生成して図8のステップST13に進む。
ステップST13で補間部32は、キメ構造を考慮した補間処理を行う。補間部32は、生成された推定情報に基づき、皮丘画素または皮溝画像を用いて補間処理を行う。
図12は補間処理を示すフローチャートである。ステップST31で補間部32は、推定情報である皮丘割合RatioSrが「0.5」より大きいか判別する。補間部32は、皮丘割合RatioSrが「0.5」より大きい場合にステップST32に進む。また、補間部32は、皮丘割合RatioSrが「0.5」以下である場合にステップST33に進む。
ステップST32で補間部32は、皮丘画素を用いて注目画素を補間する。補間部32は、式(8)の演算処理を行い、注目画素を基準として設定した近傍領域内の皮丘画素の画素値に基づき注目画素の画素値を算出する。なお、式(8)において、「n」は近傍領域内における皮丘画素のIDを示している。また、「I’」は補間後の画素値、「ISr(n)」は皮丘画素の画素値、「WSr(n)」は皮丘画素の重みである。なお、皮丘画素の重み「WSr(n)」は式(9)から算出される値とする。
ステップST33で補間部32は、皮溝画素を用いて注目画素を補間する。補間部32は、式(10)の演算処理を行い、注目画素を基準として設定した近傍領域内の皮溝画素の画素値に基づき注目画素の画素値を算出する。なお、式(10)において、「n」は近傍領域内における皮溝画素のIDを示している。また、「I’」は補間後の画素値、「ISv(n)」は皮溝画素の画素値、「WSv(n)」は皮溝画素の重みである。なお、皮溝画素の重み「WSv(n)」は式(11)から算出される値とする。
このような処理を行うと、例えば図13の(A)に示すように、初期サイズ(3×3画素)の判定領域において皮溝画素の割合が多い場合、図13の(B)に示すように、近傍領域内の皮溝画素の画素値を用いて注目画素の補間が行われる。また、例えば図14の(A)に示すように、通常サイズ(5×5画素)の判定領域において皮溝画素の割合が多い場合、図14の(B)に示すように、近傍領域内の皮溝画素の画素値を用いて注目画素の補間が行われる。したがって、体毛画素の領域に対してキメ構造を考慮した補間処理が行われて、体毛を除去した画像領域でもキメ構造が示されるようになる。
<3.第2の実施の形態>
ところで、第1の実施の形態では、予め領域サイズが決定されている判定領域や近傍領域内の画素を用いて推定情報の生成や補間処理を行う場合について説明した。しかし、領域サイズが予め決定されている場合、例えば体毛が太く領域内の画素が全て体毛画素となってしまうと、上述のように推定情報の生成や注目画素の補間を行うことができないおそれがある。そこで、第2の実施の形態では、体毛幅に応じて領域サイズを設定して推定情報の生成や注目画素の補間を行う場合について説明する。
ところで、第1の実施の形態では、予め領域サイズが決定されている判定領域や近傍領域内の画素を用いて推定情報の生成や補間処理を行う場合について説明した。しかし、領域サイズが予め決定されている場合、例えば体毛が太く領域内の画素が全て体毛画素となってしまうと、上述のように推定情報の生成や注目画素の補間を行うことができないおそれがある。そこで、第2の実施の形態では、体毛幅に応じて領域サイズを設定して推定情報の生成や注目画素の補間を行う場合について説明する。
[3−1.体毛検出部の構成および動作]
第2の実施の形態において、体毛検出部20は、第1の実施の形態と同様に構成されている。すなわち、体毛検出部20は、図2に示すように、色変換係数決定部21、色変換部22、色分布情報生成部23、閾値決定部24、2値化部25、領域拡張部26を含むように構成されている。
第2の実施の形態において、体毛検出部20は、第1の実施の形態と同様に構成されている。すなわち、体毛検出部20は、図2に示すように、色変換係数決定部21、色変換部22、色分布情報生成部23、閾値決定部24、2値化部25、領域拡張部26を含むように構成されている。
色変換係数決定部21は、体毛検出のエラー率が最小となるように色変換係数を決定する。色変換係数決定部21は、決定した色変換係数を色変換部22に出力する。
色変換部22は、色変換係数決定部21で決定した色変換係数を用いて処理対象画像の色変換を行うことで、肌の色と体毛の色の区分が容易とされた色変換画像を生成して色分布情報生成部23に出力する。
色分布情報生成部23は、色変換画像から肌の色と体毛の色の分布状況を示す色分布情報を生成する。色分布情報生成部23は、色変換画像の画素値を用いて、例えばヒストグラムや累積ヒストグラムを色分布情報として生成する。
閾値決定部24は、色分布情報生成部23で生成された色分布情報に基づき、色変換画像を肌の色の画素と体毛の色の画素に区分するための体毛判別閾値(第1閾値)を決定する。閾値決定部24は、決定した体毛判別閾値を2値化部25に出力する。
2値化部25は、閾値決定部24から供給された体毛判別閾値を用いて色変換画像の2値化処理を行う。2値化部25は、色変換画像の各画素値と体毛判別閾値を比較して、処理対象画像の各画素が、肌画素と体毛画素のいずれであるか示した体毛マップを生成する。
領域拡張部26は、2値化部25で生成された体毛マップに対して領域拡張処理を行う。領域拡張部26は、体毛画素と判別した領域を拡張する処理、すなわち処理対象画像における体毛幅が例えば所定幅となるように拡張する処理を行い、体毛除去部30で処理対象画像から体毛をより確実に除去できるようにする。
このように構成された体毛検出部20は、図3に示す処理を行い体毛画素領域を判別する。すなわち、ステップST1で体毛検出部20は、色変換係数を決定してステップST2に進む。ステップST2で体毛検出部20は、色変換を行いステップST3に進む。ステップST3で体毛検出部20は、色分布情報の生成を行いステップST4に進む。ステップST4で体毛検出部20は、体毛判別閾値を決定してステップST5に進む。ステップST5で体毛検出部20は、2値化処理を行いステップST6に進む。ステップST6で体毛検出部20は、体毛領域の拡張を行う。このようにして、体毛検出部20は、処理対象画像から体毛に相当する体毛領域を検出する。
[3−2.体毛除去部の構成]
第2の実施の形態における体毛除去部30は、体毛検出部20で求めた体毛マップを用いて、処理対象画像から体毛画像を除去する。また、体毛除去部30は、処理対象画像における体毛幅に応じて領域サイズを調整して、推定情報の生成や肌のキメ構造を考慮した補間処理を行う。
第2の実施の形態における体毛除去部30は、体毛検出部20で求めた体毛マップを用いて、処理対象画像から体毛画像を除去する。また、体毛除去部30は、処理対象画像における体毛幅に応じて領域サイズを調整して、推定情報の生成や肌のキメ構造を考慮した補間処理を行う。
図15は、第2の実施の形態の体毛除去部の構成を示している。体毛除去部30は、キメ構造推定部31と補間部32を含むように構成されている。また、キメ構造推定部31は、領域サイズ設定部310、キメ構造判定閾値決定部311、推定処理部312を含むように構成されている。
図16は、領域サイズ設定部の構成を示している。領域サイズ設定部310は、主要方向判定部3101、体毛幅算出部3102、サイズ決定部3103を含むように構成されている。
主要方向判定部3101は、体毛検出部20で生成された体毛マップまたは処理対象画像におけるエッジ方向の分析を行い、分析結果が示すエッジ方向を体毛の主要方向と判定する。主要方向判定部3101は、体毛の主要方向の判定結果を体毛幅算出部3102に出力する。
体毛幅算出部3102は、主要方向判定部3101で判定された体毛の主要方向に対して直交する方向を処理対象画像における体毛幅とする。体毛幅算出部3102は、算出した体毛幅を示す情報をサイズ決定部3103に出力する。
サイズ決定部3103は、体毛幅算出部3102で算出された体毛幅に応じて、推定情報を生成するための判別領域や、画素補間で画素値が用いられる近傍領域の領域サイズを決定する。
図15のキメ構造判定閾値決定部311は、第1の実施の形態と同様な構成で同様な動作を行い、体毛領域以外の領域の画素を皮丘画素と皮溝画素に区分するためのキメ構造判定閾値(第2閾値)を決定する。
推定処理部312は、キメ構造判定閾値決定部311で決定されたキメ構造判定閾値を用いて、体毛領域を除く処理対象画像の画素が皮丘画素と皮溝画素のいずれであるか判定する。さらに、サイズ決定部3103で決定された領域サイズの判定領域における皮丘画素と皮溝画素の判定結果を利用して、体毛領域内の注目画素が皮丘画素と皮溝画素のいずれに属するか推定情報を生成する。推定処理部312は、推定情報を補間部32に出力する。
補間部32は、キメ構造推定部31から供給された推定情報に基づき、サイズ決定部3103で決定された領域サイズの近傍領域内から、体毛領域の画素補間に用いる画素を選択的に用いて補間を行う。このように、推定情報に基づき、近傍領域内から体毛領域の画素補間に用いる画素を選択的に用いて補間を行うことで、体毛を除去した画像領域でもキメ構造が保持されるようにする。
[3−3.体毛除去部の動作]
図17は、体毛除去部の動作を示すフローチャートである。ステップST41で体毛除去部30は、領域サイズの設定を行う。体毛除去部30のキメ構造推定部31は、体毛幅を検出して、検出結果に応じて領域サイズを設定する。
図17は、体毛除去部の動作を示すフローチャートである。ステップST41で体毛除去部30は、領域サイズの設定を行う。体毛除去部30のキメ構造推定部31は、体毛幅を検出して、検出結果に応じて領域サイズを設定する。
図18は、領域サイズの設定動作を示すフローチャートである。ステップST51でキメ構造推定部31は、主要方向の判定を行う。キメ構造推定部31は、体毛画像のエッジ方向を分析して、分析結果が示すエッジ方向を体毛の主要方向と判定してステップST52に進む。
エッジ方向の分析は、例えば水平方向のエッジを検出するフィルタ、垂直方向のエッジを検出するフィルタ、斜め方向のエッジを検出するフィルタなど、異なる方向のエッジを検出する複数のフィルタを設けて、フィルタ出力が最も大きいフィルタで検出されたエッジの方向を主要方向と判定する。また、エッジ方向の分析は、他の既知の方法を用いて行うようにしてもよい。
ステップST52でキメ構造推定部31は、体毛幅の算出を行う。キメ構造推定部31は、ステップST51で判定された体毛の主要方向に対して直交する方向を処理対象画像における体毛幅とする。
図19は、体毛幅の算出を説明するための図である。図19の(A)は、主要方向(一点鎖線で示す)が水平方向(x方向)に対して45度の傾きを生じている場合、図19の(B)は、主要方向(一点鎖線で示す)が水平方向に対して90度の傾きを生じている場合を例示している。ここで、主要方向に直交する方向(=体毛の径方向に相当)のベクトル(幅方向ベクトル)Vは、式(12)または式(13)に基づいて算出できる。
なお、「dx」は注目画素を起点にして水平方向に体毛画素が何画素分だけ続いているかを示している。「dy」は注目画素を起点にして垂直方向(y方向)に体毛画素が何画素分だけ続いているかを示している。
例えば図19の(A)の場合は、「dx=2,dy=2」となる。「θ」は、水平方向と幅方向ベクトルVの方向との方向差を示す角度である。体毛幅Dは、例えば式(14)に基づいて算出する。なお「αx」は、式(15)から得られる値とする。
したがって、図19の(A)の場合、「dx=2,dy=2、αx=0.5、θ=π/4」であることから、「D=√2」となる。
また、図19の(B)の場合、体毛画素が垂直方向に連続していることから「dy=∞」として体毛幅Dを算出する。すなわち「dx=2,dy=∞、αx≒1、θ=0」であることから、「D=2」となる。
このようにしてキメ構造推定部31は、体毛主要方向に対する直交方向の体毛領域サイズを体毛幅と算出してステップST53に進む。また、体毛領域サイズは注目画素を基準とした方向判定領域内における注目画素と連続する体毛画素の画素数に基づいて判別できる。
ステップST53でキメ構造推定部31は、領域サイズを設定する。キメ構造推定部31は、ステップST52で算出された体毛幅に応じて、推定情報を生成するための判別領域や、画素補間で画素値が用いられる近傍領域の領域サイズを決定する。
図20は、体毛幅と領域サイズの関係を示している。キメ構造推定部31は、体毛幅Dに対しては、上限閾値D_th_maxと下限閾値D_th_minを予め設定しておく。また、キメ構造推定部31は、上限閾値D_th_maxにおける領域サイズとして最大領域サイズBS_maxと、下限閾値D_th_minにおける領域サイズとして最小領域サイズBS_minを設定しておく。
キメ構造推定部31は、体毛幅Dが上限閾値D_th_maxと下限閾値D_th_minの範囲内である場合に、体毛幅Dが広くなるに伴い領域サイズを広くする。領域サイズは、例えば注目画素が領域の中心位置となるように奇数画素数のサイズとする。したがって、領域の拡大は偶数画素分単位で行う。なお、キメ構造推定部31は、体毛幅Dが上限閾値D_th_max以上の場合には最大領域サイズBS_max、体毛幅Dが下限閾値D_th_min以下の場合には、最小領域サイズBS_minとする。
このようにしてキメ構造推定部31は、領域サイズを設定して図17のステップST42に進む。
ステップST42で体毛除去部30はキメ構造判定閾値を決定する。体毛除去部30のキメ構造推定部31は、上述のステップST11と同様な処理を行う。すなわち、キメ構造推定部31は、処理対象画像と体毛マップに基づき、体毛領域以外の画素に対してキメ色分布情報を作成する。次に、キメ構造推定部31は、キメ色分布情報から皮丘画素とそれ以外の皮溝画素の分布を推定して、推定結果に基づき体毛領域以外の領域の画素を皮丘画素と皮溝画素に区分するためのキメ構造判定閾値(第2閾値)を決定してステップST43に進む。
ステップST43で体毛除去部30は、キメ構造の推定を行う。体毛除去部30のキメ構造推定部31は、ステップST42で決定されたキメ構造判定閾値と体毛領域以外の画素の画素値を比較して、画素値がキメ構造判定閾値よりも大きい画素は皮丘画素、画素値がキメ構造判定閾値以下の画素は皮溝画素と判定する。さらに、キメ構造推定部31は、体毛領域以外の画素の判定結果を利用して、体毛領域内の注目画素が皮丘画素と皮溝画素のいずれに属するか推定情報を生成する。ここで、ステップST53で設定された領域サイズがbs(D)×bs(D)画素である場合、領域内の注目画素を除いた画素数は「bs(D)×bs(D)−1」となる。また、この領域内の体毛画素の画素数を「nH(D)」、肌画素の画素数を「nS(D)」とすると、式(16)の関係となる。
nS(D)=bs(D)×bs(D)−1−nH(D) ・・・(16)
nS(D)=bs(D)×bs(D)−1−nH(D) ・・・(16)
肌画素の画素数「nS(D)」のうち、肌画素における皮丘画素の画素数を「nSr(D)」、皮溝画素の画素数を「nSv(D)」とすると、皮丘割合RatioSr(D)は、式(17)で算出される。
このようにして、キメ構造推定部31は、領域内における皮丘割合RatioSr(D)を算出して、算出した皮丘割合RatioSr(D)を推定情報としてステップST44に進む。
ステップST44で補間部32は、補間処理を行う。補間部32は、注目画素からの距離に応じた補間を行う。具体的には、推定情報に基づき補間に利用する画素を切り替える。
補間部32は、第1の実施の形態と同様に、皮丘割合RatioSr(D)が「0.5」より大きい場合、注目画素を基準として設定した近傍領域内の皮丘画素の画素値に基づき注目画素の画素値を算出する。また、補間部32は、皮丘割合RatioSr(D)が「0.5」以下である場合、近傍領域内の皮溝画素の画素値に基づき注目画素の画素値を算出する。
補間部32は、近傍領域内の皮丘画素に基づいて注目画素の補間を行う場合、式(18)の演算処理を行い、皮丘画素の画素値から注目画素の画素値を算出する。なお、式(18)において、「n」は近傍領域内における皮丘画素のIDを示している。また、「I’」は補間後の画素値、「ISr」は皮丘画素の画素値、「WSr(n,D)」は皮丘画素の重みである。
皮丘画素の重み「WSr(n,D)」は式(19)から算出する。
また、式(19)において、「dSr(n)」は式(20)から算出する。なお(xSr(n),ySr(n))は、近傍領域の皮丘画素の位置、(xp,yp)は注目画素の位置を示している。
補間部32は、近傍領域内の皮溝画素に基づいて注目画素の補間を行う場合、式(21)の演算処理を行い、皮溝画素の画素値から注目画素の画素値を算出する。なお、式(21)において、「n」は近傍領域内における皮溝画素のIDを示している。また、「I’」は補間後の画素値、「ISv」は皮溝画素の画素値、「WSv(n,D)」は皮溝画素の重みである。
なお、式(21)において、「WSv(n,D)」は式(22)から算出する。
また、式(22)において、「dSv(n)」は式(23)から算出する。なお(xSv(n),ySv(n))は、近傍領域の皮溝画素の位置、(xp,yp)は注目画素の位置を示している。
このように、補間を行うと、注目画素に近い画素ほど重みが大きくなり、注目画素から遠い画素ほど重みが小さくなる。したがって、距離に応じた補間が行われて、キメ構造をより正しく考慮した補間処理を行うことができる。
<4.他の実施の形態>
明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
また、本技術は、上述した技術の実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本技術の画像処理装置は以下のような構成も取ることができる。
(1) 肌を含む処理対象画像から体毛に相当する体毛領域を検出する体毛検出部と、
前記処理対象画像における肌のキメの構造を推定するキメ構造推定部と、
前記体毛検出部で検出した体毛領域を、前記キメ構造推定部で推定されたキメの構造に基づいて補間する補間部と
を備える画像処理装置。
(2) 前記体毛検出部は、前記処理対象画像の色分布情報を生成して、該色分布情報に基づき体毛画素と肌画素を区分するための第1閾値を決定して、前記処理対処画像の各画素値を前記第1閾値と比較して前記体毛領域の検出を行う(1)に記載の画像処理装置。
(3) 前記体毛検出部は、前記体毛領域と他の領域との色分離が容易な色変換係数を決定して、該色変換係数を用いて前記処理対象画像の色変換を行い、該色変換後の処理対象画像から前記色分布情報を生成し、前記色変換後の処理対処画像の各画素値を前記第1閾値と比較する(2)に記載の画像処理装置。
(4) 前記体毛検出部は、前記色変換係数として前記体毛領域の検出における誤りの少ない係数を生成する(3)に記載の画像処理装置。
(5) 前記体毛検出部は、人種毎に前記色変換係数と前記第1閾値を決定する(3)または(4)に記載の画像処理装置。
(6) 前記体毛検出部は、前記処理対象画像の各画素値と前記第1閾値の比較結果に基づき前記処理対象画像を二値化して体毛分布情報を生成する(2)乃至(5)のいずれかに記載の画像処理装置。
(7) 前記体毛検出部は、検出された前記体毛領域に対して領域拡張を行う(1)乃至(6)のいずれかに記載の画像処理装置。
(8) 前記キメ構造推定部は、皮丘画素と皮溝画素を区分するための第2閾値を決定し、前記体毛領域の注目画素を基準とした判定領域内における肌画素が皮丘画素と皮溝画素のいずれであるか前記第2閾値を用いて判定し、前記判定領域内における皮丘画素と皮溝画素の割合に応じて、前記注目画素が皮丘画素と皮溝画素のいずれであるか推定する(1)乃至(7)のいずれかに記載の画像処理装置。
(9) 前記キメ構造推定部は、前記処理対象画像における肌画素の輝度分布から皮丘画素分布と皮溝分布を推定して、推定結果に基づいて前記第2閾値を決定する(8)に記載の画像処理装置。
(10) 前記キメ構造推定部は、体毛領域の注目画素を基準とした判定領域内に肌画素が含まれていない場合、前記判定領域のサイズを拡大する(8)または(9)に記載の画像処理装置。
(11) 前記補間部は、前記注目画素が皮丘画素と推定された場合、前記注目画素の近傍領域における皮丘画素を用いて前記注目画素の補間を行い、前記注目画素が皮溝画素と推定された場合、前記近傍領域における皮溝画素を用いて前記注目画素の補間を行う(8)乃至(10)のいずれかに記載の画像処理装置。
(12) 前記補間部は、前記注目画素の位置における体毛幅に応じて前記近傍領域の領域サイズを設定する(11)に記載の画像処理装置。
(13) 前記補間部は、前記注目画素の位置における体毛主要方向を判別し、該体毛主要方向に対する直交方向の体毛領域サイズを前記体毛幅とする(12)に記載の画像処理装置。
(14) 前記補間部は、前記注目画素を基準とした方向判定領域内における前記注目画素と連続する体毛画素の画素数に基づいて前記体毛領域サイズを判別する(13)に記載の画像処理装置。
(1) 肌を含む処理対象画像から体毛に相当する体毛領域を検出する体毛検出部と、
前記処理対象画像における肌のキメの構造を推定するキメ構造推定部と、
前記体毛検出部で検出した体毛領域を、前記キメ構造推定部で推定されたキメの構造に基づいて補間する補間部と
を備える画像処理装置。
(2) 前記体毛検出部は、前記処理対象画像の色分布情報を生成して、該色分布情報に基づき体毛画素と肌画素を区分するための第1閾値を決定して、前記処理対処画像の各画素値を前記第1閾値と比較して前記体毛領域の検出を行う(1)に記載の画像処理装置。
(3) 前記体毛検出部は、前記体毛領域と他の領域との色分離が容易な色変換係数を決定して、該色変換係数を用いて前記処理対象画像の色変換を行い、該色変換後の処理対象画像から前記色分布情報を生成し、前記色変換後の処理対処画像の各画素値を前記第1閾値と比較する(2)に記載の画像処理装置。
(4) 前記体毛検出部は、前記色変換係数として前記体毛領域の検出における誤りの少ない係数を生成する(3)に記載の画像処理装置。
(5) 前記体毛検出部は、人種毎に前記色変換係数と前記第1閾値を決定する(3)または(4)に記載の画像処理装置。
(6) 前記体毛検出部は、前記処理対象画像の各画素値と前記第1閾値の比較結果に基づき前記処理対象画像を二値化して体毛分布情報を生成する(2)乃至(5)のいずれかに記載の画像処理装置。
(7) 前記体毛検出部は、検出された前記体毛領域に対して領域拡張を行う(1)乃至(6)のいずれかに記載の画像処理装置。
(8) 前記キメ構造推定部は、皮丘画素と皮溝画素を区分するための第2閾値を決定し、前記体毛領域の注目画素を基準とした判定領域内における肌画素が皮丘画素と皮溝画素のいずれであるか前記第2閾値を用いて判定し、前記判定領域内における皮丘画素と皮溝画素の割合に応じて、前記注目画素が皮丘画素と皮溝画素のいずれであるか推定する(1)乃至(7)のいずれかに記載の画像処理装置。
(9) 前記キメ構造推定部は、前記処理対象画像における肌画素の輝度分布から皮丘画素分布と皮溝分布を推定して、推定結果に基づいて前記第2閾値を決定する(8)に記載の画像処理装置。
(10) 前記キメ構造推定部は、体毛領域の注目画素を基準とした判定領域内に肌画素が含まれていない場合、前記判定領域のサイズを拡大する(8)または(9)に記載の画像処理装置。
(11) 前記補間部は、前記注目画素が皮丘画素と推定された場合、前記注目画素の近傍領域における皮丘画素を用いて前記注目画素の補間を行い、前記注目画素が皮溝画素と推定された場合、前記近傍領域における皮溝画素を用いて前記注目画素の補間を行う(8)乃至(10)のいずれかに記載の画像処理装置。
(12) 前記補間部は、前記注目画素の位置における体毛幅に応じて前記近傍領域の領域サイズを設定する(11)に記載の画像処理装置。
(13) 前記補間部は、前記注目画素の位置における体毛主要方向を判別し、該体毛主要方向に対する直交方向の体毛領域サイズを前記体毛幅とする(12)に記載の画像処理装置。
(14) 前記補間部は、前記注目画素を基準とした方向判定領域内における前記注目画素と連続する体毛画素の画素数に基づいて前記体毛領域サイズを判別する(13)に記載の画像処理装置。
本技術の画像処理装置と画像処理方法およびプログラムでは、肌を含む処理対象画像から体毛に相当する体毛領域が検出される。また、処理対象画像における肌のキメの構造が推定される。さらに、検出した体毛領域は、推定したキメの構造に基づいて補間される。このため、肌画像から肌のキメ構造を考慮して体毛の除去を行うことができるようになる。したがって、肌の状態を確認するための美容機器や医療機器等に適用できる。
10・・・画像処理装置、20・・・体毛検出部、21・・・色変換係数決定部、22・・・色変換部、23・・・色分布情報生成部、24・・・閾値決定部、25・・・2値化部、26・・・領域拡張部、30・・・体毛除去部、31・・・キメ構造推定部、32・・・補間部、310・・・領域サイズ設定部、311・・・キメ構造判定閾値決定部、312・・・推定処理部、3101・・・主要方向判定部、3102・・・体毛幅算出部、3103・・・サイズ決定部、3111・・・キメ色分布情報生成部、3112・・・キメ色分布解析部
Claims (16)
- 肌を含む処理対象画像から体毛に相当する体毛領域を検出する体毛検出部と、
前記処理対象画像における肌のキメの構造を推定するキメ構造推定部と、
前記体毛検出部で検出した体毛領域を、前記キメ構造推定部で推定されたキメの構造に基づいて補間する補間部と
を備える画像処理装置。 - 前記体毛検出部は、前記処理対象画像の色分布情報を生成して、該色分布情報に基づき体毛画素と肌画素を区分するための第1閾値を決定して、前記処理対処画像の各画素値を前記第1閾値と比較して前記体毛領域の検出を行う請求項1記載の画像処理装置。
- 前記体毛検出部は、前記体毛領域と他の領域との色分離が容易な色変換係数を決定して、該色変換係数を用いて前記処理対象画像の色変換を行い、該色変換後の処理対象画像から前記色分布情報を生成し、前記色変換後の処理対処画像の各画素値を前記第1閾値と比較する請求項2記載の画像処理装置。
- 前記体毛検出部は、前記色変換係数として前記体毛領域の検出における誤りの少ない係数を生成する請求項3記載の画像処理装置。
- 前記体毛検出部は、人種毎に前記色変換係数と前記第1閾値を決定する請求項3記載の画像処理装置。
- 前記体毛検出部は、前記処理対象画像の各画素値と前記第1閾値の比較結果に基づき前記処理対象画像を二値化して体毛分布情報を生成する請求項2記載の画像処理装置。
- 前記体毛検出部は、検出された前記体毛領域に対して領域拡張を行う請求項1記載の画像処理装置。
- 前記キメ構造推定部は、皮丘画素と皮溝画素を区分するための第2閾値を決定し、前記体毛領域の注目画素を基準とした判定領域内における肌画素が皮丘画素と皮溝画素のいずれであるか前記第2閾値を用いて判定し、前記判定領域内における皮丘画素と皮溝画素の割合に応じて、前記注目画素が皮丘画素と皮溝画素のいずれであるか推定する請求項1記載の画像処理装置。
- 前記キメ構造推定部は、前記処理対象画像における肌画素の輝度分布から皮丘画素分布と皮溝分布を推定して、推定結果に基づいて前記第2閾値を決定する請求項8記載の画像処理装置。
- 前記キメ構造推定部は、体毛領域の注目画素を基準とした判定領域内に肌画素が含まれていない場合、前記判定領域のサイズを拡大する請求項8記載の画像処理装置。
- 前記補間部は、前記注目画素が皮丘画素と推定された場合、前記注目画素の近傍領域における皮丘画素を用いて前記注目画素の補間を行い、前記注目画素が皮溝画素と推定された場合、前記近傍領域における皮溝画素を用いて前記注目画素の補間を行う請求項8記載の画像処理装置。
- 前記補間部は、前記注目画素の位置における体毛幅に応じて前記近傍領域の領域サイズを設定する請求項11記載の画像処理装置。
- 前記補間部は、前記注目画素の位置における体毛主要方向を判別し、該体毛主要方向に対する直交方向の体毛領域サイズを前記体毛幅とする請求項12記載の画像処理装置。
- 前記補間部は、前記注目画素を基準とした方向判定領域内における前記注目画素と連続する体毛画素の画素数に基づいて前記体毛領域サイズを判別する請求項13記載の画像処理装置。
- 肌を含む処理対象画像から体毛に相当する体毛領域を検出する工程と、
前記処理対象画像における肌のキメの構造を推定する工程と、
前記検出した体毛領域を、前記推定したキメの構造に基づいて補間する工程と
を含む画像処理方法。 - 肌を含む処理対象画像の画像処理をコンピュータで実行させるプログラムであって、
前記処理対象画像から体毛に相当する体毛領域を検出する手順と、
前記処理対象画像における肌のキメの構造を推定する手順と、
前記検出した体毛領域を、前記推定したキメの構造に基づいて補間する手順と
を前記コンピュータで実行させるプログラム。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012056747A JP2013188341A (ja) | 2012-03-14 | 2012-03-14 | 画像処理装置と画像処理方法およびプログラム |
| US13/783,752 US8942448B2 (en) | 2012-03-14 | 2013-03-04 | Image processing device, image processing method, and program |
| CN201310072308.2A CN103337062B (zh) | 2012-03-14 | 2013-03-07 | 图像处理装置和图像处理方法 |
| US14/571,480 US9214035B2 (en) | 2012-03-14 | 2014-12-16 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012056747A JP2013188341A (ja) | 2012-03-14 | 2012-03-14 | 画像処理装置と画像処理方法およびプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013188341A true JP2013188341A (ja) | 2013-09-26 |
Family
ID=49157699
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012056747A Pending JP2013188341A (ja) | 2012-03-14 | 2012-03-14 | 画像処理装置と画像処理方法およびプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (2) | US8942448B2 (ja) |
| JP (1) | JP2013188341A (ja) |
| CN (1) | CN103337062B (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015049666A (ja) * | 2013-08-30 | 2015-03-16 | ポーラ化成工業株式会社 | 画像処理方法及び画像処理装置 |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102429838B1 (ko) * | 2016-03-11 | 2022-08-05 | (주)아모레퍼시픽 | 피부결 블랍을 기초로한 피부결 평가 장치 및 그 방법 |
| CN105957137B (zh) * | 2016-04-20 | 2018-09-21 | 上海交通大学 | 基于纹理映射的三维彩色模型图像处理方法 |
| CN107564071A (zh) * | 2016-07-01 | 2018-01-09 | 苏州宝时得电动工具有限公司 | 一种图像识别草地方法及装置 |
| US10860841B2 (en) * | 2016-12-29 | 2020-12-08 | Samsung Electronics Co., Ltd. | Facial expression image processing method and apparatus |
| CN108257162B (zh) * | 2016-12-29 | 2024-03-05 | 北京三星通信技术研究有限公司 | 合成脸部表情图像的方法和装置 |
| EP3363606A1 (en) * | 2017-02-20 | 2018-08-22 | Koninklijke Philips N.V. | Operatig a personal care device |
| CN111784636B (zh) * | 2020-05-29 | 2023-05-30 | 北京工商大学 | 一种基于纹理生长的皮肤图像纹理定量评估方法 |
| CN114355468B (zh) * | 2021-12-31 | 2025-08-15 | 深圳市汇顶科技股份有限公司 | 指纹检测装置的测试方法和测试装置 |
| CN115861090A (zh) * | 2022-11-11 | 2023-03-28 | 黑芝麻智能科技有限公司 | 人像图像磨皮处理方法、装置、电子设备和存储介质 |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| AUPR509801A0 (en) * | 2001-05-18 | 2001-06-14 | Polartechnics Limited | Boundary finding in dermatological examination |
| US7006223B2 (en) * | 2003-03-07 | 2006-02-28 | 3Gen, Llc. | Dermoscopy epiluminescence device employing cross and parallel polarization |
| JP2005049913A (ja) * | 2003-05-30 | 2005-02-24 | Konami Computer Entertainment Yokyo Inc | 画像処理装置、画像処理方法及びプログラム |
| US7689016B2 (en) * | 2005-05-27 | 2010-03-30 | Stoecker & Associates, A Subsidiary Of The Dermatology Center, Llc | Automatic detection of critical dermoscopy features for malignant melanoma diagnosis |
| EP1938274A2 (en) * | 2005-09-12 | 2008-07-02 | D.V.P. Technologies Ltd. | Medical image processing |
| US7792379B2 (en) * | 2007-02-06 | 2010-09-07 | Accenture Global Services Gmbh | Transforming a submitted image of a person based on a condition of the person |
| JP2010082245A (ja) | 2008-09-30 | 2010-04-15 | Panasonic Electric Works Co Ltd | 毛情報測定方法 |
| US9317970B2 (en) * | 2010-01-18 | 2016-04-19 | Disney Enterprises, Inc. | Coupled reconstruction of hair and skin |
-
2012
- 2012-03-14 JP JP2012056747A patent/JP2013188341A/ja active Pending
-
2013
- 2013-03-04 US US13/783,752 patent/US8942448B2/en active Active
- 2013-03-07 CN CN201310072308.2A patent/CN103337062B/zh not_active Expired - Fee Related
-
2014
- 2014-12-16 US US14/571,480 patent/US9214035B2/en active Active
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015049666A (ja) * | 2013-08-30 | 2015-03-16 | ポーラ化成工業株式会社 | 画像処理方法及び画像処理装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN103337062A (zh) | 2013-10-02 |
| CN103337062B (zh) | 2017-05-17 |
| US20150104099A1 (en) | 2015-04-16 |
| US20130243281A1 (en) | 2013-09-19 |
| US9214035B2 (en) | 2015-12-15 |
| US8942448B2 (en) | 2015-01-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2013188341A (ja) | 画像処理装置と画像処理方法およびプログラム | |
| JP4553942B2 (ja) | 画像処理方法及び画像処理装置 | |
| KR102103984B1 (ko) | 깊이 영상 처리 방법 및 장치 | |
| US9253388B2 (en) | Image processing device and method, and program | |
| US11838674B2 (en) | Image processing system, image processing method and storage medium | |
| JP2011210139A (ja) | 画像処理装置および方法、並びにプログラム | |
| JP2011211628A (ja) | 画像処理装置および方法、並びにプログラム | |
| US20130307966A1 (en) | Depth measurement apparatus, image pickup apparatus, and depth measurement program | |
| JP2011160379A (ja) | 画像処理装置および方法、並びにプログラム | |
| EP3073415B1 (en) | Image processing apparatus and image processing method | |
| JP2011054080A (ja) | 画像処理装置および方法、並びにプログラム | |
| JPWO2018180578A1 (ja) | 画像処理装置、撮像装置、画像処理方法、およびプログラム | |
| KR101101142B1 (ko) | 비제한적 환경에서의 홍채 인식 시스템 및 방법 | |
| JP2015088040A (ja) | 認証装置、認証方法、及びプログラム | |
| JP2012042720A (ja) | 画像処理装置および方法、並びにプログラム | |
| JP2011146827A (ja) | 画像処理装置および方法、並びにプログラム | |
| JP6340228B2 (ja) | 物体検出装置 | |
| JP2012231301A (ja) | 係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体 | |
| KR101341616B1 (ko) | 세부정보 추정에 의한 영상 개선 장치 및 방법 | |
| JP2011146826A (ja) | 画像処理装置および方法、並びにプログラム | |
| US12183055B2 (en) | Image processing method and apparatus, training method and apparatus of machine learning model, and storage medium | |
| KR101341624B1 (ko) | 위·변조 이미지 검출 장치 및 방법 | |
| EP3796216A1 (en) | Image processing apparatus, image processing method, and program | |
| JP2011028686A (ja) | 対象物検知装置 | |
| JP2015088041A (ja) | 認証装置、認証方法、及びプログラム |