[go: up one dir, main page]

JP2014178146A - 画像処理装置及び方法 - Google Patents

画像処理装置及び方法 Download PDF

Info

Publication number
JP2014178146A
JP2014178146A JP2013050920A JP2013050920A JP2014178146A JP 2014178146 A JP2014178146 A JP 2014178146A JP 2013050920 A JP2013050920 A JP 2013050920A JP 2013050920 A JP2013050920 A JP 2013050920A JP 2014178146 A JP2014178146 A JP 2014178146A
Authority
JP
Japan
Prior art keywords
image
application
subject
characteristic data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2013050920A
Other languages
English (en)
Inventor
Yusuke Moriuchi
優介 森内
Toshimitsu Kaneko
敏充 金子
Kanako Saito
佳奈子 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013050920A priority Critical patent/JP2014178146A/ja
Priority to US14/193,535 priority patent/US20140267820A1/en
Publication of JP2014178146A publication Critical patent/JP2014178146A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • G01N21/274Calibration, base line adjustment, drift correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/8422Investigating thin films, e.g. matrix isolation method
    • G01N2021/8427Coatings
    • G01N2021/8433Comparing coated/uncoated parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract


【課題】紫外線照明のような特殊な照明を利用することなく、塗布物の塗りむらを適切に判別できるようにする。
【解決手段】実施形態によれば、取得部と、演算部と、画像生成部とを具備する画像処理装置が提供される。取得部は、同一のセンサカメラ特性をもつ撮像機器によって撮像された、被写体の反射特性データの演算に使用する第1の画像と、前記被写体に塗布された塗布物の塗布量を示す塗布量データの演算に使用する第2の画像とを取得する。演算部は、前記第1の画像を用いて前記被写体の反射特性データを演算し、前記第2の画像と、塗布物の吸収特性データと、前記反射特性データとに基づいて、前記塗布物の塗布量データを演算する。画像生成部は、前記第2の画像と前記塗布量データとに基づいて、画像を生成する。
【選択図】図1

Description

本発明の実施形態は、被写体に塗布された塗布物の塗布量を同被写体の画像データに基づいて推定する画像処理方法および装置に関する。
例えば女性の顔に塗布された日焼け止め剤や化粧品の塗りむらを確認するために、ビデオカメラやデジタルカメラで撮影された女性利用者の動画像や静止画像のデータを画像処理する場合、撮影時における被写体への紫外線照明により、塗りむらを強調することができる。
特開2012−152389号公報
紫外線照明のような特殊な照明を利用することなく、塗布物の塗りむらを適切に判別できるようにすることが望ましい。
実施形態によれば、取得部と、演算部と、画像生成部とを具備する画像処理装置が提供される。取得部は、同一のセンサカメラ特性をもつ撮像機器によって撮像された、被写体の反射特性データの演算に使用する第1の画像と、前記被写体に塗布された塗布物の塗布量を示す塗布量データの演算に使用する第2の画像とを取得する。演算部は、前記第1の画像を用いて前記被写体の反射特性データを演算し、前記第2の画像と、塗布物の吸収特性データと、前記反射特性データとに基づいて、前記塗布物の塗布量データを演算する。画像生成部は、前記第2の画像と前記塗布量データとに基づいて、画像を生成する。
第1の実施形態に係る画像処理装置のブロック図 第1の実施形態に係る画像処理装置の動作を示すフローチャート 被写体領域画像と塗布領域画像を個別に撮影する例を示す図 被写体領域画像と塗布領域画像を同時に撮影する例を示す図 入力画像、尤度画像、参照画像を示す図 第1の実施形態の別の例に係る画像処理装置のブロック図 第2の実施形態に係る画像処理装置のブロック図 第2の実施形態に係る画像処理装置の動作を示すフローチャート
以下、本発明の実施形態について図面を参照しながら説明する。ここで、互いに同じ構成には共通の符号を付して、重複説明は省略する。
[第1の実施形態]
図1は本実施形態の画像処理装置1を示すブロック図である。画像処理装置1は、撮像部11、処理部12、表示部13を有する。処理部12は、モード選択部121、参照領域算出部122、特性演算部123、塗布量演算部124、画像生成部125を有する。
画像処理装置1は、任意の被写体が写る入力画像を撮影して、被写体に塗布された任意の塗布物の塗布量を提示する表示画像を表示する。被写体は、例えば人肌、髪、布および紙などであり、塗布物は、例えば日焼け止めクリーム、化粧下地クリーム、ファンデーションおよび保湿クリームに代表される肌に塗布する化粧品全般、ヘアカラー剤に代表される染料剤などである。
撮像部11は、モード選択部121で選択された撮影モードに応じて入力画像を撮影し、該入力画像をモード選択部121および画像生成部125に送信する。撮像部11は、例えばCCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いたセンサカメラを含む。センサカメラのフィルタがR,G,Bフィルタに代表される原色系フィルタである場合、センサカメラから得られる各R,G,B信号に対して逆γ補正した信号を入力画像とすればよい。また、センサカメラのフィルタがC,M,Y,Kフィルタに代表される補色系フィルタである場合、センサカメラから得られる各C,M,Y,K信号を逆γ補正した信号やC,M,Y,K信号を所定の変換方式を用いてR,G,B信号に変換した後に、逆γ補正した信号を入力画像とすればよい。
尚、入力する信号はR,G,B信号やC,M,Y,K信号に限定したものではなく、Y,U,V信号などの様々な映像信号形式を用いることができる。例えば、Y,U,V信号が入力された場合、所定の変換方式を用いてR,G,B信号に変換した後に、逆γ補正を施すことで入力画像を取得することができる。センサカメラの映像形式が未知の場合には、各入力信号に対して逆γ補正した信号を入力画像とすればよい。
また、予め塗布物体の吸収特性が既知である場合、塗布物体の吸収特性に合わせて撮像部11のセンサカメラに任意領域の波長の光のみ通過させるバンドパスフィルタを設置することが望ましい。例えば、塗布物体が日焼け止め剤の場合、紫外線を通過し可視光を吸収する吸収フィルタを設置することが望ましい。
モード選択部121は、特性データを演算する特性演算モードと、塗布量データを演算する塗布量演算モードの2つの撮影モードを有し、撮影モードが特性演算モードのときには入力画像を参照領域算出部122に送信し、塗布量演算モードのときには入力画像を塗布量演算部124に送信する。
参照領域算出部122は、入力画像から参照画像を算出して特性演算部123に送信する。参照画像は、当該被写体において塗布物が未塗布である被写体領域の画像と、当該被写体において塗布物が塗布された塗布領域の画像である。
特性演算部123は、参照画像から被写体の反射特性データと塗布物の吸収特性データを示す特性データを演算し、該特性データを塗布量演算部124に送信する。
塗布量演算部124は、被写体に塗布された塗布物の塗布量を示す塗布量データを入力画像と特性データとに基づいて演算し、該塗布量データを画像生成部125に送信する。
画像生成部125は、利用者に塗布量を提示する表示画像を入力画像と塗布量データとに基づいて生成し、該表示画像を表示部13に送信する。
表示部13は、表示画像を利用者に提示する。
次に、画像処理装置1の動作の詳細について説明する。図2は、画像処理装置1の動作を示すフローチャートである。
S201では、モード選択部121により撮影モードが選択される。撮影モードとしては、被写体の反射特性データと塗布物の吸収特性データを演算する特性演算モードと、これら特性データを利用して被写体に塗布された塗布物の量を演算する塗布量演算モードとがある。
撮影モードは、利用者に選択させても良いし、画像処理装置1が自動で選択しても良い。自動選択の場合、例えば初回使用時には撮影モードとして特性演算モードが選択され、2回目以降の使用時には撮影モードとして塗布量演算モードが選択される。また、現在時刻と特性データの算出時刻から撮影モードを自動選択してもよい。この場合、画像処理装置1により特性データが演算されてから一定時間が経過した時点で特性演算モードが選択され、それ以外は塗布量演算モードが選択される。選択された撮影モードは、撮像部11に伝えられる。
S202では、S201で選択された撮影モードに応じて撮像部11により入力画像が撮影される。特性演算モードの場合、当該被写体において、塗布物の塗布のない被写体領域が含まれる入力画像と、当該被写体において、塗布物が塗布された塗布領域が含まれる入力画像とが撮影される。入力画像については、被写体領域画像と塗布領域画像を個別に撮影しても良いし、これら2つの領域を含む1枚の入力画像を一度に撮影しても良い。個別に撮影する場合の撮影例を図3に示し、2領域を含む画像を撮影する場合の撮影例を図4に示す。
図3は、利用者が撮影機器301を右手に持ちながら被写体300に向けて入力画像を撮影する状況を示している。撮影機器301は、画像処理装置1に相当し、その背面には撮像部11(センサカメラ)を有する。撮影時には、表示画面に枠303を表示し、撮影対象をこの枠303に合わせるよう利用者に促すインストラクション302を表示することが好ましい。塗布物の塗布のない被写体領域を撮影するとき(例えば1回目)は、「枠内に肌を撮影してください。」と表示する。塗布物が塗布された塗布領域を撮影するとき(例えば2回目)は、「枠内に日焼け止め塗布領域を撮影してください。」と表示する。尚、ボタン304を通じた指示によって利用者が枠303のサイズを変更できることが好ましい。また、枠303の表示によるインストラクションの他に、撮影方法の説明を表示したり、撮影を補助する記号またはイラストを表示したり、音声誘導などによるインストラクションを利用者に与えてもよい。
図4のように被写体領域および塗布領域を含む入力画像を一度に撮影する場合、利用者はインストラクション305に従い、塗布物の塗布のない被写体領域と塗布物が塗布された塗布領域とが、それぞれ指定領域306,307に含まれるように撮影が行われる。この時の撮影タイミングは利用者が手動で決定しても良いし、撮影タイミングを自動的に決定しても良い。撮影タイミングを自動で決定する場合、上記2つの指定領域306,307内の画素信号を所定のクラスタリング手法で分類し、これら2領域に含まれる信号が最も分離されるタイミングを撮影タイミングとして入力画像を取得すればよい。例えばK−NN法やWard法、K−Means法などのクラスタリング手法を用いて、各領域の画素信号を任意数の画素集合に分類することができる。
塗布量演算モードの場合、当該被写体において塗布物の塗布量やむらを確認したい領域が撮影される。
特性演算モードおよび塗布量演算モードのいずれの場合においても、撮像部11により撮影された入力画像は、モード選択部121に送信される。
S203では、撮影モードに応じて入力画像の送信先が決定される。特性演算モードの場合には、入力画像がモード選択部121から参照領域算出部122に送信される。塗布量演算モードの場合には、入力画像がモード選択部121から塗布量演算部124に送信される。
S204では、参照領域算出部122により、入力画像に含まれる被写体領域と塗布領域から参照画像が算出される。算出された参照画像は特性演算部123に送信される。参照画像は、当該被写体において最も塗布物の塗布量が少ない領域である被写体領域画像と、当該被写体における塗布領域内で最も塗布量が多い領域である塗布領域画像である。
被写体領域から被写体領域画像を算出し、塗布領域から塗布領域画像を算出する手法としては、各領域の中心の任意サイズの矩形領域をトリミングする方法と、既存のクラスタリング手法で各領域の画素信号を分類する方法とがある。
後者の手法では、例えばK−NN法やWard法、K−Means法などのクラスタリング手法を用いて各領域の画素信号を任意数の画素集合に分類する。この分類された複数の画素集合のなかで、被写体領域と塗布領域の各領域に占める割合の最も多い画素集合に分類された画素信号を多く含むように領域を決定すればよい。
具体的には、分類された画素集合が各領域に占める割合を被写体領域画像らしさの尤度、塗布領域画像らしさの尤度とする。これら尤度を領域内の各画素に付加し、各領域について尤度が最大となる画像領域を算出することで被写体領域画像と塗布領域画像を算出することができる。また、各領域の画素信号を分類した時に、各領域で最も支配的な画素集合の平均画素やメディアン画素を中心に画像領域を選択することで被写体領域画像と塗布領域画像を算出してもよい。
図5に、入力画像に含まれる塗布領域と被写体領域から尤度を算出して、参照画像を算出する例を示す。図5(a)は入力画像、図5(b)は尤度画像、図5(c)は参照画像である。図5(a)の入力画像の左半分は塗布領域、右半分は被写体領域である。図5(b)の尤度画像は、塗布領域画像らしさの尤度を示す画像であり、画像の輝度が尤度を示す。画像の輝度が明るい画素は、塗布物が塗布されたと分類された画素であり、輝度が暗い画素は、塗布物の塗布のない画素に分類された画素である。図5(c)によれば、参照画像として塗布領域から塗布領域画像が算出され、被写体領域から被写体領域画像が算出されていることがわかる。上述したように、塗布領域画像は、塗布領域内で最も塗布量が多い領域に相当する画像、被写体領域画像は最も塗布物の塗布量が少ない領域に相当する画像である。
S205では、S204で演算された参照画像に基づいて特性演算部123により特性データが演算される。特性データは、被写体の反射特性データと塗布物の吸収特性データである。特性データは塗布量演算部124に送信される。
まず、特性演算部123は、被写体領域画像から反射特性データを演算する。被写体領域画像の画素位置xyの信号のベクトルを
Figure 2014178146
とし、被写体の反射特性データをベクトルO=[O,O,Oとし、画素位置xyの拡散反射係数をαxyとすると、ベクトルYr0 xyは次式(1)として記述することができる。
Figure 2014178146
ここで、ベクトルOの絶対値は1である。また、反射特性データのベクトルOは、撮像部11のセンサカメラの特性によって変化するため、同一の被写体を撮影してもセンサ特性により変化することが知られている。
式(1)を満たす最適な反射特性データのベクトルOを求めるには、次式(2)すなわち、
Figure 2014178146
を満たす反射特性データのベクトルOを求めればよい。式(2)は、例えば勾配降下法やNewton法などの非線形計画法の所定のアルゴリズムや最小二乗法で求めることができる。ここで、Nは被写体領域画像の画素数である。
続いて、特性演算部123は、塗布領域画像と、被写体領域画像から求めた被写体の反射特性データとに基づいて、塗布物の吸収特性データを演算する。塗布領域画像の画素位置xyの信号を
Figure 2014178146
とし、被写体領域画像から求めた被写体の反射特性データをベクトルO=[O,O,Oとし、画素位置xyの拡散反射係数をαxyとし、塗布物の吸収特性データを
ベクトルA=[A,A,Aとし、画素位置xyの塗布量をβxyとすると、ベクトルYr1 xyは次式(3)として記述することができる。
Figure 2014178146
ここで、ベクトルAの絶対値は1である。また、吸収特性データのベクトルAは、撮像部11のセンサカメラの特性によって変化するため、同一の塗布物であってもセンサ特性により吸収特性データのベクトルAは変化することが知られている。
式(3)を満たす最適な吸収特性データのベクトルAとして、式(3)を変換した次式(4)すなわち、
Figure 2014178146
を満たす最適な吸収特性データのベクトルAを求めればよい。式(4)を満たす最適な吸収特性データのベクトルAを求めるには、次式(5)すなわち、
Figure 2014178146
を満たす吸収特性データのベクトルAを求めればよい。式(5)は式(2)の最適解の算出方法と同様の手法から求めることができる。
以上のように、入力画像から特性データを演算により求めることができる。特性データは再び特性演算モードが選択されるまで特性演算部123に保持される。
尚、被写体領域画像と塗布領域画像に含まれる画素信号全体から反射特性データのベクトルOと、吸収特性データのベクトルAとを求める方法を述べたが、被写体領域画像の平均値のベクトルYr0 aveと、塗布領域画像の平均値ベクトルYr1 aveとから、反射特性データのベクトルと吸収特性データのベクトルAとを求めても良い。この場合、式(2)および式(5)の代わりに次式(6)すなわち、
Figure 2014178146
および次式(7)すなわち、
Figure 2014178146
を解くことで反射特性データのベクトルOと、吸収特性データのベクトルAとを得ることができる。
尚、図6に示すように特性演算部123に新たに記憶部126を追加し、算出された反射特性データを利用者や照明の種類、塗布物の種類に応じて記憶部126に複数パターン保持し、用途に応じて適切な反射特性データを記憶部126から読み出して使い分ける機能を追加してもよい。
また、特性データは予め任意の初期値を有し、特性演算モードが一度も選択されずに塗布量演算モードが選択された場合に、特性演算部123は予め設定された特性データを塗布量演算部124に送信する。
また、吸収特性データのベクトルAの演算時に、塗布量βxyの最大値βMAXや、平均値βAVEを求めてもよい。この場合、βMAXや、平均値βAVEは画像生成部125に送信され、塗布物が塗布されている量の閾値として利用される。
S206〜S208は、撮影モードとして塗布量演算モードが選択された場合の入力画像に対する処理を示している。S206では、S202で撮影された入力画像と、S205で求められた特性データとから、塗布量演算部124により塗布量データが演算される。塗布量データは、入力画像に写る被写体の各画素位置について、塗布物が塗布された量を示すデータである。求められた塗布量データは画像生成部125に送信される。
入力画像の画素位置xyの信号のベクトル
Figure 2014178146
は、S205で求めた反射特性データのベクトルO=[O,O,Oと、吸収特性データのベクトルA=[A,A,Aと、画素位置xyの拡散反射係数αxyと、塗布量βxyとを用いて、次式(8)として記述することができる。
Figure 2014178146
式(8)を満たす最適なαxy、βxyを求めることで入力画像の各画素位置における塗布量を求めることができる。式(8)を満たす最適なαxy、βxyを求めるには、式(8)を変換した次式(9)すなわち、
Figure 2014178146
を満たす最適なαxy、βxyを求めればよい。
式(9)は、次式(10)すなわち、
Figure 2014178146
を満たす最適解を算出することで求めることができる。式(10)の最適解の算出方法はS205と同様の手法を用いればよい。
以上により、入力画像の画素信号のベクトルYin xyを、被写体の反射特性データのベクトルOと、拡散反射係数αxyと、塗布物の吸収特性データのベクトルAと、塗布量βxyとに分離することができる。これより、センサ特性の影響を受ける反射特性のベクトルOや、吸収特性データのベクトルAや、照明による陰影変化の影響を受ける拡散反射係数αxyによらず、塗布物の塗布量βxyを算出することができる。さらに、同様の処理を入力画像の全ての画素で実施することで塗布量データを求めることができる。
なお、被写体領域画像と塗布領域画像が同一の画像から取得された場合や、被写体領域画像と塗布領域画像が異なる画像から取得された場合であっても、画像を撮影した照明の環境に大きな変化が無ければ、拡散反射係数αxyと塗布物の塗布量βxyの分離の性能が良い。
S207では、S202で撮影された入力画像と、S206で求められた塗布量データとから、画像生成部125により表示画像が生成される。生成された表示画像は表示部13に送信され、利用者に塗布量が提示されることになる。
塗布量データは、入力画像における各画素位置の塗布量を示す濃度画像である。表示画像の生成方法としては、例えば塗布量データを直接利用する方法や、入力画像に塗布量データを重畳する方法を用いればよい。さらに、生成された表示画像に対し明度変換やコントラスト変換、ヒストグラム補正、トーンカーブ補正および閾値処理などの画像処理を施すことにより、塗布量が強調された画像を得て、これを表示画像に用いてもよい。閾値処理に使用する閾値は、予め設定した値を使用してもよいし、利用者が手動で変更した値を使用してもよい。
さらに、S205で参照画像から塗布量の最大値βMAXや、平均値βAVEを算出した場合、βMAXや、βAVEを用いて算出した値を閾値として、塗布量演算モードで撮影された画像の各画素位置の塗布量が閾値を下回る画像領域を強調して利用者に提示しても良い。
以上の方法の他に、入力画像全体や任意領域の塗布量データの平均スコアから、スコアに応じた濃淡画像やカラー画像やスコアを生成し、表示画像に用いてもよい。
S208では、S207で生成された表示画像が表示部12により表示される。表示部13は、例えば液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイなどである。
以上説明した実施形態に係る画像処理装置および方法によれば、まず第1の画像を取得し、第1の画像を用いて被写体の反射特性データを含む特性データを算出する。なお、1枚の第1の画像から被写体の反射特性データだけでなく塗布物の吸収特性データを取得しても良いし、1枚の画像から被写体の反射特性データを取得し、別の画像から塗布物の吸収特性データを取得しても良い。そして、第1の画像を撮像した撮像機器と同一のセンサカメラ特性を持つ撮像機器から撮像された第2の画像について、第1の画像から算出した特性データを用いて塗布量を算出する。このように、第1の画像と第2の画像を同一のセンサカメラ特性を持つ撮像機器から取得することで、センサカメラの特性と照明による陰影の変化によらず、塗布量データを算出することができる。なお、同一のセンサカメラ特性を持つ撮像機器で第1の画像と第2の画像を取得することは、同一の撮像機器で第1の画像と第2の画像を取得することを含む。
従来技術のように、紫外線照明などの特殊な照明装置を用いて塗布物の塗りむらを強調し、その画像を取得して塗布量を算出しようとしても、画像を取得するカメラの特性が考慮されておらず、さらに陰影と塗りむらの判別が困難である。
しかしながら、本実施形態によれば、カメラの特性の影響を受けずに利用者の肌に塗布された日焼け止め剤の塗布量を確認することができる。さらに、入力画像の信号変化から日焼け止め剤の塗布による信号変化と照明による陰影による信号変化を分離することができるために、塗布量データは陰影の影響を受けない。そのため、陰影による変化に左右されず利用者はすばやく日焼け止め剤の塗りむらを確認することができる。また、紫外線照明などの特殊な照明装置を用いる必要もない。
[第2の実施形態]
第2の実施形態は、撮影モードが第1の実施形態とは異なる。本実施形態においては、撮影モードとして、被写体の反射特性データを演算する反射特性演算モードと、1枚の画像から塗布物の吸収特性データを演算した後に塗布量データを演算する吸収特性演算モードと、塗布量演算モードとを有する。
第2の実施形態の画像処理装置は、まず反射特性演算モードにおいて第1の画像を取得して、被写体の反射特性データを演算する。そして、第1の画像を撮像した撮像機器と同一のセンサカメラ特性を持つ撮像機器で撮像された第2の画像を取得する。本実施形態の画像処理装置は、第2の画像から塗布物の吸収特性データを演算し、吸収特性データを演算した第2の画像から塗布物の塗布量を演算する。そして、第1および第2の画像を撮像した撮像機器と同一のセンサカメラ特性を持つ撮像機器で撮像された第3の画像を取得したときに、塗布量演算モードとし、第2の画像から算出された吸収特性データを用いて塗布物の塗布量を演算する。
なお、塗布物の塗布量を演算する場合に、吸収特性演算モードを選択するか、塗布量演算モードを選択するかは、例えば、第1の画像が撮像された時刻と塗布量を演算する時刻との差を用いて判断することができる。第1の画像が撮像された時刻と塗布量を演算する時刻との差が所定の時間以内であれば塗布量演算モードとし、所定の時間を超えるならば吸収特性演算モードとすることができる。また、例えば動画を撮像する場合には、動画の1フレームから所定のフレームは吸収特性演算モードとし、以降のフレームは塗布量演算モードとしても良い。さらに、吸収特性演算モードで複数の第2の画像から吸収特性を演算した場合に、複数の第2の画像から演算した吸収特性の平均値を塗布量演算モードで使用する吸収特性としても良い。
図7は、本実施形態の画像処理装置6を示す図である。画像処理装置6は、図1の画像処理装置1と比較して、撮像部61および処理部62におけるモード選択部621、参照領域算出部622の処理内容が異なる。画像処理装置6は、任意の被写体が写る入力画像を撮影して、被写体に塗布された任意の塗布物の塗布量を提示する表示画像を表示する。
撮像部61は、モード選択部621で選択された撮影モードに応じて入力画像を撮影し、モード選択部621および画像生成部125に送信する。
モード選択部621は、反射特性データを演算する反射特性演算モードと、吸収特性データを演算した後に塗布量データを演算する吸収特性演算モードと塗布量データを演算する塗布量演算モードの3つの撮影モードを有し、撮影モードに応じて入力画像を送信する。反射特性演算モードでは入力画像を参照領域算出部622に送信する。吸収特性演算モードでは、入力画像を参照領域算出部622および塗布量演算部124に送信する。塗布量演算モードでは入力画像を塗布量演算部124に送信する。
参照領域算出部622は、入力画像から参照画像を算出する。参照画像は被写体に塗布物が未塗布である被写体領域と被写体に塗布物が塗布された塗布領域の画像である。算出された参照画像は特性演算部123に送信される。
次に、画像処理装置6の動作の詳細について説明する。図8は、画像処理装置3の動作を示すフローチャートである。S206〜S208は図2の説明と重複するため省略する。
S701では、モード選択部621により撮影モードが選択される。撮影モードとして、被写体の反射特性データを演算する反射特性演算モードと、塗布物の吸収特性データを演算した後に塗布量データを演算する吸収特性演算モードと、被写体に塗布された塗布物の量を演算する塗布量演算モードがある。撮影モードは、利用者に選択させても良いし、例えば初回使用時に反射特性演算モードを選択し、それ以外は吸収特性演算モードか塗布量演算モードを選択するようにさせてもよい。選択された撮影モードは撮像部61に送信される。
S702では、S701で選択された撮影モードに応じて撮像部61により入力画像が撮影される。反射特性演算モードの場合、被写体において塗布物の塗布のない領域が写る被写体領域画像が撮影される。撮影時は、第1の実施形態と同様に、撮影画面に所定の枠を表示し、撮影する入力画像の指定領域に塗布物の塗布のない領域が含まれるように撮影する旨のインストラクションを利用者に与えることが望ましい。反射特性演算モード以外のモードの場合、被写体において塗布物の塗布量やむらを確認したい領域が入力画像として写る。撮影した入力画像はモード選択部621に送信される。
S703およびS704では、撮影モードに応じて入力画像の送信先がモード選択部621により選択される。S703では、反射特性演算モードの場合には、入力画像がモード選択部621から参照領域算出部622に送信される。それ以外のモードの場合には、S704に進む。
S704において、吸収特性演算モードの場合には、入力画像がモード選択部621から参照領域算出部622および塗布量演算部124に送信される。
S705では、参照領域算出部622により、入力画像に含まれる被写体領域から被写体領域画像が算出される。被写体領域画像の算出方法は、S204と同様である。
S706では、S705で算出された被写体画像から、特性演算部123により被写体の反射特性データが演算される。求められた反射特性データは塗布量演算部124に送信される。被写体領域画像から反射特性データを演算する方法はS205と同様である。
S707では、参照領域算出部622により、入力画像から塗布領域画像が算出される。算出された塗布領域画像は特性演算部123に送信される。塗布領域画像を算出する手法として、例えば、入力画像の画素信号を既存のクラスタリング手法で分類する手法を用いればよい。画素信号を任意数の画素集合に分類し、この分類された画素集合のなかで入力画像に占める割合の最も多い画素集合に分類された画素信号を多く含むように領域を決定すればよい。分類された画素集合が入力画像に占める割合を塗布領域画像らしさの尤度として入力画像の各画素に付加し、尤度が最大となる画像領域を算出することで塗布領域画像を算出することができる。
また、入力画像の画素信号と、S705で算出された被写体領域画像の画素信号とを合わせた画素信号をクラスタリングすることで塗布領域画像を算出してもよい。この場合、被写体領域画像と同じ画素集合に分類された画素の尤度を低下させるように塗布領域画像らしさの尤度を算出すればよい。
S708では、S707で算出された塗布領域画像とS706で算出された反射特性データとを用いて、特性演算部123により塗布物の吸収特性データが演算される。吸収特性データの演算方法はS205と同様である。求められた吸収特性データは塗布量演算部124に送信される。
尚、特性データは予め任意の初期値を有する。反射特性演算モードが一度も選択されずに他のモードが選択された場合、特性演算部123は予め設定された反射特性データを塗布量演算部124に送信する。また、吸収特性演算モードが選択させずに塗布量演算モードが選択された場合、特性演算部123は予め設定された吸収特性データを塗布量演算部124に送信する。
本実施形態の画像処理装置によれば、第1の実施形態と同様の効果を奏するのみならず、被写体に塗布物を塗布した領域の画像を事前に撮影することなく、被写体に塗布された塗布物の塗布量や塗布むらを利用者に提示することができる。
上記の各実施形態の画像処理装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現可能である。実行されるプログラムは、上述した各機能を含むモジュール構成としてもよい。プログラムはインストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供しても、ROM等に予め組み込んで提供してもよい。
また、上記の各実施形態の画像処理装置は、撮像部と表示部を有するとして説明したが、撮像部と表示部を有さない形態も考えられる。例えば、反射特性を演算するための画像と塗布物の塗布量を演算するための画像が、同一のセンサカメラ特性をもつ機器で撮像されていれば、有線または無線で接続された撮像機器から画像を取得しても良いし、外部の記憶装置に記憶された画像を取得しても良い。また、画像生成部で生成した画像を、外部の表示装置に送信し、外部の表示装置がその画像を表示しても良い。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…画像処理装置
11…撮像部
12…処理部
13…表示部
121…モード選択部
122…参照領域算出部
123…特性演算部
124…塗布量演算部
125…画像生成部
126…記憶部

Claims (14)

  1. 同一のセンサカメラ特性をもつ撮像機器によって撮像された、被写体の反射特性データの演算に使用する第1の画像と、前記被写体に塗布された塗布物の塗布量を示す塗布量データの演算に使用する第2の画像とを取得する取得部と、
    前記第1の画像を用いて前記被写体の反射特性データを演算し、前記第2の画像と、塗布物の吸収特性データと、前記反射特性データとに基づいて、前記塗布物の塗布量データを演算する演算部と、
    前記第2の画像と前記塗布量データとに基づいて、画像を生成する画像生成部と、
    を具備することを特徴とする画像処理装置。
  2. 前記第1の画像から被写体に前記塗布物が未塗布である被写体領域を取得する参照領域算出部をさらに有し、
    前記演算部は、前記被写体領域から前記被写体の反射特性データを演算することを特徴とする請求項1に記載の装置。
  3. 前記参照領域算出部は、前記第1の画像から塗布物が塗布された塗布領域をさらに取得し、
    前記演算部は、前記塗布領域と前記被写体の反射特性データとを用いて前記塗布物の吸収特性データを演算することを特徴とする請求項2に記載の装置。
  4. 前記第2の画像から塗布物が塗布された塗布領域を取得する参照領域算出部をさらに有し、
    前記演算部は、前記塗布領域と前記被写体の反射特性データとを用いて前記塗布物の吸収特性データを演算することを特徴とする請求項1に記載の装置。
  5. 前記取得部は、前記第1の画像および前記第2の画像を撮像した撮像機器と同一のセンサカメラ特性をもつ撮像機器によって撮像された第3の画像をさらに取得し、
    前記演算部は、前記第3の画像と前記被写体の反射特性データとを用いて前記塗布物の吸収特性データを演算することを特徴とする請求項1に記載の装置。
  6. 任意の波長領域を吸収するフィルタを有する撮像部をさらに有し、
    前記取得部は、前記撮像部から第1の画像および第2の画像を取得することを特徴とする請求項1乃至5のいずれかに記載の装置。
  7. 前記撮像部の前記フィルタは、前記第1の画像と前記第2の画像を撮像するときに、同一の構成をもつことを特徴とする請求項5に記載の装置。
  8. 前記第1の画像または第2の画像の撮像時において、前記第1の画像または第2の画像の指定領域に前記被写体領域または前記塗布領域が含まれるように前記被写体の撮影方法を誘導するための手段をさらに具備する請求項1乃至7のいずれかに記載の装置。
  9. 前記第1の画像の第1の指定領域に前記被写体領域が含まれ、前記第1の画像の第2の指定領域に前記塗布領域が含まれるように前記被写体の撮影方法を誘導するための手段をさらに具備し、
    前記参照領域算出部は、前記第1および第2の指定領域内の画素信号を分類した結果に基づいて前記被写体領域および前記塗布領域を算出する請求項3に記載の装置。
  10. 前記参照領域算出部は、
    前記第1の画像の画素信号をクラスタリングすることにより画素集合を算出し、前記画素集合が前記第1の画像に占める割合から算出される尤度を前記第1の画像の各画素に付加し、前記尤度が最も大きくなる領域を前記被写体領域または前記塗布領域として算出する請求項3に記載の装置。
  11. 前記反射特性データは、前記被写体の反射特性を示す行列データであり、前記行列データの各成分は前記第1の画像の画素信号の各波長信号から算出される請求項1乃至10のいずれかに記載の装置。
  12. 前記吸収特性データは、前記塗布物の吸収特性を示す行列データであり、
    前記反射特性データと前記塗布領域の画素の各波長信号の信号比を分解することで、前記行列データの各成分が算出される請求項3乃至5のいずれかに記載の装置。
  13. 利用者や照明の種類、塗布物の種類を含む用途に応じて、前記反射特性データの複数のパターンを記憶する記憶部をさらに具備する請求項1乃至12のいずれかに記載の装置。
  14. 第1の画像を取得するステップと、
    前記第1の画像を用いて前記被写体の反射特性データを演算するステップと、
    前記第1の画像を撮影した撮像機器と同一のセンサカメラ特性を有する撮像機器によって撮像された第2の画像を取得するステップと、
    前記被写体の反射特性データと、前記第2の画像と、塗布物の吸収特性データとに基づいて、前記被写体に塗布された前記塗布物の塗布量データを演算するステップと、
    前記第2の画像と前記塗布量データとに基づいて表示画像を生成するステップと、
    を具備する画像処理方法。
JP2013050920A 2013-03-13 2013-03-13 画像処理装置及び方法 Abandoned JP2014178146A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013050920A JP2014178146A (ja) 2013-03-13 2013-03-13 画像処理装置及び方法
US14/193,535 US20140267820A1 (en) 2013-03-13 2014-02-28 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013050920A JP2014178146A (ja) 2013-03-13 2013-03-13 画像処理装置及び方法

Publications (1)

Publication Number Publication Date
JP2014178146A true JP2014178146A (ja) 2014-09-25

Family

ID=51525725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013050920A Abandoned JP2014178146A (ja) 2013-03-13 2013-03-13 画像処理装置及び方法

Country Status (2)

Country Link
US (1) US20140267820A1 (ja)
JP (1) JP2014178146A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019515289A (ja) * 2016-04-27 2019-06-06 ヴォクセライト,エルエルシー 日焼け止め剤の被覆率を評価する為の撮像装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106645143A (zh) * 2016-09-29 2017-05-10 上海家化联合股份有限公司 含防晒剂产品防晒性能的人体测试方法
CN106442331B (zh) * 2016-09-29 2021-02-26 上海家化联合股份有限公司 防晒产品防水能力的测试方法
CN106370604B (zh) * 2016-09-29 2021-02-26 上海家化联合股份有限公司 清洁类产品对防晒产品清洁能力的人体测试方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8659668B2 (en) * 2005-10-07 2014-02-25 Rearden, Llc Apparatus and method for performing motion capture using a random pattern on capture surfaces
EP2022008A4 (en) * 2006-05-09 2012-02-01 Technion Res & Dev Foundation PICTURE SYSTEMS AND METHOD FOR RESTORING THE OBJECTIBILITY
DE602007014218D1 (de) * 2007-09-20 2011-06-09 Biocompatibles Uk Ltd Vorrichtung und Verfahren zur Messung der Kollagendicke
JP5294723B2 (ja) * 2008-06-26 2013-09-18 富士フイルム株式会社 画像取得装置
CN102164530B (zh) * 2009-03-30 2014-07-30 奥林巴斯医疗株式会社 荧光观察装置
US8792969B2 (en) * 2012-11-19 2014-07-29 Xerox Corporation Respiratory function estimation from a 2D monocular video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019515289A (ja) * 2016-04-27 2019-06-06 ヴォクセライト,エルエルシー 日焼け止め剤の被覆率を評価する為の撮像装置

Also Published As

Publication number Publication date
US20140267820A1 (en) 2014-09-18

Similar Documents

Publication Publication Date Title
KR102691544B1 (ko) 모바일 전자 기기를 사용한 고품질 플래쉬 사진을 위해 복수의 이미지를 촬영 및 블렌딩하는 장치 및 방법
JP6066536B2 (ja) ゴーストのない高ダイナミックレンジ画像の生成
JP6185453B2 (ja) シーン分類に基づく高ダイナミックレンジ画像処理のための最適アルゴリズムの自動選択
KR101662846B1 (ko) 아웃 포커싱 촬영에서 빛망울 효과를 생성하기 위한 장치 및 방법
JP6312714B2 (ja) 陰影検出および減衰のためのマルチスペクトル撮像システム
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
CN103973977B (zh) 一种预览界面的虚化处理方法、装置及电子设备
CN108668093A (zh) Hdr图像的生成方法及装置
US9152873B2 (en) Device and method for determining an optimum image
US9779290B2 (en) Detecting apparatus, detecting method and computer readable recording medium recording program for detecting state in predetermined area within images
JP2017147658A (ja) 画像処理装置、撮像装置、制御方法及びプログラム
JP6096298B2 (ja) 逆光補正方法、装置及び端末
US20120147246A1 (en) Methods And Apparatus For Use In Enabling An Efficient Review Of Photographic Images Which May Contain Irregularities
CN107454315B (zh) 逆光场景的人脸区域处理方法和装置
CN107277479A (zh) 白平衡处理方法和装置
WO2010116478A1 (ja) 画像処理装置および画像処理方法、画像処理プログラム
JP2014178146A (ja) 画像処理装置及び方法
CN105704395B (zh) 拍照方法和拍照装置
CN105957020A (zh) 图像生成装置以及图像生成方法
JP2004320284A (ja) デジタルカメラ
WO2016063595A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP2015192338A (ja) 画像処理装置および画像処理プログラム
JP5272775B2 (ja) 電子スチルカメラ
JP6384205B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
CN104539842A (zh) 智能拍照方法及拍照装置

Legal Events

Date Code Title Description
A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20150914