JP2017158921A - Skin condition evaluation method - Google Patents
Skin condition evaluation method Download PDFInfo
- Publication number
- JP2017158921A JP2017158921A JP2016047853A JP2016047853A JP2017158921A JP 2017158921 A JP2017158921 A JP 2017158921A JP 2016047853 A JP2016047853 A JP 2016047853A JP 2016047853 A JP2016047853 A JP 2016047853A JP 2017158921 A JP2017158921 A JP 2017158921A
- Authority
- JP
- Japan
- Prior art keywords
- skin
- image
- blur
- distribution information
- blurred
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
本発明は、肌状態の評価技術に関する。 The present invention relates to a skin condition evaluation technique.
肌の状態を評価する指標の一つに質感(テクスチャ)があり、質感には、光沢感、透明感、美肌感、暗さ感、凹凸感、加齢感(年齢印象)など様々な印象要素が含まれ得る。
下記の特許文献1には、被験者の顔画像を用いて被験者の美容上のハリ感を質感として評価する方法が開示されている。この方法では、被験者の顔画像の頬領域についての輝度の階調画像から所定の階調領域の面積又は形状に関する指標値が算出され、その指標値に基づいて被験者の美容上のハリ感が評価される。
One of the indices for evaluating the skin condition is texture (texture), which includes various impression elements such as gloss, transparency, beautiful skin, darkness, unevenness, and aging (age impression). Can be included.
Patent Literature 1 below discloses a method for evaluating a subject's beauty on the skin as a texture using the subject's face image. In this method, an index value related to the area or shape of a predetermined gradation area is calculated from the luminance gradation image of the cheek area of the subject's face image, and the cosmetic elasticity of the subject is evaluated based on the index value. Is done.
また、凹凸や色ムラ等のような肌表面の形体的特徴自体により肌の状態を評価することもできる。
下記の特許文献2には、肌表面の形体的特徴として頬のたるみを評価する方法が開示されている。具体的には、ファンデーションによる頬のたるみの補正効果を評価する方法が開示されている。この方法は、モーフィング技術により平均化した仮想顔画像の明度分布を複数階調の明度等高線で表し、その等高線を利用して得られる角度や面積を算出する。
In addition, the skin condition can be evaluated based on the physical characteristics of the skin surface such as unevenness and color unevenness.
The following Patent Document 2 discloses a method for evaluating cheek sagging as a feature of the skin surface. Specifically, a method for evaluating the effect of correcting cheek sagging by the foundation is disclosed. In this method, the lightness distribution of the virtual face image averaged by the morphing technique is represented by lightness contour lines of a plurality of gradations, and the angle and area obtained by using the contour lines are calculated.
上述の各手法によれば、「ハリ感」や「頬のたるみ」といった限定された指標に基づく評価が可能である。しかしながら、質感や形体的特徴など様々な指標による肌状態評価を横断的に実現し得る手法は未だ確立されていない。 According to each method described above, it is possible to make an evaluation based on a limited index such as “harness” or “cheek sagging”. However, no method has yet been established that can achieve skin condition evaluation across various indices such as texture and shape characteristics.
本発明は上記の課題に鑑みてなされたものであり、様々な指標による肌状態評価を可能とする技術を提供する。本明細書において「肌状態の評価」とは、非医療目的で、肌表面の見かけ状態を評価することを意味し、専門家以外の評価者であっても可能な評価を含む。 This invention is made | formed in view of said subject, and provides the technique which enables the skin state evaluation by a various parameter | index. In this specification, “evaluation of skin condition” means to evaluate the apparent condition of the skin surface for non-medical purposes, and includes evaluations that are possible even by an evaluator other than an expert.
本発明の第一の態様に係る肌状態評価方法は、肌表面が撮影された所定ぼかし強度のぼかし画像を取得する取得工程と、前記ぼかし画像における特定の明度範囲の分布情報を生成する生成工程と、を含む。 The skin condition evaluation method according to the first aspect of the present invention includes an acquisition step of acquiring a blur image having a predetermined blur intensity obtained by photographing a skin surface, and a generation step of generating distribution information of a specific brightness range in the blur image. And including.
本発明の第二の態様に係る化粧料、美容施術(医療行為を除く)又は美容用若しくは健康用の飲食品の効果を評価する方法は、該化粧料、該美容施術(医療行為を除く)又は美容用若しくは健康用の該飲食品の適用前後の肌を、上記肌状態評価方法により評価する。 The cosmetic according to the second aspect of the present invention, a cosmetic treatment (excluding medical practice) or a method for evaluating the effect of a cosmetic or health food or drink, the cosmetic, the cosmetic treatment (excluding medical practice) Alternatively, the skin before and after application of the food or drink for beauty or health is evaluated by the skin condition evaluation method.
本発明の第三の態様は、肌状態評価装置は、肌表面が撮影された所定ぼかし強度のぼかし画像を取得する取得手段と、前記ぼかし画像における特定の明度範囲の分布情報を生成する生成手段と、を備える。 According to a third aspect of the present invention, the skin condition evaluation apparatus obtains a blur image having a predetermined blur intensity obtained by photographing a skin surface, and a generation unit that generates distribution information of a specific brightness range in the blur image. And comprising.
本発明により提供される技術によれば、様々な指標による肌状態評価が可能となる。 According to the technique provided by the present invention, it is possible to evaluate the skin condition using various indices.
以下、本発明の実施形態について図面を用いて説明する。
はじめに、本実施形態の概要について説明する。
本実施形態の肌状態評価方法(以下、本方法と表記する場合がある)は、肌表面のぼかし画像を取得する取得工程と、そのぼかし画像における特定の明度範囲の分布情報を生成する生成工程とを含む。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, an outline of the present embodiment will be described.
The skin condition evaluation method of the present embodiment (hereinafter sometimes referred to as the present method) includes an acquisition step of acquiring a blurred image of the skin surface, and a generation step of generating distribution information of a specific brightness range in the blurred image. Including.
取得工程で取得されるぼかし画像は、被験者の肌表面の評価対象部位を含む被験者の体の少なくとも一部が撮影された所定ぼかし強度の画像である。ぼかし画像に写り込む評価対象部位は特に限定されない。例えば、透明感、光沢感、加齢感、色ムラ感などの対象となる評価指標に応じて、当該評価対象部位が決められる。また、人体における当該評価対象部位を包む広い範囲が写る画像から当該評価対象部位の画像領域を切り出すことで、当該ぼかし画像が取得されてもよい。 The blurred image acquired in the acquisition step is an image having a predetermined blur intensity obtained by photographing at least a part of the body of the subject including the evaluation target site on the skin surface of the subject. There are no particular limitations on the evaluation target part that appears in the blurred image. For example, the evaluation target part is determined according to an evaluation index that is a target such as a sense of transparency, gloss, aging, and color unevenness. Further, the blurred image may be acquired by cutting out an image region of the evaluation target part from an image showing a wide range surrounding the evaluation target part in the human body.
ぼかし画像は、カメラにより撮像された肌画像に対して所定ぼかし強度のぼかし処理を施すことによって取得されてもよい。例えば、ぼかし処理には、ぼかしのかかっていない肌画像に含まれる大局的な空間情報(低周波成分)を維持しつつ、局所的な特徴(高周波成分)を平均化する処理が選ばれる。具体的なぼかし処理手法には、移動平均フィルタなどの平滑化フィルタ、メディアンフィルタなどの非平滑化処理によるノイズ除去フィルタなどがある。本実施形態では、ぼかし処理手法は制限されない。
「所定ぼかし強度」は、予め定められたぼかしの強さであり、評価指標などに応じて決められる。例えば、移動平均フィルタがぼかし処理で利用される場合、移動平均フィルタの適用回数がぼかし強度に相当する。この場合、「所定ぼかし強度のぼかし画像」は、元の肌画像に対して予め定められた回数、移動平均フィルタを繰り返し適用することで取得される。また、移動平均フィルタのフィルタサイズが大きい程、平滑化の度合いが増し、ぼかし強度が強くなる。よって、移動平均フィルタのフィルタサイズを予め定められたサイズとすることにより、所定ぼかし強度を実現することもできる。
他の例として、ぼかし画像は、撮像装置(カメラ)の独自機能により取得されてもよい。例えば、ぼかし画像は、カメラに所定ぼかし強度を実現し得る特殊レンズを装着してぼかし撮影されたものであってもよいし、カメラに実装される画像処理ソフトウェアによりぼかし撮影又はぼかし処理されたものであってもよい。この場合、カメラからぼかし画像が直接取得されてもよいし、カメラから可搬型記録媒体やパーソナルコンピュータ(PC)等を経由して間接的に取得されてもよい。
The blurred image may be acquired by performing a blurring process with a predetermined blur intensity on the skin image captured by the camera. For example, a process for averaging local features (high frequency components) while maintaining global spatial information (low frequency components) included in an unblurred skin image is selected as the blurring process. Specific blurring processing methods include a smoothing filter such as a moving average filter, a noise removal filter using non-smoothing processing such as a median filter, and the like. In the present embodiment, the blurring processing method is not limited.
The “predetermined blur strength” is a predetermined blur strength and is determined according to an evaluation index or the like. For example, when the moving average filter is used in the blurring process, the number of times the moving average filter is applied corresponds to the blurring intensity. In this case, the “blurred image with a predetermined blur intensity” is acquired by repeatedly applying a moving average filter to the original skin image a predetermined number of times. Also, the greater the filter size of the moving average filter, the greater the degree of smoothing and the greater the blur intensity. Therefore, the predetermined blur intensity can be realized by setting the filter size of the moving average filter to a predetermined size.
As another example, the blurred image may be acquired by a unique function of the imaging device (camera). For example, the blurred image may be a blurred image obtained by attaching a special lens capable of realizing a predetermined blur intensity to the camera, or a blurred image or a blurred process performed by image processing software installed in the camera. It may be. In this case, the blurred image may be acquired directly from the camera, or may be acquired indirectly from the camera via a portable recording medium or a personal computer (PC).
また、ぼかし画像は、カラー画像でもよく、又は特定色チャネルの濃淡画像でもよい。濃淡画像としては、淡色の濃淡画像(グレースケール画像)、R(赤)、G(緑)、B(青)又は特定波長の濃淡画像が例示される。グレースケール画像は、カラー画像から単純平均法等の周知の手法で変換されて得られたものであってもよい。
ぼかし画像のファイル形式は、JPEG、GIF、TIFF、BMP等、任意であるが、TIFFやBMPのように非圧縮形式であることが望ましい。圧縮による画像情報の欠落を抑止できるからである。
The blurred image may be a color image or a grayscale image of a specific color channel. Examples of the grayscale image include a pale grayscale image (grayscale image), R (red), G (green), B (blue), or a grayscale image of a specific wavelength. The grayscale image may be obtained by converting a color image by a known method such as a simple average method.
The file format of the blurred image is arbitrary, such as JPEG, GIF, TIFF, and BMP, but is preferably an uncompressed format such as TIFF and BMP. This is because loss of image information due to compression can be suppressed.
生成工程で生成される「分布情報」は、ぼかし画像中の、特定の明度範囲内の明度を持つ画素(以降、対象画素と表記する場合もある)の分布を示す情報である。「分布情報」としては、対象画素の数(面積)、一以上の対象画素が連なって形成する局所領域(島)の数又は面積、二以上の対象画素の連なりなどで示される方向、対象画素の分布範囲の広がり度合又は位置などの一以上の指標値が例示される。「分布情報」の他の例として、ぼかし画像中の当該局所領域を輪郭線又は色分けで表す画像(等高線画像など)、又はぼかし画像中の対象画素の分布を画像(図、表、グラフ等)であってもよい。 The “distribution information” generated in the generation process is information indicating the distribution of pixels (hereinafter also referred to as target pixels) having brightness within a specific brightness range in the blurred image. The “distribution information” includes the number of target pixels (area), the number or area of local regions (islands) formed by a series of one or more target pixels, the direction indicated by a series of two or more target pixels, the target pixels One or more index values such as the extent or position of the distribution range are exemplified. As another example of “distribution information”, an image (contour image or the like) that represents the local region in the blurred image by contour lines or color coding, or an image of the distribution of the target pixel in the blurred image (such as a diagram, table, or graph) It may be.
「特定の明度範囲」とは、明度に関する特定の範囲を意味する。評価対象やぼかし画像の明度分布などに応じて、特定範囲を決めることができる。例えば、光沢のような明るい成分を評価対象とする場合には、明度が高い範囲が設定され、陰影のような暗い成分を評価対象とする場合には、明度が低い範囲が設定される。
「明度」とは、明るさの度合いを意味する。本明細書において「明度」は、一般的な「明度」の意味に加えて、「輝度」の意味も包含する広い意味で用いられる。即ち、本明細書における「明度」は、HSV又はHSBモデルの明度(Value又はBrightness)成分の値で示されてもよいし、HSLモデルの輝度(Lightness)成分の値で示されてもよい。例えば、「明度」は、画素値(R値、G値及びB値)の中の最大値、R値、G値及びB値のいずれか一つ、又はR値、G値及びB値の少なくとも2つから算出される輝度値により示される。輝度値は、グレースケール画像の画素値(濃淡の度合いを示す値)であってもよい。
“Specific brightness range” means a specific range related to brightness. The specific range can be determined according to the evaluation target and the brightness distribution of the blurred image. For example, when a bright component such as gloss is to be evaluated, a range with high brightness is set, and when a dark component such as a shadow is to be evaluated, a range with low brightness is set.
“Brightness” means the degree of brightness. In this specification, “lightness” is used in a broad sense including the meaning of “luminance” in addition to the general meaning of “lightness”. That is, the “lightness” in this specification may be indicated by the value of the brightness (Value or Brightness) component of the HSV or HSB model, or may be indicated by the value of the brightness (Lightness) component of the HSL model. For example, “lightness” is at least one of a maximum value, R value, G value, and B value among pixel values (R value, G value, and B value), or at least R value, G value, and B value. It is indicated by the luminance value calculated from the two. The luminance value may be a pixel value of a gray scale image (a value indicating the degree of shading).
ここで、「局所領域」とは、ぼかし画像中の、一以上の対象画素が連なって形成する部分領域である。「局所領域」の設定手法には複数種の手法が考えられる。例えば、一つの手法では、「局所領域」が一以上の対象画素で形成され、かつ、隣接する対象画素同士が同じ「局所領域」に属するように「局所領域」が設定される。また、別の手法では、所定数以上の対象画素の連なりが「所定領域」の形成条件とされてもよい。この手法において所定数が3に設定される場合、隣接する対象画素が存在しない一つの対象画素は「局所領域」とは見なされない。更に別の手法では、対象画素以外の画素と隣接しない対象画素が一つ以上存在する対象画素の連なりが「局所領域」の形成条件とされてもよい。 Here, the “local region” is a partial region formed by connecting one or more target pixels in the blurred image. A plurality of methods can be considered as a method for setting the “local region”. For example, in one method, the “local region” is set so that the “local region” is formed of one or more target pixels and adjacent target pixels belong to the same “local region”. In another method, a predetermined number or more of target pixels may be used as a condition for forming the “predetermined region”. When the predetermined number is set to 3 in this method, one target pixel having no adjacent target pixel is not regarded as a “local region”. In yet another method, a sequence of target pixels in which one or more target pixels that are not adjacent to a pixel other than the target pixel exist may be used as the “local region” formation condition.
本発明者は、後述するとおり、複数人の肌画像を対象に肌表面の見かけ状態に関する官能評価を行った。その官能評価では、光沢感、加齢感などといった複数の指標での評価が行われた。結果、所定強度でぼかした肌画像中の特定の明度範囲の分布の違いが各指標での肌表面の見かけ状態の違いと相関性を示すことが見出された。
本実施形態では、このような知見に基づき、肌表面のぼかし画像における特定の明度範囲の分布情報が生成され、この生成された分布情報に基づいて、肌状態が評価される。
所定強度での肌画像のぼかしは、美肌が示す均一的な淡い光沢のある印象を阻害する不均一な肌要素の中の特定のものを選択的に見え難くする。ぼかし強度は肌の目視距離に相当し、目視距離に応じて肌状態の見え方が変わるからである。そして、肌画像をぼかすことで均一的で美肌と同視し得る画像に近付けることができる。ここで、上記不均一な肌要素には、毛穴、毛穴の汚れ、皺、色ムラ(しみなど)、テカリなどの肌特徴が該当する。つまり、ぼかしが弱ければ、細かな形状や繊細なコントラスト(高周波成分)の不均一肌要素が消されるが大まかな形状やコントラスト(低周波成分)の不均一肌要素は残り、ぼかしが強ければ、その大まかな不均一肌要素も消されていく。よって、所定強度でぼかした肌画像には、特定の不均一肌要素が消された残りの肌特徴が表されているということができる。
本実施形態は、このような肌特徴を特定の明度範囲の分布により可視化する。これにより、例えば、或る被験肌のぼかし画像から生成される当該分布情報によれば、質感及び形体的特徴に関する複数指標での肌の見かけ状態の客観的評価が可能となる。
このように本実施形態によれば、肌表面の見かけ状態を様々な指標により客観的に評価することができる。
As will be described later, the present inventor performed sensory evaluation on the appearance of the skin surface for a plurality of skin images. In the sensory evaluation, evaluation was performed with a plurality of indices such as glossiness and aging. As a result, it was found that the difference in the distribution of the specific brightness range in the skin image blurred with a predetermined intensity shows a correlation with the difference in the apparent state of the skin surface at each index.
In the present embodiment, based on such knowledge, distribution information of a specific brightness range in the blurred image on the skin surface is generated, and the skin state is evaluated based on the generated distribution information.
The blurring of the skin image at a predetermined intensity selectively makes it difficult to selectively view certain non-uniform skin elements that obstruct the uniform pale glossy impression that beautiful skin exhibits. This is because the blur strength corresponds to the visual distance of the skin, and the appearance of the skin state changes according to the visual distance. Then, by blurring the skin image, it is possible to bring it closer to an image that is uniform and can be equated with beautiful skin. Here, skin characteristics such as pores, pore dirt, wrinkles, color unevenness (stains, etc.), and shine are applicable to the non-uniform skin elements. In other words, if the blur is weak, the non-uniform skin element of fine shape and delicate contrast (high frequency component) is erased, but the non-uniform skin element of the rough shape and contrast (low frequency component) remains, and if the blur is strong, The rough non-uniform skin element is also erased. Therefore, it can be said that the skin image blurred at a predetermined intensity represents the remaining skin features from which a specific non-uniform skin element has been erased.
In the present embodiment, such a skin feature is visualized by a distribution of a specific brightness range. Thereby, for example, according to the distribution information generated from the blurred image of a certain test skin, it is possible to objectively evaluate the appearance state of the skin with a plurality of indices relating to the texture and shape characteristics.
Thus, according to this embodiment, the apparent state of the skin surface can be objectively evaluated with various indices.
〔肌状態評価方法〕
以下、本方法について図1等を用いて更に詳細に説明する。
図1は、本実施形態の肌状態評価方法(本方法)を示すフローチャートである。図1に示されるように、本方法は、工程(S11)から工程(S17)を含む。
[Skin condition evaluation method]
Hereinafter, this method will be described in more detail with reference to FIG.
FIG. 1 is a flowchart showing a skin condition evaluation method (this method) of the present embodiment. As shown in FIG. 1, the method includes steps (S11) to (S17).
工程(S11)は、被験者の肌画像を取得する工程である。
工程(S11)で取得される肌画像は、被験者の肌表面の評価対象部位を含む被験者の人体の少なくとも一部が撮像装置(カメラ)により撮影された画像である。工程(S11)で取得される肌画像は、元肌画像と表記される場合がある。撮像装置は、一般的なRGBカメラであってもよいし、モノクロカメラ又はスペクトルカメラであってもよく、撮像装置の性能や仕様は制限されない。照明数、照明角度、照度、撮影角度などの撮影環境条件についても制限はなく、毛穴や皺、色ムラ、又は光沢などのような評価指標に影響を与える肌の見た目の特徴が目視で確認できる環境となっていればよい。
取得される肌画像の解像度についても、上述のような肌の見た目の特徴が目視可能な程度に写るものであればよい。肌画像のファイル形式は、JPEG、GIF、TIFF、BMP等、任意であるが、TIFFやBMPのように非圧縮形式であることが望ましい。圧縮による画像情報の欠落を抑止できるからである。
また、肌画像は、カラー画像でもよく、又は特定色チャネルの濃淡画像でもよい。濃淡画像としては、淡色の濃淡画像(グレースケール画像)、R、G、B又は特定波長の濃淡画像が例示される。グレースケール画像は、カラー画像から単純平均法等の周知の手法で変換されて得られたものであってもよい。
Step (S11) is a step of acquiring a skin image of the subject.
The skin image acquired in the step (S11) is an image in which at least a part of the human body of the subject including the evaluation target site on the skin surface of the subject is captured by the imaging device (camera). The skin image acquired in the step (S11) may be described as an original skin image. The imaging device may be a general RGB camera, a monochrome camera, or a spectrum camera, and the performance and specifications of the imaging device are not limited. There are no restrictions on the shooting environment conditions such as the number of lights, lighting angle, illuminance, and shooting angle, and the appearance characteristics of the skin that affect evaluation indices such as pores, wrinkles, color unevenness, and gloss can be visually confirmed. It only has to be an environment.
The resolution of the acquired skin image may be anything as long as the above-described skin appearance characteristics are visible. The file format of the skin image is arbitrary, such as JPEG, GIF, TIFF, BMP, etc., but is preferably an uncompressed format such as TIFF or BMP. This is because loss of image information due to compression can be suppressed.
The skin image may be a color image or a grayscale image of a specific color channel. Examples of the gray image include a light gray image (grayscale image), R, G, B, or a gray image having a specific wavelength. The grayscale image may be obtained by converting a color image by a known method such as a simple average method.
工程(S12)は、工程(S11)で取得された元肌画像から評価対象部位を抽出する工程である。評価対象部位は、対象となる評価指標等に応じて、任意に決められる。評価対象部位の例としては、頬、額、口元、目尻などといった顔の少なくとも一部、首から胸元までの領域であるデコルテの少なくとも一部、腕や足の少なくとも一部が例示される。
工程(S12)は、元肌画像をトリミング加工することにより、評価対象部位の肌画像を抽出することができる。このとき、本工程は、評価対象部位の肌画像に対して拡大等の更なる加工を施してもよい。また、元肌画像の評価対象部位以外を黒等の特定色で塗りつぶした画像が評価対象部位の肌画像とされてもよい。以降、工程(S12)で抽出される評価対象部位の肌画像を対象肌画像と表記する場合もある。
工程(S11)で取得された元肌画像中の評価対象部位の写り込み態様によっては、工程(S12)は省かれてもよい。例えば、元肌画像に評価対象部位のみが写っている場合や、評価対象部位が大部分を占める場合などには、工程(S12)は実施されなくてもよい。
Step (S12) is a step of extracting an evaluation target part from the original skin image acquired in step (S11). The evaluation target part is arbitrarily determined according to the target evaluation index or the like. Examples of the evaluation target part include at least a part of a face such as a cheek, forehead, mouth, and corner of the eye, at least a part of decollet that is a region from the neck to the chest, and at least a part of an arm and a leg.
In the step (S12), the skin image of the evaluation target part can be extracted by trimming the original skin image. At this time, you may perform the further process of expansion etc. with respect to the skin image of an evaluation object site | part at this time. In addition, an image obtained by painting a part other than the evaluation target part of the original skin image with a specific color such as black may be used as the skin image of the evaluation target part. Hereinafter, the skin image of the evaluation target part extracted in the step (S12) may be referred to as a target skin image.
The step (S12) may be omitted depending on the reflection aspect of the evaluation target part in the original skin image acquired in the step (S11). For example, when only the evaluation target part is shown in the original skin image, or when the evaluation target part occupies most, the step (S12) may not be performed.
工程(S13)は、工程(S12)で抽出された対象肌画像に対して複数の異なるぼかし強度によるぼかし処理を適用する工程である。ぼかし処理の具体的手法は制限されないが、上述したとおり、平滑化フィルタ、ノイズ除去フィルタ等のぼかしフィルタを用いたぼかし処理が例示される。平滑化フィルタとしては、具体的に、ガウシアン(Gaussian)フィルタ、移動平均フィルタ、加重平均フィルタ、ローパスフィルタなどが挙げられる。各フィルタの特性に応じてぼかし処理で利用するフィルタを使いわけることができる。ガウシアンフィルタによれば、美肌特有の内部反射光の減衰パターンがガウス曲線に近いため、元肌画像を美肌の見かけ状態に近付く方向に加工することができる。また、移動平均フィルタによれば、他のフィルタに比べて、ぼかし処理を高速化することができる。 Step (S13) is a step of applying blurring processing with a plurality of different blurring intensities to the target skin image extracted in step (S12). Although the specific method of the blurring process is not limited, as described above, the blurring process using a blurring filter such as a smoothing filter and a noise removal filter is exemplified. Specific examples of the smoothing filter include a Gaussian filter, a moving average filter, a weighted average filter, and a low-pass filter. Depending on the characteristics of each filter, it is possible to use different filters for blurring. According to the Gaussian filter, since the attenuation pattern of the internal reflection light peculiar to beautiful skin is close to a Gaussian curve, the original skin image can be processed in a direction approaching the apparent state of the beautiful skin. Further, according to the moving average filter, it is possible to speed up the blurring process compared to other filters.
「複数の異なるぼかし強度によるぼかし処理」は、例えば、対象肌画像に対して平滑化フィルタを複数回適用することで実現される。処理の高速化のためには、特に、予め定められたサイズの移動平均フィルタを予め定められた回数適用することが望ましい。また、上記ぼかし処理は、異なるサイズの複数のフィルタを対象肌画像に対してそれぞれ適用することにより実現することもできる。 “Blurring processing with a plurality of different blurring intensities” is realized, for example, by applying a smoothing filter to the target skin image a plurality of times. In order to increase the processing speed, it is particularly desirable to apply a moving average filter having a predetermined size a predetermined number of times. The blurring process can also be realized by applying a plurality of filters having different sizes to the target skin image.
図2は、複数の異なるぼかし強度によるぼかし処理の例を概念的に示す図である。図2では、対象肌画像と6つの異なるぼかし強度のぼかし画像とが示されており、矢印の方向に従って、ぼかし画像のぼかし強度が大きくなっている。図2の例では、縦1032ピクセル、横770ピクセルの対象肌画像に対して、縦5ピクセル、横5ピクセルの移動平均フィルタが繰り返し適用されて得られたぼかし画像が示されている。
図2に例示されるように、工程(S13)により、異なるぼかし強度の複数のぼかし画像を得ることができる。
FIG. 2 is a diagram conceptually illustrating an example of blurring processing using a plurality of different blurring intensities. FIG. 2 shows the target skin image and six blurred images having different blur strengths, and the blur strength of the blur image increases in the direction of the arrow. In the example of FIG. 2, a blurred image obtained by repeatedly applying a moving average filter of 5 pixels vertically and 5 pixels horizontally to a target skin image of 1032 pixels vertically and 770 pixels horizontally is shown.
As illustrated in FIG. 2, a plurality of blurred images having different blur strengths can be obtained by the step (S13).
本実施形態では、取得すべきぼかし画像の数、言い換えれば、適用するぼかし処理のぼかし強度の数は、二以上である。二以上の異なるぼかし強度のぼかし画像を用いることで、ぼかし強度の推移に伴うぼかし画像の変化傾向を捉えることができる。但し、上述したとおり、一つの予め定められたぼかし強度のぼかし画像を用いたとしても、十分有効な評価を実施することができる。これら効果の立証は後述される。 In the present embodiment, the number of blur images to be acquired, in other words, the number of blur strengths of the blur processing to be applied is two or more. By using a blurred image having two or more different blur strengths, it is possible to capture the tendency of the blur image to change as the blur strength changes. However, as described above, even if one blur image having a predetermined blur strength is used, a sufficiently effective evaluation can be performed. The verification of these effects will be described later.
工程(S14)は、工程(S13)で得られた各ぼかし画像における特定の明度範囲の画素(以降、対象画素と表記する)をそれぞれ特定する工程である。
「特定の明度範囲」及び「明度」の定義については上述したとおりである。
各画素の明度は、ぼかし画像を形成する各画素の画素値から得られる明度値又は輝度値により示される。例えば、各画素の画素値(RGB値)を既知の手法でHSVモデル、HSBモデル又はHSLモデルに変換し、得られたモデルの明度(Value若しくはBrightness)成分又は輝度(Lightness)成分の値が各画素の明度値として利用される。また、各画素の明度値は、ぼかし画像を形成する各画素のR値、G値及びB値の中の最大値とされてもよいし、R値、G値及びB値の中から予め選択された一つとされてもよいし、又はR値、G値及びB値の少なくとも2つから既知の輝度値算出手法で得られる輝度値とされてもよい。本実施形態では、肌の状態の見え方を評価するため、人間の視角感度が高いG値又は輝度値が明度値として利用されることが望ましい。
Step (S14) is a step of specifying each pixel in a specific brightness range (hereinafter referred to as a target pixel) in each blurred image obtained in step (S13).
The definitions of “specific brightness range” and “lightness” are as described above.
The brightness of each pixel is indicated by a brightness value or a luminance value obtained from the pixel value of each pixel forming the blurred image. For example, the pixel value (RGB value) of each pixel is converted into an HSV model, HSB model, or HSL model by a known method, and the value of the lightness (Value or Brightness) component or luminance (Lightness) component of the obtained model is Used as the brightness value of the pixel. The brightness value of each pixel may be the maximum value among the R value, G value, and B value of each pixel forming the blurred image, or may be selected in advance from the R value, G value, and B value. The brightness value may be obtained by a known brightness value calculation method from at least two of the R value, the G value, and the B value. In this embodiment, in order to evaluate the appearance of the skin state, it is desirable to use a G value or luminance value with high human visual angle sensitivity as the brightness value.
本実施形態において「特定の明度範囲」は、ぼかし画像の各画素が示し得る明度の上限値を含む所定範囲を除いた、所定明度値範囲の中から予め選択された明度値の範囲に設定される。例えば、8ビットグレースケール画像の画素値(輝度値)が明度値として利用される場合、明度値の上限値(255)を含む所定範囲(例えば253以上255以下)を除いた所定明度値範囲(0以上252以下)の中から予め選択された明度値の範囲(例えば220以上252以下)が特定の明度範囲として利用される。このように、明度の上限値を含む所定範囲を除くことにより、画像中のノイズ成分を除去することができ、高精度な評価が可能となる。以降、除外される明度値の範囲を除外明度範囲と表記する場合がある。なお、上述したとおり、「特定の明度範囲」は、上記除外明度範囲を除外した残りの明度値範囲の中から、評価指標に応じて選択された明度値の範囲として設定されればよい。美肌評価は光沢のある画素に注目するとよいことから、除外明度範囲を除外した残りのうち、最も高い明度値の範囲を「特定の明度範囲」として設定するとよい。 In the present embodiment, the “specific brightness range” is set to a range of brightness values selected in advance from a predetermined brightness value range, excluding a predetermined range including an upper limit value of brightness that can be indicated by each pixel of the blurred image. The For example, when a pixel value (luminance value) of an 8-bit grayscale image is used as a lightness value, a predetermined lightness value range excluding a predetermined range (for example, 253 to 255) including the upper limit value (255) of the lightness value ( A range of brightness values selected in advance from 0 to 252) (for example, 220 to 252) is used as the specific brightness range. As described above, by removing the predetermined range including the upper limit value of the brightness, the noise component in the image can be removed, and highly accurate evaluation can be performed. Hereinafter, a range of excluded brightness values may be referred to as an excluded brightness range. As described above, the “specific brightness range” may be set as a range of brightness values selected according to the evaluation index from the remaining brightness value ranges excluding the excluded brightness range. Since it is preferable to pay attention to glossy pixels in the skin beautification evaluation, it is preferable to set the range of the highest brightness value as the “specific brightness range” among the remaining excluded brightness ranges.
工程(S14)は、工程(S13)で得られたぼかし画像を対象に直接的に又は間接的に実施される。間接実施の例としては、工程(S14)は、カラー画像であるぼかし画像を特定色チャネルの濃淡画像に変換し、変換された濃淡画像に対して実施されてもよい。
また、工程(S14)は、ぼかし画像又はその濃淡画像の階調数を減ずる(圧縮する)処理(以降、減階調処理と表記する場合もある)を行った上で、得られた減階調画像に対して実施されてもよい。この場合、削減(圧縮)された階調の中から「特定の明度範囲」に相当する階調値を有する画素の位置が特定される。例えば、256階調から8階調に減ずる(圧縮する)処理が行われた場合、8階調の明度値(0から7)の中から「特定の明度範囲」に相当する明度値(7)の画素の位置が特定される。
減階調処理は、ぼかし画像の画素値又はぼかし画像の各画素が示す明度値に対して適用される。また、減階調処理は、除外明度範囲を除外した残りの明度値範囲に対して適用されてもよい。
Step (S14) is performed directly or indirectly on the blurred image obtained in step (S13). As an example of indirect implementation, the step (S14) may be performed on the converted grayscale image by converting the blurred image, which is a color image, into a grayscale image of a specific color channel.
In step (S14), a process of reducing (compressing) the number of gradations of the blurred image or its grayscale image (hereinafter, sometimes referred to as a reduced gradation process) is performed, and the obtained floor reduction is performed. You may implement with respect to a tone image. In this case, the position of the pixel having the gradation value corresponding to the “specific brightness range” is specified from the reduced (compressed) gradations. For example, when a process of reducing (compressing) 256 gradations to 8 gradations is performed, a lightness value (7) corresponding to a “specific brightness range” from lightness values (0 to 7) of 8 gradations. The position of the pixel is specified.
The gradation reduction process is applied to the pixel value of the blurred image or the brightness value indicated by each pixel of the blurred image. Further, the gradation reduction process may be applied to the remaining brightness value range excluding the excluded brightness range.
図3は、ぼかし画像に対して適用される減階調処理の例を概念的に示す図である。図3の例では、カラーのぼかし画像(左側の画像)においてG値が明度として利用されている。そのぼかし画像の各画素のG値(明度値)の階調を、除外明度範囲を除いた0以上252以下の253階調から8階調へ圧縮して得られる値を画素値として持つ減階調画像(右側の画像)が生成される。 FIG. 3 is a diagram conceptually illustrating an example of the gradation reduction process applied to the blurred image. In the example of FIG. 3, the G value is used as the brightness in the color blurred image (left image). Decreasing the gradation of the G value (brightness value) of each pixel of the blurred image as a pixel value that is obtained by compressing the gradation from 253 gradations of 0 to 252 excluding the excluded lightness range to 8 gradations A toned image (right image) is generated.
工程(S15)は、工程(S14)で各ぼかし画像についてそれぞれ特定された対象画素の画素数情報又は位置情報に基づいて、ぼかし強度の異なるぼかし画像毎に分布情報を生成する工程である。「分布情報」の定義や例については上述したとおりであるが、工程(S15)は、次のような指標値を分布情報として算出することができる。以降、分布情報として算出される指標値を分布指標値と表記する場合もある。
例えば、工程(S15)は、対象画素の画素数情報を用いて、ぼかし強度の異なるぼかし画像毎の分布情報として、ぼかし強度の異なるぼかし画像毎に対象画素の総数をそれぞれ算出することができる。
また、工程(S15)は、局所領域の数又は面積を分布情報として算出することもできる。「局所領域」の定義及び設定手法については上述したとおりである。工程(S15)は、上述した局所領域の設定手法に従って、ぼかし画像中の局所領域を検出し、検出された局所領域の数をカウントすればよい。また、検出された各局所領域を形成する対象画素の数の合計が局所領域の面積として算出されてもよい。なお、全ての対象画素がいずれかの局所領域に属する場合には、対象画素の総数と局所領域の面積とは同意となる。
更に、工程(S15)は、対象画素の位置情報に基づいて、局所領域の輪郭線を形成する画素を特定し、その輪郭線の接線方向を算出することで、各局所領域について方向を示す値をそれぞれ算出することもできる。この場合、局所領域毎に算出された方向を示す値又はその値の統計値(平均、分散など)を分布情報とすることができる。また、隣接する対象画素ペアの隣接方向の統計値が分布情報として算出されてもよい。
Step (S15) is a step of generating distribution information for each blurred image having a different blur intensity based on the pixel number information or position information of the target pixel specified for each blurred image in step (S14). Although the definition and examples of “distribution information” are as described above, the step (S15) can calculate the following index values as distribution information. Hereinafter, an index value calculated as distribution information may be referred to as a distribution index value.
For example, in the step (S15), using the pixel number information of the target pixel, the total number of target pixels can be calculated for each blurred image having a different blur intensity as distribution information for each blurred image having a different blur intensity.
Moreover, a process (S15) can also calculate the number or area of a local area | region as distribution information. The definition and setting method of the “local region” is as described above. In the step (S15), the local region in the blurred image is detected according to the above-described local region setting method, and the number of detected local regions may be counted. In addition, the total number of target pixels forming each detected local region may be calculated as the area of the local region. When all target pixels belong to any local region, the total number of target pixels and the area of the local region are the same.
Further, the step (S15) specifies a pixel that forms a contour line of the local region based on the position information of the target pixel, and calculates a tangent direction of the contour line, thereby indicating a value for each local region. Can also be calculated respectively. In this case, a value indicating the direction calculated for each local region or a statistical value (average, variance, etc.) of the value can be used as the distribution information. Further, the statistical value in the adjacent direction of the adjacent target pixel pair may be calculated as distribution information.
このように分布情報として指標値が算出される場合、工程(S15)は、算出された指標値の規格化を更に行い、規格化後の指標値を分布情報(分布指標値)としてもよい。工程(S15)は、同一被験者のぼかしのかかっていない肌画像から抽出される当該対象画素の分布指標値に基づいて、上述のように算出された指標値を規格化する。この場合、工程(S12)で抽出された対象肌画像(ぼかしのかかっていない肌画像)を対象に工程(S14)及び工程(S15)を実行することにより、その対象肌画像に関し、対象画素の分布指標値が生成される。例えば、規格化は、対象肌画像の分布指標値に対するぼかし画像から得られた分布指標値の割合計算により実現される。このように分布情報を規格化することにより、他の肌画像から得られる分布情報と基準が統一されるため、他の肌との比較がし易くなり、ひいては、肌状態評価を容易化することができる。また、同一人物で規格化するため、撮影条件の影響を排除することもできる。 When the index value is calculated as the distribution information in this way, the step (S15) may further normalize the calculated index value and use the normalized index value as the distribution information (distribution index value). In the step (S15), the index value calculated as described above is normalized based on the distribution index value of the target pixel extracted from the unblurred skin image of the same subject. In this case, by executing the steps (S14) and (S15) for the target skin image (unblurred skin image) extracted in the step (S12), the target pixel of the target pixel is related to the target skin image. A distribution index value is generated. For example, normalization is realized by calculating a ratio of the distribution index value obtained from the blurred image with respect to the distribution index value of the target skin image. By normalizing the distribution information in this way, the distribution information obtained from other skin images and the standard are unified, so that it is easy to compare with other skin, and therefore, the skin condition evaluation is facilitated. Can do. In addition, since the standardization is performed by the same person, the influence of shooting conditions can be eliminated.
工程(S15)は、次のような画像を分布情報として生成することもできる。
例えば、工程(S15)は、各ぼかし画像、その濃淡画像又はその減階調画像から当該対象画素とそれ以外の画素とを区別し得る画像を分布情報として生成することができる。一例として、対象画素とそれ以外の画素とを二値の画素値で表す画像(図4参照)が生成可能である。
また、工程(S15)は、ぼかし画像中の当該局所領域を輪郭線又は色分けで表す画像(図4参照)を分布情報として生成することもできる。
図4は、減階調画像から生成される局所領域の輪郭線画像及び対象画素を示す画像の例を示す図である。図4では、特定の明度値範囲の明度を持つ当該対象画素が、減階調画像内の最も高い画素値を持つ画素とされ、局所領域が、そのような一以上の対象画素が連なって形成する部分領域とされる例が示されている。図4に例示される輪郭線画像では、当該局所領域の輪郭線が黒で示されており、当該対象画素を示す画像では、対象画素が黒で示され、それ以外の画素が白で示されている。なお、図4の例では、2つの局所領域が検出されている。
In the step (S15), the following image can be generated as distribution information.
For example, the step (S15) can generate, as distribution information, an image that can distinguish the target pixel from the other pixels from each blurred image, its grayscale image, or its reduced gradation image. As an example, an image (see FIG. 4) that represents the target pixel and other pixels with binary pixel values can be generated.
In the step (S15), an image (see FIG. 4) representing the local region in the blurred image by a contour line or color coding can be generated as distribution information.
FIG. 4 is a diagram illustrating an example of a contour image of a local region generated from a reduced gradation image and an image showing a target pixel. In FIG. 4, the target pixel having the lightness in a specific lightness value range is the pixel having the highest pixel value in the reduced gradation image, and the local region is formed by linking one or more such target pixels. An example of a partial area is shown. In the contour image exemplified in FIG. 4, the contour line of the local region is shown in black, and in the image showing the target pixel, the target pixel is shown in black and the other pixels are shown in white. ing. In the example of FIG. 4, two local regions are detected.
また、図3に示される減階調画像が分布情報として生成されてもよい。減階調画像における或る一つの階調値が上述の特定の明度範囲に相当する場合には、その減階調画像は、当該対象画素とそれ以外の画素とを区別し得る画像である。また、全ての対象画素がいずれかの局所領域に属する場合には、減階調画像は、局所領域を表す画像ということもできる。 Further, the reduced gradation image shown in FIG. 3 may be generated as distribution information. When a certain gradation value in the reduced gradation image corresponds to the specific brightness range described above, the reduced gradation image is an image that can distinguish the target pixel from other pixels. In addition, when all target pixels belong to any local region, the reduced gradation image can also be referred to as an image representing the local region.
工程(S16)は、ぼかし強度の異なるぼかし画像毎にそれぞれ生成された複数の分布情報におけるぼかし強度の違いに伴う変化傾向を示す情報(以降、変化傾向情報と表記する場合もある)を生成する工程である。
図5は、変化傾向情報の一例のグラフを示している。図5に例示されるように、工程(S16)は、ぼかし強度及び分布指標値をそれぞれ座標軸とする変化傾向グラフを変化傾向情報として生成することができる。変化傾向グラフは図5の例に限定されない。例えば、縦軸と横軸は入れ替えられてもよい。また、図5に例示される横軸では、ぼかし強度が昇順に並べられているが、ぼかし強度は降順に並べられてもよい。また、図5では、算出された分布指標値間が曲線で補間されたグラフが示されるが、分布指標値間は線形補間されてもよいし、算出された分布指標値のみが離散点で示されてもよい。
In the step (S16), information indicating a change tendency accompanying a difference in blur intensity in a plurality of distribution information respectively generated for each blur image having different blur intensity (hereinafter, sometimes referred to as change trend information) is generated. It is a process.
FIG. 5 shows a graph of an example of the change tendency information. As illustrated in FIG. 5, in the step (S 16), a change trend graph having the blur intensity and the distribution index value as coordinate axes can be generated as change trend information. The change trend graph is not limited to the example of FIG. For example, the vertical axis and the horizontal axis may be interchanged. Further, on the horizontal axis illustrated in FIG. 5, the blur intensity is arranged in ascending order, but the blur intensity may be arranged in descending order. FIG. 5 shows a graph in which the calculated distribution index values are interpolated with curves, but the distribution index values may be linearly interpolated, or only the calculated distribution index values are indicated by discrete points. May be.
変化傾向情報の他の例として、工程(S16)は、ぼかし強度と分布指標値との関係を表形式で表す変化傾向表を生成することもできる。
また、工程(S16)は、ぼかし強度の違いに伴う分布指標値の変化量若しくは変化率、それらの平均又は微分値を変化傾向情報として算出することもできる。例えば、変化量、変化率及び微分値は、予め定められたぼかし強度に関し算出されればよい。
更に、工程(S16)は、ぼかし強度の異なるぼかし画像毎の分布情報としてぼかし強度の異なるぼかし画像毎の画像が生成される場合には、ぼかし強度の昇順又は降順に各画像が並べられた動画を変化傾向情報として生成することもできる。
変化傾向情報は、複数の分布情報におけるぼかし強度の違いに伴う変化傾向を示していればよく、その具体的態様は限定されない。
As another example of the change trend information, the step (S16) can generate a change trend table that represents the relationship between the blur intensity and the distribution index value in a tabular form.
In the step (S16), the change amount or change rate of the distribution index value according to the difference in blurring intensity, the average or derivative value thereof can be calculated as the change tendency information. For example, the change amount, the change rate, and the differential value may be calculated with respect to a predetermined blur intensity.
Further, in the step (S16), when an image for each blurred image having different blur strength is generated as distribution information for each blur image having different blur strength, a moving image in which the images are arranged in ascending or descending order of the blur strength. Can also be generated as change tendency information.
The change tendency information only needs to indicate a change tendency associated with a difference in blur intensity among a plurality of distribution information, and a specific mode thereof is not limited.
工程(S17)は、被験者の肌状態を評価する工程である。工程(S17)は、工程(S15)でぼかし強度の異なるぼかし画像毎に生成された分布情報及び工程(S16)で生成された変化傾向情報のいずれか一方又は両方を用いて、実行され得る。工程(S17)で変化傾向情報が用いられない場合、工程(S16)は省かれてもよい。本実施形態において工程(S17)での具体的な評価方法は制限されない。 Step (S17) is a step of evaluating the skin condition of the subject. The step (S17) can be executed using either one or both of the distribution information generated for each blurred image having a different blur intensity in the step (S15) and the change tendency information generated in the step (S16). When the change tendency information is not used in the step (S17), the step (S16) may be omitted. In the present embodiment, the specific evaluation method in the step (S17) is not limited.
例えば、被験者自身又は第三者が評価者となり、その評価者が、工程(S15)で生成されたぼかし強度の異なるぼかし画像毎の分布情報とサンプル分布情報とを比較することにより、被験者の肌(被験肌)を評価することができる。
この場合、上述の工程(S11)から工程(S15)により前もって、サンプル肌に関するぼかし強度の異なるぼかし画像毎の分布情報を生成しておき、生成されたサンプル分布情報を何らかの形で保持しておく。サンプル分布情報は、コンピュータや可搬型記録媒体に格納されていてもよいし、紙媒体などに印刷出力されていてもよい。また、サンプル分布情報の元となるサンプル肌としては、複数の評価指標の各々において代表的な肌が選ばれることが望ましい。例えば、加齢感の強い肌、テカリ感の強い肌、色ムラ感の強い肌、毛穴が目立つ肌などのような、少なくとも一つのマイナス印象の肌及び理想的な美肌の少なくとも一つが選ばれる。その他、年代若しくは性別毎の平均肌、著名人(女優やモデル、歌手等)の肌などといった、被験者が比較を希望する可能性の高い肌が選ばれてもよい。なお、平均肌は、複数人のサンプル肌画像の合成により生成可能である。
For example, the subject himself or a third party becomes an evaluator, and the evaluator compares the distribution information for each blurred image with different blurring intensity generated in the step (S15) with the sample distribution information, thereby determining the skin of the subject. (Test skin) can be evaluated.
In this case, distribution information for each of the blurred images having different blurring intensities relating to the sample skin is generated in advance by the above-described steps (S11) to (S15), and the generated sample distribution information is held in some form. . The sample distribution information may be stored in a computer or a portable recording medium, or may be printed out on a paper medium. Further, as the sample skin from which the sample distribution information is based, it is desirable that a representative skin is selected for each of a plurality of evaluation indices. For example, at least one skin having at least one negative impression and ideal skin such as skin with strong aging, skin with strong shine, skin with strong color unevenness, and skin with conspicuous pores is selected. In addition, skin with a high possibility that the subject desires comparison may be selected, such as average skin for each age or gender, skin of a celebrity (actress, model, singer, etc.). The average skin can be generated by combining sample skin images of a plurality of people.
また、評価者は、被験肌に関して生成された変化傾向情報と、サンプル肌に関して生成された変化傾向情報との対比をすることにより、被験肌の状態を評価することもできる。サンプル肌に関する変化傾向情報は、予め生成され、何らかの形で保持されていればよい。
評価者は、ぼかし強度の異なるぼかし画像毎に被験者の分布情報とサンプル分布情報との対比、又は被験肌の変化傾向情報とサンプル肌の変化傾向情報との対比を行う。評価者は、被験者の肌がサンプル肌と近いか否か、被験者の肌とサンプル肌との近さ、又は被験者の肌がどのサンプル肌と近いかを判定することで、被験者の肌状態の評価をすることができる。
The evaluator can also evaluate the state of the test skin by comparing the change tendency information generated for the test skin with the change trend information generated for the sample skin. The change tendency information regarding the sample skin may be generated in advance and held in some form.
The evaluator compares the distribution information of the subject with the sample distribution information or compares the change tendency information of the test skin with the change tendency information of the sample skin for each blurred image having different blur intensity. The evaluator evaluates the skin condition of the subject by determining whether the subject's skin is close to the sample skin, whether the subject's skin is close to the sample skin, or which sample skin is close to the subject's skin. Can do.
ここで、本方法の各工程は、人がコンピュータを操作することにより実行されてもよい。例えば、工程(S11)では、人がカメラを操作することで被験者の肌画像を撮像し、人がコンピュータを操作してその肌画像をコンピュータに取り込んでもよい。工程(S12)及び工程(S13)は、人が市販の画像編集ソフトを操作して実行可能である。工程(S14)及び工程(S15)についても、人が市販のソフトウェアを操作して実行可能である。なお、工程(S16)については、上述したとおり、コンピュータを用いることなく、評価者(人)が実行することができる。
また、本方法の各工程は、コンピュータ(例えば、後述の肌状態評価装置)によって自動で実行されてもよい。工程(S16)は、後述の肌状態評価装置のようなコンピュータにより実行されてもよい。
Here, each step of the method may be executed by a person operating a computer. For example, in the step (S11), a person may take a skin image of the subject by operating the camera, and the person may operate the computer to capture the skin image in the computer. Step (S12) and step (S13) can be performed by a person operating a commercially available image editing software. A process (S14) and a process (S15) can also be performed by manipulating commercially available software. As described above, the evaluator (person) can execute the step (S16) without using a computer.
Moreover, each process of this method may be automatically performed by a computer (for example, a skin condition evaluation apparatus described later). Step (S16) may be executed by a computer such as a skin condition evaluation apparatus described later.
〔肌状態評価装置〕
以下、本方法を実現する肌状態評価装置10について説明する。
図6は、本実施形態における肌画像分析装置10のハードウェア構成例を概念的に示す図である。本実施形態における肌状態評価装置(以降、評価装置と略称する場合もある)10は、いわゆるコンピュータであり、例えば、バスで相互に接続される、CPU(Central Processing Unit)11、メモリ12、入出力インタフェース(I/F)13、通信ユニット14等を有する。評価装置10を形成する各ハードウェア要素の数はそれぞれ制限されず、これらハードウェア要素は情報処理回路と総称することもできる。
[Skin condition evaluation device]
Hereinafter, the skin condition evaluation apparatus 10 which implement | achieves this method is demonstrated.
FIG. 6 is a diagram conceptually illustrating a hardware configuration example of the skin image analysis apparatus 10 in the present embodiment. A skin condition evaluation apparatus (hereinafter sometimes abbreviated as an evaluation apparatus) 10 according to the present embodiment is a so-called computer. For example, a CPU (Central Processing Unit) 11, a memory 12, and an input connected to each other via a bus. An output interface (I / F) 13 and a communication unit 14 are included. The number of hardware elements forming the evaluation device 10 is not limited, and these hardware elements can be collectively referred to as an information processing circuit.
CPU11には、一般的なCPUに加えて、特定用途向け集積回路(ASIC)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等も含まれる。
メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
入出力I/F13は、表示装置15、入力装置16等のユーザインタフェース装置と接続可能である。表示装置15は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU11等により処理された描画データに対応する画面を表示する装置である。入力装置16は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。表示装置15及び入力装置16は一体化され、タッチパネルとして実現されてもよい。
通信ユニット14は、他のコンピュータとの通信網を介した通信や、他の機器との信号のやりとり等を行う。通信ユニット14には、可搬型記録媒体等も接続され得る。例えば、通信ユニット14には、撮像装置(カメラ)(図示せず)が接続されてもよい。この場合、カメラは、肌画像(静止画像)を撮像し、その静止画像データを評価装置10に送ってもよい。
評価装置10は、図6に図示しないハードウェア要素を含んでもよく、評価装置10のハードウェア構成は制限されない。
In addition to a general CPU, the CPU 11 includes an application specific integrated circuit (ASIC), a DSP (Digital Signal Processor), a GPU (Graphics Processing Unit), and the like.
The memory 12 is a RAM (Random Access Memory), a ROM (Read Only Memory), or an auxiliary storage device (such as a hard disk).
The input / output I / F 13 can be connected to user interface devices such as the display device 15 and the input device 16. The display device 15 is a device that displays a screen corresponding to drawing data processed by the CPU 11 or the like, such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display. The input device 16 is a device that receives an input of a user operation such as a keyboard and a mouse. The display device 15 and the input device 16 may be integrated and realized as a touch panel.
The communication unit 14 performs communication via a communication network with other computers, exchange of signals with other devices, and the like. A portable recording medium or the like can be connected to the communication unit 14. For example, an imaging device (camera) (not shown) may be connected to the communication unit 14. In this case, the camera may capture a skin image (still image) and send the still image data to the evaluation device 10.
The evaluation device 10 may include hardware elements not shown in FIG. 6, and the hardware configuration of the evaluation device 10 is not limited.
図7は、本実施形態における肌状態評価装置10の処理構成例を概念的に示す図である。
本実施形態の評価装置10は、画像取得部21、ぼかし処理部22、生成部23、情報格納部24、出力処理部25等を有する。これら処理モジュールは、ソフトウェア要素であり、例えば、メモリ12に格納されるプログラムがCPU11により実行されることにより実現される。このプログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F13を介してインストールされ、メモリ12に格納されてもよい。
FIG. 7 is a diagram conceptually illustrating a processing configuration example of the skin condition evaluation apparatus 10 in the present embodiment.
The evaluation apparatus 10 according to the present embodiment includes an image acquisition unit 21, a blur processing unit 22, a generation unit 23, an information storage unit 24, an output processing unit 25, and the like. These processing modules are software elements, and are realized, for example, by executing a program stored in the memory 12 by the CPU 11. This program may be installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the input / output I / F 13 and stored in the memory 12.
画像取得部21は、肌表面が撮影された肌画像を取得する。具体的には、画像取得部21は、撮像装置(カメラ)により撮像された被験者の肌画像の画像データを、その撮像装置、可搬型記録媒体、又は他のコンピュータから通信により取り込む。また、画像取得部21が、評価装置10の内蔵カメラであってもよい。
画像取得部21は、必要に応じて外部から取得された画像データをトリミング加工して、評価対象部位の肌画像を抽出してもよい。即ち、画像取得部21は、本方法の工程(S11)及び工程(S12)を実行することができる。その他、画像取得部21は、取り込まれた画像データに対してグレースケール化を施してもよい。
以降、画像取得部21により取得された画像データを対象肌画像と表記する場合もある。
The image acquisition unit 21 acquires a skin image obtained by photographing the skin surface. Specifically, the image acquisition unit 21 captures image data of a subject's skin image captured by an imaging device (camera) from the imaging device, a portable recording medium, or another computer by communication. Further, the image acquisition unit 21 may be a built-in camera of the evaluation device 10.
The image acquisition unit 21 may extract the skin image of the evaluation target part by trimming image data acquired from the outside as necessary. That is, the image acquisition unit 21 can execute the step (S11) and the step (S12) of this method. In addition, the image acquisition unit 21 may apply gray scale to the captured image data.
Hereinafter, the image data acquired by the image acquisition unit 21 may be referred to as a target skin image.
ぼかし処理部22は、画像取得部21により取得された対象肌画像に対してぼかし処理を施すことにより、ぼかし強度の異なる複数のぼかし画像を取得する。ぼかし処理部22は、平滑化フィルタ、ノイズ除去フィルタ等のぼかしフィルタを予め有する。例えば、ぼかし処理部22は、対象肌画像に対して所定サイズの平滑化フィルタを複数回適用することにより、ぼかし強度の異なる複数のぼかし画像を取得する。即ち、ぼかし処理部22は、本方法の工程(S13)を実行することができる。
画像取得部21及びぼかし処理部22は、肌表面が撮影された所定ぼかし強度のぼかし画像を取得する取得手段に相当する。
The blur processing unit 22 performs a blur process on the target skin image acquired by the image acquisition unit 21, thereby acquiring a plurality of blur images having different blur intensities. The blur processing unit 22 has a blur filter such as a smoothing filter and a noise removal filter in advance. For example, the blurring processing unit 22 acquires a plurality of blurred images having different blurring strengths by applying a smoothing filter having a predetermined size to the target skin image a plurality of times. That is, the blurring processing unit 22 can execute the step (S13) of this method.
The image acquisition unit 21 and the blur processing unit 22 correspond to an acquisition unit that acquires a blur image with a predetermined blur intensity obtained by photographing the skin surface.
生成部23は、ぼかし処理部22により取得されたぼかし画像における特定の明度範囲の分布情報を生成する生成手段に相当する。ぼかし処理部22により、ぼかし強度の異なる複数のぼかし画像が生成された場合、生成部23は、ぼかし強度の異なるぼかし画像毎に分布情報をそれぞれ生成する。例えば、生成部23は、当該分布情報として、ぼかし画像中の特定の明度範囲の画素に基づく、面積、局所領域数及び方向の少なくとも一つを示す指標値、又は、ぼかし画像中の局所領域を表す画像を生成する。
「特定の明度範囲」は、ぼかし画像の各画素が示し得る明度の上限値を含む所定範囲を除いた、所定明度値範囲の中から選択された明度値の範囲であることが好ましい。このような「特定の明度範囲」、「分布情報」、「局所領域」等については、上述したとおりである。
The generation unit 23 corresponds to a generation unit that generates distribution information of a specific brightness range in the blurred image acquired by the blur processing unit 22. When the blur processing unit 22 generates a plurality of blur images having different blur strengths, the generation unit 23 generates distribution information for each blur image having different blur strengths. For example, the generation unit 23 uses, as the distribution information, an index value indicating at least one of an area, the number of local regions, and a direction based on pixels in a specific brightness range in the blurred image, or a local region in the blurred image. Generate an image to represent.
The “specific brightness range” is preferably a range of brightness values selected from a predetermined brightness value range excluding a predetermined range including an upper limit value of brightness that can be indicated by each pixel of the blurred image. Such “specific brightness range”, “distribution information”, “local region”, and the like are as described above.
生成部23は、画像取得部21で取得されたぼかしのかかっていない対象肌画像に関しても同様に、特定の明度範囲の分布情報を生成してもよい。
更に、生成部23は、サンプル肌に関する分布情報も生成してもよい。サンプル肌については上述したとおりである。
生成部23は、生成した分布情報を情報格納部24に格納する。具体的には、生成部23は、ぼかし強度を識別する識別情報(ぼかしなしの識別情報も含む)と分布情報とを相互に関連付けて、情報格納部24に格納する。また、生成部23は、サンプル肌と被験肌とを区別するための区別情報を分布情報に更に関連付けて格納してもよい。
Similarly, the generation unit 23 may generate distribution information of a specific brightness range regarding the target skin image that is not blurred and acquired by the image acquisition unit 21.
Furthermore, the generation unit 23 may also generate distribution information regarding the sample skin. The sample skin is as described above.
The generation unit 23 stores the generated distribution information in the information storage unit 24. Specifically, the generation unit 23 stores identification information for identifying the blur intensity (including identification information without blur) and distribution information in the information storage unit 24 in association with each other. Moreover, the production | generation part 23 may further associate and store the discrimination information for distinguishing sample skin and test skin with distribution information.
情報格納部24は、生成部23により生成された分布情報をぼかし強度の識別情報と関連付けた状態で格納する。サンプル肌の分布情報も格納する場合、情報格納部24は、上述の区別情報を更に関連付けた状態で分布情報を生成する。また、評価装置10が複数の被験者を対象とする場合には、情報格納部24は、被験者の識別情報と更に関連付けた状態で、分布情報を格納することもできる。 The information storage unit 24 stores the distribution information generated by the generation unit 23 in a state associated with the blur intensity identification information. When storing the distribution information of the sample skin, the information storage unit 24 generates the distribution information in a state in which the above-described discrimination information is further associated. Further, when the evaluation device 10 targets a plurality of subjects, the information storage unit 24 can also store distribution information in a state of being further associated with the identification information of the subjects.
生成部23は、分布情報として指標値を算出した場合、ぼかしのかかっていない肌画像から生成された特定の明度範囲の分布情報(分布指標値)に基づいて、算出された分布指標値を規格化してもよい。このとき、生成部23は、ぼかしのかかっていない肌画像の当該分布情報を情報格納部24から抽出すればよい。ここで規格化された分布指標値も分布情報と表記される。規格化手法については上述したとおりである。
このように、生成部23は、本方法の工程(14)及び工程(S15)を実行することができる。
When the index value is calculated as the distribution information, the generation unit 23 standardizes the calculated distribution index value based on the distribution information (distribution index value) of the specific brightness range generated from the skin image without blurring. May be used. At this time, the generation unit 23 may extract the distribution information of the skin image that is not blurred from the information storage unit 24. The distribution index value normalized here is also expressed as distribution information. The normalization method is as described above.
Thus, the production | generation part 23 can perform the process (14) and process (S15) of this method.
更に、生成部23は、ぼかし強度の異なるぼかし画像毎にそれぞれ生成された複数の分布情報におけるぼかし強度の違いに伴う変化傾向を示す情報(変化傾向情報)を更に生成してもよい。このとき、生成部23は、ぼかし強度の異なるぼかし画像毎の分布情報を情報格納部24から抽出して用いることができる。変化傾向情報についても上述した通りである。
このように、生成部23は、本方法の工程(S16)も実行することができる。
Furthermore, the generation unit 23 may further generate information (change trend information) indicating a change tendency associated with a difference in blur intensity in a plurality of pieces of distribution information generated for each blur image having different blur intensity. At this time, the generation unit 23 can extract and use the distribution information for each blurred image with different blur intensity from the information storage unit 24. The change tendency information is also as described above.
Thus, the production | generation part 23 can also perform the process (S16) of this method.
出力処理部25は、生成部23により生成された分布情報及び変化傾向情報のいずれか一方又は両方(以降、出力情報と表記する場合もある)を出力する。出力情報の出力形態は制限されない。出力処理部25は、出力情報を表示装置15に表示出力してもよいし、印刷装置(図示せず)に印刷出力してもよいし、可搬型記録媒体又は他のコンピュータへファイル出力してもよい。また、出力情報が数値である場合には、出力処理部25は、その出力情報を音声出力することもできる。
また、出力処理部25は、情報格納部24にサンプル肌に関する分布情報が格納されている場合には、被験肌の分布情報との比較のために、サンプル分布情報を出力することもできる。
The output processing unit 25 outputs one or both of the distribution information and the change tendency information generated by the generation unit 23 (hereinafter may be referred to as output information). The output form of the output information is not limited. The output processing unit 25 may display and output the output information on the display device 15, print it on a printing device (not shown), or output it as a file to a portable recording medium or another computer. Also good. Further, when the output information is a numerical value, the output processing unit 25 can also output the output information by voice.
Moreover, when the distribution information regarding the sample skin is stored in the information storage unit 24, the output processing unit 25 can output the sample distribution information for comparison with the distribution information of the test skin.
更に、出力処理部25は、被験者の肌状態を評価し、その評価結果を出力してもよい。出力処理部25は、サンプル分布情報と被験肌に関する分布情報とを比較する又はサンプル肌に関する変化傾向情報と被験肌に関する変化傾向情報とを比較することにより、被験者の肌状態を評価する。比較対象となる分布情報及び変化傾向情報は、情報格納部24に格納されている。
例えば、出力処理部25は、ぼかし強度の異なるぼかし画像毎に被験者の分布指標値とサンプル肌の分布指標値との差分、又は被験肌の変化傾向情報とサンプル肌の変化傾向情報との差分を算出する。出力処理部25は、算出された差分値をサンプル肌との近さスコア(評価結果)として出力する。このとき、出力処理部25は、複数のサンプル肌の各々と各差分値との相対表(近さスコア比較表)を出力することもできる。
また、出力処理部25は、算出された差分値が予め定められた閾値より小さいか否かにより、比較されたサンプル肌と近いか否かを示す評価結果メッセージ(例えば、「あなたの肌は美肌に近いです」)を出力することもできる。また、出力処理部25は、算出された差分値をサンプル肌間で比較することにより、最も小さい差分値となったサンプル肌に近似することを示す評価結果メッセージ(例えば、「あなたの肌は美肌に最も近く、加齢肌、テカリ肌からは少し遠いです」)を出力することもできる。
Furthermore, the output processing unit 25 may evaluate the skin condition of the subject and output the evaluation result. The output processing unit 25 evaluates the skin condition of the subject by comparing the sample distribution information with the distribution information about the test skin, or comparing the change trend information about the sample skin with the change trend information about the test skin. Distribution information and change tendency information to be compared are stored in the information storage unit 24.
For example, the output processing unit 25 calculates the difference between the distribution index value of the subject and the distribution index value of the sample skin or the difference between the change tendency information of the test skin and the change tendency information of the sample skin for each blurred image having a different blur intensity. calculate. The output processing unit 25 outputs the calculated difference value as a proximity score (evaluation result) with the sample skin. At this time, the output processing unit 25 can also output a relative table (closeness score comparison table) between each of the plurality of sample skins and each difference value.
In addition, the output processing unit 25 evaluates whether or not the calculated difference value is smaller than a predetermined threshold value, based on an evaluation result message (for example, “Your skin is beautiful skin”). Can also be output. In addition, the output processing unit 25 compares the calculated difference value between the sample skins, thereby evaluating an evaluation result message (for example, “Your skin is beautiful skin” indicating that the sampled skin is the smallest difference value. Is a little farther from aging skin and shine skin. ”) Can also be output.
評価装置10は、入力装置16に対するユーザの操作に応じて、比較対象となるサンプル肌を指定する情報を取得することもできる。この場合、評価装置10は、情報格納部24に分布情報が格納される複数のサンプル肌の中から所望のサンプル肌を指定するための表示を表示装置15に出力させてもよい。
また、評価装置10は、入力装置16に対するユーザの操作に応じて、評価指標又は特定の明度範囲の指定情報を取得してもよい。このとき、ユーザは、被験者の肌の撮影環境や評価指標などに応じて、表示装置15に出力される表示から評価指標又は特定の明度範囲を指定する操作を行う。
The evaluation device 10 can also acquire information specifying the sample skin to be compared in response to a user operation on the input device 16. In this case, the evaluation device 10 may cause the display device 15 to output a display for designating a desired sample skin from among a plurality of sample skins whose distribution information is stored in the information storage unit 24.
Further, the evaluation device 10 may acquire evaluation information or designation information of a specific brightness range in accordance with a user operation on the input device 16. At this time, the user performs an operation of designating an evaluation index or a specific brightness range from the display output on the display device 15 according to the subject's skin imaging environment, the evaluation index, and the like.
上述のように、本方法及び評価装置10では、被験者の肌表面が写り込む肌画像に対してぼかし処理が施されることにより、ぼかし強度の異なる複数のぼかし画像が取得され、ぼかし強度の異なるぼかし画像毎に、取得されたぼかし画像における特定の明度範囲の分布情報が生成される。
ぼかし強度の異なる複数のぼかし画像によれば、目視距離の変化に伴う肌特徴の見え方の変化を画像上に再現することができる。つまり、ぼかし強度の異なるぼかし画像毎の分布情報によれば、均一的な美肌の肌特徴を阻害する不均一肌要素の存否、度合い、特性(高周波成分か低周波成分かなど)などを把握することができる。当該分布情報の一例である局所領域の面積を例に挙げると、特定の明度範囲として高い明度範囲を設定した場合、その面積がぼかし強度の違いでそれほど変化しない場合には、その肌には不均一肌要素が少ないことを確認できる。また、ぼかし強度が或る値から小さくなると、当該局所領域の面積が急激に大きくなる場合には、その肌には、低周波成分の不均一肌要素が多く含まれることを確認することができる。
本実施形態によれば、ぼかし強度の異なるぼかし画像毎の特定の明度範囲の分布情報を用いることで、不均一肌要素の存否、度合い、特性などを把握することができ、それらにより影響を受ける、肌の見かけ状態を高精度にかつ容易に評価することができる。
As described above, in the present method and the evaluation apparatus 10, by performing blurring processing on the skin image in which the skin surface of the subject is reflected, a plurality of blurred images having different blur strengths are acquired, and the blur strengths are different. For each blurred image, distribution information of a specific brightness range in the acquired blurred image is generated.
According to a plurality of blurred images having different blur intensities, it is possible to reproduce on the image changes in the appearance of skin features accompanying changes in the viewing distance. In other words, according to the distribution information for each blurred image with different blurring intensity, the presence / absence, degree, and characteristics (such as high frequency component or low frequency component) of non-uniform skin elements that inhibit uniform skin characteristics of beautiful skin are grasped. be able to. Taking the area of the local area as an example of the distribution information as an example, if a high brightness range is set as a specific brightness range, if the area does not change so much due to the difference in blurring intensity, it is not good for the skin. It can be confirmed that there are few uniform skin elements. Further, when the blur intensity decreases from a certain value, when the area of the local region increases rapidly, it can be confirmed that the skin contains many non-uniform skin elements of low frequency components. .
According to the present embodiment, by using the distribution information of the specific brightness range for each blurred image with different blur strength, the presence / absence, degree, characteristic, etc. of the non-uniform skin element can be grasped and influenced by them. The apparent state of the skin can be easily evaluated with high accuracy.
スキンケアの目的又は肌の見栄えをよくする目的で、各種の化粧料、美容施術、美容用若しくは健康用の飲食品などが利用されている。化粧料は、皮膚に塗布されるものであり、例えば化粧水、乳液、美容液、クリーム、ファンデーションなどがある。美容施術は、くすみやニキビ跡を改善する手技や小じわやくぼみを改善する手技などの肌に対する施術であり、非医療施術である。美容用又は健康用の飲食品は、スキンケアのための飲食品であり、コラーゲンやヒアルロン酸などを含む製品が流通している。
そこで、化粧料、美容施術、又は美容用若しくは健康用の飲食品が適用される前後の被験者の素肌の肌画像を用いて、各画像に写る肌の状態を上述の本方法又は評価装置10により評価することで、当該化粧料、当該美容施術又は当該飲食品に関する肌状態の改善効果を定量評価することができる。この評価方法は、具体的には、当該化粧料、当該美容施術又は当該飲食品を適用する前の被験者の肌画像から当該分布情報を生成し、更に、それら適用後の被験者の肌画像から当該分布情報を生成する。生成された両者の分布情報を比較することにより、評価指標について肌表面の見かけ状態が改善しているか否か、又は改善程度を評価することができる。
For the purpose of skin care or improving the appearance of the skin, various cosmetics, beauty treatments, beauty or health foods and drinks, and the like are used. Cosmetics are applied to the skin and include, for example, lotion, milky lotion, cosmetic liquid, cream, foundation and the like. The cosmetic treatment is a treatment for the skin such as a technique for improving dullness and acne scars and a technique for improving fine lines and dents, and is a non-medical treatment. Beauty and health foods and drinks are foods and drinks for skin care, and products containing collagen, hyaluronic acid and the like are in circulation.
Therefore, by using the skin image of the subject's skin before and after the application of cosmetics, beauty treatment, or cosmetic or health food or drink, the state of the skin shown in each image is evaluated by the above-described method or the evaluation device 10. By evaluating, the improvement effect of the skin state regarding the said cosmetics, the said beauty treatment, or the said food / beverage products can be quantitatively evaluated. Specifically, this evaluation method generates the distribution information from the skin image of the subject before applying the cosmetic, the cosmetic treatment, or the food and drink, and further, the skin information of the subject after the application. Generate distribution information. By comparing the generated distribution information, it is possible to evaluate whether or not the apparent state of the skin surface is improved for the evaluation index, or the degree of improvement.
以下、本発明者により行われた実験内容及び実験結果について説明すると共に、上述の実施形態の効果を実証する。実験内容については本方法に沿って説明する。
本実験では、米国Canfield社製のVISIA−CR(登録商標)が撮像装置として利用され、異なる三方位から照明を当てた環境条件の下、複数人の被験者の顔が斜め前方からそれぞれ撮影された(S11)。
次に、撮影された各顔画像をそれぞれトリミング加工することにより、評価対象部位である頬の肌表面の画像(肌画像)がそれぞれ抽出された(S12)。本実験では、縦1217ピクセル、横835ピクセルのカラーの肌画像が抽出された。
そして、抽出された肌画像を対象に肌表面の見かけ状態に関する官能評価が行われた。
図8は、官能評価において光沢感、加齢感及び美肌感の指標に関して代表的な結果を示した三人の肌画像を示している。被験者#1の肌画像は、「きれいでふんわりとした光沢感」と評価された肌画像である。被験者#2の肌画像は、「加齢感がありテカリを感じる光沢感」と評価された肌画像である。被験者#3の肌画像は、「加齢感のないテカリを感じる光沢感」と評価された肌画像である。
Hereinafter, the contents and results of the experiment conducted by the inventor will be described, and the effects of the above-described embodiment will be verified. The contents of the experiment will be described along this method.
In this experiment, VISIA-CR (registered trademark) manufactured by Canfield in the United States was used as an imaging device, and the faces of a plurality of subjects were photographed from obliquely forward under environmental conditions in which illumination was performed from different three directions. (S11).
Next, by trimming each photographed face image, an image (skin image) of the cheek skin surface, which is the evaluation target part, was extracted (S12). In this experiment, a skin image having a color of 1217 pixels long and 835 pixels wide was extracted.
And sensory evaluation regarding the appearance state of the skin surface was performed for the extracted skin image.
FIG. 8 shows skin images of three persons who showed typical results with respect to the indicators of glossiness, aging and beautiful skin in sensory evaluation. The skin image of the subject # 1 is a skin image evaluated as “beautiful and soft gloss”. The skin image of the subject # 2 is a skin image evaluated as “a glossiness that feels aging and feels shining”. The skin image of the subject # 3 is a skin image evaluated as “a gloss feeling that feels no aging”.
続いて、図8に示される3人の肌画像に対して縦5ピクセル、横5ピクセルの移動平均フィルタをそれぞれ50回繰り返し適用することで、各肌画像に関して、ぼかし強度の異なる50枚のぼかし画像がそれぞれ生成された(S13)。この移動平均フィルタを用いることで、ぼかし強度の異なるぼかし画像を高速に取得することができる。移動平均フィルタの適用回数の上限(50回)は、肌の見かけた状態に影響を与えている肌特徴が視認できなくなる程度に設定された。 Subsequently, the moving average filter of 5 pixels in the vertical direction and 5 pixels in the horizontal direction are repeatedly applied 50 times to the skin images of the three persons shown in FIG. Each image was generated (S13). By using this moving average filter, it is possible to acquire blur images with different blur intensities at high speed. The upper limit (50 times) of the application number of the moving average filter was set to such an extent that the skin feature affecting the appearance of the skin could not be visually recognized.
次に、各ぼかし画像の画素値のG値を画素の明度値とし、220以上252以下を特定の明度範囲として持つ画素が対象画素として特定された(S14)。本実験の官能評価では光沢やテカリといった明るさ成分に関する評価指標が用いられているため、除外明度範囲(253以上255以下)を除いた明度範囲の中の、最高の明度範囲(220以下252以下)が選択されている。
そして、特定された対象画素に基づいて、局所領域の数及び面積が各ぼかし画像についてそれぞれ算出された(S15)。本実験では、全ての対象画素がいずれかの局所領域に属するという局所領域の設定手法が用いられ、工程(S14)及び工程(S15)の計算は、ライブラリ社の濃度変位計測ソフトウェア(Gray−val)により実施された。
Next, a pixel having the G value of the pixel value of each blurred image as the brightness value of the pixel and having a specific brightness range of 220 to 252 is specified as the target pixel (S14). In the sensory evaluation of this experiment, since an evaluation index related to a brightness component such as gloss or luster is used, the highest brightness range (220 to 252 or less) in the brightness range excluding the excluded brightness range (253 to 255). ) Is selected.
Then, based on the identified target pixel, the number and area of the local regions are calculated for each blurred image (S15). In this experiment, a local region setting method in which all target pixels belong to one of the local regions is used, and the calculation of the step (S14) and the step (S15) is performed by the density displacement measurement software (Gray-val ).
本実験では、図9及び図10に示されるグラフが変化傾向情報としてそれぞれ生成された。
図9は、ぼかし強度の違いに伴う局所領域数の変化傾向を示すグラフである。図10は、ぼかし強度の違いに伴う局所領域面積の変化傾向を示すグラフである。図9では、縦軸に局所領域数が表され、横軸にぼかし強度に相当するフィルタ適用回数が表されている。図10では、縦軸に局所領域面積が表され、横軸にぼかし強度に相当するフィルタ適用回数が表されている。
図9によれば、いわゆる美肌と評価される被験者#1については他の被験者と比較して変化が小さく、加齢感もテカリも感じられる被験者#2については、或るぼかし強度よりも小さくなると、急激に局所領域数が増加している。そして、加齢感はないがテカリが感じられる被験者#3については、被験者#1よりも変化は大きいが、被験者#2よりは増加量が大きくなっていない。
図10では、被験者#1については、図9と同様に、他の被験者と比較して変化が小さくなっている。被験者#2については、被験者#1の変化幅とあまり大差はないが、局所領域面積が被験者#1よりも全体的に小さくなっている。また、被験者#3については、変化幅が最も大きく、局所領域面積が、ぼかし強度が弱くなるにつれて、被験者#1を逆転して増加している。
このように、図9及び図10に例示されるように、変化傾向情報が、被験者の肌の見かけ状態に応じて特有の変化傾向を示すことが実証され、その情報を用いることで、被験者の肌の見かけ状態を複数の指標に関して評価できることが実証される。
In this experiment, the graphs shown in FIGS. 9 and 10 were respectively generated as the change tendency information.
FIG. 9 is a graph showing a change tendency of the number of local regions with a difference in blur intensity. FIG. 10 is a graph showing a change tendency of a local area area with a difference in blur intensity. In FIG. 9, the vertical axis represents the number of local regions, and the horizontal axis represents the number of filter applications corresponding to the blur intensity. In FIG. 10, the vertical axis represents the area of the local region, and the horizontal axis represents the number of filter applications corresponding to the blur intensity.
According to FIG. 9, subject # 1 evaluated as so-called beautiful skin has a smaller change compared to other subjects, and subject # 2 that feels aging and shine is less than a certain blur intensity. The number of local regions is increasing rapidly. And about subject # 3 which does not have a feeling of aging but can feel shine, although the change is larger than subject # 1, the amount of increase is not larger than subject # 2.
In FIG. 10, about subject # 1, the change is small compared with another test subject like FIG. For subject # 2, there is not much difference from the change width of subject # 1, but the local area is generally smaller than subject # 1. For subject # 3, the range of change is the largest, and the local area increases as subject # 1 reverses as the blur intensity decreases.
Thus, as illustrated in FIG. 9 and FIG. 10, it is proved that the change tendency information shows a specific change tendency according to the apparent state of the subject's skin. It is demonstrated that the appearance of the skin can be evaluated with respect to multiple indicators.
更に、本実験では、ぼかしのかかっていない肌画像からも局所領域の数及び面積が算出され、それらに基づいて被験者に関し算出された局所領域数及び面積の規格化も行われた。この規格化では、ぼかしのかかっていない肌画像の局所領域数及び面積に対する被験者の局所領域数及び面積の割合が百分率で算出された。
図11は、ぼかし強度の違いに伴う規格化された局所領域数の変化傾向を示すグラフである。図12は、ぼかし強度の違いに伴う規格化された局所領域面積の変化傾向を示すグラフである。
本規格化によれば、ぼかしのかかっていない肌画像から算出された値を基準に被験者間の値が統一されるため、肌特徴に応じた変化傾向がより顕著に表される。
更に、図13に矢印で示されているように、規格化された局所領域面積の変化傾向を示す値として、評価指標に対応する特定ぼかし強度における局所領域面積の変化量、変化率又は微分値を算出することもできる。図13は、規格化された局所領域面積の変化量の算出例を示す図である。
Furthermore, in this experiment, the number and area of the local regions were calculated from the skin image without blurring, and the number of local regions and the area calculated for the subject were normalized based on them. In this normalization, the ratio of the number of areas and the area of the subject to the number of areas and the area of the unblurred skin image was calculated as a percentage.
FIG. 11 is a graph showing the change tendency of the normalized number of local regions accompanying the difference in blur intensity. FIG. 12 is a graph showing a change tendency of the standardized local region area with a difference in blur intensity.
According to this standardization, values between subjects are standardized based on values calculated from unblurred skin images, so that a change tendency according to skin characteristics is more remarkably expressed.
Furthermore, as indicated by arrows in FIG. 13, the amount of change, change rate, or differential value of the local region area at the specific blur intensity corresponding to the evaluation index is used as a value indicating the change tendency of the normalized local region area. Can also be calculated. FIG. 13 is a diagram illustrating a calculation example of the change amount of the normalized local region area.
また、本実験では、各ぼかし画像からそのぼかし画像のG値を輝度値として持つ濃淡画像が生成され、輝度値を明度値として用いて、その濃淡画像に対して、255以下253以上の明度値を除く253諧調の明度値範囲を8諧調に圧縮する減階調処理が行われた。その結果、各ぼかし画像に対して、8諧調の濃淡画像がそれぞれ生成され、ぼかし強度の降順に8諧調の濃淡画像が時系列に並ぶ動画が3人の肌画像に関してそれぞれ生成された。
図14は、8諧調の濃淡画像の動画の例を示す図である。図14には、4つのぼかし強度に関して生成された4枚の8諧調濃淡画像が示される。なお、本実験では、50枚の8諧調濃淡画像が生成され、それらの動画が生成された。このような動画が再生されることで、ぼかし強度の違いに伴う特定の明度範囲の分布の変化が視認することができ、その変化がどのような質感及び形体的特徴の肌の変化に近いのかを定性評価することにより、被験者の肌状態を複数の評価指標で評価することができる。
In this experiment, a grayscale image having the G value of the blurred image as a luminance value is generated from each blurred image, and a luminance value of 255 or less and 253 or more is used for the grayscale image using the luminance value as a luminance value. A gradation reduction process was performed to compress the brightness value range of 253 gradations to 8 gradations except for. As a result, an 8-tone gray image was generated for each blurred image, and a moving image in which the 8-tone gray images were arranged in time series in descending order of the blur intensity was generated for each of the three skin images.
FIG. 14 is a diagram illustrating an example of a moving image of an 8-tone gray image. FIG. 14 shows four 8-tone gray images generated for four blur intensities. In this experiment, 50 8 tone gray images were generated and their moving images were generated. By playing such a video, it is possible to visually recognize changes in the distribution of a specific brightness range due to differences in blurring intensity, and what kind of texture and morphological features the skin is close to Qualitatively evaluating the subject's skin condition can be evaluated with a plurality of evaluation indices.
以上、図面を参照して本発明の実施形態及び実施例について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。また、本発明は上述の実施形態及び実施例に限定されるものではなく、本発明の目的が達成される限りにおける種々の変形、改良等の態様も含む。また、上述の評価装置10の構成要素は、個々に独立した存在である必要はない。複数の構成要素が一個の要素として形成されていること、一つの構成要素が複数の要素で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等を許容する。また、上述の肌状態評価方法の説明で用いた工程の実行順(図1に例示)は、その順に限定されるものではない。各工程の実行順は内容的に支障のない範囲で変更することができ、また複数の工程の実行タイミングの一部または全部が互いに重複していてもよい。 The embodiments and examples of the present invention have been described above with reference to the drawings. However, these are examples of the present invention, and various configurations other than the above can also be adopted. Further, the present invention is not limited to the above-described embodiments and examples, and includes various modifications and improvements as long as the object of the present invention is achieved. Moreover, the component of the above-mentioned evaluation apparatus 10 does not need to exist independently. Multiple components are formed as a single component, one component is formed of multiple components, one component is part of another component, one component And a part of other components are allowed to overlap. Moreover, the execution order (illustrated in FIG. 1) of the processes used in the description of the above-described skin condition evaluation method is not limited to that order. The execution order of each process can be changed within a range that does not hinder the contents, and some or all of the execution timings of the plurality of processes may overlap each other.
例えば、撮像装置(カメラ)により撮影された被験者の肌画像を正規化し、正規化後の肌画像に対してぼかし処理が施されてもよい。この正規化では、例えば、被験者の肌画像の最高明度値が所定上限値となるように、肌画像の明度範囲を拡張する処理が行われてもよい。また、被験者の肌画像の平均明度値が所定値となるように、その画像の明度値ヒストグラムの移動処理が行われてもよい。 For example, the skin image of the subject imaged by the imaging device (camera) may be normalized, and the normalized skin image may be blurred. In this normalization, for example, a process of extending the brightness range of the skin image may be performed so that the maximum brightness value of the subject's skin image becomes a predetermined upper limit value. In addition, the brightness value histogram of the subject may be moved so that the average brightness value of the skin image of the subject becomes a predetermined value.
上記の内容の一部又は全部は、次のようにも特定され得る。但し、上述の内容が以下の記載に制限されるものではない。 Part or all of the above contents can also be specified as follows. However, the above-mentioned content is not limited to the following description.
<1>肌表面が撮影された所定ぼかし強度のぼかし画像を取得する取得工程と、前記ぼかし画像における特定の明度範囲の分布情報を生成する生成工程と、を含む肌状態評価方法。
<2>前記分布情報は、前記ぼかし画像中の前記特定の明度範囲の画素に基づく、面積、局所領域数及び方向の少なくとも一つを示す指標値、又は、前記ぼかし画像中の該局所領域を表す画像である、<1>に記載の肌状態評価方法。
<3>前記取得工程では、肌表面のぼかし画像であってぼかし強度の異なる複数のぼかし画像を取得し、前記生成工程では、前記ぼかし強度の異なるぼかし画像毎に前記分布情報をそれぞれ生成する、<1>又は<2>に記載の肌状態評価方法。
<4>前記生成工程では、前記ぼかし強度の異なるぼかし画像毎にそれぞれ生成された複数の分布情報における前記ぼかし強度の違いに伴う変化傾向を示す情報を更に生成する、<3>に記載の肌状態評価方法。
<5>被験肌に関して生成された前記変化傾向を示す情報と、サンプル肌に関して生成された前記変化傾向を示す情報との対比により、該被験肌の状態を評価する工程、を更に含む<4>に記載の肌状態評価方法。
<6>前記取得工程では、肌表面が撮影された肌画像に対して平滑化フィルタを複数回適用することにより、ぼかし強度の異なる前記複数のぼかし画像を取得する、<3>から<5>のいずれか一つに記載の肌状態評価方法。
<7>前記特定の明度範囲は、前記ぼかし画像の各画素が示し得る明度の上限値を含む所定範囲を除いた、所定明度値範囲の中から選択された明度値の範囲である、<1>から<6>のいずれか一つに記載の肌状態評価方法。
<8>ぼかしのかかっていない肌画像から抽出される前記特定の明度範囲の分布情報に基づいて、前記分布情報を規格化する工程、を更に含む<1>から<7>のいずれか一つに記載の肌状態評価方法。
<9>化粧料、美容施術(医療行為を除く)又は美容用若しくは健康用の飲食品の適用前後の肌を、<1>から<8>のいずれか一つに記載の肌状態評価方法により評価することにより、該化粧料、該美容施術又は該飲食品の効果を評価する方法。
<10>肌表面が撮影された所定ぼかし強度のぼかし画像を取得する取得手段と、前記ぼかし画像における特定の明度範囲の分布情報を生成する生成手段と、を備える肌状態評価装置。
<11>前記生成手段は、前記分布情報として、前記ぼかし画像中の前記特定の明度範囲の画素に基づく、面積、局所領域数及び方向の少なくとも一つを示す指標値、又は、前記ぼかし画像中の該局所領域を表す画像を生成する、<10>に記載の肌状態評価装置。
<12>前記取得手段は、肌表面が撮影された肌画像を取得し、前記取得された肌画像に対して平滑化フィルタを複数回適用する、ことを含み、ぼかし強度の異なる複数のぼかし画像を取得し、前記生成手段は、前記ぼかし強度の異なるぼかし画像毎に前記分布情報をそれぞれ生成する、<10>又は<11>に記載の肌状態評価装置。
<13>前記生成手段は、前記ぼかし強度の異なるぼかし画像毎にそれぞれ生成された複数の分布情報における前記ぼかし強度の違いに伴う変化傾向を示す情報を更に生成する、<12>に記載の肌状態評価装置。
<14>前記特定の明度範囲は、前記ぼかし画像の各画素が示し得る明度の上限値を含む所定範囲を除いた、所定明度値範囲の中から選択された明度値の範囲である、<10>から<13>のいずれか一つに記載の肌状態評価装置。
<15>ぼかしのかかっていない肌画像から生成された前記特定の明度範囲の分布情報に基づいて、前記分布情報を規格化する規格化手段、を更に備える<10>から<14>のいずれか一つに記載の肌状態評価装置。
<1> A skin condition evaluation method including an acquisition step of acquiring a blur image having a predetermined blur intensity obtained by photographing a skin surface, and a generation step of generating distribution information of a specific brightness range in the blur image.
<2> The distribution information includes an index value indicating at least one of an area, the number of local regions, and a direction based on pixels in the specific brightness range in the blurred image, or the local region in the blurred image. The skin condition evaluation method according to <1>, which is an image to be represented.
<3> In the acquisition step, a plurality of blurred images with different blur strengths are obtained on the skin surface, and in the generation step, the distribution information is generated for each blur image with different blur strengths. <1> or the skin condition evaluation method according to <2>.
<4> The skin according to <3>, wherein the generation step further generates information indicating a change tendency due to the difference in the blur intensity in the plurality of pieces of distribution information generated for each of the blur images having different blur intensity. State evaluation method.
<5> A step of evaluating the state of the test skin by comparing the information indicating the change tendency generated with respect to the test skin and the information indicating the change tendency generated with respect to the sample skin is further included <4>. The skin condition evaluation method described in 1.
<6> In the obtaining step, the plurality of blurred images having different blurring strengths are obtained by applying a smoothing filter a plurality of times to the skin image obtained by photographing the skin surface. <3> to <5> The skin condition evaluation method as described in any one of these.
<7> The specific brightness range is a range of brightness values selected from a predetermined brightness value range excluding a predetermined range including an upper limit value of brightness that can be indicated by each pixel of the blurred image. <1 > To <6> The skin condition evaluation method according to any one of <6>.
<8> Any one of <1> to <7>, further including a step of normalizing the distribution information based on the distribution information of the specific brightness range extracted from the unblurred skin image The skin condition evaluation method described in 1.
<9> Skin condition before and after application of cosmetics, beauty treatment (excluding medical practice) or cosmetic or health food / drink according to the skin condition evaluation method according to any one of <1> to <8> A method of evaluating the effect of the cosmetic, the cosmetic treatment, or the food or drink by evaluating.
<10> A skin condition evaluation apparatus comprising: an acquisition unit that acquires a blurred image having a predetermined blur intensity obtained by photographing a skin surface; and a generation unit that generates distribution information of a specific brightness range in the blurred image.
<11> The generation unit may use, as the distribution information, an index value indicating at least one of an area, the number of local regions, and a direction based on pixels in the specific brightness range in the blurred image, or in the blurred image The skin condition evaluation apparatus according to <10>, wherein an image representing the local region is generated.
<12> The acquisition unit includes acquiring a skin image obtained by photographing a skin surface, and applying a smoothing filter to the acquired skin image a plurality of times, and a plurality of blurred images having different blur strengths The skin condition evaluation apparatus according to <10> or <11>, wherein the generation unit generates the distribution information for each blurred image having a different blur intensity.
<13> The skin according to <12>, wherein the generation unit further generates information indicating a change tendency associated with a difference in the blur intensity in a plurality of pieces of distribution information generated for each blur image having different blur intensity. Condition evaluation device.
<14> The specific brightness range is a range of brightness values selected from a predetermined brightness value range excluding a predetermined range including an upper limit value of brightness that can be indicated by each pixel of the blurred image. > To <13> The skin condition evaluation device according to any one of <13>.
<15> Any one of <10> to <14>, further comprising normalization means for normalizing the distribution information based on the distribution information of the specific brightness range generated from the skin image without blurring The skin condition evaluation apparatus as described in one.
10 肌状態評価装置(評価装置)
11 CPU
12 メモリ
13 入出力I/F
14 通信ユニット
15 表示装置
16 入力装置
21 画像取得部
22 ぼかし処理部
23 生成部
24 情報格納部
25 出力処理部
10 Skin condition evaluation device (evaluation device)
11 CPU
12 Memory 13 Input / output I / F
14 Communication Unit 15 Display Device 16 Input Device 21 Image Acquisition Unit 22 Blur Processing Unit 23 Generation Unit 24 Information Storage Unit 25 Output Processing Unit
Claims (11)
前記ぼかし画像における特定の明度範囲の分布情報を生成する生成工程と、
を含む肌状態評価方法。 An acquisition step of acquiring a blur image of a predetermined blur intensity obtained by photographing the skin surface;
A generation step of generating distribution information of a specific brightness range in the blurred image;
Skin condition evaluation method including
請求項1に記載の肌状態評価方法。 The distribution information is an index value indicating at least one of an area, the number of local regions, and a direction based on pixels of the specific brightness range in the blurred image, or an image representing the local region in the blurred image. is there,
The skin condition evaluation method according to claim 1.
前記生成工程では、前記ぼかし強度の異なるぼかし画像毎に前記分布情報をそれぞれ生成する、
請求項1又は2に記載の肌状態評価方法。 In the acquisition step, a plurality of blurred images with different blur strengths, which are blurred images of the skin surface, are acquired,
In the generation step, the distribution information is generated for each blurred image having a different blur intensity.
The skin condition evaluation method according to claim 1 or 2.
請求項3に記載の肌状態評価方法。 In the generating step, further generating information indicating a change tendency due to the difference in the blur intensity in a plurality of distribution information respectively generated for each blur image having a different blur intensity.
The skin condition evaluation method according to claim 3.
を更に含む請求項4に記載の肌状態評価方法。 A step of evaluating the state of the test skin by comparing the information indicating the change tendency generated with respect to the test skin and the information indicating the change tendency generated with respect to the sample skin;
The skin condition evaluation method according to claim 4, further comprising:
請求項3から5のいずれか一項に記載の肌状態評価方法。 In the obtaining step, the plurality of blurred images having different blur strengths are obtained by applying a smoothing filter multiple times to the skin image obtained by photographing the skin surface.
The skin condition evaluation method according to any one of claims 3 to 5.
請求項1から6のいずれか一項に記載の肌状態評価方法。 The specific brightness range is a range of brightness values selected from a predetermined brightness value range excluding a predetermined range including an upper limit value of brightness that can be indicated by each pixel of the blurred image.
The skin condition evaluation method according to any one of claims 1 to 6.
を更に含む請求項1から7のいずれか一項に記載の肌状態評価方法。 Normalizing the distribution information based on the distribution information of the specific brightness range extracted from an unblurred skin image related to the skin surface;
The skin condition evaluation method according to any one of claims 1 to 7, further comprising:
前記ぼかし画像における特定の明度範囲の分布情報を生成する生成手段と、
を備える肌状態評価装置。 An acquisition means for acquiring a blurred image of a predetermined blur intensity obtained by photographing the skin surface;
Generating means for generating distribution information of a specific brightness range in the blurred image;
A skin condition evaluation apparatus comprising:
肌表面が撮影された肌画像を取得し、
前記取得された肌画像に対して平滑化フィルタを複数回適用する、
ことを含み、ぼかし強度の異なる複数のぼかし画像を取得し、
前記生成手段は、前記ぼかし強度の異なるぼかし画像毎に前記分布情報をそれぞれ生成する、
請求項10に記載の肌状態評価装置。 The acquisition means includes
Get a skin image of the skin surface,
Applying a smoothing filter multiple times to the acquired skin image;
To obtain multiple blurred images with different blur intensities,
The generation unit generates the distribution information for each blurred image having a different blur intensity.
The skin condition evaluation apparatus according to claim 10.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016047853A JP6730051B2 (en) | 2016-03-11 | 2016-03-11 | Skin condition evaluation method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016047853A JP6730051B2 (en) | 2016-03-11 | 2016-03-11 | Skin condition evaluation method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2017158921A true JP2017158921A (en) | 2017-09-14 |
| JP6730051B2 JP6730051B2 (en) | 2020-07-29 |
Family
ID=59854313
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016047853A Active JP6730051B2 (en) | 2016-03-11 | 2016-03-11 | Skin condition evaluation method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6730051B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019216652A (en) * | 2018-06-19 | 2019-12-26 | ポーラ化成工業株式会社 | Diagnosis method of skin condition based on bacterial amount of specific environment-derived bacteria correlated with specific skin condition, estimation method of diversity of indigenous skin flora, estimation method of bacteria amount of specific environment-derived bacteria, method for analyzing attributes of bacteria that are correlated with specific skin condition, and method for screening substance having skin condition improving effect or cosmetic method |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004166801A (en) * | 2002-11-18 | 2004-06-17 | Kose Corp | Evaluation method for luster of skin |
| JP2011118671A (en) * | 2009-12-03 | 2011-06-16 | Kao Corp | Apparatus, method and system for processing image, skin evaluation method |
| JP2013078520A (en) * | 2011-10-05 | 2013-05-02 | Kao Corp | Skin image analysis apparatus and skin image analysis method |
| JP2015080647A (en) * | 2013-10-23 | 2015-04-27 | パナソニックIpマネジメント株式会社 | Captured image display device |
| JP2016022093A (en) * | 2014-07-18 | 2016-02-08 | 富士フイルム株式会社 | Moisture feeling evaluation apparatus, moisture feeling evaluation method, and moisture feeling evaluation program |
-
2016
- 2016-03-11 JP JP2016047853A patent/JP6730051B2/en active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004166801A (en) * | 2002-11-18 | 2004-06-17 | Kose Corp | Evaluation method for luster of skin |
| JP2011118671A (en) * | 2009-12-03 | 2011-06-16 | Kao Corp | Apparatus, method and system for processing image, skin evaluation method |
| JP2013078520A (en) * | 2011-10-05 | 2013-05-02 | Kao Corp | Skin image analysis apparatus and skin image analysis method |
| JP2015080647A (en) * | 2013-10-23 | 2015-04-27 | パナソニックIpマネジメント株式会社 | Captured image display device |
| JP2016022093A (en) * | 2014-07-18 | 2016-02-08 | 富士フイルム株式会社 | Moisture feeling evaluation apparatus, moisture feeling evaluation method, and moisture feeling evaluation program |
| US20170079599A1 (en) * | 2014-07-18 | 2017-03-23 | Fujifilm Corporation | Moisture feeling evaluation device, moisture feeling evaluation method, and moisture feeling evaluation program |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019216652A (en) * | 2018-06-19 | 2019-12-26 | ポーラ化成工業株式会社 | Diagnosis method of skin condition based on bacterial amount of specific environment-derived bacteria correlated with specific skin condition, estimation method of diversity of indigenous skin flora, estimation method of bacteria amount of specific environment-derived bacteria, method for analyzing attributes of bacteria that are correlated with specific skin condition, and method for screening substance having skin condition improving effect or cosmetic method |
| JP7190266B2 (en) | 2018-06-19 | 2022-12-15 | ポーラ化成工業株式会社 | Diagnosis method for skin condition, method for estimating diversity of skin flora, method for estimating the amount of specific environment-derived bacteria, identification method based on the amount of specific environment-derived bacteria correlated with specific skin condition A method of analyzing the attributes of bacteria that are correlated with skin conditions, a method of screening substances or cosmetic methods that have an action to improve skin conditions |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6730051B2 (en) | 2020-07-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7413400B2 (en) | Skin quality measurement method, skin quality classification method, skin quality measurement device, electronic equipment and storage medium | |
| JP7553621B2 (en) | Apparatus and method for determining cosmetic skin attributes - Patents.com | |
| JP7235895B2 (en) | Apparatus and method for visualizing cosmetic skin characteristics | |
| CN101652784B (en) | Method for simulation of facial skin aging and de-aging | |
| JP5547730B2 (en) | Automatic facial and skin beautification using face detection | |
| CN105263399B (en) | Transparent sensation evaluating device, transparent appraisal method | |
| JP6473401B2 (en) | Skin gloss evaluation apparatus, gloss evaluation method, and gloss evaluation program | |
| CN111062891A (en) | Image processing method, device, terminal and computer readable storage medium | |
| CN113128376A (en) | Wrinkle recognition method based on image processing, wrinkle recognition device and terminal equipment | |
| JP7234086B2 (en) | Biometric information acquisition device and program | |
| JP6527765B2 (en) | Wrinkle state analyzer and method | |
| JP2017113140A (en) | Skin condition evaluation method | |
| JP2004166801A (en) | Evaluation method for luster of skin | |
| US20180116582A1 (en) | Elasticity evaluation apparatus, elasticity evaluation method, and elasticity evaluation program | |
| JP6730051B2 (en) | Skin condition evaluation method | |
| CN115039149B (en) | Iris detection method, iris detection device, and program product | |
| CN111259683A (en) | Skin detection method and image processing apparatus | |
| Devi et al. | A block based scheme for enhancing low luminated images | |
| Kumari et al. | Image fusion techniques based on pyramid decomposition | |
| KR20230052341A (en) | System of producing customized cosmetic for sensitive skin and method thereof | |
| CN114627003A (en) | Method, system, device and storage medium for removing eye fat of face image | |
| JP6359389B2 (en) | Evaluation method for aesthetic impression of lips and support device for supporting the evaluation | |
| JP2023155988A (en) | Nasolabial shadow analysis method | |
| Ciuc et al. | Objective measures for quality assessment of automatic skin enhancement algorithms | |
| Olugbara et al. | Research Article Segmentation of Melanoma Skin Lesion Using Perceptual Color Difference Saliency with Morphological Analysis |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181207 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190926 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191001 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191129 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200120 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200218 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200408 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200616 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200702 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6730051 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |