[go: up one dir, main page]

JP2016051302A5 - - Google Patents

Download PDF

Info

Publication number
JP2016051302A5
JP2016051302A5 JP2014175911A JP2014175911A JP2016051302A5 JP 2016051302 A5 JP2016051302 A5 JP 2016051302A5 JP 2014175911 A JP2014175911 A JP 2014175911A JP 2014175911 A JP2014175911 A JP 2014175911A JP 2016051302 A5 JP2016051302 A5 JP 2016051302A5
Authority
JP
Japan
Prior art keywords
image
processing apparatus
image processing
region
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014175911A
Other languages
Japanese (ja)
Other versions
JP2016051302A (en
JP6384205B2 (en
Filing date
Publication date
Application filed filed Critical
Priority to JP2014175911A priority Critical patent/JP6384205B2/en
Priority claimed from JP2014175911A external-priority patent/JP6384205B2/en
Publication of JP2016051302A publication Critical patent/JP2016051302A/en
Publication of JP2016051302A5 publication Critical patent/JP2016051302A5/ja
Application granted granted Critical
Publication of JP6384205B2 publication Critical patent/JP6384205B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

記目的を達成するため、本発明に係る画像処理装置の一態様は、
ターゲット画像を取得する取得部と、
前記ターゲット画像から、被写体の特定部位を表す画像領域である基準領域を検出する検出部と、
前記基準領域のサイズに基づいて、前記ターゲット画像が含む前記被写体の肌を表す画像領域のサイズの予測値を取得する予測部と、
前記ターゲット画像に含まれる、前記被写体の前記肌を表す画像領域と同一又は類似した画素値を有する画像領域である補正対象領域のサイズの実測値を取得する実測部と、
前記実測値と前記予測値とを比較して、補正強度を決定する決定部と
備える、
ことを特徴とする。
また、前記目的を達成するため、本発明に係る撮像装置の一態様は、
被写体を撮像することによりターゲット画像を生成する撮像部と、
前記撮像部により生成された前記ターゲット画像を取得する前記画像処理装置と、
を備える、
ことを特徴とする。
また、前記目的を達成するため、本発明に係る画像処理方法の一態様は、
ターゲット画像を取得する取得工程と、
前記ターゲット画像から、被写体の特定部位を表す画像領域である基準領域を検出する検出工程と、
前記基準領域のサイズに基づいて、前記ターゲット画像が含む前記被写体の肌を表す画像領域のサイズの予測値を取得する予測工程と、
前記ターゲット画像に含まれる、前記被写体の前記肌を表す画像領域と同一又は類似した画素値を有する画像領域である補正対象領域のサイズの実測値を取得する実測工程と、
前記実測値と前記予測値とを比較して、補正強度を決定する決定工程と、
を含む
ことを特徴とする。
また、前記目的を達成するため、本発明に係るプログラムの一態様は、
コンピュータを、
ターゲット画像を取得する取得部、
前記ターゲット画像から、被写体の特定部位を表す画像領域である基準領域を検出する検出部、
前記基準領域のサイズに基づいて、前記ターゲット画像が含む前記被写体の肌を表す画像領域のサイズの予測値を取得する予測部、
前記ターゲット画像に含まれる、前記被写体の前記肌を表す画像領域と同一又は類似した画素値を有する画像領域である補正対象領域のサイズの実測値を取得する実測部、
前記実測値と前記予測値とを比較して、補正強度を決定する決定部、
として機能させる、
ことを特徴とする。
To achieve the pre-Symbol purpose, one embodiment of an image processing apparatus according to the present invention,
An acquisition unit for acquiring a target image;
A detection unit that detects a reference region, which is an image region representing a specific part of the subject, from the target image;
A prediction unit that obtains a predicted value of the size of the image region representing the skin of the subject included in the target image based on the size of the reference region;
Wherein in the target image, and a measuring unit for acquiring the actual values of the size of the correction target region is an image region having the pixel value same as or similar to the image region representing the skin of the subject,
A determination unit that compares the measured value with the predicted value to determine a correction strength ;
Equipped with a,
It is characterized by that.
In order to achieve the above object, one aspect of the imaging apparatus according to the present invention is:
An imaging unit that generates a target image by imaging a subject;
The image processing apparatus for acquiring the target image generated by the imaging unit;
Comprising
It is characterized by that.
In order to achieve the above object, one aspect of an image processing method according to the present invention includes:
An acquisition step of acquiring a target image;
A detection step of detecting a reference region, which is an image region representing a specific part of the subject, from the target image;
A prediction step of obtaining a predicted value of the size of the image area representing the skin of the subject included in the target image based on the size of the reference area;
An actual measurement step of obtaining an actual measurement value of the size of the correction target area, which is an image area having the same or similar pixel value as the image area representing the skin of the subject, included in the target image;
A determination step of determining the correction strength by comparing the measured value and the predicted value;
Including
It is characterized by that.
In order to achieve the above object, one aspect of the program according to the present invention is as follows:
Computer
An acquisition unit for acquiring a target image;
A detection unit that detects a reference region that is an image region representing a specific part of the subject from the target image;
A prediction unit that obtains a predicted value of the size of the image area representing the skin of the subject included in the target image based on the size of the reference area;
An actual measurement unit for acquiring an actual measurement value of the size of the correction target area, which is an image area having the same or similar pixel value as the image area representing the skin of the subject, included in the target image;
A determination unit that compares the measured value with the predicted value to determine a correction strength,
Function as
It is characterized by that.

具体的には、実測部104は、ターゲット画像TGの肌色マップを作成し、この肌色マップの積分値をターゲット画像TGの肌色量の実測値として取得する。ここで、肌色マップは、ターゲット画像TGを構成する画素のうち、画素値(色相、彩度、明度)が、HSV色空間において、検出部102が取得した顔画像領域の画素値を含む所定の領域に含まれる画素のみで構成される画像である。所定の領域は、例えば、顔画像領域の画素値を中心とする所定の直方体領域である。所定の直方体領域は、任意の手法により予め設定しておけばよい。具体的には、複数の被写体人物の肌の画像を解析し、肌の画像を構成する各画素の画素値と、集計された各画素の画素値の最頻値である肌の画像の画素値と、の間の相関を求めることにより所定の直方体領域を適宜設定することができる。 Specifically, the actual measurement unit 104 creates a skin color map of the target image TG, and acquires an integrated value of the skin color map as an actual measurement value of the skin color amount of the target image TG. Here, the skin color map has a predetermined pixel value (hue, saturation, brightness) including the pixel value of the face image area acquired by the detection unit 102 in the HSV color space among the pixels constituting the target image TG. It is an image composed only of pixels included in a region. The predetermined area is, for example, a predetermined rectangular parallelepiped area centered on the pixel value of the face image area . Tokoro cuboid region of the constant may be set in advance by any method. Specifically, the skin image of a plurality of subject persons is analyzed, and the pixel value of each pixel constituting the skin image and the pixel value of the skin image that is the mode value of the summed pixel values of each pixel And a predetermined rectangular parallelepiped region can be set as appropriate.

ここで、美肌処理とは、ターゲット画像TGに対してフィルタ処理、露出補正、彩度調整等を施し、好ましい画像を生成する処理である。美肌処理は、当該技術分野において周知の技術であるため、詳細な説明は省略する。処理部106は、美肌処理に含まれるフィルタ処理、露出補正、彩度調整等の各処理の強度をそれぞれ調整することにより、美肌処理の強度を調整する。例えば、強度100%の美肌処理が、露出を+1.0EV変更する露出補正を含むと予め設定されており、かつ、決定部105によって美肌処理の強度が50%と決定されたとする。この場合、処理部106は、強度50%の美肌処理の一環として、露出を(+1.0EV)×(50/100)=+0.5EV変更する露出補正を実行する。処理部106は、同様にして、美肌処理に含まれる各処理を、所の補正強度と、予め設定された、強度100%の美肌処理が含む各処理の強度と、に基づいて決定された強度にてそれぞれ実行することにより、所の強度の美肌処理を実行する。 Here, the skin beautification process is a process for generating a preferable image by performing filter processing, exposure correction, saturation adjustment, and the like on the target image TG. Since the skin beautifying process is a technique well known in the technical field, a detailed description thereof is omitted. The processing unit 106 adjusts the strength of the skin beautifying process by adjusting the strength of each process such as filter processing, exposure correction, and saturation adjustment included in the skin beautifying process. For example, it is assumed that the skin beautifying process with an intensity of 100% is set in advance to include exposure correction for changing the exposure by +1.0 EV, and the determining unit 105 determines that the intensity of the beautifying process is 50%. In this case, the processing unit 106 performs exposure correction for changing the exposure by (+1.0 EV) × (50/100) = + 0.5 EV as part of the skin beautifying process with 50% intensity. Processing unit 106, similarly, the processes included in the beautiful skin processing, the correction strength of Jo Tokoro, preset, and intensity of the treatment, including skin beautifying process intensity 100% was determined on the basis of by executing each in strength, it executes the skin beautifying process of the intensity of Jo Tokoro.

本実施形態で、外部記憶部23から取得されるSkinBaseは、人物モデル(モデルとなる被写体人物)の全身画像に含まれる、この人物モデルの顔画像領域のサイズ(例えば、10000ピクセル×ピクセル)と、この人物モデルの肌を表す画像領域のサイズ(例えば、120000ピクセル×ピクセル)と、を含んでいる。ここで、例えば、ステップS103において取得した、ステップS102で検出された顔画像領域のサイズが、20000ピクセル×ピクセルであったと仮定する。この場合、予測部103は、SkinBaseで示される、人物モデルの肌を表す画像領域のサイズ(120000ピクセル×ピクセル)に、ステップS102において取得した顔画像領域のサイズ(20000ピクセル×ピクセル)の、SkinBaseで示される、人物モデルの顔画像領域のサイズ(10000ピクセル×ピクセル)に対する比率(20000ピクセル×ピクセル/10000ピクセル×ピクセル)を乗じることにより、SkinBaseFinish=(120000ピクセル×ピクセル)×2=240000ピクセル×ピクセルを取得する。 In the present embodiment, the SkinBase acquired from the external storage unit 23 includes the size (for example, 10000 pixels × pixel) of the face image area of the person model included in the whole body image of the person model (the subject person to be a model). The size of the image area representing the skin of the person model (for example, 120,000 pixels × pixel). Here, for example, it is assumed that the size of the face image area acquired in step S103 and detected in step S102 is 20000 pixels × pixel. In this case, the prediction unit 103 uses the SkinBase of the size of the face image area (20000 pixels × pixel) acquired in step S102 to the size of the image area (120,000 pixels × pixel) representing the skin of the person model indicated by SkinBase. Is multiplied by the ratio (20000 pixels × pixel / 10000 pixels × pixel) to the size (10000 pixels × pixel) of the face image area of the human model, and SkinBaseFinish = (120,000 pixels × pixel) × 2 = 24 0000 pixels X Get the pixel.

尚、撮像装置1は、検出した顔画像領域(基準領域)のサイズを示す、面積以外の特徴量を取得してもよい。例えば、顔画像領域に外接する矩形領域の縦サイズ(縦方向ピクセル数)や横サイズ(横方向ピクセル数)、顔画像領域に外接する楕円形領域の長径(長径方向ピクセル数)や短径(短径方向ピクセル数)等を顔画像領域のサイズとして取得することができる。また、撮像装置1は、検出した顔画像領域がターゲット画像TG全体に占める割合を、この顔画像領域のサイズを示す特徴量として取得することもできる。 Note that the imaging apparatus 1 may acquire a feature amount other than the area indicating the size of the detected face image region (reference region). For example, the vertical size (number of vertical pixels) and horizontal size ( number of horizontal pixels) of the rectangular area circumscribing the face image area, the major axis (number of major axis pixels) and minor axis of the elliptical area circumscribing the face image area ( The number of pixels in the minor axis direction) can be acquired as the size of the face image area. The imaging device 1 can also acquire the ratio of the detected face image area to the entire target image TG as a feature amount indicating the size of the face image area.

尚、上述の色空間に設定される所定の領域は、被写体人物の肌の画像の画素値を中心とする所定の直方体領域には限定されず、例えば、球形や四角柱形等の任意の形状を有する領域であってもよい。また、被写体人物の肌の画像の画素値は、当該所定の領域に含まれてさえいればよく、中心以外の場所に位置してもよい。 Note that the predetermined area set in the color space is not limited to a predetermined rectangular parallelepiped area centered on the pixel value of the skin image of the subject person, and may be any shape such as a spherical shape or a quadrangular prism shape. It may be a region having Further, the pixel value of the skin image of the subject person only needs to be included in the predetermined area, and may be located at a place other than the center.

本実施形態において、撮像装置1は、補正強度を決定した後、決定した補正強度にてターゲット画像TGに直接美肌処理を施すことにより、当該決定した補正強度の美肌処理が施された処理画像を生成した。撮像装置1は、ターゲット画像TGに、直接、決定した補正強度で美肌処理を施す上述の方法以外の方法により、決定した補正強度の美肌処理が施された処理画像を生成することもできる。例えば、撮像装置1は、ターゲット画像TGと、ターゲット画像TGに所定の補正強度(例えば、100%)にて美肌処理を施した画像と、を適切な比率にて重み付き合成することにより、所の補正強度の美肌処理が施された処理画像を生成してもよい。この場合、撮像装置1がターゲット画像TGに直接施す美肌処理の補正強度は、常に一定(この場合は、100%)である。撮像装置1は、ターゲット画像TGに施す美肌処理の補正強度ではなく、ターゲット画像とターゲット画像に所定の補正強度にて美肌処理を施した画像とをどのような比率にて重み付き合成するかを、ターゲット画像TGに含まれる、被写体人物の肌を表す画像領域のサイズ(面積又は割合)の予測値とターゲット画像TGの肌色量の実測値との比較結果に基づいて決定する。尚、重み付き合成は、2つの画像全体を対象として行ってもよいし、2つの画像の一部分(例えば、肌色領域として検出された部分)のみを対象として行ってもよい。 In the present embodiment, after determining the correction strength, the imaging apparatus 1 directly performs a skin beautification process on the target image TG with the determined correction strength, thereby obtaining a processed image that has undergone the skin correction process with the determined correction strength. Generated. The imaging apparatus 1 can also generate a processed image that has been subjected to skin treatment with the determined correction strength by a method other than the above-described method that directly performs skin beautification processing with the determined correction strength on the target image TG. For example, the imaging apparatus 1 weights and synthesizes the target image TG and an image obtained by applying a skin beautification process to the target image TG with a predetermined correction strength (for example, 100%) at an appropriate ratio. A processed image that has undergone skin beautification processing with a fixed correction strength may be generated. In this case, the correction strength of the skin beautification process directly applied to the target image TG by the imaging apparatus 1 is always constant (in this case, 100%). The imaging apparatus 1 does not use the correction strength of the skin beautification process applied to the target image TG, but at what ratio the target image and the image obtained by applying the skin beautification process to the target image with a predetermined correction intensity are weighted and combined. Then, it is determined based on the comparison result between the predicted value of the size (area or ratio) of the image region representing the skin of the subject person included in the target image TG and the actual measured value of the skin color amount of the target image TG. Note that the weighted synthesis may be performed on the entire two images, or only a part of the two images (for example, a portion detected as a skin color region).

実施形態1に係る画像処理装置100は、図4のフローチャートにおけるステップS104の処理を説明した際に上述したとおり、SkinBaseと、検出された顔画像領域のサイズと、に基づいて、SkinBaseFinish(ターゲット画像TGに含まれる、被写体人物の肌を表す画像領域のサイズ(面積又は割合)の予測値)を取得した。これに対し、本実施形態に係る画像処理装置100は、SkinBaseと、顔画像領域のサイズと、基づいて、SkinBaseFinishではなく、SkinBase’を取得している。これは、実施形態1に係る画像処理装置100が、図2に示す、被写体人物の全身画像すべてを含むターゲット画像TGを対象として美肌処理を行っているのに対して、本実施形態に係る画像処理装置100は、図8に示す、被写体人物の全身画像のうち一部分のみを含むターゲット画像TGを対象として美肌処理を行っているからである。本実施形態に係る画像処理装置100は、被写体人物の全身画像のうち、ターゲット画像TGに含まれる部分の割合を参酌して、ターゲット画像TGに含まれる、被写体人物の肌を表す画像領域のサイズの予測値を取得する。そのために、本実施形態に係る画像処理装置100は、まず、ステップS202の処理により、7頭身の人物モデルの全身画像すべてがターゲット画像TGに含まれていた場合における、ターゲット画像TGに含まれる、被写体人物の肌を表す画像領域のサイズの予測値をSkinBase’として取得する。そして、後述する図9のフローチャートのステップS203〜S205の処理を実行することにより、SkinBase’を、被写体人物の全身画像のうち、ターゲット画像TGに含まれている部分の割合で調整することにより、SkinBaseFinish(ターゲット画像TGに含まれる被写体人物の肌を表す画像領域のサイズの予測値)を取得するのである。 As described above when the processing in step S104 in the flowchart of FIG. 4 is described, the image processing apparatus 100 according to the first embodiment uses the SkinBaseFinish (target image) based on the SkinBase and the size of the detected face image area. A predicted value of the size (area or ratio) of the image region representing the skin of the subject person included in the TG was acquired. In contrast, the image processing apparatus 100 according to this embodiment includes a SkinBase, the size of the face image area, based on, instead SkinBaseFinish, have acquired SkinBase '. This is because the image processing apparatus 100 according to the first embodiment performs the skin beautification process on the target image TG including the whole body image of the subject person shown in FIG. 2, whereas the image according to the present embodiment. This is because the processing apparatus 100 performs the skin beautification process on the target image TG including only a part of the whole body image of the subject person shown in FIG. The image processing apparatus 100 according to the present embodiment considers the ratio of the portion included in the target image TG in the whole body image of the subject person, and the size of the image area representing the skin of the subject person included in the target image TG. Get the predicted value of. Therefore, the image processing apparatus 100 according to the present embodiment is first included in the target image TG in the case where all the whole body images of the seven human bodies are included in the target image TG by the process in step S202. The predicted value of the size of the image area representing the skin of the subject person is acquired as SkinBase ′. Then, by performing the processing of steps S203 to S205 in the flowchart of FIG. 9 to be described later, by adjusting SkinBase ′ by the ratio of the portion included in the target image TG in the whole body image of the subject person, SkinBaseFinish (a predicted value of the size of the image area representing the skin of the subject person included in the target image TG) is acquired.

尚、撮像装置1は、互いに頭身が異なる複数の人物モデルを用いて作成された複数種類のSkinBaseを予め記憶しておき、これら複数種類のSkinBaseのうち何れか1つを用いてSkinBaseFinishを取得することもできる。この場合、SkinBaseの選択は、ユーザが操作部32を操作することによって行ってもよいし、撮像装置1が、顔画像領域から検出部102が取得した任意の特徴量に基づいて行ってもよい。例えば、撮像装置1は、検出した顔画像領域の特徴量(例えば、シワの数)から被写体人物の年齢を推定し、この推定年齢に基づいてSkinBaseを選択してもよい。被写体人物が子供である場合、大人よりも小さい頭身である可能性が高いので、より頭身の小さい人物モデルに基づいて作成されたSkinBaseを用いてSkinBaseFinishを取得することが好ましい。推定年齢に基づいてSkinBaseを選択することで、ターゲット画像TGに含まれる、被写体人物の肌を表す画像領域のサイズを、より正確に予測することができる。尚、撮像装置1がターゲット画像TGから複数の顔画像領域を検出した場合、各顔画像領域から推定される被写体人物の年齢を集計し、推定年齢の最頻値、最大値、最小値、平均値、中央値、ターゲット画像TGの中心に近い顔画像領域ほど推定年齢重みが大きくなる重み付き平均値、最大のサイズ(面積又は割合)を有する顔画像領域から得られた推定年齢等を用いてSkinBaseを選択することとしてもよい。 Note that the imaging apparatus 1 stores in advance a plurality of types of SkinBases created using a plurality of human models having different heads and bodies, and obtains a SkinBaseFinish using any one of the plurality of types of SkinBases. You can also In this case, the selection of SkinBase may be performed by the user operating the operation unit 32, or the imaging device 1 may perform the selection based on an arbitrary feature amount acquired by the detection unit 102 from the face image region. . For example, the imaging apparatus 1 may estimate the age of the subject person from the feature amount (for example, the number of wrinkles) of the detected face image area, and select SkinBase based on the estimated age. When the subject person is a child, there is a high possibility that the subject person has a smaller head and body than an adult. Therefore, it is preferable to obtain the SkinBaseFinish using a SkinBase created based on a person model having a smaller head and body. By selecting SkinBase based on the estimated age, the size of the image area representing the skin of the subject person included in the target image TG can be predicted more accurately. When the imaging device 1 detects a plurality of face image areas from the target image TG, the age of the subject person estimated from each face image area is totaled, and the mode value, maximum value, minimum value, and average of the estimated age are totaled. value, median, weighted average value weighted estimated age closer face image area in the center of the target image TG increases, the estimated age and the like obtained from the face image area having the largest size (area or percentage) using It is also possible to select SkinBase.

Claims (14)

ターゲット画像を取得する取得部と、
前記ターゲット画像から、被写体の特定部位を表す画像領域である基準領域を検出する検出部と、
前記基準領域のサイズに基づいて、前記ターゲット画像が含む前記被写体の肌を表す画像領域のサイズの予測値を取得する予測部と、
前記ターゲット画像に含まれる、前記被写体の前記肌を表す画像領域と同一又は類似した画素値を有する画像領域である補正対象領域のサイズの実測値を取得する実測部と、
前記実測値と前記予測値とを比較して、補正強度を決定する決定部と
備える、
ことを特徴とする画像処理装置。
An acquisition unit for acquiring a target image;
A detection unit that detects a reference region, which is an image region representing a specific part of the subject, from the target image;
A prediction unit that obtains a predicted value of the size of the image region representing the skin of the subject included in the target image based on the size of the reference region;
Wherein in the target image, and a measuring unit for acquiring the actual values of the size of the correction target region is an image region having the pixel value same as or similar to the image region representing the skin of the subject,
A determination unit that compares the measured value with the predicted value to determine a correction strength ;
Equipped with a,
An image processing apparatus.
前記検出部は、前記ターゲット画像から検出した前記基準領域の数に基づいて、前記ターゲット画像が含む前記被写体の人数を取得し、
前記予測部は、前記人数を参酌して前記予測値を取得する、
ことを特徴とする請求項1に記載の画像処理装置。
The detection part, based on the number of the reference area detected from the target image, and obtains the number of the object in which the target image comprises,
The prediction unit obtains the predicted value in consideration of the number of persons;
The image processing apparatus according to claim 1.
前記基準領域は、前記被写体の顔画像領域である、
ことを特徴とする請求項1又は2に記載の画像処理装置。
The reference region is a face image area of the subject,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
モデルとなる前記被写体の前記特定部位を表す画像領域のサイズと、前記モデルとなる前記被写体の前記肌を表す画像領域のサイズと、に基づいて予め作成された、前記予測値を取得するためのモデルデータを記憶する記憶部をさらに備え、
前記予測部は、前記記憶部に記憶された前記モデルデータを参酌して前記予測値を取得する、
ことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
The size of the image area representing the specific site models become the object, the size of the image area representing the skin of the subject to be the model created in advance based on, for obtaining the predicted value A storage unit for storing model data;
The prediction unit obtains the prediction value in consideration of the model data stored in the storage unit;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記予測部は、前記被写体の全身画像のうち前記ターゲット画像に含まれる部分の割合を推定し、推定した前記割合を参酌して前記予測値を取得する、
ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
The prediction unit estimates the proportion of the portion contained in the target image of the whole body images of the object, obtains the prediction value by referring to the ratio was estimated boss,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記予測部は、前記基準領域の前記ターゲット画像における配置情報を参酌して前記割合を推定する、
ことを特徴とする請求項5に記載の画像処理装置。
The prediction unit estimates the ratio in consideration of arrangement information in the target image of the reference region,
The image processing apparatus according to claim 5.
前記予測部は、前記基準領域に基づいて推定した前記被写体の年齢を参酌して前記割合を推定する、
ことを特徴とする請求項5又は6に記載の画像処理装置。
The prediction unit, in consideration of the age of the object scene body estimated to estimate the percentage based on the reference area,
The image processing apparatus according to claim 5, wherein:
前記決定部は、前記実測値が前記予測値を所定の閾値を超えて上回っている場合、前記実測値が前記予測値を前記所定の閾値を超えて上回っていない場合に決定する強度に比べて小さい強度を前記補正強度として決定する、
ことを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
The determination unit, when the measured value exceeds the predicted value by more than a predetermined threshold, compared to the intensity of determining if said measured value does not exceed the predicted value exceeds the predetermined threshold value A small intensity is determined as the corrected intensity,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記ターゲット画像のうちの前記補正対象領域に前記補正強度で画像処理が施された処理画像を生成する処理部を更に備える、  The image processing apparatus further includes a processing unit that generates a processed image obtained by performing image processing with the correction intensity on the correction target region of the target image.
ことを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
被写体を撮像することによりターゲット画像を生成する撮像部と、
前記撮像部により生成された前記ターゲット画像を取得する請求項1からの何れか1項に記載の画像処理装置と、
を備える
ことを特徴とする撮像装置。
An imaging unit that generates a target image by imaging a subject;
The image processing apparatus according to any one of claims 1 to 9 , wherein the target image generated by the imaging unit is acquired;
Equipped with a,
An imaging apparatus characterized by that.
ターゲット画像を取得する取得工程と、
前記ターゲット画像から、被写体の特定部位を表す画像領域である基準領域を検出する検出工程と、
前記基準領域のサイズに基づいて、前記ターゲット画像が含む前記被写体の肌を表す画像領域のサイズの予測値を取得する予測工程と、
前記ターゲット画像に含まれる、前記被写体の前記肌を表す画像領域と同一又は類似した画素値を有する画像領域である補正対象領域のサイズの実測値を取得する実測工程と、
前記実測値と前記予測値とを比較して、補正強度を決定する決定工程と
を含む
ことを特徴とする画像処理方法。
An acquisition step of acquiring a target image;
A detection step of detecting a reference region, which is an image region representing a specific part of the subject, from the target image;
A prediction step of obtaining a predicted value of the size of the image area representing the skin of the subject included in the target image based on the size of the reference area;
The measured process the in the target image, and acquires a measured value of the size of the correction target region is an image region having an image area of the same or similar pixel values representing the skin of the subject,
A determination step of determining the correction strength by comparing the measured value and the predicted value ;
Including
An image processing method.
前記ターゲット画像のうちの前記補正対象領域に前記補正強度で画像処理が施された処理画像を生成する処理工程を更に含む、  Further including a processing step of generating a processed image obtained by performing image processing with the correction intensity on the correction target region of the target image.
ことを特徴とする請求項11に記載の画像処理方法。  The image processing method according to claim 11.
コンピュータを、
ターゲット画像を取得する取得部、
前記ターゲット画像から、被写体の特定部位を表す画像領域である基準領域を検出する検出部、
前記基準領域のサイズに基づいて、前記ターゲット画像が含む前記被写体の肌を表す画像領域のサイズの予測値を取得する予測部、
前記ターゲット画像に含まれる、前記被写体の前記肌を表す画像領域と同一又は類似した画素値を有する画像領域である補正対象領域のサイズの実測値を取得する実測部、
前記実測値と前記予測値とを比較して、補正強度を決定する決定部
して機能させる
ことを特徴とするプログラム。
Computer
An acquisition unit for acquiring a target image;
A detection unit that detects a reference region that is an image region representing a specific part of the subject from the target image;
A prediction unit that obtains a predicted value of the size of the image area representing the skin of the subject included in the target image based on the size of the reference area;
Wherein in the target image, the measuring unit for acquiring the actual values of the size of the correction target region is an image region having an image area of the same or similar pixel values representing the skin of the subject,
A determination unit that compares the measured value with the predicted value to determine a correction strength ,
To function as a,
A program characterized by that.
前記コンピュータを、  The computer,
前記ターゲット画像のうちの前記補正対象領域に前記補正強度で画像処理が施された処理画像を生成する処理部、  A processing unit that generates a processed image obtained by performing image processing with the correction intensity on the correction target region of the target image;
として更に機能させる、  As a further function,
ことを特徴とする請求項13に記載のプログラム。  The program according to claim 13.
JP2014175911A 2014-08-29 2014-08-29 Image processing apparatus, imaging apparatus, image processing method, and program Expired - Fee Related JP6384205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014175911A JP6384205B2 (en) 2014-08-29 2014-08-29 Image processing apparatus, imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014175911A JP6384205B2 (en) 2014-08-29 2014-08-29 Image processing apparatus, imaging apparatus, image processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018149570A Division JP6590047B2 (en) 2018-08-08 2018-08-08 Image processing apparatus, imaging apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2016051302A JP2016051302A (en) 2016-04-11
JP2016051302A5 true JP2016051302A5 (en) 2017-09-21
JP6384205B2 JP6384205B2 (en) 2018-09-05

Family

ID=55658763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014175911A Expired - Fee Related JP6384205B2 (en) 2014-08-29 2014-08-29 Image processing apparatus, imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6384205B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018049564A (en) 2016-09-23 2018-03-29 カシオ計算機株式会社 Detection apparatus and detection method
JP7003558B2 (en) * 2017-10-12 2022-01-20 カシオ計算機株式会社 Image processing equipment, image processing methods, and programs
CN109949213B (en) * 2019-03-15 2023-06-16 百度在线网络技术(北京)有限公司 Method and apparatus for generating image
CN111210440B (en) * 2019-12-31 2023-12-22 联想(北京)有限公司 Skin object identification method and device and electronic equipment
JPWO2023139961A1 (en) * 2022-01-21 2023-07-27

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7860342B2 (en) * 2005-07-01 2010-12-28 The Invention Science Fund I, Llc Modifying restricted images
JP2008033654A (en) * 2006-07-28 2008-02-14 Noritsu Koki Co Ltd Photo image discrimination method, photo image discrimination program, and photo image processing apparatus
JP4783830B2 (en) * 2007-01-11 2011-09-28 富士通株式会社 Image correction program, image correction method, and image correction apparatus

Similar Documents

Publication Publication Date Title
JP7027537B2 (en) Image processing methods and equipment, electronic devices, and computer-readable storage media
JP6351238B2 (en) Image processing apparatus, imaging apparatus, and distance correction method
CN106664364B (en) Image processing apparatus and control method thereof, and imaging apparatus
EP2894851B1 (en) Image processing device, image processing method, program, and computer-readable storage medium
JP6779699B2 (en) Image processing equipment, information processing methods and programs
US9508153B2 (en) Distance measurement apparatus, imaging apparatus, distance measurement method, and program
US9898819B2 (en) System and method for detecting region of interest
JP2016051302A5 (en)
JP2016523574A5 (en)
RU2016138608A (en) NEURAL NETWORK FOR SEGMENTING THE EYE IMAGE AND ASSESSING THE QUALITY OF THE IMAGE
JP2013101633A5 (en) Program and makeup simulation device
JP2015096812A5 (en)
JP2017045283A5 (en)
CN107730456B (en) Image processing method and image processing device
JP2015219603A5 (en)
RU2015138724A (en) COORDINATE ATTACHMENT OF MEDICAL IMAGES
JP2017129567A5 (en)
WO2019102966A1 (en) Pulse wave detection device, pulse wave detection method, and storage medium
JP2019114821A (en) Monitoring system, device, method, and program
JP6981277B2 (en) Detection device and detection program
US10896343B2 (en) Information processing apparatus and information processing method
JP2017514559A5 (en) Method for estimating pseudo CT house field unit value, magnetic resonance system and computer program
JP2018049564A5 (en)
CN107480615B (en) Beauty treatment method and device and mobile equipment
JP2018041380A (en) Image processing apparatus, image processing method, and program