[go: up one dir, main page]

WO2017051116A1 - Method for automatically distinguishing between a skin from a human being and an inanimate decoy of human skin - Google Patents

Method for automatically distinguishing between a skin from a human being and an inanimate decoy of human skin Download PDF

Info

Publication number
WO2017051116A1
WO2017051116A1 PCT/FR2016/052389 FR2016052389W WO2017051116A1 WO 2017051116 A1 WO2017051116 A1 WO 2017051116A1 FR 2016052389 W FR2016052389 W FR 2016052389W WO 2017051116 A1 WO2017051116 A1 WO 2017051116A1
Authority
WO
WIPO (PCT)
Prior art keywords
skin
human
layer
proportion
hemoglobin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/FR2016/052389
Other languages
French (fr)
Inventor
Mohsen Ardabilian
Abdelmalek ZINE
Wei Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centre National de la Recherche Scientifique CNRS
Ecole Centrale de Lyon
Institut National des Sciences Appliquees de Lyon
Universite Jean Monnet
Universite Lumiere Lyon 2
Universite Claude Bernard Lyon 1
Original Assignee
Centre National de la Recherche Scientifique CNRS
Ecole Centrale de Lyon
Institut National des Sciences Appliquees de Lyon
Universite Jean Monnet
Universite Lumiere Lyon 2
Universite Claude Bernard Lyon 1
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National de la Recherche Scientifique CNRS, Ecole Centrale de Lyon, Institut National des Sciences Appliquees de Lyon, Universite Jean Monnet, Universite Lumiere Lyon 2, Universite Claude Bernard Lyon 1 filed Critical Centre National de la Recherche Scientifique CNRS
Publication of WO2017051116A1 publication Critical patent/WO2017051116A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/443Evaluating skin constituents, e.g. elastin, melanin, water
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the invention relates to a method for automatically distinguishing a skin of a human from an inanimate lure of human skin.
  • the invention also relates to an information recording medium and an electronic calculator for implementing this method.
  • facial recognition systems or fingerprint can identify a human individual from a digital image of the face or fingerprint of this individual. This digital image can in particular be obtained from a photograph.
  • Such systems play an important role in public safety and are a non-intrusive means of biometric identification.
  • a disadvantage of these methods is that it is possible for an individual to impersonate another individual ("spoofing" in English) by presenting to the system a lure specifically designed for this purpose such as a digital image, a sequence of images, a face mask, etc.
  • a lure specifically designed for this purpose such as a digital image, a sequence of images, a face mask, etc.
  • the wearing of a latex mask with the image of a particular person, made to measure by means of a three-dimensional printing process allows an individual wearing this mask to be falsely recognized as being this nobody.
  • the patent application US2004 / 0240712 describes a biometric identification system capable of automatically identifying whether an object whose digital image is acquired, is formed of skin of a human being or if it is a question of 'an inanimate lure of human skin.
  • the terms “skin of a human being” and “human skin” are considered as synonyms. It is a living matter. Unless stated otherwise, the term “artificial skin” refers to an inanimate lure of human skin. For example, such a lure is only formed of inert and non-living matter. This lure is not a tissue of human skin. It may be a piece of latex or silicone whose texture and / or external color are specifically chosen to mimic the appearance of human skin. Subsequently, the terms "human skin inanimate lure” and “artificial skin” are considered synonymous.
  • the system of the US2004 / 0240712 patent application is based on measurements of the characteristics of the light waves reflected by the object to be identified at different wavelengths and at different locations. For a given wavelength, these measurements form an "image" of the object. Typically, the measured characteristic is the intensity of the reflected light waves.
  • the distinction between human skin and artificial skin is made from the eigenvalues of a matrix composed of different images of the object measured at different lengths wave. This process works properly. However, it is desirable to further improve the reliability of this method of distinguishing between human skin and artificial skin.
  • the invention therefore relates to a method for automatically distinguishing a skin of a human from an inanimate lure of human skin according to claim 1.
  • the inventors have discovered that by estimating at least one parameter that corresponds to a real physiological characteristic of the skin of a human being and using it to classify an object is in the category of human skin or in the category artificial skins, the process made it possible to distinguish human skin from artificial skin with an increased success rate.
  • volume fractions f me and f hg can obtain very good results. Indeed, it was found that the volume fractions f me and f hg are very good discriminant to distinguish human skin an artificial skin.
  • the invention relates to an information recording medium comprising instructions for carrying out the above method, when these instructions are executed by an electronic computer.
  • the invention in another aspect, relates to an electronic calculator for automatically distinguishing a human skin from an inanimate lure of human skin, the calculator being in accordance with claim 10.
  • FIG. 1 is a schematic illustration of a device for automatically distinguishing a human skin from an artificial skin
  • FIG. 2 is a schematic illustration of a computing unit of the device of FIG. 1;
  • FIG. 3 is a schematic illustration of a cross section of a piece of human skin
  • FIG. 4 illustrates the evolution of the value of light absorption coefficients for different constituents of the skin of FIG. 3, as a function of the wavelength of incident light radiation;
  • FIG. 5 is a flowchart of a method for automatically distinguishing human skin from artificial skin
  • FIG. 6 illustrates the evolution of the value of optical reflectance coefficients, as a function of the wavelength of incident light radiation, for different objects measured with the aid of the device of FIG. 1;
  • FIG. 7 illustrates the result of a classification of a plurality of objects by means of the method of FIG. 5;
  • FIG. 8 is a flow diagram of another embodiment of the method of FIG. 5;
  • FIG. 9 is a flow chart of a method for automatically classifying a skin of a human being according to the age of this human being.
  • FIG. 1 represents an example of a device 2 for automatically distinguishing whether an object 4 is a human skin or an artificial skin.
  • the device 2 is configured to acquire optical reflectance values of the object 4 for at least five different wavelengths between 390 nm and 780 nm. These wavelengths correspond here to the field of visible light. This makes particularly simple the realization of the light source which will illuminate the object 4 during the reflectance measurements.
  • the device 2 is said to measure a value of the reflectance of the object 4 to a length given wave then that in reality it measures this reflectance over a narrow range of wavelengths containing this given wavelength.
  • the device 2 comprises for this purpose:
  • a source 6 of visible light for illuminating at least one outer face of the object 4;
  • an imaging sensor 8 for measuring the optical reflectance of said face of the object 4 when it is illuminated by the source 6;
  • the source 6 is able to emit light radiation at several different wavelengths in the range I.
  • the source 6 is capable of emitting light radiation for one or more specific values of these lengths. wave.
  • the sensor 8 measures the reflectance for a given area of the object 4.
  • the sensor 8 measures the reflectance of the entire surface of the object 4 which has been illuminated by the source 6.
  • the sensor 8 generally comprises several transducers arranged in rows and / or columns to form a matrix of transducers. Each transducer transforms the energy of the light radiation received on its sensitive surface at a given wavelength into an electrical quantity representative of this energy.
  • This sensor 8 thus generates an image of the object in which each pixel corresponds to the sensitive surface of one of these transducers. In this image, each pixel is associated with several values of the reflectance obtained for different wavelengths radiated by the source 6.
  • Such a sensor 8 is known under the term “hyper-spectral camera” and the image measured by this sensor is often called “hyper-spectral image”.
  • the sensor 8 is a CCD type image sensor ("charge-coupled device” in English) or CMOS.
  • An example embodiment of such a hyper-spectral camera is described in the following article: "Practical Spectral Photography", Ralf Habel and Michael Kudenov and Michael Wimmer, Eurographics 2012, Vol 31, Cagliari, Italy Sensor 8 is here connected to the unit 10 by a data transport link.
  • FIG. 2 represents an exemplary unit 10.
  • the unit 10 comprises here:
  • the support 20 comprises the instructions for executing the method of FIG. 5, 8 or 9.
  • the calculator 22 reads and executes the instructions recorded on the support 20.
  • the interface 24 makes it possible to acquire data, for example from the sensor 8.
  • the interface 24 also makes it possible to transmit data, for example, to a human-machine interface or an electronic access control device for indicate whether the object 4 is human or artificial skin.
  • the unit 10 is able to selectively control the start and stop of the source 6.
  • the unit 10 is a microcomputer.
  • the support 20 comprises a non-volatile memory of Flash or EEPROM type or a magnetic recording medium.
  • the computer 22 is here a programmable microprocessor of the 8086 family of the INTEL® company.
  • FIG. 3 shows in greater detail a cross-section of a sample of human skin as modeled using the BRDF model.
  • the human skin is modeled as comprising:
  • a layer of dermis 34 placed under the layer 32 is divided into two layers which are: the upper papillary layer ("Upper Papillary Dermis” in English) and the lower papillary layer (“Lower Papillary Dermis” in English). ).
  • the optical reflectance of the skin is a function of the absorption and diffusion coefficients ("scattering" in English) of the layers 32 and 34.
  • L (x, ⁇ ) is the irradiance at position x in the direction ⁇ , ⁇ being a vector
  • Q (x, ⁇ ) is the emission term corresponding to the source of the radiation
  • the layers 32 and 34 are directly superimposed one above the other.
  • the layer 32 has a thickness of epi typically between 0.05 mm and 0.30 mm.
  • the layer 34 has a derm thickness typically between 0.5 mm and 3.5 mm. The thicknesses are here measured in a direction Z perpendicular to the face 33.
  • the pigments of the skin are distributed in layers 32 and 34. These pigments are mainly melanin and hemoglobin. At least 80%, and preferably at least 90% or 95%, by volume of the melanin is contained in the layer 32. At least 80%, and preferably at least 90% or 95%, by volume of the hemoglobin is contained in layer 34.
  • melanin can be in two different forms: pheomelanin or eumelanin.
  • o pm has the optical absorption coefficient of pheomelanin and o em is the optical absorption coefficient of eumelanin.
  • these coefficients o a pm and ⁇ are given by the following relationships:
  • hemoglobin is either in an oxygenated state or in a deoxygenated state. In the oxygenated state, hemoglobin is called “oxygenated hemoglobin”. In the deoxygenated state, hemoglobin is called “deoxygenated hemoglobin”.
  • oxygenated hemoglobin In the oxygenated state, hemoglobin is called “oxygenated hemoglobin”.
  • deoxygenated hemoglobin In the deoxygenated state, hemoglobin is called “deoxygenated hemoglobin”.
  • the respective absorption coefficients of oxygenated hemoglobin and oxygen deoxygen are noted o to oh and o to dh . For example, the values of these coefficients o a oh and o a dh are obtained experimentally.
  • f me is the volume fraction between the volume of melanin contained in the layer 32 and the volume of this layer 32
  • bme is the proportion of melanin present in the form of eumelanin, this proportion being between zero and one,
  • - f hg is the volume fraction between the volume of hemoglobin contained in the layer 34 and the volume of this layer 34
  • - oh r is the proportion of hemoglobin in the form of oxygenated hemoglobin, this proportion being between zero and one
  • - o a d is the coefficient of absorption of the depigmented skin, that is to say in the absence of melanin and hemoglobin.
  • This absorption coefficient o a d represents the contribution of skin absorption that is not caused by pigments.
  • This absorption is for example caused by cellular structures of the skin, such as membranes or organelles.
  • the volume fraction of a pigment present in one of the layers 32 or 34 is defined as being the ratio between the volume occupied by this pigment and the total volume of the constituents of this layer.
  • the fractions f me and f hg belong here to the interval [0; 1].
  • the ratio r 0 is between 0.6 and 0.8.
  • the ratio r 0 is taken equal to 0.75.
  • the ratio b is me in the interval [0; 1].
  • FIG. 4 represents (in ordinate) the values of the absorption coefficients o to pm , o to em , o to oh , o to dh and o to d of the skin for the different values of wavelength ( in asbcisse) of the visible domain. More precisely, the curves 40, 42, 44, 46 and 48 respectively correspond to the absorption coefficients o to m , o to em , o to oh , o to dh and o to d . These absorption coefficients are expressed in mm 1 . Some of these values have, for example, been obtained from the information available on the following website: http://omlc.org/spectra/.
  • the diffusion coefficients of the layers 32 and 34 are obtained by calculating, for each layer, the sum of the Rayleigh and Mie scattering coefficients.
  • the coefficient o s derm of the layer 34 is here estimated to be 1.5 times higher than the coefficient o s ei .
  • the absorption coefficients ei o a, o a derm, o o s s derm and ei are connected to the total reflectance R of the skin.
  • the absorption and diffusion coefficients of this layer make it possible to calculate the reflectance and the transmittance of this layer by means of the following relations:
  • K y'4 ⁇ 3 ⁇ 4 + 8 ⁇ " ⁇ ⁇ - and
  • the total reflectance R of the sample is expressed as follows, in particular to take account of the reflections that can occur between layers 32 and 34:
  • R Ri + Ti XR 2 X Ti + Ti XR 2 X Ri XR 2 X Ti ...
  • R Ri + (Ti x R 2 x Ti) / (1-Ri x R 2 ).
  • a step 98 the object 4 is presented in front of the source 6 and the sensor 8 measures the intensity of the radiation reflected by the object 4 for several tens of different wavelengths in the range I.
  • the surface of the object 4 is illuminated uniformly with the source 6 for a given wavelength value and with a given energy flow. Then, the energy flux reflected and reemitted from the object 4 is measured using the sensor 8. This operation is then repeated for a large number of different wavelengths.
  • the unit 10 acquires the measurements of the sensor 8 and calculates for each pixel the corresponding values of the reflectance.
  • the unit 10 thus obtains a hyper-spectral image of the object 4.
  • these reflectance values are calculated for more than ten or twenty different wavelengths all contained within the interval I to obtain a practically continuous curve of reflectance.
  • FIG. 6 represents the evolution, as a function of the wavelength, of a plurality of reflectance curves measured for several different objects 4.
  • the curves bearing the references P and N correspond, respectively, to human skin, to an artificial silicone skin and to a paper decoy.
  • values of the fractions f me and f hg , of the proportion b me and the thicknesses of epi and d derm which correspond to the measurements acquired. during step 100 are automatically estimated for each of the pixels of the hyper-spectral image.
  • the unit 10 uses the acquired reflectance curve and the mathematical model previously described. For example, the unit 10 estimates the values of the fractions f me and f hg , of the proportion b me and the thicknesses of epi and d derm which minimize the quantity ⁇ :
  • Rmeasured (A) denotes the reflectance obtained from the measurements acquired during step 100 for a value of wavelength ⁇
  • modeied (A) designates the reflectance calculated by the computer 22 for this wavelength ⁇ using the mathematical model previously described,
  • the operator ⁇ denotes the summation over all the selected wavelengths, here those of the interval I, and
  • the model is parameterized by the fractions f me and f hg and, advantageously, by the parameter b me , the thickness of epi and the thickness d derm .
  • the calculator 22 For each of the wavelengths of the interval I, the calculator 22 then calculates the value R m0 deied, using the parameters b me , epi , d derm , f me and f hg .
  • the operation is repeated with other values of the parameters b me , d ei , d derm , f me and f hg until finding the values of the parameters which minimize the quantity ⁇ .
  • the values of f me and f hg which minimize this quantity ⁇ are then retained and said to be the estimated values of the fractions f me and f hg .
  • the object 4 is automatically classified, according to the estimated values of the fractions f me and f hg for each of the pixels of the hyper-spectral image during step 102, in one of the following categories:
  • this classification is performed by means of a classifier ("classifier" in English), implemented by the computer 22.
  • the classifier is a support vector machine using the core function known as the name of "radial basis function kernel” in the English language.
  • This classifier is previously trained from a set of training data. These learning data comprise pairs of values (f me , fhg) each associated with an object 4 which is known beforehand to which category it belongs.
  • this classifier is well known, it is not described here in more detail.
  • the estimated pair of values (f me , f hg ) for each pixel of the hyper-spectral image is automatically ranked in one or the other of these categories.
  • the object 4 is classified in the category of human skin. If the number of pixels of the hyper-spectral image classified in the human skin category is less than a threshold S a , then the object 4 is classified in the category of artificial skins.
  • the thresholds S p and S a are equal so that any object 4 is either classified in the category of human skin or classified in the category of artificial skin.
  • the threshold S p is here equal to 0.5NP or 0.7NP or 0.8NP, where NP is the number of pixels in the hyper-spectral image.
  • the classification result is then advantageously provided by the device 2 to a user of the method via a human-machine interface or to an electronic access control device.
  • the inventors have determined that by using the histological characteristics fme and f hg , objects 4 could be classified with a better success rate.
  • the method was tested on a set of reflectance values measured for 170 objects and provided in the article by MJ Vrhel et al, "Measurement and analysis of spectra reflectance object", Color Research & Application, vol . 19, p. 4-9, 1994.
  • 170 objects 30 relate to human skin.
  • the rest concerns artificial skins made from silicone or other plastic material, textiles or plants.
  • the steps 102 and 104 of the method were applied successively for each of these objects.
  • the inventors determined that the process had made it possible to classify these objects in the two aforementioned categories with a success rate of 96.4%. This level is higher than that obtained from other known methods.
  • FIG. 7 represents the pairs of values (f me , f hg ) of these objects.
  • Each of the objects, and therefore pairs of values (f me , f hg ), is uniquely associated with a point, whose abscissa has the value f me and for ordinate the value f hg of this pair.
  • the points associated with the objects that are skin are represented by a circle 110.
  • the points associated with objects that are not skin are represented by a cross 112.
  • the estimated values of the fractions f me , fg are outside the region Rff.
  • pigments such as hemoglobin and melanin are found only in the skin of a living human and not in inert materials that are not human skin.
  • the present method obtains better results than the methods which do not take into account the interactions between the light radiation and the skin which take place in the deep layers of the skin, and not only on the surface of the skin. skin.
  • the device 2 may be different.
  • the source 6 can be realized in another way.
  • several monochromatic sources can be used to successively illuminate the object 4 at the desired wavelengths.
  • Another example is to use as source 6, natural lighting as the sun.
  • the sensor 8 may be different.
  • this sensor 8 comprises a single transducer and the method described above is then implemented for a single point of the skin and not for multiple points of the skin each corresponding to a pixel as described above.
  • the ignition and, alternately, the extinction of the source 6 is controlled by the unit 10.
  • the step 98 is executed at least once then that the source 6 is off and at least once while the source 6 is on.
  • the unit 10 calculates a first hyper-spectral image from the measurements made only when the source 6 is off and a second hyper-spectral image from the measurements made only when the source 6 is lit. Then, again during this step 100, the unit 10 builds a differential hyper-spectral image corresponding to the difference between the first and second hyper-spectral images.
  • the unit 10 subtracts from the reflectance of the pixel of the second image, the reflectance of the pixel located at the same position in the first image.
  • the following steps of the method are the same as previously described except that the differential hyper-spectral image constructed in place of a simple hyper-spectral image is used. This eliminates the contribution of parasitic light sources also present in step 98 in addition to the source 6. This therefore improves the reliability of the process.
  • the wavelengths can be chosen differently.
  • the spectral domain may cover the visible range as well as the near infrared or infrared.
  • the sensor 8 is then a hyper-spectral sensor capable of acquiring hyper-spectral digital images.
  • near infrared we designate the portion of the electromagnetic spectrum whose wavelength is between 800 nm and 2.5 ⁇ .
  • the spectral domain can also cover the infrared domain.
  • the wavelengths for which measurements are acquired are then between 390 nm and 1 mm.
  • reflectance values may be sufficient for certain wavelengths selected within this range and distant from each other by wavelength ranges greater than 10 nm in width. It is also possible to retain only the discriminating wavelengths. These are obtained beforehand by analyzing the reflectance of the skin at different wavelengths. In particular, the inventors have determined that the following wavelengths are particularly discriminating and advantageously make it possible to improve the reliability of the process: 516 nm, 540 nm, 564 nm and 576 nm. These wavelengths correspond to a particular pattern present on the optical reflectance curve, mainly caused by the evolution of the coefficient o a oh .
  • the number of parameters whose values are set in advance may be more important.
  • the values of the parameters ep and dderm are fixed in advance. This simplifies the estimation of the values of the other parameters.
  • the number of parameters whose values must be estimated may be larger.
  • the value of the parameter r 0 is considered to be unknown and must be estimated in step 102.
  • a parameter V f defined as follows to classify an object either in the category of human skins or in the category of artificial skins.
  • the parameter V f is defined according to the reflectance values R of the object 4 for these wavelengths:
  • This parameter V f is then taken into account during step 104 to classify the object 4.
  • This variant was applied to the set of test previously defined, and allowed to detect artificial skin with a rate of success above 99%.
  • Step 98 may be omitted when there are already reflectance values. These values have for example been acquired prior to the implementation of the method. For example, such reflectance values can be obtained from the aforementioned article by M. J. Vrhel. In this case, the source 6 and the sensor 8 can be omitted.
  • Step 102 can be performed differently.
  • other models can be used to model the interactions between light and skin.
  • a Monte Carlo model can be used to estimate the behavior of the light radiation entering the layers 34 and 32 and thus deduce the volume fractions f me and f hg .
  • the US2014 / 0213909 patent describes an example of an alternative model that can be used in place of the models described. It is also possible to combine several of these models with each other.
  • An example of another multi-layer skin model is described in the following article: "The Recognition of Ethnic Groups Based on Histological Skin Properties", C. Malskies and E. Eibenberger and E. Angelopoulou, Vision, Modeling, and Visualization (2011).
  • the physical model can be replaced by a statistical model of deep learning ("deep learning" in English).
  • deep learning in English
  • the reflectance values acquired for the object 4 are compared with known reflectance values already associated with values of the fractions f me and f hg .
  • the method then comprises a step of automatic construction by learning a statistical model that associates the acquired measurements with the volume fractions f me and f hg from of several sets of values measured experimentally on skins of different human beings, each set of experimental values comprising:
  • step 102 is then replaced by a step 202 in which the parameters are estimated by means of this statistical method.
  • Step 104 may be different.
  • Other classifiers and / or core functions may be used.
  • linear classifiers can be used, if they are able to implement the method known as the "kernel trick".
  • the use of a classifier is omitted.
  • the region Rff (FIG. 7) is predefined experimentally in advance. Then, in step 104, the computer checks whether the coordinate point (f me , f hg ) is within the region Rff. If yes, human skin is detected. Otherwise, artificial skin is detected.
  • the unit 10 additionally takes into account the measurement of the difference between, on the one hand, the acquired reflectance values and on the other hand, a predefined set of reference values.
  • a measured reflectance curve for the object 4 and a predetermined reflectance curve which is known to correspond to a sample of human skin, is measured.
  • This predetermined reflectance can for example be obtained previously by numerical simulation.
  • the difference is for example measured in the least squares sense.
  • the difference is defined as being equal to the following quantity: ⁇ ⁇
  • Rmeasured (A) denotes the acquired reflectance for a value of wavelength ⁇
  • R ref (A) denotes the predetermined reflectance, for a value of wavelength ⁇
  • the operator ⁇ denotes the summation over all the selected wavelengths, here those of the interval I, and
  • this difference is greater than a predetermined threshold, then the object 4 is considered to be artificial skin. If not, it is determined to be human skin. Indeed, the inventors have determined that there is a difference between the theoretical optical reflectance values provided by the model and the actual values, this difference being greater for artificial skin than for human skin. In the current state of the inventors' knowledge, this difference is attributed to the fact that the numerical model used seems to overestimate the thickness of the layer 32.
  • step 104 it is one of the following parameters or a combination of the following parameters that is used to distinguish human skin from artificial skin:
  • the proportion b me and the fraction f hg are used during step 104 but not the fraction f me .
  • at least one of the parameters b me , d epi , d derm estimated in step 102 is also used in addition during step 104 to classify the object 4 between the human and artificial skin categories. .
  • the device 2 is in addition adapted to be used to classify a human skin in a age class of its owner.
  • the computer 22 is then modified accordingly.
  • the method comprises:
  • step 302 is followed by a step 304 of automatic classification of the object 4.
  • This step 304 is identical to the step 104 except that it also comprises an automatic classification operation of the object 4 in an age class according to the derm and epi thicknesses estimated among a plurality of classes of ages previously defined.
  • Each age class corresponds to the age class in which the human being to which the piece of skin belongs if the object 4 has been recognized as being human skin.
  • the following age classes are defined: 0 to 19 years, 20 to 39 years, 40 to 59 years, 60 years or more.
  • the method of Figure 9 also provides an estimate of the age of the human being.
  • the method is capable of classifying the object 4 according to other criteria, such that, when the object 4 is a skin of a human being, the sex (male or female) of this human.
  • the methods described above can be used to distinguish human skin on any part of the human body, such as on a face, finger, hand, foot or other.
  • the operation of distinguishing between human skin and artificial skin may be omitted.
  • the method of the figure estimates only the age class to which the human being belongs without investigating whether the measures treated correspond to a piece of human skin.
  • the estimation of the values of the parameters of a model of the reflectance of human skin from a differential hyper-spectral image can also be implemented in other processes. devoid of any distinction between human skin and artificial skin. More generally, the use of a differential hyper-spectral image is usable in any process where there are parasitic light sources that can disturb measurements.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Fuzzy Systems (AREA)
  • Dermatology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

This method comprises: - the estimation (102), on the basis of the reflectance of an object, of at least one parameter chosen from the group composed of: a volume fraction of melanin contained in a layer of epidermis, a volume fraction of haemoglobin contained in a layer of the dermis, a proportion of melanin present in eumelanin form, a proportion of melanin present in pheomelanin form, a proportion of haemoglobin present in the form of oxygenated haemoglobin, a proportion of haemoglobin present in the form of deoxygenated haemoglobin, a thickness of the layer of epidermis, and a thickness of the layer of the dermis; - the automatic classification (104) of this object in one or other of the following categories depending on said at least one parameter estimated: a category containing skins from a living human being and a category containing inanimate decoys of human skins.

Description

PROCÉDÉ POUR DISTINGUER AUTOMATIQUEMENT UNE PEAU D'UN ÊTRE HUMAIN D'UN LEURRE INANIMÉ DE PEAU HUMAINE  METHOD FOR AUTOMATICALLY DISTINGUISHING A SKIN OF A HUMAN BEING FROM AN INANIMATE HUMAN SKIN LURE

[001] L'invention concerne un procédé pour distinguer automatiquement une peau d'un être humain d'un leurre inanimé de peau humaine. L'invention concerne également un support d'enregistrement d'informations et un calculateur électronique pour la mise en œuvre de ce procédé. [001] The invention relates to a method for automatically distinguishing a skin of a human from an inanimate lure of human skin. The invention also relates to an information recording medium and an electronic calculator for implementing this method.

[002] De façon connue, les systèmes de reconnaissance faciale ou d'empreintes digitales permettent d'identifier un individu humain à partir d'une image numérique du visage ou de l'empreinte digitale de cet individu. Cette image numérique peut notamment être obtenue à partir d'une photographie. De tels systèmes jouent un rôle important en matière de sécurité publique et constituent un moyen d'identification biométrique non intrusif.  [002] In known manner, facial recognition systems or fingerprint can identify a human individual from a digital image of the face or fingerprint of this individual. This digital image can in particular be obtained from a photograph. Such systems play an important role in public safety and are a non-intrusive means of biometric identification.

[003] Un inconvénient de ces procédés est qu'il est possible pour un individu d'usurper l'identité d'un autre individu (« spoofing » en langue anglaise) en présentant au système un leurre spécifiquement conçu à cet effet tel qu'une image numérique, une séquence d'images, un masque de visage, ... etc. Par exemple, le port d'un masque en latex à l'effigie d'une personne particulière, réalisé sur mesure au moyen d'un procédé d'impression tridimensionnelle, permet à un individu portant ce masque d'être faussement reconnu comme étant cette personne.  [003] A disadvantage of these methods is that it is possible for an individual to impersonate another individual ("spoofing" in English) by presenting to the system a lure specifically designed for this purpose such as a digital image, a sequence of images, a face mask, etc. For example, the wearing of a latex mask with the image of a particular person, made to measure by means of a three-dimensional printing process, allows an individual wearing this mask to be falsely recognized as being this nobody.

[004] La demande de brevet US2004/0240712 décrit un système d'identification biométrique apte à identifier automatiquement si un objet dont l'image numérique est acquise, est formé de peau d'un être humain ou bien s'il s'agit d'un leurre inanimé de peau humaine.  [004] The patent application US2004 / 0240712 describes a biometric identification system capable of automatically identifying whether an object whose digital image is acquired, is formed of skin of a human being or if it is a question of 'an inanimate lure of human skin.

[005] Dans ce texte, les termes « peau d'un être humain » et « peau humaine » sont considérés comme des synonymes. Il s'agit d'une matière vivante. Sauf précision contraire, le terme « peau artificielle » désigne un leurre inanimé de peau humaine. Par exemple, un tel leurre est seulement formé de matière inerte et non- vivante. Ce leurre n'est pas un tissu de peau humaine. Il peut s'agir d'un morceau de latex ou de silicone dont la texture et/ou la coloration extérieure sont spécifiquement choisies pour imiter l'apparence de la peau humaine. Ainsi, par la suite, les termes «leurre inanimé de peau humaine » et « peau artificielle » sont considérés comme des synonymes. [005] In this text, the terms "skin of a human being" and "human skin" are considered as synonyms. It is a living matter. Unless stated otherwise, the term "artificial skin" refers to an inanimate lure of human skin. For example, such a lure is only formed of inert and non-living matter. This lure is not a tissue of human skin. It may be a piece of latex or silicone whose texture and / or external color are specifically chosen to mimic the appearance of human skin. Subsequently, the terms "human skin inanimate lure" and "artificial skin" are considered synonymous.

[006] Le système de la demande de brevet US2004/0240712 est basé sur des mesures de caractéristiques des ondes lumineuses réfléchies par l'objet à identifier à différentes longueurs d'ondes et à différents emplacements. Pour une longueur d'onde donnée, ces mesures forment une « image » de l'objet. Typiquement, la caractéristique mesurée est l'intensité des ondes lumineuses réfléchies. La distinction entre peau humaine et peau artificielle est réalisée à partir des valeurs propres d'une matrice composée des différentes images de l'objet mesurées à différentes longueurs d'onde. Ce procédé fonctionne correctement. Toutefois, il est souhaitable d'améliorer encore plus la fiabilité de ce procédé de distinction entre une peau humaine et une peau artificielle. [006] The system of the US2004 / 0240712 patent application is based on measurements of the characteristics of the light waves reflected by the object to be identified at different wavelengths and at different locations. For a given wavelength, these measurements form an "image" of the object. Typically, the measured characteristic is the intensity of the reflected light waves. The distinction between human skin and artificial skin is made from the eigenvalues of a matrix composed of different images of the object measured at different lengths wave. This process works properly. However, it is desirable to further improve the reliability of this method of distinguishing between human skin and artificial skin.

[007] De l'état de la technique est également connu de :  [007] From the state of the art is also known from:

- WO2007/084099A2, - WO2007 / 084099A2,

- Nixon K. A. et Al : « Novel spectroscopy-based technology for biométrie and liveness verfication », OPTOMECHATRONIC Micro/Nano Devices and Components III : 8-10 octobre 2007, Lausanne, Suisse, vol. 5404, n°l, 12/4/2004, pages 287-295,  - Nixon K. A. and Al: "Novel spectroscopy-based technology for biometrics and liveness verfication", OPTOMECHATRONIC Micro / Nano Devices and Components III: 8-10 October 2007, Lausanne, Switzerland, vol. 5404, No. 1, 12/4/2004, pages 287-295,

- WO2008/139631A1,  - WO2008 / 139631A1,

- ALKAWAZ MOHAMMED HAZIM et Al : « The Corrélation Between Blood Oxygénation Effects and Human Emotion Towards Facial Skin Colour of Virtual Human », 3D Research, 3D Display Research Center, Heidelberg, vol. 6, n°2, 31/03/2015, pages 1-16, - ALKAWAZ MOHAMMED HAZIM and Al: "The Correlation Between Blood Oxygenation Effects and Human Emotion Towards Facial Color Skin of Virtual Human", 3D Research, 3D Display Research Center, Heidelberg, vol. 6, No. 2, 31/03/2015, pages 1-16,

- WO2007/027579A2.  - WO2007 / 027579A2.

[008] L'invention concerne donc un procédé pour distinguer automatiquement une peau d'un être humain d'un leurre inanimé de peau humaine conforme à la revendication 1. [008] The invention therefore relates to a method for automatically distinguishing a skin of a human from an inanimate lure of human skin according to claim 1.

[009] Les inventeurs ont découvert qu'en estimant au moins un paramètre qui correspond à une caractéristique physiologique réelle de la peau d'un être humain et en l'utilisant pour classer un objet soit dans la catégorie des peaux humaines soit dans la catégorie des peaux artificielles, le procédé permettait de distinguer la peau humaine de la peau artificielle avec un taux de succès accru.  [009] The inventors have discovered that by estimating at least one parameter that corresponds to a real physiological characteristic of the skin of a human being and using it to classify an object is in the category of human skin or in the category artificial skins, the process made it possible to distinguish human skin from artificial skin with an increased success rate.

[0010] Des modes de réalisation de l'invention présentent en outre les avantages suivants :  Embodiments of the invention further have the following advantages:

- Utiliser parmi l'ensemble des paramètres qui caractérisent une peau d'un être humain, au moins les fractions volumiques fme et fhg permet d'obtenir de très bon résultat. En effet, il a été découvert que les fractions volumiques fme et fhg sont de très bons discriminant pour distinguer la peau humaine d'une peau artificielle. - Use among the set of parameters that characterize a skin of a human being, at least the volume fractions f me and f hg can obtain very good results. Indeed, it was found that the volume fractions f me and f hg are very good discriminant to distinguish human skin an artificial skin.

- Utiliser l'écart entre la réflectance de la peau en présence et en absence d'une source lumineuse pour estimer les paramètres de la peau permet d'améliorer la précision de cette estimation.  - Using the difference between the reflectance of the skin in the presence and absence of a light source to estimate the parameters of the skin can improve the accuracy of this estimate.

[0011] Selon un autre aspect, l'invention concerne un support d'enregistrement d'informations comportant des instructions pour l'exécution du procédé ci-dessus, lorsque ces instructions sont exécutées par un calculateur électronique.  According to another aspect, the invention relates to an information recording medium comprising instructions for carrying out the above method, when these instructions are executed by an electronic computer.

[0012] Selon un autre aspect, l'invention concerne un calculateur électronique pour distinguer automatiquement une peau d'un être humain d'un leurre inanimé de peau humaine, ce calculateur étant conforme à la revendication 10. In another aspect, the invention relates to an electronic calculator for automatically distinguishing a human skin from an inanimate lure of human skin, the calculator being in accordance with claim 10.

[0013] L'invention sera mieux comprise à la lecture de la description qui va suivre, donnée uniquement à titre d'exemple non limitatif et faite en se référant aux dessins sur lesquels : - la figure 1 est une illustration schématique d'un dispositif pour distinguer automatiquement une peau humaine d'une peau artificielle ; The invention will be better understood on reading the description which follows, given solely by way of nonlimiting example and with reference to the drawings in which: - Figure 1 is a schematic illustration of a device for automatically distinguishing a human skin from an artificial skin;

- la figure 2 est une illustration schématique d'une unité de calcul du dispositif de la figure 1 ;  FIG. 2 is a schematic illustration of a computing unit of the device of FIG. 1;

- la figure 3 est une illustration schématique d'une coupe transversale d'un morceau de peau humaine ;  - Figure 3 is a schematic illustration of a cross section of a piece of human skin;

- la figure 4 illustre l'évolution de la valeur de coefficients d'absorption de la lumière pour différents constituants de la peau de la figure 3, en fonction de la longueur d'onde d'un rayonnement lumineux incident ;  FIG. 4 illustrates the evolution of the value of light absorption coefficients for different constituents of the skin of FIG. 3, as a function of the wavelength of incident light radiation;

- la figure 5 est un ordinogramme d'un procédé pour distinguer automatiquement une peau humaine d'une peau artificielle ;  FIG. 5 is a flowchart of a method for automatically distinguishing human skin from artificial skin;

- la figure 6 illustre l'évolution de la valeur de coefficients de réflectance optique, en fonction de la longueur d'onde d'un rayonnement lumineux incident, pour différents objets mesurés à l'aide du dispositif de la figure 1 ;  FIG. 6 illustrates the evolution of the value of optical reflectance coefficients, as a function of the wavelength of incident light radiation, for different objects measured with the aid of the device of FIG. 1;

- la figure 7 illustre le résultat d'un classement d'une pluralité d'objets au moyen du procédé de la figure 5 ;  FIG. 7 illustrates the result of a classification of a plurality of objects by means of the method of FIG. 5;

- la figure 8 est un ordinogramme d'un autre mode de réalisation du procédé de la figure 5 ;  FIG. 8 is a flow diagram of another embodiment of the method of FIG. 5;

- la figure 9 est un ordinogramme d'un procédé pour classer automatiquement une peau d'un être humain en fonction de l'âge de cet être humain .  FIG. 9 is a flow chart of a method for automatically classifying a skin of a human being according to the age of this human being.

[0014] Dans ces figures, les mêmes références sont utilisées pour désigner les mêmes éléments.  In these figures, the same references are used to designate the same elements.

[0015] Dans la suite de cette description, les caractéristiques et fonctions bien connues de l'homme du métier ne sont pas décrites en détails.  In the following description, the features and functions well known to those skilled in the art are not described in detail.

[0016] La figure 1 représente un exemple d'un dispositif 2 pour distinguer automatiquement si un objet 4 est une peau humaine ou bien une peau artificielle. FIG. 1 represents an example of a device 2 for automatically distinguishing whether an object 4 is a human skin or an artificial skin.

[0017] Le dispositif 2 est configuré pour acquérir des valeurs de réflectance optique de l'objet 4 pour au moins cinq longueurs d'onde différentes comprises entre 390 nm et 780 nm. Ces longueurs d'onde correspondent ici au domaine de la lumière visible. Cela rend particulièrement simple la réalisation de la source de lumière qui va éclairer l'objet 4 lors des mesures de réflectance.  The device 2 is configured to acquire optical reflectance values of the object 4 for at least five different wavelengths between 390 nm and 780 nm. These wavelengths correspond here to the field of visible light. This makes particularly simple the realization of the light source which will illuminate the object 4 during the reflectance measurements.

[0018] De préférence, ici, le dispositif 2 est capable d'acquérir ces valeurs pour plus de 50 ou 100 plages étroites de longueurs d'onde différentes comprises à l'intérieur d'un intervalle I = [390 nm ; 780 nm]. Chacune de ces plages étroites de longueurs d'onde a généralement une largeur inférieure lOnm ou 15nm. Ces plages étroites sont immédiatement juxtaposées les unes aux autres sans se chevaucher. Ainsi, le dispositif 2 permet d'acquérir une courbe de réflectance optique quasiment continue sur cet intervalle I. Par abus de langage, dans ce texte, on dit que le dispositif 2 mesure une valeur de la réflectance de l'objet 4 à une longueur d'onde donnée alors qu'en réalité il mesure cette réflectance sur une plage étroite de longueurs d'onde contenant cette longueur d'onde donnée. Preferably, here, the device 2 is capable of acquiring these values for more than 50 or 100 narrow ranges of different wavelengths within an interval I = [390 nm; 780 nm]. Each of these narrow ranges of wavelengths is generally less than 10 nm or 15 nm in width. These narrow beaches are immediately juxtaposed with each other without overlapping. Thus, the device 2 makes it possible to acquire an almost continuous optical reflectance curve over this interval I. By abuse of language, in this text, the device 2 is said to measure a value of the reflectance of the object 4 to a length given wave then that in reality it measures this reflectance over a narrow range of wavelengths containing this given wavelength.

[0019] Le dispositif 2 comporte à cet effet : The device 2 comprises for this purpose:

- une source 6 de lumière visible, pour illuminer au moins une face extérieure de l'objet 4 ;  a source 6 of visible light for illuminating at least one outer face of the object 4;

- un capteur 8 d'imagerie, pour mesurer la réflectance optique de ladite face de l'objet 4 lorsqu'il est illuminé par la source 6 ;  an imaging sensor 8 for measuring the optical reflectance of said face of the object 4 when it is illuminated by the source 6;

- une unité 10 de calcul.  a calculation unit 10.

[0020] Dans cette description, la réflectance optique R de l'objet 4 est définie comme étant le rapport R = ΦΓ/Φ, , où In this description, the optical reflectance R of the object 4 is defined as the ratio R = Φ Γ / Φ, where

- Φ, est le flux énergétique reçu par cet objet lorsqu'il est éclairé par la source 6, et - Φ, is the energy flow received by this object when it is illuminated by the source 6, and

- ΦΓ est le flux énergétique rayonné par cet objet en réponse à son éclairage par la source 6. - Φ Γ is the energy flux radiated by this object in response to its illumination by the source 6.

[0021] La source 6 est apte à émettre des rayonnements lumineux à plusieurs longueurs d'onde différentes comprises dans l'intervalle I. En particulier, la source 6 est capable d'émettre un rayonnement lumineux pour une ou plusieurs valeurs spécifiques de ces longueurs d'onde.  The source 6 is able to emit light radiation at several different wavelengths in the range I. In particular, the source 6 is capable of emitting light radiation for one or more specific values of these lengths. wave.

[0022] Le capteur 8 mesure la réflectance pour une superficie donnée de l'objet 4. Ici, le capteur 8 mesure la réflectance de toute la surface de l'objet 4 qui a été éclairée par la source 6. Le capteur 8 comporte généralement plusieurs transducteurs agencés en lignes et/ou en colonnes pour former une matrice de transducteurs. Chaque transducteur transforme l'énergie du rayonnement lumineux reçu sur sa surface sensible à une longueur d'onde donnée en une grandeur électrique représentative de cette énergie. Ce capteur 8 génère donc une image de l'objet dans laquelle chaque pixel correspond à la surface sensible d'un de ces transducteurs. Dans cette image, chaque pixel est associé à plusieurs valeurs de la réflectance obtenues pour différentes longueurs d'onde rayonnées par la source 6. Un tel capteur 8 est connu sous le terme de « caméra hyper-spectrale » et l'image mesurée par ce capteur est souvent appelée « image hyper-spectrale ». Par exemple, le capteur 8 est un capteur d'image de type CCD (« charge-coupled device » en langue anglaise) ou CMOS. Un exemple de réalisation d'une telle caméra hyper-spectrale est décrit dans l'article suivant : « Practical Spectral Photography", Ralf Habel et Michael Kudenov et Michael Wimmer, Eurographics 2012, Vol 31, Cagliari, Italy. Le capteur 8 est ici raccordé à l'unité 10 par une liaison de transport de données.  The sensor 8 measures the reflectance for a given area of the object 4. Here, the sensor 8 measures the reflectance of the entire surface of the object 4 which has been illuminated by the source 6. The sensor 8 generally comprises several transducers arranged in rows and / or columns to form a matrix of transducers. Each transducer transforms the energy of the light radiation received on its sensitive surface at a given wavelength into an electrical quantity representative of this energy. This sensor 8 thus generates an image of the object in which each pixel corresponds to the sensitive surface of one of these transducers. In this image, each pixel is associated with several values of the reflectance obtained for different wavelengths radiated by the source 6. Such a sensor 8 is known under the term "hyper-spectral camera" and the image measured by this sensor is often called "hyper-spectral image". For example, the sensor 8 is a CCD type image sensor ("charge-coupled device" in English) or CMOS. An example embodiment of such a hyper-spectral camera is described in the following article: "Practical Spectral Photography", Ralf Habel and Michael Kudenov and Michael Wimmer, Eurographics 2012, Vol 31, Cagliari, Italy Sensor 8 is here connected to the unit 10 by a data transport link.

[0023] La figure 2 représente un exemple d'unité 10. L'unité 10 comporte ici : FIG. 2 represents an exemplary unit 10. The unit 10 comprises here:

- un support 20 d'enregistrement d'informations ;  an information recording medium;

- un calculateur 22 électronique programmable ;  a programmable electronic calculator 22;

- une interface 24 d'échange de données.  an interface 24 for exchanging data.

[0024] Le support 20 comporte les instructions pour exécuter le procédé de la figure 5, 8 ou 9. Le calculateur 22 lit et exécute les instructions enregistrées sur le support 20. L'interface 24 permet d'acquérir des données par exemple en provenance du capteur 8. L'interface 24 permet également de transmettre des données, par exemple, vers une interface homme-machine ou un dispositif électronique de contrôle d'accès pour indiquer si l'objet 4 est de la peau humaine ou artificielle. Avantageusement, l'unité 10 est apte à commander sélectivement la mise en marche et l'arrêt de la source 6. The support 20 comprises the instructions for executing the method of FIG. 5, 8 or 9. The calculator 22 reads and executes the instructions recorded on the support 20. The interface 24 makes it possible to acquire data, for example from the sensor 8. The interface 24 also makes it possible to transmit data, for example, to a human-machine interface or an electronic access control device for indicate whether the object 4 is human or artificial skin. Advantageously, the unit 10 is able to selectively control the start and stop of the source 6.

[0025] Par exemple, l'unité 10 est un micro-ordinateur. Le support 20 comporte une mémoire non volatile de type Flash ou EEPROM ou bien un support d'enregistrement magnétique. Le calculateur 22 est ici un microprocesseur programmable de la famille 8086 de la société INTEL®.  For example, the unit 10 is a microcomputer. The support 20 comprises a non-volatile memory of Flash or EEPROM type or a magnetic recording medium. The computer 22 is here a programmable microprocessor of the 8086 family of the INTEL® company.

[0026] Lorsqu'une peau humaine est éclairée par un rayonnement lumineux incident, ce dernier subit plusieurs types d'interaction avec la peau. Généralement, une partie de ce rayonnement incident est réfléchie à la surface de la peau. Une autre partie du rayonnement incident pénètre à l'intérieur de la peau et y est ensuite diffusée. De là, une partie de rayonnement pénétrant est ensuite rétrodiffusée vers l'extérieur de la peau alors qu'une autre partie est absorbé. Ce rayonnement rétrodiffusé ainsi que celui réfléchi présentent des propriétés qui permettent d'obtenir une information sur des caractéristiques des couches de la peau situées sous sa face extérieure. L'absorption du rayonnement pénétrant est notamment causé par des pigments contenus dans la peau, tels l'hémoglobine et la mélanine, qui sont aptes à interagir avec la lumière. Les phénomènes de réflexion et de rétrodiffusion sont notamment causés par l'interaction du rayonnement lumineux avec des molécules ou des particules de la peau dont la taille est typiquement inférieure ou égale à la longueur d'onde du rayonnement lumineux.  When human skin is illuminated by incident light radiation, the latter undergoes several types of interaction with the skin. Generally, some of this incident radiation is reflected on the surface of the skin. Another part of the incident radiation penetrates inside the skin and is then diffused there. From there, a portion of penetrating radiation is then backscattered out of the skin while another portion is absorbed. This backscattered radiation and the reflected radiation have properties that make it possible to obtain information on characteristics of the layers of the skin situated under its outer face. The absorption of penetrating radiation is notably caused by pigments contained in the skin, such as hemoglobin and melanin, which are able to interact with light. The phenomena of reflection and backscattering are notably caused by the interaction of the light radiation with molecules or particles of the skin whose size is typically less than or equal to the wavelength of the light radiation.

[0027] Ces interactions peuvent être décrites et quantifiées par une fonction physique qui relie la réflectance de la peau à des caractéristiques histologiques de la peau. Un exemple de fonction est connu sous l'acronyme BRDF pour « Bidirectional réflectance distribution function » en langue anglaise. Un exemple plus complet de mise en œuvre d'un modèle physique permettant la réalisation de la fonction BRDF est décrit plus en détail dans l'article de Claridge E., COTTON S.D. : « Developing a Prédictive Model of Human Skin Colouring », SPIE Procedings, Vol. 2708 Médical Imaging 1996 : Physics of Médical Imaging (1996), pp 814-825. These interactions can be described and quantified by a physical function that relates the reflectance of the skin to the histological characteristics of the skin. An example of a function is known by the acronym BRDF for "Bidirectional reflectance distribution function" in English. A more complete example of implementing a physical model for performing the BRDF function is described in more detail in the article by Claridge E., COTTON SD: "Developing a Predictive Model of Human Skin Coloring", SPIE Procedures , Flight. 2708 Medical Imaging 1996: Physics of Medical Imaging (1996), pp 814-825.

[0028] La figure 3 représente plus en détail une coupe transversale d'un échantillon 30 de peau humaine tel que modélisé à l'aide du modèle BRDF. FIG. 3 shows in greater detail a cross-section of a sample of human skin as modeled using the BRDF model.

[0029] Dans cet exemple, la peau humaine est modélisée comme comportant : In this example, the human skin is modeled as comprising:

- une couche d'épiderme 32, dont une face 33 est tournée vers l'extérieur de la peau, et  a layer of epidermis 32, of which one face 33 is turned towards the outside of the skin, and

- une couche de derme 34, placée sous la couche 32. Celle-ci est divisée en deux couches qui sont : la couche papillaire supérieure (« Upper Papillary Dermis » en anglais) et la couche papillaire inférieure (« Lower Papillary Dermis » en anglais). [0030] Dans ce modèle, la réflectance optique de la peau est fonction des coefficients d'absorption et de diffusion (« scattering » en langue anglaise) des couches 32 et 34. a layer of dermis 34 placed under the layer 32. This layer is divided into two layers which are: the upper papillary layer ("Upper Papillary Dermis" in English) and the lower papillary layer ("Lower Papillary Dermis" in English). ). In this model, the optical reflectance of the skin is a function of the absorption and diffusion coefficients ("scattering" in English) of the layers 32 and 34.

[0031] Dans ce modèle, l'équation de transfert radiatif est exprimée comme suit :  In this model, the radiative transfer equation is expressed as follows:

· V)L{X , ÙJ) = — - Q (X . Ù )

Figure imgf000008_0001
· V) L {X, uj) = - - Q (X Ù).
Figure imgf000008_0001

ou : or :

- ot = oa + os est le coefficient d'extinction, oa est le coefficient d'absorption et os le coefficient de diffusion du milieu - t = o o a o + s is the extinction coefficient, where a is the absorption coefficient and a n the middle of the diffusion coefficient

- L(x, ω) est l'irradiance à la position x dans la direction ω, ω étant un vecteur, L (x, ω) is the irradiance at position x in the direction ω, ω being a vector,

- ρ(ω ω' ) est la fonction de phase décrivant la distribution angulaire de l'intensité lumineuse diffusée par des particules de matière, cette fonction étant normalisée comme suit : - ρ (ω ω ') is the phase function describing the angular distribution of the light intensity scattered by particles of matter, this function being normalized as follows:

I p{û - ω*)άω' = 1  I p {û - ω *) άω '= 1

- Q(x, ω) est le terme d'émission correspondant à la source du rayonnement, Q (x, ω) is the emission term corresponding to the source of the radiation,

- le symbole « . » désigne l'opération produit scalaire, et  - the symbol " . Is the scalar product operation, and

- le symbole « » désigne l'opération gradient. - the symbol "" designates the gradient operation.

[0032] Les couches 32 et 34 sont directement superposées l'une au-dessus de l'autre. Lorsque l'échantillon 30 est éclairé par la source 6, une partie de la lumière incidente pénètre à l'intérieur de la couche 32 et une autre partie est réfléchie par la face 33. Dans ce modèle, la couche 32 présente une épaisseur depi typiquement comprise entre 0,05 mm et 0,30mm. La couche 34 présente une épaisseur dderm typiquement comprise entre 0,5 mm et 3,5 mm. Les épaisseurs sont ici mesurées selon une direction Z perpendiculaire à la face 33. The layers 32 and 34 are directly superimposed one above the other. When the sample 30 is illuminated by source 6, a portion of the incident light enters the interior of the layer 32 and another portion is reflected by the face 33. In this model, the layer 32 has a thickness of epi typically between 0.05 mm and 0.30 mm. The layer 34 has a derm thickness typically between 0.5 mm and 3.5 mm. The thicknesses are here measured in a direction Z perpendicular to the face 33.

[0033] Les pigments de la peau sont répartis dans les couches 32 et 34. Ces pigments sont principalement la mélanine et l'hémoglobine. Au moins 80 %, et de préférence au moins 90 % ou 95 %, en volume de la mélanine est contenue dans la couche 32. Au moins 80 %, et de préférence au moins 90 % ou 95 %, en volume de l'hémoglobine est contenue dans la couche 34.  The pigments of the skin are distributed in layers 32 and 34. These pigments are mainly melanin and hemoglobin. At least 80%, and preferably at least 90% or 95%, by volume of the melanin is contained in the layer 32. At least 80%, and preferably at least 90% or 95%, by volume of the hemoglobin is contained in layer 34.

[0034] De façon connue, la mélanine peut se présenter sous deux formes différentes : la phéomélanine ou l'eumélanine. On note oa pm le coefficient d'absorption optique de la phéomélanine et oa em le coefficient d'absorption optique de l'eumélanine. Par exemple, dans ce mode de réalisation, ces coefficients oa pm et σ, sont donnés par les relations suivantes : In a known manner, melanin can be in two different forms: pheomelanin or eumelanin. Note o pm has the optical absorption coefficient of pheomelanin and o em is the optical absorption coefficient of eumelanin. For example, in this embodiment, these coefficients o a pm and σ, are given by the following relationships:

' (X) = - g . x i x λ mm [0035] L'hémoglobine se trouve soit dans un état oxygéné, soit dans un état désoxygéné. Dans l'état oxygéné, l'hémoglobine est appelée « hémoglobine oxygénée ». Dans l'état désoxygéné, l'hémoglobine est appelée « hémoglobine désoxygénée ». Les coefficients d'absorption respectifs de l'hémoglobine oxygénée et desoxygénée sont notés oa oh et oa dh. Par exemple, les valeurs de ces coefficients oa oh et oa dh sont obtenues de manière expérimentale. '(X) = - g. xix λ mm The hemoglobin is either in an oxygenated state or in a deoxygenated state. In the oxygenated state, hemoglobin is called "oxygenated hemoglobin". In the deoxygenated state, hemoglobin is called "deoxygenated hemoglobin". The respective absorption coefficients of oxygenated hemoglobin and oxygen deoxygen are noted o to oh and o to dh . For example, the values of these coefficients o a oh and o a dh are obtained experimentally.

[0036] Les coefficients d'absorption des couches 32 et 34, respectivement notés oa e i et oa derm, sont donnés par les formules suivantes :

Figure imgf000009_0001
+ (1 - i "*) + (1 - fme)a σ demi The absorption coefficients of layers 32 and 34, respectively denoted o a ei and o a derm , are given by the following formulas:
Figure imgf000009_0001
+ (1 - i "*) + (1 - f me ) a σ half

fhg roh(rf + (1 - roh}a l) + (l - Sbg)< p où : fhg r oh (rf + (1-r oh ) to l ) + (l - Sbg) < p where:

- fme est la fraction volumique entre le volume de mélanine contenue dans la couche 32 et le volume de cette couche 32, f me is the volume fraction between the volume of melanin contained in the layer 32 and the volume of this layer 32,

- bme est la proportion de mélanine présente sous la forme d'eumélanine, cette proportion étant comprise entre zéro et un,  bme is the proportion of melanin present in the form of eumelanin, this proportion being between zero and one,

- (l-bme) est la proportion de mélanine présente sous la forme de phéomélanine,- (lb me ) is the proportion of melanin present in the form of pheomelanin,

- fhg est la fraction volumique entre le volume d'hémoglobine contenue dans la couche 34 et le volume de cette couche 34, - f hg is the volume fraction between the volume of hemoglobin contained in the layer 34 and the volume of this layer 34,

- roh est la proportion d'hémoglobine présente sous la forme d'hémoglobine oxygénée, cette proportion étant comprise entre zéro et un, - oh r is the proportion of hemoglobin in the form of oxygenated hemoglobin, this proportion being between zero and one,

- (1 - r0 ) est la proportion d'hémoglobine présente sous la forme d'hémoglobine désoxygénée, - (1 - r 0 ) is the proportion of hemoglobin present in the form of deoxygenated hemoglobin,

- oa d est le coefficient d'absorption de la peau dépigmentée, c'est-à-dire en l'absence de mélanine et d'hémoglobine. Ce coefficient d'absorption oa d représente la contribution de l'absorption de la peau qui n'est pas causée par des pigments. Cette absorption est par exemple causée par des structures cellulaires de la peau, comme des membranes ou des organelles. Ce coefficient est par exemple déterminé au moyen de la formule suivante : oa d = 0,0244 + 8,53 x θ "(λ _ 154)/66'2 (exprimé en mm 1) - o a d is the coefficient of absorption of the depigmented skin, that is to say in the absence of melanin and hemoglobin. This absorption coefficient o a d represents the contribution of skin absorption that is not caused by pigments. This absorption is for example caused by cellular structures of the skin, such as membranes or organelles. This coefficient is, for example, determined by means of the following formula: ## EQU1 ## ( d = 0.0244 + 8.53 x θ "(λ-154) / 66 ' 2 (expressed in mm 1 )

[0038] Dans cette description, la fraction volumique d'un pigment présent dans une des couches 32 ou 34 est définie comme étant le rapport entre le volume occupé par ce pigment et le volume total des constituants de cette couche. Les fractions fme et fhg appartiennent ici à l'intervalle [0 ;1]. In this description, the volume fraction of a pigment present in one of the layers 32 or 34 is defined as being the ratio between the volume occupied by this pigment and the total volume of the constituents of this layer. The fractions f me and f hg belong here to the interval [0; 1].

[0039] Typiquement, le rapport r0 est compris entre 0,6 et 0,8. Ici, le rapport r0 est pris égal à 0,75. Le rapport bme est compris dans l'intervalle [0 ; 1]. [0040] La figure 4 représente (en ordonnée) les valeurs des coefficients d'absorption oa pm , oa em, oa oh, oa dh et oa d de la peau pour les différentes valeurs de longueur d'onde (en asbcisse) du domaine visible. Plus précisément, les courbes 40, 42, 44, 46 et 48 correspondent respectivement aux coefficients d'absorption oa m , oa em, oa oh, oa dh et oa d . Ces coefficients d'absorption sont exprimés en mm 1. Certaines de ces valeurs ont par exemple été obtenue à partir des informations disponibles sur le site Internet suivant : http://omlc.org/spectra/. Typically, the ratio r 0 is between 0.6 and 0.8. Here, the ratio r 0 is taken equal to 0.75. The ratio b is me in the interval [0; 1]. FIG. 4 represents (in ordinate) the values of the absorption coefficients o to pm , o to em , o to oh , o to dh and o to d of the skin for the different values of wavelength ( in asbcisse) of the visible domain. More precisely, the curves 40, 42, 44, 46 and 48 respectively correspond to the absorption coefficients o to m , o to em , o to oh , o to dh and o to d . These absorption coefficients are expressed in mm 1 . Some of these values have, for example, been obtained from the information available on the following website: http://omlc.org/spectra/.

[0041] Les coefficients de diffusion des couches 32 et 34, notés respectivement os e i et os derm, sont obtenus en calculant, pour chaque couche, la somme des coefficients de diffusion de Rayleigh et de Mie. The diffusion coefficients of the layers 32 and 34, respectively denoted o s ei and o s derm , are obtained by calculating, for each layer, the sum of the Rayleigh and Mie scattering coefficients.

[0042] Par exemple, le coefficient de Rayleigh de la couche 32 est calculé au moyen de la fonction suivante : as Rayleigh = 2χ10ηχλ~4 mm 1, où « λ » désigne la longueur d'onde du rayonnement lumineux, exprimée en nanomètres et « x » désigne l'opérateur de multiplication entre deux nombres réels. For example, the Rayleigh coefficient of the layer 32 is calculated by means of the following function: s Rayleigh = 2χ10 η χλ ~ 4 mm 1 , where "λ" denotes the wavelength of the light radiation, expressed in nanometers and "x" denotes the operator of multiplication between two real numbers.

[0043] Par exemple, le coefficient de Mie de la couche 32 est calculé au moyen de la fonction suivante : os Mie = 2xl04xA l'5 mm _1. [0043] For example, the coefficient of Mie layer 32 is calculated by the following function: s o Mie 2xl0 = 4 xA the 5 mm _1.

[0044] Le coefficient os derm de la couche 34 est ici estimés être 1,5 fois plus élevé que le coefficient os e i. The coefficient o s derm of the layer 34 is here estimated to be 1.5 times higher than the coefficient o s ei .

[0045] Les coefficients d'absorption oa e i, oa derm, os derm et os e i sont reliés à la réflectance totale R de la peau. Par exemple, pour chaque couche 32, 34, les coefficients d'absorption et de diffusion de cette couche permettent de calculer la réflectance et la transmittance de cette couche à l'aide des relations suivantes : [0045] The absorption coefficients ei o a, o a derm, o o s s derm and ei are connected to the total reflectance R of the skin. For example, for each layer 32, 34, the absorption and diffusion coefficients of this layer make it possible to calculate the reflectance and the transmittance of this layer by means of the following relations:

Figure imgf000010_0001
Figure imgf000010_0001

où « d » est l'épaisseur de cette couche, et les coefficients « K » et « β » sont donnés par les formules suivantes : where "d" is the thickness of this layer, and the coefficients "K" and "β" are given by the following formulas:

K = y'4<¾ + 8σ„σΛ- et K = y'4 <¾ + 8σ "σ Λ - and

H y 2 .,+4erI dans lesquelles oa et os sont respectivement les coefficients d'absorption et de diffusion de cette couche. H y 2., + 4er I in which o a and o s are respectively the absorption and diffusion coefficients of this layer.

[0046] A partir de la réflectance et la transmittance de chaque couche, il est possible de calculer la réflectance totale de l'échantillon de peau. Par exemple, la réflectance totale R de l'échantillon est exprimée comme suit, notamment pour tenir compte des réflexions qui peuvent survenir entre les couches 32 et 34 :  From the reflectance and the transmittance of each layer, it is possible to calculate the total reflectance of the skin sample. For example, the total reflectance R of the sample is expressed as follows, in particular to take account of the reflections that can occur between layers 32 and 34:

R = Ri + Ti X R2 X Ti + Ti X R2X Ri X R2 X Ti ... où R, et Ti représentent la réflectance et la transmitivité de la i-ième couche, i étant un indice entier égal à 1 ou 2, l'indice i = 1 désignant la couche 32 et l'indice i=2 désignant la couche 34 R = Ri + Ti XR 2 X Ti + Ti XR 2 X Ri XR 2 X Ti ... where R, and Ti represent the reflectance and transmitivity of the ith layer, i being an integer index equal to 1 or 2, the index i = 1 denoting the layer 32 and the index i = 2 denoting the layer 34

[0047] En supposant que Ri et R2 soient chacun strictement inférieurs à 1, il peut être montré que cette série converge vers une valeur limite finie, ce qui donne l'expression suivante de la réflectance R : Assuming that Ri and R 2 are each strictly less than 1, it can be shown that this series converges to a finite limit value, which gives the following expression of the reflectance R:

R = Ri + (Ti x R2 x Ti)/(1 - Ri x R2). R = Ri + (Ti x R 2 x Ti) / (1-Ri x R 2 ).

[0048] Ainsi, connaissant les fractions volumiques fme et fhm, les proportions bme, r0 et les épaisseurs depi et dderm d'un morceau de peau et à l'aide du modèle mathématique ci-dessus, il est possible d'estimer la réflectance totale de ce morceau de peau. A l'inverse, connaissant la réflectance totale R pour au moins cinq longueurs d'onde différentes et à l'aide de ce modèle mathématique, il est possible d'estimer les valeurs des fractions volumiques fme et fhm, de la proportion bme et des épaisseurs depi et dderm du morceau de peau correspondant lorsque la proportion r0 est fixée par avance à 0,75. Thus, knowing the volume fractions f me and f hm , the proportions b me , r 0 and the thicknesses of epi and d derm of a piece of skin and using the mathematical model above, it is possible to estimate the total reflectance of this piece of skin. On the other hand, knowing the total reflectance R for at least five different wavelengths and using this mathematical model, it is possible to estimate the values of the volume fractions f me and f hm , of the proportion b me and thicknesses epi derm and the corresponding piece of skin when the ratio r 0 is set in advance to 0.75.

[0049] Un exemple de mise en œuvre d'une méthode pour distinguer automatiquement si un objet est un échantillon de peau humaine ou de peau artificielle va maintenant être décrit, en référence à l'ordinogramme de la figure 5 et à l'aide des figures 1 à 4.  An example of implementation of a method for automatically distinguishing whether an object is a sample of human skin or artificial skin will now be described, with reference to the flow chart of FIG. 5 and with the help of Figures 1 to 4.

[0050] Lors d'une étape 98, l'objet 4 est présenté devant la source 6 et le capteur 8 mesure l'intensité du rayonnement réfléchi par l'objet 4 pour plusieurs dizaines de longueurs d'onde différentes comprises dans l'intervalle I. Par exemple, on éclaire la surface de l'objet 4 uniformément avec la source 6 pour une valeur de longueur d'onde donnée et avec un flux énergétique donné. Puis, on mesure le flux énergétique réfléchi et réémis en provenance de l'objet 4 à l'aide du capteur 8. Cette opération est ensuite réitérée pour un grand nombre de longueurs d'onde différentes. In a step 98, the object 4 is presented in front of the source 6 and the sensor 8 measures the intensity of the radiation reflected by the object 4 for several tens of different wavelengths in the range I. For example, the surface of the object 4 is illuminated uniformly with the source 6 for a given wavelength value and with a given energy flow. Then, the energy flux reflected and reemitted from the object 4 is measured using the sensor 8. This operation is then repeated for a large number of different wavelengths.

[0051] Lors d'une étape 100, l'unité 10 acquière les mesures du capteur 8 et calcule pour chaque pixel les valeurs correspondantes de la réflectance. L'unité 10 obtient ainsi une image hyper-spectrale de l'objet 4. Ici, ces valeurs de réflectance sont calculées pour plus de dix ou vingt longueurs d'onde différentes toutes contenues à l'intérieur de l'intervalle I pour obtenir une courbe pratiquement continue de réflectance. In a step 100, the unit 10 acquires the measurements of the sensor 8 and calculates for each pixel the corresponding values of the reflectance. The unit 10 thus obtains a hyper-spectral image of the object 4. Here, these reflectance values are calculated for more than ten or twenty different wavelengths all contained within the interval I to obtain a practically continuous curve of reflectance.

[0052] La figure 6 représente l'évolution, en fonction de la longueur d'onde, d'une pluralité de courbes de réflectance mesurées pour plusieurs objets 4 différents. Par exemple, sur la figure 6, les courbes portant les références P et N correspondent, respectivement, à une peau humaine, à une peau artificielle en silicone et à un leurre en papier.  FIG. 6 represents the evolution, as a function of the wavelength, of a plurality of reflectance curves measured for several different objects 4. For example, in FIG. 6, the curves bearing the references P and N correspond, respectively, to human skin, to an artificial silicone skin and to a paper decoy.

[0053] Ensuite, lors d'une étape 102, des valeurs des fractions fme et fhg, de la proportion bme et des épaisseurs depi et dderm qui correspondent aux mesures acquises lors de l'étape 100 sont estimées automatiquement pour chacun des pixels de l'image hyper-spectrale. Pour cela, l'unité 10 utilise la courbe de réflectance acquise et le modèle mathématique précédemment décrit. Par exemple, l'unité 10 estime les valeurs des fractions fme et fhg, de la proportion bme et des épaisseurs depi et dderm qui minimisent la quantité ε suivante :

Figure imgf000012_0001
Then, during a step 102, values of the fractions f me and f hg , of the proportion b me and the thicknesses of epi and d derm which correspond to the measurements acquired. during step 100 are automatically estimated for each of the pixels of the hyper-spectral image. For this, the unit 10 uses the acquired reflectance curve and the mathematical model previously described. For example, the unit 10 estimates the values of the fractions f me and f hg , of the proportion b me and the thicknesses of epi and d derm which minimize the quantity ε:
Figure imgf000012_0001

λ  λ

ou : or :

- Rmeasured(A) désigne la réflectance obtenue à partir des mesures acquises lors de l'étape 100 pour une valeur de longueur d'onde λ, Rmeasured (A) denotes the reflectance obtained from the measurements acquired during step 100 for a value of wavelength λ,

- modeied(A) désigne la réflectance calculée par le calculateur 22 pour cette longueur d'onde λ à l'aide du modèle mathématique précédemment décrit,  modeied (A) designates the reflectance calculated by the computer 22 for this wavelength λ using the mathematical model previously described,

- l'opérateur∑λ désigne la sommation sur toutes les longueurs d'onde sélectionnées, ici celles de l'intervalle I, et the operator λ denotes the summation over all the selected wavelengths, here those of the interval I, and

- l'opérateur | ... | désigne la valeur absolue.  - the operator | ... | denotes the absolute value.

[0054] Cette minimisation est ici réalisée au moyen de méthodes d'optimisation mathématique classiques. Dans cet exemple, le modèle est paramétré par les fractions fme et fhg et, avantageusement, par le paramètre bme, l'épaisseur depi et l'épaisseur dderm. Par exemple, des valeurs initiales prédéterminées des paramètres bme, depi, dderm, fme et fhg sont choisies. Pour chacune des longueurs d'onde de l'intervalle I, le calculateur 22 calcule ensuite la valeur R m0deied, au moyen des paramètres bme, depi, dderm, fme et fhg. Ensuite, l'opération est répétée avec d'autres valeurs des paramètres bme, de i, dderm, fme et fhg jusqu'à trouver les valeurs des paramètres qui minimisent la quantité ε. Les valeurs de fme et fhg qui minimisent cette quantité ε sont alors retenues et dites être les valeurs estimées des fractions fme et fhg. This minimization is carried out here using conventional mathematical optimization methods. In this example, the model is parameterized by the fractions f me and f hg and, advantageously, by the parameter b me , the thickness of epi and the thickness d derm . For example, predetermined initial values of the parameters bme, epi , d derm , fme and f hg are chosen. For each of the wavelengths of the interval I, the calculator 22 then calculates the value R m0 deied, using the parameters b me , epi , d derm , f me and f hg . Then, the operation is repeated with other values of the parameters b me , d ei , d derm , f me and f hg until finding the values of the parameters which minimize the quantity ε. The values of f me and f hg which minimize this quantity ε are then retained and said to be the estimated values of the fractions f me and f hg .

[0055] Ensuite, lors d'une étape 104, l'objet 4 est automatiquement classé, en fonction des valeurs estimées des fractions fme et fhg pour chacun des pixels de l'image hyper-spectrale lors de l'étape 102, dans l'une ou l'autre des catégories suivantes : Then, during a step 104, the object 4 is automatically classified, according to the estimated values of the fractions f me and f hg for each of the pixels of the hyper-spectral image during step 102, in one of the following categories:

- une catégorie contenant les peaux humaines, et  - a category containing human skin, and

- une catégorie contenant les peaux artificielles.  - a category containing artificial skins.

[0056] Dans cet exemple, ce classement est réalisé au moyen d'un classifieur (« classifier » en langue anglaise), implémenté par le calculateur 22. Par exemple, le classifieur est une machine à vecteur de support utilisant la fonction noyau connue sous le nom de « radial basis function kernel » en langue anglaise. Ce classifieur est préalablement entraîné à partir d'un ensemble de données d'apprentissage. Ces données d'apprentissage comportent des couples de valeurs (fme , fhg) chacun associés à un objet 4 dont on sait préalablement à quelle catégorie il appartient. Ce classifieur étant bien connu, il n'est pas décrit ici plus en détail. [0057] Par exemple, lors de l'étape 104, le couple de valeurs (fme , fhg) estimées pour chaque pixel de l'image hyper-spectrale est classé automatiquement dans l'une ou l'autre de ces catégories. Si le nombre de pixels de l'image hyper-spectrale classés dans la catégorie des peaux humaines est supérieur à un seuil Sp, alors l'objet 4 est classé dans la catégorie des peaux humaines. Si le nombre de pixels de l'image hyper-spectrale classés dans la catégorie des peaux humaine est inférieur à un seuil Sa, alors l'objet 4 est classé dans la catégorie des peaux artificielles. A titre d'illustration, ici les seuils Sp et Sa sont égaux de sorte que tout objet 4 est soit classé dans la catégorie des peaux humaines soit classés dans la catégorie des peaux artificielles. Le seuil Sp est ici égal à 0.5NP ou 0.7NP ou 0.8NP, où NP est le nombre de pixel dans l'image hyper-spectrale. In this example, this classification is performed by means of a classifier ("classifier" in English), implemented by the computer 22. For example, the classifier is a support vector machine using the core function known as the name of "radial basis function kernel" in the English language. This classifier is previously trained from a set of training data. These learning data comprise pairs of values (f me , fhg) each associated with an object 4 which is known beforehand to which category it belongs. As this classifier is well known, it is not described here in more detail. For example, during step 104, the estimated pair of values (f me , f hg ) for each pixel of the hyper-spectral image is automatically ranked in one or the other of these categories. If the number of pixels of the hyper-spectral image classified in the category of human skin is greater than a threshold S p , then the object 4 is classified in the category of human skin. If the number of pixels of the hyper-spectral image classified in the human skin category is less than a threshold S a , then the object 4 is classified in the category of artificial skins. By way of illustration, here the thresholds S p and S a are equal so that any object 4 is either classified in the category of human skin or classified in the category of artificial skin. The threshold S p is here equal to 0.5NP or 0.7NP or 0.8NP, where NP is the number of pixels in the hyper-spectral image.

[0058] Le résultat du classement est alors avantageusement fourni par le dispositif 2 à destination d'un utilisateur du procédé par l'intermédiaire d'une interface homme- machine ou à un dispositif électronique de contrôle d'accès.  The classification result is then advantageously provided by the device 2 to a user of the method via a human-machine interface or to an electronic access control device.

[0059] Les inventeurs ont déterminé qu'en utilisant les caractéristiques histologiques fme et fhg, les objets 4 pouvaient être classés avec un meilleur taux de succès. The inventors have determined that by using the histological characteristics fme and f hg , objects 4 could be classified with a better success rate.

[0060] Un exemple applicatif du procédé va maintenant être décrit. An application example of the method will now be described.

[0061] Par exemple, le procédé a été testé sur un ensemble de valeurs de réflectance mesurées pour 170 objets et fournies dans l'article de M. J. Vrhel et al, « Measurement and analysis of objet réflectance spectra », Color Research & Application, vol. 19, p. 4-9, 1994. Sur ces 170 objets, 30 concernent des peaux humaines. Le reste concerne des peaux artificielles fabriquées à partir de silicone ou autre matériau plastique, des textiles ou des végétaux. For example, the method was tested on a set of reflectance values measured for 170 objects and provided in the article by MJ Vrhel et al, "Measurement and analysis of spectra reflectance object", Color Research & Application, vol . 19, p. 4-9, 1994. Of these 170 objects, 30 relate to human skin. The rest concerns artificial skins made from silicone or other plastic material, textiles or plants.

[0062] Les étapes 102 et 104 du procédé ont été appliquées successivement pour chacun de ces objets. Les inventeurs ont déterminé que le procédé avait permis de classer ces objets dans les deux catégories précitées avec un taux de succès de 96,4%. Ce taux est supérieur à celui obtenu à partir d'autres procédés connus.  The steps 102 and 104 of the method were applied successively for each of these objects. The inventors determined that the process had made it possible to classify these objects in the two aforementioned categories with a success rate of 96.4%. This level is higher than that obtained from other known methods.

[0063] La figure 7 représente les couples de valeurs (fme , fhg) de ces objets. [0063] FIG. 7 represents the pairs of values (f me , f hg ) of these objects.

[0064] A chacun des objets, et donc des couples de valeurs (fme , fhg), est associé de façon unique un point, qui a pour abscisse la valeur fme et pour ordonnée la valeur fhg de ce couple. Ce résultat se présente sous la forme d'un graphe bidimensionnel ayant pour origine la valeur (fme , fhg) = (0 ;0), pour abscisse le paramètre fme et pour ordonnée le paramètre fhg. Sur cette figure, les points associés aux objets qui sont de la peau sont représentés par un cercle 110. Les points associés aux objets qui ne sont pas de la peau sont représentés par une croix 112. Each of the objects, and therefore pairs of values (f me , f hg ), is uniquely associated with a point, whose abscissa has the value f me and for ordinate the value f hg of this pair. This result is in the form of a two-dimensional graph whose origin is the value (f me , fhg) = (0; 0), for abscissa the parameter f me and for ordinate the parameter f hg . In this figure, the points associated with the objects that are skin are represented by a circle 110. The points associated with objects that are not skin are represented by a cross 112.

[0065] On constate que la plupart des points correspondant à de la peau humaine sont concentrés près de l'origine du graphe. Plus précisément, la très grande majorité des points qui correspondent à de la peau humaine sont situés à l'intérieur d'une région Rff. La plupart des points correspondant à un objet qui n'est pas de la peau sont répartis ailleurs. Ce résultat provient du fait qu'un modèle de peau est utilisé, qui tient compte des interactions entre le rayonnement et les pigments de la peau humaine. Lorsque l'objet 4 est de la peau humaine, il est possible de relier la réflectance mesurée à des propriétés de ces pigments et ainsi de trouver des valeurs (fme , fhg) qui correspondent à des caractéristiques histologiques plausible pour de la peau. Au contraire, lorsque l'objet 4 n'est pas de la peau, les valeurs estimées des fractions fme , fhg sont généralement très éloignées des valeurs plausibles de sorte qu'il est alors facile d'identifier une peau artificielle. Typiquement, dans ce dernier cas, les valeurs estimées des fractions fme , f g sont en dehors de la région Rff. En effet, les pigments tels que l'hémoglobine et la mélanine ne se trouvent que dans la peau d'un être humain vivant et pas dans des matériaux inertes qui ne sont pas de la peau humaine. It is found that most points corresponding to human skin are concentrated near the origin of the graph. Specifically, the vast majority of points that correspond to human skin are located within a Rff region. Most of the points corresponding to an object that is not skin are distributed elsewhere. This result comes from the fact that a skin model is used which takes into account the interactions between radiation and the pigments of human skin. When the object 4 is human skin, it is possible to relate the measured reflectance to the properties of these pigments and thus to find values (fme, fhg) that correspond to plausible histological characteristics for the skin. On the contrary, when the object 4 is not skin, the estimated values of the fractions f me , f hg are generally far from the plausible values so that it is then easy to identify an artificial skin. Typically, in the latter case, the estimated values of the fractions f me , fg are outside the region Rff. Indeed, pigments such as hemoglobin and melanin are found only in the skin of a living human and not in inert materials that are not human skin.

[0066] Ainsi, le présent procédé obtient des meilleurs résultats que les méthodes qui ne tiennent pas compte des interactions entre le rayonnement lumineux et la peau qui se déroulent dans les couches en profondeur de la peau, et non pas seulement à la surface de la peau.  Thus, the present method obtains better results than the methods which do not take into account the interactions between the light radiation and the skin which take place in the deep layers of the skin, and not only on the surface of the skin. skin.

[0067] De nombreux autres modes de réalisation sont possibles. Par exemple, le dispositif 2 peut être différent. Notamment, la source 6 peut être réalisée d'une autre manière. Par exemple, plusieurs sources monochromatiques peuvent être utilisées pour éclairer successivement l'objet 4 aux longueurs d'onde désirées. Un autre exemple est d'utiliser comme source 6, l'éclairage naturel comme le soleil.  Many other embodiments are possible. For example, the device 2 may be different. In particular, the source 6 can be realized in another way. For example, several monochromatic sources can be used to successively illuminate the object 4 at the desired wavelengths. Another example is to use as source 6, natural lighting as the sun.

[0068] Le capteur 8 peut être différent. Par exemple, ce capteur 8 comporte un seul transducteur et le procédé décrit ci-dessus est alors mis en œuvre pour un seul point de la peau et non pas pour de multiple points de la peau correspondant chacun à un pixel comme décrit précédemment.  The sensor 8 may be different. For example, this sensor 8 comprises a single transducer and the method described above is then implemented for a single point of the skin and not for multiple points of the skin each corresponding to a pixel as described above.

[0069] Dans un autre mode de réalisation, l'allumage et, en alternance, l'extinction de la source 6 est commandé par l'unité 10. Dans ce mode de réalisation, l'étape 98 est exécutée au moins une fois alors que la source 6 est éteinte et au moins une fois alors que la source 6 est allumée. Lors de l'étape 100, l'unité 10 calcule une première image hyper-spectrale à partir des mesures réalisées uniquement lorsque la source 6 est éteinte et un seconde image hyper-spectrale à partir des mesures réalisées uniquement lorsque la source 6 est allumée. Ensuite, toujours lors de cette étape 100, l'unité 10 construit une image hyper-spectrale différentielle correspondant à la différence entre les première et seconde images hyper-spectrales. Par exemple, pour cela, pour chaque pixel de la second image hyper-spectrale, l'unité 10 soustrait à la réflectance du pixel de la seconde image, la réflectance du pixel situé à la même position dans la première image. Ensuite, les étapes suivantes du procédé sont les mêmes que celles précédemment décrites sauf que l'on utilise l'image hyper- spectrale différentielle construite à la place d'une image hyper-spectrale simple. Cela permet d'éliminer la contribution de sources d'éclairage parasites également présentes lors de l'étape 98 en plus de la source 6. Cela permet donc d'améliorer la fiabilité du procédé. In another embodiment, the ignition and, alternately, the extinction of the source 6 is controlled by the unit 10. In this embodiment, the step 98 is executed at least once then that the source 6 is off and at least once while the source 6 is on. In step 100, the unit 10 calculates a first hyper-spectral image from the measurements made only when the source 6 is off and a second hyper-spectral image from the measurements made only when the source 6 is lit. Then, again during this step 100, the unit 10 builds a differential hyper-spectral image corresponding to the difference between the first and second hyper-spectral images. For example, for this, for each pixel of the second hyper-spectral image, the unit 10 subtracts from the reflectance of the pixel of the second image, the reflectance of the pixel located at the same position in the first image. Next, the following steps of the method are the same as previously described except that the differential hyper-spectral image constructed in place of a simple hyper-spectral image is used. This eliminates the contribution of parasitic light sources also present in step 98 in addition to the source 6. This therefore improves the reliability of the process.

[0070] Les longueurs d'onde peuvent être choisies différemment. Par exemple, le domaine spectral peut couvrir le domaine visible ainsi que le proche infrarouge ou infrarouge. Le capteur 8 est alors un capteur hyper-spectral apte à acquérir des images numériques hyper-spectrales. Par proche infrarouge, on désigne la portion du spectre électromagnétique dont la longueur d'onde est comprise entre 800 nm et 2,5μίτι. Le domaine spectral peut également couvrir le domaine infrarouge. Par exemple, les longueurs d'onde pour lesquelles des mesures sont acquise sont alors comprises entre 390nm et 1mm.  The wavelengths can be chosen differently. For example, the spectral domain may cover the visible range as well as the near infrared or infrared. The sensor 8 is then a hyper-spectral sensor capable of acquiring hyper-spectral digital images. By near infrared, we designate the portion of the electromagnetic spectrum whose wavelength is between 800 nm and 2.5μίτι. The spectral domain can also cover the infrared domain. For example, the wavelengths for which measurements are acquired are then between 390 nm and 1 mm.

[0071] En variante, il n'est pas nécessaire d'acquérir une courbe de valeurs de réflectance pour toutes les longueurs d'onde de l'intervalle I ; on peut se contenter de valeurs de réflectance pour certaines longueurs d'onde choisies au sein de cet intervalle et éloignées les unes des autres par des plages de longueurs d'onde supérieur à 10 nm de largeur. Il est aussi possible de ne retenir que les longueurs d'onde discriminantes. Celles-ci sont obtenues au préalablement par analyse de la réflectance de la peau à différente longueur d'onde. En particulier, les inventeurs ont déterminé que les longueurs d'onde suivantes sont particulièrement discriminantes et permettaient avantageusement d'améliorer la fiabilité du procédé : 516 nm, 540 nm, 564 nm et 576 nm. Ces longueurs d'onde correspondent à un motif particulier présent sur la courbe de réflectance optique, essentiellement causé par l'évolution du coefficient oa oh. Alternatively, it is not necessary to acquire a curve of reflectance values for all the wavelengths of the interval I; reflectance values may be sufficient for certain wavelengths selected within this range and distant from each other by wavelength ranges greater than 10 nm in width. It is also possible to retain only the discriminating wavelengths. These are obtained beforehand by analyzing the reflectance of the skin at different wavelengths. In particular, the inventors have determined that the following wavelengths are particularly discriminating and advantageously make it possible to improve the reliability of the process: 516 nm, 540 nm, 564 nm and 576 nm. These wavelengths correspond to a particular pattern present on the optical reflectance curve, mainly caused by the evolution of the coefficient o a oh .

[0072] Lors de l'étape 102, le nombre de paramètres dont les valeurs sont fixées à l'avance peut être plus important. Par exemple, en plus ou à la place de la valeur du paramètre roh, les valeurs des paramètres dep et dderm sont fixées à l'avance. Cela simplifie l'estimation des valeurs des autres paramètres. A l'inverse, le nombre de paramètres dont les valeurs doivent être estimées peut être plus important. Par exemple, dans une mode de réalisation particulier, la valeur du paramètre r0 est considérée comme étant inconnue et doit être estimée lors de l'étape 102. Avantageusement, en plus des paramètres estimés, telles que les fractions fractions volumiques fme et fhg, on peut utiliser un paramètre Vf défini comme suit pour classer un objet soit dans la catégorie des peaux humaines soit dans la catégorie des peaux artificielle. Le paramètre Vf est défini en fonction des valeurs de réflectance R de l'objet 4 pour ces longueurs d'onde :

Figure imgf000015_0001
In step 102, the number of parameters whose values are set in advance may be more important. For example, in addition to or instead of the value of the parameter r oh , the values of the parameters ep and dderm are fixed in advance. This simplifies the estimation of the values of the other parameters. Conversely, the number of parameters whose values must be estimated may be larger. For example, in a particular embodiment, the value of the parameter r 0 is considered to be unknown and must be estimated in step 102. Advantageously, in addition to the estimated parameters, such as the fractional volume fractions f me and f hg , one can use a parameter V f defined as follows to classify an object either in the category of human skins or in the category of artificial skins. The parameter V f is defined according to the reflectance values R of the object 4 for these wavelengths:
Figure imgf000015_0001

ou : - Vi prend la valeur booléenne « vrai » si l'expression « R(A=516nm) > R(A=540nm) » est vraie, et prend la valeur « faux » dans le cas contraire ; or : - Vi takes the Boolean value "true" if the expression "R (A = 516nm)> R (A = 540nm)" is true, and takes the value "false"otherwise;

- v2 prend la valeur booléenne « vrai » si l'expression « R(A=540nm) < R(A=564nm) » est vraie, et prend la valeur « faux » dans le cas contraire, et - v 2 takes the Boolean value "true" if the expression "R (A = 540nm) <R (A = 564nm)" is true, and takes the value "false" otherwise, and

- v3 prend la valeur booléenne « vrai » si l'expression « R(A=564nm) > R(A=576nm) » est vraie, et prend la valeur « faux » dans le cas contraire, - v 3 takes the Boolean value "true" if the expression "R (A = 564nm)> R (A = 576nm)" is true, and takes the value "false" in the opposite case,

- R(A=yyy nm) est la valeur mesurée de la réflectance à la longueur d'onde yyy nm.  - R (A = yyy nm) is the measured value of the reflectance at the wavelength yyy nm.

[0073] Ce paramètre Vf est alors pris en compte lors de l'étape 104 pour classer l'objet 4. Cette variante a été appliquée sur l'ensemble de test précédemment défini, et a permis de détecter les peaux artificielles avec un taux de succès supérieur à 99%. This parameter V f is then taken into account during step 104 to classify the object 4. This variant was applied to the set of test previously defined, and allowed to detect artificial skin with a rate of success above 99%.

[0074] L'étape 98 peut être omise lorsqu'on dispose déjà de valeurs de réflectance. Ces valeurs ont par exemple été acquises préalablement à la mise en œuvre du procédé. Par exemple, on peut se procurer de telles valeurs de réflectance dans l'article de M. J. Vrhel précédemment cité. Dans ce cas, la source 6 et le capteur 8 peuvent être omis.  Step 98 may be omitted when there are already reflectance values. These values have for example been acquired prior to the implementation of the method. For example, such reflectance values can be obtained from the aforementioned article by M. J. Vrhel. In this case, the source 6 and the sensor 8 can be omitted.

[0075] L'étape 102 peut être réalisée différemment. En particulier, d'autres modèles peuvent être utilisés pour modéliser les interactions entre la lumière et la peau. Par exemple, on utilise un modèle dans lequel le nombre de couches est différent pour modéliser le derme et l'épiderme. Dans un autre exemple, on peut utiliser un modèle de Monte Carlo pour estimer le comportement du rayonnement lumineux qui pénètre à l'intérieur des couches 34 et 32 et ainsi déduire les fractions volumiques fme et fhg. Le brevet US2014/0213909 décrit un exemple de modèle alternatif pouvant être utilisé en lieu et place des modèles décrits. Il est également possible de combiner plusieurs de ces modèles entre eux. Un exemple d'un autre modèle multi-couches de la peau est décrit dans l'article suivant : « The Récognition of Ethnie Groups based on Histological Skin Properties", C. Malskies and E. Eibenberger and E. Angelopoulou, Vision, Modeling, and Visualization (2011). Step 102 can be performed differently. In particular, other models can be used to model the interactions between light and skin. For example, we use a model in which the number of layers is different to model the dermis and the epidermis. In another example, a Monte Carlo model can be used to estimate the behavior of the light radiation entering the layers 34 and 32 and thus deduce the volume fractions f me and f hg . The US2014 / 0213909 patent describes an example of an alternative model that can be used in place of the models described. It is also possible to combine several of these models with each other. An example of another multi-layer skin model is described in the following article: "The Recognition of Ethnic Groups Based on Histological Skin Properties", C. Malskies and E. Eibenberger and E. Angelopoulou, Vision, Modeling, and Visualization (2011).

[0076] Selon une autre variante, le modèle physique peut être remplacé par un modèle statistique d'apprentissage profond (« deep learning » en langue anglaise). Selon cette variante, lors de l'étape 102, les valeurs de réflectance acquises pour l'objet 4 sont comparées à des valeurs de réflectance connues et déjà associées à des valeurs des fractions fme et fhg. On estime ainsi un couple de valeurs (fme , fhg) pour l'objet 4. On peut également utiliser le modèle connu sous le nom d'analyse canonique des corrélations (« canonical corrélation analysis » en langue anglaise) ou SVR (Support Vector Régression). Dans ces derniers cas, le modèle est d'abord construit automatiquement par apprentissage. Par exemple, le procédé comporte alors une étape de construction automatique par apprentissage d'un modèle statistique qui associe les mesures acquises aux fractions volumiques fme et fhg à partir de plusieurs jeux de valeurs mesurées expérimentalement sur des peaux d'êtres humains différents, chaque jeu de valeurs expérimentales comportant : According to another variant, the physical model can be replaced by a statistical model of deep learning ("deep learning" in English). According to this variant, during step 102, the reflectance values acquired for the object 4 are compared with known reflectance values already associated with values of the fractions f me and f hg . We thus estimate a pair of values (f me , fhg) for the object 4. We can also use the model known under the name of canonical correlation analysis ("canonical correlation analysis" in English) or SVR (Support Vector Regression). In these latter cases, the model is first built automatically by learning. For example, the method then comprises a step of automatic construction by learning a statistical model that associates the acquired measurements with the volume fractions f me and f hg from of several sets of values measured experimentally on skins of different human beings, each set of experimental values comprising:

- la mesure acquise permettant de calculer la réflectance de la peau de l'être humain, et  the measurement acquired making it possible to calculate the reflectance of the skin of the human being, and

- les valeurs des fractions volumiques fme et fhg mesurées sur la même peau. the values of the volume fractions f me and f hg measured on the same skin.

[0077] Comme illustré à la figure 8, l'étape 102 est alors remplacée par une étape 202 dans laquelle les paramètres sont estimés au moyen de cette méthode statistique.  As illustrated in FIG. 8, step 102 is then replaced by a step 202 in which the parameters are estimated by means of this statistical method.

[0078] L'étape 104 peut être différente. D'autres classifieurs et/ou fonctions de noyau peuvent être utilisés. Notamment, des classifieurs linéaires peuvent être utilisés, s'ils sont aptes à mettre en œuvre la méthode connue sous le nom anglais de « kernel trick ». Dans d'autres variantes, l'utilisation d'un classifieur est omise. Par exemple, la région Rff (figure 7) est prédéfinie expérimentalement à l'avance. Ensuite, lors de l'étape 104, le calculateur vérifie si le point de coordonnées (fme, fhg) est compris à l'intérieur de la région Rff. Dans l'affirmative, une peau humaine est détectée. Dans le cas contraire, une peau artificielle est détectée. Step 104 may be different. Other classifiers and / or core functions may be used. In particular, linear classifiers can be used, if they are able to implement the method known as the "kernel trick". In other variants, the use of a classifier is omitted. For example, the region Rff (FIG. 7) is predefined experimentally in advance. Then, in step 104, the computer checks whether the coordinate point (f me , f hg ) is within the region Rff. If yes, human skin is detected. Otherwise, artificial skin is detected.

[0079] En variante, lors de l'étape 104, pour le classement de l'objet 4, l'unité 10 prend en compte en plus la mesure de l'écart entre, d'une part, les valeurs de réflectance acquises et, d'autre part, un ensemble prédéfini de valeurs de référence. Par exemple, on mesure l'écart entre une courbe de réflectance mesurée pour l'objet 4 et une courbe de réflectance prédéterminée, dont on sait qu'elle correspond à un échantillon de peau humaine. Cette réflectance prédéterminée peut par exemple être obtenue préalablement par simulation numérique. L'écart est par exemple mesuré au sens des moindres carrés. Par exemple, l'écart est défini comme étant égal à la quantité suivante : ∑λ | Rmeasured(A) - Rref(A) |2 , où : Alternatively, in step 104, for the classification of the object 4, the unit 10 additionally takes into account the measurement of the difference between, on the one hand, the acquired reflectance values and on the other hand, a predefined set of reference values. For example, the difference between a measured reflectance curve for the object 4 and a predetermined reflectance curve, which is known to correspond to a sample of human skin, is measured. This predetermined reflectance can for example be obtained previously by numerical simulation. The difference is for example measured in the least squares sense. For example, the difference is defined as being equal to the following quantity: Σ λ | Rmeasured (A) - R ref (A) | 2 , where:

- Rmeasured(A) désigne la réflectance acquise pour une valeur de longueur d'onde λ, Rmeasured (A) denotes the acquired reflectance for a value of wavelength λ,

- Rref(A) désigne la réflectance prédéterminée, pour une valeur de longueur d'onde λ,R ref (A) denotes the predetermined reflectance, for a value of wavelength λ,

- l'opérateur∑λ désigne la sommation sur toutes les longueurs d'onde sélectionnées, ici celles de l'intervalle I, et the operator λ denotes the summation over all the selected wavelengths, here those of the interval I, and

- l'opérateur | ... | désigne la valeur absolue. - the operator | ... | denotes the absolute value.

[0080] Si cet écart est supérieur à un seuil prédéterminé, alors l'objet 4 est considéré comme étant de la peau artificielle. Dans le cas contraire, il est déterminé comme étant de la peau humaine. En effet, les inventeurs ont déterminé qu'il existait un écart entre les valeurs de réflectance optique théoriques prévues par le modèle et les valeurs réelles, cet écart étant plus important pour la peau artificielle que pour de la peau humaine. Dans l'état actuel des connaissances des inventeurs, cet écart est attribué au fait que le modèle numérique utilisé semble surestimer l'épaisseur de la couche 32.  If this difference is greater than a predetermined threshold, then the object 4 is considered to be artificial skin. If not, it is determined to be human skin. Indeed, the inventors have determined that there is a difference between the theoretical optical reflectance values provided by the model and the actual values, this difference being greater for artificial skin than for human skin. In the current state of the inventors' knowledge, this difference is attributed to the fact that the numerical model used seems to overestimate the thickness of the layer 32.

[0081] Les modes de réalisation précédents ont tous été décrits dans le cas particulier où les fractions fme et fhg sont systématiquement utilisées pour faire la distinction entre peau humaine et peau artificielle. Toutefois, quel que soit le mode de réalisation considéré, d'autres paramètres du modèle de peau peuvent être utilisés en plus ou à la place des fractions fme et fhg pour faire cette distinction. Par exemple, lors de l'étape 104, c'est l'un des paramètres suivants ou une combinaison des paramètres suivants qui est utilisé pour distinguer une peau humaine d'une peau artificielle : [0081] The above embodiments have all been described in the particular case where the fractions f me and f hg are routinely used to make the distinction between human skin and artificial skin. However, regardless of the embodiment considered, other parameters of the skin model may be used in addition to or in place of the fractions f me and f hg to make this distinction. For example, in step 104, it is one of the following parameters or a combination of the following parameters that is used to distinguish human skin from artificial skin:

- la proportion bme de mélanine présente sous la forme d'eumélanine, - the proportion b me melanin in the form of eumelanin,

- la proportion de mélanine présente sous la forme de phéomélanine,  the proportion of melanin present in the form of pheomelanin,

- la proportion roh d'hémoglobine présente sous la forme d'hémoglobine oxygénée, - la proportion d'hémoglobine présente sous la forme d'hémoglobine désoxygénée,- the proportion of hemoglobin r oh the form of oxygenated hemoglobin, - the proportion of hemoglobin present in the form of hemoglobin deoxygenated,

- l'épaisseur depi de l'épiderme, et - the epi thickness of the epidermis, and

- l'épaisseur dderm du derme. - the derm thickness of the dermis.

Par exemple, dans une mode de réalisation particulier la proportion bme et la fraction fhg sont utilisées lors de l'étape 104 mais pas la fraction fme. Dans une autre variante, lors de l'étape 104, il est possible d'utiliser en plus des fractions fme et fhg d'autres paramètres pour classer l'objet 4 soit dans la catégorie des peaux humaines soit dans la catégorie des peaux artificielles. Par exemple, au moins l'un d es paramètres bme, depi, dderm estimés lors de l'étape 102 est également utilisé en plus lors de l'étape 104 pour classer l'objet 4 entre les catégories peaux humaines ou artificielles. For example, in a particular embodiment, the proportion b me and the fraction f hg are used during step 104 but not the fraction f me . In another variant, during step 104, it is possible to use, in addition to the fractions f me and f hg , other parameters for classifying the object 4 either in the category of human skin or in the category of skins. artificial. For example, at least one of the parameters b me , d epi , d derm estimated in step 102 is also used in addition during step 104 to classify the object 4 between the human and artificial skin categories. .

[0082] Selon un autre mode de réalisation, le dispositif 2 est en plus apte à être utilisé pour classer une peau humaine dans une classe d'âges de son propriétaire. Le calculateur 22 est alors modifié en conséquence. According to another embodiment, the device 2 is in addition adapted to be used to classify a human skin in a age class of its owner. The computer 22 is then modified accordingly.

[0083] Par exemple, comme illustré à la figure 9, le procédé comporte : For example, as illustrated in FIG. 9, the method comprises:

- des étapes 298, 300 et 302 identiques, respectivement, aux étapes 98, 100 et 102 du procédé de la figure 5, et  identical steps 298, 300 and 302, respectively, to the steps 98, 100 and 102 of the method of FIG. 5, and

- l'étape 302 est suivie d'une étape 304 de classement automatique de l'objet 4.  step 302 is followed by a step 304 of automatic classification of the object 4.

Cette étape 304 est identique à l'étape 104 sauf qu'elle comporte en plus une opération de classement automatique de l'objet 4 dans une classe d'âges en fonction des épaisseurs dderm et depi estimées parmi une pluralité de classes d'âges préalablement définies. Chaque classe d'âges correspond à la classe d'âges dans laquelle se situe l'être humain auquel appartient le morceau de peau si l'objet 4 a été reconnu comme étant de la peau humaine. This step 304 is identical to the step 104 except that it also comprises an automatic classification operation of the object 4 in an age class according to the derm and epi thicknesses estimated among a plurality of classes of ages previously defined. Each age class corresponds to the age class in which the human being to which the piece of skin belongs if the object 4 has been recognized as being human skin.

[0084] Par exemple, on définit les classes d'âge suivantes : 0 à 19 ans, 20 à 39 ans, 40 à 59 ans, 60 ans ou plus. Ainsi, le procédé de la figure 9 fournit également une estimation de l'âge de l'être humain.  For example, the following age classes are defined: 0 to 19 years, 20 to 39 years, 40 to 59 years, 60 years or more. Thus, the method of Figure 9 also provides an estimate of the age of the human being.

[0085] Dans une autre variante, le procédé est apte à classer l'objet 4 selon d'autres critères, tels que, lorsque l'objet 4 est une peau d'un être humain, le sexe (mâle ou femelle) de cet humain. [0086] Les procédés décrits ci-dessus peuvent être utilisés pour distinguer de la peau humaine sur toute partie du corps humain, telle que sur un visage, un doigt, une main, un pied ou autre. In another variant, the method is capable of classifying the object 4 according to other criteria, such that, when the object 4 is a skin of a human being, the sex (male or female) of this human. The methods described above can be used to distinguish human skin on any part of the human body, such as on a face, finger, hand, foot or other.

[0087] Dans le procédé de la figure 9, l'opération de distinction entre de la peau humaine et de la peau artificielle peut être omise. Dans ce cas, le procédé de la figure estime seulement la classe d'âges à laquelle appartient l'être humain sans chercher à savoir si les mesures traitées correspondent bien à un morceau de peau humaine.  In the method of FIG. 9, the operation of distinguishing between human skin and artificial skin may be omitted. In this case, the method of the figure estimates only the age class to which the human being belongs without investigating whether the measures treated correspond to a piece of human skin.

[0088] L'estimation des valeurs des paramètres d'un modèle de la réflectance de la peau humaine à partir d'une image hyper-spectrale différentielle, telle que décrite ci- dessus, peut aussi être mise en œuvre dans d'autres procédés dépourvus d'étape de distinction entre de la peau humaine et de la peau artificielle. Plus généralement, l'utilisation d'une image hyper-spectrale différentielle est utilisable dans tout procédé où il existe des sources lumineuses parasites qui peuvent perturber les mesures. The estimation of the values of the parameters of a model of the reflectance of human skin from a differential hyper-spectral image, as described above, can also be implemented in other processes. devoid of any distinction between human skin and artificial skin. More generally, the use of a differential hyper-spectral image is usable in any process where there are parasitic light sources that can disturb measurements.

Claims

REVENDICATIONS 1. Procédé pour distinguer automatiquement une peau d'un être humain d'un leurre inanimé de peau humaine, ce procédé comportant : A method for automatically distinguishing a skin of a human from an inanimate lure of human skin, the method comprising: a) l'acquisition (100) de mesures permettant de calculer des valeurs de la réflectance optique d'un objet pour au moins cinq longueurs d'onde différentes comprises entre 390 nm et 1 mm ; a) acquiring (100) measurements for calculating values of the optical reflectance of an object for at least five different wavelengths between 390 nm and 1 mm; caractérisé en ce que ce procédé comporte aussi : characterized in that this method also comprises: b) l'estimation automatique (102), à partir des mesures acquises lors de l'étape a) et à l'aide d'un modèle mathématique de la réflectance optique de la peau d'un être humain, d'au moins un paramètre choisi dans le groupe composé de : b) the automatic estimation (102), from the measurements acquired during step a) and using a mathematical model of the optical reflectance of the skin of a human being, of at least one parameter chosen in the group consisting of: • une fraction volumique, notée fme, qui correspond, lorsque l'objet est de la peau d'un être humain, au rapport entre le volume de mélanine contenue dans une couche d'épiderme de cette peau et le volume de cette couche d'épiderme, • a volume fraction, denoted f I, which is, when the object is the skin of a human being, the ratio between the volume of melanin contained in an epidermis layer of the skin and the volume of this layer 'epidermis, · une fraction volumique, notée fhg, qui correspond, lorsque l'objet est de la peau d'un être vivant, au rapport entre le volume d'hémoglobine contenue dans une couche du derme de cette peau et le volume de cette couche du derme, A volume fraction, denoted f hg , which corresponds, when the object is of the skin of a living being, to the ratio between the volume of hemoglobin contained in a layer of the dermis of this skin and the volume of this layer of dermis, • une proportion bme qui correspond, lorsque l'objet est de la peau d'un être humain, à la proportion de mélanine présente sous forme d'eumélanine dans la couche d'épiderme de cette peau, • proportion me b corresponding, when the object is in the skin of a human, the proportion of melanin present in the form of eumelanin in the skin of this skin layer, • une proportion pme qui correspond, lorsque l'objet est de la peau d'un être humain, à la proportion de mélanine présente sous forme de phéomélanine dans la couche d'épiderme de cette peau, • proportion me p corresponding, when the object is in the skin of a human, the proportion of melanin as pheomelanin in the epidermis of the skin layer, • une proportion roh qui correspond, lorsque l'objet est de la peau d'un être humain, à la proportion d'hémoglobine présente sous la forme d'hémoglobine oxygénée dans la couche du derme de cette peau, • a proportion r oh matching, when the object is the skin of a human, the proportion of hemoglobin in the form of oxygenated hemoglobin in the dermis of the skin layer, • une proportion rdh qui correspond, lorsque l'objet est de la peau d'un être humain, à la proportion d'hémoglobine présente sous la forme d'hémoglobine désoxygénée dans la couche du derme de cette peau, A proportion r dh which corresponds, when the object is of the skin of a human being, to the proportion of hemoglobin present in the form of deoxygenated hemoglobin in the layer of the dermis of this skin, · une épaisseur depi qui correspond, lorsque l'objet est de la peau d'un être humain, à l'épaisseur de la couche d'épiderme de cette peau, et · A thickness of epi matching, when the object is the skin of a human being, the thickness of the epidermis of the skin layer, and • une épaisseur dderm qui correspond, lorsque l'objet est de la peau d'un être humain, à l'épaisseur de la couche du derme de cette peau ; • a thickness of derm matching, when the object is the skin of a human being, the thickness of the dermis layer of the skin; le modèle mathématique de la réflectance optique de la peau d'un être humain reliant ledit au moins un paramètre à estimer aux valeurs de réflectance de cette peau auxdites au moins cinq longueurs d'onde différentes, the mathematical model of the optical reflectance of the skin of a human being connecting said at least one parameter to be estimated at the reflectance values of this skin at said at least five different wavelengths, c) le classement (104) automatique de l'objet dans l'une ou l'autre des catégories suivantes en fonction dudit au moins un paramètre estimé lors de l'étape b) : une catégorie contenant les peaux d'un être humain vivant, et une catégorie contenant des leurres inanimés de peaux humaines. c) the automatic classification (104) of the object in one of the following categories according to said at least one parameter estimated in step b): a category containing the skins of a living human being, and a category containing inanimate lures of human skin. 2. Procédé selon la revendication 1, dans lequel ledit au moins un paramètre comporte au moins les fractions volumiques fme et fhg. 2. Method according to claim 1, wherein said at least one parameter comprises at least the volume fractions f me and f hg . 3. Procédé selon l'une quelconque des revendications précédentes, dans lequel :The method of any one of the preceding claims, wherein: - le procédé comporte la réalisation (98) des mesures permettant de calculer les valeurs de la réflectance optique de l'objet pour au moins cinq longueurs d'onde différentes comprises entre 390 nm et 1 mm, une fois lorsque ces mesures sont réalisées alors que l'objet est éclairé par une source lumineuse et une fois lorsque ces mesures sont réalisées en absence d'éclairage de l'objet par cette même source lumineuse, et the method comprises the realization (98) of measurements making it possible to calculate the values of the optical reflectance of the object for at least five different wavelengths between 390 nm and 1 mm, once when these measurements are carried out whereas the object is illuminated by a light source and once when these measurements are made in the absence of illumination of the object by the same light source, and - lors de l'étape b), seul l'écart entre les mesures réalisées lorsque l'objet est éclairé par la source lumineuse et les mesures réalisées en absence de cet éclairage est pris en compte pour estimer ledit au moins un paramètre.  - In step b), only the difference between the measurements made when the object is illuminated by the light source and the measurements made in the absence of this illumination is taken into account to estimate the said at least one parameter. 4. Procédé selon l'une quelconque des revendications précédentes, dans lequel le modèle mathématique utilisé lors de l'étape b) comporte des premières relations qui relient les mesures acquises lors de l'étape a) aux coefficients d'absorption optique des couches d'épiderme, noté oa e i, et de derme, noté oa derm, et des secondes relations qui relient les coefficients d'absorption oa e i et oa derm, aux fractions volumiques fme et fhg et aux proportions bme, pme, roh, rdh, ces secondes relations étant définies par les formules suivantes pour chacune desdites au moins cinq longueurs d'onde : 4. Method according to any one of the preceding claims, wherein the mathematical model used in step b) comprises first relations which connect the measurements acquired during step a) to the optical absorption coefficients of the layers of epidermis, denoted o has ei, and dermis, denoted o has derm, and second relationships which connect the absorption coefficients a o and o ei has derm, the volume fractions f I and f hg and proportions b me p me , r oh , r dh , these second relations being defined by the following formulas for each of the at least five wavelengths: ° = mc(f ra + ( i - « m) + (i - ime)° of™ = Agirait + (1 - roh)af ) + (1 - fb9)af ° = mc (f ra + (i - " m ) + (i - i me ) ° of ™ = Agirait + (1 - r oh ) af) + (1 - f b9 ) af - oa e i est le coefficient d'absorption optique de la couche d'épiderme, - ei o a is the optical absorption coefficient of the skin layer, - bme est la proportion bme de mélanine présente sous la forme d'eumélanine, - b is the proportion me b me of melanin present in the form of eumelanin - (l-bme) est la proportion pme de mélanine présente sous la forme de phéomélanine,- (l-bme) is the proportion p me melanin as pheomelanin, - oa em est le coefficient d'absorption optique de l'eumélanine, - o a em is the optical absorption coefficient of eumelanin, - oa m est le coefficient d'absorption optique de la phéomélanine, - o a m is the optical absorption coefficient of pheomelanin, - oa d est le coefficient d'absorption optique de la couche d'épiderme en l'absence de mélanine, - o a d is the optical absorption coefficient of the skin layer in the absence of melanin, - oa derm est le coefficient d'absorption optique de la couche du derme, - roh est la proportion roh d'hémoglobine présente sous la forme d'hémoglobine oxygénée, - o a derm is the optical absorption coefficient of the dermis layer, - r oh oh r is the proportion of hemoglobin in the form of oxygenated hemoglobin, - (1- roh) est la proportion rdh d'hémoglobine présente sous la forme d'hémoglobine désoxygénée, - (1- r oh ) is the proportion r dh of hemoglobin present in the form of deoxygenated hemoglobin, - oa oh est le coefficient d'absorption optique de l'hémoglobine oxygénée, - a oh o is the optical absorption coefficient of the oxygenated hemoglobin, - oa dh est le coefficient d'absorption optique de l'hémoglobine désoxygénée. - o a dh is the optical absorption coefficient of deoxygenated hemoglobin. 5. Procédé selon l'une quelconque des revendications 1 à 3, dans lequel, avant l'étape b), le procédé comporte une étape de construction automatique par apprentissage d'un modèle statistique qui associe les valeurs de réflectance optique audit au moins paramètre estimé à partir de plusieurs jeux de valeurs mesurées expérimentalement sur des peaux d'êtres humains différents, chaque jeu de valeurs expérimentales comportant : 5. Method according to any one of claims 1 to 3, wherein, before step b), the method comprises a step of automatic construction by learning a statistical model that associates the optical reflectance values at least said parameter estimated from several sets of values measured experimentally on skins of different human beings, each set of experimental values comprising: - la valeur de la réflectance mesurée sur la peau de l'être humain, et  the value of the reflectance measured on the skin of the human being, and - les valeurs dudit au moins un paramètre estimé, mesurées sur la même peau. the values of the said at least one estimated parameter, measured on the same skin. 6. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'étape a) comporte l'acquisition (100) de mesures permettant de calculer les valeurs de la réflectance optique de l'objet pour au moins cent longueurs d'onde différentes comprises entre entre 390 nm et 1 mm. 6. Method according to any one of the preceding claims, wherein step a) comprises the acquisition (100) of measurements for calculating the values of the optical reflectance of the object for at least one hundred different wavelengths. between 390 nm and 1 mm. 7. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'étape a) comporte l'acquisition de mesures permettant de calculer les valeurs de la réflectance optique de l'objet uniquement pour des longueurs d'ondes comprises dans le spectre visible entre 390 nm et 780 nm. 7. The method as claimed in claim 1, in which step a) comprises the acquisition of measurements making it possible to calculate the values of the optical reflectance of the object only for wavelengths included in the visible spectrum. between 390 nm and 780 nm. 8. Procédé selon l'une quelconque des revendications précédentes, dans lequel, avant l'étape a), le procédé comporte, pour lesdites au moins cinq longueurs d'onde différentes comprises entre 390 nm et 1 mm, la mesure (98) de la réflectance optique de l'objet. The method according to any one of the preceding claims, wherein, before step a), the method comprises, for said at least five different wavelengths between 390 nm and 1 mm, the measurement (98) of the optical reflectance of the object. 9. Support d'enregistrement d'informations (20), caractérisé en ce qu'il comporte des instructions pour l'exécution d'un procédé conforme à l'une quelconque des revendications précédentes lorsque ces instructions sont exécutées par un calculateur électronique. 9. Information recording medium (20), characterized in that it comprises instructions for the execution of a method according to any one of the preceding claims when these instructions are executed by an electronic computer. 10. Calculateur électronique (22) pour distinguer automatiquement une peau d'un être humain d'un leurre inanimé de peau humaine, ce calculateur étant programmé pour : An electronic calculator (22) for automatically distinguishing a human skin from an inanimate human skin lure, which computer is programmed to: a) acquérir des mesures permettant de calculer des valeurs de la réflectance optique d'un objet pour au moins cinq longueurs d'onde différentes comprises entre 390 nm et 1 mm ; a) acquiring measurements for calculating optical reflectance values of an object for at least five different wavelengths between 390 nm and 1 mm; caractérisé en ce que ce calculateur est également programmé pour : characterized in that this calculator is also programmed for: b) estimer automatiquement, à partir des mesures acquises lors de l'étape a) et à l'aide d'un modèle mathématique de la réflectance optique de la peau d'un être humain, au moins un paramètre choisi dans le groupe composé de : b) automatically estimate, from the measurements acquired in step a) and using a mathematical model of the optical reflectance of the skin of a human being, at least one parameter selected from the group consisting of : • une fraction volumique, notée fme, qui correspond, lorsque l'objet est de la peau d'un être humain, au rapport entre le volume de mélanine contenue dans une couche d'épiderme de cette peau et le volume de cette couche d'épiderme, • a volume fraction, denoted f I, which is, when the object is the skin of a human being, the ratio between the volume of melanin contained in an epidermis layer of the skin and the volume of this layer 'epidermis, • une fraction volumique, notée fhg, qui correspond, lorsque l'objet est de la peau d'un être vivant, au rapport entre le volume d'hémoglobine contenue dans une couche du derme de cette peau et le volume de cette couche du derme, A volume fraction, denoted f hg , which corresponds, when the object is of the skin of a living being, to the ratio between the volume of hemoglobin contained in a layer of the dermis of this skin and the volume of this layer of dermis, • une proportion bme qui correspond, lorsque l'objet est de la peau d'un être humain, à la proportion de mélanine présente sous forme d'eumélanine dans la couche d'épiderme de cette peau, • proportion me b corresponding, when the object is in the skin of a human, the proportion of melanin present in the form of eumelanin in the skin of this skin layer, · une proportion pme qui correspond, lorsque l'objet est de la peau d'un être humain, à la proportion de mélanine présente sous forme de phéomélanine dans la couche d'épiderme de cette peau, · Proportion me p corresponding, when the object is in the skin of a human, the proportion of melanin as pheomelanin in the epidermis of the skin layer, • une proportion roh qui correspond, lorsque l'objet est de la peau d'un être humain, à la proportion d'hémoglobine présente sous la forme d'hémoglobine oxygénée dans la couche du derme de cette peau, • a proportion r oh matching, when the object is the skin of a human, the proportion of hemoglobin in the form of oxygenated hemoglobin in the dermis of the skin layer, • une proportion rdh qui correspond, lorsque l'objet est de la peau d'un être humain, à la proportion d'hémoglobine présente sous la forme d'hémoglobine désoxygénée dans la couche du derme de cette peau, A proportion r dh which corresponds, when the object is of the skin of a human being, to the proportion of hemoglobin present in the form of deoxygenated hemoglobin in the layer of the dermis of this skin, • une épaisseur depi qui correspond, lorsque l'objet est de la peau d'un être humain, à l'épaisseur de la couche d'épiderme de cette peau, et A thickness of epi which corresponds, when the object is of the skin of a human being, to the thickness of the epidermis layer of this skin, and • une épaisseur dderm qui correspond, lorsque l'objet est de la peau d'un être humain, à l'épaisseur de la couche du derme de cette peau ; • a thickness of derm matching, when the object is the skin of a human being, the thickness of the dermis layer of the skin; le modèle mathématique de la réflectance optique de la peau d'un être humain reliant ledit au moins un paramètre à estimer aux valeurs de réflectance de cette peau auxdites au moins cinq longueurs d'onde différentes, the mathematical model of the optical reflectance of the skin of a human being connecting said at least one parameter to be estimated at the reflectance values of this skin at said at least five different wavelengths, c) classer automatiquement l'objet dans l'une ou l'autre des catégories suivantes en fonction dudit au moins un paramètre estimé lors de l'étape b) : une catégorie contenant les peaux d'un être humain vivant, et une catégorie contenant des leurres inanimés de peaux humaines. c) automatically classifying the object into one of the following categories based on said at least one estimated parameter in step b): a category containing the skins of a living human being, and a category containing inanimate lures of human skin.
PCT/FR2016/052389 2015-09-25 2016-09-21 Method for automatically distinguishing between a skin from a human being and an inanimate decoy of human skin Ceased WO2017051116A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1559045A FR3041524B1 (en) 2015-09-25 2015-09-25 METHOD FOR AUTOMATICALLY DISTINGUISHING A SKIN OF A HUMAN BEING FROM AN INANIMOUS LURE OF HUMAN SKIN
FR1559045 2015-09-25

Publications (1)

Publication Number Publication Date
WO2017051116A1 true WO2017051116A1 (en) 2017-03-30

Family

ID=55236505

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2016/052389 Ceased WO2017051116A1 (en) 2015-09-25 2016-09-21 Method for automatically distinguishing between a skin from a human being and an inanimate decoy of human skin

Country Status (2)

Country Link
FR (1) FR3041524B1 (en)
WO (1) WO2017051116A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007027579A2 (en) * 2005-09-01 2007-03-08 Lumidigm, Inc. Biometric sensors
WO2007084099A2 (en) * 2004-12-07 2007-07-26 Clean Earth Technologies, Llc Method and apparatus for standoff detection of liveness
WO2008139631A1 (en) * 2007-05-08 2008-11-20 Davar Pishva Spectroscopic method and system for multi-factor biometric authentication

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007084099A2 (en) * 2004-12-07 2007-07-26 Clean Earth Technologies, Llc Method and apparatus for standoff detection of liveness
WO2007027579A2 (en) * 2005-09-01 2007-03-08 Lumidigm, Inc. Biometric sensors
WO2008139631A1 (en) * 2007-05-08 2008-11-20 Davar Pishva Spectroscopic method and system for multi-factor biometric authentication

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ALKAWAZ MOHAMMED HAZIM ET AL: "The Correlation Between Blood Oxygenation Effects and Human Emotion Towards Facial Skin Colour of Virtual Human", 3D RESEARCH, 3D DISPLAY RESEARCH CENTER, HEIDELBERG, vol. 6, no. 2, 31 March 2015 (2015-03-31), pages 1 - 16, XP035477652, DOI: 10.1007/S13319-015-0044-9 *
NIXON K A ET AL: "Novel spectroscopy-based technology for biometric and liveness verification", OPTOMECHATRONIC MICRO/NANO DEVICES AND COMPONENTS III : 8 - 10 OCTOBER 2007, LAUSANNE, SWITZERLAND; [PROCEEDINGS OF SPIE , ISSN 0277-786X], SPIE, BELLINGHAM, WASH, vol. 5404, no. 1, 12 April 2004 (2004-04-12), pages 287 - 295, XP002458441, ISBN: 978-1-62841-730-2, DOI: 10.1117/12.543045 *

Also Published As

Publication number Publication date
FR3041524A1 (en) 2017-03-31
FR3041524B1 (en) 2022-02-18

Similar Documents

Publication Publication Date Title
CA2778682A1 (en) Method and device for analysing hyper-spectral images
JP2008523927A (en) Combined total internal reflection and tissue imaging system and method
WO2013098512A1 (en) Method and device for detecting and quantifying cutaneous signs on an area of skin
EP3413233B1 (en) Method for detecting a fake fingerprint
JP2009511094A (en) Biometric sensor
FR2962025A1 (en) METHOD AND DEVICE FOR DETECTION AND QUANTIFICATION OF SKIN SIGNS ON A SKIN AREA
EP2087458A2 (en) Method for validating a biometrical acquisition, mainly a body imprint
EP2751739A1 (en) Detection of fraud for access control system of biometric type
Uzair et al. Is spectral reflectance of the face a reliable biometric?
EP1371977B1 (en) Method for determining the aptitude of a cosmetic or dermatological product at diffusing and/or absorbing light
JP6131597B2 (en) Skin evaluation method and skin evaluation system
EP3726423B1 (en) Device and method for biometric acquisition and processing
FR3066294B1 (en) IMPRESSION CAPTURE DEVICE
WO2016102854A1 (en) Method and system for acquiring and analysing fingerprints with fraud detection
Matsubara Differences in the surface and subsurface reflection characteristics of facial skin by age group
EP3149655B1 (en) Method for validating the authenticity of an element of the human body
EP3388976A1 (en) Method for detecting fraud
FR3078793A1 (en) METHOD OF AUTHENTICATING A FACE BASED ON REFLECTANCE
EP3182333A1 (en) Fraud detection method for authenticating a finger
WO2017051116A1 (en) Method for automatically distinguishing between a skin from a human being and an inanimate decoy of human skin
CA3181954A1 (en) Smart system for skin testing and customised formulation and manufacturing of cosmetics
FR3056901A1 (en) PROCESS FOR CHARACTERIZING HUMAN CUTANE SURFACE
WO2017029455A1 (en) Biometric sensor with at least two light sources of different apparent sizes
JP5757149B2 (en) Skin evaluation method and skin evaluation system
WO2018215671A1 (en) Probe, system and method for analysing the skin

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16785197

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16785197

Country of ref document: EP

Kind code of ref document: A1