[go: up one dir, main page]

BR102014012954B1 - Iris segmentation method, biometric authentication method and biometric authentication system - Google Patents

Iris segmentation method, biometric authentication method and biometric authentication system Download PDF

Info

Publication number
BR102014012954B1
BR102014012954B1 BR102014012954-5A BR102014012954A BR102014012954B1 BR 102014012954 B1 BR102014012954 B1 BR 102014012954B1 BR 102014012954 A BR102014012954 A BR 102014012954A BR 102014012954 B1 BR102014012954 B1 BR 102014012954B1
Authority
BR
Brazil
Prior art keywords
iris
image
pupil
region
fact
Prior art date
Application number
BR102014012954-5A
Other languages
Portuguese (pt)
Other versions
BR102014012954A2 (en
Inventor
Lee Luan Ling
Daniel Felix De Brito
Original Assignee
Universidade Estadual De Campinas – Unicamp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidade Estadual De Campinas – Unicamp filed Critical Universidade Estadual De Campinas – Unicamp
Priority to BR102014012954-5A priority Critical patent/BR102014012954B1/en
Publication of BR102014012954A2 publication Critical patent/BR102014012954A2/en
Publication of BR102014012954B1 publication Critical patent/BR102014012954B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • G06K9/00597
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

MÉTODO DE SEGMENTAÇÃO DE ÍRIS, MÉTODO DE AUTENTICAÇÃO BIOMÉTRICO E SISTEMA DE AUTENTICAÇÃO BIOMÉTRICO. A presente invenção se insere na indústria eletrônica, especificamente na indústria de biometria, visto que se refere a método de extração, modelagem e identificação de íris para um sistema de autenticação biométrico, em que a presente solução visa manter a qualidade do resultado da segmentação, porém com tempos de execução aceitável para o reconhecimento de íris em tempo real, não antes previsto nas técnicas anteriores.IRIS SEGMENTATION METHOD, BIOMETRIC AUTHENTICATION METHOD AND BIOMETRIC AUTHENTICATION SYSTEM. The present invention is part of the electronics industry, specifically the biometrics industry, as it refers to a method of extraction, modeling and identification of iris for a biometric authentication system, in which the present solution aims to maintain the quality of the segmentation result, however, with acceptable execution times for real-time iris recognition, not previously foreseen in previous techniques.

Description

Campo da InvençãoField of Invention

[1] A presente invenção se insere na indústria eletrônica, especificamente na indústria de biometria, visto que se refere a método de extração, modelagem e identificação de íris para um sistema de autenticação biométrico.[1] The present invention is part of the electronics industry, specifically the biometrics industry, as it refers to a method of extraction, modeling and identification of iris for a biometric authentication system.

Estado da TécnicaState of the Technique

[2] Atualmente a Tecnologia da Informação é um fato presente em nossa vida cotidiana, envolvendo praticamente todas as atividades realizadas. No entanto, o extensivo uso da TI trouxe riscos associados à segurança da informação, principalmente em relação a confidencialidade, integridade, disponibilidade, autenticação e não repúdio da informação.[2] Currently, Information Technology is a fact present in our daily life, involving practically all activities carried out. However, the extensive use of IT has brought risks associated with information security, mainly in relation to confidentiality, integrity, availability, authentication and non-repudiation of information.

[3] Com isto, tornou-se necessária uma investigação avançada sobre novos recursos em questão de segurança da informação com o objetivo de eliminar ou diminuir os riscos associados aos fatores citados.[3] With this, it became necessary to carry out an advanced investigation into new resources in terms of information security in order to eliminate or reduce the risks associated with the aforementioned factors.

[4] No que concerne à autenticação, há a autenticação da informação, de sistemas e de pessoas. Em relação à autenticação de pessoas, há os métodos convencionais baseados em algo que um indivíduo possui (p.e. cartões e chaves) ou uma informação que o indivíduo conhece (p.e. senha). Tais métodos não são totalmente confiáveis e robustos, pois estes objetos e informações podem ser roubados, esquecidos ou emprestados.[4] With regard to authentication, there is the authentication of information, systems and people. Regarding people authentication, there are conventional methods based on something an individual has (e.g. cards and keys) or information that the individual knows (e.g. password). Such methods are not completely reliable and robust, as these objects and information can be stolen, forgotten or borrowed.

[5] Devido aos fatores citados, alguns métodos alternativos foram propostos. Dentre estes, um método conhecido como reconhecimento biométrico ganhou destaque, uma vez que não possui as fragilidades citadas anteriormente.[5] Due to the aforementioned factors, some alternative methods have been proposed. Among these, a method known as biometric recognition gained prominence, since it does not have the aforementioned weaknesses.

[6] No reconhecimento biométrico, utiliza-se uma característica do indivíduo conhecida na literatura como característica biométrica, e com isso surge uma área de estudo conhecida como biometria.[6] In biometric recognition, a characteristic of the individual known in the literature as biometric characteristic is used, and with that comes an area of study known as biometrics.

[7] O termo biometria refere-se à identificação de um indivíduo baseada em suas características físicas ou comportamentais. O sucesso da tecnologia biométrica deve-se à obrigatoriedade da presença física do indivíduo no local de identificação e à eliminação da necessidade de memorizar senhas ou transportar identificadores que poderiam ser facilmente esquecidos ou roubados.[7] The term biometrics refers to the identification of an individual based on their physical or behavioral characteristics. The success of biometric technology is due to the mandatory physical presence of the individual at the place of identification and the elimination of the need to memorize passwords or carry identifiers that could be easily forgotten or stolen.

[8] Deste modo, desenvolvem-se sistemas em que há a coleta de alguma característica humana e esta é utilizada para a autenticação. Tais sistemas são denominados sistemas biométricos.[8] In this way, systems are developed in which some human characteristic is collected and used for authentication. Such systems are called biometric systems.

[9] Estes sistemas biométricos podem ser utilizados em qualquer aplicação onde há necessidade de realizar autenticação pessoal. Alguns exemplos onde tais sistemas já estão em uso são transações bancárias (caixas eletrônicos e serviços Netbanking), controle de frequência dos empregados, controle de acesso a locais restritos, identificação em aeroportos, login em computadores pessoais e sistemas de informática, urnas eletrônicas, entre outros.[9] These biometric systems can be used in any application where there is a need to perform personal authentication. Some examples where such systems are already in use are banking transactions (ATMs and Netbanking services), employee attendance control, access control to restricted areas, airport identification, login to personal computers and computer systems, electronic voting machines, among others. others.

[10] As características biométricas são normalmente divididas em dois grupos: comportamentais e fisiológicas. Entre as principais biometrias comportamentais destacam-se: assinatura, dinâmica de digitação e o modo de andar. Em relação às fisiológicas, podem ser citadas: face, íris, impressão digital, geometria da mão e voz.[10] Biometric characteristics are typically divided into two groups: behavioral and physiological. Among the main behavioral biometrics, the following stand out: signature, typing dynamics and gait. Regarding the physiological aspects, the following can be mentioned: face, iris, fingerprint, hand geometry and voice.

[11] Entre as principais modalidades biométricas, a impressão digital, face, íris e geometria da mão são as características biométricas mais estudadas e implementadas.[11] Among the main biometric modalities, fingerprint, face, iris and hand geometry are the most studied and implemented biometric characteristics.

[12] Todos estes sistemas compreendem algumas desvantagens em relação aos outros sistemas. Por exemplo, sistemas que utilizam impressões digitais possuem analogia com investigações criminais e necessidade de contato físico com o coletor, que podem resultar em rejeição por indivíduos, sistemas que utilizam leitura facial possuem alta variabilidade intra-pessoal (por exemplo, nos casos de imagens da faces não frontais), sistemas que utilizam reconhecimento de voz, de assinaturas, ou de geometria da mão necessitam do uso de equipamento especializado, além de compreenderem erros por variabilidade, e sistemas que compreendem a autenticação por íris possuem uma tecnologia cara e de alta precisão, além de dados altamente ruidosos.[12] All these systems have some disadvantages compared to other systems. For example, systems that use fingerprints have an analogy with criminal investigations and the need for physical contact with the collector, which can result in rejection by individuals, systems that use facial reading have high intra-personnel variability (for example, in the cases of images of the non-frontal faces), systems that use voice recognition, signatures, or hand geometry need the use of specialized equipment, in addition to understanding variability errors, and systems that understand iris authentication have an expensive and high-precision technology , in addition to highly noisy data.

[13] Dentre as principais características biométricas apresentadas, a biometria da íris possui qualidades intrínsecas que possibilita seu uso como autenticador. Cabe salientar que a íris é a zona do globo ocular que separa a pupila (centro do olho) da esclerótica (parte da textura branca).[13] Among the main biometric characteristics presented, iris biometrics has intrinsic qualities that allow its use as an authenticator. It should be noted that the iris is the area of the eyeball that separates the pupil (center of the eye) from the sclera (part of the white texture).

[14] A biometria da íris compreende qualificações em relação a outras formas de biometria, como uma baixa variabilidade em um mesmo indivíduo (intra-classe), alta variabilidade entre indivíduos distintos (inter-classe), pequena influência genética, alta aleatoriedade e alta estabilidade ao longo da vida.[14] Iris biometrics comprise qualifications in relation to other forms of biometrics, such as low variability within the same individual (intra-class), high variability between different individuals (inter-class), low genetic influence, high randomness, and high stability throughout life.

[15] Deste modo, a biometria por íris deve apresentar distinguibilidade, permitindo a diferenciação entre as pessoas, imutabilidade, pois é mantida durante a vida, facilidade de uso, bom desempenho na precisão na identificação em um tempo aceitável, aceitabilidade, apresentando pouca ou nenhuma resistência ao processo de autenticação e boa resistência à fraude. Ademais, a biometria por íris é uma tecnologia emergente que apresenta novas áreas a serem exploradas.[15] Thus, iris biometrics must present distinguishability, allowing differentiation between people, immutability, as it is maintained during life, ease of use, good performance in identification accuracy in an acceptable time, acceptability, presenting little or no resistance to authentication process and good fraud resistance. Furthermore, iris biometrics is an emerging technology that presents new areas to be explored.

[16] Essas propriedades fizeram com que a identificação da íris, como um meio de identificação pessoal, ganhasse grande atenção nos últimos tempos e pode vir a ser a substituta da biometria de impressão digital.[16] These properties have made iris identification, as a means of personal identification, gain great attention in recent times and may come to be the replacement for fingerprint biometrics.

[17] Abaixo estão os documentos mais relevantes do Estado da Técnica que se referem a um método de detecção e reconhecimento de íris.[17] Below are the most relevant documents of the State of the Art that refer to an iris detection and recognition method.

[18] O documento CN102629319 descreve um método robusto de segmentação da região da íris com base num detector de limite específico, podendo ser amplamente utilizada em muitos sistemas de aplicação que utilizam o reconhecimento da íris para o reconhecimento da identidade e a prevenção da segurança. No entanto, o referido documento utiliza uma variação da técnica Transformada de Hough, que diferentemente da presente invenção é evitada devido ao alto custo computacional.[18] Document CN102629319 describes a robust method of segmenting the iris region based on a specific threshold detector, which can be widely used in many application systems that use iris recognition for identity recognition and security prevention. However, said document uses a variation of the Hough Transform technique, which, unlike the present invention, is avoided due to the high computational cost.

[19] O documento CN101866420 é utilizado no processo de pré-processamento do reconhecimento holográfico da íris de volume óptico, e realiza a aplicação da tecnologia de reconhecimento de imagem holográfica de volume óptico ao campo de reconhecimento da íris. A tecnologia de reconhecimento da íris holográfica de volume óptico é uma aplicação da holografia de volume óptico reconhecimento de imagem no reconhecimento da íris, que tem a função de reconhecimento paralelo da íris. Ao adoptar o método de processamento da presente invenção, o posicionamento rápido da íris é realizado, o montante de cálculo é reduzida, a precisão do cálculo é melhorada e a taxa de reconhecimento da íris é melhorada. Ainda, o referido documento utiliza a técnica Transformada de Hough, diferentemente do documento citado, o presente pedido tem como vantagem evitar esta transformada devido ao seu alto custo computacional.[19] Document CN101866420 is used in the pre-processing process of optical volume iris holographic recognition, and performs the application of optical volume holographic image recognition technology to the iris recognition field. Optical volume holographic iris recognition technology is an application of optical volume holography image recognition in iris recognition, which has the function of parallel iris recognition. By adopting the processing method of the present invention, fast iris positioning is performed, the calculation amount is reduced, the calculation accuracy is improved, and the iris recognition rate is improved. Also, the aforementioned document uses the Hough Transform technique, unlike the cited document, the present application has the advantage of avoiding this transform due to its high computational cost.

[20] O documento KR100794361 descreve um método para detectar pálpebras e cílios para melhorar o desempenho de reconhecimento da íris é usado para detectar as pálpebras de uma imagem da íris com precisão, detectar os cílios em uma imagem da íris com precisão e remover os cílios detectados da imagem da íris por meio de interpolação de imagem sem diminuir o número de códigos de íris, melhorando assim o desempenho de reconhecimento da íris. Uma área da íris, as pálpebras e a luz refletida são detectadas na imagem da íris (S20). As pálpebras detectadas e a luz refletida são movidas através da interpolação (S30). Ambos os pontos finais das pálpebras incluídos na área da íris são detectados usando uma diferença de nível de cinza na borda da área da íris e uma área de pesquisa da pálpebra é detectada em ambos os pontos finais das pálpebras (S40). Os pontos da pálpebra candidatos são detectados na área de pesquisa da pálpebra detectada (S50). A pálpebra é detectada de forma aproximada usando a chamada transformada de Hough para parábolas, considerando a rotação de um olho a partir dos pontos palpebrais candidatos (S60). Diferentemente do referido documento, o presente pedido de patente detecta a pupila, íris e pálpebras, isolando a região de íris de modo eficiente.[20] Document KR100794361 describes a method for detecting eyelids and eyelashes to improve iris recognition performance is used to detect eyelids from an iris image accurately, detect eyelashes in an iris image accurately, and remove eyelashes detected from the iris image through image interpolation without decreasing the number of iris codes, thus improving iris recognition performance. An area of the iris, eyelids and reflected light are detected in the iris image (S20). The detected eyelids and the reflected light are moved through the interpolation (S30). Both eyelid endpoints included in the iris area are detected using a gray level difference at the edge of the iris area and an eyelid survey area is detected at both eyelid endpoints (S40). Candidate eyelid spots are detected in the detected eyelid survey area (S50). The eyelid is approximately detected using the so-called Hough transform for parabolas, considering the rotation of an eye from the candidate eyelid points (S60). Unlike said document, the present patent application detects the pupil, iris and eyelids, efficiently isolating the iris region.

[21] O documento KR20080025610 descreve um método de detecção de íris e um dispositivo para essa finalidade que depois de detectar o limite da pupila e o ponto central, pesquisando a área de navegação do centro candidato para o centro da pupila usando as informações de perfil da linha e coluna da imagem binária filtrada pelo limite ao inserir a imagem informações que capturaram a imagem da parte do olho e mascarar cada ponto no ponto central da pupila candidato no centro de navegação candidato na imagem binária e, em seguida, executar a operação de mascaramento com oito modelos de máscara de limite de pupila para cada centro de visão concêntrico que alterou o valor do raio para a origem do ponto central da pupila candidato, realizando a operação de mascaramento com seis operações de mascaramento de limite da íris correspondentes a seis posições para círculos concêntricos que mudaram o valor do raio para a origem do ponto central da pupila detectado, ele fornece um meio de detecção de íris para detectar a área de limite da íris, permitindo que o olho detecte a íris com mais eficiência e precisão em comparação para métodos convencionais de detecção de íris, mesmo se o olho estiver obscurecido por sobrancelhas ou pálpebras nas informações da imagem que capturou a área dos olhos. Apesar de o referido documento também utilizar em parte da técnica o histograma das regiões de interesse, no método proposto na presente invenção utiliza-se a informação de um passo adicional: a aplicação dos operadores de Sobel. Dividi-se os pixels em 4 vetores, representados por quadrantes e com base em quadrantes opostos estimamos a região. Para localizar a pupila, a técnica dos autores do referido documento tem como base pixels cuja diferença seja de 45°, sem mencionar como é o processo de localização do ângulo de cada pixel. Na presente invenção o diferencial é detectar dois pontos das bordas de quadrantes opostos que distanciam exatamente por o valor do diâmetro, além de mencionarmos os operadores de Sobel. Ainda no documento citado, o histograma da imagem pode sofrer variações conforme luminosidade ambiente, fator não mencionado na técnica descrita. Diferentemente do referido documento, na presente invenção o método é eficiente mesmo em ambientes que influenciem na captura da imagem, proporcionando reflexos nas regiões da íris e pupila.[21] Document KR20080025610 describes an iris detection method and a device for that purpose that after detecting the pupil boundary and center point, searching the navigation area from the candidate center to the pupil center using the profile information of the row and column of the boundary filtered binary image by inserting the image information that captured the image of the eye part and masking each point at the candidate pupil center point in the candidate navigation center in the binary image and then performing the operation of masking with eight pupil threshold mask templates for each concentric vision center that changed the ray value to the candidate pupil center point origin, performing the masking operation with six iris threshold masking operations corresponding to six positions for concentric circles that have changed the radius value to the detected pupil center point origin, it provides a means of detecting iris to detect the iris boundary area, allowing the eye to detect the iris more efficiently and accurately compared to conventional iris detection methods, even if the eye is obscured by eyebrows or eyelids in the image information that captured the area From the eyes. Although said document also uses the histogram of regions of interest in part of the technique, in the method proposed in the present invention information from an additional step is used: the application of Sobel operators. The pixels are divided into 4 vectors, represented by quadrants and based on opposite quadrants we estimate the region. To locate the pupil, the technique of the authors of that document is based on pixels whose difference is 45°, not to mention the process of locating the angle of each pixel. In the present invention, the differential is to detect two points on the edges of opposite quadrants that are exactly apart by the diameter value, in addition to mentioning the Sobel operators. Also in the cited document, the image histogram may vary according to ambient light, a factor not mentioned in the described technique. Unlike the aforementioned document, in the present invention the method is efficient even in environments that influence image capture, providing reflections in the iris and pupil regions.

[22] O documento KR20040026905 é similar ao documento anterior citado, pois trata de um dispositivo e método de avaliação da qualidade de imagem para o reconhecimento da íris. Apesar de também utilizar em parte da técnica o histograma das regiões de interesse, e mencionarem os operadores de Sobel, não está claro como ele é utilizado. Porém, não menciona como são utilizadas as informações de gradiente, ângulo e divisão dos pixels em quadrantes, como é realizado no método proposto na presente invenção, sendo seu objetivo principal a “projeção dos pixels”.[22] Document KR20040026905 is similar to the previous document cited, as it deals with an image quality assessment device and method for iris recognition. Despite also using the histogram of regions of interest in part of the technique, and mentioning the Sobel operators, it is not clear how it is used. However, it does not mention how the information on gradient, angle and division of pixels into quadrants is used, as is done in the method proposed in the present invention, its main objective being the "projection of pixels".

[23] Em termos da biometria de íris, várias abordagens têm sido desenvolvidas nos últimos anos, dentre as quais destacam-se os métodos relatados nos trabalhos de J. Daugman, “How Iris Recognition Works”, IEEE Trans. On Circuits and Systems for Video Technology, vol. 14, n. 1, pp. 21-30, 2004, e Y. Du, “Partial Iris Recognition Using a 1-D mApproach: Statistics and Analysis,” apresentado na Conferência Internacional em Acústica, Fala e Processamento de Sinais, do IEEE, em 2005 na Filadélfia.[23] In terms of iris biometry, several approaches have been developed in recent years, among which the methods reported in the works of J. Daugman, “How Iris Recognition Works”, IEEE Trans. On Circuits and Systems for Video Technology, vol. 14, no. 1, pp. 21-30, 2004, and Y. Du, “Partial Iris Recognition Using a 1-D mApproach: Statistics and Analysis,” presented at the 2005 IEEE International Conference on Acoustics, Speech, and Signal Processing in Philadelphia.

[24] Em todos estes trabalhos, a primeira etapa de um processo reconhecimento de íris consiste da captura da imagem de olho e melhoramento da imagem adquirida.[24] In all these works, the first step of an iris recognition process consists of capturing the eye image and improving the acquired image.

[25] Em seguida, a imagem melhorada é segmentada para que a região da íris possa ser delineada. Uma revisão dos principais métodos de segmentação da região de íris utilizados no estado da técnica pode ser encontrada na tese do bacharelado de L. Masek, “Recognition of Human Íris PAtterns for Biometric Identification”, do Dept. The University of Western, Australia, de 2003.[25] Next, the enhanced image is segmented so that the iris region can be outlined. A review of the main methods of segmentation of the iris region used in the prior art can be found in L. Masek's bachelor's thesis, “Recognition of Human Iris PAtterns for Biometric Identification”, from the Dept. The University of Western, Australia, 2003.

[26] Estes métodos citados, embora altamente eficientes na localização e extração da região de íris, são em geral altamente custosos computacionalmente, comprometendo suas aplicações em tempo real.[26] These methods, although highly efficient in locating and extracting the iris region, are in general highly computationally expensive, compromising their real-time applications.

[27] A maior dificuldade do uso da íris decorre dos diversos ruídos presentes nas imagens coletadas tais como reflexos causados pela luz do ambiente, obstruções das pálpebras sobre a região da íris, presença de cílios, entre outros, problemas não solucionados nas técnicas anteriores citadas.[27] The greatest difficulty in using the iris stems from the various noises present in the images collected, such as reflections caused by ambient light, obstructions of the eyelids over the iris region, presence of eyelashes, among others, problems not solved in the aforementioned techniques. .

[28] Devido aos fatores adversos citados e outros que por ventura possam dificultar a localização da íris, há muitos estudos na literatura com o objetivo de diminuir ou eliminar tais efeitos.[28] Due to the aforementioned adverse factors and others that may make it difficult to locate the iris, there are many studies in the literature with the objective of reducing or eliminating such effects.

[29] Um exemplo neste sentido que pode ser citado é o estado da técnica descrito por Chirayuth Sreecholpech e Somying Thainimit no trabalho “A Robust Model-based Iris Segmentation”, do Laboratório de Sinais e Processamento de Imagens de Kasetsart, Departamento de Engenharia Elétrica da Universidade Kasetsart, Bangkok, Tailandia.[29] An example in this sense that can be cited is the state of the art described by Chirayuth Sreecholpech and Somying Thainimit in the work “A Robust Model-based Iris Segmentation”, from the Kasetsart Signal and Image Processing Laboratory, Department of Electrical Engineering from Kasetsart University, Bangkok, Thailand.

[30] A técnica descrita neste documento utiliza os valores estatísticos de média e do desvio padrão. A média e o desvio padrão locais são calculados utilizando-se os valores da magnitude do gradiente dos pixels de borda. Este cálculo é efetuado após a aplicação de um filtro de realce de bordas (Operadores de Sobel), apresentado no item II-A do referido documento. Os valores da média e do desvio padrão são utilizados (neste caso, na Fórmula 2 do documento em questão) em busca de máximos locais e, deste modo, modelar a íris por uma circunferência.[30] The technique described in this document uses the statistical values of mean and standard deviation. The local mean and standard deviation are calculated using the gradient magnitude values of the edge pixels. This calculation is performed after applying an edge enhancement filter (Sobel Operators), presented in item II-A of that document. The mean and standard deviation values are used (in this case, in Formula 2 of the document in question) in search of local maxima and, in this way, model the iris by a circle.

[31] Assim, o estado da técnica utiliza uma fórmula integral para detectar a fronteira, com base nos valores descritos no parágrafo anterior, ou seja, há um enorme tempo computacional gasto com a busca de um máximo local, bem como cálculos de integrais.[31] Thus, the state of the art uses an integral formula to detect the boundary, based on the values described in the previous paragraph, that is, there is a huge computational time spent searching for a local maximum, as well as performing integral calculations.

[32] Além disto, é importante ressaltar que o método descrito no estado da técnica é utilizado apenas para modelar a íris, e nenhum tratamento ou sistema adicional é proposto.[32] Furthermore, it is important to note that the method described in the prior art is used only to model the iris, and no additional treatment or system is proposed.

[33] Adicionalmente, o documento em questão também cita o uso de uma janela de 11x11 pixels utilizada sobre o gradiente de magnitude, para calcular a média local e o desvio padrão.[33] Additionally, the document in question also mentions the use of an 11x11 pixel window used over the magnitude gradient, to calculate the local mean and standard deviation.

[34] Especificamente no que se refere a pupila, uma análise na literatura demonstra que há dilatação/erosão da pupila, processo que ocorre na prática pela presença de luz. Neste caso, uma região fixa, pré-definida em valores absolutos de pixels, pode deixar de ser representativa caso haja algum processo de dilatação/erosão da pupila. Assim, se a pupila sofrer processos que alterem sua forma, a dimensão da região de busca não será alterada, podendo ocorrer erros de tratamento na imagem.[34] Specifically with regard to the pupil, an analysis in the literature demonstrates that there is pupil dilation/erosion, a process that occurs in practice due to the presence of light. In this case, a fixed region, pre-defined in absolute pixel values, may no longer be representative if there is any process of pupil dilation/erosion. Thus, if the pupil undergoes processes that change its shape, the dimension of the search region will not be altered, and image treatment errors may occur.

[35] Cabe também ressaltar que esta técnica descrita no referido documento é similar à técnica desenvolvida por John Daugman, já citado.[35] It should also be noted that this technique described in the aforementioned document is similar to the technique developed by John Daugman, cited above.

[36] Um outro documento que pode ser citado é o dos autores J. Raja Sekar, S. Arivazhagan e R. Anandha Murugan, “Methodology For Iris Segmentation and Recognition Using Multi-Resolution Transform”, publicado na Terceira Conferência Internacional em Computação Avançada (ICoAC), em 2011.[36] Another document that can be cited is that of authors J. Raja Sekar, S. Arivazhagan and R. Anandha Murugan, “Methodology For Iris Segmentation and Recognition Using Multi-Resolution Transform”, published at the Third International Conference on Advanced Computing (ICoAC), in 2011.

[37] Para localizar a pupila, a técnica descrita neste documento de 2011 utiliza três retas para encontrar as fronteiras da pupila e modela as fronteiras da íris por duas parábolas. Nos dois casos, as técnicas diminuem a precisão, qualidade e definição, o que pode resultar em erros de análise.[37] To locate the pupil, the technique described in this 2011 document uses three lines to find the pupil boundaries and models the iris boundaries by two parabolas. In both cases, the techniques decrease precision, quality, and definition, which can result in parsing errors.

[38] Adicionalmente, assim como no estado da técnica apresentado anteriormente, a região de busca é definida em termos de pixels absolutos. O mesmo problema pode estar presente: uma janela fixa pode deixar de ser representativa caso haja algum processo de dilatação/erosão da pupila.[38] Additionally, as in the prior art, the search region is defined in terms of absolute pixels. The same problem may be present: a fixed window may no longer be representative if there is some process of pupil dilation/erosion.

[39] Por fim, uma última técnica anterior a ser citada é a descrita por M. Vatsa, R. Singh e A. Noore em “Improving Iris Recognition Performance Using Segmentation, Quality Enhancement, Match Score Fusion, and Indexing”,publicado no IEEE Transactions, “Sistemas, o Homem e a Cibernética, Parte B: Cibernética” volume 38, edição 4.[39] Finally, a last prior technique to be cited is the one described by M. Vatsa, R. Singh and A. Noore in “Improving Iris Recognition Performance Using Segmentation, Quality Enhancement, Match Score Fusion, and Indexing”, published in IEEE Transactions, “Systems, Man and Cybernetics, Part B: Cybernetics” volume 38, issue 4.

[40] Os autores do artigo dividem a localização da íris em duas etapas: primeiramente, estimam sua localização modelando a íris por uma curva elíptica, e posteriormente, os autores utilizam equações para determinar com maior precisão as fronteiras da íris. Através destas equações, a fronteira é delineada ponto a ponto.[40] The authors of the article divide the location of the iris into two steps: first, they estimate its location by modeling the iris by an elliptic curve, and later, the authors use equations to more accurately determine the boundaries of the iris. Through these equations, the boundary is drawn point by point.

[41] Os autores utilizam o mesmo método para detectar a pupila e a íris, não utilizando nenhum filtro de realce de bordas, além de não utilizarem o fato de ter localizado a pupila para reduzir a região de busca da íris, conforme efetuado pela técnica proposta na presente invenção.[41] The authors use the same method to detect the pupil and the iris, not using any edge enhancement filter, in addition to not using the fact of having located the pupil to reduce the iris search region, as performed by the technique proposed in the present invention.

[42] Deste modo, a técnica descrita no artigo acarreta em uma grande necessidade de recurso computacional, bem como um alto tempo de processamento da mesma, limitando aplicações em tempo real.[42] Thus, the technique described in the article entails a great need for computational resources, as well as a high processing time, limiting real-time applications.

[43] É possível citar ainda alguns artigos relevantes do estado da técnica envolvendo a análise de íris, como por exemplo, J. G. Daugman, “How Iris Recognition Works” IEEE Trans. On Circuits and Systems for Video Technology, vol. 14, n. 1, pp. 21-30, 2004; J. Daugman, “Probing the uniqueness and randomness of IrisCodes: Results from 200 billion iris pair comparisons." Proceedings of the IEEE, vol. 94, no. 11, pp 1927-1935, 2006; ICE 2006 Report: P.Jonathon Phillips, W. Todd Scruggs, Alice J. O’Toole, Patrick J. Flynn, Kevin W. Bowyer, Cathy L. Schott, and Matthew Sharpe. "FRVT 2006 and ICE 2006 Large-Scale Results." NISTIR 7408, March 2007; L. Masek, “Recognition of Human Íris PAtterns for Biometric Identification”, bacharelado, Dept. The University of Western, Australia, 2003; R. C. Gonzáles e R. E. Woods, “Processamento de Imagens Digitais”, ed. Edgard Blücher, 2000; Y. Du, B. Bonney, R. W. Ives, D. M. Etter, e R. Schultz, “Partial Iris Recognition Using a 1-D mApproach: Statistics and Analysis,” presented at the 2005 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Philadelphia, PA, Mar 2005; R. F. L. Chavez, “Uma Proposta para Melhoria na Eficiência de um Sistema de Reconhecimento de Íris Humana”, dissertação de mestrado, Engenharia Elétrica e Computação, Dept. Comunicações, Universidade Estadual de Campinas, São Paulo, 2007; R. Wildes, “Iris Recognition: An Emerging Biometric Techology,” Proceedings of the IEEE, vol. 85, pp. 13481363, 1997; CASIA Iris Image DataBbase (ver 3.0), Institute of Automation, Chinese Academy of Sciences; Roger Fredy Larico Chavez, Yuzo Iano & Vicente Idalberto B. Sablon, “Processo de Reconhecimento de Íris Humana: localização rápida de íris”, Revista Cientifica Periódica - Telecomunicações, Vol. 09, No. 01, Novembro de 2006. Todos estes documentos compreendem, ainda, os mesmos problemas previamente citados.[43] It is also possible to cite some relevant state-of-the-art articles involving iris analysis, such as J. G. Daugman, “How Iris Recognition Works” IEEE Trans. On Circuits and Systems for Video Technology, vol. 14, no. 1, pp. 21-30, 2004; J. Daugman, “Probing the uniqueness and randomness of IrisCodes: Results from 200 billion iris pair comparisons.” Proceedings of the IEEE, vol. 94, no. 11, pp 1927-1935, 2006; ICE 2006 Report: P.Jonathon Phillips , W. Todd Scruggs, Alice J. O'Toole, Patrick J. Flynn, Kevin W. Bowyer, Cathy L. Schott, and Matthew Sharpe.“FRVT 2006 and ICE 2006 Large-Scale Results.” NISTIR 7408, March 2007; L. Masek, “Recognition of Human Iris Patterns for Biometric Identification”, BA, Dept. The University of Western, Australia, 2003; R. C. Gonzáles and R. E. Woods, “Digital Image Processing”, ed. Edgard Blücher, 2000; Y. Du, B. Bonney, R. W. Ives, D. M. Etter, and R. Schultz, “Partial Iris Recognition Using a 1-D mApproach: Statistics and Analysis,” presented at the 2005 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) , Philadelphia, PA, Mar 2005; R. F. L. Chavez, “A Proposal for Improving the Efficiency of a Human Iris Recognition System”, di Master's thesis, Electrical and Computer Engineering, Dept. Communications, State University of Campinas, São Paulo, 2007; R. Wildes, “Iris Recognition: An Emerging Biometric Techology,” Proceedings of the IEEE, vol. 85, pp. 13481363, 1997; CASIA Iris Image DataBbase (ver 3.0), Institute of Automation, Chinese Academy of Sciences; Roger Fredy Larico Chavez, Yuzo Iano & Vicente Idalberto B. Sablon, “Human Iris Recognition Process: rapid iris location”, Revista Cientifica Periódica - Telecomunicações, Vol. 09, No. 01, November 2006. All these documents also include the same problems previously mentioned.

[44] Por fim, o trabalho descrito por Brito, D. F., e Ling, L.L.,“Fast Iris Image Segmentation”, ISSNIP Biosignals and Biorobotics Conference 2010, em que são apresentadas técnicas para a segmentação de uma imagem ocular, localizando a pupila, íris e as pálpebras. É importante salientar que os métodos descritos no artigo, embora apresentem semelhanças com os métodos propostos na presente invenção, não resolvem de forma satisfatória as limitações do estado da técnica apontadas e discutidas até então, entre as quais destaca-se a localização da íris, de forma a superar as condições adversas existentes (reflexos, cílios, pálpebras, qualidade da imagem capturada em diversos ambientes etc.). Paralelamente, também há a necessidade de um balanceamento entre o custo computacional e a localização da íris, além de se procurar evitar a utilização de treinamento do sistema, principalmente em excesso.[44] Finally, the work described by Brito, D. F., and Ling, L.L., “Fast Iris Image Segmentation”, ISSNIP Biosignals and Biorobotics Conference 2010, which presents techniques for segmenting an ocular image, locating the pupil, iris and eyelids. It is important to point out that the methods described in the article, although they present similarities with the methods proposed in the present invention, do not satisfactorily resolve the limitations of the state of the art pointed out and discussed so far, among which the location of the iris, in order to overcome existing adverse conditions (reflections, eyelashes, eyelids, image quality captured in different environments, etc.). At the same time, there is also a need for a balance between the computational cost and the location of the iris, in addition to trying to avoid the use of system training, especially in excess.

[45] As principais diferenças técnicas do artigo de 2010 em relação à presente invenção estão descritas, de forma detalhada e divididas por tópicos, a seguir:[45] The main technical differences of the 2010 article in relation to the present invention are described, in detail and divided by topics, below:

Quanto a modelagem da pupila:As for pupil shaping:

[46] No artigo de 2010 assume-se o único modelo estimado como o correto, enquanto que na presente invenção há uma etapa extra, uma verificação do modelo, a qual permite verificar se o modelo estimado é satisfatório e caso não seja, são realizadas até outras duas tentativas. Esta etapa extra possibilita a correta localização da pupila em imagens mesmo sob condições mais adversas (reflexos, cílios, óculos). O aperfeiçoamento compreendido na presente invenção foi realizado justamente para o sistema funcionar com imagens mais ruidosas.[46] In the 2010 article, the only estimated model is assumed to be correct, while in the present invention there is an extra step, a model verification, which allows verifying if the estimated model is satisfactory and, if not, are performed until two more attempts. This extra step allows the correct location of the pupil in images even under the most adverse conditions (reflexes, eyelashes, glasses). The improvement comprised in the present invention was carried out precisely for the system to work with noisier images.

Quanto a técnica que modela a íris:As for the technique that models the iris:

[47] Para a localização da íris, por exemplo, as regiões utilizadas para determinar as fronteiras da íris são diferentes. Na presente invenção as regiões utilizadas são maiores.[47] For iris location, for example, the regions used to determine iris boundaries are different. In the present invention the regions used are larger.

[48] Para a determinação das fronteiras da íris, por exemplo, enquanto no artigo é possível a utilização de diversos filtros e cada filtro é aplicado na imagem, efetua-se a modelagem e então ocorre uma decisão se a íris foi detectada ou não. Já na presente invenção, 3 filtros são sempre aplicados na imagem, ocorre a modelagem e escolhe-se a melhor estimativa dentre as três.[48] For the determination of the iris boundaries, for example, while in the article it is possible to use several filters and each filter is applied to the image, the modeling is carried out and then a decision is made whether the iris was detected or not. In the present invention, 3 filters are always applied to the image, modeling takes place and the best estimate among the three is chosen.

[49] Para a detecção das pálpebras, por exemplo, as regiões de busca (neste caso, as que determinam quais pixels serão utilizados) também são diferentes: na presente invenção as regiões são menores e optou-se por uma região menor na íris pelo fato de que quando a íris está encoberta, ao modelar as fronteiras da íris, o limite da região de íris estará além da pálpebra que se deseja localizar, ou seja, os pontos da pálpebra que devem ser utilizados estão no interior da íris, cuja fronteira já foi determinada pelo método. Deste modo, não é preciso utilizar todos os pontos abaixo da fronteira da pupila até o final da imagem (como é realizado no artigo). Além disso, a redução da área de busca elimina a necessidade de utilizar pixels desnecessários, possibilitando ganho de desempenho e maior precisão na localização.[49] For eyelid detection, for example, the search regions (in this case, those that determine which pixels will be used) are also different: in the present invention the regions are smaller and a smaller region in the iris was chosen because of the fact that when the iris is covered, when modeling the borders of the iris, the limit of the iris region will be beyond the eyelid to be located, that is, the eyelid points that must be used are inside the iris, whose border has already been determined by the method. In this way, it is not necessary to use all points below the pupil boundary until the end of the image (as is done in the article). In addition, the reduction of the search area eliminates the need to use unnecessary pixels, allowing performance gains and greater precision in the location.

Quanto a localização das pálpebras:Regarding the location of the eyelids:

[50] No caso da pálpebra superior, a região de busca na presente invenção foi subdividida em três regiões e apenas duas utilizadas quando a estimativa é de uma parábola (por mínimos quadrados), tendo como objetivo não utilizar pixels que apenas irão atrapalhar a estimativa. Este detalhe não está presente e nem foi previsto no artigo de 2010, e desta forma, a alternativa proposta na presente invenção melhora consideravelmente a localização da pálpebra superior. Enquanto na presente invenção são utilizadas tanto as aproximações por mínimos quadrados por uma reta quanto por uma parábola, no artigo apenas a aproximação por uma reta é utilizada.[50] In the case of the upper eyelid, the search region in the present invention was subdivided into three regions and only two used when the estimate is a parabola (by least squares), with the objective of not using pixels that will only disturb the estimate. . This detail is not present and was not foreseen in the 2010 article, and in this way, the alternative proposed in the present invention considerably improves the location of the upper eyelid. While in the present invention both the least squares approximation by a line and a parabola are used, in the article only the approximation by a line is used.

[51] Diante do exposto acima, a presente invenção surge como uma nova solução para a segmentação de imagem de íris de modo a manter a qualidade do resultado da segmentação, porém com tempos de execução aceitáveis para reconhecimento de íris em tempo real, algo não antes previsto nas técnicas anteriores.[51] In view of the above, the present invention appears as a new solution for iris image segmentation in order to maintain the quality of the segmentation result, but with acceptable execution times for real-time iris recognition, something not previously provided for in the prior art.

BREVE DESCRIÇÃO DA INVENÇÃOBRIEF DESCRIPTION OF THE INVENTION

[52] A presente invenção refere-se a um método de segmentação de íris que compreende as etapas e sub-etapas de: (a) Adquirir uma imagem ocular; e (b) Segmentar a imagem adquirida; em que a etapa de segmentação compreende as sub-etapas de: (b1) Determinar as fronteiras da região da pupila; (b2) Determinar as fronteiras da íris; e (b3) Detectar as pálpebras.[52] The present invention relates to an iris segmentation method comprising the steps and sub-steps of: (a) Acquiring an ocular image; and (b) Segment the acquired image; wherein the segmentation step comprises the sub-steps of: (b1) Determining the boundaries of the pupil region; (b2) Determine the boundaries of the iris; and (b3) Detect the eyelids.

[53] Sendo que:[53] Since:

[54] A etapa de determinação das fronteiras da região da pupila, etapa (b1), compreende as seguintes etapas: (b1.1) Filtragem e redução dos efeitos indesejáveis; (b1.2) Realce de bordas de regiões relevantes; (b1.3) Modelagem da pupila, sendo que a referida modelagem compreende determinar, primeiramente, o parâmetro Xp, e posteriormente, os parâmetros (Yp, Rp); e (b1.4) Verificação do modelo.[54] The step of determining the boundaries of the pupil region, step (b1), comprises the following steps: (b1.1) Filtering and reducing undesirable effects; (b1.2) Edge enhancement of relevant regions; (b1.3) Modeling of the pupil, and said modeling comprises determining, first, the parameter Xp, and later, the parameters (Yp, Rp); and (b1.4) Model verification.

[55] Na etapa de filtragem e redução dos efeitos indesejáveis (b1.1), é utilizado, preferencialmente, um filtro de dimensão 15x15.[55] In the step of filtering and reducing undesirable effects (b1.1), a filter of dimension 15x15 is preferably used.

[56] Na modelagem de pupila, etapa (b1.3), a determinação do parâmetro Xp é realizada utilizando os conjuntos S3 e S4.[56] In pupil modeling, step (b1.3), the determination of the parameter Xp is performed using the sets S3 and S4.

[57] Na modelagem de pupila, etapa (b1.3), a determinação dos parâmetros (Yp, Rp) é realizada a partir do parâmetro Xp e dos conjuntos S1, S2, S3 e S4.[57] In pupil modeling, step (b1.3), the determination of the parameters (Yp, Rp) is performed from the parameter Xp and the sets S1, S2, S3 and S4.

[58] A verificação do modelo, etapa(b1.4), compreende construir uma circunferência utilizando os parâmetros (Yp, Xp) e Rp; e verificar se um percentual mínimo de pontos da circunferência corresponde a pixels de borda na imagem, sendo que quando não é verificado um percentual mínimo de pontos da circunferência correspondente a pixels de borda na imagem, retorna-se a etapa (b1.2) utilizando-se novos valores para o limiar de corte utilizado para a criação da imagem binária, em que o referido limiar de corte compreende valores entre 20 e 150. Alternativamente, quando não é verificado um percentual mínimo de pontos da circunferência correspondente aos pixels de borda da imagem, pode-se, retornar à etapa (b1.1), utilizando-se pelo menos um filtro selecionado dentre um filtro de dimensões 9x9 e um filtro de dimensões 21x21.[58] The model verification, step (b1.4), comprises building a circle using the parameters (Yp, Xp) and Rp; and verify if a minimum percentage of points on the circumference corresponds to edge pixels in the image, and when a minimum percentage of points on the circumference corresponding to edge pixels in the image is not verified, step (b1.2) is returned using New values for the cutoff threshold used for the creation of the binary image are created, in which said cutoff threshold comprises values between 20 and 150. Alternatively, when a minimum percentage of points of the circumference corresponding to the edge pixels of the image, you can return to step (b1.1), using at least one filter selected from a filter with dimensions 9x9 and a filter with dimensions 21x21.

[59] A determinação das fronteiras da íris, etapa (b2), compreende as seguintes etapas: (b2.1) Determinação das regiões de busca e processo de filtragem; (b2.2) Realce de bordas de regiões relevantes; (b2.3) Modelagem da íris; e (b2.4) Escolha do melhor modelo.[59] The determination of the iris boundaries, step (b2), comprises the following steps: (b2.1) Determination of the search regions and filtering process; (b2.2) Edge enhancement of relevant regions; (b2.3) Modeling of the iris; and (b2.4) Choice of the best model.

[60] A determinação das regiões relevantes, etapa (b2.1), é realizada utilizando os parâmetros (Xp, Yp) e Rp.[60] The determination of the relevant regions, step (b2.1), is performed using the parameters (Xp, Yp) and Rp.

[61] A modelagem da íris compreende estimar os parâmetros do centro (Xi, Yi) e o raio Ri.[61] Iris modeling comprises estimating the parameters of the center (Xi, Yi) and the radius Ri.

[62] A escolha do melhor modelo, etapa (b2.4), compreende escolher a melhor estimativa para os parâmetros procurados, (Xi, Yi) e Ri utilizando as equações

Figure img0001
[62] The choice of the best model, step (b2.4), comprises choosing the best estimate for the parameters sought, (Xi, Yi) and Ri using the equations
Figure img0001

[63] A detecção das pálpebras, etapa (b3), compreende as seguintes etapas: (b3.1) Determinação de regiões de busca das pálpebras; (b3.2) Realce de bordas das regiões determinadas na etapa (b3.1); e (b3.3) Determinação das curvas das fronteiras das pálpebras.[63] Detection of eyelids, step (b3), comprises the following steps: (b3.1) Determination of eyelid search regions; (b3.2) Edge enhancement of the regions determined in step (b3.1); and (b3.3) Determination of eyelid boundary curves.

[64] Na etapa de realce de bordas (b3.2), é utilizado, preferencialmente, um filtro da mediana de dimensão 15x15.[64] In the edge enhancement step (b3.2), a median filter of dimension 15x15 is preferably used.

[65] Ainda, a presente invenção descreve um método de autenticação biométrico que compreende as etapas e subetapas de: (a) Adquirir uma imagem ocular; (b) Segmentar a imagem adquirida; em que a etapa de segmentação compreende as sub-etapas de: (b1) Determinar as fronteiras da região da pupila; (b2) Determinar as fronteiras da íris; e (b3) Detecção das pálpebras. (c) Normalizar a região da íris segmentada; (d) Extrair características relevantes, da íris normalizada; (e) (re) Registro; e (f) (au) Autenticação;[65] Further, the present invention describes a biometric authentication method comprising the steps and sub-steps of: (a) Acquiring an eye image; (b) Segment the acquired image; wherein the segmentation step comprises the sub-steps of: (b1) Determining the boundaries of the pupil region; (b2) Determine the boundaries of the iris; and (b3) Detection of eyelids. (c) Normalize the segmented iris region; (d) Extract relevant features from the normalized iris; (e) (re) Registration; and (f) (au) Authentication;

[66] Obviamente, tal método de autenticação biométrico autentica um usuário caso a comparação na etapa f seja positiva, e não autentica um usuário caso a comparação na etapa f seja negativa.[66] Obviously, such a biometric authentication method authenticates a user if the comparison in step f is positive, and does not authenticate a user if the comparison in step f is negative.

[67] Por fim, é previsto também pela presente invenção um sistema de autenticação biométrico que compreende um meio de aquisição de uma imagem ocular; um controlador configurado de modo a segmentar a imagem ocular adquirida para localização da pupila, da íris e das pálpebras; extrair a região da íris, normalizar a região da íris extraída; amostrar as características relevantes da região da íris normalizada; e armazenar as características relevantes em uma memória, e posteriormente adquirir uma nova imagem ocular, segmentar a imagem ocular adquirida, normalizar a imagem da íris segmentada, extrair características relevantes da íris da imagem da íris normalizada e comparar as características relevantes extraídas com as características armazenadas na memória.[67] Finally, the present invention also provides a biometric authentication system that comprises a means for acquiring an eye image; a controller configured so as to segment the acquired eye image to locate the pupil, iris and eyelids; extract the iris region, normalize the extracted iris region; sample the relevant features of the normalized iris region; and store the relevant features in a memory, then acquire a new eye image, segment the acquired eye image, normalize the segmented iris image, extract relevant iris features from the normalized iris image, and compare the relevant extracted features with the stored features in the memory.

[68] Novamente, o sistema de autenticação biométrico, autentica um usuário caso a comparação seja positiva e não autentica um usuário caso a comparação seja negativa.[68] Again, the biometric authentication system authenticates a user if the match is positive and does not authenticate a user if the match is negative.

[69] O método de análise e autenticação descrita na presente invenção compreende etapas e sub-etapas, sendo que parte destas, especialmente às que se referem a segmentação de imagem de íris, são responsáveis por possibilitar uma diminuição no custo e tempo computacional, com a vantagem que as etapas seguintes são efetuadas levando-se em consideração os resultados da etapa anterior. Assim, é possível eliminar grande parte do processamento de imagem de regiões desnecessárias para segmentar a imagem.[69] The analysis and authentication method described in the present invention comprises steps and sub-steps, and part of these, especially those referring to iris image segmentation, are responsible for enabling a reduction in cost and computational time, with the advantage that the following steps are carried out taking into account the results of the previous step. Thus, it is possible to eliminate much of the image processing of unnecessary regions to segment the image.

[70] Ainda, o método proposto evita a necessidade do uso de técnicas que envolvam aprendizado de máquina. O fato de existirem inúmeros ambientes de captura da imagem e não ser possível um total controle tornaria necessário um constante treinamento com o uso de tais técnicas.[70] Furthermore, the proposed method avoids the need to use techniques that involve machine learning. The fact that there are numerous image capture environments and that total control is not possible would make constant training in the use of such techniques necessary.

[71] Além disto, seria necessária uma quantidade significativa de imagens para treinamento, o que inviabilizaria o uso de um sistema biométrico em alguns casos, como em uma pequena empresa onde não há uma quantidade de funcionários suficiente para obter-se o número mínimo de imagens para o treinamento, como é necessário em diversas técnicas propostas previamente citadas.[71] In addition, a significant amount of images would be needed for training, which would make the use of a biometric system unfeasible in some cases, such as in a small company where there is not a sufficient number of employees to obtain the minimum number of images for training, as is necessary in several previously mentioned proposed techniques.

[72] Como a biometria por íris compreende algumas particularidades que faz com que a íris apresente muitas vantagens em relação aos demais tipos biométricos, como, por exemplo, o fato de que cada pessoa possui um padrão de íris altamente constante, que se mantém-se relativamente estável ao longo da vida do ser humano, ao contrário de outros sinais biométricos, não há contato físico com o leitor, a coleta da imagem é realizada de forma rápida e sem constrangimentos para a pessoa, a íris, em termos da qualidade de atributos biométricos, satisfaz largamente as qualificações exigidas de um sistema biométrico de altíssimo nível, a biometria de íris supera a maioria dos outros métodos biométricos em termos de sua alta precisão, robustez e confiabilidade, entre outros, e nesse contexto, a presente invenção compreende diversas vantagens em relação à outras técnicas de biometria.[72] As iris biometry comprises some particularities that make the iris have many advantages over other biometric types, such as the fact that each person has a highly constant iris pattern, which remains constant. if relatively stable throughout the life of the human being, unlike other biometric signs, there is no physical contact with the reader, the image collection is carried out quickly and without constraints for the person, the iris, in terms of the quality of biometric attributes, largely satisfies the qualifications required of a very high level biometric system, iris biometrics outperforms most other biometric methods in terms of its high accuracy, robustness and reliability, among others, and in this context, the present invention comprises several advantages over other biometrics techniques.

[73] Deste modo, a presente invenção soluciona os problemas do estado da técnica ao descrever uma nova solução para a segmentação de imagem de íris, que mantém a qualidade do resultado da segmentação, e compreende ainda tempos de execução para reconhecimento de íris que possibilitam seu uso em tempo real.[73] Thus, the present invention solves the problems of the prior art by describing a new solution for the segmentation of iris image, which maintains the quality of the segmentation result, and also comprises runtimes for iris recognition that allow its use in real time.

BREVE DESCRIÇÃO DOS DESENHOSBRIEF DESCRIPTION OF THE DRAWINGS

[74] A figura 1A é uma representação de uma imagem original obtida por um sistema de aquisição de imagem qualquer.[74] Figure 1A is a representation of an original image obtained by any image acquisition system.

[75] A figura 1B é uma representação de uma imagem após o realce de bordas sem a aplicação do filtro de mediana na imagem original da figura 1A.[75] Figure 1B is a representation of an image after edge enhancement without applying the median filter on the original image of Figure 1A.

[76] A figura 1C é uma representação de uma imagem após o realce de bordas com a aplicação de um filtro de mediana 15x15 na imagem original da figura 1A.[76] Figure 1C is a representation of an image after edge enhancement with the application of a 15x15 median filter on the original image of Figure 1A.

[77] A figura 1D é uma representação de uma imagem após o realce de bordas com a aplicação de um filtro de mediana 25x25 na imagem original da figura 1A.[77] Figure 1D is a representation of an image after edge enhancement with the application of a 25x25 median filter on the original image of figure 1A.

[78] A figura 2 é um exemplo de uma matriz da aplicação de um filtro de mediana de tamanho 3x3.[78] Figure 2 is an example of a matrix of the application of a median filter of size 3x3.

[79] A figura 3 é um exemplo de um histograma de uma imagem original obtida por um sistema de aquisição de imagem qualquer.[79] Figure 3 is an example of a histogram of an original image obtained by any image acquisition system.

[80] A figura 4A é uma representação de uma imagem original obtida por um sistema de aquisição de imagem qualquer.[80] Figure 4A is a representation of an original image obtained by any image acquisition system.

[81] A figura 4B é uma representação de uma imagem após aplicação do filtro da mediana de dimensão 9 x 9 na imagem original da figura 4A.[81] Figure 4B is a representation of an image after applying the 9 x 9 dimensional median filter on the original image of figure 4A.

[82] A figura 4C é uma representação de uma imagem após aplicação do limiar de corte na imagem da figura 4B.[82] Figure 4C is a representation of an image after applying the cut-off threshold to the image of Figure 4B.

[83] A figura 4D é uma representação de uma imagem após realce de bordas, cálculo do gradiente e novo limiar de corte na imagem da figura 4C.[83] Figure 4D is a representation of an image after edge enhancement, gradient calculation and new cut threshold in the image of figure 4C.

[84] A figura 4E é uma representação de uma imagem após a remoção das falsas bordas criadas pela aplicação do filtro na imagem da figura 4D.[84] Figure 4E is a representation of an image after removing the false edges created by applying the filter on the image in Figure 4D.

[85] A figura 4F é uma representação da região da pupila detectada da imagem original após as sub-etapas realizadas nas figuras 4A a 4E.[85] Figure 4F is a representation of the detected pupil region of the original image after the sub-steps performed in Figures 4A to 4E.

[86] A figura 5 é uma tabela que ilustra a definição dos pontos que delimitam as regiões de busca, na ordem (linha, coluna).[86] Figure 5 is a table that illustrates the definition of the points that delimit the search regions, in the order (row, column).

[87] A figura 6 é uma representação de uma imagem que ilustra as duas regiões cujos pixels serão utilizados para determinar a localização da íris.[87] Figure 6 is a representation of an image that illustrates the two regions whose pixels will be used to determine the location of the iris.

[88] A figura 7 é uma tabela que ilustra a definição dos pontos que delimitam as regiões de busca das pálpebras, na ordem (linha, coluna).[88] Figure 7 is a table that illustrates the definition of the points that delimit the eyelid search regions, in the order (row, column).

[89] A figura 8A é uma ilustração das regiões de busca da pálpebra superior.[89] Figure 8A is an illustration of the upper eyelid search regions.

[90] A figura 8B é uma ilustração das regiões de busca da pálpebra inferior.[90] Figure 8B is an illustration of the lower eyelid scan regions.

[91] A figura 9A é uma representação de uma imagem original obtida por um sistema de aquisição de imagem qualquer em que o método da presente invenção é realizado.[91] Figure 9A is a representation of an original image obtained by any image acquisition system in which the method of the present invention is carried out.

[92] A figura 9B é uma representação de uma imagem contendo as sub-regiões no interior da região de busca da pálpebra superior de acordo com uma configuração preferencial da presente invenção.[92] Figure 9B is a representation of an image containing the sub-regions within the upper eyelid search region according to a preferred embodiment of the present invention.

[93] A figura 9C é uma representação de uma imagem binária contendo a região de busca com os pixels utilizados na aproximação realçados de acordo com uma configuração preferencial da presente invenção.[93] Figure 9C is a representation of a binary image containing the search region with the pixels used in the approximation highlighted according to a preferred embodiment of the present invention.

[94] A figura 9D é uma representação de uma imagem original com as aproximações por uma reta e uma parábola para a pálpebra superior de acordo com uma configuração preferencial da presente invenção.[94] Figure 9D is a representation of an original image with approximations by a straight line and a parabola for the upper eyelid according to a preferred embodiment of the present invention.

[95] A figura 9E é uma representação de uma imagem original com a região de busca em destaque (binária) e os pixels utilizados na aproximação realçados de acordo com uma configuração preferencial da presente invenção.[95] Figure 9E is a representation of an original image with the search region highlighted (binary) and the pixels used in the approximation highlighted according to a preferred embodiment of the present invention.

[96] A figura 9F é uma representação de uma imagem original com os pixels utilizados na aproximação realçados de acordo com uma configuração preferencial da presente invenção.[96] Figure 9F is a representation of an original image with the pixels used in the approximation highlighted in accordance with a preferred embodiment of the present invention.

[97] A figura 9G é uma representação de uma imagem original com as aproximações por uma reta e uma parábola para a pálpebra inferior de acordo com uma configuração preferencial da presente invenção.[97] Figure 9G is a representation of an original image with approximations by a straight line and a parabola for the lower eyelid according to a preferred embodiment of the present invention.

[98] A figura 10 é uma representação do mapeamento da região da íris para um formato normalizado.[98] Figure 10 is a representation of the mapping of the iris region to a normalized format.

[99] A figura 11A é uma representação de uma região de íris modelada por uma circunferência para uma imagem de referência.[99] Figure 11A is a representation of an iris region modeled by a circle for a reference image.

[100] A figura 11B é uma representação de uma região da iria modelada por uma circunferência para uma imagem candidata.[100] Figure 11B is a representation of a region of the iris modeled by a circle for a candidate image.

[101] A figura 12A é uma representação de uma imagem original obtida por um sistema de aquisição de imagem qualquer em que o método da presente invenção foi realizado, resultando nas regiões da pupila e íris em realce, bem como na reta e parábola da pálpebra superior de acordo com uma configuração preferencial da presente invenção.[101] Figure 12A is a representation of an original image obtained by any image acquisition system in which the method of the present invention was performed, resulting in the pupil and iris regions highlighted, as well as the eyelid line and parabola. upper according to a preferred embodiment of the present invention.

[102] A figura 12B é uma representação de uma imagem contendo pixels da região da íris amostrados de acordo com uma configuração preferencial da presente invenção.[102] Figure 12B is a representation of an image containing pixels from the iris region sampled in accordance with a preferred embodiment of the present invention.

[103] A figura 12C é uma representação de uma imagem contendo as amostras de pixel descartadas como ruído de acordo com uma configuração preferencial da presente invenção.[103] Figure 12C is a representation of an image containing the pixel samples discarded as noise according to a preferred embodiment of the present invention.

[104] A figura 12D é uma representação de uma imagem contendo as amostras de pixels efetivamente utilizadas de acordo com uma configuração preferencial da presente invenção.[104] Figure 12D is a representation of an image containing the pixel samples actually used according to a preferred embodiment of the present invention.

[105] A figura 12E é uma representação de uma imagem original em que o método da presente invenção foi realizado, resultando nas regiões de pálpebras localizadas de acordo com uma configuração preferencial da presente invenção.[105] Figure 12E is a representation of an original image in which the method of the present invention was performed, resulting in eyelid regions located in accordance with a preferred embodiment of the present invention.

[106] A figura 12F é uma representação de uma imagem original com os pixels da região da íris amostrados de acordo com uma configuração preferencial da presente invenção.[106] Figure 12F is a representation of an original image with pixels from the iris region sampled in accordance with a preferred embodiment of the present invention.

[107] A figura 12G é uma representação de uma imagem original com os pixels da região da pupila removidos de acordo com uma configuração preferencial da presente invenção.[107] Figure 12G is a representation of an original image with pixels from the pupil region removed in accordance with a preferred embodiment of the present invention.

[108] A figura 12H é uma representação de uma região da íris extraída de uma imagem original. Os pixels desta região serão amostrados para a construção da imagem normalizada.[108] Figure 12H is a representation of an iris region extracted from an original image. The pixels of this region will be sampled for the construction of the normalized image.

DESCRIÇÃO DETALHADA DA INVENÇÃODETAILED DESCRIPTION OF THE INVENTION

[109] Um sistema de reconhecimento biométrico, normalmente, possui as seguintes etapas: adquirir uma imagem ocular, segmentar a imagem adquirida), normalizar a região da íris segmentada, extrair características relevantes da íris normalizada), (Registro/Autenticação).[109] A biometric recognition system normally has the following steps: acquire an eye image, segment the acquired image), normalize the segmented iris region, extract relevant features from the normalized iris), (Registration/Authentication).

[110] A etapa de aquisição, também conhecida na literatura como captura, tem como objetivo coletar a imagem do olho da pessoa a ser identificada. Para isto, preferencialmente são utilizados sensores ópticos e/ou infravermelhos.[110] The acquisition step, also known in the literature as capture, aims to collect the image of the eye of the person to be identified. For this, optical and/or infrared sensors are preferably used.

[111] A próxima etapa consiste na detecção da pupila e esta pode ser dividida em quatro sub-etapas: (b1.1) Filtragem e redução dos efeitos indesejáveis; (b1.2) Realce de bordas de regiões relevantes; (b1.3) Modelagem da pupila; e (b1.4) Verificação do modelo.[111] The next step is pupil detection and this can be divided into four sub-steps: (b1.1) Filtering and reducing undesirable effects; (b1.2) Edge enhancement of relevant regions; (b1.3) Pupil modeling; and (b1.4) Model verification.

[112] Deste modo, a imagem original de entrada passa por um processo de filtragem e redução dos efeitos indesejáveis. Em seguida, com o objetivo de realçar as bordas, ocorre a aplicação da técnica Gradiente sobre a imagem filtrada. No passo seguinte, aplica-se um limiar de corte sobre a imagem com as bordas realçadas e gera-se uma imagem binária. Os parâmetros do modelo circular são estimados utilizando-se a imagem binária.[112] In this way, the original input image undergoes a process of filtering and reducing undesirable effects. Then, in order to enhance the edges, the Gradient technique is applied on the filtered image. In the next step, a cut threshold is applied to the image with the edges highlighted and a binary image is generated. The parameters of the circular model are estimated using the binary image.

[113] Por este motivo, o procedimento de estimação de parâmetros pode ser executado repetidamente até ser interrompido por uma de duas condições: (1) um resultado satisfatório é obtido; (2) efetuou-se um limite máximo de tentativas; neste caso, opta-se pela melhor estimativa.[113] For this reason, the parameter estimation procedure can be performed repeatedly until interrupted by one of two conditions: (1) a satisfactory result is obtained; (2) a maximum number of attempts was made; in this case, the best estimate is chosen.

[114] É importante notar que, mesmo com óculos e interferência por reflexos, o método proposto é robusto o suficiente em detecção de pupila com sucesso.[114] It is important to note that even with glasses and reflex interference, the proposed method is robust enough in successful pupil detection.

[115] A sub-etapa de filtragem e redução dos efeitos indesejáveis consiste em aplicar, utilizando máscaras de convolução, um filtro da mediana sobre toda a imagem de entrada. Há três objetivos principais: — Eliminação dos ruídos adquiridos durante a aquisição da imagem; — Redução de reflexos na região da pupila; e — Eliminação da textura da íris.[115] The sub-step of filtering and reducing undesirable effects consists of applying, using convolution masks, a median filter over the entire input image. There are three main objectives: — Elimination of noise acquired during image acquisition; — Reduction of reflexes in the pupil region; and — Elimination of iris texture.

[116] Testes efetuados para a tecnologia em questão demonstraram ser fundamental reduzir ou eliminar os reflexos presentes na região da pupila, caso contrário a modelagem circular pode não ser eficiente.[116] Tests carried out for the technology in question have shown that it is essential to reduce or eliminate the reflexes present in the pupil region, otherwise circular modeling may not be efficient.

[117] Outra função do filtro da mediana é a eliminação da textura da íris no processo de detecção da pupila. A presença da textura da íris pode criar falsas bordas, quando aplicada a técnica de realce de bordas.[117] Another function of the median filter is to eliminate iris texture in the pupil detection process. The presence of iris texture can create false edges when applying the edge enhancement technique.

[118] As figuras 1A a 1D ilustram o realce de bordas após a aplicação de um limiar de corte, com e sem o processo de filtragem. Ao analisá-las, é possível verificar a importância da aplicação do filtro para eliminar a textura da íris para fins de segmentação, uma vez que pontos de bordas no interior da íris, principalmente ao redor da pupila, foram eliminados.[118] Figures 1A to 1D illustrate edge enhancement after applying a cut-off threshold, with and without the filtering process. By analyzing them, it is possible to verify the importance of applying the filter to eliminate the iris texture for segmentation purposes, since edge points inside the iris, mainly around the pupil, were eliminated.

[119] A aplicação do filtro da mediana consiste em, considerando a adjacência de um pixel p da imagem original de entrada, ordenar em ordem crescente de valor de brilho os n x n pixels vizinhos de p.[119] The application of the median filter consists of, considering the adjacency of a pixel p of the original input image, ordering in increasing order of brightness value the n x n pixels neighboring p.

[120] Após isto, para formar a imagem filtrada, o valor de brilho da posição de p na nova imagem será o valor de brilho mediano dentre os n x n ordenados.[120] After that, to form the filtered image, the brightness value of the position of p in the new image will be the median brightness value among the ordered n x n.

[121] A figura 2 mostra a aplicação do filtro da mediana de tamanho 3 x 3. São representados alguns valores de pixels da imagem original, sendo o pixel p (central, com brilho igual a 10 na matriz 5 x 5). Ordenam-se os valores dos brilhos da adjacência de p e escolhe-se o valor mediano para formar a nova imagem.[121] Figure 2 shows the application of the 3 x 3 median filter. Some pixel values of the original image are represented, being the p pixel (central, with brightness equal to 10 in the 5 x 5 matrix). The values of the adjacency brightness of p are ordered and the median value is chosen to form the new image.

[122] Foram testados filtros com diversos tamanhos distintos. Porém, os melhores resultados foram obtidos com os filtros de dimensões 9 x 9, 15 x 15 e 21 x 21. De fato, quando necessário, mais de um filtro pode ser utilizado no processo. No entanto, preferencialmente inicia-se com o filtro de tamanho 15 x 15.[122] Filters with several different sizes were tested. However, the best results were obtained with filters of dimensions 9 x 9, 15 x 15 and 21 x 21. In fact, when necessary, more than one filter can be used in the process. However, preferably you start with the 15 x 15 size filter.

[123] O tamanho do filtro influencia na redução dos efeitos indesejados. É possível que, ao utilizar um filtro de certo tamanho, pequenos reflexos possam persistir, enquanto os mesmos reflexos são totalmente eliminados por filtros de outros tamanhos. A decisão sobre a utilização de 1, 2 ou 3 filtros será explicada posteriormente.[123] The size of the filter influences the reduction of unwanted effects. It is possible that when using a filter of a certain size, small reflections may persist, while the same reflections are completely eliminated by filters of other sizes. The decision on whether to use 1, 2 or 3 filters will be explained later.

[124] Já a sub-etapa de realce de bordas de regiões relevantes tem como principal objetivo isolar a região da pupila do restante da imagem. Para isto, estima-se o melhor limiar (threshold) de corte para a criação de uma imagem binária. O limiar de corte é obtido baseado na distribuição dos níveis de cinza da imagem filtrada pelo filtro da mediana. Em outras palavras, o limiar de corte escolhido deve ser capaz de preservar o máximo possível a qualidade e informação original da área da pupila.[124] On the other hand, the sub-step of enhancing edges of relevant regions aims to isolate the pupil region from the rest of the image. For this, the best cut-off threshold for the creation of a binary image is estimated. The cutoff threshold is obtained based on the distribution of gray levels of the image filtered by the median filter. In other words, the chosen cut-off threshold should be able to preserve as much as possible the original quality and information of the pupil area.

[125] Deste modo, o resultado de investigações empíricas, realizadas com diversos bancos de dados disponíveis na literatura, revelou que as imagens oculares em nível de cinza possuem um formato de histograma similar ao ilustrado na figura 3.[125] Thus, the result of empirical investigations, carried out with several databases available in the literature, revealed that the gray level eye images have a histogram format similar to that illustrated in Figure 3.

[126] Como se pode observar, existem três máximos locais localizados nos seguintes intervalos de níveis de cinza: [0-150], [150-200], [200-255]. O primeiro, segundo e terceiro máximos da função distribuição são resultados constituídos basicamente pelos pixels localizados na pupila, íris e esclerótica, respectivamente.[126] As can be seen, there are three local maxima located in the following gray level ranges: [0-150], [150-200], [200-255]. The first, second and third maxima of the distribution function are results basically constituted by the pixels located in the pupil, iris and sclera, respectively.

[127] São realizadas três sub-etapas para o realce das bordas da pupila: (1) sobre a imagem filtrada, aplicar um limiar de corte, denominado de limiar base, e gerar uma imagem binária que contém, dentre outros elementos, a região da pupila; (2) realçar as bordas; e (3) aplicar um segundo limiar de corte, gerando a imagem binária que conterá as bordas da pupila realçadas.[127] Three sub-steps are performed to enhance the edges of the pupil: (1) on the filtered image, apply a cut threshold, called base threshold, and generate a binary image that contains, among other elements, the region of the pupil; (2) enhance edges; and (3) applying a second cut threshold, generating the binary image that will contain the highlighted pupil edges.

[128] O valor do limiar base será o nível de cinza tal que, dado o número total de pixels com valores de níveis de cinza inferiores a este, o total equivale a 70% de todos os pixels que possuam níveis de cinza inferiores a 150. Seja S o número total de pixels com valores inferiores a 150 (primeiro intervalo do histograma), o limiar é o nível de cinza de menor valor que satisfaça a equação:

Figure img0002
[128] The base threshold value will be the gray level such that, given the total number of pixels with gray level values lower than this, the total is equivalent to 70% of all pixels that have gray levels below 150 Let S be the total number of pixels with values less than 150 (first range of the histogram), the threshold is the lowest gray level that satisfies the equation:
Figure img0002

[129] Posteriormente, também é realizada uma etapa de verificação dos parâmetro estimados. Assim, novos limiares a partir do limiar base podem ser testados, se necessário. O valor de 70% foi determinado empiricamente após a análise dos resultados de teste com diversos bancos de dados disponíveis na literatura. Esta porcentagem foi escolhida de forma a contra balancear três critérios: (1) o tempo de processamento; (2) limiares testados; e (3) taxa de correta localização da pupila. É importante ressaltar que este valor é válido para imagens oculares em nível de cinza, não sendo dependente do leitor ou do banco de dados.[129] Subsequently, a verification step of the estimated parameters is also performed. Thus, new thresholds from the base threshold can be tested if necessary. The value of 70% was empirically determined after analyzing the test results with several databases available in the literature. This percentage was chosen to counterbalance three criteria: (1) processing time; (2) tested thresholds; and (3) rate of correct pupil location. It is important to emphasize that this value is valid for eye images in gray level, not being dependent on the reader or the database.

[130] Deste modo, esta sub-etapa tem como objetivo separar os objetos de interesse (pupila) do restante da imagem (fundo). Como previamente descrito, o valor do limiar utilizado é determinado da análise sobre o histograma dos níveis de cinza, que geralmente é uma análise automática realizada por um elemento de controle.[130] Thus, this sub-step aims to separate the objects of interest (pupil) from the rest of the image (background). As previously described, the threshold value used is determined from the analysis on the gray level histogram, which is usually an automatic analysis performed by a control element.

[131] O valor preferencial de 70% pode ser determinado por meio de um estudo sobre os resultados obtidos variando o limiar no intervalo 50-100% com objetivo de preservar o máximo possível à integridade da região da pupila.[131] The preferred value of 70% can be determined by studying the results obtained by varying the threshold in the 50-100% range in order to preserve the integrity of the pupil region as much as possible.

[132] Preferencialmente, os valores abaixo do limiar terão seu valor alterado para 0 (preto) e serão considerados como pertencentes a algum objeto e acima para 255 (branco) e serão considerados como pixels de fundo. O intervalo para calcular S foi definido de 0 - 150 devido às características da pupila. Empiricamente, observando a pupila foi verificado que geralmente elas não possuem pixels com valor de brilho maior do que 150.[132] Preferably, values below the threshold will have their value changed to 0 (black) and will be considered as belonging to some object and above to 255 (white) and will be considered as background pixels. The range for calculating S was set from 0 - 150 due to pupil characteristics. Empirically, observing the pupil, it was verified that they generally do not have pixels with a brightness value greater than 150.

[133] Uma vez determinado o limiar de corte gera-se uma imagem binária, Ib. Sobre esta imagem binária aplica-se a técnica de realce de bordas utilizando os operadores de Sobel, representado pela equação abaixo.

Figure img0003
[133] Once the cut-off threshold is determined, a binary image is generated, Ib. On this binary image, the edge enhancement technique is applied using the Sobel operators, represented by the equation below.
Figure img0003

[134] Para o realce de bordas, o valor de gradient utilizado é dado pela equação

Figure img0004
. Após estas etapas tem-se uma nova imagem nomeada de Ir. Paralelamente ao realce de bordas, constrói-se uma imagem Ia que contém o valor do ângulo gradiente para cada posição, determinado pela equação
Figure img0005
. Sobre a imagem Ib aplica-se um novo limiar cujo valor é dado pela equação
Figure img0006
. A imagem resultante conterá as bordas da pupila e outros elementos que não interferem na localização da pupila, enquanto o limiar de corte definido anteriormente tinha por objetivo preservar os pixels da região da pupila, este segundo limiar tem por objetivo preservar os pixels da borda da região da pupila. As figuras 4A a 4F ilustram os resultados obtidos em cada etapa.[134] For edge enhancement, the gradient value used is given by the equation
Figure img0004
. After these steps, we have a new image named Ir. Parallel to the edge enhancement, an image Ia is constructed that contains the value of the gradient angle for each position, determined by the equation
Figure img0005
. A new threshold is applied to the image Ib, whose value is given by the equation
Figure img0006
. The resulting image will contain the edges of the pupil and other elements that do not interfere with the location of the pupil, while the cut threshold defined previously was intended to preserve the pixels of the pupil region, this second threshold aims to preserve the pixels of the edge of the region. of the pupil. Figures 4A to 4F illustrate the results obtained at each stage.

[135] Após a etapa de detecção da pupila, é realizada a etapa de modelagem da pupila. A determinação das fronteiras da região da pupila é realizada,preferencialmente, por meio da modelagem circular, que consiste em estimar os parâmetros de uma circunferência com centro (Xp,Yp) e raio Rp.[135] After the pupil detection step, the pupil shaping step is performed. The determination of the boundaries of the pupil region is carried out, preferably, through circular modeling, which consists of estimating the parameters of a circle with center (Xp,Yp) and radius Rp.

[136] Para isto, são utilizadas as imagens Ib e Ia, obtidas conforme descritas anteriormente. Os pixels das bordas realçadas, contidos em Ib, são inicialmente agrupados em 4 grupos, nominalmente, S1, S2, S3 e S4. Os grupos são formados de acordo com os valores de ângulos gradientes dos pixels de bordas realçadas. Os valores de ângulos gradientes estão contidos em Ia. Cada grupo representa um dos quatro quadrantes: Qi: [0,90°); Q2: [90,180°); Q3: [180,270°); Q4: [270,360°]. Um pixel de borda realçada pertencerá ao quadrante Qi, e consequentemente ao grupo Si, quando seu ângulo gradiente possuir um valor correspondente.[136] For this, images Ib and Ia are used, obtained as described above. The pixels of the highlighted edges, contained in Ib, are initially grouped in 4 groups, namely, S1, S2, S3 and S4. The groups are formed according to the gradient angle values of the highlighted edge pixels. Gradient angle values are contained in Ia. Each group represents one of the four quadrants: Qi: [0.90°); Q2: [90.180°); Q3: [180.270°); Q4: [270,360°]. A highlighted edge pixel will belong to the Qi quadrant, and consequently to the Si group, when its gradient angle has a corresponding value.

[137] Uma vez determinados os quatro grupos, a estimativa dos parâmetros da circunferência consiste na busca por dois pontos da circunferência capaz de fornecer o valor de Rp o mais fiel possível. Ou seja, dois pontos separados por uma distância equivalente ao diâmetro da circunferência. Sendo este o caso, é esperado que o ponto médio indica a posição do centro da circunferência procurada, (Xp,Yp).[137] Once the four groups have been determined, the estimation of the circumference parameters consists of the search for two points on the circumference capable of providing the most faithful Rp value possible. That is, two points separated by a distance equivalent to the diameter of the circle. This being the case, it is expected that the midpoint indicates the position of the center of the sought-after circle, (Xp,Yp).

[138] Operacionalmente, para que a estimativa seja a mais precisa e confiável possível, a busca é feita com todos os possíveis pares de pontos de quadrantes opostos. Uma vez formados todos os pares, é calculado o ponto médio e a distância entre os pontos de cada par. Deste modo, (Xp,Yp) e Rp são determinados por valores mais prováveis, ou seja, aqueles com a maior frequência de ocorrência, são considerados o centro e o diâmetro da circunferência procurada. É trivial notar que o valor de Rp será metade do valor da distância mais provável.[138] Operationally, in order for the estimate to be as accurate and reliable as possible, the search is performed with all possible pairs of points from opposite quadrants. Once all the pairs are formed, the midpoint and the distance between the points of each pair are calculated. In this way, (Xp,Yp) and Rp are determined by the most likely values, that is, those with the highest frequency of occurrence are considered the center and diameter of the sought-after circle. It is trivial to note that the value of Rp will be half the value of the most likely distance.

[139] Este método de estimação de parâmetros é susceptível somente a ruído de borda quando não é possível formar conjuntos de quadrantes opostos. Este caso é extremamente raro, uma vez que, em geral, o ruído do tipo reflexo atinge apenas parte da borda da pupila, obstruindo parcialmente as bordas de um quadrante.[139] This parameter estimation method is only susceptible to edge noise when it is not possible to form sets of opposing quadrants. This case is extremely rare since, in general, reflex-type noise reaches only part of the edge of the pupil, partially obstructing the edges of a quadrant.

[140] No entanto, outro tipo de interferência altamente prejudicial ocorre quando a imagem ocular adquirida está obstruída pela pálpebra superior encobrindo uma parte considerável da pupila. Nesse caso, o algoritmo anterior é melhorado com capacidade adicional solucionando este tipo de problema. Assim sendo, o algoritmo resultante é altamente eficiente e robusto.[140] However, another type of highly harmful interference occurs when the acquired ocular image is obstructed by the upper eyelid covering a considerable part of the pupil. In this case, the previous algorithm is improved with additional capacity to solve this type of problem. Therefore, the resulting algorithm is highly efficient and robust.

[141] A capacidade adicional do algoritmo consiste em estimar os parâmetros desconhecidos utilizando-se os conjuntos S3 e S4. Isto, pois, estes são os pontos da pupila que não estão sobrepostos pela pálpebra superior. Deste modo, a estimativa dos parâmetros (Xp,Yp) e Rp segue as seguintes sub-etapas: 1. Dados dois pontos, um pertencente a S3 e o outro a S4, calcular o ponto médio entre estes; o cálculo é realizado para todas as combinações possíveis de pontos de S3 e S4 que estejam na mesma linha; este segundo critério foi adicionado com o objetivo de reduzir a comparação entre pontos da borda da pupila com pontos de ruídos ainda presentes. 2. Realizados os cálculos para todos os pontos, o valor mais provável será considerado como a melhor estimativa para Xp; 3. Uma vez determinado Xp, para cada ponto dos conjuntos S1, S2, S3 e S4, calcula-se a distância em relação a cada linha da coluna Xp. Sendo assim, para cada cálculo, são gerados dois valores: o valor da distância calculada, d, para a referida linha i. Ao final dos cálculos, o par (i,d) com a maior freqüência de ocorrência será considerada a estimativa para (Yp, Rp)=(i, d).[141] The additional capability of the algorithm consists in estimating the unknown parameters using the sets S3 and S4. This, because these are the points of the pupil that are not superimposed by the upper eyelid. Thus, the estimation of the parameters (Xp,Yp) and Rp follows the following sub-steps: 1. Given two points, one belonging to S3 and the other to S4, calculate the midpoint between them; the calculation is performed for all possible combinations of points from S3 and S4 that are on the same line; this second criterion was added in order to reduce the comparison between points at the edge of the pupil with noise points still present. 2. Having performed the calculations for all points, the most probable value will be considered as the best estimate for Xp; 3. Once Xp is determined, for each point of the sets S1, S2, S3 and S4, the distance is calculated in relation to each row of the column Xp. Therefore, for each calculation, two values are generated: the value of the calculated distance, d, for that line i. At the end of the calculations, the pair (i,d) with the highest frequency of occurrence will be considered the estimate for (Yp, Rp)=(i, d).

[142] Inicialmente, o algoritmo com a capacidade adicional era utilizado quando o algoritmo original não encontrava a pupila. No entanto, observou-se que o algoritmo com a capacidade adicional por si só é suficiente para detectar a pupila em imagens com e sem sobreposição da pálpebra superior. Deste modo, optou-se por utilizar apenas o algoritmo com a capacidade adicional para todas as imagens.[142] Initially, the algorithm with the additional capacity was used when the original algorithm did not find the pupil. However, it was observed that the algorithm with the added capability alone is sufficient to detect the pupil in images with and without upper eyelid overlap. Thus, it was decided to use only the algorithm with the additional capacity for all images.

[143] Uma vez estimados os parâmetros (Xp,Yp) e Rp, é conveniente verificar se estas estimativas são coerentes. Para isto, verifica-se se os pixels da circunferência modelada sobrepõem pixels de bordas realçadas da imagem Ib. Tecnicamente, esta verificação consiste em construir uma circunferência conforme as equações abaixo.

Figure img0007
[143] Once the parameters (Xp,Yp) and Rp have been estimated, it is convenient to check whether these estimates are consistent. For this, it is verified if the pixels of the modeled circumference overlap pixels of highlighted edges of the image Ib. Technically, this verification consists of building a circle according to the equations below.
Figure img0007

[144] Mais precisamente, para cada ponto (x,y) do círculo calculado utilizando as equações acima é verificado se sua posição na imagem binária recai sobre uma borda. São utilizados 360 pontos, variando-se o ângulo - de 1°, para cobrir uma circunferência completa. Se 60% ou mais do total de pontos calculados corresponderem a pontos de borda, considera-se como uma boa estimativa para os parâmetros. Este percentual foi escolhido de forma a contra balancear três critérios: (1) o tempo de processamento; (2) limiares testados; e (3) taxa de correta localização da pupila.[144] More precisely, for each point (x,y) of the circle calculated using the equations above, it is checked whether its position in the binary image lies on an edge. 360 points are used, varying the angle - from 1°, to cover a complete circle. If 60% or more of the total calculated points correspond to edge points, it is considered to be a good estimate for the parameters. This percentage was chosen in order to counterbalance three criteria: (1) processing time; (2) tested thresholds; and (3) rate of correct pupil location.

[145] Se o percentual não for atingido, inicia-se um processo iterativo onde são definidos novos limiares de corte. Os limiares seguintes são definidos com base no limiar obtido a partir do histograma da imagem, conforme descrito anteriormente. Cabe relembrar que os limiares de corte podem variar de 0 a 255, por serem utilizadas imagens em escala de nível de cinza.[145] If the percentage is not reached, an iterative process starts where new cut-off thresholds are defined. The following thresholds are defined based on the threshold obtained from the histogram of the image as described above. It is worth remembering that the cut-off thresholds can vary from 0 to 255, as grayscale images are used.

[146] Deste modo, inicialmente, tem-se o limiar base como limiar corrente. O limiar corrente é subtraído de 10 unidades até que uma de duas condições sejam satisfeitas: (1) encontrou-se uma estimativa coerente ou (2) atingiu-se um valor de limiar de corte igual a 20. Se apenas a 2a condição for satisfeita, são verificados os limiares de corte até 150, somando-se 10 unidades a partir do limiar base.[146] Thus, initially, the base threshold is taken as the current threshold. The current threshold is subtracted from 10 units until one of two conditions is satisfied: (1) a coherent estimate has been found or (2) a cut-off threshold value of 20 has been reached. If only the 2nd condition is satisfied , the cut-off thresholds up to 150 are checked by adding 10 units from the base threshold.

[147] Caso não seja encontrada uma estimativa satisfatória, armazena-se o limiar de corte que melhor satisfaz as condições desta subseção. Se necessário, os mesmos procedimentos são realizados para outros dois filtros de dimensões 9 x 9 e 21 x 21. Caso não seja encontrado um resultado satisfatório após todas as tentativas, o limiar ótimo a ser considerado para que o sistema prossiga será o que produziu o melhor percentual entre todos.[147] If a satisfactory estimate is not found, the cut-off threshold that best satisfies the conditions of this subsection is stored. If necessary, the same procedures are carried out for two other filters of dimensions 9 x 9 and 21 x 21. If a satisfactory result is not found after all attempts, the optimal threshold to be considered for the system to proceed will be the one that produced the best percentage among all.

[148] Este procedimento não possui um alto custo computacional, pois, a quantidade de pixels restante após a aplicação do limiar de corte é pequena. Deste modo, o algoritmo estima os parâmetros necessários utilizando uma quantidade mínima de pixels, o que torna o processo extremamente rápido. Além deste fator, em média poucos valores de limiares são testados. Uma vez determinada a fronteira da região da pupila, inicia-se a localização da fronteira da região da íris.[148] This procedure does not have a high computational cost, since the amount of pixels remaining after applying the cutoff threshold is small. In this way, the algorithm estimates the necessary parameters using a minimum amount of pixels, which makes the process extremely fast. In addition to this factor, on average few threshold values are tested. Once the boundary of the pupil region is determined, the location of the border of the iris region begins.

[149] Assim, após a etapa de aquisição, é realizada a etapa de segmentação de íris, foco principal da presente invenção.[149] Thus, after the acquisition step, the iris segmentation step, the main focus of the present invention, is performed.

[150] Para determinar a localização da pupila, da íris e das pálpebras, existem alguns métodos mais utilizados na literatura, que serão exemplificados, a título comparativo. Basicamente, dividem-se em duas categorias: (1) modelar a pupila e a íris por circunferências não concêntricas; (2) utilização de métodos de treinamento, como cascata de classificadores Adaboost.[150] To determine the location of the pupil, iris and eyelids, there are some methods most used in the literature, which will be exemplified by way of comparison. Basically, they fall into two categories: (1) model the pupil and iris by non-concentric circumferences; (2) use of training methods, such as Adaboost classifier cascade.

[151] Os métodos que se baseiam na aproximação da íris e da pupila por uma circunferência, na maioria das vezes, utilizam a Transformada de Hough. Esta transformada é um algoritmo amplamente conhecido na área de processamento de imagens. Primeiramente, é necessário destacar que todo o processamento realizado durante a Transformada de Hough ocorre sobre uma imagem binária. Em outras palavras, antes de aplicar a transformada, é necessário efetuar o realce de bordas, como a utilização dos operadores de Sobel, e posteriormente a criação de uma imagem binária que possui apenas dois componentes: bordas de objetos e o fundo.[151] Methods that rely on approximating the iris and pupil to a circumference most often use the Hough Transform. This transform is a widely known algorithm in the image processing area. First, it is necessary to point out that all the processing performed during the Hough Transform takes place on a binary image. In other words, before applying the transform, it is necessary to perform edge enhancement, using Sobel operators, and later to create a binary image that has only two components: object edges and the background.

[152] A transformada de Hough consiste em determinar os parâmetros de uma figura geométrica definida, ou seja, uma figura geométrica a qual seja possível equacionar, tais como: parábolas, retas, circunferências. Para isto, a ideia básica é: dados n parâmetros desconhecidos, equacionar de forma a permitir o cálculo do n-ésimo parâmetro a partir dos (n-1) restantes. Deste modo, para estimar o valor do n-ésimo parâmetro, utilizam-se todos os valores possíveis para os (n-1) restantes. No caso da circunferência, no espaço bidimensional, o objeto pode ser representado pela equação abaixo,

Figure img0008
onde (xc,yc) representa a coordenada do centro da circunferência e r o raio.[152] The Hough transform consists of determining the parameters of a defined geometric figure, that is, a geometric figure which it is possible to equate, such as: parabolas, lines, circles. For this, the basic idea is: given n unknown parameters, equate in order to allow the calculation of the nth parameter from the remaining (n-1) parameters. Thus, to estimate the value of the nth parameter, all possible values for the remaining (n-1) are used. In the case of the circumference, in two-dimensional space, the object can be represented by the equation below,
Figure img0008
where (xc,yc) represents the coordinate of the center of the circle and the radius.

[153] A equação acima apresenta três parâmetros desconhecidos (xc, yc e r), sendo (x,y) uma coordenada de uma imagem de tamanho N x M. Deste modo, a ideia da Transformada de Hough é: para cada ponto de borda da imagem da imagem binária N x M, variar os valores possíveis de dois parâmetros desconhecidos (xc,yc) e calcular o terceiro, r. Os valores utilizados, (xc,yc), e o calculado, r, são agrupados em alguma estrutura de dados, por exemplo uma matriz tridimensional (x, y, r). Após efetuados os cálculos, o conjunto coordenado de valores (x, y, r) com a maior frequência de ocorrência conterá os valores estimados para o centro e o raio da circunferência. Operacionalmente, tem-se: 1. Suponha que exista o conhecimento prévio de que o objeto a ser identificado possua um raio cuja variação esteja entre 5 e 15 pixels; 2. Inicializar com zero todas as posições de uma matriz M1 de tamanho N x M x 15 (as mesmas dimensões da imagem binária utilizada e onde está a circunferência a ser determinada; note que yc pode variar no intervalo [0,N]; xc pode assumir valores no intervalo [0,M]; a terceira dimensão da matriz correspondente ao tamanho possível do raio. 3. Para cada ponto (x,y) da imagem binária em que a correspondente posição possua um pixel de borda, substitui-se na equação acima os valores (x,y), e todos os valores de xc e yc; para cada substituição, calcula-se r; para cada cálculo, incrementa-se em uma unidade o valor da posição (xc,yc,r) de M1; 4. O procedimento é realizado para todos os pontos (x,y) de borda da imagem binária; 5. Após os cálculos, a posição de M1 que contiver o maior valor acumulado será considerada a estimativa para (xc,yc,r).[153] The equation above presents three unknown parameters (xc, yc and r), where (x,y) is a coordinate of an image of size N x M. Thus, the idea of the Hough Transform is: for each edge point from the image of the binary image N x M, vary the possible values of two unknown parameters (xc,yc) and calculate the third, r. The values used, (xc,yc), and the calculated, r, are grouped into some data structure, for example a three-dimensional matrix (x, y, r). After performing the calculations, the coordinate set of values (x, y, r) with the highest frequency of occurrence will contain the estimated values for the center and radius of the circle. Operationally, we have: 1. Suppose there is prior knowledge that the object to be identified has a radius whose variation is between 5 and 15 pixels; 2. Initialize with zero all positions of a matrix M1 of size N x M x 15 (the same dimensions of the binary image used and where the circumference to be determined is; note that yc can vary in the interval [0,N]; xc can assume values in the interval [0,M]; the third dimension of the matrix corresponding to the possible size of the ray. 3. For each point (x,y) of the binary image in which the corresponding position has an edge pixel, replace in the above equation the values (x,y), and all the values of xc and yc; for each substitution, r is calculated; for each calculation, the position value (xc,yc,r) is incremented by one of M1; 4. The procedure is performed for all (x,y) edge points of the binary image; 5. After the calculations, the position of M1 that contains the highest accumulated value will be considered the estimate for (xc,yc, r).

[154] Existem variações da Transformada de Hough. Basicamente, essas variações buscam reduzir o espaço de busca dos parâmetros para diminuir o tempo computacional. No caso da circunferência, usualmente utilizam-se as equações em coordenadas polares.[154] There are variations of the Hough Transform. Basically, these variations seek to reduce the search space of the parameters to reduce the computational time. In the case of the circumference, equations in polar coordinates are usually used.

[155] Alguns métodos utilizam ainda a Transformada de Hough em seus métodos para aproximar a íris e a pupila por uma circunferência. Além disso, também utilizam a transformada para localizar as pálpebras superior e inferior. Porém, neste caso, as pálpebras são aproximadas por parábolas.[155] Some methods even use the Hough Transform in their methods to approximate the iris and pupil by a circumference. In addition, they also use the transform to locate the upper and lower eyelids. However, in this case, the eyelids are approximated by parabolas.

[156] Uma clara desvantagem da Transformada de Hough é o alto custo computacional. Deste modo, em sistemas de reconhecimento de íris de tempo real, implementados em software, a Transformada de Hough não é recomendada.[156] A clear disadvantage of the Hough Transform is the high computational cost. Therefore, in real-time iris recognition systems implemented in software, the Hough Transform is not recommended.

[157] Sendo assim, para contornar este problema, a técnica apresentada neste projeto tem como objetivo propor uma rápida detecção da íris sem utilizar as equações matemáticas com inúmeros parâmetros, como na Transformada de Hough, diminuindo o tempo computacional. Com isso, permitir o uso do sistema final em aplicações de tempo real.[157] Therefore, to overcome this problem, the technique presented in this project aims to propose a fast detection of the iris without using mathematical equations with numerous parameters, as in the Hough Transform, reducing the computational time. With this, allow the use of the final system in real-time applications.

[158] Outra técnica que pode ser utilizada é o operador integro-diferencial. Daugman, um dos pioneiros na utilização da íris como característica biométrica, propôs um método para localização da íris. A técnica de Daugman utiliza um operador integro-diferencial para localizar e extrair a íris visível. Seu método trata o problema em que as pálpebras cobrem parte da região da íris. A equação abaixo define o operador utilizado por Daugman,

Figure img0009
onde I(x,y) representa a imagem do olho em tons de cinza; r o raio a ser estimado; representa um filtro de suavização gaussiano; s é o contorno do círculo de raio r e centro (x0,y0).[158] Another technique that can be used is the integral-differential operator. Daugman, one of the pioneers in the use of the iris as a biometric feature, proposed a method for locating the iris. The Daugman technique uses an integro-differential operator to locate and extract the visible iris. His method treats the problem where the eyelids cover part of the iris region. The equation below defines the operator used by Daugman,
Figure img0009
where I(x,y) represents the grayscale image of the eye; r radius to be estimated; represents a Gaussian smoothing filter; s is the contour of the circle of radius r and center (x0,y0).

[159] O operador modela a íris por uma circunferência de centro (x0,y0) e raio r. Para isto, busca-se o valor máximo dado pela aplicação do operador sobre a imagem. Este procedimento é realizado de forma iterativa, variando-se os parâmetros (x0,y0) e r. Deste modo, ao final do processo, tem-se delimitada a fronteira da íris.[159] The operator models the iris by a circle of center (x0,y0) and radius r. For this, the maximum value given by the application of the operator on the image is sought. This procedure is performed iteratively, varying the parameters (x0,y0) and r. Thus, at the end of the process, the border of the iris has been delimited.

[160] O mesmo procedimento é realizado para localizar a pupila. Um procedimento similar é utilizado para localizar as pálpebras: o caminho de integração do operador é alterado de uma circunferência para um arco.[160] The same procedure is performed to locate the pupil. A similar procedure is used to locate the eyelids: the operator integration path is changed from a circumference to an arc.

[161] Outro método de segmentação é a utilização de classificadores, proposta por Zhaofeng He et al. Nesta técnica, é descrito um método de forma a ser possível a extração da íris mesmo com imagens de baixa qualidade. O método proposto é divido em 4 etapas: (1) remoção de reflexos e detecção de íris; (2) localização da pupila e delimitação de fronteiras da íris; (3) localização das pálpebras; (4) localização de cílios e sombras.[161] Another segmentation method is the use of classifiers, proposed by Zhaofeng He et al. In this technique, a method is described in order to be possible to extract the iris even with low quality images. The proposed method is divided into 4 steps: (1) reflections removal and iris detection; (2) pupil location and iris boundary delimitation; (3) location of the eyelids; (4) location of eyelashes and shadows.

[162] Para remover os reflexos, os autores, basicamente, transformam a imagem original em uma imagem binária, a partir de um limiar de corte adaptativo. A imagem binária tem como objetivo destacar as regiões de reflexos. Uma vez destacadas, para cada ponto de reflexo são definidos outros quatro pontos, segundo equações específicas. A partir dos valores de brilho da imagem original das posições destes quatro pontos, utilizando-se interpolação, define-se o novo valor de brilho para o ponto de reflexo. Eliminados os reflexos, o método detecta uma região que contém a íris.[162] To remove the reflections, the authors basically transform the original image into a binary image, starting from an adaptive cut-off threshold. The binary image aims to highlight the regions of reflections. Once highlighted, for each reflex point, four other points are defined, according to specific equations. From the brightness values of the original image of the positions of these four points, using interpolation, the new brightness value for the reflection point is defined. Once the reflections are eliminated, the method detects a region that contains the iris.

[163] Para determinar a região que contém a íris, o método propõe o treinamento em uma cascata de classificadores de Adaboost. Nesse treinamento são utilizadas amostras positivas (contém região da íris) e negativas (não contém). Durante o aprendizado, o detector procura na imagem original por sub-janelas em diferentes escalas, utilizando 346 características e 5 camadas. Se existir ao menos uma sub-região validada nas 5 camadas como positiva, a imagem de entrada é considerada como uma imagem da íris.[163] To determine the region that contains the iris, the method proposes training in a cascade of Adaboost classifiers. In this training, positive samples (contains the iris region) and negative samples (does not contain) are used. During learning, the detector searches the original image for subwindows at different scales, using 346 features and 5 layers. If there is at least one subregion validated in the 5 layers as positive, the input image is considered as an iris image.

[164] A segunda etapa consiste em determinar as fronteiras da pupila e da íris, utilizando a imagem validada na etapa anterior. Na localização da pupila, os autores utilizam a idéia da tradicional lei de Hooke (lei da física relacionada à elasticidade de corpos). O método proposto, inicialmente, supõe um ponto O localizado no centro da pupila. Este ponto está ligado por molas imaginárias a diversos outros pontos da borda da pupila. Deste modo, através de um processo iterativo, o ponto O move-se no interior da pupila decorrente das forças exercidas pelas molas até uma posição de equilíbrio. Uma vez determinada esta posição, a pupila é dita localizada. Após a determinação das fronteiras da pupila, as fronteiras da íris são delimitadas. Para isto, os autores amostram pixels de borda segundo critérios previamente definidos. Uma vez amostrados, aproxima-se por uma curva do tipo spline.[164] The second step is to determine the pupil and iris boundaries, using the image validated in the previous step. In locating the pupil, the authors use the idea of the traditional Hooke's law (law of physics related to the elasticity of bodies). The proposed method initially assumes a point O located in the center of the pupil. This point is connected by imaginary springs to several other points on the edge of the pupil. In this way, through an iterative process, point O moves inside the pupil due to the forces exerted by the springs to an equilibrium position. Once this position is determined, the pupil is said to be located. After the pupil boundaries are determined, the iris boundaries are delimited. For this, the authors sample edge pixels according to previously defined criteria. Once sampled, it is approximated by a spline curve.

[165] Na terceira etapa, são localizadas as pálpebras. O procedimento proposto aplica diversos filtros, e utilizando histogramas de regiões definidas a priori, é efetuada a amostragem de pixels. Posteriormente, utilizando- se os pixels amostrados, cada pálpebra é modelada por uma parábola.[165] In the third step, the eyelids are located. The proposed procedure applies several filters, and using histograms of regions defined a priori, the sampling of pixels is performed. Subsequently, using the sampled pixels, each eyelid is modeled by a parabola.

[166] A última etapa consiste na localização de cílios e sombras. Este procedimento é realizado efetuando-se análises de histogramas. Os histogramas são construídos para duas regiões: uma região em que é conhecido a priori que não existem cílios e sombras; e uma região que se deseja determinar se há a presença desses efeitos. Através da análise comparativa dos histogramas dessas duas regiões, determina-se a presença de cílios e sombras.[166] The last step consists of locating eyelashes and shadows. This procedure is performed by performing histogram analyses. Histograms are constructed for two regions: a region where it is known a priori that there are no cilia and shadows; and a region where you want to determine whether these effects are present. Through the comparative analysis of the histograms of these two regions, the presence of eyelashes and shadows is determined.

[167] Como visto, os modelos existentes necessitam de alta computação, possuem um grande tempo de processamento, e ainda necessitam de treinamento prévio para o correto funcionamento.[167] As seen, existing models require high computation, have a large processing time, and still require previous training for correct operation.

[168] Assim, o objetivo desta etapa é determinar as fronteiras da íris, assumindo que se pode modelá-la por uma circunferência de centro (Xi,Yi) e raio Ri. Alguns fatores dificultam este procedimento, tais como: reflexos nas fronteiras da íris; possibilidade de uma transição suave entre a região da íris e a esclerótica, principalmente quando utilizadas imagens em escala nível de cinza; a própria textura: se houver uma textura representativa, o uso de filtros de realce de bordas pode resultar em falsas bordas.[168] Thus, the objective of this step is to determine the boundaries of the iris, assuming that it can be modeled by a circle with center (Xi,Yi) and radius Ri. Some factors make this procedure difficult, such as: reflections at the borders of the iris; possibility of a smooth transition between the iris region and the sclera, especially when using grayscale images; the texture itself: If there is a representative texture, using edge enhancement filters can result in false edges.

[169] Deste modo, o método de segmentação de íris proposto pela presente invenção pode ser dividido em quatro sub-etapas distintas: (b2.1) Determinação das regiões de busca e processo de filtragem; (b2.2) Realce de bordas de regiões relevantes; (b2.3)Modelagem da íris; (b2.4)Escolha do melhor modelo.[169] Thus, the iris segmentation method proposed by the present invention can be divided into four distinct sub-steps: (b2.1) Determination of search regions and filtering process; (b2.2) Edge enhancement of relevant regions; (b2.3) Modeling the iris; (b2.4)Choose the best model.

[170] Preferencialmente, a borda de uma íris é modelada por uma circunferência com centro (Xi, Yi) e o raio (Ri). Assim sendo, a etapa apresentada tem como objetivo estimar estes parâmetros.[170] Preferably, the edge of an iris is modeled by a circle with center (Xi, Yi) and radius (Ri). Therefore, the presented step aims to estimate these parameters.

[171] A primeira sub-etapa é a determinação das regiões de busca e processo de filtragem. Esta etapa possui três objetivos: (1) redução do tempo de processamento computacional através do descarte de pixels que não contribuirão para a correta e precisa localização da íris; (2) eliminação de ruídos adquiridos durante a aquisição da imagem e (3) redução da textura da íris.[171] The first sub-step is the determination of search regions and filtering process. This step has three objectives: (1) reduction of computational processing time by discarding pixels that will not contribute to the correct and precise location of the iris; (2) elimination of noise acquired during image acquisition and (3) reduction of iris texture.

[172] Para atingir o primeiro objetivo, são definidas duas regiões de buscas. Regiões estas em forma retangular e definidas por quatro pontos descritos na tabela da figura 5 e nas áreas ilustradas na figura5. Na tabela, tem-se: Lm corresponde ao número total de linhas da imagem; Cm corresponde ao número total de colunas da imagem.[172] To achieve the first objective, two search regions are defined. These regions are rectangular in shape and defined by four points described in the table in Figure 5 and in the areas illustrated in Figure 5. In the table, we have: Lm corresponds to the total number of lines in the image; Cm corresponds to the total number of columns in the image.

[173] Os outros dois objetivos desta etapa são atingidos através da aplicação de filtros da mediana de tamanhos distintos. A aplicação, utilizando máscaras de convolução, dos filtros da mediana ocorre sobre os pixels do interior das regiões de buscas da imagem da entrada. O processo de aplicação de um filtro da mediana foi descrito anteriormente, durante a localização da pupila. São aplicados três filtros de dimensões distintas: 9x9, 15x15 e 21x21. Deste modo, são geradas três imagens filtradas.[173] The other two objectives of this step are achieved by applying median filters of different sizes. The application, using convolution masks, of the median filters occurs on the pixels inside the search regions of the input image. The process of applying a median filter was described earlier during pupil location. Three filters of different dimensions are applied: 9x9, 15x15 and 21x21. In this way, three filtered images are generated.

[174] É importante salientar que caso o filtro da mediana de uma das dimensões definidas já tenha sido aplicado sobre os pixels de toda a imagem durante a localização da pupila, não é aplicado novamente. Operacionalmente, mantém-se em memória uma cópia da imagem filtrada durante a localização da pupila.[174] It is important to note that if the median filter of one of the defined dimensions has already been applied to the pixels of the entire image during the pupil location, it is not applied again. Operationally, a copy of the filtered image is kept in memory during pupil location.

[175] Após a determinação das regiões de busca e processo de filtragem, é realizada uma sub-etapa de realce de bordas de regiões relevantes.[175] After determining the search regions and filtering process, a sub-step of highlighting the edges of relevant regions is performed.

[176] Esta subseção tem como objetivo realçar as bordas no interior das regiões de busca. Para atingir esta meta, são utilizados preferencialmente operadores de Sobel, já descritos anteriormente. Uma vez aplicados os operadores de Sobel sobre os pixels do interior das regiões de busca, aplica-se um limiar de corte com a finalidade de criar uma imagem binária, que conterá as bordas realçadas.[176] This subsection aims to highlight the edges within the search regions. To achieve this goal, Sobel operators, as described above, are preferably used. Once the Sobel operators are applied to the pixels inside the search regions, a cut threshold is applied in order to create a binary image, which will contain the highlighted edges.

[177] Resultados experimentais demonstraram que o limiar de corte escolhido é dependente da resolução da imagem adquirida. Um limiar igual ao gradiente médio, calculado conforme previamente descrito, é utilizado no caso de imagens de resoluções superiores a 400x400 pixels. Já para imagens de resoluções inferiores, o limiar utilizado é igual a três vezes o gradiente médio. O valor do gradiente médio é calculado com os pixels do interior das regiões de busca.[177] Experimental results have shown that the chosen cut-off threshold is dependent on the resolution of the acquired image. A threshold equal to the average gradient, calculated as previously described, is used for images with resolutions greater than 400x400 pixels. For lower resolution images, the threshold used is equal to three times the average gradient. The average gradient value is calculated with the pixels inside the search regions.

[178] Posteriormente, é realizada a sub-etapa de modelagem da íris. Esta etapa consiste em estimar os parâmetros do centro (Xi,Yi) e o raio Ri. O algoritmo desenvolvido estima os parâmetros procurados utilizando os pixels de bordas das regiões de buscas das três imagens filtradas e binarizadas. Além disto, para cada imagem utilizada, o parâmetro Ri é estimado de três maneiras distintas, obtendo-se Ri1, Ri2 e Ri3.[178] Subsequently, the iris modeling sub-step is performed. This step consists of estimating the parameters of the center (Xi,Yi) and the radius Ri. The developed algorithm estimates the searched parameters using the pixels of the edges of the search regions of the three filtered and binarized images. Furthermore, for each image used, the parameter Ri is estimated in three different ways, obtaining Ri1, Ri2 and Ri3.

[179] A estimativa para (Xi,Yi) e o primeiro valor de Ri, ocorre de modo similar ao algoritmo com capacidade adicional para localizar a pupila. Durante a aplicação do limiar de corte e realce de bordas, os pixels são divididos em quatro conjuntos de acordo com seus respectivos valores de ângulos gradientes.[179] The estimation for (Xi,Yi) and the first value of Ri, occurs in a similar way to the algorithm with additional capacity to locate the pupil. When applying trimming threshold and edge enhancement, pixels are divided into four sets according to their respective gradient angle values.

[180] Os conjuntos S3 e S4 são utilizados para estimar Xi. Uma vez estimado o parâmetro Xi, são utilizados todos os conjuntos para estimar (Yi,Ri), conforme descrito anteriormente. Ao final deste primeiro procedimento, temos os parâmetros (Xi,Yi) e Ri1 estimados.[180] The sets S3 and S4 are used to estimate Xi. Once the parameter Xi is estimated, all sets are used to estimate (Yi,Ri), as described above. At the end of this first procedure, we have the parameters (Xi,Yi) and Ri1 estimated.

[181] A segunda estimativa para o parâmetro Ri consiste em: calcula-se a distância Euclidiana entre cada pixel de borda das regiões de busca e o ponto (Xi,Yi) estimado. A distância com maior frequência de ocorrência será considerada a estimativa para Ri2.[181] The second estimate for the Ri parameter consists of: calculating the Euclidean distance between each edge pixel of the search regions and the estimated point (Xi,Yi). The distance with the highest frequency of occurrence will be considered the estimate for Ri2.

[182] A terceira estimativa para o parâmetro Ri, envolve duas operações: (1) efetua-se um processo de suavização das bordas realçadas no interior das regiões de busca, em que operacionalmente este processo consiste em manter o estado de um pixel de borda apenas no caso deste possuir todos os seus vizinhos como também pixels de borda; (2) uma vez efetuado o processo de suavização, estima-se Ri3 de modo idêntico a Ri2, ou seja, através do cálculo da distância Euclidiana e o valor mais provável.[182] The third estimate for the Ri parameter involves two operations: (1) a smoothing process is performed on the highlighted edges inside the search regions, in which operationally this process consists of maintaining the state of an edge pixel just in case it has all its neighbors as well as edge pixels; (2) once the smoothing process is performed, Ri3 is estimated in the same way as Ri2, that is, by calculating the Euclidean distance and the most probable value.

[183] Uma vez estimados os parâmetros (Xi,Yi) e os três raios, para cada uma das três imagens filtradas, a próxima etapa consiste em calcular raios de íris médios. São obtidos três raios médios, definidos de forma geral pela equação abaixo.

Figure img0010
[183] Once the parameters (Xi,Yi) and the three radii have been estimated, for each of the three filtered images, the next step is to calculate average iris radii. Three mean radii are obtained, generally defined by the equation below.
Figure img0010

[184] A última etapa consiste em escolher a melhor estimativa para os parâmetros procurados, (Xi,Yi) e Ri, ou seja, a escolha do melhor modelo. A decisão envolve quatro sub-etapas, assim definidas: 1. São calculados os módulos de três valores de distâncias. O cálculo de cada distância envolve os valores de raios estimados utilizando cada uma das imagens filtradas e binarizadas, e são definidas de forma geral pela equação abaixo;

Figure img0011
2. A melhor estimativa para os parâmetros (Xi,Yi) serão os valores calculados para estes parâmetros utilizando a imagem filtrada pelo filtro da mediana de dimensão z que fornecer a maior distância dz; 3. Utilizando-se os três valores de raios estimados, Ri1, Ri2 e Ri3, para a imagem filtrada pelo filtro da mediana de dimensão z, são calculadas três distâncias, definidas pela equação abaixo. Note que são utilizados os raios médios calculados na subseção anterior;
Figure img0012
4. O valor de Ri será o valor de Rix que produzir o menor valor de dx.[184] The last step consists of choosing the best estimate for the parameters sought, (Xi,Yi) and Ri, that is, choosing the best model. The decision involves four sub-steps, defined as follows: 1. The modules of three distance values are calculated. The calculation of each distance involves the estimated ray values using each of the filtered and binarized images, and are generally defined by the equation below;
Figure img0011
2. The best estimate for the parameters (Xi,Yi) will be the values calculated for these parameters using the image filtered by the z-dimensional median filter that provides the greatest distance dz; 3. Using the three estimated radii values, Ri1, Ri2 and Ri3, for the image filtered by the z-dimensional median filter, three distances are calculated, defined by the equation below. Note that the average radii calculated in the previous subsection are used;
Figure img0012
4. The value of Ri will be the value of Rix that produces the smallest value of dx.

[185] Durante os testes e a análise sobre os resultados, observou-se que o algoritmo costumava estimar o raio da íris para um valor menor do que o esperado quando a textura da íris era fortemente presente; quando a borda da íris não era bem definida, o algoritmo estimava o raio da íris para um valor maior do que o esperado. Deste modo, os cálculos efetuados pelo algoritmo buscam exatamente evitar estes dois tipos de erros e encontrar uma estimativa satisfatória.[185] During testing and analysis of the results, it was observed that the algorithm used to estimate the iris radius to a smaller value than expected when iris texture was strongly present; when the iris edge was not well defined, the algorithm estimated the iris radius to a higher value than expected. Thus, the calculations performed by the algorithm seek exactly to avoid these two types of errors and find a satisfactory estimate.

[186] A ideia geral dos cálculos realizados é efetuar uma estimativa para o raio da íris (Ri) que supõe-se ser a melhor; após isto, efetuar duas outras estimativas, sendo um Ri menor e um maior do que o supostamente melhor. Assim, calcula-se dz e dx e busca-se pelos valores (Xi,Yi) e Ri em que as três estimativas para Ri estiverem mais próximas.[186] The general idea of the calculations performed is to make an estimate for the iris radius (Ri) that is supposed to be the best; after that, make two other estimates, one being a smaller Ri and one larger than the supposedly best. Thus, dz and dx are calculated and search for the values (Xi,Yi) and Ri in which the three estimates for Ri are closest.

[187] Testes foram realizados com a utilização de mais de três filtros, bem como filtros com dimensões diferentes das apresentadas. No entanto, uma maior quantidade de filtros não apresentou uma melhora significativa na taxa de segmentação que justificasse o gasto computacional decorrente.[187] Tests were performed using more than three filters, as well as filters with dimensions different from those shown. However, a greater number of filters did not present a significant improvement in the segmentation rate that would justify the resulting computational expense.

[188] Um problema a ser resolvido em detecção da borda da íris é que nem sempre a imagem de olho adquirida possui um contraste claro entre a íris e a esclerótica (zona branca do globo ocular). Assim, a presente invenção soluciona tais problemas ao levar em consideração este fator.[188] A problem to be solved in iris border detection is that the acquired eye image does not always have a clear contrast between the iris and the sclera (white area of the eyeball). Thus, the present invention solves such problems by taking this factor into account.

[189] Antes de se efetuar a normalização, é prevista ainda uma etapa de detecção das pálpebras, superior e inferior. Este procedimento pode ser necessário, pois parte da íris pode ser sobreposta pelas pálpebras.[189] Before normalization is carried out, a detection step of the upper and lower eyelids is also foreseen. This procedure may be necessary as part of the iris may be overlapped by the eyelids.

[190] Assim, na etapa posterior de normalização, ao amostrarmos pontos da íris devemos desconsiderar ponto que estão acima da parte superior e abaixo da inferior, caso estejam encobertos pelas pálpebras.[190] Thus, in the later normalization step, when sampling points from the iris, we should disregard points that are above the top and below the bottom, if they are covered by the eyelids.

[191] Podemos dividir esta etapa de detecção das pálpebras em três sub-etapas, nominalmente: (b3.1) Determinação de regiões de busca das pálpebras; (b3.2) Realce de bordas das regiões determinadas na etapa (b3.1); e (b3.3) Determinação das curvas das fronteiras das pálpebras. Preferencialmente, esta etapa é realizada duas vezes, sendo uma para a localização das pálpebra superior e outra para a pálpebra inferior.[191] We can divide this eyelid detection step into three sub-steps, namely: (b3.1) Determination of eyelid search regions; (b3.2) Edge enhancement of the regions determined in step (b3.1); and (b3.3) Determination of eyelid boundary curves. Preferably, this step is performed twice, once for the location of the upper eyelid and another for the lower eyelid.

[192] A primeira sub-etapa de tal etapa é a determinação de regiões de busca das pálpebras. Nesta etapa, para determinar a região de busca das pálpebras, delimitam- se janelas retangulares que encobrem as regiões onde estão contidos os pixels mais relevantes para suas localizações. Estas janelas retangulares são determinadas através dos parâmetros estimados para modelar a pupila e a íris (Xp,Yp,Rp,Xi,Yi e Ri).[192] The first sub-step of such a step is the determination of eyelid search regions. In this step, to determine the eyelid search region, rectangular windows are delimited that cover the regions where the most relevant pixels for their locations are contained. These rectangular windows are determined through the parameters estimated to model the pupil and the iris (Xp,Yp,Rp,Xi,Yi and Ri).

[193] A tabela da figura 7 mostra o cálculo destes limites, onde: α = 0.05 x Ri e α1 = 0.05 x Rp. As figuras 8A e 8B ilustram as janelas para as pálpebras superior e inferior.[193] The table in figure 7 shows the calculation of these limits, where: α = 0.05 x Ri and α1 = 0.05 x Rp. Figures 8A and 8B illustrate the windows for the upper and lower eyelids.

[194] No caso da detecção da pálpebra superior, não são utilizados todos os pontos dentro da região de busca. A própria região de busca é dividida em três sub-regiões, descritas na tabela da figura 7, e ilustradas na figura 9B. Assim, no caso da detecção da pálpebra superior são utilizadas apenas informações contidas nas sub-regiões 1 e 3. A região central (2a região) possui a presença de uma quantidade significativa de cílios, o que pode diminuir a eficiência do algoritmo na localização da pálpebra.[194] In the case of upper eyelid detection, not all points within the search region are used. The search region itself is divided into three subregions, described in the table in Figure 7, and illustrated in Figure 9B. Thus, in the case of upper eyelid detection, only information contained in sub-regions 1 and 3 is used. The central region (2nd region) has the presence of a significant amount of eyelashes, which can reduce the efficiency of the algorithm in locating the eyelid.

[195] Em seguida, é realizada a sub-etapa de realce de bordas das regiões determinadas na etapa (b3.1). Esta sub- etapa consiste em aplicar um filtro da mediana, preferencialmente de dimensão 15x15, no interior das regiões de interesse determinadas na sub-etapa anterior. Caso o filtro da mediana já tenha sido aplicado em toda a imagem durante a localização da pupila, não é necessário que o filtro seja aplicado novamente.[195] Next, the sub-step of enhancing edges of the regions determined in step (b3.1) is performed. This sub-step consists of applying a median filter, preferably 15x15 in size, within the regions of interest determined in the previous sub-step. If the median filter has already been applied to the entire image during pupil location, the filter does not need to be applied again.

[196] Uma vez aplicado o filtro da mediana, é realizado um processo de realce de bordas, utilizando-se, preferencialmente, os operadores de Sobel sobre os pixels do interior da região de busca. Para a criação de uma imagem binária, o valor do limiar de corte é igual ao valor do gradiente médio, conforme previamente explicado. Ao final desta etapa, tem-se imagem binária com as bordas das regiões de interesse realçadas. As figuras 9B e 9C ilustram as regiões de interesse das pálpebras, com as bordas realçadas.[196] Once the median filter is applied, an edge enhancement process is performed, preferably using Sobel operators on the pixels inside the search region. For the creation of a binary image, the value of the cutoff threshold is equal to the value of the average gradient, as previously explained. At the end of this step, there is a binary image with the edges of the regions of interest highlighted. Figures 9B and 9C illustrate the eyelid regions of interest, with the edges highlighted.

[197] Por fim, é realizada a sub-etapa determinação das curvas das fronteiras das pálpebras. Esta sub-etapa consiste em determinar as curvas das fronteiras das pálpebras superior e inferior. As fronteiras são aproximadas por um segmento linear e uma curva parabólica, conforme ilustrado nas figuras 9D e 9G. As Figuras 9C e 9E ilustram os pixels utilizados para a realização da aproximação, marcados com valor de brilho igual a cor cinza no interior da região de busca. Note que os pontos amostrados estão no interior da região de busca e da íris modelada por uma circunferência.[197] Finally, the sub-step determination of the eyelid boundary curves is performed. This sub-step consists of determining the curves of the upper and lower eyelid boundaries. The boundaries are approximated by a linear segment and a parabolic curve, as illustrated in figures 9D and 9G. Figures 9C and 9E illustrate the pixels used to perform the approximation, marked with a brightness value equal to gray within the search region. Note that the sampled points are inside the search region and the iris modeled by a circle.

[198] A aproximação feita é pelo critério de mínimos quadrados, conforme representada pelo sistema de equações abaixo.

Figure img0013
[198] The approximation made is by the least squares criterion, as represented by the system of equations below.
Figure img0013

[199] Onde n é o número de pontos, ou seja o número de pixels,

Figure img0014
, ou seja, a soma dos ,
Figure img0015
, ou seja, a soma dos
Figure img0016
, ou seja, a soma dos
Figure img0017
, ou seja, a soma dos
Figure img0018
, ou seja, a soma dos
Figure img0019
, ou seja, a soma dos
Figure img0020
ou seja, a soma dos .[199] Where n is the number of points, i.e. the number of pixels,
Figure img0014
, that is, the sum of ,
Figure img0015
, that is, the sum of the
Figure img0016
, that is, the sum of the
Figure img0017
, that is, the sum of the
Figure img0018
, that is, the sum of the
Figure img0019
, that is, the sum of the
Figure img0020
that is, the sum of .

[200] Deste modo, os modelos (reta e parábola) são especificados com a determinação dos coeficientes das equações acima. Ao observar as figuras 9D e 9G, nota-se que foram aproximadas duas curvas. Ambas as curvas fornecem informações importantes sobre as pálpebras e, dessa forma, podem ser utilizadas em conjunto. A reta fornece melhores detalhes sobre a região central localizada sobre a pupila, porém pouca informação sobre as laterais. A parábola fornece informações sobre as laterais e pouca sobre a parte central.[200] In this way, the models (line and parabola) are specified by determining the coefficients of the above equations. When observing figures 9D and 9G, it is noted that two curves were approximated. Both curves provide important information about the eyelids and, therefore, can be used together. The straight line provides better details about the central region located over the pupil, but little information about the sides. The parable provides information about the sides and little about the central part.

[201] Após tal etapa, é realizada uma etapa de normalização, que consiste em uma etapa reconhecimento de íris que possui como objetivo compensar deformações ocorridas durante a etapa de aquisição, e deste modo, realizar uma melhor extração de características.[201] After this step, a normalization step is performed, which consists of an iris recognition step that aims to compensate for deformations that occurred during the acquisition step, and thus, perform a better feature extraction.

[202] Esta etapa é necessária, pois imagens oculares adquiridas utilizando diferentes sensores podem variar quanto à qualidade e ao tamanho. Além dos sensores, o ambiente de coleta da imagem também pode provocar alterações nas imagens, tais como: variação de iluminação, distância (o que pode provocar dilatação/erosão da pupila).[202] This step is necessary as eye images acquired using different sensors may vary in quality and size. In addition to the sensors, the image collection environment can also cause changes in the images, such as: variation in lighting, distance (which can cause pupil dilation/erosion).

[203] Assim, uma melhor extração será possível uma vez que a normalização permitirá a amostragem de pontos da região de íris de uma mesma localização espacial.[203] Thus, a better extraction will be possible since the normalization will allow the sampling of points in the iris region from the same spatial location.

[204] Entende-se como deformações as aquisições de regiões de íris de tamanhos distintos e dilatações/erosões da pupila. Estes fatores são causados principalmente por: captura em ambientes que possuam variações nos níveis de luminosidade, distâncias focais, inclinações da cabeça, rotações da câmera.[204] Deformations are understood to be the acquisition of different sized iris regions and pupil dilation/erosion. These factors are mainly caused by: shooting in environments that have variations in light levels, focal lengths, head tilts, camera rotations.

[205] A normalização também visa tratar a não concentricidade entre as regiões da pupila e da íris, conforme pode ser visto na literatura especializada do assunto. Entre os métodos mais utilizados na literatura para tratar os problemas citados, através da normalização das regiões de íris, estão Daugman, Wildes et al. e Boles et al.[205] Normalization also aims to address non-concentricity between the pupil and iris regions, as can be seen in the specialized literature on the subject. Among the methods most used in the literature to address the problems mentioned, through the normalization of iris regions, are Daugman, Wildes et al. and Boles et al.

[206] O modelo proposto por Daugman tem como objetivo normalizar a região de íris para corrigir ou minimizar os efeitos ocasionados pela dilatação da pupila, bem como variações na escala da região de íris, como pode ser visto na figura 10. Os efeitos da rotação da imagem de íris são corrigidos posteriormente, mais precisamente na etapa de comparação.[206] The model proposed by Daugman aims to normalize the iris region to correct or minimize the effects caused by pupil dilation, as well as variations in the scale of the iris region, as can be seen in Figure 10. The effects of rotation of the iris image are corrected later, more precisely in the comparison step.

[207] O método proposto realiza um mapeamento de coordenadas cartesianas em coordenadas polares. Operacionalmente, este procedimento consiste em: para cada ponto (x,y), pertencente a região de íris, é mapeado em um ponto representado em coordenadas polares pelo par (r, ' ) , de acordo com as equações abaixo:

Figure img0021
[207] The proposed method performs a mapping from Cartesian coordinates to polar coordinates. Operationally, this procedure consists of: for each point (x,y), belonging to the iris region, it is mapped to a point represented in polar coordinates by the pair (r, ' ), according to the equations below:
Figure img0021

[208] Em que I é a matriz que contém os pixels da imagem capturada, I(x,y) é um ponto desta matriz, I1 é a matriz normalizada, (r, ^ ) é a posição correspondente a (x,y) na matriz normalizada, representada em coordenadas polares, (xp,yp) e (xi,yi) são as coordenadas dos centros das circunferências que modelam a pupila e a íris, respectivamente, em que r ε [0,1] e ' ε [0,2π].[208] Where I is the matrix that contains the pixels of the captured image, I(x,y) is a point of this matrix, I1 is the normalized matrix, (r, ^ ) is the position corresponding to (x,y) in the normalized matrix, represented in polar coordinates, (xp,yp) and (xi,yi) are the coordinates of the centers of the circles that model the pupil and the iris, respectively, where r ε [0,1] and ' ε [ 0.2π].

[209] Deste modo, um ponto cartesiano de uma imagem detectada que compreende um primeiro raio (r1) com um primeiro ângulo ( 1) é transformado em um ponto polar com um segundo raio (r2) e um segundo ângulo 2).[209] In this way, a Cartesian point of a detected image comprising a first ray (r1) with a first angle (1) is transformed into a polar point with a second ray (r2) and a second angle 2).

[210] Já a técnica proposta por Wildes et al. consiste em efetuar a comparação de duas imagens através do ajuste geométrico (translação, rotação e alteração de escala) de uma delas.[210] The technique proposed by Wildes et al. consists of comparing two images through the geometric adjustment (translation, rotation and scale change) of one of them.

[211] Operacionalmente, tem-se: suponha duas imagens que já contenham a região da íris extraída, denominadas Ia e Id, sendo a primeira uma imagem de entrada candidata e a segunda já armazenada em uma base de dados de íris.[211] Operationally, we have: suppose two images that already contain the extracted iris region, called Ia and Id, the first being a candidate input image and the second already stored in an iris database.

[212] Efetua-se um processo iterativo de forma a alinhar Ia e Id. Este procedimento é realizado através de uma função de mapeamento (u(x,y), v(x,y)) escolhida de forma a minimizar a equação:

Figure img0022
[212] An iterative process is carried out in order to align Ia and Id. This procedure is performed through a mapping function (u(x,y), v(x,y)) chosen in order to minimize the equation:
Figure img0022

[213] Este procedimento busca corrigir ou minimizar os efeitos de escala e de rotação.[213] This procedure seeks to correct or minimize the effects of scaling and rotation.

[214] A terceira técnica mais citada na literatura foi proposta por Boles et al, como pode ser visto nas figuras 11A e 11B. O método proposto utiliza duas regiões de íris, sendo uma referência e uma a ser normalizada. Na região de referência, é determinado um limite máximo de fronteira da região da íris. Deste modo, o diâmetro da íris (d) é fixado, conforme pode ser visto na figura 11A.[214] The third most cited technique in the literature was proposed by Boles et al, as can be seen in Figures 11A and 11B. The proposed method uses two iris regions, one being a reference and one to be normalized. In the reference region, a maximum boundary limit of the iris region is determined. In this way, the diameter of the iris (d) is fixed, as can be seen in figure 11A.

[215] Então, o ponto máximo da fronteira da região de íris a ser normalizada é determinado de forma a possuir o mesmo diâmetro da referência, ou seja, observando a figura 11B, deve-se fixar o limite máximo (d1) que é idêntico ao diâmetro da íris (d).[215] Then, the maximum point of the border of the iris region to be normalized is determined in order to have the same diameter as the reference, that is, observing figure 11B, the maximum limit (d1) must be fixed, which is identical to the diameter of the iris (d).

[216] Uma vez estabelecido o limite máximo (d1) dentro da região de íris da imagem candidata, são construídos círculos concêntricos cujas distâncias entre si sejam as mesmas.[216] Once the maximum limit (d1) is established within the iris region of the candidate image, concentric circles are constructed whose distances from each other are the same.

[217] Durante o processo de normalização, os pixels sobre os anéis virtuais são amostrados. Esta técnica trata os problemas da dilatação/erosão da pupila, bem como variações na escala da região de íris. Não é mencionado pelos autores se o método considera os efeitos de rotação.[217] During the normalization process, the pixels on the virtual rings are sampled. This technique addresses the problems of pupil dilation/erosion, as well as variations in the scale of the iris region. It is not mentioned by the authors if the method considers rotation effects.

[218] Após a normalização da região de íris, são necessários dois processos interligados: a extração de características e a codificação dos dados extraídos. Estes processos têm como objetivo gerar dados que permitirão a comparação entre íris diferentes.[218] After the normalization of the iris region, two interconnected processes are required: feature extraction and encoding of the extracted data. These processes aim to generate data that will allow the comparison between different iris.

[219] O processo de extração de características consiste em amostrar pixels relevantes da região de íris, ou seja, pixels que contenham informações a respeito do padrão de íris. Uma vez amostrados, pode ser realizado um processo de codificação: a transformação dos dados extraídos (valores de brilho) para um novo formato, de forma a permitir uma rápida e precisa comparação entre os códigos gerados.[219] The feature extraction process consists of sampling relevant pixels from the iris region, that is, pixels that contain information about the iris pattern. Once sampled, a coding process can be carried out: the transformation of the extracted data (brightness values) to a new format, in order to allow a quick and accurate comparison between the generated codes.

[220] Apesar da divisão conceitual entre as etapas de normalização, extração de características e codificação, preferencialmente o processo de amostragem (extração de características) já ocorre juntamente com o processo de normalização. Assim, para a construção da imagem que contém a região de íris normalizada, são amostrados apenas os pixels relevantes, simplificando a necessidade computacional e diminuindo o tempo de processamento.[220] Despite the conceptual division between the normalization, feature extraction and coding steps, preferably the sampling process (feature extraction) already occurs together with the normalization process. Thus, for the construction of the image that contains the normalized iris region, only the relevant pixels are sampled, simplifying the computational need and reducing the processing time.

[221] Preferencialmente, é realizada uma revisão dos principais métodos da literatura para a extração de características e a criação das amostras biométricas (codificação).[221] Preferably, a review of the main methods in the literature for extracting features and creating biometric samples (coding) is performed.

[222] Basicamente, três métodos são os mais citados na literatura: Daugman, Wildes et al e Boles et al. Daugman e Boles et al. utilizam a técnica de Transformada Wavelet, amplamente conhecida na área de Processamento Digital de Sinais. Wildes apresenta uma proposta diferente, utilizando uma pirâmide Laplaciana. Uma visão global sobre cada etapa é apresentada a seguir.[222] Basically, three methods are the most cited in the literature: Daugman, Wildes et al and Boles et al. Daugman and Boles et al. use the Wavelet Transform technique, widely known in the area of Digital Signal Processing. Wildes presents a different proposal, using a Laplacian pyramid. An overview of each step is presented below.

[223] Wavelets podem ser utilizadas para analisar os dados da região de íris em diferentes escalas. Wavelets possuem como vantagem, em relação a tradicional Transformada de Fourier, o fato de analisar os dados localmente. Normalmente, faz-se o uso de um banco de Wavelets, ou seja, filtros de Wavelets em diferentes escalas. Boles et al. utilizam Wavelets para extração de características.[223] Wavelets can be used to analyze iris region data at different scales. Wavelets have the advantage, in relation to the traditional Fourier Transform, of analyzing the data locally. Normally, a bank of Wavelets is used, that is, Wavelet filters at different scales. Boles et al. use Wavelets for feature extraction.

[224] De forma geral, primeiramente, tem-se a normalização da região de íris, em que são amostrados 16 anéis virtuais. Cada anel é transformado em um vetor de 256 valores. Após isto, cada um dos vetores é tratado como um sinal unidimensional periódico. Aplica-se a cada sinal uma transformação com Wavelets diádicas, ou seja, Wavelets que variam a escala em potências de 2. É possível concluir que apenas alguns níveis de resolução realmente representam a íris.[224] In general, first, there is the normalization of the iris region, in which 16 virtual rings are sampled. Each ring is transformed into a vector of 256 values. After that, each of the vectors is treated as a one-dimensional periodic signal. A transformation with dyadic Wavelets is applied to each signal, that is, Wavelets that vary the scale in powers of 2. It is possible to conclude that only some resolution levels really represent the iris.

[225] Após a aplicação da transformada, ocorre um segundo processamento sobre os dados, denominado de cruzamento por zeros, para gerar um conjunto de dados finais que representa a informação de íris e permite posterior comparação.[225] After the application of the transform, there is a second processing on the data, called crossing by zeros, to generate a final data set that represents the iris information and allows subsequent comparison.

[226] Já os Filtros de Gabor são capazes de representar o sinal tanto no espaço quanto na frequência. Para isto, o sinal de entrada é modulado por uma função ejw, combinada com uma função gaussiana.[226] On the other hand, Gabor filters are able to represent the signal both in space and in frequency. For this, the input signal is modulated by an ejw function, combined with a Gaussian function.

[227] Existem diversas versões de filtros de Gabor, sendo os mais conhecidos os filtros de Gabor em uma dimensão (1D), em duas dimensões (2D) e em escala logarítmica (Log- Gabor).[227] There are several versions of Gabor filters, the best known being the one-dimensional (1D), two-dimensional (2D) and logarithmic scale (Log-Gabor) Gabor filters.

[228] O sinal de entrada é decomposto utilizando um par de filtros de Gabor em quadratura: uma parte real,especificada por uma função cosseno modulada por uma Gaussiana; e uma parte imaginária, especificada por uma função seno, também modulada por uma Gaussiana.[228] The input signal is decomposed using a pair of quadrature Gabor filters: a real part, specified by a cosine function modulated by a Gaussian; and an imaginary part, specified by a sine function, also modulated by a Gaussian.

[229] Os filtros real e imaginário são também conhecidos na literatura como componentes simétricos par e ímpar, respectivamente. A equação abaixo representa um filtro de Gabor em duas dimensões,

Figure img0023
onde: (x0,y0) representam uma posição na imagem;
Figure img0024
especificam a largura e o comprimento do filtro e (u0,v0) representam a modulação, com frequência espacial dada por:
Figure img0025
[229] The real and imaginary filters are also known in the literature as even and odd symmetric components, respectively. The equation below represents a Gabor filter in two dimensions,
Figure img0023
where: (x0,y0) represent a position in the image;
Figure img0024
specify the width and length of the filter and (u0,v0) represent the modulation, with spatial frequency given by:
Figure img0025

[230] Para extrair as características de íris e representá-la de forma a permitir uma futura comparação, Daugman utiliza filtros de Gabor. Em seus trabalhos, ele demonstra que filtros de Gabor 2D (em duas dimensões) são adequados para representar textura. Deste modo, podem ser utilizados para representar as características de íris.[230] To extract the iris characteristics and represent it in a way that allows a future comparison, Daugman uses Gabor filters. In his works, he demonstrates that 2D Gabor filters (in two dimensions) are suitable for representing texture. In this way, they can be used to represent iris features.

[231] Aplica-se o filtro de Gabor 2D sobre a imagem através do processo de convolução. O resultado da filtragem fornece coeficientes complexos. Deste modo, os valores reais e imaginários determinam a fase no plano complexo. Estes valores são utilizados para a criação de um vetor binário, formato final da representação da íris.[231] Apply the 2D Gabor filter on the image through the convolution process. The filtering result gives complex coefficients. In this way, the real and imaginary values determine the phase in the complex plane. These values are used to create a binary vector, the final format of the iris representation.

[232] O processo de construção deste vetor consiste em: para cada valor complexo de saída após a aplicação do filtro de Gabor 2D sobre a imagem normalizada, o valor de fase Φ é decodificado em uma das quatro possibilidades apresentadas na figura 6a, ou seja, dado um valor de fase, verifica-se em qual quadrante este se localiza e então o substitui por dois bits. Ao final do processo, um vetor de bits é gerado. Este vetor é denominado código de íris, é ilustrado na figura 6b.[232] The construction process of this vector consists of: for each complex output value after applying the 2D Gabor filter on the normalized image, the phase value Φ is decoded in one of the four possibilities presented in Figure 6a, that is, , given a phase value, check which quadrant it is in and then replace it with two bits. At the end of the process, a vector of bits is generated. This vector is called the iris code, it is illustrated in figure 6b.

[233] De modo distinto, o Filtro de Gabor 2D apresenta como desvantagem uma componente DC referente à parte par do filtro. Isso ocorre sempre que a largura de banda for maior do que uma oitava. Porém, pode-se obter um componente DC igual a zero para qualquer largura de banda utilizando-se o filtro de Gabor em escala logarítmica.[233] Differently, the 2D Gabor Filter has a DC component referring to the even part of the filter as a disadvantage. This occurs whenever the bandwidth is greater than one octave. However, one can obtain a DC component equal to zero for any bandwidth using the Gabor filter on a logarithmic scale.

[234] A resposta em frequência do filtro Log-Gabor é dada pela equação abaixo:

Figure img0026
onde: f0 representa a frequência central e 7 a largura de banda.[234] The frequency response of the Log-Gabor filter is given by the equation below:
Figure img0026
where: f0 represents the center frequency and 7 the bandwidth.

[235] Uma vez aplicada a transformada Log-Gabor sobre a imagem normalizada, pode-se efetuar o processo de demodulação proposto por Daugman para gerar o código de íris.[235] Once the Log-Gabor transform is applied to the normalized image, the demodulation process proposed by Daugman can be carried out to generate the iris code.

[236] Já o método da pirâmide laplaciana, proposto por Wildes et al, utiliza uma decomposição da imagem normalizada através de uma pirâmide Laplaciana. De modo geral, a partir da imagem normalizada, são produzidas outras quatro imagens através da aplicação, por convolução, do filtro representado pela equação abaixo:

Figure img0027
onde: 7 é o desvio padrão e P é a distância entre um dado ponto e o centro do filtro.[236] The Laplacian pyramid method, proposed by Wildes et al, uses a normalized image decomposition through a Laplacian pyramid. In general, from the normalized image, four other images are produced by applying, by convolution, the filter represented by the equation below:
Figure img0027
where: 7 is the standard deviation and P is the distance between a given point and the center of the filter.

[237] Assim, a imagem da íris pode ser decomposta em um conjunto de quatro matrizes, formando uma pirâmide Laplaciana. A proposta original de Wildes et al utiliza imagens de tamanhos 64x512, 32x256, 16x128 e 8x64.[237] Thus, the iris image can be decomposed into a set of four matrices, forming a Laplacian pyramid. The original proposal by Wildes et al uses images of sizes 64x512, 32x256, 16x128 and 8x64.

[238] Após a etapa de extração das características da íris e a conversão para um formato que permita a comparação entre amostras, é necessária uma etapa para verificar o grau de similaridade entre amostras. Posteriormente, é preciso estabelecer critérios de decisão para definir se duas amostras pertencem ao mesmo indivíduo ou não. Segundos levantamentos bibliográficos, também existem três técnicas mais utilizadas na literatura, Distância de Hamming (HD - Hamming Distance); Distância Euclidiana (WED - Weighted Euclidean Distance); e Correlação Normalizada.[238] After the step of extracting the iris features and converting to a format that allows comparison between samples, a step is necessary to verify the degree of similarity between samples. Subsequently, it is necessary to establish decision criteria to define whether two samples belong to the same individual or not. According to bibliographic surveys, there are also three most used techniques in the literature, Hamming Distance (HD - Hamming Distance); Euclidean Distance (WED - Weighted Euclidean Distance); and Normalized Correlation.

[239] A distância de Hamming fornece uma medida de quão diferente são dois padrões de bits. Para isto, efetua- se a operação XOR (ou exclusivo) entre cada bit de ambos os padrões. Dado dois vetores de bits, nominalmente X e Y, a equação abaixo apresenta o cálculo da distância de Hamming entre X e Y. Nota-se que o cálculo é normalizado para um valor no intervalo [0,1],

Figure img0028
[239] The Hamming distance provides a measure of how different two bit patterns are. For this, an XOR (or exclusive) operation is performed between each bit of both patterns. Given two vectors of bits, nominally X and Y, the equation below presents the calculation of the Hamming distance between X and Y. Note that the calculation is normalized to a value in the interval [0,1],
Figure img0028

[240] A distância de Hamming é então utilizada para verificar o grau de similaridade entre dois códigos de íris. Conforme mencionado, há a presença de ruídos na região de íris. Deste modo, é necessário desconsiderar os bits do vetor binário referentes a ruídos. Para isto, o total de bits é subtraído do total de bits considerados como de ruído em um ou em ambos os vetores amostrados, representado pela equação abaixo. Normalmente os trabalhos da literatura definem como ruídos os bits que representam os pixels que, embora pertença a região de íris, estão encobertos pelas pálpebras. São também considerados como ruídos os pixels de reflexos da região de íris,

Figure img0029
onde: Xi e Yi são dois vetores binários resultantes da extração de características após a demodulação e e y são os vetores ruídos correspondentes.[240] The Hamming distance is then used to check the degree of similarity between two iris codes. As mentioned, there is the presence of noise in the iris region. Thus, it is necessary to disregard the bits of the binary vector referring to noise. For this, the total number of bits is subtracted from the total number of bits considered as noise in one or both of the sampled vectors, represented by the equation below. Normally, works in the literature define as noise the bits that represent the pixels that, although they belong to the iris region, are covered by the eyelids. Also considered as noise are the reflection pixels of the iris region,
Figure img0029
where: Xi and Yi are two binary vectors resulting from feature extraction after demodulation and y are the corresponding noise vectors.

[241] Após o cálculo da distância de Hamming, é necessária a comparação com um limiar de corte previamente estabelecido. Caso o valor de Hamming seja menor do que o valor do limiar, o resultado é considerado como positivo. Caso não seja, é efetuado um deslocamento de bits à direita ou à esquerda dos vetores binários de uma amostra (código de íris e ruídos). Ou seja, efetua-se o deslocamento em uma das amostras enquanto a outra permanece constante. Após o deslocamento, efetua-se um novo cálculo da distância de Hamming e uma nova comparação com o limiar. O total de deslocamentos é uma escolha de projeto.[241] After calculating the Hamming distance, it is necessary to compare it with a previously established cut-off threshold. If the Hamming value is less than the threshold value, the result is considered positive. If not, a bit shift is performed to the right or left of the binary vectors of a sample (iris code and noise). That is, the displacement is carried out in one of the samples while the other remains constant. After the displacement, a new calculation of the Hamming distance is carried out and a new comparison with the threshold. The total displacements is a design choice.

[242] A distância Euclidiana fornece a medida de quão similar são duas amostras. Quando a comparação entre amostras é realizada com valores inteiros, opta-se pela utilização da distância Euclidiana. Deste modo, esta métrica, pode ser específica utilizando-se a equação abaixo,

Figure img0030
onde fi é a i-ésima característica da íris capturada (a íris candidata que pretende-se encontrar uma similar), é i-ésima característica da amostra k armazenada, e < é o desvio-padrão da i-ésima característica da amostra k.[242] The Euclidean distance provides a measure of how similar two samples are. When the comparison between samples is performed with integer values, the Euclidean distance is chosen. Thus, this metric can be specific using the equation below,
Figure img0030
where fi is the i-th characteristic of the captured iris (the candidate iris that we intend to find a similar one), is the i-th characteristic of the stored sample k, and < is the standard deviation of the i-th characteristic of the sample k.

[243] Sendo assim, as características da íris desconhecida são comparadas com as características das íris conhecidas. Caso a Distância Euclidiana entre esta e a amostra k seja mínima, será encontrada uma íris similar à candidata.[243] Therefore, the characteristics of the unknown iris are compared with the characteristics of the known iris. If the Euclidean Distance between this and the sample k is minimal, an iris similar to the candidate will be found.

[244] A terceira técnica descrita na literatura e proposta por Wildes é representada pela equação abaixo,

Figure img0031
[244] The third technique described in the literature and proposed by Wildes is represented by the equation below,
Figure img0031

[245] onde p1 e p2 são imagens de tamanho m x n, ;:i e'-7i são a média e o desvio-padrão da intensidade dos pixels de p1, e ;<2 e '-y2 são a média e o desvio-padrão da intensidade dos pixels de p2.[245] where p1 and p2 are images of size m x n, ;:i and '-7i are the mean and standard deviation of the pixel intensity of p1, and ;<2 and '-y2 are the mean and '-y2 p2 pixel intensity pattern.

[246] Através de um discriminante linear, é possível minimizar a variância intra-classe e maximizar a variância inter-classe e, deste modo, efetuar a escolha entre aceitar/rejeitar para a amostra da íris candidata.[246] Through a linear discriminant, it is possible to minimize the intra-class variance and maximize the inter-class variance and, in this way, make the choice between accept/reject for the candidate iris sample.

[247] Deste modo, preferencialmente, cada vetor binário obtido na etapa anterior ao armazenamento é salvo em um arquivo teste. Deste modo, gera-se para cada imagem de cada indivíduo uma representação binária de sua íris, sendo esta armazenada. Posteriormente, estes dados são lidos, armazenado em vetores e comparados. Para comparação, preferencialmente é utilizada a distância de Hamming.[247] In this way, preferably, each binary vector obtained in the step prior to storage is saved in a test file. In this way, a binary representation of its iris is generated for each image of each individual, which is stored. Subsequently, these data are read, stored in vectors and compared. For comparison, the Hamming distance is preferably used.

[248] De acordo com uma configuração preferencial da presente invenção, a etapa de extração de características tem como objetivo extrair características da íris e convertê-la para um formato que permita posterior comparação de forma rápida e eficaz. Assim, esta etapa foi implementada utilizando preferencialmente a função Log-Gabor, amplamente descrita no estado da técnica.[248] According to a preferred embodiment of the present invention, the feature extraction step aims to extract features from the iris and convert it to a format that allows subsequent comparison quickly and effectively. Thus, this step was implemented preferably using the Log-Gabor function, widely described in the state of the art.

[249] Cabe ressaltar que, conforme mencionado na subseção anterior, existem pixels pertencentes à região da íris encobertos e, por isso, são considerados como ruídos.[249] It should be noted that, as mentioned in the previous subsection, there are hidden pixels belonging to the iris region and, therefore, they are considered as noise.

[250] Deste modo, para efetuar a transformada, os valores desses pixels são atribuídos como zero, ao invés do valor de brilho da imagem original. Tal procedimento pode ser visualizado nas figuras 12A a 12H.[250] Thus, to perform the transform, the values of these pixels are assigned as zero, instead of the brightness value of the original image. Such procedure can be seen in figures 12A to 12H.

[251] Os pontos realçados da figura 12A são amostrados para gerar a imagem normalizada da figura 12B, que possui os pixels da região da íris amostrados. Os pontos realçados da figura 12C são considerados ruídos e marcados na imagem ruído, como pode ser visto na figura 12D. Em uma configuração preferencial da presente invenção, os seguintes procedimentos são realizados nesta etapa de extração de características: 1. Aplicar a Transformada de Fourier para cada linha da matriz normalizada, ou seja, uma linha por vez; a imagem resultante é denominada If e consiste de valores complexos para cada posição. 2. Realizar a convolução do filtro Log-Gabor com a imagem If; a convolução é realizada para cada linha separadamente, ou seja, primeira linha de If convoluída com a primeira linha do filtro e assim por diante; 3. Após a convolução, efetua-se o processo de demodulação, preferencialmente utilizando o método proposto por Daugman, previamente descrito e amplamente demonstrado no estado da técnica. 4. Após o processo de demodulação, tem-se como saída um vetor binário que representa a íris, conhecido como IrisCode.[251] The highlighted points of figure 12A are sampled to generate the normalized image of figure 12B, which has the pixels of the iris region sampled. The highlighted points in figure 12C are considered noise and marked in the noise image, as can be seen in figure 12D. In a preferred configuration of the present invention, the following procedures are performed in this feature extraction step: 1. Apply the Fourier Transform to each row of the normalized matrix, that is, one row at a time; the resulting image is named If and consists of complex values for each position. 2. Convolute the Log-Gabor filter with the If image; convolution is performed for each row separately, ie first row of If convoluted with first row of filter and so on; 3. After the convolution, the demodulation process is carried out, preferably using the method proposed by Daugman, previously described and widely demonstrated in the state of the art. 4. After the demodulation process, the output is a binary vector representing the iris, known as IrisCode.

[252] Cabe ressaltar que para efetuar a Transformada de Fourier, os valores das posições na imagem normalizada que correspondem a ruídos possuem seu valor de brilho alterado para zero.[252] It should be noted that to perform the Fourier Transform, the values of the positions in the normalized image that correspond to noise have their brightness value changed to zero.

[253] As figuras 12E a 12H ilustram a complementação de todo o processo para extração de uma íris característica, em que as parábolas e retas anteriormente encontradas são utilizadas para encontrar a região da íris, conforme pode ser visto nas figuras 12E e 12F. Neste caso, também é retirada a região da pupila, conforme pode ser visto na figura 12G, resultando na segmentação da íris normalizada e sem ruído, conforme pode ser visto na figura 12H.[253] Figures 12E to 12H illustrate the completion of the entire process for extracting a characteristic iris, in which the parabolas and lines previously found are used to find the iris region, as can be seen in figures 12E and 12F. In this case, the pupil region is also removed, as can be seen in Figure 12G, resulting in normalized and noise-free iris segmentation, as can be seen in Figure 12H.

[254] Deste modo, resumidamente a presente invenção descreve um método de segmentação de íris que compreende as etapas e sub-etapas de: (b1) Determinação das regiões de busca e processo de filtragem; (b2) Realce de bordas de regiões relevantes; (b3) Modelagem da íris; e (b4) Escolha do melhor modelo.[254] Thus, briefly the present invention describes an iris segmentation method comprising the steps and sub-steps of: (b1) Determining the search regions and filtering process; (b2) Edge enhancement of relevant regions; (b3) Modeling of the iris; and (b4) Choice of the best model.

[255] O método de segmentação proposto proporciona a criação de um método de localização e extração de uma região de íris que compreende as etapas e sub-etapas de: (a) Adquirir uma imagem de uma íris; (b) Segmentar a imagem da íris adquirida; (c) Normalizar a imagem da íris segmentada; e (d) Extrair características relevantes, da íris normalizada;[255] The proposed segmentation method provides the creation of a method for locating and extracting an iris region that comprises the steps and sub-steps of: (a) Acquiring an image of an iris; (b) Segment the acquired iris image; (c) Normalize the segmented iris image; and (d) Extract relevant features from the standardized iris;

[256] em que a etapa de segmentação da íris compreende as sub-etapas de: (b1) Determinação das regiões de busca e processo de filtragem; (b2) Realce de bordas de regiões relevantes; (b3) Modelagem da íris; e (b4) Escolha do melhor modelo.[256] in which the iris segmentation step comprises the sub-steps of: (b1) Determination of search regions and filtering process; (b2) Edge enhancement of relevant regions; (b3) Modeling of the iris; and (b4) Choice of the best model.

[257] Neste método de localização e extração de uma região de íris, a etapa de aquisição da imagem da íris preferencialmente compreende as sub-etapas de: (a) Adquirir uma imagem da íris; (a1) Filtragem e redução dos efeitos indesejáveis; (a2) Realce de bordas de regiões relevantes; (a3) Modelagem da pupila; e (a4) Verificação do modelo.[257] In this method of locating and extracting an iris region, the iris image acquisition step preferably comprises the sub-steps of: (a) Acquiring an iris image; (a1) Filtering and reducing undesirable effects; (a2) Edge enhancement of relevant regions; (a3) Pupil modeling; and (a4) Model verification.

[258] Ainda, a presente invenção descreve um método de autenticação biométrico que compreende as etapas de: (re) registro; e (au) autenticação.[258] Furthermore, the present invention describes a biometric authentication method comprising the steps of: (re)registration; and (au) authentication.

[259] A etapa de registro compreende as etapas e sub-etapas de: (a) Adquirir uma imagem de uma íris; (b) Segmentar a imagem da íris adquirida; (c) Normalizar a imagem da íris segmentada; (d) Extrair características relevantes, da íris normalizada; e (e) Armazenar as características relevantes. A etapa de autenticação compreende as etapas e sub-etapas de: (f) Adquirir a imagem da íris; (g) Segmentar a imagem da íris adquirida; (h) Normalizar a imagem da íris segmentada; (i) Extrair características relevantes, da íris normalizada; e (j) Comparar as características relevantes extraídas na etapa d da sub-etapa de autenticação com as características armazenadas na etapa e da sub-etapa de registro.[259] The registration step comprises the steps and sub-steps of: (a) Acquiring an image of an iris; (b) Segment the acquired iris image; (c) Normalize the segmented iris image; (d) Extract relevant features from the normalized iris; and (e) Store the relevant characteristics. The authentication step comprises the steps and sub-steps of: (f) Acquiring the iris image; (g) Segment the acquired iris image; (h) Normalize the segmented iris image; (i) Extract relevant features from the normalized iris; and (j) Compare the relevant features extracted in step d of the authentication sub-step with the features stored in step e of the registration sub-step.

[260] A etapa b de segmentação da imagem da íris adquirida compreendem as sub-etapas de: (b1) Determinação das regiões de busca e processo de filtragem; (b2) Realce de bordas de regiões relevantes; (b3) Modelagem da íris; e (b4) Escolha do melhor modelo.[260] Stage b of segmentation of the acquired iris image comprises the sub-steps of: (b1) Determination of search regions and filtering process; (b2) Edge enhancement of relevant regions; (b3) Modeling of the iris; and (b4) Choice of the best model.

[261] Obviamente, tal método de autenticação biométrico autentica um usuário caso a comparação na etapa (f) seja positiva, e não autenticar um usuário caso a comparação na etapa (f) seja negativa.[261] Obviously, such a biometric authentication method authenticates a user if the comparison in step (f) is positive, and does not authenticate a user if the comparison in step (f) is negative.

[262] Por fim, é previsto também pela presente invenção um sistema de autenticação biométrico que compreende um meio de aquisição da imagem de uma íris, um controlador configurado de modo a segmentar a imagem da íris adquirida, normalizar a imagem da íris segmentada, extrair características relevantes da íris da imagem da íris normalizada e armazenar as características relevantes em uma memória, e posteriormente adquirir uma nova imagem de uma íris, segmentar a imagem da íris adquirida, normalizar a imagem da íris segmentada, extrair características relevantes da íris da imagem da íris normalizada e comparar as características relevantes extraídas com as características armazenadas na memória.[262] Finally, the present invention also provides for a biometric authentication system that comprises a means for acquiring an iris image, a controller configured in order to segment the acquired iris image, normalize the segmented iris image, extract relevant iris features from the normalized iris image and store the relevant features in a memory, then acquire a new image of an iris, segment the acquired iris image, normalize the segmented iris image, extract relevant iris features from the normalized iris and compare the relevant extracted features with the features stored in memory.

[263] Novamente, o sistema de autenticação biométrico, autentica um usuário caso a comparação seja positiva e não autentica um usuário caso a comparação seja negativa.[263] Again, the biometric authentication system authenticates a user if the match is positive and does not authenticate a user if the match is negative.

[264] Assim, a invenção consiste em um conjunto de técnicas com o objetivo de segmentar a região da íris de uma imagem ocular. Segmentar significa localizar, isolar e extrair a região de íris de uma imagem.[264] Thus, the invention consists of a set of techniques with the objective of segmenting the iris region of an ocular image. Segmenting means locating, isolating and extracting the iris region of an image.

[265] A imagem ocular de entrada conterá as seguintes regiões: pupila, íris, pálpebras superior e inferior e esclerótica (parte branca do olho).[265] The input ocular image will contain the following regions: pupil, iris, upper and lower eyelids, and sclera (white part of the eye).

[266] Outros elementos, considerados como fatores adversos, uma vez que não são de interesse para o problema, também estarão presentes, tais como: cílios, reflexos ocasionados pela luz ambiente durante a captura e as pálpebras sobre a íris. Neste último caso, a região de íris não estará totalmente visível.[266] Other elements, considered as adverse factors, since they are not of interest to the problem, will also be present, such as: eyelashes, reflections caused by ambient light during capture and the eyelids over the iris. In the latter case, the iris region will not be fully visible.

[267] O conjunto de técnicas do método aqui descrito envolve três etapas: determinar a fronteira da região da pupila, determinar a fronteira da região de íris; determinar a localização das pálpebras. Em todas as etapas são considerados os inúmeros fatores adversos mencionados (cílios, reflexos, oclusões).[267] The set of techniques of the method described here involves three steps: determining the boundary of the pupil region, determining the boundary of the iris region; determine the location of the eyelids. In all stages, the numerous adverse factors mentioned (lashes, reflexes, occlusions) are considered.

[268] Os métodos propostos foram testados por um conjunto de 26.225 imagens do banco de dados, sendo: (1) 2.631 imagens do conjunto Interval;(2) (16.208) imagens do conjunto Lamp; e (3) 7.386 imagens do conjunto Thousand.[268] The proposed methods were tested on a set of 26,225 images from the database, as follows: (1) 2,631 images from the Interval set; (2) (16,208) images from the Lamp set; and (3) 7,386 images from the Thousand set.

[269] A Tabela I apresenta os resultados obtidos em termos de taxa de erros de segmentação, detalhados para cada subconjunto, sendo imagens capturadas de ambos os olhos. Nas tabelas apresentadas, adotou-se a seguinte notação: a letra E indica imagens do olho esquerdo; a letra D indica imagens do olho direito. Para verificar se a íris foi corretamente localizada, cada imagem foi analisada visualmente. Um erro de segmentação indica que a íris não foi localizada corretamente, seja por causa de erro de localização da pupila, da íris ou das pálpebras. Uma não localização correta significa que não foi possível extrair da imagem original a região de íris para efetuar a autenticação, seja por: (1) o algoritmo localizou de forma incorreta a íris/pupila/pálpebras, ou seja, indicou uma região que não correspondia a verdadeira; ou (2) apesar de localizada a íris/pupila/pálpebras, o algoritmo não determinou precisamente suas fronteiras, o que não possibilitou a autenticação biométrica por parte do sistema. As comparações foram realizadas com todo o banco de dados, embora o estado da técnica geralmente costuma fazer comparações apenas com os de melhor qualidade, por exemplo, o subconjunto Interval.[269] Table I presents the results obtained in terms of segmentation error rate, detailed for each subset, being images captured from both eyes. In the tables presented, the following notation was adopted: the letter E indicates images of the left eye; the letter D indicates images of the right eye. To verify that the iris was correctly located, each image was visually analyzed. A segmentation error indicates that the iris was not located correctly, either because of an error in the location of the pupil, iris, or eyelids. A non-correct location means that it was not possible to extract the iris region from the original image to perform the authentication, either because: (1) the algorithm incorrectly located the iris/pupil/eyelids, that is, it indicated a region that did not correspond the truth; or (2) despite the iris/pupil/eyelids being located, the algorithm did not precisely determine its boundaries, which did not allow the system to perform biometric authentication. Comparisons were performed with the entire database, although prior art generally only makes comparisons with the best quality ones, for example, the Interval subset.

[270] A Tabela II apresenta a comparação do método proposto com 3 métodos do estado-da-arte disponíveis na literatura.Tabela I: Performance em relação a correta taxa de segmentação (localização e extração da região de íris).

Figure img0032
Figure img0033
Tabela II: Comparação com o estado-da-arte - CASIAv3 Interval.
Figure img0034
[270] Table II presents the comparison of the proposed method with 3 state-of-the-art methods available in the literature.Table I: Performance in relation to the correct segmentation rate (location and extraction of the iris region).
Figure img0032
Figure img0033
Table II: State-of-the-art comparison - CASIAv3 Interval.
Figure img0034

[271] A título comparativo, utilizando o mesmo banco de dados e as mesmas condições de hardware, foram testas técnicas de detecção de íris, pupila e pálpebras disponibilizados por técnicas anteriores. Em relação ao tempo de processamento, o método aqui proposto fornece um ganho de 15 vezes em relação ao mais utilizado.[271] By way of comparison, using the same database and the same hardware conditions, iris, pupil and eyelid detection techniques provided by previous techniques were tested. Regarding the processing time, the method proposed here provides a gain of 15 times in relation to the most used one.

[272] Na comparação de taxas de acertos, na etapa de segmentação, o método proposto apresenta um ganho de 10% em relação ao mais utilizado, mantendo ao final de todas as etapas do processo de reconhecimento praticamente as mesmas taxas de detecção (FRR e FAR), sendo inferior a 1% se descartarmos as imagens não segmentadas corretamente e 12% caso não sejam descartadas.[272] In the comparison of hit rates, in the segmentation stage, the proposed method presents a gain of 10% in relation to the most used one, maintaining practically the same detection rates at the end of all stages of the recognition process (FRR and FAR), being less than 1% if we discard non-segmented images correctly and 12% if they are not discarded.

[273] Daugman, o principal autor na área, em diversos documentos fornece os erros FRR e FAR inferiores a 1%, descartando as imagens não segmentadas corretamente (a primeira de suas técnicas, em um dos primeiros artigos). Comparando com esta taxa, o método aqui proposto, é previsto um alto ganho em número de acertos, mantendo a taxa final de reconhecimento abaixo de 1% (ao descartar as imagens segmentadas incorretamente). Assim, nossos algoritmos melhoram a etapa de segmentação, o que traz a vantagem de ser necessário um número menor de captura de imagens para fins comparativos no reconhecimento. E ainda assim, mantêm as taxas de reconhecimentos apresentadas pelos principais autores na área.[273] Daugman, the lead author in the field, in several documents gives FRR and FAR errors of less than 1%, discarding non-segmented images correctly (the first of his techniques, in one of the first articles). Comparing with this rate, the method proposed here provides a high gain in number of hits, keeping the final recognition rate below 1% (by discarding incorrectly segmented images). Thus, our algorithms improve the segmentation step, which has the advantage of requiring a smaller number of image captures for comparative recognition purposes. And yet, they maintain the recognition rates presented by the main authors in the area.

[274] Por fim, foi realizada a comparação de curvas ROC obtidas com os resultados ao final do processo de reconhecimento considerando as imagens não detectadas corretamente na etapa de segmentação, e curvas ROC desconsiderando as imagens segmentadas incorretamente. Comparando ambas as curvas, foi possível verificar que a etapa de segmentação é importante no processo todo, pois uma imagem não segmentada corretamente pode levar há um erro no processo final de reconhecimento.[274] Finally, the comparison of ROC curves obtained with the results at the end of the recognition process was performed considering the images not correctly detected in the segmentation step, and ROC curves disregarding the incorrectly segmented images. Comparing both curves, it was possible to verify that the segmentation step is important in the whole process, since an image not segmented correctly can lead to an error in the final recognition process.

[275] Ao se descartar as imagens não segmentadas corretamente, é possível manter as taxas de erros apresentadas na literatura. Dessa forma, como o método aqui proposto obtém um ganho na etapa de segmentação, através do descarte de uma quantidade menor de imagens, isto o torna melhor do que os sistemas apresentados na literatura.[275] By correctly discarding unsegmented images, it is possible to maintain the error rates presented in the literature. Thus, as the method proposed here obtains a gain in the segmentation step, by discarding a smaller amount of images, this makes it better than the systems presented in the literature.

[276] Além disso, é necessário também analisar o fator do tempo de execução, uma vez que o método proposto pela presente invenção para segmentar é mais rápido do que os apresentados na literatura, como discutido.[276] In addition, it is also necessary to analyze the execution time factor, since the method proposed by the present invention to segment is faster than those presented in the literature, as discussed.

[277] A correta segmentação é fundamental para o processo de reconhecimento. Com a nova metodologia proposta, além de reduzirmos os tempos de segmentação, aumentados a taxa de acertos nesta etapa, mantendo a alta precisão das etapas seguintes no reconhecimento. Com isto, é possível concluir que o método de detecção de íris é mais apropriado para ser utilizado em sistema de reconhecimento de íris, podendo vir a substituir os métodos atuais, solucionando os problemas de capacidade de processamento, velocidade e treinamento apontados no estado da técnica.[277] Correct segmentation is critical to the recognition process. With the new proposed methodology, in addition to reducing segmentation times, increasing the hit rate in this step, maintaining the high accuracy of the following steps in the recognition. With this, it is possible to conclude that the iris detection method is more appropriate to be used in an iris recognition system, being able to replace the current methods, solving the problems of processing capacity, speed and training pointed out in the state of the art. .

[278] Embora a invenção tenha sido amplamente descrita, é óbvio para aqueles versados na técnica que várias alterações e modificações podem ser feitas sem que as referidas alterações não estejam cobertas pelo escopo da invenção.[278] Although the invention has been extensively described, it is obvious to those skilled in the art that various changes and modifications may be made without said changes falling outside the scope of the invention.

Claims (15)

1. Método de segmentação de íris que compreende as etapas e sub-etapas de: (a) Adquirir uma imagem ocular; e (b) Segmentar a imagem adquirida; em que a etapa de segmentação compreende as sub-etapas de: (c) ) Determinar as fronteiras da região da pupila; e (d) ) Determinar as fronteiras da íris.1. Iris segmentation method comprising the steps and sub-steps of: (a) Acquiring an ocular image; and (b) Segment the acquired image; wherein the segmentation step comprises the sub-steps of: (c) ) Determining the boundaries of the pupil region; and (d) ) Determine the boundaries of the iris. 2. Método de segmentação de íris, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a determinação das fronteiras da região da pupila, etapa (b1), compreende as seguintes etapas: (b1.1) Filtragem e redução dos efeitos indesejáveis; (b1.2) Realce de bordas de regiões relevantes; (b1.3) Modelagem da pupila, sendo que a referida modelagem compreende determinar, primeiramente, o parâmetro Xp, e posteriormente, os parâmetros (Yp, Rp); e (b1.4) Verificação do modelo.2. Iris segmentation method, according to claim 1, CHARACTERIZED by the fact that the determination of the boundaries of the pupil region, step (b1), comprises the following steps: (b1.1) Filtering and reduction of undesirable effects ; (b1.2) Edge enhancement of relevant regions; (b1.3) Modeling of the pupil, and said modeling comprises determining, first, the parameter Xp, and later, the parameters (Yp, Rp); and (b1.4) Model verification. 3. Método de segmentação de íris, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que na etapa de filtragem e redução dos efeitos indesejáveis (b1.1), é utilizado, preferencialmente, um filtro de dimensão 15x15.3. Iris segmentation method, according to claim 2, CHARACTERIZED by the fact that in the filtering and undesirable effects reduction step (b1.1), a 15x15 dimension filter is preferably used. 4. Método de segmentação de íris, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que na modelagem de pupila, etapa (b1.3), a determinação do parâmetro Xp é realizada utilizando os conjuntos S3 e S4.4. Iris segmentation method, according to claim 2, CHARACTERIZED by the fact that in pupil modeling, step (b1.3), the determination of parameter Xp is performed using sets S3 and S4. 5. Método de segmentação de íris, de acordo com as reivindicações 2 e 4, CARACTERIZADO pelo fato de que na modelagem de pupila, etapa (b1.3), a determinação dos parâmetros (Yp, Rp) é realizada a partir do parâmetro Xp e dos conjuntos S1, S2, S3 e S4.5. Iris segmentation method, according to claims 2 and 4, CHARACTERIZED by the fact that in pupil modeling, step (b1.3), the determination of the parameters (Yp, Rp) is carried out from the parameter Xp and from sets S1, S2, S3 and S4. 6. Método de segmentação de íris, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que a verificação do modelo, etapa(b1.4), compreende construir uma circunferência utilizando os parâmetros (Yp, Xp) e Rp; e verificar se um percentual mínimo de pontos da circunferência corresponde a pixels de borda na imagem.6. Iris segmentation method, according to claim 2, CHARACTERIZED by the fact that the model verification, step (b1.4), comprises building a circle using the parameters (Yp, Xp) and Rp; and verify that a minimum percentage of points on the circumference correspond to edge pixels in the image. 7. Método de segmentação de íris, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que quando não é verificado um percentual mínimo de pontos da circunferência correspondente a pixels de borda na imagem, retorna-se a etapa (b1.2) utilizando-se novos valores para o limiar de corte utilizado para a criação da imagem binária.7. Iris segmentation method, according to claim 6, CHARACTERIZED by the fact that when a minimum percentage of points of the circumference corresponding to edge pixels in the image is not verified, step (b1.2) is returned using New values for the cutoff threshold used to create the binary image are added. 8. Método de segmentação de íris, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que o limiar de corte compreende valores entre 20 e 150.8. Iris segmentation method, according to claim 7, CHARACTERIZED by the fact that the cut-off threshold comprises values between 20 and 150. 9. Método de segmentação de íris, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que quando não é verificado um percentual mínimo de pontos da circunferência correspondente aos pixels de borda da imagem, alternativamente, retorna-se a etapa (b1.1), utilizando-se pelo menos um filtro selecionado dentre um filtro de dimensões 9x9 e um filtro de dimensões 21x21.9. Iris segmentation method, according to claim 6, CHARACTERIZED by the fact that when a minimum percentage of points of the circumference corresponding to the edge pixels of the image is not verified, alternatively, step (b1.1) ), using at least one filter selected from a filter with dimensions 9x9 and a filter with dimensions 21x21. 10. Método de segmentação de íris, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a determinação das fronteiras da íris, etapa (b2), compreende as seguintes etapas: (b2.1) Determinação das regiões de busca e processo de filtragem; (b2.2) Realce de bordas de regiões relevantes; (b2.3) Modelagem da íris; e (b2.4) Escolha do melhor modelo.10. Iris segmentation method, according to claim 1, CHARACTERIZED by the fact that the determination of the iris boundaries, step (b2), comprises the following steps: (b2.1) Determination of the search regions and process of filtering; (b2.2) Edge enhancement of relevant regions; (b2.3) Modeling of the iris; and (b2.4) Choice of the best model. 11. Método de segmentação de íris, de acordo com a reivindicação 10, CARACTERIZADO pelo fato de que a determinação das regiões relevantes, etapa (b2.1), é realizada utilizando os parâmetros (Xp, Yp) e Rp.11. Iris segmentation method, according to claim 10, CHARACTERIZED by the fact that the determination of the relevant regions, step (b2.1), is carried out using the parameters (Xp, Yp) and Rp. 12. Método de autenticação biométrico que compreende as etapas e sub-etapas de: (a) Adquirir uma imagem ocular; (b) Segmentar a imagem adquirida; em que a etapa de segmentação compreende as sub-etapas de: (b1) Determinar as fronteiras da região da pupila; (b2) Determinar as fronteiras da íris; e (c) Normalizar a região da íris segmentada; (d) Extrair características relevantes, da íris normalizada; (e) (re) Registro; e (f) (au) Autenticação;12. Biometric authentication method comprising the steps and sub-steps of: (a) Acquiring an eye image; (b) Segment the acquired image; wherein the segmentation step comprises the sub-steps of: (b1) Determining the boundaries of the pupil region; (b2) Determine the boundaries of the iris; and (c) Normalize the segmented iris region; (d) Extract relevant features from the normalized iris; (e) (re) Registration; and (f) (au) Authentication; 13. Sistema de autenticação biométrico CARACTERIZADO pelo fato de compreender um meio de aquisição de uma imagem ocular; um controlador configurado de modo a segmentar a imagem ocular adquirida para localização da pupila e da íris; extrair a região da íris, normalizar a região da íris extraída; amostrar as características relevantes da região da íris normalizada; e armazenar as características relevantes em uma memória, e posteriormente adquirir uma nova imagem ocular, segmentar a imagem ocular adquirida, normalizar a imagem da íris segmentada, extrair características relevantes da íris da imagem da íris normalizada e comparar as características relevantes extraídas com as características armazenadas na memória.13. Biometric authentication system CHARACTERIZED by the fact that it comprises a means of acquiring an eye image; a controller configured to segment the acquired eye image for pupil and iris location; extract the iris region, normalize the extracted iris region; sample the relevant features of the normalized iris region; and store the relevant features in a memory, then acquire a new eye image, segment the acquired eye image, normalize the segmented iris image, extract relevant iris features from the normalized iris image, and compare the relevant extracted features with the stored features in the memory. 14. Sistema de autenticação biométrico, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de autenticar um usuário caso a comparação seja positiva; e não autenticar um usuário caso a comparação seja negativa.14. Biometric authentication system, according to claim 13, CHARACTERIZED by the fact that it authenticates a user if the comparison is positive; and not authenticate a user if the comparison is negative. 15. Método de autenticação biométrico, CARACTERIZADO pelo fato de compreender um método de segmentação de acordo com o definido nas reivindicações 1 a 11.15. Biometric authentication method, CHARACTERIZED by the fact that it comprises a segmentation method as defined in claims 1 to 11.
BR102014012954-5A 2014-05-29 2014-05-29 Iris segmentation method, biometric authentication method and biometric authentication system BR102014012954B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BR102014012954-5A BR102014012954B1 (en) 2014-05-29 2014-05-29 Iris segmentation method, biometric authentication method and biometric authentication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BR102014012954-5A BR102014012954B1 (en) 2014-05-29 2014-05-29 Iris segmentation method, biometric authentication method and biometric authentication system

Publications (2)

Publication Number Publication Date
BR102014012954A2 BR102014012954A2 (en) 2015-12-22
BR102014012954B1 true BR102014012954B1 (en) 2022-04-26

Family

ID=55083020

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102014012954-5A BR102014012954B1 (en) 2014-05-29 2014-05-29 Iris segmentation method, biometric authentication method and biometric authentication system

Country Status (1)

Country Link
BR (1) BR102014012954B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080580B (en) * 2019-11-29 2023-06-09 山东大学 Method and system for rapid threshold segmentation of ultrasonic breast tumors based on neutrosophic ensemble

Also Published As

Publication number Publication date
BR102014012954A2 (en) 2015-12-22

Similar Documents

Publication Publication Date Title
US8064653B2 (en) Method and system of person identification by facial image
BR112016005674B1 (en) METHOD IMPLEMENTED BY COMPUTER AND SYSTEM
Zhou et al. An efficient 3-D ear recognition system employing local and holistic features
Maity et al. 3D ear segmentation and classification through indexing
Pandey et al. ASRA: Automatic singular value decomposition-based robust fingerprint image alignment
Garagad et al. A novel technique of iris identification for biometric systems
Jayaraman et al. Use of geometric features of principal components for indexing a biometric database
Khodadoust et al. Design and implementation of a multibiometric system based on hand’s traits
Said et al. Fast and efficient 3D face recognition using wavelet networks
Barra et al. Unconstrained ear processing: What is possible and what must be done
Pflug et al. Segmentation and normalization of human ears using cascaded pose regression
Cadoni et al. Large scale face identification by combined iconic features and 3d joint invariant signatures
Krishneswari et al. A review on palm print verification system
Vinay et al. Surveillance robots based on pose invariant face recognition using ssim and spectral clustering
BR102014012954B1 (en) Iris segmentation method, biometric authentication method and biometric authentication system
Khodadoust et al. A Unified Framework for Segmentation, Scaling, and Indexing of Contactless Fingerprints
Dhawanpatil et al. Face spoofing detection using multiscale local binary pattern approach
Intan et al. Facial recognition using multi edge detection and distance measure
Kalaiselvi et al. Biometric security with iris recognition techniques: A review
Azmi et al. Freeman chain code (FCC) representation in signature fraud detection based on nearest neighbour and artificial neural network (ANN) classifiers
Bakshi et al. Postmatch pruning of SIFT pairs for iris recognition
Kumar et al. Isometric efficient and accurate Fourier-SIFT method in iris recognition system
De Marsico et al. Face authentication with undercontrolled pose and illumination
Pavithra et al. Scale Invariant Feature Transform Based Face Recognition from a Single Sample per Person
Bharathi et al. Iris Recognition System Using Circular Hough Transform and HOG

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B15K Others concerning applications: alteration of classification

Ipc: G06T 7/10 (2017.01), G06K 9/00 (2006.01), A61B 5/1

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06V Preliminary requirement: patent application procedure suspended [chapter 6.22 patent gazette]
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 29/05/2014, OBSERVADAS AS CONDICOES LEGAIS.