[go: up one dir, main page]

ITTO940765A1 - Procedimento per memorizzare e ritrovare immagini di persone, ad esempio in archivi fotografici e per la costruzione di identikit. - Google Patents

Procedimento per memorizzare e ritrovare immagini di persone, ad esempio in archivi fotografici e per la costruzione di identikit. Download PDF

Info

Publication number
ITTO940765A1
ITTO940765A1 IT94TO000765A ITTO940765A ITTO940765A1 IT TO940765 A1 ITTO940765 A1 IT TO940765A1 IT 94TO000765 A IT94TO000765 A IT 94TO000765A IT TO940765 A ITTO940765 A IT TO940765A IT TO940765 A1 ITTO940765 A1 IT TO940765A1
Authority
IT
Italy
Prior art keywords
images
image
distance
region
processing means
Prior art date
Application number
IT94TO000765A
Other languages
English (en)
Inventor
Roberto Brunelli
Ornella Mich
Original Assignee
Ist Trentino Di Cultura
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ist Trentino Di Cultura filed Critical Ist Trentino Di Cultura
Priority to IT94TO000765A priority Critical patent/IT1277993B1/it
Publication of ITTO940765A0 publication Critical patent/ITTO940765A0/it
Priority to CA002155901A priority patent/CA2155901A1/en
Priority to US08/520,479 priority patent/US5764790A/en
Priority to EP95113756A priority patent/EP0704822A3/en
Publication of ITTO940765A1 publication Critical patent/ITTO940765A1/it
Application granted granted Critical
Publication of IT1277993B1 publication Critical patent/IT1277993B1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

A ciascuna caratteristica (o feature) delle immagini da memorizzare viene associata una regione (rF) la cui grandezza corrisponde alla grandezza media della caratteristica stessa nelle immagini che vengono memorizzate. Se (Fi)i - i, _. N è un insieme di immagini della caratteristica F, dove Fi è l'immagine associata a ciascuna delle N persone della base dati, a partire da dette immagini viene generato un nuovo insieme di immagini (?j)j - o, i, _. N del tipo (FORMULA I) un sottoinsieme delle quali (?)i - o,_. X può essere utilizzato per approssimare, codificare, confrontare e costruire in modo interattivo immagini della tipologia considerata.Applicazione preferenziale alle tecniche di ricerche in archivi fotografici e per la costruzione di identikit.(Figura 1).

Description

DESCRIZIONE dell'invenzione industriale dal titolo: "Procedimento per memorizzare e ritrovare immagini di persone, ad esempio in archivi fotografici e per la costruzione di identikit erelativosistema
TESTO DELLA DESCRIZIONE
La presente invenzione affronta in generale il problema della memorizzazione e recupero di immagini di persona, ad esempio per la realizzazione di archivi fotografici, soprattutto per guanto riguarda lo svolgimento della funzione cosiddetta di identikit.
Al momento attuale, due sono i metodi principalmente seguiti per stabilire l'identità di persone, quando si vuole usufruire del ricordo di un testimone oculare: il primo metodo consiste nel mostrare al testimone una serie di fotografie; il secondo metodo consiste nel fare un identikit, cioè una ricostruzione dei tratti fisionomici dell'individuo cercato.
Il metodo di ricerca del volto noto in una serie di foto ha un grande svantaggio: spesso queste serie sono molto lunghe, a volte comprendono alcune decine di migliaia di soggetti, e ciò comporta, per avere un buon esito nella ricerca una notevole capacità# da parte del testimone, di mantenere a lungo l’attenzione. E' stato infatti dimostrato che il numero di falsi riconoscimenti aumenta con l'aumentare della lunghezza della serie.
I problemi relativi al secondo metodo citato# cioè la costruzione di un identikit sono legati al fatto che il testimone deve a meno che non sia un disegnatore# interagire con l'operatore che materialmente costituisce l'identikit, dandogli una quanto più precisa descrizione verbale del volto da ricostruire. Il testimone# quindi, deve possedere una buona capacità di linguaggio ed essere in grado di interagire positivamente con l'operatore.
Descrivere un volto significa dire come sono fatte (forma, colore, dimensioni, ecc.) e come sono distribuite le varie parti che lo costituiscono. Va precisato, che nel seguito della presente descrizione, il termine "parti" verrà utilizzato in modo intercambiabile con il termine "features" ovvero con il termine "caratteristiche" per dare maggiore precisione alla descrizione stessa. Le diverse caratteristiche del volto umano possono essere distinte in caratteristiche interne (occhi, naso, bocca) e in caratteristiche esterne (orecchie, mento, capelli, forma globale del volto, eco .).
Un risultato fondamentale delle ricerche sul processo di riconoscimento di volti di cui si deve tener conto per la costruzione di sistemi identikit è quello documentato, ad esempio, nell'articolo di H. D. Ellis, J. W. Shepherd e G. M. Davies "Identification of familiar and unfamiliar faces from internai and external features: some implications for theories of face recognition", Perception, 8:431-439, 1979. in particolare è stato dimostrato che le caratteristiche esterne e le caratteristiche interne sono ugualmente importanti nel caso di riconoscimento di facce non familiari, mentre per il riconoscimento di volti familiari sono più importanti le caratteristiche interne. Fattore, quest'ultimo, riconosciuto anche nell'articolo di G. Davies "The recali and reconstruction of faces: Implications for theory and practice" riprodotto nel capitolo 10, pagine 388-397 del testo "Aspects of Face Processing" curato da H.D. Ellis, M. A. Jeeves, F. Newcombe, e A. Young editori. Martinus Nijhoff Publishers, 1986.
Finora sono stati implementati diversi sistemi per la costruzione di identikit e per scorrere in modo intelligente vaste basi dati fotografiche, sistemi che a volte utilizzano gli elaboratori elettronici.
Alcuni esempi di tali sistemi per la ricerca di volti in base a dati estesi sono il CAPSAR (per una descri-zione compiuta si veda ad esempio l'articolo D. R. Lenorovitz e K.R. Laughery "A witness -computer Interactive System for searching mug files" riprodotto nel testo "Eyewitness Testimony. Psychological Perspectives" curato da G. R. Wells e E. F. Loftus, Cambridge, Inghilterra: Cambridge University Press, 1984) e il FRAMES (si veda al riguardo l'articolo di J. Shepherd e H. Ellis "Face recogn.ition and recali using computer -Interactive methods with eye witnesess" riprodotto nel capitolo 6, pagine 129-148, del testo "Processing Images of Faces" curato da Vicki Bruce e Mike Bruton, Ablex Publishing Corporation -Norwood, New Jersey, 1992.
Sistemi in grado di costruire identikit quali WHAT SiSFACE, un sistema uomo-macchina con il quale un soggetto non artista riesce a costruire su un visualizzatore grafico qualsiasi volto rappresentato da una fotografia posta di fronte a lui (per una descrizione si veda l'articolo di M. L. Gillenson e B. Chandrasekaran "A heuristic strategy for developing human facial images on a crt" Pattern Recognition, 7:187-196, 1975) e l'Identi-Kit, il quale fornisce, per alcune caratteristiche del volto (occhi, naso.
bocca, capelli e contorno), un insieme di possibilità sotto forma di disegni su fogli trasparenti; il volto viene costruito sovrapponendo questi fogli (si vedano al riguardo il testo di V. Bruce "Recognising Faces," capitolo Faces as Patterns, pagine 37-58, Lawrence Erlbaum Associates, 1988 e l'articolo di K.R. Laughery e R.H.Fowler "Sketch artist and identi-kit procedure for recai ling faces" su Journal of Applied Psychology", 65 (3):307-316, 1980). Ancora, si può menzionare il cosiddetto Photofit che è la versione con fotografie del sistema precedente, versioni computerizzate degli ultimi sistemi citati sono il Mac-a-Mug Pro e l'E-FIT (vedere l'articolo di J. Shepherd e H. Ellis "Face recognition and recali using computer- Interactive methods with eye witnesses" già citato in precedenza) .
L'assunzione principale dei sistemi Identi-Kit e Photofit, riguarda il modo secondo cui viene percepito un volto: essi infatti lo considerano un insieme di caratteristiche indipendenti, che possono essere sommate o sottratte, sempre indipendentemente l'una dall'altra (il volto viene visto semplicemente come l'unione delle parti). Tale assunzione è in contrapposizione con quegli studi che ritengono che nel processo di riconoscimento il volto venga considerato come un intero, in cui sono fondamentali le relazioni fra le varie caratteristiche.
Questo potrebbe essere uno dei motivi per cui tali sistemi non risultano molto efficienti.
Infatti diversi lavori hanno dimostrato la superiorità del processo cognitivo che considera il volto complessivamente, ossia l'importanza della funzione relativa delle diverse caratteristiche o features. Alcuni lavori di Haig, quali gli articoli "The effect of feature displacement on face recognition", Percaption 13:505-512, 1984, "Explorating recognition with interchanged facial features" Perception, 15:235-247, 1986 o ancora "Investigating face recognition with an image processing computer", riprodotto al capitolo 10, pagine 410-425 del testo "Aspects of face processing" curato da H. D. Ellis, M. A. Jeeves, F. Newcombe, e A. Young, Dordrecht: Martinus Nijhoff, 1986 hanno verificato che osservatori umani sono sensibili a piccoli aggiustamenti nella posizione delle caratteristiche all'interno del volto. Nei sistemi citati non è invece possibile variare la distanza fra determinate caratteristiche, ad esempio la distanza fra gli occhi è fissa. Altro problema potrebbe derivare dal fatto che vengono messe insieme caratteristiche che in realtà non potrebbero esserlo (si veda.
al riguardo: D. H. Enlow "Handbook of Pacial Growth" Philadelphia: W. B. Saunders, seconda ed. 1982).
Ricerche sulla bontà dei due sistemi Photofit e Identi -Kit dicono che non hanno buone prestazioni anche a causa del limitato numero di alternative fom ite per ogni caratteristica e per le forme del volto. Inoltre essi sono considerati difficili da usare perché è necessario cercare la forma desiderata della caratteristica in insiemi di altern ative isolate dalla configurazione globale del volto.
Scopi e sintesi dell'invenzione
La presente invenzione si prefigge quindi lo scopo di fornire una soluzione che superi gli inconvenienti intrinseci delle soluzioni precedentemente note.
Secondo la presente invenzione, tale scopo viene raggiunto grazie ad un procedimento avente le caratteristiche richiamate in modo specifico nelle rivendicazioni che seguono. L'invenzione riguarda anche il relativo sistema.
La soluzione secondo la presente invenzione può essere utilizzata sia per la ricerca efficiente all'interno di un vasto archivio fotografico, sia per la creazione di identikit direttamente da parte del testimone. In particolare, l'invenzione permette di superare le limitazioni delle due principali metodologie menzionate nella parte introduttiva della presente descrizione: nel primo caso, limitando il numero di fotografie che il testimone deve analizzare; nel secondo caso permettendo al testimone di creare direttamente l'identikit avendo un immediato riscontro visivo e potendo usufruire di un numero praticamente illimitato di alternative.
Descrizione particolareggiata dell'invenzione
L'invenzione verrà ora descritta a puro titolo di esempio non limitativo, con riferimento ai disegni annessi, in cui:
- la figura 1 illustra, sotto forma di uno schermo a blocchi funzionale, la configurazione di un sistema secondo l'invenzione,
- la figura 2 illustra una possibile configurazione dell'interfaccia grafica di un sistema secondo 1 'invenzione , e
- le figure 3 e 4, ciascuna suddivisa in tre parti, indicate rispettivamente con a), b) e c) illustrano schematicamente le possibili modalità di utilizzazione di un sistema secondo l'invenzione.
Come dato di fondo, va precisato che un sistema secondo l'invenzione si presta ad essere realizzato, nella sua forma di attuazione al momento preferita, ricorrendo ad un dispositivo elaborativo, quale un personal computer o similare/ opportunamente programmato (secondo criteri di per sé noti, compresi nella normale conoscenza del tecnico esperto del settore) cosi da ottenere il funzionamento descritto nel modo specifico nel seguito, m alternativa, ed in particolari applicazioni, quali ad esempio applicazioni che richiedano una particolare velocità di elaborazione (come può essere il caso in cui il sistema sia utilizzato, ad esempio, per il controllo dell'accesso di persone ad una area riservata) è anche però prospettabile il ricorso a moduli funzionali distinti, ciascuno dei quali attua la specifica funzione alla quale esso è preposto.
In termini essenziali, il sistema secondo l'invenzione, indicato nel complesso con 1, si compone di quattro moduli o unità fondamentali, di:
un'unità di acquisizione 2 per l'acquisizione di immagini in forma digitale,
un'unità di pre-elaborazione 3, per la pre-elaborazione delle immagini, particolarmente per (pianto riguarda la normalizzazione della loro geometria dei valori di intensità,
un'unità di codifica 4, per la codifica delle immagini e l'aggiornamento della base dati, e una interfaccia 5 avente essenzialmente la funzione di interfaccia grafica utente/basi dati, diretta a permettere all'utilizzatore di impiegare il sistema in modo semplice.
In sintesi si può affermare che le prime tre unità (2, 3, 4) servono essenzialmente per la determinazione di tutti i dati necessari al funzionamento dell'interfaccia grafica 5, che costituisce, dal punto di vista dell'utilizzatore il sistema vero e proprio.
Per guanto riguarda il funzionamento dell'unità di acquisizione 2, l'ingresso digitale del sistema viene fornito tramite telecamere C e/o cosiddetti scanner S dotati di dispositivi di alimentazione, conversione analogico/digitale, ecc.. Tipicamente si tratta della conversione in forma digitale, tramite scanner, di archivi fotografici quali quelli in dotazione alle forze di polizia. À ciascuna immagine digitale sono associate ulteriori informazioni quali sesso, razza, età, identità. Tutto questo si realizza secondo criteri di per sé ampiamenti noti, che non richiedono di essere descritti in modo esteso in questa sede.
L'azione di pre-elaborazione delle immagini svolta dall'unità 3 investe due aspetti diversi, vale a dire la normalizzazione geometrica e la normalizzazione dei valori di intensità.
Scopo della normalizzazione geometrica è quella di far sì che le immagini fom ite al e dal nucleo del sistema costituito dalle unità 4 e 5 abbiano grandezza ed orientazione prefissate. Questo può essere ottenuto in modo automatico, ad esempio, localizzando gli occhi e trasformando l'immagine digitale in modo che la posizione delle pupille corrisponda a posizio-ni standardizzate nel sistema di riferimento associato alle immagini digitalizzate. Il sistema richiede anche la posizione del naso e della bocca: anche questo può essere ottenuto in modo automatico usando, ad esempio, le tecniche descritte nell'articolo di R. Brunelli e T. Poggio "Face Recognition: Features versus Templates". IEEE Transactions on Pattern Analysis and Machine Intelligence 15 (10):1042-1052, 1993 o generalizzando l'approccio per la localizzazione degli occhi discusso nello stesso articolo. In quest'ultimo caso il sistema è in grado di quantificare l'affidabilità della localizzazione e di richiedere eventualmente 1'intervento di un operatore umano .
L'azione di normalizzazione dei valori di intensità tiene invece conto del fatto che le immagini provengono potenzialmente da fonti diverse e possono quindi presentare una variabilità non collegata al soggetto ripreso, ma legata alle condizioni di ripresa. E' evidente che questo tipo di variabilità deve essere rimossa per quanto possibile. Una prima normalizzazione può essere attuata semplicemente imponendo che il valore medio dell'intensità di una specifica regione dell'immagine (ad esempio costituita da una zona rettangolare sotto ciascun occhio) assuma un valore standard. Questa operazione permette di eliminare la variabilità dovuta ad alcune caratteristiche dei processi fotografici e di acquisizione del segnale video. Differenze dovute all'orientazione e al tipo di illuminazione possono essere ridotte con tipi di trasformazioni quali quelli descritti nel volume di John C. Russ "The Image Processing Handbook" CRC Press, 1992. In alternativa, secondo una forma di attuazione al momento preferita, una possibile trasformazione dell'immagine I per ridurre differenze dovute all'orientazione ed al tipo di illuminazione è descrivibile con la formula
dove il simbolo * rappresenta l'operazione di convoluzione, rappresenta un nucleo di convoluzione gaussiano il cui parametro σ (deviazione standard) è collegato alla distanza interoculare e le operazioni aritmetiche si intendono applicate ad elementi corrispondenti delle immagini indicate. L'immagine risultante M è chiaramente interpretabile dall'utente del sistema. Questa trasformazione è naturalmente suscettibile di essere integrata con altre funzioni di preelaborazione. ;L'azione di codifica delle immagini prevede che da un immagine, utilizzando le informazioni associate ad essa dai moduli esaminati in precedenza, sia possibile estrarre automaticamente un insieme di Q regioni. Tali regioni possono essere, ad esempio, capelli, occhi naso, bocca, mento (in senso ampio, intendendo cioè per mento la parte inferiore del volto, partendo dal naso) , il volto completo. E' possibile associare a ciascuna caratteristica una regione la cui grandezza corrisponde alla grandezza media di tale caratteristica nelle immagini disponibili. Indicando questa regione con limitatamente a tale regione media rF, per ciascuna caratteristica è possibile applicare il procedimento comunemente noto come "Analisi delle componenti principali" così come descritto, ad es., nell'articolo di M. Kirby e L. Sirovich "Application of thè Karhunen-Loeve procedure for thè characterization of human faces", IEEE Transactions on Pattern Analysis and Machine Intelligence, 12(1):103 -108, 1990. ;Sia ora un insieme di immagini della caratteristica F, dove FL è l'immagine associata a ciascuna delle N persone della base dati. Tali immagini hanno la stessa dimensione e forma (rr) e sono allineate (coincidenza di un punto di riferimento comune, interno o esterno alla caratteristica) . E possibile determinare un nuovo insieme di immagini ;;;con usuale notazione (le immagini sono considerate come vettori ottenuti concatenando le righe dell'im-magine originale, ciascuna rappresentata da un insieme di numeri, indicativi dei pixel). Le immagini sono scelte come autovettori della matrice di covarianza dell'insieme . A ciascun autovettore è associato un autovalore ;possibile quindi ordinare l'insieme in modo che quando j Troncando l'espansione (1) in corrispondenza di dove k è un numero solitamente piccolo rispetto a N (ad esempio κ = 15), si introduce un errore Δ che decresce all<1 >aumentare del valore assunto da K. A ciascuna immagine (di regione del volto) si può quindi associare un vettore ;;;;;la cui conoscenza, unitamente a quella delle immagini permette di ricostruire approssimativamente l'immagine corrispondente. ;A ciascuna immagine nella base dati è possibile allora associare un insieme di vettori (uno per ciascuna delle regioni del volto utilizzate nel sistema) . L'efficacia del procedimento (possibilità di utilizzare vettori di dimensionai ità inferiore a parità di errore Δ) aumenta se le immagini vengono preventivamente suddivise in base alla razza e al sesso: per ciascuna razza/sesso è possibile creare una base dati indipendente. Nel processo grafico di creazione dell'immagine di identikit le diverse caratteristiche del volto, create dall'utente, devono fondersi armoniosamente per creare un volto completo. Poiché il processo di integrazione (blending) tende a sfumare le parti esterne delle regioni coinvolte, è utile applicare il procedimento precedentemente descritto nella equazione (1) a regioni più grandi (RF) della regione media (rF), limitandosi però a quest'ultima per il calcolo della matrice di covarianza e dei coefficienti di espansione. La regione esterna a rF ed interna a Rp viene utilizzata per il raccordo delle diverse caratteristiche. ;Qualora le immagini disponibili siano in numero molto elevato (ad esempio N > 200), il calcolo degli autovalori ed autovettori può diventare difficile a causa di instabilità numeriche. In tal caso è possibile considerare un sottoinsieme delle immagini disponibili. Questo sottoinsieme può essere ottenuto con tecniche cosiddette di "clustering" (si vedano al riguardo le tecniche descritte nel volume di A.K. Jain e R.C. Dubes "Algorithms for Clustering Data", Prentice Hall, 1988) adoperando, ad esempio, come distanza fra due immagini X ad Y il seguente valore: ;;;;;dove T rappresenta il numero di pixel dell'immagine considerata come vettore. Un modo alternativo per il calcolo della distanza può essere anche il seguente: ;;;;;dove pn rappresenta il coefficiente di correlazione normalizzato: ;;;;;;;;rappresenta il momento centrato di ordine due delle variabili X e Y. Il numero di gruppi (cluster) può essere fissato a priori (ad esempio 100). Ciascun cluster viene rappresentato dall'immagine la cui somma delle distanze dalle altre immagini del gruppo è minima. Il procedimento descritto precedentemente può essere poi applicato unicamente alle immagini che rappresentano i gruppi. ;L'interfaccia grafica 5 (operante a livello di elaboratore, memorie di massa, monitor e software di finestratura o windowing, ecc.) mette a disposizione dell'utente diverse funzionalità che gli permettono di : ;selezionare una base dati opportuna fra quelle disponibili; ;scegliere una caratteristica del volto (ad esempio, occhi, naso, bocca, capelli, mento, volto intero) e di modificarla agendo direttamente su una codifica compatta dell'immagine; ;vedere, in ogni momento, le immagini delle persone più simili, limitatamente ad un insieme di caratteristiche scelte, all'immagine creata; ;copiare nell'immagine in costruzione le caratteristiche (una o più) di una qualsiasi delle immagini visualizzate; ;esplorare in modo gerarchico (con progressivo dettaglio o astrazione) l'intera base dati presentando volti caratteristici rappresentativi di insiemi via via più ristretti ed omogenei (o più ampi ed eterogenei) della popolazione contenuta nella base dati; l'esplorazione avviene sulla base di una distanza tra volti, distanza che viene determinata come verrà spiegato in seguito; salvare le immagini create in un formato adatto alla loro successiva stampa e ad una eventuale rielaborazione ; ;memorizzare fasi intermedie del lavoro, e conoscere in ogni momento la funzionalità del sottosistema dell - interfaccia grafico selezionato, tramite ad esempio un puntatore elettronico (quale un mouse o una penna ottica). ;L'immagine dell'identikit viene costruita come somma delle caratteristiche disponibili e di un volto medio (media aritmetica dei volti presenti nella base dati) nelle (eventuali) rimanenti zone. L'utente può scegliere la caratteristica del volto su cui operare tramite dei "menu" elettronici così come schematicamente illustrato in 'SA)nella figura 2, che presenta una possibile "videata" dell'interfaccia grafica. ;Agendo con un puntatore elettronico (mouse o penna) 1'utilizzatore può modificare la posizione di un certo numero di cursori 5B, ciascuno collegato ad un componente dello sviluppo di cui alla formula (1). ;1 cursori 5B sono ordinati dall'alto in basso per autovalore decrescente: i cursori inferiori provocano variazioni minori di quelli superiori nell'immagine creata. La posizione dei cursori è associata ad un valore X in [0, 1]: 0 all'estrema sinistra ed 1 all'estrema destra della loro sede. A tale numero x è associato il valore della coordinata corrispondente per cui la distribuzione di probabilità (di detta coordinata della base dati) D verifica la relazione Questo permette di associare alla posizione del cursore un valore per la coordinata corrispondente massimizzando la selettività. Per ciascuna regione del volto il sistema mantiene in memoria la configurazione dei corrispondenti cursori, che ripresenta sullo schermo quando la caratteristica viene selezionata dall'utente. ;L'immagine (indicata in 5C nella figura 2) viene ricostruita (funzione di restituzione) ad ogni variazione delle coordinate (in seguito allo spostamento dei cursori corrispondenti) usando per ciascuna caratteristica lo sviluppo: ;;;;;e procedendo poi come specificato nei punti seguenti. ;Le caratteristiche possono essere sottoposte poi ad integrazione (blending) associando a ciascuna caratteristica, indicata con F, una priorità Pp (ad esempio ^ ciascuna caratteristica è poi associata una mappa di valori , la cui grandezza corrisponde a quella dell'immagine complessiva del volto. In tale mappa è possibile individuare tre zone: tuia zona esterna Rp alla caratteristica, una zona interna rp (che corrisponde alla zona utilizzata per il calcolo della matrice di covarianza e dei coefficienti) ed una zona di transizione I valori della mappa nella zona interna sono posti ad 1, nella zona esterna a zero e nella zona di transizione ad un valore intermedio. Di seguito viene illustrato questo concetto nel caso di una regione unidimensionale: ;;;il caso bidimensionale si può trattare utilizzando il prodotto di due funzioni strutturate come sopra, una per la coordinata x ed una per la coordinata y. ;;Indicando con W le mappe per le differenti regioni in ordine di crescente priorità, il valore visualizzato dell'immagine dell'identikit in ciascun elemento della regione costruita dall'utente è dato da: ;(14) che corrisponde a ricostruire l'immagine integrando progressivamente le caratteristiche in ordine di priorità crescente. ;Le caratteristiche del volto possono essere spostate dall'utente muovendo ulteriori cursori quali ad esempio, nel caso di naso e bocca, un cursore verticale indicato con 5D nella figura 2. Tale cursore appare al fianco dell'immagine dell'identikit quando queste caratteristiche vengono selezionate, le possibili posizioni del cursore sono vincolate dalla geometria del volto. Lo spostamento di tali caratteristiche avviene tramite una operazione di deformazione o "warping". La parte del volto interessata viene descritta come un insieme di triangoli e rettangoli (vedere le figure 3a) e 4a)) le cui coordinate sono modificate dal movimento del cursore. I rettangoli relativi a naso e bocca (mossi dal cursore e di dimensione costante) sono intervallati da rettangoli "cuscinetto" con funzione di raccordo, che si allargano o restringono in base allo spostamento di naso e bocca, cosi come illustrato nelle figure 3b), 3c), 4b) e 4c). ;Tramite soluzioni note al tecnico del ramo, è possibile proiettare il contenuto dei poligoni originali in quelli modificati dall'utente. Questo corrisponde ad associare ad ogni punto dei poligoni non modificati la sua posizione all'interno dei poligoni modificati tramite, ad esempio, una trasformazione affine o bilineare delle coordinate, cosi come descritto nell'articolo di z. C. Li, Y. Y. Tang, T. D. Bui, e C. Y. Suen "Shape transformation models", Int. Journal of Pattern Recognition and Artificial Intelligence, Volume 4(1): 65:94, 1990. Questa corrispondenza viene memorizzata dal sistema e viene modificata solo quando richiesto dall'utente. La memorizzazione di questa corrispondenza di coordinate permette di ricostruire l'immagine con la geometria modificata (rispetto al volto medio) senza dover calcolare ripetutamente la trasformazione di coordinate ad ogni visualizzazione dell'immagine. Spostamenti orizzontali e/o verticali di tutte le caratteristiche del volto possono dunque essere realizzati con la stessa tecnica. ;L'utente può anche decidere di svolgere un'azione di retroazione selezionando un (sotto)insieme delle caratteristiche disponibili (così come illustrato in 5E nella figura 2), in base a cui confrontare l'imma-gine X che va costituendo con la base dati disponibile. La somiglianza dell'immagine dell'identikit X con ciascuna immagine li nella base dati può essere data, ad esempio, da: ;;;;;dove Q è il numero delle caratteristiche che è possibile selezionare; a, - 1 se la caratteristica è stata selezionata dall'utente e 0 altrimenti. Le quantità ;;;;;rappresentano un fattore di normalizzazione con cui pesare le diverse caratteristiche. Alternativamente, l'utente può specificare l'importanza delle caratteristiche nel calcolo della distanza utilizzando dei cursori, analogamente a quanto fatto per le componenti delle caratteristiche medesime. ;La base dati viene ordinata secondo valori crescenti di d(X, Ii) ed i primi volti, ad esempio i primi quattro (vedere la parte indicata complessivamente con 5F in figura 2), vengono presentati all'utente. L'utente può indicare con un puntatore elettronico uno dei volti e copiare nell'immagine dell'identikit le caratteristiche attualmente selezionate per l'ordinamento (le coordinate corrispondenti sostituiscono quelle attuali della immagine identikit e detta immagine viene rigenerata). E<1 >evidente che nel calcolo della distanza (15) possono essere inserite anche informazioni geometriche quali la posizione di naso e bocca, (scelte dall'utente per l'immagine X e memorizzate nella base dati per le altre immagini) . ;Per quanto riguarda la esplorazione della base dati, il sistema secondo l'invenzione, nella sua forma di attuazione al momento preferita, offre almeno due modalità di funzionamento diverse. La prima è di semplice scansione della base dati (eventualmente ordinata come al punto precedente). Questo avviene selezionando un insieme di caratteristiche per l'ordinamento e muovendo un cursore che visualizza un gruppo di L volti (ad esempio L = 4) la cui posizione all'interno della base dati ordinata corrisponde alla posizione di un cursore 5G nella sua sede (figura 2). ;La seconda modalità prevede l'esplorazione gerarchica della base dati e disattiva la precedente. Questo implica che il cursore 5G illustrato nella figura 2 non è più visibile, mentre appaiono degli indicatori specifici quali quelli indicati con 5H nella stessa figura 2. L'utente sceglie preventivamente un insieme di caratteristiche per l'ordinamento della base dati. La base dati viene suddivisa in L gruppi (cluster) , ad esempio tramite la tecnica nota alla quale si è già fatto riferimento in precedenza utilizzando la distanza di cui all'equazione (15). La base dati viene organizzata ad albero: le diramazioni portano a volti caratteristici P1. via via più simili tra loro. Questa modalità può essere attivata in qualsiasi momento dall'utente che può esplorare in modo interattivo l'albero utilizzando indicatori quali i 5H posti in prossimità dei rappresentanti di ciascun gruppo visualizzati sullo schermo. Per ciascuno dei rappresentanti viene anche indicato il valore della distanza (15) dall'immagine in costruzione (o identikit) . La selezione di uno dei rappresentanti ne copia le caratteristiche nell'identikit e riporta il sistema nella modalità interattiva normale (creazione identikit e visualizzazione dei volti più simili) . ;Osserviamo che le funzionalità di un tradizionale sistema di identikit che associano a delle descrizio* ni delle immagini caratteristiche corrispondenti (naso camuso - immagine di naso camuso) possono essere facilmente inglobate nel sistema descritto provveden-do una tabella di associazione descrizione - componenti dello sviluppo C, di una immagine tipica corrispondente .
Naturalmente, fermo restando il principio dell'invenzione, i dettagli di realizzazione e le forme di attuazione potranno essere ampiamente variati rispetto a quanto descritto ed illustrato, senza per questo uscire dall'ambito della presente invenzione.

Claims (2)

  1. RIVENDICAZIONI 1. Procedimento per memorizzare una pluralità (N) di immagini di persone, ad esempio per la realizzazione di archivi fotografici o di identikit, in cui le immagini da memorizzare sono contraddistinte da insiemi di caratteristiche (F), caratterizzato dal fatto che comprende le operazioni di: analizzare dette immagini, ciascuna di dette caratteristiche (F) presentando in ciascuna di dette immagini una rispettiva immagine (Fi) , associando quindi a ciascuna caratteristica una regione media (rp) la cui grandezza corrisponde alla grandezza media di detta caratteristica (F) in detta pluralità di immagini, generare, a partire da dette rispettive immagini di (F1 un insieme di nuove immagini (Φ1) tali per cui:
    le nuove immagini essendo scelte come autovettori della matrice di covarianza nell'insieme per cui a ciascun autovettore è associabile un rispettivo autovalore ordinando quindi l'insieme di dette nuove immagini in modo che quando j < t, memorizzare dette rispettive immagini sotto forma di vettore per cui a ciascuna di dette immagini di detta pluralità è associato un insieme di vettori, uno per ciascuna delle regioni del volto utilizzate nel procedimento .
  2. 2. Procedimento secondo la rivendicazione 1, caratterizzato dal fatto che, per ricostruire ciascuna di dette immagini a partire dal rispettivo insieme di vettori, si procede ricostruendo ciascuna immagine (F) secondo la relazione 3. Procedimento secondo la rivendicazione 2, caratte-rizzato dal fatto che i valori delle coordinate di detti vettori (C,) 4. Procedimento secondo la rivendicazione 2, caratterizzato dal fatto che dette immagini (F) vengono ricostruite operando su una regione (Rr) di dimensioni maggiori rispetto a detta regione media (rp), limitandosi a detta regione media per il calcolo della matrice di covarianza e dei coefficienti di espansione, la regione esterna a detta regione media (Rf) ed interna rispetto a detta regione maggiorata (RP) essendo utilizzata per il raccordo delle diverse caratteristiche. 5. Procedimento secondo una qualsiasi delle rivendicazioni 1 a 4, caratterizzato dal fatto che comprende l'operazione dì ridurre detta pluralità di immagini identificando fra loro le immagini (Fj) la cui distanza (d) risulta inferiore ad una distanza di soglia predeterminata. 6. Procedimento secondo la rivendicazione 5, caratterizzato dal fatto che detta distanza (d) viene calcolata con una relazione del tipo dove T rappresenta il numero di pixel dell'immagine considerata come vettore, X ed Y essendo le due immagini fra cui la distanza (d) viene calcolata. 7. Procedimento secondo la rivendicazione 5, caratterizzato dal fatto che detta distanza (d) viene calcolata secondo la relazione dove rappresenta il coefficiente di correlazione normalizzato rappresenta un momento centrato di ordine due delle variabili X ed Y rappresentative delle immagini fra cui la distanza (d) viene calcolata. 8. Procedimento secondo una qualsiasi delle precedenti rivendicazioni, caratterizzato dal fatto che la pluralità di immagini (F) viene preventivamente suddivisa in sottoinsiemi di immagini aventi caratteristiche sostanzialmente affini, ad esempio in funzione di dati quali razza e sesso delle persone a cui le immagini si riferiscono, alle quali il procedimento è applicato separatamente. 9. Procedimento secondo una qualsiasi delle precedenti rivendicazioni, caratterizzato dal fatto che, prima di detta analisi, detta pluralità di immagini (F) viene sottoposta a normalizzazione geometrica, così che dette immagini (F) di detta pluralità presentano grandezza e orientazione uniforme. 10. Procedimento secondo la rivendicazione 9, caratterizzato dal fatto che detta operazione di normalizzazione geometrica comprende l'operazione di identificare la posizione delle pupille e l'operazione di riportare detta posizione ad una posizione di riferimento predeterminata. 11. Procedimento secondo una qualsiasi delle precedenti rivendicazioni, caratterizzato dal fatto che, prima di detta analisi, dette immagini (F) di detta pluralità vengono sottoposte ad una normalizzazione dei valori di intensità. 12. Procedimento secondo la rivendicazione 11, carat-terizzato dal fatto che detta operazione di normalizzazione dei valori di intensità viene attuata imponendo che il valore medio dell'intensità di una specifica regione dell'immagine assuma un valore predeterminato . 13. Procedimento secondo una qualsiasi delle precedenti rivendicazioni, caratterizzato dal fatto che, prima di detta analisi, dette immagini (F) di detta pluralità vengono sottoposte ad una trasformazione del tipo e il simbolo * rappresenta l'operazione di convoluzione, K<,,0, rappresenta un nucleo di convoluzione gaussiano il cui parametro σ (deviazione standard) è correlato alla distanza interoculare . 14. Procedimento secondo la rivendicazione 2, caratterizzato dal fatto che, in sede di ricostruzione, dette Immagini (F) vengono ricostruite come somma delle caratteristiche disponibili e di un immagine media corrispondente ad una media aritmetica delle immagini memorizzate. 15. Procedimento secondo una qualsiasi delle prece-denti rivendicazioni, caratterizzato dal fatto che comprende l'operazione di associare a ciascuna di dette caratteristiche una rispettiva,priorità (Pp) ed una rispettiva mappa di valori (W7), la cui grandezza corrisponde a quella dell'immagine complessiva in cui vengono individuati: una zona (RF) esterna alla caratteristica, una zona (rp) interna alla caratteristica corri-spondente alla zona utilizzata per il calcolo della matrice di covarianze dei coefficienti, e una zona di transizione (RF-rF), nonché l'operazione di porre i valori della mappa nella zona ad 1 nella zona interna (rF), a 0 nella zona esterna (Rp) e ad un valore intermedio (wF(x)) in detta zona di transizione (RF - rF), in sede di riproduzione realizzandosi così una integrazione delle caratteristiche. 16. Procedimento secondo la rivendicazione 15, caratterizzato dal fatto che detto valore intermedio wF(x) è scelto, in una regione unidimensionale, con una legge del tipo:;17. Procedimento caratterizzato dal fatto che, nel caso di una regione bidimensionale viene utilizzato il prodotto di due funzioni WF(x) e Wr(y) secondo la rivendicazione 16, rispettivamente per l'una e per l'altra coordinata, il valore restituito essendo dato da 18. Procedimento secondo una qualsiasi delle precedenti rivendicazioni, comprendente l'operazione di confrontare dette immagini memorizzate con una immagine aggiuntiva (X) in corso di formazione, generando un rispettivo parametro di somiglianza, ordinando quindi l'insieme delle immagini memorizzate secondo valori crescenti di distanza (D) o dissimilarità rispetto a detta immagine in corso di costituzione, nonché l'operazione di visualizzare un numero determinato di immagini memorizzate presentanti un certo grado di similarità rispetto a dette immagini in corso di costituzione. 19. Procedimento secondo la rivendicazione 18, caratterizzato dal fatto che detta distanza (D) o dissimilarità viene definita secondo una relazione del tipo dove Q è il numero delle caratteristiche che è possibile selezionare; aF = 1 o 0 in funzione del fatto che la caratteristica sia stata selezionata oppure no e la quantità ωρ: rappresenta un fattore di normalizzazione con cui pesare le diverse caratteristiche ed i vettori rappresentano rispettivamente l'immagine in via di costituzione e l'immagine i della base dati, limita-tamente alla caratteristica F. 20. Procedimento secondo la rivendicazione 19, caratterizzato dal fatto che il puntamento (selezione) di una delle immagini visualizzate sostituisce le componenti descrittive delle caratteristiche selezionate nell'immagine costituenda con quelle dell'immagine selezionata. 21. Procedimento secondo la rivendicazione 19, caratterizzato dal fatto che l'insieme delle immagini nella base dati è organizzato e presentato in modo gerarchico e dal fatto che il puntamento (selezione) di una delle immagini visualizzate sostituisce le componenti descrittive delle caratteristiche selezionate nell'immagine costituenda con quelle dell'immagine selezionata. 22. Sistema per memorizzare una pluralità (N) di immagini di persone, ad esempio per la realizzazione di archivi fotografici o di identikit, in cui le immagini da memorizzare sono contraddistinte da insiemi di caratteristiche (F), caratterizzato dal fatto che comprende: mezzi di acquisizione ed analisi (C, 5; 2) per analizzare dette immagini, ciascuna di dette caratteristiche (F) presentando in ciascuna di dette immagini una rispettiva immagine associando quindi a ciascuna caratteristica una regione media la cui grandezza corrisponde alla grandezza media di detta caratteristica (F) in detta pluralità di immagini, mezzi elaboratori (4) per generare, a partire da dette rispettive immagini un insieme di nuove immagini tali per cui le nuove immagini con 1 ≤ j ≤ N essendo scelte come autovettori della matrice di covarianza nell'insieme per cui a ciascun autovettore è associabile un rispettivo autovalore detti mezzi elaboratori (4) ordinando quindi l'insieme di dette nuove immagini in modo che quando j < t e memorizzando dette rispettive immagini sotto forma di vettore per cui a ciascuna di dette immagini di detta pluralità è associato un insieme di vettori, uno per ciascuna delle regioni del volto utilizzate nel sistema. 23. Sistema secondo la rivendicazione 22, caratterizzato dal fatto che comprende mezzi di restituzione (4, 5) per ricostruire ciascuna di dette immagini a partire dal rispettivo insieme di vettori, detti mezzi di restituzione (4, 5) ricostruendo ciascuna immagine (F) secondo la relazione 24. sistema secondo la rivendicazione 23, caratterizzato dal fatto che comprende, per la selezione delle coordinate di detti vettori mezzi a cursore alla posizione dei quali è associato un valore per la coordinata corrispondente. 25. Sistema secondo la rivendicazione 23, caratterizzato dal fatto che detti mezzi di restituzione operano su una regione ( di dimensioni maggiori rispetto a detta regione media , limitandosi a detta regione media per il calcolo della matrice di covarianza e dei coefficienti di espansione, la regione esterna a detta regione media ed interna rispetto a detta regione maggiorata essendo utilizzata per il raccordo delle diverse caratteristiche. 26. Sistema secondo una qualsiasi delle rivendicazioni 22 a 25, caratterizzato dal fatto che detti mezzi elaboratori (4) riducono detta pluralità di immagini identificando fra loro le immagini la cui distanza (d) risulta inferiore ad una distanza di soglia predeterminata . 27. Sistema secondo la rivendicazione 26, caratterizzato dal fatto che detti mezzi elaboratori (4) calcolano detta distanza (d) con una relazione del tipo dove τ rappresenta il numero di pixel dell'immagine considerata come vettore, x ed y essendo le due immagini fra cui la distanza (d) viene calcolata. 28. Sistema secondo la rivendicazione 26, caratterizzato dal fatto che detti mezzi elaboratori (4) calcolano detta distanza (d) secondo la relazione rappresenta un momento centrato di ordine due delle variabili X ed Y, rappresentative delle immagini fra cui la distanza (d) viene calcolata. 29. Sistema secondo una qualsiasi delle rivendicazioni 22 a 28, caratterizzato dal fatto che detti mezzi elaboratori (4) suddividono la pluralità di immagini (F) in sottoinsiemi di immagini aventi caratteristiche sostanzialmente affini, ad esempio in funzione di dati quali razza e sesso delle persone a cui le immagini si riferiscono/ alle quali il procedimento è applicato separatamente. 30. Sistema secondo una qualsiasi delle precedenti rivendicazioni 22 a 29/ caratterizzato dal fatto che comprende mezzi di pre-elaborazione (3) agenti fra detti mezzi di acquisizione ed analisi (2) e detti mezzi elaboratori (4), in cui detta pluralità di immagini viene sottoposta a normalizzazione geometri-ca, cosi che dette immagini (F) di detta pluralità presentano grandezza e orientazione uniforme. 31. Sistema secondo la rivendicazione 30, caratte-rizzato dal fatto che detti mezzi di pre-elaborazione (3) identificano, in dette immagini (F), la posizione delle pupille, detti mezzi di pre-elaborazione (3), riportando detta posizione ad una posizione di riferimento predeterminata. 32. Sistema secondo una qualsiasi delle precedenti rivendicazioni 22 a 31, caratterizzato dal fatto che comprende mezzi di pre-elaborazione (3) agenti fra detti mezzi di acquisizione ed analisi (2) e detti mezzi elaboratori (4) in cui dette immagini (F) di detta pluralità vengono sottoposte ad una normalizzazione dei valori di intensità. 33. Sistema secondo la rivendicazione 32, caratterizzato dal fatto che, in detta operazione di normalizzazione dei valori di intensità, detti mezzi di preelaborazione (3) impongono che il valore medio dell'intensità di una specifica regione dell'immagine assuma un valore predeterminato. 34. Sistema secondo una qualsiasi delle precedenti rivendicazioni 22 a 33, caratterizzato dal fatto che comprende mezzi di pre-elaborazione (3) agenti fra detti mezzi di acquisizione ed analisi (2) e detti mezzi elaboratori (4), in cui dette immagini (F) di detta pluralità vengono sottoposte ad una trasformazione del tipo e il simbolo * rappresenta l'operazione di convoluzione, rappresenta un nucleo di convoluzione gaussiano il cui parametro σ (deviazione standard) è correlato alla distanza interoculare. 35. Sistema secondo la rivendicazione 23, caratterizzato dal fatto che detti mezzi di restituzione (4, 5) ricostruiscono dette immagini come somma delle caratteristiche disponibili e di un immagine media corrispondente ad una media aritmetica delle immagini memorizzate. 36. Sistema secondo una qualsiasi delle precedenti rivendicazioni 22 a 35, caratterizzato dal fatto che detti mezzi elaboratori (4) associano a ciascuna di dette caratteristiche una rispettiva priorità ed una rispettiva mappa di valori , la cui grandezza corrisponde a quella dell'immagine complessiva in cui vengono individuati: una zona esterna alla caratteristica, una zona ) interna alla caratteristica (RAP) corrispondente alla zona utilizzata per il calcolo della matrice di covarianti e dei coefficienti, e una zona di transizione e dal fatto che detti mezzi elaboratori (4) pongono i valori della mappa nella zona ad 1 nella zona interna , a 0 nella zona esterna (Rp) e ad un valore intermedio in detta zona di transizione per cui detti mezzi di restituzione (4, 5} realizzano una integrazione delle caratteristiche. 37. Sistema secondo la rivendicazione 36, caratterizzato dal fatto che detto valore intermedio è scelto con una legge del tipo: 38. Sistema secondo la rivendicazione 37, caratterizzato dal fatto che, nel caso di una regione bidimensionale, detti mezzi elaboratori utilizzano il prodotto di due funzioni secondo la rivendicazione 37, rispettivamente per l'una e per l'altra coordinata, il valore restituito essendo dato da 39. Sistema secondo la rivendicazione 23, caratterizzato dal fatto che detti mezzi elaboratori (4) confrontano dette immagini memorizzate con una immagine aggiuntiva (X) in corso di formazione, generando un rispettivo parametro di somiglianza, ordinando quindi l'insieme delle immagini memorizzate secondo valori crescenti di distanza (D) o dissimilarità rispetto a dette immagini (I1 in corso di costituzione; il sistema comprendendo altresì mezzi di restituzione (4, 5) per visualizzare un numero determinato di immagini memorizzate presentanti un certo grado di similarità rispetto a dette immagini in corso di costituzione. 40. Sistema secondo la rivendicazione 39, caratterizzato dal fatto che detta distanza (D) o dissimilarità viene definita secondo una relazione del tipo dove Q è il numero delle caratteristiche che è possibile selezionare; aF = 1 o 0 in funzione del fatto che la caratteristica sia stata selezionata oppure no e la quantità ωF: rappresenta un fattore di normalizzazione con cui pesare le diverse caratteristiche ed i vettori rappresentano rispettivamente l'immagine in via di costituzione e l'immagine i della base dati, limitatamente alla caratteristica F. 41. sistema secondo la rivendicazione 40/ caratterizzato dal fatto che il puntamento (selezione) di una delle immagini visualizzate sostituisce le componenti descrittive delle caratteristiche selezionate nell’immagine costituenda con quelle dell'immagine selezionata. 42. Sistema secondo la rivendicazione 40, caratterizzato dal fatto che l'insieme delle immagini nella base dati è organizzato e presentato in modo gerarchico e dal fatto che il puntamento (selezione) di una delle immagini visualizzate sostituisce le componenti descrittive delle caratteristiche selezionate nell'immagine costituenda con quelle dell'immagine selezionata. Il tutto sostanzialmente come descritto ed illustrato e per gli scopi specificati.
IT94TO000765A 1994-09-30 1994-09-30 Procedimento per memorizzare e ritrovare immagini di persone, ad esempio in archivi fotografici e per la costruzione di identikit e IT1277993B1 (it)

Priority Applications (4)

Application Number Priority Date Filing Date Title
IT94TO000765A IT1277993B1 (it) 1994-09-30 1994-09-30 Procedimento per memorizzare e ritrovare immagini di persone, ad esempio in archivi fotografici e per la costruzione di identikit e
CA002155901A CA2155901A1 (en) 1994-09-30 1995-08-11 Method of storing and retrieving images of people, for example, in photographic archives and for the construction of identikit images
US08/520,479 US5764790A (en) 1994-09-30 1995-08-29 Method of storing and retrieving images of people, for example, in photographic archives and for the construction of identikit images
EP95113756A EP0704822A3 (en) 1994-09-30 1995-09-01 Process for storing and retrieving images of people, for example in photo archives and for constructing "identity images"

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT94TO000765A IT1277993B1 (it) 1994-09-30 1994-09-30 Procedimento per memorizzare e ritrovare immagini di persone, ad esempio in archivi fotografici e per la costruzione di identikit e

Publications (3)

Publication Number Publication Date
ITTO940765A0 ITTO940765A0 (it) 1994-09-30
ITTO940765A1 true ITTO940765A1 (it) 1996-03-30
IT1277993B1 IT1277993B1 (it) 1997-11-12

Family

ID=11412794

Family Applications (1)

Application Number Title Priority Date Filing Date
IT94TO000765A IT1277993B1 (it) 1994-09-30 1994-09-30 Procedimento per memorizzare e ritrovare immagini di persone, ad esempio in archivi fotografici e per la costruzione di identikit e

Country Status (4)

Country Link
US (1) US5764790A (it)
EP (1) EP0704822A3 (it)
CA (1) CA2155901A1 (it)
IT (1) IT1277993B1 (it)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144755A (en) * 1996-10-11 2000-11-07 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Method and apparatus for determining poses
US6661906B1 (en) * 1996-12-19 2003-12-09 Omron Corporation Image creating apparatus
CA2312315A1 (en) 1997-12-01 1999-06-10 Arsev H. Eraslan Three-dimensional face identification system
US6606398B2 (en) * 1998-09-30 2003-08-12 Intel Corporation Automatic cataloging of people in digital photographs
RU2157077C1 (ru) * 2000-03-27 2000-10-10 Егоров Валерий Леонидович Способ выполнения парикмахерских услуг
AU2001282483A1 (en) * 2000-08-29 2002-03-13 Imageid Ltd. Indexing, storage and retrieval of digital images
FI113899B (fi) * 2000-10-12 2004-06-30 Pro Botnia Oy Järjestelmä ja menetelmä kahden tai useamman digitaalisen kuvaobjektin yhdistämiseksi
US7055103B2 (en) * 2001-08-28 2006-05-30 Itzhak Lif Method of matchmaking service
US20050144156A1 (en) * 2001-09-12 2005-06-30 Supersoftware International Pty Ltd System and method for vehicle identification
JP2003296713A (ja) * 2002-04-04 2003-10-17 Mitsubishi Electric Corp 顔画像合成装置、顔画像合成方法およびその方法を実行するプログラムならびに顔画像合成装置を備えた通信用端末およびその通信用端末による通信方法
GB2389927A (en) * 2002-06-20 2003-12-24 Peter Foot Method for searching a data source by building an abstract composite image
US7620218B2 (en) * 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US7616233B2 (en) 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US7440593B1 (en) * 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US8494286B2 (en) * 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
KR100868390B1 (ko) * 2004-01-13 2008-11-11 닛본 덴끼 가부시끼가이샤 특징 변화 화상 작성 방법 및 장치, 특징 변화 부여 방법 및 장치, 특징 변화 화상 작성 프로그램 또는 특징 변화 부여 프로그램을 기록한 기록 매체
US7804997B2 (en) * 2004-06-10 2010-09-28 Technest Holdings, Inc. Method and system for a three dimensional facial recognition system
US20070220044A1 (en) * 2004-09-14 2007-09-20 Atsushi Marugame Data Collating System, Data Collating Apparatus and Data Collating Method
US8320641B2 (en) * 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7668402B2 (en) * 2004-11-05 2010-02-23 Intergraph Technologies Company Method for generating a composite image
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US20060210125A1 (en) * 2005-03-21 2006-09-21 Bernd Heisele Face matching for dating and matchmaking services
US7965875B2 (en) 2006-06-12 2011-06-21 Tessera Technologies Ireland Limited Advances in extending the AAM techniques from grayscale to color images
US9042606B2 (en) * 2006-06-16 2015-05-26 Board Of Regents Of The Nevada System Of Higher Education Hand-based biometric analysis
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US20080126426A1 (en) * 2006-10-31 2008-05-29 Alphan Manas Adaptive voice-feature-enhanced matchmaking method and system
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
WO2010012448A2 (en) 2008-07-30 2010-02-04 Fotonation Ireland Limited Automatic face and skin beautification using face detection
JP5237037B2 (ja) * 2008-10-01 2013-07-17 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
RU2541136C1 (ru) * 2013-11-11 2015-02-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Санкт-Петербургский государственный электротехнический университет "ЛЭТИ" им. В.И. Ульянова (Ленина)" Способ распознавания изображений лиц и система для его осуществления
US10606884B1 (en) * 2015-12-17 2020-03-31 Amazon Technologies, Inc. Techniques for generating representative images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5161204A (en) * 1990-06-04 1992-11-03 Neuristics, Inc. Apparatus for generating a feature matrix based on normalized out-class and in-class variation matrices
US5274714A (en) * 1990-06-04 1993-12-28 Neuristics, Inc. Method and apparatus for determining and organizing feature vectors for neural network recognition
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system

Also Published As

Publication number Publication date
US5764790A (en) 1998-06-09
EP0704822A3 (en) 1996-10-30
EP0704822A2 (en) 1996-04-03
CA2155901A1 (en) 1996-03-31
IT1277993B1 (it) 1997-11-12
ITTO940765A0 (it) 1994-09-30

Similar Documents

Publication Publication Date Title
ITTO940765A1 (it) Procedimento per memorizzare e ritrovare immagini di persone, ad esempio in archivi fotografici e per la costruzione di identikit.
US11262597B2 (en) Method, device, and computer program for virtually adjusting a spectacle frame
US11450075B2 (en) Virtually trying cloths on realistic body model of user
Borgo et al. Glyph-based Visualization: Foundations, Design Guidelines, Techniques and Applications.
Tewari et al. Learning complete 3d morphable face models from images and videos
KR101007276B1 (ko) 3차원 안면 인식
Sun et al. Scale and object aware image retargeting for thumbnail browsing
CN107408315A (zh) 用于实时、物理准确且逼真的眼镜试戴的流程和方法
US6906710B2 (en) Device and method for feature quantity calculation
JP2016170542A (ja) 画像処理装置、画像処理方法及びプログラム
US7931602B2 (en) Gaze guidance degree calculation system, gaze guidance degree calculation program, storage medium, and gaze guidance degree calculation method
Götzelmann et al. Form Follows Function: Aesthetic Interactive Labels.
Ball 3-D design tools from the SizeChina project
JP7247579B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7314509B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR102627035B1 (ko) 사용자 이미지에서 검출된 속성에 기반한 사용자 아바타를생성하고 상기 사용자 아바타의 자연스러운 모션을 제어하는 장치 및 방법
JPH11175765A (ja) 3次元モデル作成方法、3次元モデル作成装置及び記憶媒体
JP2018073095A (ja) 画像処理装置および画像処理方法
Leimer et al. Relation-based parametrization and exploration of shape collections
Zapata-Roldan et al. Parametric Design for the Construction of a Corset Surface Based on Historical Female Bodies
JPH0981775A (ja) 三次元多関節構造体形状生成方法
Fu et al. Interactive expressive 3D caricatures design
JP3470969B1 (ja) 画像データで特定可能な評価対象物における質的情報の解析装置
Pascual et al. Computerized three-dimmensional craniofacial reconstruction from skulls based on landmarks
Zhang et al. Data-driven feature-based 3D face synthesis

Legal Events

Date Code Title Description
0001 Granted