DE19634768A1 - Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild - Google Patents
Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem VideobildInfo
- Publication number
- DE19634768A1 DE19634768A1 DE19634768A DE19634768A DE19634768A1 DE 19634768 A1 DE19634768 A1 DE 19634768A1 DE 19634768 A DE19634768 A DE 19634768A DE 19634768 A DE19634768 A DE 19634768A DE 19634768 A1 DE19634768 A1 DE 19634768A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- target region
- face
- identification
- gradient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Description
Die vorliegende Erfindung steht mit der gleichzeitig eingereichten, deutschen Patentanmel
dung mit dem Titel "Neurales Netzwerk zur Lokalisierung und Erkennung eines verform
baren Objekts", Anmelder Siemens Corporate Research, Inc. USA, und The Trustees of
Princeton University, USA, Erfinder Kung und andere, Priorität vom 30. August 1995,
USA, US-Patentanmeldung Nr. 08/521,176, in Beziehung. Der Offenbarungsgehalt dieser
vorstehend definierten deutschen Patentanmeldung wird als Anhang auch zum Bestandteil
der vorliegenden Anmeldung gemacht.
Die vorliegende Erfindung bezieht sich auf Identifikationssysteme auf Video-Basis, die
imstande sind, das Vorhandensein des Gesichts einer Person in einem Videobild automa
tisch zu erfassen. Insbesondere bezieht sich die vorliegende Erfindung auf Vorrichtungen
und Verfahren, bei denen iterative Berechnungen zur anfänglichen raschen Identifizierung
des Vorhandenseins eines Gesichts in einem Videobild und zum anschließenden Anpassen
bzw. Zuordnen des Gesichts zu einer gespeicherten Identifikationsschablone bzw. Identifi
kationsvorlage eingesetzt werden.
Im Stand der Technik sind Technologien zur Lokalisierung von Gesichtern in einer
komplexen Szene vorhanden. Bei vielen Methoden, wie etwa derjenigen, die in dem
Artikel "Finding Faces in cluttered Scenes using Random Labeled Graph Matching" von
Chen et al., IEEE (0-8186-7042-8/95), Seiten 637 bis 644, beschrieben ist, werden
ausgefeilte Algorithmen eingesetzt, die viel Zeit zum Ablaufen brauchen. Als Ergebnis
können derartige komplexe, auf Algorithmen basierende Methoden nicht leicht an Identifi
kationssysteme angepaßt werden, die eine schnelle Identifikation eines Gesichts fordern.
Zum Einsatz bei Anwendungen, die eine rasche Reaktionszeit erfordern, wurden weniger
aufwendige und daher weniger zeitaufwendige Algorithmen entwickelt. Jedoch wurden zur
Erreichung des Ziels, daß diese herkömmlichen Methoden weniger aufwendig sind,
Annahmen bei dem Verarbeitungsalgorithmus getroffen, die nicht lebensgerecht sind. Als
Beispiel suchen bei den zum Stand der Technik rechnenden Systemen, wie etwa denjeni
gen, die als Beispiel in "Face Detection by Fuzzy Pattern Matching" von Chen et al, IEEE
95 (0-8186-7042-9/95), Seiten 591 bis 596; "Face Detection Using Templates" von Known
et al., IEEE 94 (1051-4651/94), Seiten 764 bis 767; und in "Human Face Detection in a
Complex Background" von Yang el al., Pattern Recognition, Vol. 27, Nr. 1, Seiten 53 bis
63, 1994, erläutert sind, die Verarbeitungsalgorithmen unrealistischerweise nach dunklem
Haar oder einem dunklen, ein Gesicht mit heller Hauttönung umgebenden Hintergrund,
oder hängen hiervon ab. Manche dieser herkömmlichen Methoden erfordern auch eine
Farbkamera zur Erleichterung der Aufteilung von Gesicht/Hintergrund, während bei
anderen Methoden angenommen wird, daß das gesuchte Gesicht asiatische Züge aufweist.
Solche Annahmen sind nicht stets praxisgerecht und führen daher zu einem Identifikations
system, das lediglich begrenzte Fähigkeiten besitzt.
Einer der größten Nachteile von vielen herkömmlichen Systemen und Methoden zur
Gesichtsidentifizierung besteht darin, daß die bei diesen Systemen verwendeten Verarbei
tungsalgorithmen annehmen, daß das zu identifizierende Gesicht während des Laufs der
Identifikationsprozedur eine konstante Beleuchtung bzw. Helligkeit aufweist. Diese
Annahme wird der Praxis ebenfalls nicht gerecht. In der realen Welt ändert sich die
Beleuchtung ständig. Die Sonne verschwindet hinter Wolken, Lichter werden ein- und
ausgeschaltet, Türen von hell erleuchteten Räumen öffnen und schließen sich, Autoschein
werfer wandern vorbei, usw . . Bei vielen herkömmlichen Systemen zur Gesichtsidentifizie
rung nimmt der Verarbeitungsalgorithmus dann, wenn sich die Beleuchtung bzw. Hel
ligkeit ändert, an, daß sich die Merkmale des Gesichts geändert oder bewegt haben,
wodurch sich falsche oder widersprüchliche Ergebnisse einstellen.
Es ist daher eine Aufgabe der vorliegenden Erfindung, ein System und Verfahren zur
Gesichtsidentifizierung zu schaffen, das eine rasche Identifizierung eines Gesichts un
abhängig von der Farbe der Haut, der Haarfarbe oder anderen mit der Farbe zusammen
hängenden Variablen ermöglicht.
Es ist eine weitere Aufgabe der vorliegenden Erfindung, ein System zur Identifizierung
von Gesichtern zu schaffen, das bei einem Einsatz im realen Leben, bei dem kontinuierli
che Änderungen der Beleuchtung vorliegen, die sich in dem zu identifizierenden Gesicht
widerspiegeln können, zuverlässig betreibbar ist.
Diese Aufgabe wird mit den in den unabhängigen Ansprüchen angegebenen Merkmalen
gelöst.
Vorteilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.
Die vorliegende Erfindung schafft ein Identifikationssystem und -Verfahren zur Identifizie
rung des Vorhandenseins eines menschlichen Gesichts in einem Videobild. In diesem
System wird eine Videokamera zur Betrachtung einer Szene eingesetzt. Wenn eine Person
in die betrachtete bzw. abgebildete Szene eintritt, wird ein Bildrahmen bzw. Einzelbild
rasch im Hinblick auf das Vorhandensein eines Gesichts analysiert. Während der Analyse
des Einzelbilds wird das Bild hinsichtlich der Auflösung und der Normalisierung ver
ringert, um hierdurch Änderungen der Beleuchtung zu kompensieren. Das modifizierte
Einzelbild bzw. Bild wird dann mit einem zuvor konfigurierten Hintergrundbild ver
glichen, um eine binäre Interessenmaske zu erzeugen. Unter Einsatz der binären Inter
essenmaske wird die wahrscheinlichste Position eines Gesichts dadurch berechnet, daß die
Oberseite, die Unterseite und die Seiten von jeder möglichen Kopfregion in der modifizier
ten Interessenmaske identifiziert werden. Die identifizierte Kopfregion wird innerhalb eines
Randkastens bzw. eines Randrahmens definiert, wobei die Größe und die Eigenschaften
des Randrahmens im Hinblick auf die Möglichkeit eines Gesichts analysiert werden.
Sobald ermittelt worden ist, daß der Randrahmen ein Gesicht enthalten kann, werden die
Daten, die innerhalb des Randrahmens enthalten sind, weiter analysiert.
Bei der Analyse der Daten des Randrahmens werden die Daten erneut normalisiert bzw.
standardisiert, um Änderungen der Beleuchtung zu kompensieren. Der Randrahmen wird
auch in seiner Größe nochmals auf eine ausgewählte Standardgröße geändert, die an
Identifizierungsschablonen bzw. Identifizierungsbilder angepaßt ist, die in einem Speicher
gespeichert sind. Sobald die Anpassung hinsichtlich der Größe erfolgt ist, werden die
Daten in dem Randrahmen mit verschiedenen Identifikationsschablonen bzw. Identifika
tionsbildern, die aus dem Speicher stammen, verglichen. Die beste Übereinstimmung mit
den Identifikationsbildern wird mit einem Ergebnis bzw. einem Maß oder Wert versehen,
der das Ausmaß der Übereinstimmung anzeigt. Wenn das Maß einen vorbestimmten Wert
nicht überschreitet, wird angenommen, daß in dem ursprünglichen Bild kein Gesicht
vorhanden ist. Wenn aber umgekehrt das Maß bzw. der Wert eine zweite vorbestimmte
Schwelle überschreitet, wird angenommen, daß ein Gesicht identifiziert worden ist. In dem
Fall, daß das Maß bzw. der Wert nicht unterhalb des ersten Schwellwerts liegt, aber auch
nicht oberhalb des zweiten Schwellwerts, wird eine weitere Prozedur zur Augenlokalisie
rung bezüglich der Daten des Randrahmens durchgeführt. Falls ein Auge lokalisiert wird,
wird angenommen, daß ein Gesicht vorhanden ist. Falls kein Auge lokalisiert wird, wird
angenommen, daß kein Gesicht vorhanden ist, und es wird ein nachfolgendes Bild analy
siert.
Die Erfindung wird nachstehend anhand von Ausführungsbeispielen unter Bezugnahme auf
die Zeichnungen näher beschrieben.
Fig. 1 zeigt ein generelles Blockschaltbild, in dem der gesamte Aufbau eines Aus
führungsbeispiels des Identifikationssystems gemäß der vorliegenden Erfindung
schematisch dargestellt ist;
Fig. 2 zeigt ein Blockschaltbild, in dem die Verfahrensschritte zur Erzeugung einer
binären Interessenmaske aus einem Bild bzw. Einzelbild, das von einer Video
kamera erhalten wird, schematisch dargestellt sind;
Fig. 3A zeigt die binäre Interessenmaske, die durch die Verfahrensschritte erzeugt
wird, die in Fig. 2 dargestellt sind;
Fig. 3B zeigt die binäre Interessenmaske gemäß Fig. 3A, die hinsichtlich Störungen
bzw. Rauschen bereinigt ist;
Fig. 3C zeigt die bereinigte, binäre Interessenmaske gemäß Fig. 3B, die hinsichtlich
der oberen Grenze eines Randkastens bzw. Randrahmens analysiert ist;
Fig. 3D und 3E zeigen die bereinigte, binäre Interessenmaske, die im Hinblick auf die
seitlichen Grenzen des Randkastens analysiert wird;
Fig. 3F zeigt die bereinigte, binäre Interessenmaske, die im Hinblick auf die untere
Grenze des Randrahmens analysiert ist;
Fig. 3G zeigt den Randrahmen, der der bereinigten, binären Interessenmaske überlagert
ist, und
Fig. 4 zeigt das Verfahren zur Bestimmung des Vorhandenseins eines Gesichts aus
bzw. in dem Randrahmen einer Interessenmaske bzw. in Betracht kommenden
Maske.
Die vorliegende Erfindung schafft ein System und ein Verfahren zur Erfassung eines
Gesichts in einem Videobild und zur Identifizierung des Gesichts dadurch, daß das Gesicht
mit einer Schablone bzw. Vorlage, die in einem Speicher gespeichert ist, in Überein
stimmung gebracht wird. Die vorliegende Erfindung kann bei jedem beliebigen System
eingesetzt werden, bei dem die Identität einer Person verifiziert werden muß, wie etwa bei
einer ATM-Maschine (bzw. einem automatischen Schalterterminal), oder bei jedem
beliebigen automatisierten System verwendet werden, bei dem sich die Erkennung des
Vorhandenseins eines Gesichts als nützlich erweist.
Wie aus Fig. 1 ersichtlich ist, wird bei dem System und Verfahren zur Gesichtsidentifizie
rung in Übereinstimmung mit der vorliegenden Erfindung eine Videokamera 12 eingesetzt,
die mit einem Bildprozessor gekoppelt ist. Wie im weiteren Text erläutert wird, analysiert
der Bildprozessor die Bilder, die von der Videokamera 12 empfangen werden, mit Hilfe
einer dreistufigen Prozedur. Als erstes wird das Videobild im Hinblick auf das Vorhanden
sein einer Person in einem zur Objekterfassung dienenden Aufgabenabschnitt (Subtask)
analysiert, der durch den Block 14 veranschaulicht ist. Falls eine Person vorhanden ist,
wird das Gesicht der Person in dem Videobild in einem der Gesichtslokalisierung dienen
den Aufgabenabschnitt (Subtask) isoliert, der durch den Block 16 veranschaulicht ist. Das
isolierte Gesicht wird dann digital mit verschiedenen Gesichtsschablonen bzw. Gesichtsvor
lagen 18, die in einem gespeicherten Gedächtnis bzw. in einem Speicher enthalten sind, in
einem der Gesichtsidentifizierung dienenden Aufgabenabschnitt (Subtask) verglichen, der
durch den Block 20 veranschaulicht ist. Der zur Gesichtsidentifizierung dienende Auf
gabenabschnitt bzw. Arbeitsabschnitt führt zunächst rasch eine grobe Gesichtsidentifizie
rung durch, um hierdurch die Verarbeitungszeit zu verbessern, das heißt zu verringern.
Ein komplexerer Prozeß zur Gesichtsidentifizierung wird lediglich dann durchgeführt,
wenn die Ergebnisse der groben Gesichtsidentifizierung nicht schlüssig waren. Durch
Reduzierung und Aufteilung der Aufgabe (task) der Identifizierung eines Gesichts in drei
primäre Aufgabenabschnitte (Untertasks) wird ein System und Verfahren zur Gesicht
sidentifizierung geschaffen, das ein Gesicht rasch und genau identifizieren kann.
Der erste Schritt der raschen Objekterfassung, der durch den Block 14 in Fig. 1 dargestellt
ist, wird unter Bezugnahme auf Fig. 2 in größeren Einzelheiten erläutert. In Fig. 2 ist
dargestellt, daß die Videokamera 12 ein Bild bzw. Bilddaten 22 erzeugt. Bei dem bevor
zugten Ausführungsbeispiel muß die Videokamera 12 lediglich eine Schwarz-Weiß-Kamera
sein, die ein Bild mit einer mäßigen Auflösung von ungefähr 320 × 240 (Breite x Höhe)
erzeugt. Aus Gründen der Vergrößerung der Berechnungsgeschwindigkeit werden die
anfänglichen Bilddaten 22 in ihrer Größe bzw. Umfang auf ein Blockbild mit einer sehr
viel kleineren Auflösung verringert. Das Blockbild 24 wird dadurch erzeugt, daß Bild
elementblöcke, die in den ursprünglichen Bilddaten 22 enthalten sind, einer Mittelwertbil
dung unterzogen werden. Bei dem bevorzugten Ausführungsbeispiel werden 8 × 8 -
Bildelementblöcke einer Mittelwertbildung unterzogen, so daß aus den ursprünglichen 320
× 240 - Bilddaten 22 ein Blockbild 24 mit einer Auflösung von 40 × 30 erzeugt wird. Bei
der Erzeugung des Blockbilds 24 wird einer Block-Mittelwertbildung der Vorzug gegen
über einer geradlinigen bzw. direkten Unterabtastung gegeben, und zwar wegen der
größeren Störungstoleranz, die durch die Block-Mittelwertbildung hervorgerufen wird.
Wenn das Blockbild 24 erzeugt worden ist, wird das Bild normalisiert bzw. normiert oder
skaliert, das heißt standardisiert bzw. vereinheitlicht, um Änderungen zu minimieren, die
durch Änderungen des Lichts hervorgerufen werden. Eine Normalisierung bzw. Standardi
sierung der Beleuchtung wird mittels eines Normalisierungsgradienten vorgenommen. Für
die Richtung x in dem Blockbild 24 lautet der Gradient x (x-Gradient) wie folgt:
Hierbei bezeichnet B einen gewählten, konstanten Offset (Offsetabweichung). Bei den
bevorzugten Berechnungen wird B als 1 bei einem nicht mit Vorzeichen versehenen
Bytebild gewählt. Auch wenn der Normalisierungsgradient nicht für alle Änderungen der
Beleuchtung optimal ist, ist das Leistungsvermögen des Normalisierungsgradienten ange
messen, und es trägt die Einfachheit seiner Berechnung zu dem raschen Ansprechverhalten
des gesamten Systems bei. Nach der Normalisierung bzw. Standardisierung ergibt sich als
Ergebnis das Blockbild 24, das Bildelementblöcke aufweist, die entweder als schwarz oder
als weiß betrachtet werden können, wodurch Bilddaten bereitgestellt werden, die sich leicht
in binärer Form darstellen lassen.
Bei dem System gemäß der vorliegenden Erfindung wird eine feststehende Videokamera
12 eingesetzt. Da die Videokamera 12 feststeht, sind die Bilddaten 30 des Hintergrund
bilds, die durch die Videokamera erhalten werden, relativ konstant. Die Bilddaten 30 des
Hintergrundbilds werden in ein Blockbild aus dunklen und hellen Bildelementblöcken
umgewandelt, und werden digital als eine binäre Sequenz gespeichert. Wenn eine Person
in den Bereich bzw. Sichtbereich der Videokamera 12 gelangt, weicht das Bild von dem
erwarteten Hintergrundbild ab. Eine binäre Maske 26 wird dadurch erzeugt, daß die im
Hinblick auf den Gradienten x normalisierten bzw. standardisierten Blockbilddaten 28
eines jeweiligen Bilds mit den erwarteten Bilddaten 30 des Hintergrundbilds verglichen
werden. Falls eine Position in dem abgetasteten Bild eine Änderung eines Schwellwertpe
gels überschreitet, wird der Wert in der binären Maske 26 für diese Position auf Eins (1)
gesetzt. Falls sich eine Position in dem abgetasteten Bild gegenüber dem gespeicherten
Hintergrundbild nicht geändert hat oder den für die Änderung festgelegten Schwellwertpe
gel nicht überschreitet, bleibt die Position in der binären Maske 26 ungesetzt bei Null (0).
Auch wenn ein Bildvergleich unter Heranziehung eines Blockbilds mit Normalisierung
bzw. Standardisierung des Gradienten x ausreichend ist, läßt sich das Erfassungsvermögen
dadurch verbessern, daß mehr als nur gerade der Gradient x analysiert wird. Zur Erzielung
eines verbesserten Leistungsvermögens kann ein zweiter Satz von Blockbilddaten unter
Einsatz eines Gradienten für die Richtung y (y-Richtungsgradient) erzeugt werden. Für die
Richtung y lautet der Gradient y wie folgt:
Sobald die hinsichtlich des Gradienten y normalisierten bzw. standardisierten Blockbild
daten 32 berechnet sind, wird eine zweite, binäre Maske 34 dadurch erzeugt, daß die
hinsichtlich des Gradienten y normalisierten bzw. standardisierten Blockbilddaten 32 mit
den Bilddaten 30 des Hintergrundbilds verglichen werden. Falls eine Position in dem
abgetasteten Rahmen bzw. Bild einen für die Änderung vorgegebenen Schwellwertpegel
überschreitet, wird der Wert in der zweiten binären Maske 34 für diese Position auf Eins
(1) gesetzt. Falls sich eine Position in dem abgetasteten Rahmen nicht gegenüber dem
gespeicherten Hintergrundbild ändert oder den für die Änderung festgelegten Schwell
wertpegel nicht überschreitet, verbleibt die Position in der zweiten binären Maske 34
ungesetzt bei Null (0).
Nach der Berechnung der ersten binären Maske 26 und der zweiten binären Maske 34 wird
ein "ODER"-Vergleich 36 Bit für Bit zwischen den Daten durchgeführt, die in den beiden
binären Masken 26, 34 enthalten sind. Als Ergebnis des "ODER"-Vergleichs wird eine
Interessenmaske bzw. interessierende Maske 38 erzeugt, die Daten enthält, die sowohl
hinsichtlich des Gradienten x als auch des Gradienten y normalisiert bzw. standardisiert
sind. Da die interessierende Maske 38 aus dem Vergleich der beiden normalisierten Bilder
erhalten wird, haben plötzliche Änderungen der Beleuchtung inhärent keine beträchtliche
Auswirkung auf die Daten in der interessierenden Maske 38.
Da bei dem System gemäß der vorliegenden Erfindung eine Videokamera 12 eingesetzt
wird, können nachfolgende Einzelbilder eines betrachteten Bilds im Hinblick auf das
Auftreten einer Bewegung analysiert werden. Eine Bewegungsinformation kann dann zum
Beseitigen von Störungen bzw. Rauschen aus der interessierenden Maske 38 eingesetzt
werden. Durch eine Bilddifferenzierung, eine Schwellwertverarbeitung und durch andere
bekannte Methoden zur Erfassung einer Bewegung in Videobildern kann eine Referenz
maske 40 für eine besondere bzw. eine jeweilige Bildfolge gewonnen werden. Die Refe
renzmaske 40 wird dann mit der interessierenden Maske 38 unter Einsatz eines
"UND"-Vergleichs 42 digital verglichen, um eine abschließende, interessierende Maske 48 zu
erzeugen. Der "UND"-Vergleich 42 zwischen den binären Daten der Referenzmaske 40
und der interessierenden Maske 38 führt üblicherweise zur Beseitigung von Störungen
bzw. Rauschen in der interessierenden Maske 38, da der größte Teil der Beleuchtungs
änderungen subtil bzw. schwach ist und nicht als Änderungen der Bewegung von Bild zu
Bild registriert wird. Der "UND"-Vergleich zwischen den Daten der Referenzmaske 40
und der interessierenden Maske 38 ist auch im Hinblick auf die Bereinigung bzw. Beseiti
gung von Störungen in der interessierenden Maske 38 nützlich, die durch plötzliche
Änderungen der Beleuchtung hervorgerufen werden. Eine plötzliche Änderung der Be
leuchtung führt zu einem großen Ausmaß der Änderung, das bei einer Analyse von Bild
zu Bild als Bewegung erfaßt wird. Als Ergebnis kann eine plötzliche Änderung der
Beleuchtung zu einer Referenzmaske 40 führen, die eine Bewegung an allen Punkten
anzeigt. Durch die Durchführung eines "UND"-Vergleichs zwischen einer solchen Refe
renzmaske und der interessierenden Maske 38 ergibt sich, daß die resultierende, abschlie
ßende, interessierende Maske die gleiche wie diejenige ist, die sich ergeben würde, falls
keine Bewegungsinformation je benutzt worden wäre.
Es wird nun auf die Fig. 3A bis 3G Bezug genommen. Aus diesen Figuren ist ersichtlich,
daß nach der Erzeugung der abschließenden, interessierenden Maske 48 diese Maske 48
im Hinblick auf das Vorhandensein eines Gesichts analysiert wird. Eine Lokalisierung des
Gesichts wird durchgeführt, indem zunächst ein Begrenzungskasten bzw. Rahmenrand 50
(Fig. 3G) konstruiert wird, von dem angenommen wird, daß das Gesicht in ihm angeord
net ist. Der Begrenzungskasten oder Begrenzungsrahmen 50 wird unter der Annahme
aufgebaut, daß die Oberseite und die Seiten des Kopfes unterscheidbare Merkmale sind,
die in der abschließenden, interessierenden Maske 48 enthalten sind. Die Fig. 3A bis 3G
zeigen die binären Daten, die in der abschließenden, interessierenden Maske 48 enthalten
sind, als graphische Bilder, bei denen dunkle Blöcke binäre Einsen (1) und helle Blöcke
binäre Nullen (0) sind. Bei dem ersten Schritt bei der Lokalisierung eines Gesichts in der
abschließenden, interessierenden Maske 48 wird die ursprüngliche, abschließende, inter
essierende Maske 48 (Fig. 3A) dadurch gesäubert oder bereinigt, daß einzelne, isolierte,
binäre Anomalien, bei denen ein Gesicht nicht möglich ist, beseitigt werden. Das Ergebnis
ist eine mit weniger Störungen bzw. Rauschen behaftete, abschließende, interessierende
Maske 48, wie es in Fig. 3B gezeigt ist.
Beginnend mit der bereinigten, abschließenden, interessierenden Maske 48 gemäß Fig. 3B
wird dann die Oberseite des Begrenzungsrahmens 50 dadurch abgeschätzt, daß die Anzahl
von dunklen Blöcken (binäre Einsen) in jeder Zeile der abschließenden, interessierenden
Maske gezählt werden. Wenn die Anzahl von dunklen Blöcken in einer Zeile eine zuvor
gewählte Größe bzw. einen zuvor gewählten Wert überschreitet, wird angenommen, daß
die Zeile der Oberseite des Kopfes entspricht. Wie aus Fig. 3C ersichtlich ist, wird die
obere Linie 52 des Begrenzungsrahmens 50 dann auf diese Zeile festgelegt.
Um Abschätzungen für die Seiten des Kopfes einer Person zu erhalten, wird jede Zeile
unterhalb der oberen bzw. obersten Linie 52 des Begrenzungsrahmens 50 im Hinblick
darauf analysiert, wo die verschiedenen dunklen Blöcke in dieser Zeile beginnen und
enden. Aus den Fig. 3D und 3E ist ersichtlich, daß die mittlere Spaltenposition bzw. der
Medianwert der Spaltenposition, bei der die dunklen Blöcke beginnen und enden, berech
net wird. Die mittlere Position bzw. Medianwert-Position, bei der die dunklen Blöcke
beginnen, wird als die erste Seite 54 (Fig. 3D) des Begrenzungsrahmens 50 bezeichnet,
während die mittlere Position bzw. Medianwert-Position, bei der die dunklen Blöcke
enden, als die entgegengesetzte Seite 56 (Fig. 3E) des Begrenzungsrahmens 50 bezeichnet
bzw. festgelegt wird.
Aufgrund des großen Umfangs der Variation der Größe der Menschen ist die Unterseite
des Gesichts in der abschließenden, interessierenden Maske 48 am schwierigsten zu
ermitteln. Unter Bezugnahme auf die Fig. 3F und 3G wird eine Schätzung der Unterseite
bzw. des unteren Rands des Gesichts dadurch vorgenommen, daß ein sich verengender
Punkt bzw. eine sich verengende Stelle in der abschließenden, interessierenden Maske 48
gefunden wird, die der Stelle entspricht, bei der sich der Kopf und die Schultern treffen.
Dies erfolgt dadurch, daß die durchschnittliche Anzahl von schwarzen Blöcken für jede
Zeile in der oberen Hälfte des Begrenzungsrahmens 50 betrachtet wird. Eine untere Grenze
58 wird dadurch gefunden, daß die Zeile in der abschließenden, interessierenden Maske 48
beginnend von der Unterseite analysiert wird. Die untere Grenze 58 des Begrenzungsrah
mens 50 wird dann solange nach oben bewegt, bis sie eine Zeile erreicht, bei der die
durchschnittliche Anzahl der dunklen Blöcke in der Zeile niedriger ist als die durchschnitt
liche Anzahl von dunklen Blöcken in den Zeilen in der oberen Hälfte des Begrenzungs
rahmens 50.
Sobald der Begrenzungsrahmen 50 vollständig ist, wird der Begrenzungsrahmen 50
analysiert, um zu ermitteln, ob er angemessen ist oder ob ein weiteres Bild des Videobilds
betrachtet werden sollte. Die Beurteilung der Angemessenheit erfolgt auf der Grundlage
der Breite des Begrenzungsrahmens 50 und der Anzahl von dunklen Blöcken, die in dem
Begrenzungsrahmen 50 enthalten sind. Falls der Begrenzungsrahmen zu klein oder zu groß
ist oder zu wenig dunkle Blöcke enthält, wird angenommen, daß kein Gesicht in dem
analysierten Rahmen bzw. Bild gefunden wurde, und es wird ein nachfolgendes Bild
analysiert.
Nachdem der Begrenzungsrahmen 50 identifiziert worden ist und ermittelt wurde, daß der
Begrenzungsrahmen 50 die minimalen Anforderungen erfüllt, werden die Inhalte des
Begrenzungsrahmens 50 im Hinblick auf eine grobe Gesichtserkennung analysiert. Unter
Bezugnahme auf Fig. 4 wird erläutert, daß die Daten, die in dem Begrenzungsrahmen 50
enthalten sind, mit Daten verglichen werden, die in verschiedenen Identifikationsschablo
nen bzw. Identifikationsvorlagen 60 enthalten sind, um das Vorhandensein eines Gesichts
in dem Begrenzungsrahmen 50 zu bestätigen bzw. verifizieren. Bei dem Vergleichs-
Aufgabenabschnitt wird anfänglich nach einer Übereinstimmung mit mehreren größenmä
ßig geeignet dimensionierten Identifikationsschablonen 60 bei dem Versuch der Bestim
mung gesucht, ob überhaupt ein Gesicht in den Daten des Begrenzungsrahmens 50 enthal
ten ist. Bei dem Vergleichs-Aufgabenabschnitt wird die beste Übereinstimmung zwischen
den Daten in dem Begrenzungsrahmen 50 und den Identifikationsschablonen 60 ausge
wählt. Die beste Übereinstimmung wird zusammen mit einem Vertrauensmaß bzw.
Zuverlässigkeitswerts ausgegeben, das bzw. der anzeigt, in welchem Ausmaß die Identifi
kationsschablone mit den Daten in dem Begrenzungsrahmen 50 übereinstimmte.
Die Größe des Begrenzungsrahmens 50 ist eine Variable, die von dem Bild, das von der
Fernsehkamera aufgenommen wird, und von der Art der Interpretation dieses Bilds durch
das System gemäß der vorliegenden Erfindung abhängt. Als Ergebnis müssen die Daten,
die in dem Begrenzungsrahmen 50 enthalten sind, vor ihrer Verarbeitung oftmals größen
mäßig neu festgelegt werden, bzw. es muß der Begrenzungsrahmen 50 größenmäßig neu
festgelegt werden. Damit eine Kompensation im Hinblick auf Änderungen des Lichts
erfolgt, wird der Begrenzungsrahmen 50 einer Lichtnormalisierungsprozedur bzw. einer
Lichtstandardisierungsprozedur unterzogen, wodurch ein normalisierter bzw. standardisier
ter Begrenzungskasten oder Begrenzungsrahmen 64 erzeugt wird. Da die Daten, die in
dem ursprünglichen Begrenzungsrahmen 50 enthalten sind, durch die Normalisierungs
prozedur geändert werden, sind die resultierenden Daten in ihrer Natur nicht länger
tatsächlich binär. Während des Normalisierungsvorgangs werden die Daten des Begren
zungsrahmens skaliert, um feine Details zu entfernen, und werden mit einem verstärkten
Kontrast versehen. Im Prinzip stellt die Beleuchtungsnormalisierung bzw. -Standardisie
rung, der der Begrenzungsblock 50 unterzogen wird, eine Variation des Normalisierungs
verfahrens dar, das in "A Novel Approach to Lighting Normalization" von Richard Bang,
Ming Fang und anderen, SCR Technical Report 95-TR-543, beschrieben ist. Dieser
Aufsatz wird hiermit durch Bezugnahme in den Offenbarungsgehalt vorliegender Anmel
dung in vollem Umfang miteinbezogen. In diesem Artikel ist eine Tiefpaßfilterstufe mit
mehrfacher Auflösung angesprochen. Bei der vorliegenden Erfindung wird die Tiefpaßfil
terstufe mit mehrfacher Auflösung (Multi-Auflösung) vor ihrer Vervollständigung angehal
ten, wodurch sich ein Bild ergibt, das bei geringer Auslösung verbleibt. Eine solche
Modifikation verringert die Verarbeitungszeit, die mit der Prozedur verknüpft ist, in
erheblichem Ausmaß.
Darüber hinaus wird eine große Skalierungskonstante während der Normalisierung bzw.
der Standardisierung eingesetzt, um feine Details zu beseitigen und einen harten Kontrast
zu erzielen, wodurch die Daten des Begrenzungsblocks bzw. Begrenzungsrahmens mit
gutem Kontrast versehen werden. Aufgrund des verstärkten Kontrasts und der Beseitigung
von feinen Details ist der resultierende, normalisierte Begrenzungsrahmen 64 nahezu
binärisiert (er weist dunkle Blöcke und helle Blöcke auf), enthält aber dennoch manche
Blöcke, die nicht klar kategorisiert werden können. Zur Förderung der Vereinfachung der
Berechnung wird der normalisierte Begrenzungsrahmen 64 als ein trinäres Bild (Bild mit
drei Pegeln) quantifiziert, bei dem dunkle Regionen mit negativen Einsen (-1) versehen
werden, helle Regionen mit Einsen (1) versehen werden, und die undefinierbaren Regionen
mit Nullen (0) versehen werden.
Die Identifikationsschablonen 60 werden anhand einer Analyse von mindestens einem als
Beispiel dienenden bzw. abgetasteten Gesicht aufgebaut. Da jedoch die Schablone eher ein
generelles Gesicht als ein spezielles Gesicht repräsentieren kann, wird eine Mehrzahl von
abgetasteten Gesichtern kompiliert oder zusammengestellt, um jede Identifikationsschablo
ne 60 zu erzeugen. Jede Identifikationsschablone enthält eine Zusammenstellung aus
Muster- bzw. Probengesichtern oder Vorlagegesichtern mit einer bestimmten, vorab
ausgewählten Schablonengröße, wobei jede Identifikationsschablone 60 als ein trinäres Bild
ausgebildet ist. Um das trinäre Bild zu schaffen, das eine Identifikationsschablone 60
darstellt, werden die verschiedenen, ausgewählten Gesichter digital miteinander verglichen.
Falls sich ergibt, daß eine Schablonenposition bei nahezu allen Beispielsgesichtern bzw.
Probengesichtern schwarz ist, wird der Wert der Schablone als eine negative Eins (-1)
festgelegt. Falls sich ergibt, daß die Schablonenpositionen bei nahezu allen als Beispiel
dienenden Gesichtern weiß ist, wird der Schablonenwert auf Eins (1) festgelegt. Falls
jedoch eine Position in der Schablone bei den als Beispiel dienenden Gesichtern nicht
konsistent scheint, wird ein Wert von Null (0) zugeordnet. Eine Möglichkeit der Über
prüfung oder Ermittlung hinsichtlich dieser Werte der Schablonenpositionen besteht darin,
den Mittelwert aus allen als Beispiel dienenden Gesichtern zu ermitteln. Falls der Mittel
wert unter einer gewissen, festgelegten Schwelle liegt, wird die Position als eine negative
Eins (-1) festgelegt. Falls der Mittelwert im Gegensatz hierzu aber oberhalb einer zweiten
Schwelle liegt, wird der Wert auf Eins (1) festgelegt. Alle anderen Mittelwerte zwischen
den beiden Schwellwerten werden auf Null (0) festgelegt.
Das trinäre Bild des normalisierten bzw. standardisierten Begrenzungsrahmens bzw.
Begrenzungsfelds 64 ist nicht mit den Identifikationsschablonen 60 in einer solchen Weise
korreliert, daß sich eine maximale Korrelationsantwort ergibt. Das gesamte Erfassungsver
mögen wird dadurch verbessert, daß mehr Information als nur die maximale Antwort
eingesetzt wird. Das Leistungsvermögen wird dadurch verbessert, daß die Kreuzkorrektur-
Antworten (cross correction responses) zur Übereinstimmung gebracht bzw. miteinander
verglichen werden. Dies bedeutet, daß der normalisierte Begrenzungsrahmen 64 mit den
Identifikationsschablonen 60 korreliert wird, um ein Antwortbild 70 zu erhalten. In dem
Antwortbild 70 als Ergebnis auftretende Muster werden dann analysiert. Als Beispiel kann
nach Mustern mit dunkel-hell-dunkel in benachbarten Regionen des Antwortbilds 70
gesucht werden. Die gefundenen Muster werden dann auf der Grundlage des Unterschieds
zwischen der hellen Region und der helleren der beiden dunklen Regionen bewertet. Durch
Bewerten des Antwortbilds 70 wird für jede der Identifikatiosschablonen 60 eine gesamte
Bewertung gebildet. Alle Identifikationsschablonen 60, die eine vorbestimmte Bewertung
bzw. einen vorbestimmten Wert überschreiten, werden als Finalteilnehmer gespeichert.
Für jede Identifikationsschablone 60, die als ein Finalteilnehmer ermittelt wurde, werden
eine Symmetriebewertung bzw. ein Symmetriewert und ein Maß für die gerade Korrelation
(straight correlation) bestimmt. Der Finalteilnehmer mit der höchsten geraden Korrelation
wird als übereinstimmend bzw. als Treffer ausgewählt, es sei denn, daß das Symmetrie
maß niedrig ist. Falls dies der Fall ist, werden die gerade Korrelation und das Symmetrie
maß mit denjenigen des als zweitbester qualifizierten Finalteilnehmers verglichen, um zu
ermitteln, welcher die bessere Wahl darstellt. Wenn die beste Identifikationsschablone eine
niedrige Bewertung aufweist, wird angenommen, daß in dem Begrenzungsrahmen kein
Gesicht vorhanden ist. Falls die Bewertung oberhalb einer vorbestimmten Schwelle liegt,
wird angenommen, daß ein Gesicht gefunden worden ist. In dem Fall, daß die Bewertung
weder hoch noch niedrig ist, werden jedoch die Daten aus dem Begrenzungsrahmen zu
einer Augenerfassungsprozedur geleitet, wie etwa derjenigen, die in der gleichfalls anhän
gigen, auf Seite 1 bereits angesprochenen und in vollem Umfang in den Offenbarungs
gehalt vorliegender Anmeldung einbezogenen deutschen Patentanmeldung "Neurales
Netzwerk zur Lokalisierung und Erkennung eines verformbaren Objekts" beschrieben ist.
Falls keine Augen erfaßt werden, wird angenommen, daß kein Gesicht vorhanden ist.
Es versteht sich, daß das vorstehend beschriebene und dargestellte Ausführungsbeispiel des
erfindungsgemäßen Gesichtserfassungssystems lediglich als Beispiel dient und viele
Abänderungen und Modifikationen unter Heranziehung von funktionell äquivalenten
Komponenten und/oder alternativen Ausführungsbeispielen vorgenommen werden können.
Als Beispiel versteht es sich für den Fachmann, daß unterschiedliche Reduktionsgrößen für
das abgetastete Bild eingesetzt werden können.
Es ist somit ein Identifikationssystem und -Verfahren zum Identifizieren des Vorhanden
seins eines menschlichen Gesichts in einem Videobild offenbart. Ein von einer Videokame
ra erhaltenes Bild wird hinsichtlich des Vorliegens eines Gesichts rasch analysiert. Wäh
rend der Analyse des Bilds wird die Auflösung des Bilds verringert und eine Normalisie
rung zur Kompensation von Beleuchtungsveränderungen durchgeführt. Das modifizierte
Bild wird dann mit einem zuvor aufgebauten Hintergrundbild verglichen, um eine binäre,
interessierende Maske zu erzeugen. Unter Heranziehung der binären, interessierenden
Maske wird die wahrscheinlichste Position eines Gesichts durch Identifizierung der
Oberseite, der Unterseite und der Seiten einer beliebigen, möglichen Kopfregion in der
modifizierten, interessierenden Maske berechnet. Die identifizierte Kopfregion wird
innerhalb eines Begrenzungsrahmens definiert, dessen Größe und Eigenschaften im
Hinblick auf die Möglichkeit eines Gesichts analysiert werden. Sobald ermittelt ist, daß der
Rahmen ein Gesicht enthalten kann, werden die in dem Begrenzungsrahmen enthaltenen
Daten weiter analysiert. Bei der Analyse der Begrenzungsrahmendaten werden die Daten
erneut zur Kompensation der Beleuchtung standardisiert. Der Begrenzungsrahmen wird
auch größenmäßig auf eine ausgewählte Standardgröße gebracht, die mit in einem Speicher
gespeicherten Identifikationsschablonen übereinstimmt. Nach der Größenanpassung werden
die in dem Begrenzungsrahmen enthaltenen Daten mit verschiedenen Identifikationsscha
blonen aus dem Speicher verglichen. Die beste Überstimmung unter den Identifikations
schablonen wird mit einem Bewertungsmaß versehen, das das Ausmaß der Übereinstim
mung anzeigt. Falls das Bewertungsmaß einen bestimmten Bewertungswert nicht über
schreitet, wird angenommen, daß in dem ursprünglichen Bild kein Gesicht vorhanden ist.
Falls aber das Bewertungsmaß eine zweite vorbestimmte Schwelle überschreitet, wird
angenommen, daß ein Gesicht identifiziert worden ist. In der Fall, daß das Bewertungsmaß
nicht unterhalb des ersten Schwellwert-Bewertungsmaßes, jedoch auch nicht oberhalb des
zweiten Schwellwert-Bewertungsmaßes liegt, wird eine weitere Augenlokalisierungs
prozedur bezüglich der Daten des Begrenzungsrahmens durchgeführt.
Claims (20)
1. Identifikationssystem zum Identifizieren eines Gesichts, mit
einer Videokamera (12) zum Aufnehmen einer Szene und zum Erzeugen mindestens eines Bildrahmens bzw. Bilds der Szene,
einer Lokalisierungseinrichtung zum Lokalisieren einer Zielregion in dem Bild,
die ein Bild des Gesichts enthalten kann,
einer Speichereinrichtung zum Speichern von Identifikationsschablonen (60) von Gesichtern, und
einer Vergleichseinrichtung zum Vergleichen der Zielregion mit den Identifika tionsschablonen, wobei ein Gesicht identifiziert wird, wenn das Bild in der Zielregion mit einer der Identifikationsschablonen im wesentlichen übereinstimmt.
einer Videokamera (12) zum Aufnehmen einer Szene und zum Erzeugen mindestens eines Bildrahmens bzw. Bilds der Szene,
einer Lokalisierungseinrichtung zum Lokalisieren einer Zielregion in dem Bild,
die ein Bild des Gesichts enthalten kann,
einer Speichereinrichtung zum Speichern von Identifikationsschablonen (60) von Gesichtern, und
einer Vergleichseinrichtung zum Vergleichen der Zielregion mit den Identifika tionsschablonen, wobei ein Gesicht identifiziert wird, wenn das Bild in der Zielregion mit einer der Identifikationsschablonen im wesentlichen übereinstimmt.
2. System nach Anspruch 1, gekennzeichnet durch eine Einrichtung
zum Unterscheiden oder Erkennen des Umrisses einer Person in der Szene, wobei die
Zielregion den Kopf der Person in der Szene enthält.
3. System nach Anspruch 1 oder 2, gekennzeichnet durch eine
Einrichtung zum Normalisieren des mindestens einen Bilds im Hinblick auf Beleuchtungs
änderungen.
4. System nach einem der vorhergehenden Ansprüche, dadurch gekenn
zeichnet, daß die Lokalisierungseinrichtung zur Lokalisierung einer Zielregion eine
Einrichtung zum Identifizieren einer oberen Grenze (52) der Zielregion aufgrund eines
Vergleichs von Bildelementblöcken, die in Zeilen des Bilds enthalten sind, mit einem
Schwellwert-Zahlenwert aufweist.
5. System nach einem der vorhergehenden Ansprüche, dadurch gekenn
zeichnet, daß die Lokalisierungseinrichtung zur Lokalisierung der Zielregion eine
Einrichtung zum Identifizieren von Seitengrenzen der Zielregion aufgrund einer Bestim
mung einer mittleren Position der Bildelementblöcke, die in den Zeilen des Bilds enthalten
sind, aufweist.
6. System nach einem der vorhergehenden Ansprüche, dadurch gekenn
zeichnet, daß die Lokalisierungseinrichtung zur Lokalisierung der Zielregion eine
Einrichtung zum Identifizieren einer unteren Grenze (58) durch Mittelwertbildung der
Anzahl von Bildelementblöcken, die in jeder Zeile der Zielregion enthalten sind, und durch
Identifizieren einer Zeile mit einer Anzahl von Bildelementblöcken unterhalb des Durch
schnitts aufweist.
7. Verfahren zum Identifizieren eines Gesichts, mit den Schritten:
Erzeugen eines Bilds einer Szene mit einer vorbestimmten Auflösung von Bildelementen,
Lokalisieren einer Zielregion in dem Bild, die das Bild eines Gesichts enthalten kann,
Vergleichen der Zielregion des Bilds mit mindestens einer Identifikations schablone, und
Ermitteln, ob die Zielregion mit der mindestens einen Identifikationsschablone signifikant übereinstimmt.
Erzeugen eines Bilds einer Szene mit einer vorbestimmten Auflösung von Bildelementen,
Lokalisieren einer Zielregion in dem Bild, die das Bild eines Gesichts enthalten kann,
Vergleichen der Zielregion des Bilds mit mindestens einer Identifikations schablone, und
Ermitteln, ob die Zielregion mit der mindestens einen Identifikationsschablone signifikant übereinstimmt.
8. Verfahren nach Anspruch 7, gekennzeichnet durch den Schritt der
Unterscheidung bzw. Erkennung des Umrisses einer Person in der Szene, wobei die
Zielregion den Kopf der Person in der Szene enthält.
9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, daß
der Schritt der Erzeugung des Bilds das Aufnehmen der Szene durch eine Videokamera
enthält, wobei das Bild ein elektronisches, durch die Videokamera erzeugtes Bild ist.
10. Verfahren nach Anspruch 7, 8 oder 9, gekennzeichnet durch den
Schritt der Verringerung der vorbestimmten Auflösung.
11. Verfahren nach einem der Ansprüche 7 bis 10, gekennzeichnet
durch den Schritt der Normalisierung bzw. Standardisierung des Bilds hinsichtlich Ände
rungen der Beleuchtung.
12. Verfahren nach einem der Ansprüche 7 bis 11, gekennzeichnet
durch den Schritt der Normalisierung bzw. Standardisierung des Bilds mit einem Gradien
ten x (x-Gradient) zur Erzeugung eines normalisierten bzw. standardisierten x-Gradient-
Bilds.
13. Verfahren nach einem der Ansprüche 7 bis 12, gekennzeichnet
durch den Schritt der Normalisierung des Bilds mit einem Gradienten y (y-Gradient) zur
Erzeugung eines normalisierten bzw. standardisierten y-Gradient-Bilds.
14. Verfahren nach Anspruch 13, gekennzeichnet durch den Schritt
der Durchführung eines Vergleichs zwischen dem x-Gradient-Bild und dem y-Gradient-Bild
zur Erzeugung eines normalisierten Bilds.
15. Verfahren nach einem der Ansprüche 7 bis 14, gekennzeichnet
durch den Schritt der Erzeugung einer Referenzmaske aus einer Bewegungsanalyse von
aufeinanderfolgenden Bildern des Objekts, und des Vergleichens der Referenzmaske mit
dem Bild.
16. Verfahren nach einem der Ansprüche 7 bis 15, dadurch gekenn
zeichnet, daß der Schritt des Vergleichens der Zielregion den Teilschritt des Verse
hens der mindestens einen Identifikationsschablone mit einer Bewertung enthält, die an
zeigt, wie gut die mindestens eine Identifikationsschablone mit der Zielregion überein
stimmt.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß der
Schritt der Bestimmung, ob die Zielregion mit der mindestens einen Identifikationsschablo
ne signifikant übereinstimmt, den Vergleich der Bewertung mit einem Bewertungsschwell
wert enthält.
18. Verfahren nach einem der Ansprüche 7 bis 17, gekennzeichnet
durch den Schritt der Größenveränderung der Zielregion auf eine Standardgröße, die mit
der Größe der mindestens einen Identifikationsschablone übereinstimmt.
19. Verfahren nach einem der Ansprüche 7 bis 18, gekennzeichnet
durch den Schritt der Normalisierung bzw. Standardisierung der Zielregion hinsichtlich
Veränderungen der Beleuchtung.
20. Verfahren nach einem der Ansprüche 7 bis 19, gekennzeichnet
durch den Schritt der Untersuchung der Zielregion hinsichtlich des Vorhandenseins eines
Auges in der Zielregion, falls die Zielregion mit der mindestens einen Identifikations
schablone in einem vorbestimmten Ausmaß übereinstimmt.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US08/521,175 US5715325A (en) | 1995-08-30 | 1995-08-30 | Apparatus and method for detecting a face in a video image |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE19634768A1 true DE19634768A1 (de) | 1997-03-06 |
Family
ID=24075670
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE19634768A Ceased DE19634768A1 (de) | 1995-08-30 | 1996-08-28 | Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US5715325A (de) |
| DE (1) | DE19634768A1 (de) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN105842495A (zh) * | 2016-03-25 | 2016-08-10 | 李军 | 基于图像处理的电能表 |
Families Citing this family (190)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6222939B1 (en) * | 1996-06-25 | 2001-04-24 | Eyematic Interfaces, Inc. | Labeled bunch graphs for image analysis |
| US5909501A (en) * | 1996-09-09 | 1999-06-01 | Arete Associates | Systems and methods with identity verification by comparison and interpretation of skin patterns such as fingerprints |
| US5828769A (en) * | 1996-10-23 | 1998-10-27 | Autodesk, Inc. | Method and apparatus for recognition of objects via position and orientation consensus of local image encoding |
| US5960111A (en) * | 1997-02-10 | 1999-09-28 | At&T Corp | Method and apparatus for segmenting images prior to coding |
| US6786420B1 (en) | 1997-07-15 | 2004-09-07 | Silverbrook Research Pty. Ltd. | Data distribution mechanism in the form of ink dots on cards |
| US6803989B2 (en) * | 1997-07-15 | 2004-10-12 | Silverbrook Research Pty Ltd | Image printing apparatus including a microcontroller |
| US6618117B2 (en) | 1997-07-12 | 2003-09-09 | Silverbrook Research Pty Ltd | Image sensing apparatus including a microcontroller |
| AUPO850597A0 (en) * | 1997-08-11 | 1997-09-04 | Silverbrook Research Pty Ltd | Image processing method and apparatus (art01a) |
| US7724282B2 (en) | 1997-07-15 | 2010-05-25 | Silverbrook Research Pty Ltd | Method of processing digital image to correct for flash effects |
| AUPO802797A0 (en) * | 1997-07-15 | 1997-08-07 | Silverbrook Research Pty Ltd | Image processing method and apparatus (ART54) |
| US20040119829A1 (en) | 1997-07-15 | 2004-06-24 | Silverbrook Research Pty Ltd | Printhead assembly for a print on demand digital camera system |
| US6597817B1 (en) * | 1997-07-15 | 2003-07-22 | Silverbrook Research Pty Ltd | Orientation detection for digital cameras |
| US6985207B2 (en) * | 1997-07-15 | 2006-01-10 | Silverbrook Research Pty Ltd | Photographic prints having magnetically recordable media |
| US6879341B1 (en) | 1997-07-15 | 2005-04-12 | Silverbrook Research Pty Ltd | Digital camera system containing a VLIW vector processor |
| US7714889B2 (en) * | 1997-07-15 | 2010-05-11 | Silverbrook Research Pty Ltd | Digital camera using exposure information for image processing |
| US6690419B1 (en) | 1997-07-15 | 2004-02-10 | Silverbrook Research Pty Ltd | Utilising eye detection methods for image processing in a digital image camera |
| US6624848B1 (en) | 1997-07-15 | 2003-09-23 | Silverbrook Research Pty Ltd | Cascading image modification using multiple digital cameras incorporating image processing |
| US7110024B1 (en) | 1997-07-15 | 2006-09-19 | Silverbrook Research Pty Ltd | Digital camera system having motion deblurring means |
| US6188777B1 (en) * | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
| US5892837A (en) * | 1997-08-29 | 1999-04-06 | Eastman Kodak Company | Computer program product for locating objects in an image |
| US6108437A (en) * | 1997-11-14 | 2000-08-22 | Seiko Epson Corporation | Face recognition apparatus, method, system and computer readable medium thereof |
| GB2333590A (en) * | 1998-01-23 | 1999-07-28 | Sharp Kk | Detecting a face-like region |
| JP3688879B2 (ja) * | 1998-01-30 | 2005-08-31 | 株式会社東芝 | 画像認識装置、画像認識方法及びその記録媒体 |
| US6529630B1 (en) * | 1998-03-02 | 2003-03-04 | Fuji Photo Film Co., Ltd. | Method and device for extracting principal image subjects |
| US6272231B1 (en) | 1998-11-06 | 2001-08-07 | Eyematic Interfaces, Inc. | Wavelet-based facial motion capture for avatar animation |
| ATE248409T1 (de) | 1998-04-13 | 2003-09-15 | Eyematic Interfaces Inc | Wavelet-basierte gesichtsbewegungserfassung für avataranimation |
| US6301370B1 (en) | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
| EP1580684B1 (de) | 1998-04-13 | 2008-12-31 | Google Inc. | Gesichtserkennung aus Videobildern |
| US6215471B1 (en) | 1998-04-28 | 2001-04-10 | Deluca Michael Joseph | Vision pointer method and apparatus |
| US6593956B1 (en) | 1998-05-15 | 2003-07-15 | Polycom, Inc. | Locating an audio source |
| US6064354A (en) | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
| GB2341231A (en) * | 1998-09-05 | 2000-03-08 | Sharp Kk | Face detection in an image |
| AUPP702098A0 (en) | 1998-11-09 | 1998-12-03 | Silverbrook Research Pty Ltd | Image creation method and apparatus (ART73) |
| US6522772B1 (en) * | 1998-09-30 | 2003-02-18 | Ncr Corporation | Self-service checkout terminal having a biometric sensing device for verifying identity of a user and associated method |
| US7900823B1 (en) | 1998-10-09 | 2011-03-08 | Diebold, Incorporated | Banking system controlled by data bearing records |
| US7533805B1 (en) * | 1998-10-09 | 2009-05-19 | Diebold, Incorporated | Data bearing record based capture and correlation of user image data at a card reading banking system machine |
| US7050655B2 (en) * | 1998-11-06 | 2006-05-23 | Nevengineering, Inc. | Method for generating an animated three-dimensional video head |
| US6714661B2 (en) | 1998-11-06 | 2004-03-30 | Nevengineering, Inc. | Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image |
| US7050624B2 (en) * | 1998-12-04 | 2006-05-23 | Nevengineering, Inc. | System and method for feature location and tracking in multiple dimensions including depth |
| US6765608B1 (en) * | 1999-03-09 | 2004-07-20 | Minolta Co., Ltd. | Image processing apparatus and system executing predetermined image processing on image data shot by camera, and image recording medium recorded with image processing program |
| US6907136B1 (en) * | 1999-05-19 | 2005-06-14 | Canon Kabushiki Kaisha | Image processing of designated image portion |
| AUPQ056099A0 (en) | 1999-05-25 | 1999-06-17 | Silverbrook Research Pty Ltd | A method and apparatus (pprint01) |
| US6636619B1 (en) | 1999-07-07 | 2003-10-21 | Zhongfei Zhang | Computer based method and apparatus for object recognition |
| US6466695B1 (en) | 1999-08-04 | 2002-10-15 | Eyematic Interfaces, Inc. | Procedure for automatic analysis of images and image sequences based on two-dimensional shape primitives |
| US6792135B1 (en) * | 1999-10-29 | 2004-09-14 | Microsoft Corporation | System and method for face detection through geometric distribution of a non-intensity image property |
| SG103253A1 (en) | 2000-01-26 | 2004-04-29 | Kent Ridge Digital Labs | Method and apparatus for cancelling lighting variations in object recognition |
| US6940545B1 (en) * | 2000-02-28 | 2005-09-06 | Eastman Kodak Company | Face detecting camera and method |
| US6351566B1 (en) | 2000-03-02 | 2002-02-26 | International Business Machines | Method for image binarization |
| US6658166B1 (en) | 2000-03-08 | 2003-12-02 | International Business Machines Corporation | Correction of distortions in form processing |
| GB2360581A (en) * | 2000-03-15 | 2001-09-26 | Television Monitoring Services | Quantification of brand exposure on screen |
| RU2175148C1 (ru) * | 2000-04-04 | 2001-10-20 | Свириденко Андрей Владимирович | Способ идентификации человека |
| US6778703B1 (en) | 2000-04-19 | 2004-08-17 | International Business Machines Corporation | Form recognition using reference areas |
| JP4443722B2 (ja) * | 2000-04-25 | 2010-03-31 | 富士通株式会社 | 画像認識装置及び方法 |
| US6496595B1 (en) | 2000-05-19 | 2002-12-17 | Nextgenid, Ltd. | Distributed biometric access control apparatus and method |
| US6504470B2 (en) | 2000-05-19 | 2003-01-07 | Nextgenid, Ltd. | Access control method and apparatus for members and guests |
| JP2002042115A (ja) * | 2000-07-26 | 2002-02-08 | Fujitsu Ltd | 疲労緩和システム、疲労緩和方法及び記録媒体 |
| US6917703B1 (en) | 2001-02-28 | 2005-07-12 | Nevengineering, Inc. | Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network |
| US7392287B2 (en) * | 2001-03-27 | 2008-06-24 | Hemisphere Ii Investment Lp | Method and apparatus for sharing information using a handheld device |
| US6834115B2 (en) | 2001-08-13 | 2004-12-21 | Nevengineering, Inc. | Method for optimizing off-line facial feature tracking |
| US6876364B2 (en) | 2001-08-13 | 2005-04-05 | Vidiator Enterprises Inc. | Method for mapping facial animation values to head mesh positions |
| US6853379B2 (en) * | 2001-08-13 | 2005-02-08 | Vidiator Enterprises Inc. | Method for mapping facial animation values to head mesh positions |
| EP1293933A1 (de) * | 2001-09-03 | 2003-03-19 | Agfa-Gevaert AG | Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotografischen Bilddaten |
| US20050008198A1 (en) * | 2001-09-14 | 2005-01-13 | Guo Chun Biao | Apparatus and method for selecting key frames of clear faces through a sequence of images |
| US20040263621A1 (en) * | 2001-09-14 | 2004-12-30 | Guo Chun Biao | Customer service counter/checkpoint registration system with video/image capturing, indexing, retrieving and black list matching function |
| CA2359269A1 (en) * | 2001-10-17 | 2003-04-17 | Biodentity Systems Corporation | Face imaging system for recordal and automated identity confirmation |
| JP2003296711A (ja) * | 2002-03-29 | 2003-10-17 | Nec Corp | 顔画像識別方法、装置およびプログラム |
| US7274803B1 (en) * | 2002-04-02 | 2007-09-25 | Videomining Corporation | Method and system for detecting conscious hand movement patterns and computer-generated visual feedback for facilitating human-computer interaction |
| JP2003333355A (ja) * | 2002-05-10 | 2003-11-21 | Canon Inc | 色評価装置及び方法 |
| JP2003346149A (ja) * | 2002-05-24 | 2003-12-05 | Omron Corp | 顔照合装置および生体情報照合装置 |
| US7598975B2 (en) * | 2002-06-21 | 2009-10-06 | Microsoft Corporation | Automatic face extraction for use in recorded meetings timelines |
| US6996460B1 (en) | 2002-10-03 | 2006-02-07 | Advanced Interfaces, Inc. | Method and apparatus for providing virtual touch interaction in the drive-thru |
| US20040136870A1 (en) * | 2002-10-25 | 2004-07-15 | Kochy Thomas E. | Automatic analysis apparatus |
| US7283650B1 (en) | 2002-11-27 | 2007-10-16 | Video Mining Corporation | Method and system for printing of automatically captured facial images augmented with promotional content |
| GB2395779A (en) * | 2002-11-29 | 2004-06-02 | Sony Uk Ltd | Face detection |
| GB2395778A (en) * | 2002-11-29 | 2004-06-02 | Sony Uk Ltd | Face detection |
| US7203338B2 (en) * | 2002-12-11 | 2007-04-10 | Nielsen Media Research, Inc. | Methods and apparatus to count people appearing in an image |
| EP1576815A1 (de) | 2002-12-11 | 2005-09-21 | Nielsen Media Research, Inc. | Ermittlung der zuschauerzusammensetzung |
| US7734070B1 (en) | 2002-12-31 | 2010-06-08 | Rajeev Sharma | Method and system for immersing face images into a video sequence |
| JP2004236110A (ja) * | 2003-01-31 | 2004-08-19 | Canon Inc | 画像処理装置、画像処理方法、記憶媒体及びプログラム |
| WO2004073217A1 (en) * | 2003-02-10 | 2004-08-26 | Nielsen Media Research, Inc. | Methods and apparatus to adaptively gather audience information data |
| US20040228505A1 (en) * | 2003-04-14 | 2004-11-18 | Fuji Photo Film Co., Ltd. | Image characteristic portion extraction method, computer readable medium, and data collection and processing device |
| US20040223649A1 (en) * | 2003-05-07 | 2004-11-11 | Eastman Kodak Company | Composite imaging method and system |
| US8330831B2 (en) * | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
| US7362368B2 (en) * | 2003-06-26 | 2008-04-22 | Fotonation Vision Limited | Perfecting the optics within a digital image acquisition device using face detection |
| US7440593B1 (en) | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
| US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
| US7565030B2 (en) * | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
| US8948468B2 (en) * | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
| US7792970B2 (en) * | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
| US7471846B2 (en) * | 2003-06-26 | 2008-12-30 | Fotonation Vision Limited | Perfecting the effect of flash within an image acquisition devices using face detection |
| US7844076B2 (en) * | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
| US7620218B2 (en) * | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
| US8498452B2 (en) * | 2003-06-26 | 2013-07-30 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
| US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
| US9129381B2 (en) * | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
| US7574016B2 (en) * | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
| US8593542B2 (en) * | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
| US7269292B2 (en) | 2003-06-26 | 2007-09-11 | Fotonation Vision Limited | Digital image adjustable compression and resolution using face detection information |
| US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
| US7616233B2 (en) * | 2003-06-26 | 2009-11-10 | Fotonation Vision Limited | Perfecting of digital image capture parameters within acquisition devices using face detection |
| US8155397B2 (en) * | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
| US8989453B2 (en) * | 2003-06-26 | 2015-03-24 | Fotonation Limited | Digital image processing using face detection information |
| US8682097B2 (en) * | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
| US7430335B2 (en) * | 2003-08-13 | 2008-09-30 | Apple Inc | Pre-processing method and system for data reduction of video sequences and bit rate reduction of compressed video sequences using spatial filtering |
| US7403568B2 (en) * | 2003-08-13 | 2008-07-22 | Apple Inc. | Pre-processing method and system for data reduction of video sequences and bit rate reduction of compressed video sequences using temporal filtering |
| US7920725B2 (en) * | 2003-09-09 | 2011-04-05 | Fujifilm Corporation | Apparatus, method, and program for discriminating subjects |
| EP1671257A1 (de) * | 2003-09-30 | 2006-06-21 | Koninklijke Philips Electronics N.V. | System und verfahren zum adaptiven einstellen von biometrischen messschwellen |
| US20070086626A1 (en) * | 2003-10-08 | 2007-04-19 | Xid Technologies Pte Ltd | Individual identity authentication systems |
| GB2409031A (en) * | 2003-12-11 | 2005-06-15 | Sony Uk Ltd | Face detection |
| JP2005242640A (ja) * | 2004-02-26 | 2005-09-08 | Fuji Photo Film Co Ltd | 対象物検出方法および装置並びにプログラム |
| US7697026B2 (en) * | 2004-03-16 | 2010-04-13 | 3Vr Security, Inc. | Pipeline architecture for analyzing multiple video streams |
| US7627148B2 (en) * | 2004-07-06 | 2009-12-01 | Fujifilm Corporation | Image data processing apparatus and method, and image data processing program |
| CA2568633C (en) * | 2004-10-15 | 2008-04-01 | Oren Halpern | A system and a method for improving the captured images of digital still cameras |
| US8320641B2 (en) * | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
| US7315631B1 (en) | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
| US8503800B2 (en) * | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
| US8130285B2 (en) * | 2005-04-05 | 2012-03-06 | 3Vr Security, Inc. | Automated searching for probable matches in a video surveillance system |
| JP4429241B2 (ja) * | 2005-09-05 | 2010-03-10 | キヤノン株式会社 | 画像処理装置及び方法 |
| RU2295152C1 (ru) * | 2005-09-15 | 2007-03-10 | Роман Павлович Худеев | Способ распознавания лица человека по видеоизображению |
| US20070183625A1 (en) * | 2006-01-27 | 2007-08-09 | Dussich Jeffrey A | Statistical Match For Facial Biometric To Reduce False Accept Rate/False Match Rate (FAR/FMR) |
| US7504942B2 (en) * | 2006-02-06 | 2009-03-17 | Videoiq, Inc. | Local verification systems and methods for security monitoring |
| MX2007015979A (es) | 2006-03-31 | 2009-04-07 | Nielsen Media Res Inc | Metodos, sistemas y aparato para medicion de multiples fines. |
| ATE497218T1 (de) * | 2006-06-12 | 2011-02-15 | Tessera Tech Ireland Ltd | Fortschritte bei der erweiterung der aam- techniken aus grauskalen- zu farbbildern |
| US7916897B2 (en) * | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
| US7403643B2 (en) * | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
| AU2007221976B2 (en) * | 2006-10-19 | 2009-12-24 | Polycom, Inc. | Ultrasonic camera tracking system and associated methods |
| US7987111B1 (en) * | 2006-10-30 | 2011-07-26 | Videomining Corporation | Method and system for characterizing physical retail spaces by determining the demographic composition of people in the physical retail spaces utilizing video image analysis |
| US8055067B2 (en) * | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
| US8839094B2 (en) * | 2007-01-23 | 2014-09-16 | Jostens, Inc. | System and method for yearbook creation |
| CN101663662A (zh) * | 2007-01-23 | 2010-03-03 | 乔斯滕斯股份有限公司 | 用于创建定制产品的方法和系统 |
| US20080199079A1 (en) * | 2007-02-19 | 2008-08-21 | Seiko Epson Corporation | Information Processing Method, Information Processing Apparatus, and Storage Medium Having Program Stored Thereon |
| WO2008104549A2 (en) | 2007-02-28 | 2008-09-04 | Fotonation Vision Limited | Separating directional lighting variability in statistical face modelling based on texture space decomposition |
| EP2188759A1 (de) * | 2007-03-05 | 2010-05-26 | Fotonation Vision Limited | Gesichtssuche und detektion in einer digitalbild-beschaffungseinrichtung |
| US7916971B2 (en) * | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
| US7844085B2 (en) * | 2007-06-07 | 2010-11-30 | Seiko Epson Corporation | Pairwise feature learning with boosting for use in face detection |
| DE102007033391A1 (de) * | 2007-07-18 | 2009-01-22 | Robert Bosch Gmbh | Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm |
| WO2009032922A1 (en) * | 2007-09-04 | 2009-03-12 | Objectvideo, Inc. | Stationary target detection by exploiting changes in background model |
| WO2009041242A1 (ja) * | 2007-09-28 | 2009-04-02 | Nec Soft, Ltd. | 集計システム、集計装置、及び集計方法 |
| US7855737B2 (en) * | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
| US7953255B2 (en) * | 2008-05-01 | 2011-05-31 | At&T Intellectual Property I, L.P. | Avatars in social interactive television |
| US20100225584A1 (en) * | 2008-06-08 | 2010-09-09 | John Cauchi | Silent or loud 3d infrared futuristic computer mice and keyboard design for a mice&keyboard less computer |
| CN102027505A (zh) | 2008-07-30 | 2011-04-20 | 泰塞拉技术爱尔兰公司 | 使用脸部检测的自动脸部和皮肤修饰 |
| US8411963B2 (en) * | 2008-08-08 | 2013-04-02 | The Nielsen Company (U.S.), Llc | Methods and apparatus to count persons in a monitored environment |
| US20100094936A1 (en) * | 2008-10-15 | 2010-04-15 | Nokia Corporation | Dynamic Layering of an Object |
| TW201025147A (en) * | 2008-12-19 | 2010-07-01 | Micro Star Int Co Ltd | Method for adjusting light source threshold value for face recognition |
| RU2431191C2 (ru) * | 2009-01-27 | 2011-10-10 | Государственное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) | Способ идентификации личности человека по цифровому изображению лица |
| US8374389B2 (en) * | 2009-02-06 | 2013-02-12 | Robert Bosch Gmbh | Iris deblurring method based on global and local iris image statistics |
| US20100208078A1 (en) * | 2009-02-17 | 2010-08-19 | Cisco Technology, Inc. | Horizontal gaze estimation for video conferencing |
| US8131848B1 (en) * | 2009-09-29 | 2012-03-06 | Jason Adam Denise | Image analysis and communication device control technology |
| US8379917B2 (en) * | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
| US9456183B2 (en) * | 2009-11-16 | 2016-09-27 | Alliance For Sustainable Energy, Llc | Image processing occupancy sensor |
| US8675009B2 (en) | 2010-07-20 | 2014-03-18 | Apple Inc. | Keying an image in three dimensions |
| US8743139B2 (en) | 2010-07-20 | 2014-06-03 | Apple Inc. | Automatically keying an image |
| US8619093B2 (en) | 2010-07-20 | 2013-12-31 | Apple Inc. | Keying an image |
| JP5706647B2 (ja) | 2010-09-03 | 2015-04-22 | キヤノン株式会社 | 情報処理装置、およびその処理方法 |
| US8726161B2 (en) * | 2010-10-19 | 2014-05-13 | Apple Inc. | Visual presentation composition |
| US9760764B2 (en) * | 2010-12-30 | 2017-09-12 | Nokia Technologies Oy | Methods, apparatuses and computer program products for efficiently recognizing faces of images associated with various illumination conditions |
| US8594426B2 (en) | 2011-02-04 | 2013-11-26 | Apple Inc. | Color matching using color segmentation |
| US8611655B2 (en) | 2011-02-04 | 2013-12-17 | Apple Inc. | Hue-based color matching |
| US8842911B2 (en) | 2011-02-04 | 2014-09-23 | Apple Inc. | Luma-based color matching |
| US8760464B2 (en) | 2011-02-16 | 2014-06-24 | Apple Inc. | Shape masks |
| CN102110399B (zh) * | 2011-02-28 | 2016-08-24 | 北京中星微电子有限公司 | 一种辅助解说的方法、装置及其系统 |
| US8903130B1 (en) * | 2011-05-09 | 2014-12-02 | Google Inc. | Virtual camera operator |
| JP4980486B1 (ja) * | 2011-06-14 | 2012-07-18 | 株式会社ナナオ | 動き画像領域判定装置またはその方法 |
| US8620088B2 (en) | 2011-08-31 | 2013-12-31 | The Nielsen Company (Us), Llc | Methods and apparatus to count people in images |
| US9241141B1 (en) * | 2011-12-23 | 2016-01-19 | Amazon Technologies, Inc. | Projection block extraction |
| US10579904B2 (en) | 2012-04-24 | 2020-03-03 | Stmicroelectronics S.R.L. | Keypoint unwarping for machine vision applications |
| US9282366B2 (en) | 2012-08-13 | 2016-03-08 | The Nielsen Company (Us), Llc | Methods and apparatus to communicate audience measurement information |
| JP6132490B2 (ja) * | 2012-08-20 | 2017-05-24 | キヤノン株式会社 | 認証装置、認証方法、およびプログラム |
| US8761448B1 (en) * | 2012-12-13 | 2014-06-24 | Intel Corporation | Gesture pre-processing of video stream using a markered region |
| US20140184803A1 (en) * | 2012-12-31 | 2014-07-03 | Microsoft Corporation | Secure and Private Tracking Across Multiple Cameras |
| CN103116890B (zh) * | 2013-02-27 | 2015-11-18 | 中山大学 | 一种基于视频图像的智能搜索匹配方法 |
| US9699499B2 (en) | 2014-04-30 | 2017-07-04 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
| CN106462736B (zh) | 2014-08-07 | 2020-11-06 | 华为技术有限公司 | 用于人脸检测的处理设备和方法 |
| US10445391B2 (en) | 2015-03-27 | 2019-10-15 | Jostens, Inc. | Yearbook publishing system |
| CN104866843B (zh) * | 2015-06-05 | 2018-08-21 | 中国人民解放军国防科学技术大学 | 一种面向监控视频的蒙面人脸检测方法 |
| US10652592B2 (en) | 2017-07-02 | 2020-05-12 | Comigo Ltd. | Named entity disambiguation for providing TV content enrichment |
| US10643093B1 (en) | 2018-11-19 | 2020-05-05 | International Business Machines Corporation | Automated bounding box generation for objects in an image |
| US11275819B2 (en) | 2018-12-05 | 2022-03-15 | Bank Of America Corporation | Generative adversarial network training and feature extraction for biometric authentication |
| CN111698453B (zh) * | 2019-03-11 | 2022-02-08 | 杭州海康威视系统技术有限公司 | 视频处理的方法和装置 |
| US11560784B2 (en) | 2019-06-11 | 2023-01-24 | Noven, Inc. | Automated beam pump diagnostics using surface dynacard |
| US11711638B2 (en) | 2020-06-29 | 2023-07-25 | The Nielsen Company (Us), Llc | Audience monitoring systems and related methods |
| US11494944B2 (en) | 2020-11-18 | 2022-11-08 | Disney Enterprises, Inc. | Automatic low contrast detection |
| US11544828B2 (en) | 2020-11-18 | 2023-01-03 | Disney Enterprises, Inc. | Automatic occlusion detection |
| CN113128573B (zh) * | 2021-03-31 | 2024-08-27 | 北京航天飞腾装备技术有限责任公司 | 一种红外-可见光异源图像匹配方法 |
| CN115393916A (zh) * | 2021-05-25 | 2022-11-25 | 深圳绿米联创科技有限公司 | 图像检测方法、人脸检测方法及装置、设备及存储介质 |
| US12356286B2 (en) | 2021-07-22 | 2025-07-08 | The Nielsen Company (Us), Llc | Methods, apparatus, and articles of manufacture to locate persons based on adjustable signal strength thresholds |
| US11860704B2 (en) | 2021-08-16 | 2024-01-02 | The Nielsen Company (Us), Llc | Methods and apparatus to determine user presence |
| US11758223B2 (en) | 2021-12-23 | 2023-09-12 | The Nielsen Company (Us), Llc | Apparatus, systems, and methods for user presence detection for audience monitoring |
| US12088882B2 (en) | 2022-08-26 | 2024-09-10 | The Nielsen Company (Us), Llc | Systems, apparatus, and related methods to estimate audience exposure based on engagement level |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5012522A (en) * | 1988-12-08 | 1991-04-30 | The United States Of America As Represented By The Secretary Of The Air Force | Autonomous face recognition machine |
| GB9201006D0 (en) * | 1992-01-17 | 1992-03-11 | Philip Electronic And Associat | Classifying faces |
| US5432864A (en) * | 1992-10-05 | 1995-07-11 | Daozheng Lu | Identification card verification system |
| US5497430A (en) * | 1994-11-07 | 1996-03-05 | Physical Optics Corporation | Method and apparatus for image recognition using invariant feature signals |
-
1995
- 1995-08-30 US US08/521,175 patent/US5715325A/en not_active Expired - Lifetime
-
1996
- 1996-08-28 DE DE19634768A patent/DE19634768A1/de not_active Ceased
Non-Patent Citations (4)
| Title |
|---|
| CHEN, Q., YACHIDA, M.: "Face detection by fuzzy pattern matching" in: IEEE 1995 (0-8186-7042-9/95)S. 591-596 * |
| KWON, Y.H., LOBO, V. N.da: "Face detection using templates" in: IEEE 1994 (1051-4651/94),S.764-767 * |
| LEUNG, T.K. et al.: "Finding faces in cluttered scenes using random lebeled graph matching" in: IEEE 1995 (0-8186-7042-8/95), S. 637-644 * |
| YANG, G., HUANG, T.S.: "Human face detection in a complex background" in: Pattern Racognition, Vol. 27, Nr. 1, 1994, S. 53-63 * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN105842495A (zh) * | 2016-03-25 | 2016-08-10 | 李军 | 基于图像处理的电能表 |
Also Published As
| Publication number | Publication date |
|---|---|
| US5715325A (en) | 1998-02-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE19634768A1 (de) | Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild | |
| DE60307583T2 (de) | Auswertung der Schärfe eines Bildes der Iris eines Auges | |
| DE60213032T2 (de) | Gerät zur Gesichtsdetektion, Gerät zur Detektion der Gesichtspose, Gerät zur Extraktion von Teilbildern und Verfahren für diese Geräte | |
| DE60313941T2 (de) | Personendetektion durch Gesichtsdetektion und Bewegungsdetektion | |
| EP0645037B1 (de) | Verfahren zur detektion von änderungen in bewegtbildern | |
| EP1119822B1 (de) | Verfahren und system zur personenerkennung mit modellbasierter gesichtsfindung | |
| DE69333094T2 (de) | Vorrichtung zum Extrahieren von Merkmalen eines Gesichtsbildes | |
| DE3587220T2 (de) | Identifizierungsverfahren von konturlinien. | |
| DE69906403T2 (de) | Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets | |
| DE2831582C2 (de) | Verfahren zur Identifizierung einer Person und Vorrichtung zur Durchführung des Verfahrens | |
| EP2467828B1 (de) | Verfahren und system zur automatischen objekterkennung und anschliessenden objektverfolgung nach massgabe der objektform | |
| DE69428089T2 (de) | Gerät und Verfahren zur Bildanalyse | |
| DE69937530T2 (de) | Verfahren zum automatischen Klassifizieren von Bildern nach Ereignissen | |
| DE69707886T2 (de) | Verfahren und gerät zum lokalisieren einer sich bewegenden zone und bestimmung der schnellheit und richtung der bewegung eines gebietes von relativer bewegung in einer szene | |
| DE19521346C2 (de) | Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür | |
| DE69837233T2 (de) | Verfahren und Gerät zur Bestimmung der Augenposition in einem Bild | |
| WO2000010119A1 (de) | Verfahren zum erkennen von objekten in digitalisierten abbildungen | |
| EP1259931A1 (de) | Verfahren zur analyse von fingerabdruckbildern | |
| EP0474304B1 (de) | Schaltungsanordnung zum Erkennen eines menschlichen Gesichts | |
| DE19810792A1 (de) | Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes | |
| DE69821225T2 (de) | Verfahren zur kontrolle der oberfläche einer laufenden materialbahn mit vorklassifikation von ermittelten unregelmässigkeiten | |
| EP0394959A2 (de) | Verfahren zur Bildauswertung | |
| DE60320076T2 (de) | Verfahren zur elektronischen farbentfernung unter nutzung räumlicher beziehungen zur verbesserung der genauigkeit | |
| DE112021005703T5 (de) | Informationsverarbeitungseinrichtung und informationsverarbeitungsverfahren | |
| DE69531412T2 (de) | Bildkodierung beruhend auf Bildbereichen und deren segmentierten Randlinien |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| OP8 | Request for examination as to paragraph 44 patent law | ||
| 8181 | Inventor (new situation) |
Free format text: BANG, RICHARD D., PRINCETON, N.J., US FANG, MING, CRANBURY, N.J., US SCHWARTZ, STUART C., PRINCENTON, N.J., US ANDRESS, KEITH M., PLAINSBORO, N.J., US |
|
| 8131 | Rejection |