[go: up one dir, main page]

DE19634768A1 - Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild - Google Patents

Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild

Info

Publication number
DE19634768A1
DE19634768A1 DE19634768A DE19634768A DE19634768A1 DE 19634768 A1 DE19634768 A1 DE 19634768A1 DE 19634768 A DE19634768 A DE 19634768A DE 19634768 A DE19634768 A DE 19634768A DE 19634768 A1 DE19634768 A1 DE 19634768A1
Authority
DE
Germany
Prior art keywords
image
target region
face
identification
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19634768A
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Princeton University
Siemens Corporate Research Inc
Original Assignee
Princeton University
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Princeton University, Siemens Corporate Research Inc filed Critical Princeton University
Publication of DE19634768A1 publication Critical patent/DE19634768A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

Die vorliegende Erfindung steht mit der gleichzeitig eingereichten, deutschen Patentanmel­ dung mit dem Titel "Neurales Netzwerk zur Lokalisierung und Erkennung eines verform­ baren Objekts", Anmelder Siemens Corporate Research, Inc. USA, und The Trustees of Princeton University, USA, Erfinder Kung und andere, Priorität vom 30. August 1995, USA, US-Patentanmeldung Nr. 08/521,176, in Beziehung. Der Offenbarungsgehalt dieser vorstehend definierten deutschen Patentanmeldung wird als Anhang auch zum Bestandteil der vorliegenden Anmeldung gemacht.
Die vorliegende Erfindung bezieht sich auf Identifikationssysteme auf Video-Basis, die imstande sind, das Vorhandensein des Gesichts einer Person in einem Videobild automa­ tisch zu erfassen. Insbesondere bezieht sich die vorliegende Erfindung auf Vorrichtungen und Verfahren, bei denen iterative Berechnungen zur anfänglichen raschen Identifizierung des Vorhandenseins eines Gesichts in einem Videobild und zum anschließenden Anpassen bzw. Zuordnen des Gesichts zu einer gespeicherten Identifikationsschablone bzw. Identifi­ kationsvorlage eingesetzt werden.
Im Stand der Technik sind Technologien zur Lokalisierung von Gesichtern in einer komplexen Szene vorhanden. Bei vielen Methoden, wie etwa derjenigen, die in dem Artikel "Finding Faces in cluttered Scenes using Random Labeled Graph Matching" von Chen et al., IEEE (0-8186-7042-8/95), Seiten 637 bis 644, beschrieben ist, werden ausgefeilte Algorithmen eingesetzt, die viel Zeit zum Ablaufen brauchen. Als Ergebnis können derartige komplexe, auf Algorithmen basierende Methoden nicht leicht an Identifi­ kationssysteme angepaßt werden, die eine schnelle Identifikation eines Gesichts fordern. Zum Einsatz bei Anwendungen, die eine rasche Reaktionszeit erfordern, wurden weniger aufwendige und daher weniger zeitaufwendige Algorithmen entwickelt. Jedoch wurden zur Erreichung des Ziels, daß diese herkömmlichen Methoden weniger aufwendig sind, Annahmen bei dem Verarbeitungsalgorithmus getroffen, die nicht lebensgerecht sind. Als Beispiel suchen bei den zum Stand der Technik rechnenden Systemen, wie etwa denjeni­ gen, die als Beispiel in "Face Detection by Fuzzy Pattern Matching" von Chen et al, IEEE 95 (0-8186-7042-9/95), Seiten 591 bis 596; "Face Detection Using Templates" von Known et al., IEEE 94 (1051-4651/94), Seiten 764 bis 767; und in "Human Face Detection in a Complex Background" von Yang el al., Pattern Recognition, Vol. 27, Nr. 1, Seiten 53 bis 63, 1994, erläutert sind, die Verarbeitungsalgorithmen unrealistischerweise nach dunklem Haar oder einem dunklen, ein Gesicht mit heller Hauttönung umgebenden Hintergrund, oder hängen hiervon ab. Manche dieser herkömmlichen Methoden erfordern auch eine Farbkamera zur Erleichterung der Aufteilung von Gesicht/Hintergrund, während bei anderen Methoden angenommen wird, daß das gesuchte Gesicht asiatische Züge aufweist. Solche Annahmen sind nicht stets praxisgerecht und führen daher zu einem Identifikations­ system, das lediglich begrenzte Fähigkeiten besitzt.
Einer der größten Nachteile von vielen herkömmlichen Systemen und Methoden zur Gesichtsidentifizierung besteht darin, daß die bei diesen Systemen verwendeten Verarbei­ tungsalgorithmen annehmen, daß das zu identifizierende Gesicht während des Laufs der Identifikationsprozedur eine konstante Beleuchtung bzw. Helligkeit aufweist. Diese Annahme wird der Praxis ebenfalls nicht gerecht. In der realen Welt ändert sich die Beleuchtung ständig. Die Sonne verschwindet hinter Wolken, Lichter werden ein- und ausgeschaltet, Türen von hell erleuchteten Räumen öffnen und schließen sich, Autoschein­ werfer wandern vorbei, usw . . Bei vielen herkömmlichen Systemen zur Gesichtsidentifizie­ rung nimmt der Verarbeitungsalgorithmus dann, wenn sich die Beleuchtung bzw. Hel­ ligkeit ändert, an, daß sich die Merkmale des Gesichts geändert oder bewegt haben, wodurch sich falsche oder widersprüchliche Ergebnisse einstellen.
Es ist daher eine Aufgabe der vorliegenden Erfindung, ein System und Verfahren zur Gesichtsidentifizierung zu schaffen, das eine rasche Identifizierung eines Gesichts un­ abhängig von der Farbe der Haut, der Haarfarbe oder anderen mit der Farbe zusammen­ hängenden Variablen ermöglicht.
Es ist eine weitere Aufgabe der vorliegenden Erfindung, ein System zur Identifizierung von Gesichtern zu schaffen, das bei einem Einsatz im realen Leben, bei dem kontinuierli­ che Änderungen der Beleuchtung vorliegen, die sich in dem zu identifizierenden Gesicht widerspiegeln können, zuverlässig betreibbar ist.
Diese Aufgabe wird mit den in den unabhängigen Ansprüchen angegebenen Merkmalen gelöst.
Vorteilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.
Die vorliegende Erfindung schafft ein Identifikationssystem und -Verfahren zur Identifizie­ rung des Vorhandenseins eines menschlichen Gesichts in einem Videobild. In diesem System wird eine Videokamera zur Betrachtung einer Szene eingesetzt. Wenn eine Person in die betrachtete bzw. abgebildete Szene eintritt, wird ein Bildrahmen bzw. Einzelbild rasch im Hinblick auf das Vorhandensein eines Gesichts analysiert. Während der Analyse des Einzelbilds wird das Bild hinsichtlich der Auflösung und der Normalisierung ver­ ringert, um hierdurch Änderungen der Beleuchtung zu kompensieren. Das modifizierte Einzelbild bzw. Bild wird dann mit einem zuvor konfigurierten Hintergrundbild ver­ glichen, um eine binäre Interessenmaske zu erzeugen. Unter Einsatz der binären Inter­ essenmaske wird die wahrscheinlichste Position eines Gesichts dadurch berechnet, daß die Oberseite, die Unterseite und die Seiten von jeder möglichen Kopfregion in der modifizier­ ten Interessenmaske identifiziert werden. Die identifizierte Kopfregion wird innerhalb eines Randkastens bzw. eines Randrahmens definiert, wobei die Größe und die Eigenschaften des Randrahmens im Hinblick auf die Möglichkeit eines Gesichts analysiert werden. Sobald ermittelt worden ist, daß der Randrahmen ein Gesicht enthalten kann, werden die Daten, die innerhalb des Randrahmens enthalten sind, weiter analysiert.
Bei der Analyse der Daten des Randrahmens werden die Daten erneut normalisiert bzw. standardisiert, um Änderungen der Beleuchtung zu kompensieren. Der Randrahmen wird auch in seiner Größe nochmals auf eine ausgewählte Standardgröße geändert, die an Identifizierungsschablonen bzw. Identifizierungsbilder angepaßt ist, die in einem Speicher gespeichert sind. Sobald die Anpassung hinsichtlich der Größe erfolgt ist, werden die Daten in dem Randrahmen mit verschiedenen Identifikationsschablonen bzw. Identifika­ tionsbildern, die aus dem Speicher stammen, verglichen. Die beste Übereinstimmung mit den Identifikationsbildern wird mit einem Ergebnis bzw. einem Maß oder Wert versehen, der das Ausmaß der Übereinstimmung anzeigt. Wenn das Maß einen vorbestimmten Wert nicht überschreitet, wird angenommen, daß in dem ursprünglichen Bild kein Gesicht vorhanden ist. Wenn aber umgekehrt das Maß bzw. der Wert eine zweite vorbestimmte Schwelle überschreitet, wird angenommen, daß ein Gesicht identifiziert worden ist. In dem Fall, daß das Maß bzw. der Wert nicht unterhalb des ersten Schwellwerts liegt, aber auch nicht oberhalb des zweiten Schwellwerts, wird eine weitere Prozedur zur Augenlokalisie­ rung bezüglich der Daten des Randrahmens durchgeführt. Falls ein Auge lokalisiert wird, wird angenommen, daß ein Gesicht vorhanden ist. Falls kein Auge lokalisiert wird, wird angenommen, daß kein Gesicht vorhanden ist, und es wird ein nachfolgendes Bild analy­ siert.
Die Erfindung wird nachstehend anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher beschrieben.
Fig. 1 zeigt ein generelles Blockschaltbild, in dem der gesamte Aufbau eines Aus­ führungsbeispiels des Identifikationssystems gemäß der vorliegenden Erfindung schematisch dargestellt ist;
Fig. 2 zeigt ein Blockschaltbild, in dem die Verfahrensschritte zur Erzeugung einer binären Interessenmaske aus einem Bild bzw. Einzelbild, das von einer Video­ kamera erhalten wird, schematisch dargestellt sind;
Fig. 3A zeigt die binäre Interessenmaske, die durch die Verfahrensschritte erzeugt wird, die in Fig. 2 dargestellt sind;
Fig. 3B zeigt die binäre Interessenmaske gemäß Fig. 3A, die hinsichtlich Störungen bzw. Rauschen bereinigt ist;
Fig. 3C zeigt die bereinigte, binäre Interessenmaske gemäß Fig. 3B, die hinsichtlich der oberen Grenze eines Randkastens bzw. Randrahmens analysiert ist;
Fig. 3D und 3E zeigen die bereinigte, binäre Interessenmaske, die im Hinblick auf die seitlichen Grenzen des Randkastens analysiert wird;
Fig. 3F zeigt die bereinigte, binäre Interessenmaske, die im Hinblick auf die untere Grenze des Randrahmens analysiert ist;
Fig. 3G zeigt den Randrahmen, der der bereinigten, binären Interessenmaske überlagert ist, und
Fig. 4 zeigt das Verfahren zur Bestimmung des Vorhandenseins eines Gesichts aus bzw. in dem Randrahmen einer Interessenmaske bzw. in Betracht kommenden Maske.
Die vorliegende Erfindung schafft ein System und ein Verfahren zur Erfassung eines Gesichts in einem Videobild und zur Identifizierung des Gesichts dadurch, daß das Gesicht mit einer Schablone bzw. Vorlage, die in einem Speicher gespeichert ist, in Überein­ stimmung gebracht wird. Die vorliegende Erfindung kann bei jedem beliebigen System eingesetzt werden, bei dem die Identität einer Person verifiziert werden muß, wie etwa bei einer ATM-Maschine (bzw. einem automatischen Schalterterminal), oder bei jedem beliebigen automatisierten System verwendet werden, bei dem sich die Erkennung des Vorhandenseins eines Gesichts als nützlich erweist.
Wie aus Fig. 1 ersichtlich ist, wird bei dem System und Verfahren zur Gesichtsidentifizie­ rung in Übereinstimmung mit der vorliegenden Erfindung eine Videokamera 12 eingesetzt, die mit einem Bildprozessor gekoppelt ist. Wie im weiteren Text erläutert wird, analysiert der Bildprozessor die Bilder, die von der Videokamera 12 empfangen werden, mit Hilfe einer dreistufigen Prozedur. Als erstes wird das Videobild im Hinblick auf das Vorhanden­ sein einer Person in einem zur Objekterfassung dienenden Aufgabenabschnitt (Subtask) analysiert, der durch den Block 14 veranschaulicht ist. Falls eine Person vorhanden ist, wird das Gesicht der Person in dem Videobild in einem der Gesichtslokalisierung dienen­ den Aufgabenabschnitt (Subtask) isoliert, der durch den Block 16 veranschaulicht ist. Das isolierte Gesicht wird dann digital mit verschiedenen Gesichtsschablonen bzw. Gesichtsvor­ lagen 18, die in einem gespeicherten Gedächtnis bzw. in einem Speicher enthalten sind, in einem der Gesichtsidentifizierung dienenden Aufgabenabschnitt (Subtask) verglichen, der durch den Block 20 veranschaulicht ist. Der zur Gesichtsidentifizierung dienende Auf­ gabenabschnitt bzw. Arbeitsabschnitt führt zunächst rasch eine grobe Gesichtsidentifizie­ rung durch, um hierdurch die Verarbeitungszeit zu verbessern, das heißt zu verringern. Ein komplexerer Prozeß zur Gesichtsidentifizierung wird lediglich dann durchgeführt, wenn die Ergebnisse der groben Gesichtsidentifizierung nicht schlüssig waren. Durch Reduzierung und Aufteilung der Aufgabe (task) der Identifizierung eines Gesichts in drei primäre Aufgabenabschnitte (Untertasks) wird ein System und Verfahren zur Gesicht­ sidentifizierung geschaffen, das ein Gesicht rasch und genau identifizieren kann.
Der erste Schritt der raschen Objekterfassung, der durch den Block 14 in Fig. 1 dargestellt ist, wird unter Bezugnahme auf Fig. 2 in größeren Einzelheiten erläutert. In Fig. 2 ist dargestellt, daß die Videokamera 12 ein Bild bzw. Bilddaten 22 erzeugt. Bei dem bevor­ zugten Ausführungsbeispiel muß die Videokamera 12 lediglich eine Schwarz-Weiß-Kamera sein, die ein Bild mit einer mäßigen Auflösung von ungefähr 320 × 240 (Breite x Höhe) erzeugt. Aus Gründen der Vergrößerung der Berechnungsgeschwindigkeit werden die anfänglichen Bilddaten 22 in ihrer Größe bzw. Umfang auf ein Blockbild mit einer sehr viel kleineren Auflösung verringert. Das Blockbild 24 wird dadurch erzeugt, daß Bild­ elementblöcke, die in den ursprünglichen Bilddaten 22 enthalten sind, einer Mittelwertbil­ dung unterzogen werden. Bei dem bevorzugten Ausführungsbeispiel werden 8 × 8 - Bildelementblöcke einer Mittelwertbildung unterzogen, so daß aus den ursprünglichen 320 × 240 - Bilddaten 22 ein Blockbild 24 mit einer Auflösung von 40 × 30 erzeugt wird. Bei der Erzeugung des Blockbilds 24 wird einer Block-Mittelwertbildung der Vorzug gegen­ über einer geradlinigen bzw. direkten Unterabtastung gegeben, und zwar wegen der größeren Störungstoleranz, die durch die Block-Mittelwertbildung hervorgerufen wird.
Wenn das Blockbild 24 erzeugt worden ist, wird das Bild normalisiert bzw. normiert oder skaliert, das heißt standardisiert bzw. vereinheitlicht, um Änderungen zu minimieren, die durch Änderungen des Lichts hervorgerufen werden. Eine Normalisierung bzw. Standardi­ sierung der Beleuchtung wird mittels eines Normalisierungsgradienten vorgenommen. Für die Richtung x in dem Blockbild 24 lautet der Gradient x (x-Gradient) wie folgt:
Hierbei bezeichnet B einen gewählten, konstanten Offset (Offsetabweichung). Bei den bevorzugten Berechnungen wird B als 1 bei einem nicht mit Vorzeichen versehenen Bytebild gewählt. Auch wenn der Normalisierungsgradient nicht für alle Änderungen der Beleuchtung optimal ist, ist das Leistungsvermögen des Normalisierungsgradienten ange­ messen, und es trägt die Einfachheit seiner Berechnung zu dem raschen Ansprechverhalten des gesamten Systems bei. Nach der Normalisierung bzw. Standardisierung ergibt sich als Ergebnis das Blockbild 24, das Bildelementblöcke aufweist, die entweder als schwarz oder als weiß betrachtet werden können, wodurch Bilddaten bereitgestellt werden, die sich leicht in binärer Form darstellen lassen.
Bei dem System gemäß der vorliegenden Erfindung wird eine feststehende Videokamera 12 eingesetzt. Da die Videokamera 12 feststeht, sind die Bilddaten 30 des Hintergrund­ bilds, die durch die Videokamera erhalten werden, relativ konstant. Die Bilddaten 30 des Hintergrundbilds werden in ein Blockbild aus dunklen und hellen Bildelementblöcken umgewandelt, und werden digital als eine binäre Sequenz gespeichert. Wenn eine Person in den Bereich bzw. Sichtbereich der Videokamera 12 gelangt, weicht das Bild von dem erwarteten Hintergrundbild ab. Eine binäre Maske 26 wird dadurch erzeugt, daß die im Hinblick auf den Gradienten x normalisierten bzw. standardisierten Blockbilddaten 28 eines jeweiligen Bilds mit den erwarteten Bilddaten 30 des Hintergrundbilds verglichen werden. Falls eine Position in dem abgetasteten Bild eine Änderung eines Schwellwertpe­ gels überschreitet, wird der Wert in der binären Maske 26 für diese Position auf Eins (1) gesetzt. Falls sich eine Position in dem abgetasteten Bild gegenüber dem gespeicherten Hintergrundbild nicht geändert hat oder den für die Änderung festgelegten Schwellwertpe­ gel nicht überschreitet, bleibt die Position in der binären Maske 26 ungesetzt bei Null (0).
Auch wenn ein Bildvergleich unter Heranziehung eines Blockbilds mit Normalisierung bzw. Standardisierung des Gradienten x ausreichend ist, läßt sich das Erfassungsvermögen dadurch verbessern, daß mehr als nur gerade der Gradient x analysiert wird. Zur Erzielung eines verbesserten Leistungsvermögens kann ein zweiter Satz von Blockbilddaten unter Einsatz eines Gradienten für die Richtung y (y-Richtungsgradient) erzeugt werden. Für die Richtung y lautet der Gradient y wie folgt:
Sobald die hinsichtlich des Gradienten y normalisierten bzw. standardisierten Blockbild­ daten 32 berechnet sind, wird eine zweite, binäre Maske 34 dadurch erzeugt, daß die hinsichtlich des Gradienten y normalisierten bzw. standardisierten Blockbilddaten 32 mit den Bilddaten 30 des Hintergrundbilds verglichen werden. Falls eine Position in dem abgetasteten Rahmen bzw. Bild einen für die Änderung vorgegebenen Schwellwertpegel überschreitet, wird der Wert in der zweiten binären Maske 34 für diese Position auf Eins (1) gesetzt. Falls sich eine Position in dem abgetasteten Rahmen nicht gegenüber dem gespeicherten Hintergrundbild ändert oder den für die Änderung festgelegten Schwell­ wertpegel nicht überschreitet, verbleibt die Position in der zweiten binären Maske 34 ungesetzt bei Null (0).
Nach der Berechnung der ersten binären Maske 26 und der zweiten binären Maske 34 wird ein "ODER"-Vergleich 36 Bit für Bit zwischen den Daten durchgeführt, die in den beiden binären Masken 26, 34 enthalten sind. Als Ergebnis des "ODER"-Vergleichs wird eine Interessenmaske bzw. interessierende Maske 38 erzeugt, die Daten enthält, die sowohl hinsichtlich des Gradienten x als auch des Gradienten y normalisiert bzw. standardisiert sind. Da die interessierende Maske 38 aus dem Vergleich der beiden normalisierten Bilder erhalten wird, haben plötzliche Änderungen der Beleuchtung inhärent keine beträchtliche Auswirkung auf die Daten in der interessierenden Maske 38.
Da bei dem System gemäß der vorliegenden Erfindung eine Videokamera 12 eingesetzt wird, können nachfolgende Einzelbilder eines betrachteten Bilds im Hinblick auf das Auftreten einer Bewegung analysiert werden. Eine Bewegungsinformation kann dann zum Beseitigen von Störungen bzw. Rauschen aus der interessierenden Maske 38 eingesetzt werden. Durch eine Bilddifferenzierung, eine Schwellwertverarbeitung und durch andere bekannte Methoden zur Erfassung einer Bewegung in Videobildern kann eine Referenz­ maske 40 für eine besondere bzw. eine jeweilige Bildfolge gewonnen werden. Die Refe­ renzmaske 40 wird dann mit der interessierenden Maske 38 unter Einsatz eines "UND"-Vergleichs 42 digital verglichen, um eine abschließende, interessierende Maske 48 zu erzeugen. Der "UND"-Vergleich 42 zwischen den binären Daten der Referenzmaske 40 und der interessierenden Maske 38 führt üblicherweise zur Beseitigung von Störungen bzw. Rauschen in der interessierenden Maske 38, da der größte Teil der Beleuchtungs­ änderungen subtil bzw. schwach ist und nicht als Änderungen der Bewegung von Bild zu Bild registriert wird. Der "UND"-Vergleich zwischen den Daten der Referenzmaske 40 und der interessierenden Maske 38 ist auch im Hinblick auf die Bereinigung bzw. Beseiti­ gung von Störungen in der interessierenden Maske 38 nützlich, die durch plötzliche Änderungen der Beleuchtung hervorgerufen werden. Eine plötzliche Änderung der Be­ leuchtung führt zu einem großen Ausmaß der Änderung, das bei einer Analyse von Bild zu Bild als Bewegung erfaßt wird. Als Ergebnis kann eine plötzliche Änderung der Beleuchtung zu einer Referenzmaske 40 führen, die eine Bewegung an allen Punkten anzeigt. Durch die Durchführung eines "UND"-Vergleichs zwischen einer solchen Refe­ renzmaske und der interessierenden Maske 38 ergibt sich, daß die resultierende, abschlie­ ßende, interessierende Maske die gleiche wie diejenige ist, die sich ergeben würde, falls keine Bewegungsinformation je benutzt worden wäre.
Es wird nun auf die Fig. 3A bis 3G Bezug genommen. Aus diesen Figuren ist ersichtlich, daß nach der Erzeugung der abschließenden, interessierenden Maske 48 diese Maske 48 im Hinblick auf das Vorhandensein eines Gesichts analysiert wird. Eine Lokalisierung des Gesichts wird durchgeführt, indem zunächst ein Begrenzungskasten bzw. Rahmenrand 50 (Fig. 3G) konstruiert wird, von dem angenommen wird, daß das Gesicht in ihm angeord­ net ist. Der Begrenzungskasten oder Begrenzungsrahmen 50 wird unter der Annahme aufgebaut, daß die Oberseite und die Seiten des Kopfes unterscheidbare Merkmale sind, die in der abschließenden, interessierenden Maske 48 enthalten sind. Die Fig. 3A bis 3G zeigen die binären Daten, die in der abschließenden, interessierenden Maske 48 enthalten sind, als graphische Bilder, bei denen dunkle Blöcke binäre Einsen (1) und helle Blöcke binäre Nullen (0) sind. Bei dem ersten Schritt bei der Lokalisierung eines Gesichts in der abschließenden, interessierenden Maske 48 wird die ursprüngliche, abschließende, inter­ essierende Maske 48 (Fig. 3A) dadurch gesäubert oder bereinigt, daß einzelne, isolierte, binäre Anomalien, bei denen ein Gesicht nicht möglich ist, beseitigt werden. Das Ergebnis ist eine mit weniger Störungen bzw. Rauschen behaftete, abschließende, interessierende Maske 48, wie es in Fig. 3B gezeigt ist.
Beginnend mit der bereinigten, abschließenden, interessierenden Maske 48 gemäß Fig. 3B wird dann die Oberseite des Begrenzungsrahmens 50 dadurch abgeschätzt, daß die Anzahl von dunklen Blöcken (binäre Einsen) in jeder Zeile der abschließenden, interessierenden Maske gezählt werden. Wenn die Anzahl von dunklen Blöcken in einer Zeile eine zuvor gewählte Größe bzw. einen zuvor gewählten Wert überschreitet, wird angenommen, daß die Zeile der Oberseite des Kopfes entspricht. Wie aus Fig. 3C ersichtlich ist, wird die obere Linie 52 des Begrenzungsrahmens 50 dann auf diese Zeile festgelegt.
Um Abschätzungen für die Seiten des Kopfes einer Person zu erhalten, wird jede Zeile unterhalb der oberen bzw. obersten Linie 52 des Begrenzungsrahmens 50 im Hinblick darauf analysiert, wo die verschiedenen dunklen Blöcke in dieser Zeile beginnen und enden. Aus den Fig. 3D und 3E ist ersichtlich, daß die mittlere Spaltenposition bzw. der Medianwert der Spaltenposition, bei der die dunklen Blöcke beginnen und enden, berech­ net wird. Die mittlere Position bzw. Medianwert-Position, bei der die dunklen Blöcke beginnen, wird als die erste Seite 54 (Fig. 3D) des Begrenzungsrahmens 50 bezeichnet, während die mittlere Position bzw. Medianwert-Position, bei der die dunklen Blöcke enden, als die entgegengesetzte Seite 56 (Fig. 3E) des Begrenzungsrahmens 50 bezeichnet bzw. festgelegt wird.
Aufgrund des großen Umfangs der Variation der Größe der Menschen ist die Unterseite des Gesichts in der abschließenden, interessierenden Maske 48 am schwierigsten zu ermitteln. Unter Bezugnahme auf die Fig. 3F und 3G wird eine Schätzung der Unterseite bzw. des unteren Rands des Gesichts dadurch vorgenommen, daß ein sich verengender Punkt bzw. eine sich verengende Stelle in der abschließenden, interessierenden Maske 48 gefunden wird, die der Stelle entspricht, bei der sich der Kopf und die Schultern treffen. Dies erfolgt dadurch, daß die durchschnittliche Anzahl von schwarzen Blöcken für jede Zeile in der oberen Hälfte des Begrenzungsrahmens 50 betrachtet wird. Eine untere Grenze 58 wird dadurch gefunden, daß die Zeile in der abschließenden, interessierenden Maske 48 beginnend von der Unterseite analysiert wird. Die untere Grenze 58 des Begrenzungsrah­ mens 50 wird dann solange nach oben bewegt, bis sie eine Zeile erreicht, bei der die durchschnittliche Anzahl der dunklen Blöcke in der Zeile niedriger ist als die durchschnitt­ liche Anzahl von dunklen Blöcken in den Zeilen in der oberen Hälfte des Begrenzungs­ rahmens 50.
Sobald der Begrenzungsrahmen 50 vollständig ist, wird der Begrenzungsrahmen 50 analysiert, um zu ermitteln, ob er angemessen ist oder ob ein weiteres Bild des Videobilds betrachtet werden sollte. Die Beurteilung der Angemessenheit erfolgt auf der Grundlage der Breite des Begrenzungsrahmens 50 und der Anzahl von dunklen Blöcken, die in dem Begrenzungsrahmen 50 enthalten sind. Falls der Begrenzungsrahmen zu klein oder zu groß ist oder zu wenig dunkle Blöcke enthält, wird angenommen, daß kein Gesicht in dem analysierten Rahmen bzw. Bild gefunden wurde, und es wird ein nachfolgendes Bild analysiert.
Nachdem der Begrenzungsrahmen 50 identifiziert worden ist und ermittelt wurde, daß der Begrenzungsrahmen 50 die minimalen Anforderungen erfüllt, werden die Inhalte des Begrenzungsrahmens 50 im Hinblick auf eine grobe Gesichtserkennung analysiert. Unter Bezugnahme auf Fig. 4 wird erläutert, daß die Daten, die in dem Begrenzungsrahmen 50 enthalten sind, mit Daten verglichen werden, die in verschiedenen Identifikationsschablo­ nen bzw. Identifikationsvorlagen 60 enthalten sind, um das Vorhandensein eines Gesichts in dem Begrenzungsrahmen 50 zu bestätigen bzw. verifizieren. Bei dem Vergleichs- Aufgabenabschnitt wird anfänglich nach einer Übereinstimmung mit mehreren größenmä­ ßig geeignet dimensionierten Identifikationsschablonen 60 bei dem Versuch der Bestim­ mung gesucht, ob überhaupt ein Gesicht in den Daten des Begrenzungsrahmens 50 enthal­ ten ist. Bei dem Vergleichs-Aufgabenabschnitt wird die beste Übereinstimmung zwischen den Daten in dem Begrenzungsrahmen 50 und den Identifikationsschablonen 60 ausge­ wählt. Die beste Übereinstimmung wird zusammen mit einem Vertrauensmaß bzw. Zuverlässigkeitswerts ausgegeben, das bzw. der anzeigt, in welchem Ausmaß die Identifi­ kationsschablone mit den Daten in dem Begrenzungsrahmen 50 übereinstimmte.
Die Größe des Begrenzungsrahmens 50 ist eine Variable, die von dem Bild, das von der Fernsehkamera aufgenommen wird, und von der Art der Interpretation dieses Bilds durch das System gemäß der vorliegenden Erfindung abhängt. Als Ergebnis müssen die Daten, die in dem Begrenzungsrahmen 50 enthalten sind, vor ihrer Verarbeitung oftmals größen­ mäßig neu festgelegt werden, bzw. es muß der Begrenzungsrahmen 50 größenmäßig neu festgelegt werden. Damit eine Kompensation im Hinblick auf Änderungen des Lichts erfolgt, wird der Begrenzungsrahmen 50 einer Lichtnormalisierungsprozedur bzw. einer Lichtstandardisierungsprozedur unterzogen, wodurch ein normalisierter bzw. standardisier­ ter Begrenzungskasten oder Begrenzungsrahmen 64 erzeugt wird. Da die Daten, die in dem ursprünglichen Begrenzungsrahmen 50 enthalten sind, durch die Normalisierungs­ prozedur geändert werden, sind die resultierenden Daten in ihrer Natur nicht länger tatsächlich binär. Während des Normalisierungsvorgangs werden die Daten des Begren­ zungsrahmens skaliert, um feine Details zu entfernen, und werden mit einem verstärkten Kontrast versehen. Im Prinzip stellt die Beleuchtungsnormalisierung bzw. -Standardisie­ rung, der der Begrenzungsblock 50 unterzogen wird, eine Variation des Normalisierungs­ verfahrens dar, das in "A Novel Approach to Lighting Normalization" von Richard Bang, Ming Fang und anderen, SCR Technical Report 95-TR-543, beschrieben ist. Dieser Aufsatz wird hiermit durch Bezugnahme in den Offenbarungsgehalt vorliegender Anmel­ dung in vollem Umfang miteinbezogen. In diesem Artikel ist eine Tiefpaßfilterstufe mit mehrfacher Auflösung angesprochen. Bei der vorliegenden Erfindung wird die Tiefpaßfil­ terstufe mit mehrfacher Auflösung (Multi-Auflösung) vor ihrer Vervollständigung angehal­ ten, wodurch sich ein Bild ergibt, das bei geringer Auslösung verbleibt. Eine solche Modifikation verringert die Verarbeitungszeit, die mit der Prozedur verknüpft ist, in erheblichem Ausmaß.
Darüber hinaus wird eine große Skalierungskonstante während der Normalisierung bzw. der Standardisierung eingesetzt, um feine Details zu beseitigen und einen harten Kontrast zu erzielen, wodurch die Daten des Begrenzungsblocks bzw. Begrenzungsrahmens mit gutem Kontrast versehen werden. Aufgrund des verstärkten Kontrasts und der Beseitigung von feinen Details ist der resultierende, normalisierte Begrenzungsrahmen 64 nahezu binärisiert (er weist dunkle Blöcke und helle Blöcke auf), enthält aber dennoch manche Blöcke, die nicht klar kategorisiert werden können. Zur Förderung der Vereinfachung der Berechnung wird der normalisierte Begrenzungsrahmen 64 als ein trinäres Bild (Bild mit drei Pegeln) quantifiziert, bei dem dunkle Regionen mit negativen Einsen (-1) versehen werden, helle Regionen mit Einsen (1) versehen werden, und die undefinierbaren Regionen mit Nullen (0) versehen werden.
Die Identifikationsschablonen 60 werden anhand einer Analyse von mindestens einem als Beispiel dienenden bzw. abgetasteten Gesicht aufgebaut. Da jedoch die Schablone eher ein generelles Gesicht als ein spezielles Gesicht repräsentieren kann, wird eine Mehrzahl von abgetasteten Gesichtern kompiliert oder zusammengestellt, um jede Identifikationsschablo­ ne 60 zu erzeugen. Jede Identifikationsschablone enthält eine Zusammenstellung aus Muster- bzw. Probengesichtern oder Vorlagegesichtern mit einer bestimmten, vorab ausgewählten Schablonengröße, wobei jede Identifikationsschablone 60 als ein trinäres Bild ausgebildet ist. Um das trinäre Bild zu schaffen, das eine Identifikationsschablone 60 darstellt, werden die verschiedenen, ausgewählten Gesichter digital miteinander verglichen. Falls sich ergibt, daß eine Schablonenposition bei nahezu allen Beispielsgesichtern bzw. Probengesichtern schwarz ist, wird der Wert der Schablone als eine negative Eins (-1) festgelegt. Falls sich ergibt, daß die Schablonenpositionen bei nahezu allen als Beispiel dienenden Gesichtern weiß ist, wird der Schablonenwert auf Eins (1) festgelegt. Falls jedoch eine Position in der Schablone bei den als Beispiel dienenden Gesichtern nicht konsistent scheint, wird ein Wert von Null (0) zugeordnet. Eine Möglichkeit der Über­ prüfung oder Ermittlung hinsichtlich dieser Werte der Schablonenpositionen besteht darin, den Mittelwert aus allen als Beispiel dienenden Gesichtern zu ermitteln. Falls der Mittel­ wert unter einer gewissen, festgelegten Schwelle liegt, wird die Position als eine negative Eins (-1) festgelegt. Falls der Mittelwert im Gegensatz hierzu aber oberhalb einer zweiten Schwelle liegt, wird der Wert auf Eins (1) festgelegt. Alle anderen Mittelwerte zwischen den beiden Schwellwerten werden auf Null (0) festgelegt.
Das trinäre Bild des normalisierten bzw. standardisierten Begrenzungsrahmens bzw. Begrenzungsfelds 64 ist nicht mit den Identifikationsschablonen 60 in einer solchen Weise korreliert, daß sich eine maximale Korrelationsantwort ergibt. Das gesamte Erfassungsver­ mögen wird dadurch verbessert, daß mehr Information als nur die maximale Antwort eingesetzt wird. Das Leistungsvermögen wird dadurch verbessert, daß die Kreuzkorrektur- Antworten (cross correction responses) zur Übereinstimmung gebracht bzw. miteinander verglichen werden. Dies bedeutet, daß der normalisierte Begrenzungsrahmen 64 mit den Identifikationsschablonen 60 korreliert wird, um ein Antwortbild 70 zu erhalten. In dem Antwortbild 70 als Ergebnis auftretende Muster werden dann analysiert. Als Beispiel kann nach Mustern mit dunkel-hell-dunkel in benachbarten Regionen des Antwortbilds 70 gesucht werden. Die gefundenen Muster werden dann auf der Grundlage des Unterschieds zwischen der hellen Region und der helleren der beiden dunklen Regionen bewertet. Durch Bewerten des Antwortbilds 70 wird für jede der Identifikatiosschablonen 60 eine gesamte Bewertung gebildet. Alle Identifikationsschablonen 60, die eine vorbestimmte Bewertung bzw. einen vorbestimmten Wert überschreiten, werden als Finalteilnehmer gespeichert.
Für jede Identifikationsschablone 60, die als ein Finalteilnehmer ermittelt wurde, werden eine Symmetriebewertung bzw. ein Symmetriewert und ein Maß für die gerade Korrelation (straight correlation) bestimmt. Der Finalteilnehmer mit der höchsten geraden Korrelation wird als übereinstimmend bzw. als Treffer ausgewählt, es sei denn, daß das Symmetrie­ maß niedrig ist. Falls dies der Fall ist, werden die gerade Korrelation und das Symmetrie­ maß mit denjenigen des als zweitbester qualifizierten Finalteilnehmers verglichen, um zu ermitteln, welcher die bessere Wahl darstellt. Wenn die beste Identifikationsschablone eine niedrige Bewertung aufweist, wird angenommen, daß in dem Begrenzungsrahmen kein Gesicht vorhanden ist. Falls die Bewertung oberhalb einer vorbestimmten Schwelle liegt, wird angenommen, daß ein Gesicht gefunden worden ist. In dem Fall, daß die Bewertung weder hoch noch niedrig ist, werden jedoch die Daten aus dem Begrenzungsrahmen zu einer Augenerfassungsprozedur geleitet, wie etwa derjenigen, die in der gleichfalls anhän­ gigen, auf Seite 1 bereits angesprochenen und in vollem Umfang in den Offenbarungs­ gehalt vorliegender Anmeldung einbezogenen deutschen Patentanmeldung "Neurales Netzwerk zur Lokalisierung und Erkennung eines verformbaren Objekts" beschrieben ist. Falls keine Augen erfaßt werden, wird angenommen, daß kein Gesicht vorhanden ist.
Es versteht sich, daß das vorstehend beschriebene und dargestellte Ausführungsbeispiel des erfindungsgemäßen Gesichtserfassungssystems lediglich als Beispiel dient und viele Abänderungen und Modifikationen unter Heranziehung von funktionell äquivalenten Komponenten und/oder alternativen Ausführungsbeispielen vorgenommen werden können. Als Beispiel versteht es sich für den Fachmann, daß unterschiedliche Reduktionsgrößen für das abgetastete Bild eingesetzt werden können.
Es ist somit ein Identifikationssystem und -Verfahren zum Identifizieren des Vorhanden­ seins eines menschlichen Gesichts in einem Videobild offenbart. Ein von einer Videokame­ ra erhaltenes Bild wird hinsichtlich des Vorliegens eines Gesichts rasch analysiert. Wäh­ rend der Analyse des Bilds wird die Auflösung des Bilds verringert und eine Normalisie­ rung zur Kompensation von Beleuchtungsveränderungen durchgeführt. Das modifizierte Bild wird dann mit einem zuvor aufgebauten Hintergrundbild verglichen, um eine binäre, interessierende Maske zu erzeugen. Unter Heranziehung der binären, interessierenden Maske wird die wahrscheinlichste Position eines Gesichts durch Identifizierung der Oberseite, der Unterseite und der Seiten einer beliebigen, möglichen Kopfregion in der modifizierten, interessierenden Maske berechnet. Die identifizierte Kopfregion wird innerhalb eines Begrenzungsrahmens definiert, dessen Größe und Eigenschaften im Hinblick auf die Möglichkeit eines Gesichts analysiert werden. Sobald ermittelt ist, daß der Rahmen ein Gesicht enthalten kann, werden die in dem Begrenzungsrahmen enthaltenen Daten weiter analysiert. Bei der Analyse der Begrenzungsrahmendaten werden die Daten erneut zur Kompensation der Beleuchtung standardisiert. Der Begrenzungsrahmen wird auch größenmäßig auf eine ausgewählte Standardgröße gebracht, die mit in einem Speicher gespeicherten Identifikationsschablonen übereinstimmt. Nach der Größenanpassung werden die in dem Begrenzungsrahmen enthaltenen Daten mit verschiedenen Identifikationsscha­ blonen aus dem Speicher verglichen. Die beste Überstimmung unter den Identifikations­ schablonen wird mit einem Bewertungsmaß versehen, das das Ausmaß der Übereinstim­ mung anzeigt. Falls das Bewertungsmaß einen bestimmten Bewertungswert nicht über­ schreitet, wird angenommen, daß in dem ursprünglichen Bild kein Gesicht vorhanden ist. Falls aber das Bewertungsmaß eine zweite vorbestimmte Schwelle überschreitet, wird angenommen, daß ein Gesicht identifiziert worden ist. In der Fall, daß das Bewertungsmaß nicht unterhalb des ersten Schwellwert-Bewertungsmaßes, jedoch auch nicht oberhalb des zweiten Schwellwert-Bewertungsmaßes liegt, wird eine weitere Augenlokalisierungs­ prozedur bezüglich der Daten des Begrenzungsrahmens durchgeführt.

Claims (20)

1. Identifikationssystem zum Identifizieren eines Gesichts, mit
einer Videokamera (12) zum Aufnehmen einer Szene und zum Erzeugen mindestens eines Bildrahmens bzw. Bilds der Szene,
einer Lokalisierungseinrichtung zum Lokalisieren einer Zielregion in dem Bild,
die ein Bild des Gesichts enthalten kann,
einer Speichereinrichtung zum Speichern von Identifikationsschablonen (60) von Gesichtern, und
einer Vergleichseinrichtung zum Vergleichen der Zielregion mit den Identifika­ tionsschablonen, wobei ein Gesicht identifiziert wird, wenn das Bild in der Zielregion mit einer der Identifikationsschablonen im wesentlichen übereinstimmt.
2. System nach Anspruch 1, gekennzeichnet durch eine Einrichtung zum Unterscheiden oder Erkennen des Umrisses einer Person in der Szene, wobei die Zielregion den Kopf der Person in der Szene enthält.
3. System nach Anspruch 1 oder 2, gekennzeichnet durch eine Einrichtung zum Normalisieren des mindestens einen Bilds im Hinblick auf Beleuchtungs­ änderungen.
4. System nach einem der vorhergehenden Ansprüche, dadurch gekenn­ zeichnet, daß die Lokalisierungseinrichtung zur Lokalisierung einer Zielregion eine Einrichtung zum Identifizieren einer oberen Grenze (52) der Zielregion aufgrund eines Vergleichs von Bildelementblöcken, die in Zeilen des Bilds enthalten sind, mit einem Schwellwert-Zahlenwert aufweist.
5. System nach einem der vorhergehenden Ansprüche, dadurch gekenn­ zeichnet, daß die Lokalisierungseinrichtung zur Lokalisierung der Zielregion eine Einrichtung zum Identifizieren von Seitengrenzen der Zielregion aufgrund einer Bestim­ mung einer mittleren Position der Bildelementblöcke, die in den Zeilen des Bilds enthalten sind, aufweist.
6. System nach einem der vorhergehenden Ansprüche, dadurch gekenn­ zeichnet, daß die Lokalisierungseinrichtung zur Lokalisierung der Zielregion eine Einrichtung zum Identifizieren einer unteren Grenze (58) durch Mittelwertbildung der Anzahl von Bildelementblöcken, die in jeder Zeile der Zielregion enthalten sind, und durch Identifizieren einer Zeile mit einer Anzahl von Bildelementblöcken unterhalb des Durch­ schnitts aufweist.
7. Verfahren zum Identifizieren eines Gesichts, mit den Schritten:
Erzeugen eines Bilds einer Szene mit einer vorbestimmten Auflösung von Bildelementen,
Lokalisieren einer Zielregion in dem Bild, die das Bild eines Gesichts enthalten kann,
Vergleichen der Zielregion des Bilds mit mindestens einer Identifikations­ schablone, und
Ermitteln, ob die Zielregion mit der mindestens einen Identifikationsschablone signifikant übereinstimmt.
8. Verfahren nach Anspruch 7, gekennzeichnet durch den Schritt der Unterscheidung bzw. Erkennung des Umrisses einer Person in der Szene, wobei die Zielregion den Kopf der Person in der Szene enthält.
9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, daß der Schritt der Erzeugung des Bilds das Aufnehmen der Szene durch eine Videokamera enthält, wobei das Bild ein elektronisches, durch die Videokamera erzeugtes Bild ist.
10. Verfahren nach Anspruch 7, 8 oder 9, gekennzeichnet durch den Schritt der Verringerung der vorbestimmten Auflösung.
11. Verfahren nach einem der Ansprüche 7 bis 10, gekennzeichnet durch den Schritt der Normalisierung bzw. Standardisierung des Bilds hinsichtlich Ände­ rungen der Beleuchtung.
12. Verfahren nach einem der Ansprüche 7 bis 11, gekennzeichnet durch den Schritt der Normalisierung bzw. Standardisierung des Bilds mit einem Gradien­ ten x (x-Gradient) zur Erzeugung eines normalisierten bzw. standardisierten x-Gradient- Bilds.
13. Verfahren nach einem der Ansprüche 7 bis 12, gekennzeichnet durch den Schritt der Normalisierung des Bilds mit einem Gradienten y (y-Gradient) zur Erzeugung eines normalisierten bzw. standardisierten y-Gradient-Bilds.
14. Verfahren nach Anspruch 13, gekennzeichnet durch den Schritt der Durchführung eines Vergleichs zwischen dem x-Gradient-Bild und dem y-Gradient-Bild zur Erzeugung eines normalisierten Bilds.
15. Verfahren nach einem der Ansprüche 7 bis 14, gekennzeichnet durch den Schritt der Erzeugung einer Referenzmaske aus einer Bewegungsanalyse von aufeinanderfolgenden Bildern des Objekts, und des Vergleichens der Referenzmaske mit dem Bild.
16. Verfahren nach einem der Ansprüche 7 bis 15, dadurch gekenn­ zeichnet, daß der Schritt des Vergleichens der Zielregion den Teilschritt des Verse­ hens der mindestens einen Identifikationsschablone mit einer Bewertung enthält, die an­ zeigt, wie gut die mindestens eine Identifikationsschablone mit der Zielregion überein­ stimmt.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß der Schritt der Bestimmung, ob die Zielregion mit der mindestens einen Identifikationsschablo­ ne signifikant übereinstimmt, den Vergleich der Bewertung mit einem Bewertungsschwell­ wert enthält.
18. Verfahren nach einem der Ansprüche 7 bis 17, gekennzeichnet durch den Schritt der Größenveränderung der Zielregion auf eine Standardgröße, die mit der Größe der mindestens einen Identifikationsschablone übereinstimmt.
19. Verfahren nach einem der Ansprüche 7 bis 18, gekennzeichnet durch den Schritt der Normalisierung bzw. Standardisierung der Zielregion hinsichtlich Veränderungen der Beleuchtung.
20. Verfahren nach einem der Ansprüche 7 bis 19, gekennzeichnet durch den Schritt der Untersuchung der Zielregion hinsichtlich des Vorhandenseins eines Auges in der Zielregion, falls die Zielregion mit der mindestens einen Identifikations­ schablone in einem vorbestimmten Ausmaß übereinstimmt.
DE19634768A 1995-08-30 1996-08-28 Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild Ceased DE19634768A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/521,175 US5715325A (en) 1995-08-30 1995-08-30 Apparatus and method for detecting a face in a video image

Publications (1)

Publication Number Publication Date
DE19634768A1 true DE19634768A1 (de) 1997-03-06

Family

ID=24075670

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19634768A Ceased DE19634768A1 (de) 1995-08-30 1996-08-28 Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild

Country Status (2)

Country Link
US (1) US5715325A (de)
DE (1) DE19634768A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105842495A (zh) * 2016-03-25 2016-08-10 李军 基于图像处理的电能表

Families Citing this family (190)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222939B1 (en) * 1996-06-25 2001-04-24 Eyematic Interfaces, Inc. Labeled bunch graphs for image analysis
US5909501A (en) * 1996-09-09 1999-06-01 Arete Associates Systems and methods with identity verification by comparison and interpretation of skin patterns such as fingerprints
US5828769A (en) * 1996-10-23 1998-10-27 Autodesk, Inc. Method and apparatus for recognition of objects via position and orientation consensus of local image encoding
US5960111A (en) * 1997-02-10 1999-09-28 At&T Corp Method and apparatus for segmenting images prior to coding
US6786420B1 (en) 1997-07-15 2004-09-07 Silverbrook Research Pty. Ltd. Data distribution mechanism in the form of ink dots on cards
US6803989B2 (en) * 1997-07-15 2004-10-12 Silverbrook Research Pty Ltd Image printing apparatus including a microcontroller
US6618117B2 (en) 1997-07-12 2003-09-09 Silverbrook Research Pty Ltd Image sensing apparatus including a microcontroller
AUPO850597A0 (en) * 1997-08-11 1997-09-04 Silverbrook Research Pty Ltd Image processing method and apparatus (art01a)
US7724282B2 (en) 1997-07-15 2010-05-25 Silverbrook Research Pty Ltd Method of processing digital image to correct for flash effects
AUPO802797A0 (en) * 1997-07-15 1997-08-07 Silverbrook Research Pty Ltd Image processing method and apparatus (ART54)
US20040119829A1 (en) 1997-07-15 2004-06-24 Silverbrook Research Pty Ltd Printhead assembly for a print on demand digital camera system
US6597817B1 (en) * 1997-07-15 2003-07-22 Silverbrook Research Pty Ltd Orientation detection for digital cameras
US6985207B2 (en) * 1997-07-15 2006-01-10 Silverbrook Research Pty Ltd Photographic prints having magnetically recordable media
US6879341B1 (en) 1997-07-15 2005-04-12 Silverbrook Research Pty Ltd Digital camera system containing a VLIW vector processor
US7714889B2 (en) * 1997-07-15 2010-05-11 Silverbrook Research Pty Ltd Digital camera using exposure information for image processing
US6690419B1 (en) 1997-07-15 2004-02-10 Silverbrook Research Pty Ltd Utilising eye detection methods for image processing in a digital image camera
US6624848B1 (en) 1997-07-15 2003-09-23 Silverbrook Research Pty Ltd Cascading image modification using multiple digital cameras incorporating image processing
US7110024B1 (en) 1997-07-15 2006-09-19 Silverbrook Research Pty Ltd Digital camera system having motion deblurring means
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US5892837A (en) * 1997-08-29 1999-04-06 Eastman Kodak Company Computer program product for locating objects in an image
US6108437A (en) * 1997-11-14 2000-08-22 Seiko Epson Corporation Face recognition apparatus, method, system and computer readable medium thereof
GB2333590A (en) * 1998-01-23 1999-07-28 Sharp Kk Detecting a face-like region
JP3688879B2 (ja) * 1998-01-30 2005-08-31 株式会社東芝 画像認識装置、画像認識方法及びその記録媒体
US6529630B1 (en) * 1998-03-02 2003-03-04 Fuji Photo Film Co., Ltd. Method and device for extracting principal image subjects
US6272231B1 (en) 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
ATE248409T1 (de) 1998-04-13 2003-09-15 Eyematic Interfaces Inc Wavelet-basierte gesichtsbewegungserfassung für avataranimation
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
EP1580684B1 (de) 1998-04-13 2008-12-31 Google Inc. Gesichtserkennung aus Videobildern
US6215471B1 (en) 1998-04-28 2001-04-10 Deluca Michael Joseph Vision pointer method and apparatus
US6593956B1 (en) 1998-05-15 2003-07-15 Polycom, Inc. Locating an audio source
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
GB2341231A (en) * 1998-09-05 2000-03-08 Sharp Kk Face detection in an image
AUPP702098A0 (en) 1998-11-09 1998-12-03 Silverbrook Research Pty Ltd Image creation method and apparatus (ART73)
US6522772B1 (en) * 1998-09-30 2003-02-18 Ncr Corporation Self-service checkout terminal having a biometric sensing device for verifying identity of a user and associated method
US7900823B1 (en) 1998-10-09 2011-03-08 Diebold, Incorporated Banking system controlled by data bearing records
US7533805B1 (en) * 1998-10-09 2009-05-19 Diebold, Incorporated Data bearing record based capture and correlation of user image data at a card reading banking system machine
US7050655B2 (en) * 1998-11-06 2006-05-23 Nevengineering, Inc. Method for generating an animated three-dimensional video head
US6714661B2 (en) 1998-11-06 2004-03-30 Nevengineering, Inc. Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image
US7050624B2 (en) * 1998-12-04 2006-05-23 Nevengineering, Inc. System and method for feature location and tracking in multiple dimensions including depth
US6765608B1 (en) * 1999-03-09 2004-07-20 Minolta Co., Ltd. Image processing apparatus and system executing predetermined image processing on image data shot by camera, and image recording medium recorded with image processing program
US6907136B1 (en) * 1999-05-19 2005-06-14 Canon Kabushiki Kaisha Image processing of designated image portion
AUPQ056099A0 (en) 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (pprint01)
US6636619B1 (en) 1999-07-07 2003-10-21 Zhongfei Zhang Computer based method and apparatus for object recognition
US6466695B1 (en) 1999-08-04 2002-10-15 Eyematic Interfaces, Inc. Procedure for automatic analysis of images and image sequences based on two-dimensional shape primitives
US6792135B1 (en) * 1999-10-29 2004-09-14 Microsoft Corporation System and method for face detection through geometric distribution of a non-intensity image property
SG103253A1 (en) 2000-01-26 2004-04-29 Kent Ridge Digital Labs Method and apparatus for cancelling lighting variations in object recognition
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
US6351566B1 (en) 2000-03-02 2002-02-26 International Business Machines Method for image binarization
US6658166B1 (en) 2000-03-08 2003-12-02 International Business Machines Corporation Correction of distortions in form processing
GB2360581A (en) * 2000-03-15 2001-09-26 Television Monitoring Services Quantification of brand exposure on screen
RU2175148C1 (ru) * 2000-04-04 2001-10-20 Свириденко Андрей Владимирович Способ идентификации человека
US6778703B1 (en) 2000-04-19 2004-08-17 International Business Machines Corporation Form recognition using reference areas
JP4443722B2 (ja) * 2000-04-25 2010-03-31 富士通株式会社 画像認識装置及び方法
US6496595B1 (en) 2000-05-19 2002-12-17 Nextgenid, Ltd. Distributed biometric access control apparatus and method
US6504470B2 (en) 2000-05-19 2003-01-07 Nextgenid, Ltd. Access control method and apparatus for members and guests
JP2002042115A (ja) * 2000-07-26 2002-02-08 Fujitsu Ltd 疲労緩和システム、疲労緩和方法及び記録媒体
US6917703B1 (en) 2001-02-28 2005-07-12 Nevengineering, Inc. Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network
US7392287B2 (en) * 2001-03-27 2008-06-24 Hemisphere Ii Investment Lp Method and apparatus for sharing information using a handheld device
US6834115B2 (en) 2001-08-13 2004-12-21 Nevengineering, Inc. Method for optimizing off-line facial feature tracking
US6876364B2 (en) 2001-08-13 2005-04-05 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US6853379B2 (en) * 2001-08-13 2005-02-08 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
EP1293933A1 (de) * 2001-09-03 2003-03-19 Agfa-Gevaert AG Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotografischen Bilddaten
US20050008198A1 (en) * 2001-09-14 2005-01-13 Guo Chun Biao Apparatus and method for selecting key frames of clear faces through a sequence of images
US20040263621A1 (en) * 2001-09-14 2004-12-30 Guo Chun Biao Customer service counter/checkpoint registration system with video/image capturing, indexing, retrieving and black list matching function
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
JP2003296711A (ja) * 2002-03-29 2003-10-17 Nec Corp 顔画像識別方法、装置およびプログラム
US7274803B1 (en) * 2002-04-02 2007-09-25 Videomining Corporation Method and system for detecting conscious hand movement patterns and computer-generated visual feedback for facilitating human-computer interaction
JP2003333355A (ja) * 2002-05-10 2003-11-21 Canon Inc 色評価装置及び方法
JP2003346149A (ja) * 2002-05-24 2003-12-05 Omron Corp 顔照合装置および生体情報照合装置
US7598975B2 (en) * 2002-06-21 2009-10-06 Microsoft Corporation Automatic face extraction for use in recorded meetings timelines
US6996460B1 (en) 2002-10-03 2006-02-07 Advanced Interfaces, Inc. Method and apparatus for providing virtual touch interaction in the drive-thru
US20040136870A1 (en) * 2002-10-25 2004-07-15 Kochy Thomas E. Automatic analysis apparatus
US7283650B1 (en) 2002-11-27 2007-10-16 Video Mining Corporation Method and system for printing of automatically captured facial images augmented with promotional content
GB2395779A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
GB2395778A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
US7203338B2 (en) * 2002-12-11 2007-04-10 Nielsen Media Research, Inc. Methods and apparatus to count people appearing in an image
EP1576815A1 (de) 2002-12-11 2005-09-21 Nielsen Media Research, Inc. Ermittlung der zuschauerzusammensetzung
US7734070B1 (en) 2002-12-31 2010-06-08 Rajeev Sharma Method and system for immersing face images into a video sequence
JP2004236110A (ja) * 2003-01-31 2004-08-19 Canon Inc 画像処理装置、画像処理方法、記憶媒体及びプログラム
WO2004073217A1 (en) * 2003-02-10 2004-08-26 Nielsen Media Research, Inc. Methods and apparatus to adaptively gather audience information data
US20040228505A1 (en) * 2003-04-14 2004-11-18 Fuji Photo Film Co., Ltd. Image characteristic portion extraction method, computer readable medium, and data collection and processing device
US20040223649A1 (en) * 2003-05-07 2004-11-11 Eastman Kodak Company Composite imaging method and system
US8330831B2 (en) * 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7565030B2 (en) * 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7792970B2 (en) * 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US7620218B2 (en) * 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8498452B2 (en) * 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8593542B2 (en) * 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US8155397B2 (en) * 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US8989453B2 (en) * 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8682097B2 (en) * 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7430335B2 (en) * 2003-08-13 2008-09-30 Apple Inc Pre-processing method and system for data reduction of video sequences and bit rate reduction of compressed video sequences using spatial filtering
US7403568B2 (en) * 2003-08-13 2008-07-22 Apple Inc. Pre-processing method and system for data reduction of video sequences and bit rate reduction of compressed video sequences using temporal filtering
US7920725B2 (en) * 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
EP1671257A1 (de) * 2003-09-30 2006-06-21 Koninklijke Philips Electronics N.V. System und verfahren zum adaptiven einstellen von biometrischen messschwellen
US20070086626A1 (en) * 2003-10-08 2007-04-19 Xid Technologies Pte Ltd Individual identity authentication systems
GB2409031A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
JP2005242640A (ja) * 2004-02-26 2005-09-08 Fuji Photo Film Co Ltd 対象物検出方法および装置並びにプログラム
US7697026B2 (en) * 2004-03-16 2010-04-13 3Vr Security, Inc. Pipeline architecture for analyzing multiple video streams
US7627148B2 (en) * 2004-07-06 2009-12-01 Fujifilm Corporation Image data processing apparatus and method, and image data processing program
CA2568633C (en) * 2004-10-15 2008-04-01 Oren Halpern A system and a method for improving the captured images of digital still cameras
US8320641B2 (en) * 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8503800B2 (en) * 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US8130285B2 (en) * 2005-04-05 2012-03-06 3Vr Security, Inc. Automated searching for probable matches in a video surveillance system
JP4429241B2 (ja) * 2005-09-05 2010-03-10 キヤノン株式会社 画像処理装置及び方法
RU2295152C1 (ru) * 2005-09-15 2007-03-10 Роман Павлович Худеев Способ распознавания лица человека по видеоизображению
US20070183625A1 (en) * 2006-01-27 2007-08-09 Dussich Jeffrey A Statistical Match For Facial Biometric To Reduce False Accept Rate/False Match Rate (FAR/FMR)
US7504942B2 (en) * 2006-02-06 2009-03-17 Videoiq, Inc. Local verification systems and methods for security monitoring
MX2007015979A (es) 2006-03-31 2009-04-07 Nielsen Media Res Inc Metodos, sistemas y aparato para medicion de multiples fines.
ATE497218T1 (de) * 2006-06-12 2011-02-15 Tessera Tech Ireland Ltd Fortschritte bei der erweiterung der aam- techniken aus grauskalen- zu farbbildern
US7916897B2 (en) * 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) * 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
AU2007221976B2 (en) * 2006-10-19 2009-12-24 Polycom, Inc. Ultrasonic camera tracking system and associated methods
US7987111B1 (en) * 2006-10-30 2011-07-26 Videomining Corporation Method and system for characterizing physical retail spaces by determining the demographic composition of people in the physical retail spaces utilizing video image analysis
US8055067B2 (en) * 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
US8839094B2 (en) * 2007-01-23 2014-09-16 Jostens, Inc. System and method for yearbook creation
CN101663662A (zh) * 2007-01-23 2010-03-03 乔斯滕斯股份有限公司 用于创建定制产品的方法和系统
US20080199079A1 (en) * 2007-02-19 2008-08-21 Seiko Epson Corporation Information Processing Method, Information Processing Apparatus, and Storage Medium Having Program Stored Thereon
WO2008104549A2 (en) 2007-02-28 2008-09-04 Fotonation Vision Limited Separating directional lighting variability in statistical face modelling based on texture space decomposition
EP2188759A1 (de) * 2007-03-05 2010-05-26 Fotonation Vision Limited Gesichtssuche und detektion in einer digitalbild-beschaffungseinrichtung
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US7844085B2 (en) * 2007-06-07 2010-11-30 Seiko Epson Corporation Pairwise feature learning with boosting for use in face detection
DE102007033391A1 (de) * 2007-07-18 2009-01-22 Robert Bosch Gmbh Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm
WO2009032922A1 (en) * 2007-09-04 2009-03-12 Objectvideo, Inc. Stationary target detection by exploiting changes in background model
WO2009041242A1 (ja) * 2007-09-28 2009-04-02 Nec Soft, Ltd. 集計システム、集計装置、及び集計方法
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
US7953255B2 (en) * 2008-05-01 2011-05-31 At&T Intellectual Property I, L.P. Avatars in social interactive television
US20100225584A1 (en) * 2008-06-08 2010-09-09 John Cauchi Silent or loud 3d infrared futuristic computer mice and keyboard design for a mice&keyboard less computer
CN102027505A (zh) 2008-07-30 2011-04-20 泰塞拉技术爱尔兰公司 使用脸部检测的自动脸部和皮肤修饰
US8411963B2 (en) * 2008-08-08 2013-04-02 The Nielsen Company (U.S.), Llc Methods and apparatus to count persons in a monitored environment
US20100094936A1 (en) * 2008-10-15 2010-04-15 Nokia Corporation Dynamic Layering of an Object
TW201025147A (en) * 2008-12-19 2010-07-01 Micro Star Int Co Ltd Method for adjusting light source threshold value for face recognition
RU2431191C2 (ru) * 2009-01-27 2011-10-10 Государственное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) Способ идентификации личности человека по цифровому изображению лица
US8374389B2 (en) * 2009-02-06 2013-02-12 Robert Bosch Gmbh Iris deblurring method based on global and local iris image statistics
US20100208078A1 (en) * 2009-02-17 2010-08-19 Cisco Technology, Inc. Horizontal gaze estimation for video conferencing
US8131848B1 (en) * 2009-09-29 2012-03-06 Jason Adam Denise Image analysis and communication device control technology
US8379917B2 (en) * 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US9456183B2 (en) * 2009-11-16 2016-09-27 Alliance For Sustainable Energy, Llc Image processing occupancy sensor
US8675009B2 (en) 2010-07-20 2014-03-18 Apple Inc. Keying an image in three dimensions
US8743139B2 (en) 2010-07-20 2014-06-03 Apple Inc. Automatically keying an image
US8619093B2 (en) 2010-07-20 2013-12-31 Apple Inc. Keying an image
JP5706647B2 (ja) 2010-09-03 2015-04-22 キヤノン株式会社 情報処理装置、およびその処理方法
US8726161B2 (en) * 2010-10-19 2014-05-13 Apple Inc. Visual presentation composition
US9760764B2 (en) * 2010-12-30 2017-09-12 Nokia Technologies Oy Methods, apparatuses and computer program products for efficiently recognizing faces of images associated with various illumination conditions
US8594426B2 (en) 2011-02-04 2013-11-26 Apple Inc. Color matching using color segmentation
US8611655B2 (en) 2011-02-04 2013-12-17 Apple Inc. Hue-based color matching
US8842911B2 (en) 2011-02-04 2014-09-23 Apple Inc. Luma-based color matching
US8760464B2 (en) 2011-02-16 2014-06-24 Apple Inc. Shape masks
CN102110399B (zh) * 2011-02-28 2016-08-24 北京中星微电子有限公司 一种辅助解说的方法、装置及其系统
US8903130B1 (en) * 2011-05-09 2014-12-02 Google Inc. Virtual camera operator
JP4980486B1 (ja) * 2011-06-14 2012-07-18 株式会社ナナオ 動き画像領域判定装置またはその方法
US8620088B2 (en) 2011-08-31 2013-12-31 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US9241141B1 (en) * 2011-12-23 2016-01-19 Amazon Technologies, Inc. Projection block extraction
US10579904B2 (en) 2012-04-24 2020-03-03 Stmicroelectronics S.R.L. Keypoint unwarping for machine vision applications
US9282366B2 (en) 2012-08-13 2016-03-08 The Nielsen Company (Us), Llc Methods and apparatus to communicate audience measurement information
JP6132490B2 (ja) * 2012-08-20 2017-05-24 キヤノン株式会社 認証装置、認証方法、およびプログラム
US8761448B1 (en) * 2012-12-13 2014-06-24 Intel Corporation Gesture pre-processing of video stream using a markered region
US20140184803A1 (en) * 2012-12-31 2014-07-03 Microsoft Corporation Secure and Private Tracking Across Multiple Cameras
CN103116890B (zh) * 2013-02-27 2015-11-18 中山大学 一种基于视频图像的智能搜索匹配方法
US9699499B2 (en) 2014-04-30 2017-07-04 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
CN106462736B (zh) 2014-08-07 2020-11-06 华为技术有限公司 用于人脸检测的处理设备和方法
US10445391B2 (en) 2015-03-27 2019-10-15 Jostens, Inc. Yearbook publishing system
CN104866843B (zh) * 2015-06-05 2018-08-21 中国人民解放军国防科学技术大学 一种面向监控视频的蒙面人脸检测方法
US10652592B2 (en) 2017-07-02 2020-05-12 Comigo Ltd. Named entity disambiguation for providing TV content enrichment
US10643093B1 (en) 2018-11-19 2020-05-05 International Business Machines Corporation Automated bounding box generation for objects in an image
US11275819B2 (en) 2018-12-05 2022-03-15 Bank Of America Corporation Generative adversarial network training and feature extraction for biometric authentication
CN111698453B (zh) * 2019-03-11 2022-02-08 杭州海康威视系统技术有限公司 视频处理的方法和装置
US11560784B2 (en) 2019-06-11 2023-01-24 Noven, Inc. Automated beam pump diagnostics using surface dynacard
US11711638B2 (en) 2020-06-29 2023-07-25 The Nielsen Company (Us), Llc Audience monitoring systems and related methods
US11494944B2 (en) 2020-11-18 2022-11-08 Disney Enterprises, Inc. Automatic low contrast detection
US11544828B2 (en) 2020-11-18 2023-01-03 Disney Enterprises, Inc. Automatic occlusion detection
CN113128573B (zh) * 2021-03-31 2024-08-27 北京航天飞腾装备技术有限责任公司 一种红外-可见光异源图像匹配方法
CN115393916A (zh) * 2021-05-25 2022-11-25 深圳绿米联创科技有限公司 图像检测方法、人脸检测方法及装置、设备及存储介质
US12356286B2 (en) 2021-07-22 2025-07-08 The Nielsen Company (Us), Llc Methods, apparatus, and articles of manufacture to locate persons based on adjustable signal strength thresholds
US11860704B2 (en) 2021-08-16 2024-01-02 The Nielsen Company (Us), Llc Methods and apparatus to determine user presence
US11758223B2 (en) 2021-12-23 2023-09-12 The Nielsen Company (Us), Llc Apparatus, systems, and methods for user presence detection for audience monitoring
US12088882B2 (en) 2022-08-26 2024-09-10 The Nielsen Company (Us), Llc Systems, apparatus, and related methods to estimate audience exposure based on engagement level

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5012522A (en) * 1988-12-08 1991-04-30 The United States Of America As Represented By The Secretary Of The Air Force Autonomous face recognition machine
GB9201006D0 (en) * 1992-01-17 1992-03-11 Philip Electronic And Associat Classifying faces
US5432864A (en) * 1992-10-05 1995-07-11 Daozheng Lu Identification card verification system
US5497430A (en) * 1994-11-07 1996-03-05 Physical Optics Corporation Method and apparatus for image recognition using invariant feature signals

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHEN, Q., YACHIDA, M.: "Face detection by fuzzy pattern matching" in: IEEE 1995 (0-8186-7042-9/95)S. 591-596 *
KWON, Y.H., LOBO, V. N.da: "Face detection using templates" in: IEEE 1994 (1051-4651/94),S.764-767 *
LEUNG, T.K. et al.: "Finding faces in cluttered scenes using random lebeled graph matching" in: IEEE 1995 (0-8186-7042-8/95), S. 637-644 *
YANG, G., HUANG, T.S.: "Human face detection in a complex background" in: Pattern Racognition, Vol. 27, Nr. 1, 1994, S. 53-63 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105842495A (zh) * 2016-03-25 2016-08-10 李军 基于图像处理的电能表

Also Published As

Publication number Publication date
US5715325A (en) 1998-02-03

Similar Documents

Publication Publication Date Title
DE19634768A1 (de) Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild
DE60307583T2 (de) Auswertung der Schärfe eines Bildes der Iris eines Auges
DE60213032T2 (de) Gerät zur Gesichtsdetektion, Gerät zur Detektion der Gesichtspose, Gerät zur Extraktion von Teilbildern und Verfahren für diese Geräte
DE60313941T2 (de) Personendetektion durch Gesichtsdetektion und Bewegungsdetektion
EP0645037B1 (de) Verfahren zur detektion von änderungen in bewegtbildern
EP1119822B1 (de) Verfahren und system zur personenerkennung mit modellbasierter gesichtsfindung
DE69333094T2 (de) Vorrichtung zum Extrahieren von Merkmalen eines Gesichtsbildes
DE3587220T2 (de) Identifizierungsverfahren von konturlinien.
DE69906403T2 (de) Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets
DE2831582C2 (de) Verfahren zur Identifizierung einer Person und Vorrichtung zur Durchführung des Verfahrens
EP2467828B1 (de) Verfahren und system zur automatischen objekterkennung und anschliessenden objektverfolgung nach massgabe der objektform
DE69428089T2 (de) Gerät und Verfahren zur Bildanalyse
DE69937530T2 (de) Verfahren zum automatischen Klassifizieren von Bildern nach Ereignissen
DE69707886T2 (de) Verfahren und gerät zum lokalisieren einer sich bewegenden zone und bestimmung der schnellheit und richtung der bewegung eines gebietes von relativer bewegung in einer szene
DE19521346C2 (de) Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür
DE69837233T2 (de) Verfahren und Gerät zur Bestimmung der Augenposition in einem Bild
WO2000010119A1 (de) Verfahren zum erkennen von objekten in digitalisierten abbildungen
EP1259931A1 (de) Verfahren zur analyse von fingerabdruckbildern
EP0474304B1 (de) Schaltungsanordnung zum Erkennen eines menschlichen Gesichts
DE19810792A1 (de) Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes
DE69821225T2 (de) Verfahren zur kontrolle der oberfläche einer laufenden materialbahn mit vorklassifikation von ermittelten unregelmässigkeiten
EP0394959A2 (de) Verfahren zur Bildauswertung
DE60320076T2 (de) Verfahren zur elektronischen farbentfernung unter nutzung räumlicher beziehungen zur verbesserung der genauigkeit
DE112021005703T5 (de) Informationsverarbeitungseinrichtung und informationsverarbeitungsverfahren
DE69531412T2 (de) Bildkodierung beruhend auf Bildbereichen und deren segmentierten Randlinien

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8181 Inventor (new situation)

Free format text: BANG, RICHARD D., PRINCETON, N.J., US FANG, MING, CRANBURY, N.J., US SCHWARTZ, STUART C., PRINCENTON, N.J., US ANDRESS, KEITH M., PLAINSBORO, N.J., US

8131 Rejection