[go: up one dir, main page]

DE60110193T2 - System und Verfahren zur Analyse von Blickrichtungsmessungsdaten - Google Patents

System und Verfahren zur Analyse von Blickrichtungsmessungsdaten Download PDF

Info

Publication number
DE60110193T2
DE60110193T2 DE60110193T DE60110193T DE60110193T2 DE 60110193 T2 DE60110193 T2 DE 60110193T2 DE 60110193 T DE60110193 T DE 60110193T DE 60110193 T DE60110193 T DE 60110193T DE 60110193 T2 DE60110193 T2 DE 60110193T2
Authority
DE
Germany
Prior art keywords
data
pages
gaze
fixation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60110193T
Other languages
English (en)
Other versions
DE60110193D1 (de
Inventor
Stuart K. Los Altos Hills Card
Peter L. San Francisco Pirolli
Robert W. Los Altos Hills Reeder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Application granted granted Critical
Publication of DE60110193D1 publication Critical patent/DE60110193D1/de
Publication of DE60110193T2 publication Critical patent/DE60110193T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • Y10S707/99936Pattern matching access
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99942Manipulating data structure, e.g. compression, compaction, compilation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Debugging And Monitoring (AREA)

Description

  • Die vorliegende Erfindung betrifft allgemein das Gebiet der Blickrichtungsmessung und insbesondere ein System und Verfahren zum Analysieren von Blickrichtungsmessungsdaten, die von einem Benutzer gesammelt werden, der eine Anzeige von dynamischen Multimedia-Seiten betrachtet.
  • Auf verschiedenen Gebieten haben Psychologen und andere Forscher Blickrichtungs-Verfolgungsvorrichtungen (oder Eyetracker) verwendet, um Blickfixierungen, Augenbewegungen und Pupillenerweiterungen aufzuzeichnen als eine Möglichkeit, daraus den geometrischen Ort des visuellen Augenmerks einer Person abzuleiten. Dieser Rückschluss wird im Allgemeinen als die "bewusster Blick"-Annahme ("mind-eye assumption") bezeichnet. In dieser Hinsicht finden sich Offenbarungen in Bezug auf Blickfixierungen, Augenbewegungen und Dilatation in den U.S.-Patenten Nr. 5,471,542, 5,410,376 und 5,231,674. US-A-4,789,235 offenbart ein Verfahren und System zum Erzeugen einer Beschreibung der Verteilung der Blickzeit, wenn Personen Fernsehwerbung sehen. Dieses Bezugsdokument beschreibt ein System, in dem die Blickrichtungsmessung verwendet wird, um das Interesse einer Einzelperson an verschiedenen Bereichen von unterschiedlichen Fernseh-Szenen zu messen.
  • Ein grundlegendes Problem von Blickrichtungs-Verfolgungsvorrichtungen betrifft das Zuordnen der Blickrichtungsmessungsdaten ("Blickpunkte") ("points-of-regard") zu Elementen der Multimedia-Seiten, um damit die Elemente zu identifizieren, auf die der Besucher fixiert/fokussiert war ("Blickelemente") ("elements-of-regard"). Das Zuordnen von Blickpunkten zu Blickelementen wird hier als die "Punkte-Elemente"-Zuordnung ("points-to-elements" mapping) bezeichnet, und diese Zuordnung stellt eine beträchtliche Schwierigkeit beim Anwenden von Blickrichtungsmessungstechnologie auf Multimedia dar. Im Allgemeinen überwachen Blickrichtungs-Verfolgungsvorrichtungen den Blick des Auges des Benutzers und zeichnen ihn in einem Koordinatensystem auf, das eine Überlagerung eines Abschnitts von physikalischem Raum ist. Beispielsweise könnte eine Blickrichtungs-Verfolgungsvorrichtung eine Gruppe von (x, y)-Koordinaten aufzeichnen, die einen Raumabschnitt identifiziert, der dem Anzeigebildschirm eines Rechners entspricht.
  • Wenn die Informationselemente, die auf dem Bildschirm angezeigt werden, fixiert sind, können Analyseprogramme anschließend die Beziehung der aufgezeichneten Augen-Blickdaten zu den angezeigten Elementen leicht bestimmten.
  • Die Natur von Multimedia selbst hat jedoch sehr häufige Änderungen auf dem Anzeigebildschirm des Benutzers zur Folge, wodurch die Anwendung der gegenwärtigen Blickrichtungsmessungstechnologie in hohem Maße eingeschränkt wird. Typischerweise muss der Benutzer in den Aktionen, die er/sie ausführt, eingeschränkt werden. Beispielsweise würde die Verwendung von Bildlaufleisten nicht gestattet, da ihre Verwendung die Position der Elemente sofort verändern und damit die aufgezeichneten Koordinaten ungenau machen würde. Andernfalls müssen die Forscher die Blickrichtungsmessungsdaten in mühsamer Weise manuell aus Videoaufzeichnungen des Benutzers analysieren, um die Beziehung von Koordinaten der Blickrichtungs-Verfolgungsvorrichtung zu dem Inhalt abzuleiten, der angezeigt wurde, oder die Vorlagen, die den Ort von Anzeige-Elementen beschreiben, müssen von Hand alle paar Sekunden geändert werden. Infolgedessen erfordert die Blickrichtungsmessungs-Forschung bei Multimedia, wie beispielsweise dem WWW, einen Zeitaufwand, der den Multimedia-Fachleuten zu hoch ist.
  • Diese Analyse per Hand kann erleichtert werden, indem eine Datendatei Szene für Szene (oder Bildschirm für Bildschirm) bereitgestellt wird, oder indem Werkzeuge bereitgestellt werden, die es dem Analysten gestatten, räumliche Bereiche zu definieren und zu kennzeichnen, die Bereichen von angezeigtem Inhalt entsprechen. In US-A-4789235 muss die Szenendatendatei manuell erzeugt werden, und daher ist eine sehr beträchtliche Menge an manuellem Aufwand erforderlich, und es ist kein Zugriff auf den semantischen Inhalt der Bereiche vorhanden. Analog dazu kann eine Vorlage von definierten Inhaltsbereichen für jeden Anzeigezustand angegeben werden, für absolut jede Ansicht von WWW-Seiten, die der Benutzer besucht, um dadurch eine beschleunigtere Datenverarbeitung zu gestatten. Wenn sich die Anzahl der Bildschirmänderungen jedoch erhöht, erhöht sich auch die Anzahl der für die Analyse erforderlichen Vorlagen. In dem Fall eines Web-Browsers wäre eine neue Vorlage für jede Seite erforderlich und zwar für jede mögliche Position der Bildlaufleiste für jede Seite. Daher ist eine solche Lösung weder praktisch noch wirtschaftlich.
  • US-A-6,106,119 offenbart ein Verfahren, das Blickrichtungsmessungsdaten und entsprechende Anzeige-Szenarios basierend auf einer vorgegebenen Bedingung offenbart, wie beispielsweise Zeitintervall, Mess-Sequenz, eine Bildlauf-Erfassung oder eine andere Aktivität. Die Blickrichtungsmessungsdaten werden in Interpretationen auf höchster Ebene umgewandelt, und ihnen wird ein Bewertungsvokabular zugewiesen. Die gespeicherten Anzeige-Szenarios werden dann zusammen mit dem Bewertungsvokabular angezeigt.
  • Bei US-A-6106119 stellte sich heraus, dass nur ein begrenzter Vorteil gegenüber Blickrichtungsmessungsverfahren des bisherigen Stands der Technik bereitgestellt wurde. Da die bereitgestellte Ausgabe interpretierte Blickrichtungsmessungsdaten sind, die Screenshots überlagern, muss ein menschlicher Analyst anschließend die Punkte-Elemente-Zuordnung durchführen, indem die Screenshots mit den darauf überlagerten Blickrichtungsmessungsdaten betrachtet und analysiert werden, um zu identifizieren, welche Elemente sich unter den Blickrichtungsmessungsdaten befinden. Daher ist immer noch eine beträchtliche Menge an menschlichem Aufwand erforderlich, um die Blickelement-Informationen zu erhalten. Weil die Screenshots rein grafische Darstellungen sind, kann des Weiteren keine zusätzliche Datenverarbeitung mit den erhaltenen Daten durchgeführt werden. Beispielsweise wäre ein menschlicher Analyst erforderlich, um die Augenbewegungen eines Benutzers zu einem bestimmten Element, Bild, Link, Text oder formatierten Text usw. zu bestimmen. Vorlagen, die beim Identifizieren der Elemente während der Analyse der Blickrichtungsmessungsdaten helfen können, werden verwendet. Allerdings muss eine beträchtliche Menge an menschlicher Arbeit aufgewendet werden, um solche Vorlagen herzustellen, und eine neue Vorlage würde für jede Bildschirmanzeige benötigt, wodurch die vorgeschlagene Lösung in einem Multimedia-Kontext, in dem sich die Bildschirmanzeige ständig ändert, unausführbar wird.
  • US-A-5204703 offenbart eine Vorrichtung zum Überwachen der Augenbewegung und des Pupillendurchmessers, während eine Testperson visuellen Stimuli ausgesetzt wird. Die Vorrichtung und das Verfahren verwenden eine Augen-/Blick-Erfassungsvorrichtung (eye-look detector), um das visuelle Prüfen eines dargestellten Bilds durch eine Testperson zu ermitteln, und mittels einer Rechneraufzeichnung überlagert eine Analyse Symbole, welche die Ansichtspunkte (lookpoints) über das Bild darstellen.
  • US-A-5886683 offenbart eine Vorrichtung, die bestimmt, welche für einen Benutzer auf einem Rechner-Bildschirm dargestellte Information den Benutzer am meisten interessiert. Die Erfindung verwendet diese Information, um die Themen der angezeigten Information und das Interesse des Benutzers zueinander in Beziehung zu setzen, um zusätzliche Informationen für den Benutzer auszuwählen. Diese zusätzlichen Informationen sind besser auf das Interesse des Benutzers abgestimmt.
  • Die vorliegende Erfindung stellt ein verbessertes System und Verfahren für die Analyse von Blickrichtungsmessungsdaten bereit, die von einem Benutzer gesammelt werden, der eine Anzeige von dynamischen Multimedia-Seiten betrachtet. Des Weiteren wird mit der vorliegenden Erfindung die Interaktion und der Aufwand von menschlichen Analysten minimiert, und die Punkte-Elemente-Zuordnung kann im Wesentlichen automatisiert werden.
  • Das System und ein Informationen-Speichermedium zum Analysieren von Blickrichtungsmessungsdaten, die von einem Benutzer gesammelt werden, der eine Anzeige von dynamischen Multimedia-Seiten über einen Browser mit einer Objektmodell-Schnittstelle betrachtet, umfasst eine Blickrichtungs-Verfolgungsvorrichtung, ein Protokollierungswerkzeug und ein Zuordnungswerkzeug. Die Blickrichtungs-Verfolgungsvorrichtung überwacht Ort und Uhrzeit des Blicks des Benutzers und speichert Blickrichtungsmessungsdaten des Orts und der Uhrzeit des Blicks des Benutzers in einer Datendatei der Blickrichtungs-Verfolgungsvorrichtung. Das Protokollierungswerkzeug überwacht die angezeigten Seiten und speichert den Inhalt der angezeigten Seiten in einem Speicher. Das Zuordnungswerkzeug empfängt die Blickrichtungsmessungsdaten von der Datendatei der Blickrichtungs-Verfolgungsvorrichtung, verarbeitet die Blickrichtungsmessungsdaten in Fixierungsdaten, die für das Interesse des Benutzers indikativ sind, und stellt die aus dem Speicher angezeigten Seiten wieder her. Das Zuordnungswerkzeug ordnet die Fixierungsdaten auch zu den wiederhergestellten Seiten zu, um dadurch Blickelemente, die der Benutzer fixiert hat, und deren Orte zu identifizieren und speichert die Identifizierten Blickelemente und deren Orte in einer Blickelemente-Datenbank. Die Fixierungsdaten sind wenigstens eines von Informationen in Bezug auf Fixierungspunkte, auf die der Benutzer den Blick fixiert hat, von Informationen in Bezug auf einen Bereich in der Nähe eines Fixierungspunkts, der innerhalb einer grafischen Begrenzungslinie enthalten ist, oder von Informationen in Bezug auf einen Übergang, der ein Cluster von Fi xierungspunkten ist, die über einen vorgegebenen Algorithmus zueinander in Beziehung stehen. Das Protokollierungswerkzeug kann auch auf die Objektmodell-Schnittstelle des Browsers zugreifen, um Elemente der wiederhergestellten Seiten zu identifizieren, und speichert die identifizierten Elemente der wiederhergestellten Seiten in einer Elemente-Datenbank. Das Protokollierungswerkzeug kann auch Ereignisse und Zeitdaten der Ereignisse überwachen und speichern, die eine in einem Ereignisprotokoll angezeigte Veränderung in den Seiten verursachen, und kann die aus dem Speicher angezeigten Seiten und die Ereignisdaten in dem Ereignisprotokoll wiederherstellen, indem die Ereignisse der Ereignisdaten auf den wiederhergestellten Seiten wiederholt werden. Das Zuordnungswerkzeug kann auch die Fixierungsdaten mit den Ereignisdaten in dem Ereignisprotokoll zeitlich synchronisieren und kann ein Koordinatensystem der Blickrichtungsmessungsdaten, die in der Datendatei der Blickrichtungs-Verfolgungseinrichtung gespeichert sind, auf ein Bildschirm-Koordinatensystem kalibrieren, das beim Betrachten der Anzeige von dynamischen Multimedia-Seiten verwendet wird. Das Protokollierungswerkzeug und das Zuordnungswerkzeug können Software-Programme sein, die in einem Informationen-Speichermedium gespeichert sind.
  • In Übereinstimmung mit einer anderen Ausführungsform wird das Verfahren zum Analysieren von Daten, die von einem Benutzer gesammelt werden, der eine Anzeige von dynamischen Multimedia-Seiten über einen Browser mit einer Objektmodell-Schnittstelle betrachtet, einschließlich Überwachung des Orts und der Uhrzeit des Blicks des Benutzers, Speichern von Ort und Uhrzeit als Blickrichtungsmessungsdaten, Verarbeiten der Blickrichtungsmessungsdaten in Fixierungsdaten, die für das Interesse des Benutzers Indikativ sind, Überwachung des Inhalts von angezeigten Seiten und Speichern des Inhalts der angezeigten Seiten in einem Speicher, Wiederherstellen der angezeigten Seiten aus dem Speicher, Zuordnen der Fixierungsdaten auf den wiederhergestellten Seiten, um dadurch Blickelemente, die der Benutzer fixiert hat, und deren Ort zu identifizieren, und Speichern der identifizierten Blickelemente in einer Blickelemente-Datenbank bereitgestellt. In Übereinstimmung mit einer Ausführungsform umfasst das Verfahren auch das Zugreifen auf die Objektmodell-Schnittstelle des Browsers, um Elemente der wiederhergestellten Seiten zu identifizieren und die identifizierten Elemente der wiederhergestellten Seiten in einer Elemente-Datenbank zu speichern. Das Verfahren kann auch Überwachen und Speichern von Ereignissen und Zeitdaten der Ereignisse, die eine Veränderung in den Seiten verursachen, umfassen, die als Ereignisdaten angezeigt werden. Die angezeigten Seiten können aus dem Speicher und die Ereignisdaten durch erneutes Ausführen der Ereignisse der Ereignisdaten auf den wiederhergestellten Seiten wiederhergestellt werden. Das vorliegende Verfahren kann auch das zeitliche Synchronisieren der Fixierungsdaten mit den Ereignisdaten sowie Kalibrieren eines Koordinatensystems der Blickrichtungsmessungsdaten auf ein Bildschirm-Koordinatensystem umfassen, das beim Betrachten der Anzeige von dynamischen Multimedia-Seiten verwendet wird.
  • In Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung werden ein System und ein Informationen-Speichermedium zum Analysieren von Blickrichtungsmessungsdaten, die von einem Benutzer gesammelt werden, der eine Anzeige von dynamischen Multimedia-Seiten über einen Browser mit einer Objektmodell-Schnittstelle betrachtet, einschließlich einer Blickrichtungs-Verfolgungseinrichtung, einem Protokollierungswerkzeug und einem Zuordnungswerkzeug bereitgestellt. Die Blickrichtungs-Verfolgungsvorrichtung überwacht Ort und Uhrzeit des Blicks des Benutzers und speichert Blickrichtungsmessungsdaten des Orts und der Uhrzeit des Blicks des Benutzers in einer Datendatei der Blickrichtungs-Verfolgungsvorrichtung. Das Protokollierungswerkzeug überwacht die angezeigten Seiten und speichert den Inhalt der angezeigten Seiten in einem Speicher. Das Zuordnungswerkzeug empfängt die Blickrichtungsmessungsdaten von der Datendatei der Blickrichtungs-Verfolgungsvorrichtung, verarbeitet die Blickrichtungsmessungsdaten in Fixierungsdaten, die für das Interesse des Benutzers indikativ sind, und stellt die angezeigten Seiten aus dem Speicher wieder her. Das Zuordnungswerkzeug ordnet auch die Fixierungsdaten auf den wiederhergestellten Seiten zu. Das Zuordnungswerkzeug greift auf die Objektmodell-Schnittstelle des Browsers zu, um Elemente der wiederhergestellten Seiten zu identifizieren, und speichert die identifizierten Elemente der wiederhergestellten Seiten in einer Elemente-Datenbank. Die Fixierungsdaten sind wenigstens eines von Informationen in Bezug auf Fixierungspunkte, auf die der Benutzer den Blick fixiert hat, von Informationen in Bezug auf einen Bereich neben einem Fixierungspunkt, der in einer grafischen Begrenzungslinie enthalten ist, oder von Informationen in Bezug auf einen Übergang, der ein Cluster von Fixierungspunkten ist, die über einen vorgegebenen Algorithmus zueinander in Beziehung stehen. Das Protokollierungswerkzeug kann auch Ereignisse und Zeitdaten der Ereignisse überwachen, die eine Veränderung in den Seiten verursachen, die als Ereignisdaten angezeigt werden, und in einem Ereignisprotokoll speichern. Das Zuordnungs werkzeug kann die angezeigten Daten aus dem Speicher und die Ereignisdaten in dem Ereignisprotokoll durch erneutes Ausführen der Ereignisse der Ereignisdaten auf den wiederhergestellten Seiten wiederherstellen. In anderen Ausführungsformen kann das Zuordnungswerkzeug die Blickrichtungsmessungsdaten mit den Ereignisdaten in dem Ereignisprotokoll zeitlich synchronisieren und kann auch ein Koordinatensystem der Blickrichtungsmessungsdaten, die in der Datendatei der Blickrichtungs-Verfolgungsvorrichtung gespeichert sind, auf ein Bildschirm-Koordinatensystem kalibrieren, das beim Betrachten der Anzeige von dynamischen Multimedia-Seiten verwendet wird.
  • In Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung wird ein Verfahren zum Analysieren von Daten, die von einem Benutzer gesammelt werden, der eine Anzeige von dynamischen Multimedia-Seiten über einen Browser mit einer Objektmodell-Schnittstelle betrachtet, einschließlich Überwachung von Ort und Uhrzeit des Blicks des Benutzers, Speichern des Orts und der Uhrzeit als Blickrichtungsmessungsdaten, Verarbeiten der Blickrichtungsmessungsdaten in Fixierungsdaten, die für das Interesse des Benutzers indikativ sind, Überwachung des Inhalts von angezeigten Seiten und Speichern des Inhalts der angezeigten Seiten in einem Speicher, Wiederherstellen der angezeigten Seiten aus dem Speicher, Zuordnen der Fixierungsdaten auf den wiederhergestellten Seiten, Zugreifen auf die Objektmodell-Schnittstelle des Browsers, um Elemente der wiederhergestellten Seiten zu identifizieren und die identifizierten Elemente der wiederhergestellten Seiten in einer Elemente-Datenbank zu speichern, bereitgestellt. Das Verfahren kann auch Überwachung und Speichern von Ereignissen und Zeitdaten der Ereignisse umfassen, die eine Veränderung in den Seiten verursachen, die als Ereignisdaten angezeigt werden. Die angezeigten Seiten können aus dem Speicher wiederhergestellt werden, und die Ereignisdaten durch erneutes Ausführen der Ereignisse der Ereignisdaten auf den wiederhergestellten Seiten. Des Weiteren kann das Verfahren auch das zeitliche Synchronisieren der Fixierungsdaten mit den Ereignisdaten und Kalibrieren eines Koordinatensystems der Blickrichtungsmessungsdaten auf ein Bildschirm-Koordinatensystem umfassen, das beim Betrachten der Anzeige von dynamischen Multimedia-Seiten verwendet wird.
  • Einige Beispiele von erfindungsgemäßen Systemen und Verfahren werden im Folgenden unter Bezugnahme auf die folgenden begleitenden Zeichnungen beschrieben:
  • 1 ist eine schematische Darstellung eines Systems zum Analysieren von Blickrichtungsmessungsdaten in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung;
  • 2 ist eine schematische Darstellung eines Systems zum Analysieren von Blickrichtungsmessungsdaten in Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung;
  • 3 zeigt Tabelle 1, die im Detail das Ereignisprotokollschema in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung angibt;
  • 4 ist eine teilweise Ausgabe einer Elemente-Datenbank in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung; und
  • 5 ist eine teilweise Ausgabe einer Blickelemente-Datenbank in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung.
  • Wie aus der folgenden detaillierten Beschreibung hervorgeht, stellt die vorliegende Erfindung ein verbessertes System und Verfahren zum Analysieren von Blickrichtungsmessungsdaten bereit, die von einem Benutzer gesammelt werden, der die Anzeige von dynamischen Multimedia-Seiten betrachtet. Die beschriebene Erfindung minimiert die Interaktion und den Aufwand eines menschlichen Analysten, indem eine wesentliche Automatisierung der Punkte-Elemente-Zuordnung gestattet wird, die verwendet werden kann, um Elemente zu identifizieren, die der Benutzer fixiert hat, oder um Inhalt um die Elemente herum zu identifizieren. Es wird des Weiteren offenkundig, dass vorliegendes System und Verfahren eine umfassende Datenanalyse auf der Basis der erhaltenen Daten gestatten, weil die vorliegende Erfindung den Inhalt der Anzeige-Elemente ermittelt.
  • Die gegenwärtigen Anmelder haben erkannt, dass bessere Technologie und Techniken zum Analysieren und besseren Verständnis dessen erforderlich sind, wie die Aufmerksamkeit und die Aktionen eines Benutzers von verschiedenen Gesichtspunkten von Multimedia beeinflusst werden, wie beispielsweise Webseiten (oder "Websites") des World Wide Web ("WWW", "Web" oder "Internet"). Wenn sich solche Daten und Informationen problemlos erhalten lassen, lässt sich die Funktionalität der Multimedia beträchtlich verbessern und besser auslegen. Beispielsweise könnten solche Daten und Informationen, sofern sie problemlos erhalten werden können, dazu verwendet werden, Fragen wie die Folgenden zu beantworten:
    • – Achten Benutzer zuerst oder häufiger auf Elemente eines Typs im Vergleich zu einem anderen? Sehen Benutzer beispielsweise zuerst oder häufiger auf Abbildungen als auf textliche Link-Verankerungen? Ändert sich dies mit den spezifischen Zielen und/oder der spezifischen Site des Benutzers?
    • – Sehen Benutzer, wenn sie versuchen, einen Vorgang auszuführen, wie Beispielsweise einen Kauf auf einer Website prüfen, den "Hilfe"-Link, wenn sie sich nicht zurechtfinden?
    • – Zieht eine Version oder Platzierung einer Werbung mehr Aufmerksamkeit auf sich als eine andere? Führt eine häufiger zu einer nachfolgenden gewünschten Aktion als die andere?
    • – Wie ist das optimale, von Links beanspruchte Raumverhältnis im Vergleich zum "weißen Raum" ("white space") auf einer Webseite?
    • – Welche Wörter sieht ein Benutzer bzw. sieht sie nicht, wenn sie in einer vorgegebenen Aufgabe integriert sind? Ist eine Anordnung von Wörtern besser als eine andere?
  • Um die Sammlung solcher Daten und Informationen zu gestatten, wäre es erforderlich, eine Möglichkeit zu entwickeln, die Aufmerksamkeit des Benutzers in Bezug auf Hypertext-Elemente oder -Objekte in einer Webseite aufzuzeichnen und zu analysieren, auch wenn sich die Seiten häufig verändern können und Abschnitte einer Seite durch den Bildlauf in das oder aus dem Sehfeld des Benutzers gelangen. Demzufolge haben sich Forscher, Ingenieure, Designer, Prüfer und Vermarkter von Multimedia für Technologien interessiert, die aufzeichnen können, wie ein Benutzer auf Multimedia achtet und welche Aktionen sie während der Interaktion ausführen. Allerdings ist keine effiziente Lösung gefunden worden, um dieses Ziel zu erreichen, wobei die primären Probleme im Folgenden erläutert werden.
  • 1 zeigt eine schematische Darstellung eines Systems 2 zum Analysieren von Blickrichtungsmessungsdaten in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Es sollte zu Beginn angemerkt werden, dass das System 2 in 1 in einer schematischen charakteristischen Form gezeigt ist, da die verschiedenen Elemente des Systems 2 in Übereinstimmung mit der Ausführungsform auf einem normalen Rechner oder einer anderen Verarbeitungseinheit Software-implementiert sind. Dies sollte für den durchschnittlichen Computer- und Software-Fachmann im Hinblick auf die folgende Erläuterung offenkundig sein. Allerdings sollte angemerkt werden, dass die vorliegende Erfindung auch in Hardware oder Hardware/Software implementiert werden kann. Die analysierten Blickrichtungsmessungsdaten werden während einer Browser-Sitzung von einem Benutzer gesammelt, der einen Anzeigebildschirm, wie beispielsweise einen (nicht gezeigten) Monitor betrachtet, auf dem dynamische Multimedia-Seiten angezeigt werden, wie beispielsweise eine Webseite im World Wide Web über einen Browser 4, wie beispielsweise den Internet Explorer® von Microsoft®, der eine Objektmodell-Schnittstelle 6 umfasst, wie beispielsweise die Komponentenobjektmodell-(COM) Schnittstelle von Microsoft®, die ebenfalls im Folgenden detaillierter erläutert wird, da sie die vorliegende Erfindung betrifft. Unter diesem Aspekt wird die vorliegende Erfindung hierin im Folgenden als auf das World Wide Web 8 ("WWW". "Web" oder "Internet") angewendet beschrieben, auf das sie insbesondere anwendbar ist. Es sollte jedoch klar sein, dass die vorliegende Erfindung auch auf andere Anwendungen angewendet werden kann. Des Weiteren können, obwohl die Ausführungsform der vorliegenden Erfindung speziell den Internet Explorer® von Microsoft® für den Browser 4 und die COM-Schnittstelle von Microsoft® für die Objektmodell-Schnittstelle 6 verwendet, andere im Handel erhältliche oder eigene Browser und/oder Objektmodell-Schnittstellen ebenfalls problemlos verwendet werden.
  • Wie deutlich zu sehen ist, umfasst das System 2 auch eine Blickrichtungs-Verfolgungsvorrichtung 12, ein Protokollierungswerkzeug 16 und ein Zuordnungswerkzeug 22. Die Blickrichtungs-Verfolgungsvorrichtung 12 überwacht Ort und Uhrzeit des Blicks des Benutzers und speichert die Blickrichtungsmessungsdaten in einer Datendatei 14 der Blickrichtungs-Verfolgungseinrichtung, wobei die Blickrichtungsmessungsdaten die Blickpunkt-Informationen, d.h. Informationen, die für den Blick des Benutzers Indikativ sind, wenn der Benutzer eine Anzeige von dynamischen Multimedia-Seiten, wie beispielswei se Webseiten, auf dem Anzeigebildschirm betrachtet, sind. Selbstverständlich, wie vorher angemerkt, muss die vorliegende Erfindung nicht ausschließlich zum Analysieren von Daten von Webseiten verwendet werden, sondern kann auch für andere Anwendungen eingesetzt werden, wie beispielsweise andere Multimedia-Anwendungen. Die Blickrichtungsmessungsdaten in der Datendatei 14 der Blickrichtungs-Verfolgungsvorrichtung können in jeder geeigneten Weise gesammelt werden, beispielsweise durch Verwendung von Einrichtungen und Techniken, die vorher erläutert wurden und dem Stand der Technik entsprechen und somit hier nicht mehr detailliert erläutert werden.
  • Das Protokollierungswerkzeug 16 der vorliegenden Erfindung überwacht und speichert oder "protokolliert" den Inhalt der auf dem Anzeigebildschirm über den Browser 4 angezeigten Webseiten in einem Speicher 18. Das Protokollierungswerkzeug 16 kann ein rechnerimplementiertes Software-Programm oder ein Software-Modul dann sein, das die Überwachungsfunktionen ausführt und die Inhaltsdaten der Seiten in den Speicher 18 speichert. In dieser Hinsicht kann das Protokollierungswerkzeug 16 selbst in einem Informationen-Speichermedium, wie beispielsweise allen Variationen von Magnet-, optischen und Halbleiter-Speichern gespeichert sein, einschließlich Bildplatten, Disketten und sogar herunterladbaren Dateien auf einer Festplatte eines Rechners, auf die über ein Netzwerk zugegriffen werden kann. Der Speicher 18 kann jede Datenspeichereinrichtung oder Zuordnungen dann sein, einschließlich aller Variationen von Magnet-, optischen und Halbleiter-Speichern, wie beispielsweise eine Festplatte eines Rechners. In der Ausführungsform ist der Speicher 18 eine Zuordnung auf einer Festplatte eines Rechners, der das Protokollierungswerkzeug 16 ausführt. In der dargestellten Ausführungsform überwacht das Protokollierungswerkzeug 16 auch Ereignisse und Zeitdaten der Ereignisse, die eine Veränderung in den angezeigten Seiten verursachen, und speichert sie in einem Ereignisprotokoll 20, das eine Textdatei ist, die ebenfalls in einer Zuordnung auf der Festplatte des Rechners ist, der das Protokollierungswerkzeug 16 ausführt. Diese Ereignisse können den Bildlauf in den Seiten, das Aufrufen von Links und anderen Elementen, die auf den Seiten angezeigt werden, sowie alle anderen Aktionen umfassen, die eine Veränderung in den angezeigten Seiten verursachen.
  • Wie in 1 zu sehen ist, greift das Zuordnungswerkzeug 22 auf die oben beschriebene Objektmodell-Schnittstelle 6 des Browsers 4, die in der Datendatei 14 der Blickrichtungs-Verfolgungsvorrichtung gespeicherten Blickrichtungsmessungsdaten, die im Speicher 18 gespeicherten Seiten und das Ereignisprotokoll 20 zu, um damit eine wesentliche Automatisierung der Punkte-Elemente-Zuordnung in der hierin beschriebenen Weise zu gestatten. Insbesondere empfängt das Zuordnungswerkzeug 22 die Blickrichtungsmessungsdaten der Datendatei 14 der Blickrichtungs-Verfolgungsvorrichtung, führt eine Fixierungs-Zuordnung aus, welche die Blickrichtungsmessungsdaten in Fixierungsdaten verarbeitet, die eine Identifizierung der für den Benutzer interessanten Elemente und/oder Objekte, d.h. der Blickpunkte gestatten. Es ist anzumerken, dass der Begriff Fixierungsdaten hierin verwendet wird, um allgemein beliebige Informationen zu bezeichnen, die von den Blickrichtungsmessungsdaten abgeleitet werden, einschließlich Informationen, die von einer beliebigen Analysenebene der Blickrichtungsmessungsdaten abgeleitet werden. In dieser Hinsicht kann der Begriff Fixierungsdaten Informationen in Bezug auf die tatsächlichen Fixierungspunkte bedeuten, auf die der Benutzer den Blick fixiert hat, (die für das Interesse des Benutzers indikativ sind), Informationen in Bezug auf einen Bereich in der Nähe des Fixierungspunkts, der innerhalb einer grafischen Begrenzungslinie enthalten ist, oder Informationen in Bezug auf einen Übergang, der im Wesentlichen ein Cluster von Fixierungen ist, die über einen vorgegebenen Algorithmus zueinander in Beziehung stehen. Daher sollte beim Prüfen der folgenden detaillierten Erläuterung nicht vergessen werden, dass der im Folgenden hierin verwendete Begriff Fixierungsdaten allgemeine beliebige Informationen bezeichnet, die von den Blickrichtungsmessungsdaten abgeleitet werden.
  • Das Zuordnungswerkzeug 22 generiert eine Fixierungsdatenliste 34 mit den Fixierungsdaten, die von den Blickrichtungsmessungsdaten wie oben beschrieben abgeleitet werden. Wenn die Blickrichtungsmessungsdaten analysiert werden sollen, stellt das Zuordnungswerkzeug 22 die Webseiten als genau diejenigen wieder her, die von dem Benutzer während der Betrachtungssitzung betrachtet wurden. Insbesondere wird dies erreicht, indem die gespeicherten Seiten des Speichers 18 in den Cache-Speicher des Browsers 4 geladen werden, und indem das Ereignisprotokoll 20 über die Objektmodell-Schnittstelle 6 des Browsers ausgeführt wird, um damit ein präzises "Playback" dessen bereitzustellen, was von dem Benutzer betrachtet worden ist. Selbstverständlich sind Vorkehrungen getroffen, so dass der Analyst, der das vorliegende System 2 verwendet, die Wiedergabe der wiederhergestellten Seiten kontrollieren kann. Würde die Wiedergabe durch erneuten direkten Zugriff auf die Webseiten über das WWW erfolgen, könnte eine ungenaue Wiedergabe erfolgen, wenn sich die Webseite geändert hat, wobei eine solche Veränderung in solchen Multimedia-Seiten eine allgemeine Erscheinung ist. Während Browser 4 typischerweise einen Cache-Speicher aufweisen (oder zuordnen), um Webseiten, auf die zugegriffen wurde, zu speichern, ist ein solcher Speicher des Weiteren nicht sicher und kann leicht überschrieben werden. Daher wird durch Wiederherstellen der Webseiten aus dem Speicher 18 das Potenzial für eine ungenaue Wiedergabe auf Grund eines dieser Faktoren eliminiert.
  • Das Zuordnungswerkzeug 22 identifiziert auch Elemente der wiederhergestellten Seiten in der oben erläuterten Weise, indem auf die Objektmodell-Schnittstelle 6 des Browsers 4 zugegriffen wird, und speichert die identifizierten Elemente und die damit zusammenhängenden speziellen Informationen in einer Elemente-Datenbank 24. Dies wird problemlos erreicht, indem auf die Objektmodell-Schnittstelle 6 des Browsers 4 zugegriffen wird, der die Inhaltsinformationen für jedes der wiedergegebenen Elemente bereitstellt. Die "Elemente", auf die hierin Bezug genommen wird, sind die für den Benutzer interessanten semantischen Objekte auf Anwendungsebene, die im Allgemeinen HTML-Elemente sind, die der Browser 4 auf der Anzeigevorrichtung wiedergibt. Diese semantischen Objekte enthalten Text, Bilder, Hyperlinks, Schaltflächen, Eingabefelder usw. Wie das Protokollierungswerkzeug 16 kann das Zuordnungswerkzeug 22 ein rechnerimplementiertes Software-Programm oder ein Software-Modul dann sein, das die hierin beschriebenen Funktionen ausführt, wobei das Software-Programm in einem Informationen-Speichermedium gespeichert ist, wie beispielsweise allen Variationen von Magnet-, optischen und Halbleiter-Speichern, einschließlich Bildplatten, Disketten und sogar herunterladbaren Dateien auf einer Festplatte eines Rechners, auf die über ein Netzwerk zugegriffen werden kann.
  • Des Weiteren ordnet das Zuordnungswerkzeug 22 die Fixierungsdaten aus der oben beschriebenen Fixierungsdatenliste 34 zu der wiederhergestellten Anzeige zu, um damit anzugeben, worauf der Blick des Benutzers auf dem Anzeigebildschirm fixiert war. Verschiedene Informationen in Bezug auf die zugeordnete Fixierung werden in einer Blickelemente-Datenbank 26 gespeichert, wie beispielsweise ein Datensatz für jeden der Fixierungspunkte des Benutzers während der Browser-Sitzung, oder jede andere Information, die von den Blickrichtungsmessungsdaten abgeleitet wurde. In der Ausführungsform, in der Fixierungspunkte in der Fixierungsdatenliste 34 enthalten sind, enthalten die verschiedenen Informationen in Bezug auf die zugeordnete Fixierung Uhrzeit und Dauer der Fixierung sowie den Ort der Fixierung in relevanten Koordinatensystemen, wobei diese im Folgenden detaillierter erläutert werden. Daher automatisiert die vorliegende Erfindung im Wesentlichen die Punkt-Element-Zuordnung, was vorher nicht erreicht worden ist. Indem die Blickelemente-Datenbank 26 mit der oben erläuterten Elemente-Datenbank 24 in Beziehung gesetzt wird, wozu Werkzeuge wie beispielsweise Datenbankprogramme verwendet werden, ermöglicht es die vorliegende Erfindung einem Analysten, schnell und einfach zu bestimmen, welche Elemente der Benutzer fixiert hat (d.h. die tatsächlichen Blickelemente), ohne die Anzeigebildschirme manuell zu prüfen, wie dies bei Systemen und Verfahren des bisherigen Stands der Technik erforderlich war. Weil des Weiteren der Inhalt und die Eigenschaften des Elements, (beispielsweise sein HTML- oder XML-Tagname, seine grafische Begrenzungslinie auf dem Bildschirm, sein Text, sein Bitmap und die URL), aufgezeichnet werden, können diese Daten weiter durchsucht, sortiert oder anderweitig analysiert werden, um relevante Informationen zu erhalten, die sich auf die vorher gestellten Fragen beziehen.
  • Es sollte ebenfalls offenkundig sein, dass die vorliegende Erfindung Browser 4 nutzt, wie beispielsweise den Internet Explorer® von Microsoft®, der Eigenschaften von Anzeige-Elementen in symbolischer Form durch die Objektmodell-Schnittstelle, wie beispielsweise die COM-Schnittstelle, bereitstellt. Die vorliegende Erfindung greift auf den semantischen Inhalt der Elemente zu, um dadurch eine im Wesentlichen automatische Ermittlung der Blickelemente zu gestatten, und gestattet des Weiteren, dass die Datenanalyse gewünschte Informationen, wie beispielsweise eine Schriftart und den Inhalt eines Worts bestimmt.
  • Die vorliegende Erfindung stellt ein verbessertes System und Verfahren zum Analysieren von Blickrichtungsmessungsdaten bereit, die die Interaktion und den Aufwand des menschlichen Analysten minimieren, indem eine wesentliche Automatisierung der Punkte-Elemente-Zuordnung gestattet wird, die zum Identifizieren von Blickelementen verwendet werden kann. Die vorliegende Erfindung gestattet des Weiteren eine umfassende Datenanalyse auf der Basis der erhaltenen Daten, weil sie den Inhalt der Anzeige-Elemente ermittelt. Allerdings wird auf Grund der relativ hohen Ebene von Rechnerressourcen, die erforderlich sind, um dem Benutzer das Betrachten der Anzeige von dynamischen Multimedia-Seiten zu gestatten und die Blickrichtungs-Verfolgungsvorrichtung aufzuzeichnen und zu analysieren und wieder aufzuzeichnen, in Erwägung gezogen, dass in einer alternativen Ausführungsform der vorliegenden Erfindung ein getrennter Stimulus-Rechner zum Betrachten der Anzeige getrennt von dem Blickrichtungs-Messungsrechner bereitgestellt wird, so dass das Betrachten und/oder Sammeln von Daten nicht unterdrückt wird. Wahlweise kann auch ein getrennter Rechner oder Prozessor verwendet werden, um das Zuordnungswerkzeug zu implementieren. Wenn jedoch zwei oder mehrere Rechner zum Implementieren der oben beschriebenen Ausführungsform der vorliegenden Erfindung verwendet werden, treten spezielle Probleme auf, weil die präzise Uhrzeit und der Ort des Blicks des Benutzers von einem Rechner überwacht und aufgezeichnet werden, wogegen die dynamische Multimedia-Seite in einem anderen Rechner betrachtet und aufgezeichnet wird. Insbesondere sind die Koordinatensysterne der Blickrichtungs-Verfolgungsvorrichtung und der Anzeige des Stimulus-Rechners sehr wahrscheinlich nicht die Gleichen. Des Weiteren ist es unwahrscheinlich, dass die Zeitinformationen zwischen den verschiedenen Rechnern nicht die Gleichen sind, so dass eine präzise Wiederherstellung der angezeigten Seiten nicht möglich ist.
  • In einer solchen Ausführungsform kalibriert das Zuordnungswerkzeug das Koordinatensystem der in der Datendatei 14 der Blickrichtungs-Verfolgungsvorrichtung gespeicherten Blickrichtungsmessungsdaten auf das Koordinatensystem des Anzeigebildschirms, der zum Betrachten der dynamischen Multimedia-Seiten verwendet wird. Diese Kalibrierung gestattet es dem Zuordnungswerkzeug 22, die Orte des Blicks des Benutzers sowie die auf der Webseite angezeigten Elemente präzise zu positionieren, trotz der Tatsache, dass getrennte Rechner verwendet werden. Das Zuordnungswerkzeug 22 nimmt des Weiteren eine zeitliche Synchronisierung in den Daten vor, die durch die getrennten Rechner bereitgestellt werden, so dass eine präzise Wiederherstellung der Anzeige ermöglicht wird.
  • Die obige Erläuterung beschreibt allgemein die vorliegende Erfindung in ausreichendem Detail für einen durchschnittlichen Fachmann auf dem Gebiet von Rechnem und Computer-Wissenschaft, um die vorliegende Erfindung auszuüben. Um jedoch des Weiteren die Merkmale einer Ausführungsform der vorliegenden Erfindung zu beschreiben, in der getrennte Rechner zur Betrachtung und Blickrichtungsmessung verwendet werden, werden zusätzliche spezifische Details hierin im Folgenden dargelegt. Wie offenkundig wird, stellt die vorliegende Erfindung, wie sie im Folgenden erläutert wird, weitere Details in Bezug auf die vorliegende Erfindung zusammen mit verschiedenen Lösungen für die oben genannten Probleme beim Erreichen der Punkte-Elemente-Zuordnung in Anwendungen bereit, bei denen mehr als ein Rechner verwendet wird.
  • BROWSER und OBJEKTMODELL-SCHNITTSTELLE
  • 2 stellt eine weitere Ausführungsform des Systems 102 zum Analysieren von Blickrichtungsmessungsdaten bereit, die von einem Benutzer gesammelt werden, der die Anzeige von dynamischen Multimedia-Seiten betrachtet, wobei mehr als ein Rechner verwendet wird. Wie ersichtlich ist, wird eine Web-Studie mit Blickrichtungsmessung durch Überwachung und Blickrichtungsverfolgung eines Benutzers während einer Browser-Sitzung durchgeführt, in deren Verlauf der Benutzer eine Anzeige von dynamischen Multimedia-Seiten über einen Browser 104 betrachtet. Ein Stimulus-Rechner 150 wird verwendet, um für den Benutzer einen WWW-Zugriff 108 bereitzustellen, so dass der Benutzer das Web durchsuchen kann. Der Benutzer betrachtet verschiedene Webseiten über den Browser 104, wie beispielsweise den Microsoft Internet Explorer®, auf einer Rechner-Anzeigevorrichtung des Stimulus-Rechners 150. Wie auf dem Fachgebiet bekannt ist, ändert der Browser 104 die Anzeige als Antwort auf die Aktionen des Benutzers, wie beispielsweise das Navigieren zu verschiedenen Webseiten und/oder den Bildlauf. Die für den Benutzer interessanten semantischen Objekte auf Anwendungsebene sind HTML- oder XML-Elemente, die der Browser auf der Anzeigevorrichtung des Stimulus-Rechners wiedergibt, einschließlich Text, Bilder, Hyperlinks, Schaltfläche, Eingabefelder usw.
  • Das Protokollierungswerkzeug 116 und das Zuordnungswerkzeug 122 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung arbeiten nacheinander mit dem Browser 102, wie beispielsweise dem Internet Explorer® von Microsoft®, der eine Objektmodell-Schnittstelle 106 aufweist. Der Internet Explorer® stellt einen großen Teil von Funktionalität für andere Software-Teile über die Komponentenobjektmodell-(COM) Technologie von Microsoft® bereit. Die COM-Technologie gestattet es unabhängigen Software-Objekten, (d.h. Anwendungen oder einer Anwendung untergeordneten Widgets), über eine Software-Schnittstelle zu kommunizieren. In dieser Hinsicht wird die vorliegende Erfindung als so implementiert beschrieben, dass sie die COM-Technologie von Microsoft® verwendet, doch sollte angemerkt werden, dass andere Objektmodelle, wie beispielsweise CORBA, ebenfalls bei der Ausübung der vorliegenden Erfindung verwendet werden können.
  • Da sich die COM-Technologie von Microsoft® am einfachsten durch Anwendungen nutzen lässt, die in Visual Basic geschrieben sind, sind in einer Ausführungsform das Protokollierungswerkzeug 116 und das Zuordnungswerkzeug 122 beide in Visual Basic geschrieben. Die COM-Schnittstelle 106 des Browsers 104 umfasst wie die COM-Schnittstelle jeder Software, die COM unterstützt, eine Liste von Methoden, Eigenschaften und Ereignissen. Methoden sind Funktionen, die der Browser 104 von anderen Software-Teilen angewiesen werden kann auszuführen, wie beispielsweise die Navigation zu einer Webseite, Bildlauf im Browser-Fenster, Anklicken des Fensters des Internet Explorers®, Schreiben im Internet Explorer®-Fenster und Bewegen des Fensters. Eigenschaften sind Datenelemente des Internet Explorers®, deren Werte eingestellt werden können oder auf die durch andere Software-Teile zugegriffen werden kann, wie beispielsweise die Internetadresse (URL) der aktuell angezeigten Webseite, Fenstergröße und -position und die Position der Webseiten-Elemente in Bezug auf das Fenster des Internet Explorers®. Ereignisse gestatten es anderer Software, die Browser zu überwachen, da der Internet Explorer® Ereignisse bei gewissen Erscheinungen während seiner Ausführung auslöst (fires). Der Browser 104, wie beispielsweise der Internet Explorer® löst Ereignisse aus, wenn er das Navigieren zu einer Webseite beginnt und beendet, wenn er das Laden einer Webseite beginnt und beendet, wenn ein Benutzer auf einer Seite einen Bildlauf ausführt, auf sie klickt oder schreibt, und wenn ein Benutzer das Browser-Fenster bewegt oder dessen Größe anpasst. Wie hierin im Folgenden detaillierter erläutert werden wird, verwendet die vorliegende Erfindung diese Methoden, Eigenschaften und Ereigniskomponenten der Objektmodell-Schnittstelle 106 (wie beispielsweise COM von Microsoft®), um die angezeigte Seite wiederherzustellen, den Blick des Benutzers zuzuordnen und die symbolische Darstellung der anzeigten Elemente zu extrahieren, um dadurch eine im Wesentlichen automatisierte Identifizierung der Blickelemente zu gestatten.
  • BLICKRICHTUNGS-VERFOLGUNGSVORRICHTUNG
  • Der Blick des Benutzers wird überwacht und analysiert, wobei eine Reihe von Geräten verwendet wird, einschließlich einer Blickrichtungs-Verfolgungsvorrichtung 112, die in der Fachwelt bekannt ist. Eine typische Konfiguration für eine Blickrichtungs-Verfolgungsvorrichtung 112 umfasst eine auf dem Tisch befestigte Kamera, die ein Bild des Auges eines Benutzers an einen zweckgebundenen Blickrichtungsverfolgungs-Rechner sendet, der von dem Stimulus-Rechner getrennt ist, den der Benutzer während der Browser-Sitzung betrachtet. Dies wiederum ist auf die relativ hohe Ebene von Rechner-Ressourcen zurückzuführen, die zum Analysieren und Aufzeichnen der Blickdaten des Benutzers erforderlich ist. Jedoch kann mit der zunehmenden Rechenleistung und -kapazität der gleiche Rechner verwendet werden, wie oben in Bezug auf die zuerst erläuterte Ausführungsform beschrieben wurde. Die Blickrichtungs-Verfolgungsvorrichtung 112 überwacht und analysiert den Blick des Benutzers und speichert wenigstens den Ort und die Uhrzeit des Blicks des Benutzers, (d.h. den Blickpunkt) alle 1/60 einer Sekunde in der Datendatei 114 der Blickrichtungs-Verfolgungsvorrichtung. Die gespeicherten Blickrichtungsmessungsdaten können dann in Übereinstimmung mit der vorliegenden Erfindung analysiert werden.
  • PROTOKOLLIERUNGSWERKZEUG
  • Wie vorher oben beschrieben, überwacht das Protokollierungswerkzeug 116 der vorliegenden Erfindung Informationen, wie beispielsweise den Inhalt der über den Browser 104 angezeigten Webseiten und speichert oder "protokolliert" sie im Speicher 118. Wie ersichtlich ist, ist das Protokollierungswerkzeug 116 in der vorliegenden Erfindung im Stimulus-Rechner 150 implementiert, der von dem Blickrichtungsverfolgungs-Rechner 155 getrennt ist. Wegen der sich ständig ändernden Natur der dynamischen Multimedia-Seiten, wie beispielsweise Webseiten, kann die Verfügbarkeit der exakt gleichen Webseite in exakt der durch den Browser 104 angezeigten Form nicht garantiert werden, wenn diese Seiten wiederhergestellt werden müssen, um die Blickrichtungsmessungsdaten oder davon abgeleitete Fixierungsdaten zuzuordnen. Daher wird durch tatsächliches Speichern des Inhalts der durch den Browser 104 angezeigten Webseiten im Speicher 118 diese Verfügbarkeit der exakt gleichen Webseiten sichergestellt. In dieser Ausführungsform wird diese Überwachung und das Speichern des Inhalts der Webseiten problemlos erreicht, indem der Inhalt, der in dem lokalen plattenbasierten Cache-Speicher des Browsers gespeichert ist, in ein "sicheres" Verzeichnis, wie beispielsweise den Speicher 118 des Protokollierungswerkzeugs 116 kopiert wird, wo die Inhalte nicht ohne Weiteres überschrieben werden können.
  • Das Protokollierungswerkzeug 116 überwacht auch Ereignisse und Zeitdaten der Ereignisse, die eine Veränderung in der angezeigten Webseite verursachen, und speichert sie in einem Ereignisprotokoll 120. Das Ereignisprotokoll 120 ist eine Textdatei, die ein Format aufweist, das sich leicht in ein Standard-Datenbankprogramm importieren lässt. In einer Ausführungsform der vorliegenden Erfindung zeichnet das Protokollierungswerkzeug 116 für jedes Ereignis den Ereignisnamen, ereignisspezifische Parameter und die Uhrzeit des Ereignisses in vier verschiedenen Formaten auf: gesamte verstrichene Versuchszeit, Zeit seit dem letzten Ereignis, Tageszeit in maschinenlesbarem Format und Tageszeit in für den Menschen lesbarem Format. Das Datenbankkonzept für jedes Ereignis, das beim Generieren des Ereignisprotokolls 120 in Übereinstimmung mit der vorliegenden Ausführungsform verwendet wird, wird in Tabelle 1: EREIGNISPROTOKOLL-KONZEPT in 3 erläutert. Demnach speichert das Protokollierungswerkzeug 116 die vorgegebenen Ereignisnamen, wie in 3 dargelegt, bei einem Auftreten des entsprechenden Ereignisses in dem Ereignisprotokoll 120. Wie vorher angemerkt, umfassen diese Ereignisse solche Ereignisse, welche die angezeigte Webseite verändern (einschließlich Navigieren und Herunterladen), den Abschnitt der angezeigten Seite (wie beispielsweise beim Bildlauf), oder die Position und/oder Größe des Fensters des Browsers 104 in Bezug auf den Anzeigebildschirm, sowie Ereignisse, die sich auf räumliche Kalibrierung und zeitliche Synchronisierung beziehen, die im Folgenden im Detail erläutert werden.
  • Zusätzlich zu dem oben Genannten weist das Protokollierungswerkzeug 116 auch eine integrierte Kalibrierungspunkt-Funktion auf, die hintereinander mit der eigenen Kalibrierungsprozedur der Blickrichtungs-Verfolgungsvorrichtung 112 arbeitet. Während der räumlichen Kalibrierungsprozedur setzt das Protokollierungswerkzeug 116 einen Kalibrierungspunkt auf dem Anzeigebildschirm, (in diesem Beispiel an gegenüberliegenden Ecken), so dass der Benutzer auf sie blicken und sie fixieren kann. Der Analyst, der das vorliegende System 102 verwendet, gibt dann für die Blickrichtungs-Verfolgungsvorrichtung 112 an, dass der Benutzer einen gesetzten Kalibrierungspunkt fixiert. Die Blickrichtungs-Verfolgungsvorrichtung 122 sendet dann die Koordinaten des Kalibrierungspunkts zu dem Protokollierungswerkzeug 116 in dem Koordinatensystem der Blickrichtungs-Verfolgungsvorrichtung. Dieses Senden der Koordinaten kann über eine serielle Anschlussverbindung 117 oder eine andere Datenverbindung erreicht werden. Da eigent lich das Protokollierungswerkzeug 116 den Kalibrierungspunkt setzt, kennt es die Koordinaten des Punkts in dem Bildschirm-Koordinatensystem bereits. Wenn das Protokollierungswerkzeug 116 die Koordinaten des Kalibrierungspunkts in dem Koordinatensystem der Blickrichtungs-Verfolgungsvorrichtung empfängt, schreibt es ein Ereignis BLICKRICHTUNGS-VERFOLGUNGSVORRICHTUNGS-KALIBRIERUNG (EYETRACKERCALIBRATION) für jeden der Kalibrierungspunkte in das Ereignisprotokoll 120, wobei die Koordinaten der Kalibrierungspunkte der Blickrichtungs-Verfolgungsvorrichtung und des Bildschirms angegeben werden. Damit werden die Kalibrierungspunkte bereitgestellt, die dann verwendet werden können, um die angezeigten Seiten im Speicher 118 exakt wiederherzustellen und die Blickrichtungsmessungsdaten oder die davon abgeleiteten Fixierungsdaten zuzuordnen, wobei diese Gesichtspunkte im Folgenden weiter ausgeführt werden.
  • Des Weiteren weist das Protokollierungswerkzeug 116 eine integrierte Zeitpunkt-Synchronisierungsfunktion auf, mit der ein numerisches Markierungszeichen zu der Datendatei 114 der Blickrichtungs-Verfolgungsvorrichtung hinzugefügt wird, um eine zeitliche Synchronisierung zwischen den im Speicher 118 gespeicherten Seiten, dem Ereignisprotokoll 120 und den Blick-Informationen des Benutzers in der Datendatei 114 der Blickrichtungs-Verfolgungsvorrichtung zu gestatten. Insbesondere sendet das Protokollierungswerkzeug 116 ein numerisches Markierungszeichen, wie beispielsweise eine Zahl, nach jeweils einer vorgegebenen Zeitdauer, (wie beispielsweise eine Sekunde oder eine andere Zeitgröße), an die Blickrichtungs-Verfolgungsvorrichtung 112. Das numerische Markierungszeichen wird jedes Mal um Eins (oder eine andere Größe) erhöht, wenn es von dem Protokollierungswerkzeug 116 gesendet wird, und wird durch die Blickrichtungs-Verfolgungsvorrichtung 112 als Zeitinformation in der Datendatei 114 der Blickrichtungs-Verfolgungsvorrichtung aufgezeichnet. Das Senden des numerischen Markierungszeichens wird des Weiteren als ein BLICKRICHTUNGS-VERFOLGUNGSVORRICHTUNG-SYNCHRONISIERUNGS-Ereignis (EYETRACKER-SYNC event) im Ereignisprotokoll 120 aufgezeichnet. Die Übertragung des numerischen Markierungszeichens von dem Protokollierungswerkzeug 116 zu der Blickrichtungs-Verfolgungsvorrichtung 112 kann über die gleiche serielle Anschlussverbindung 117 oder eine andere Datenverbindung erreicht werden, die für die oben beschriebene räumliche Kalibrierung verwendet wurde. Diese Zeitpunkt-Synchronisierungsfunktion gestattet wiederum die zeitliche Synchronisierung zwischen den zwei Rechnern, so dass eine exakte Wieder herstellung der angezeigten Seiten und Zuordnung der Blickrichtungsmessungsdaten oder der davon abgeleiteten Fixierungsdaten erreicht werden kann, wobei diese Gesichtspunkte im Folgenden weiter erläutert werden.
  • ZUORDNUNGSWERKZEUG
  • Wie oben beschrieben greift das Zuordnungswerkzeug 122, wie in 2 gezeigt, auf die oben beschriebene Objektmodell-Schnittstelle 106 des Browsers 104, die in der Datendatei 114 der Blickrichtungs-Verfolgungsvorrichtung gespeicherten Blickrichtungsmessungsdaten, die im Speicher 118 gespeicherten angezeigten Bilder und das Ereignisprotokoll 120 zu, das von dem Protokollierungswerkzeug 116 bereitgestellt wird, um dadurch eine Punkte-Elemente-Zuordnung zu gestatten. Wegen der Rechner-Ressourcen, die zur Implementierung des Zuordnungswerkzeugs 122 erforderlich sind, implementiert die vorliegende Ausführungsform das Zuordnungswerkzeug 122 in einem getrennten Rechner 160. Es sollte angemerkt werden, dass das Zuordnungswerkzeug 122 selbstverständlich auch in dem gleichen Rechner wie das Protokollierungswerkzeug 116 oder sogar die Blickrichtungs-Verfolgungsvorrichtung 112 implementiert werden kann, da die Zuordnung nach dem Erhalten der Blickrichtungsmessungsdaten und der Ereignisdaten und nach dem Speichern der angezeigten Seiten erfolgt. Andere Implementierungen des Zuordnungswerkzeugs 122 sind ebenfalls möglich, wie beispielsweise in einem Server/Client-Netzwerk oder verteilter oder paralleler Verarbeitung. Wie vorher erläutert, führt das Zuordnungswerkzeug 122, sobald die Betrachtungssitzung und Datensammlung abgeschlossen und die Blickrichtungsmessungsdaten zu analysieren sind, eine Fixierungsanalyse aus und stellt dann die Webseiten als genau diejenigen, die von dem Benutzer während der Betrachtungssitzung betrachtet wurden, in der Weise wieder her, die in Bezug auf die erste Ausführungsform vorher beschrieben wurde. Wie ebenfalls vorher beschrieben wurde, identifiziert das Zuordnungswerkzeug 122 auch Elemente der Seiten, die in der oben erläuterten Weise wiederhergestellt wurden, indem auf die Objektmodell-Schnittstelle 106 des Browsers 104 zugegriffen wird, und speichert die identifizierten und die damit zusammenhängenden Elemente in einer Elemente-Datenbank 124. Dies wird wiederum problemlos erreicht durch Zugreifen auf die Objektmodell-Schnittstelle 6 des Browsers, der Inhaltsinformationen für jedes der wiedergegebenen Elemente bereitstellt. Außerdem verarbeitet das Zuordnungswerkzeug 122 des Weiteren die verfügbaren Daten, um eine Blickelemente-Datenbank 126 bereitzustellen, wie im Folgenden dargelegt wird. Schließlich führt das Zuordnungswerkzeug 122 auch eine räumliche Kalibrierung und eine Zeitsynchronisierung durch, die hierin im Folgenden detaillierter erläutert werden. Diese und andere Überlegungen in Bezug auf die vorliegende Erfindung werden im Folgenden ausführlich behandelt.
  • Fixierungspunkt-Analyse
  • Wie vorher angemerkt, wird der Begriff Fixierungsdaten hierin verwendet, um allgemein alle Informationen zu bezeichnen, die von den Blickrichtungsmessungsdaten abgeleitet wurden, einschließlich Informationen, die von jeder Analysenebene der Blickrichtungsmessungsdaten abgeleitet wurden. In den Ausführungsformen der vorliegenden Erfindung, in denen die Blickrichtungsmessungsdaten entweder die Fixierungspunkte sind, auf die der Benutzer den Blick fixiert hat, oder der Bereich um die Fixierungspunkte herum, müssen die Fixierungspunkte ausgehend von Blickpunkt-Daten ermittelt werden, die von der Blickrichtungs-Verfolgungsvorrichtung 112 bereitgestellt werden. In diesem Zusammenhang ist eine Fixierung normalerweise dann eingetreten, wenn der Blick der Augen des Benutzers während einer gewissen Mindestzeitdauer innerhalb eines gewissen kleinen Bereichs verbleibt, wodurch sichergestellt wird, dass der Blick des Benutzers tatsächlich auf ein für den Benutzer interessantes Element fokussiert ist. Es sollte jedoch verstanden werden, dass die Kriterien zum Ermitteln der Blickfixierung auf dem Gebiet der Blickrichtungsverfolgung unterschiedlich sein können, und dass verschiedene Kriterien zum Ausüben der vorliegenden Erfindung verwendet werden können. Nachdem das Zuordnungswerkzeug 122 mit den Blickrichtungsmessungsdaten, die in der Datendatei 114 der Blickrichtungs-Verfolgungsvorrichtung gespeichert sind, als Eingabe versorgt ist, führt das Zuordnungswerkzeug daher eine Fixierungsanalyse durch, um Fixierungsdaten bereitzustellen, die in der später verwendeten Fixierungsdatenliste 134 gespeichert werden. Des Weiteren sollte angemerkt werden, dass die oben beschriebene Fixierungspunkt-Analyse in anderen Ausführungsformen der vorliegenden Erfindung nicht erforderlich sein kann, in denen die Blickrichtungsmessungsdaten auf einer höheren Ebene verarbeitet werden, wie beispielsweise die vorher beschriebenen Übergänge, bei denen Informationen in Bezug auf ein Cluster von Fixierungen erhalten werden, die durch einen vorgegebenen Algorithmus zueinander in Beziehung stehen.
  • Räumliche Kalibrierung
  • Wie oben beschrieben wurde, wandelt die Fixierungsanalyse durch das Zuordnungswerkzeug die Blickrichtungsmessungsdaten der Datendatei 114 der Blickrichtungs-Verfolgungsvorrichtung in Fixierungsdaten der Fixierungsdatenliste 134 um. Die Fixierungsdaten sind wiederum alle Informationen, die von den Blickrichtungsmessungsdaten abgeleitet werden, gleichgültig, ob es sich um Informationen in Bezug auf die Fixierungspunkte, den Bereich in der Nähe der Fixierungspunkte oder Übergänge handelt. Die sich daraus ergebenden Fixierungsdaten befinden sich jedoch immer noch in dem zweidimensionalen Koordinatensystem der Blickrichtungs-Verfolgungsvorrichtung 112 selbst. Um zu verstehen, wie diese Daten mit den Elementen auf der getrennten Anzeigevorrichtung des Stimulus-Rechners zusammenhängen, auf die der Benutzer tatsächlich geblickt hat, führt das Zuordnungswerkzeug 122 der vorliegenden Erfindung eine räumliche Kalibrierung aus, bei der die Fixierungsdaten von dem Koordinatensystem der Blickrichtungs-Verfolgungsvorrichtung in das Koordinatensystem des Anzeigebildschirms umgewandelt werden.
  • Diese räumliche Kalibrierung wird mit Kalibrierungspunkten erreicht, die für die Blickrichtungs-Verfolgungsvorrichtung 112 und für das Ereignisprotokoll 120 durch das Protokollierungswerkzeug 116 bereitstellt werden, wie vorher beschrieben. Das Zuordnungswerkzeug 122 ist mit einem Protokolldatei-Syntaxanalysator 130, der so ausgelegt ist, dass er das Ereignisprotokoll 120 analysiert, und auch mit einem Daten-Syntaxanalysator 132 zum Analysieren der Datendatei 114 der Blickrichtungs-Verfolgungsvorrichtung ausgestattet. Insbesondere sucht der Protokolldatei-Syntaxanalysator 130 des Zuordnungswerkzeugs 122 zwei BLICKRICHTUNGS-VERFOLGUNGSVORRICHTUNGSKALIBRIERUNGS-Ereignisse (EYETRACKER-CALIBRATION event) als Kalibrierungspunkte an gegenüberliegenden Ecken des Anzeigebildschirms, die in dem Ereignisprotokoll 120 während der vorher erläuterten Kalibrierung der Blickrichtungs-Verfolgungsvorrichtung 122 aufgezeichnet wurden, und stellt die Koordinaten dieser Kalibrierungspunkte in dem Koordinatensystem des Anzeigebildschirms bereit. In ähnlicher Weise sucht der Daten-Syntaxanalysator 132 die entsprechenden Koordinaten zu den zwei Kalibrierungspunkten in dem Koordinatensystem der Blickrichtungs-Verfolgungsvorrichtung 122, die während der Kalibrierung der Blickrichtungs-Verfolgungsvorrichtung 122 in der Datendatei 114 der Blickrichtungs-Verfolgungsvorrichtung aufgezeichnet wurden. Es sollte angemerkt werden, dass der Protokolldatei-Syntaxanalysator 130 und der Daten- Syntaxanalysator 132 in der vorliegenden Ausführungsform Software-Module sind, die in dem Zuordnungswerkzeug 122 vorgesehen sind. Es sollte verstanden werden, dass diese Syntaxanalysatoren selbstverständlich auch getrennte Programme außerhalb des Zuordnungswerkzeugs 122 sein können. Wenn zwei (oder mehr) solche Kalibrierungspunkte bekannt und identifiziert sind, kann das Zuordnungswerkzeug 122 jeden Punkt aus dem Koordinatensystem der Blickrichtungs-Verfolgungsvorrichtung in einen Punkt in dem Koordinatensystem des Anzeigebildschirms umwandeln gemäß den folgenden Koordinatensystem-Umwandlungsformeln:
    Figure 00240001
    und
    Figure 00240002
    wobei (x1, y1) ein willkürlicher Punkt im Koordinatensystem 1 ist, (in diesem Fall beispielsweise das Koordinatensystem der Blickrichtungs-Verfolgungsvorrichtung 112), (XA1, YA1) und (XB1, YB1) verschiedene Kalibrierungspunkte im Koordinatensystem 1 sind, und (XA2, YA2) und (XB2, YB2) die entsprechenden Kalibrierungspunkte im Koordinatensystem 2 sind (in diesem Fall beispielsweise im Koordinatensystem des Anzeigebildschirms). Der Punkt (x2, y2) ist die Umwandlung von (x1, y1) in das Koordinatensystem 2. Unter Bezugnahme auf die oben bereitgestellten Umwandlungsformeln sollte angemerkt werden, dass beide der Koordinatensystem auf die gleiche Weise ausgerichtet sein sollten. Demnach sollten zum Beispiel die Koordinatensysteme der Blickrichtungs-Verfolgungsvorrichtung 112 und des Anzeigebildschirms beide positive Achsen aufweisen, die sich vom Ursprung aus nach rechts und unten erstrecken. Des Weiteren sollte ebenfalls angemerkt werden, dass andere Umwandlungstechniken und/oder Formeln in Verbindung mit der vorliegenden Erfindung verwendet werden können, und dass die obigen speziellen Umwandlungsformeln nur als die Formeln zum Erhalten der Umwandlung der Koordinatensysteme bereitgestellt sind. Daher verwendet das Zuordnungswerkzeug 122 effizient die Kalibrierungspunkte in dem Koordinatensystem, das von dem Protokollie rungswerkzeug 116 bereitgestellt wird, und Umwandlungsformeln, beispielsweise wie die oben bereitgestellten und erläuterten, um damit Punkte aus dem Koordinatensystem der Blickrichtungs-Verfolgungsvorrichtung 112 in das Koordinatensystem des Anzeigebildschirms umzuwandeln.
  • Zeitsynchronisierung
  • In Übereinstimmung mit der vorliegenden Ausführungsform der Erfindung beginnt die Blickrichtungs-Verfolgungsvorrichtung 112 damit, Blickrichtungsmessungsdaten (d.h. Blickpunkte) auszugeben, wenn die Blickrichtungs-Verfolgungsvorrichtung 112 in Betrieb ist oder anderweitig angewiesen wird, mit dem Aufzeichnen zu beginnen. Wie einem Fachmann klar ist, entspricht der Zeitpunkt, an dem die Blickrichtungs-Verfolgungsvorrichtung 112 mit dem Ausgeben der Blickrichtungsmessungsdaten beginnt, jedoch nicht notwendigerweise dem Beginn der Browser-Sitzung des Benutzers. Dies kann in der vorliegenden Ausführungsform der Fall sein, da die Blickrichtungs-Verfolgungsvorrichtung 112 auf einem anderen Rechner implementiert ist als das Protokollierungswerkzeug 116, das auf dem Stimulus-Rechner implementiert ist, auf dem die Browser-Sitzung läuft. Des Weiteren kann dies auch vorkommen unter der Bedingung, dass der Beginn des Einsatzes der Blickrichtungs-Verfolgungsvorrichtung 122 und des Protokollierungswerkzeugs 116 nicht simultan erfolgt. Demzufolge beziehen sich die Zeitinformationen in den Fixierungsdaten aus der oben erläuterten Fixierungsanalyse auf den Beginn der Aufzeichnung der Blickrichtungs-Verfolgungsvorrichtung 112, während Uhrzeiten von Ereignissen im Ereignisprotokoll 120 sich auf den Beginn der Browser-Sitzung beziehen. Zum exakten Zuordnen der Fixierungsdaten zu den wiederhergestellten Daten müssen die Fixierungsdaten zeitlich auf die Ereignisse in dem Ereignisprotokoll 120 aus der Browser-Sitzung abgestimmt werden.
  • Diese zeitliche Synchronisierung der Fixierungsdaten mit der Browser-Sitzung wird erreicht, indem die Synchronisierungs-Zeitpunkte (d.h. der Punkt zum Zeitpunkt eines numerischen Markierungszeichens, das vorher beschrieben wurde) in der Datendatei 114 der Blickrichtungs-Verfolgungsvorrichtung, die zeitlich einem bekannten Ereignis aus der Browser-Sitzung entsprechen, verwendet werden. Dazu verwendet das Zuordnungswerkzeug 122 den Protokolldatei-Syntaxanalysator 130, um ein numerisches Markierungszeichen für ein BLICKRICHTUNGS-VERFOLGUNGSVORRICHTUNGS-SYN CHRONISIERUNGS-Ereignis (EYTRACKER-SYNC event) zu suchen, das in dem Ereignisprotokoll 120 gespeichert ist, und verwendet auch den Daten-Syntaxanalysator 132, um das entsprechende numerische Markierungszeichen in der Datendatei 114 der Blickrichtungs-Verfolgungsvorrichtung zu suchen. Das BLICKRICHTUNGS-VERFOLGUNGSVORRICHTUNGS-SYNCHRONISIERUNGS-Ereignis (EYTRACKER-SYNC event) und das entsprechende numerische Markierungszeichen werden verwendet, um die Fixierungsdaten und die Ereigniszeitpunkte der Browser-Sitzung auf den gleichen Takt abzustimmen, der hierin als "Simulationstakt" bezeichnet wird. Der Nullpunkt des Simulationstakts entspricht dem Beginn der Browser-Sitzung, so dass Zeitdaten aus Ereignissen der Browser-Sitzung bereits auf den Simulationstakt abgestimmt sind. Die zeitliche Abstimmung der Fixierungsdaten auf den Simulationstakt wird unter Verwendung der Synchronisierungspunkte erhalten. Durch Subtrahieren des Zeitpunkts des Synchronisierungspunkts in den Daten der Browser-Sitzung vom Zeitpunkt des Synchronisierungspunkts in den Daten der Blickrichtungs-Verfolgungsvorrichtung kann ein "Synchronisierungs-Ausgangspunkt" ermittelt werden. Der Synchronisierungs-Ausgangspunkt ist der Punkt in Bezug auf den Beginn der Blickrichtungsmessung, der auf dem Simulationstakt Null entspricht und daher dem Beginn der Browser-Sitzung entspricht. Nach dem Ermitteln des Synchronisierungs-Ausgangspunkts wandelt das Zuordnungswerkzeug 122 der vorliegenden Ausführungsform die Zeiten für alle Fixierungsdaten gemäß der folgenden Formel in Zeiten auf dem Simulationstakt um: tsc = tet – t0 wobei tsc die Zeit der Fixierung auf dem Simulationstakt ist, tet die Zeit der Fixierung auf dem Takt der Blickrichtungs-Verfolgungsvorrichtung ist und t0 die Zeit des Synchronisierungs-Ausgangspunkts in Bezug auf den Beginn der Blickrichtungsmessung ist. Auf diese Weise werden die Fixierungsdaten mit der Browser-Sitzung so synchronisiert, dass alle Fixierungsdaten zu einem korrekten Zeitpunkt auf dem Simulationstakt angezeigt und einem Element zugeordnet werden. Selbstverständlich können in Übereinstimmung mit anderen Ausführungsformen der vorliegenden Erfindung auch andere Techniken verwendet werden, welche die gewünschte zeitliche Synchronisierung erzielen.
  • Zustands-Wiederherstellung
  • Wie vorher angemerkt, stellen das System 102 und das Verfahren in Übereinstimmung mit der vorliegenden Erfindung die angezeigten Seiten für eine vorgegebene interessante Zeit wieder her und identifizieren die Elemente, wie beispielsweise HTML-Elemente, die wiedergegeben wurden, und wo sie auf dem Anzeigebildschirm wiedergegeben wurden. Um die angezeigten Seiten korrekt wiederzugeben, wird jedes Ereignis, das die Anzeige ab dem ersten Anfangszustand bis zu dem Augenblick von Interesse verändert hat, durch die vorliegende Erfindung "neu ausgeführt", das dann im "Playback" erneut angezeigt werden kann. Dies wird durch das Zuordnungswerkzeug 122 erreicht, das die im Speicher 118 gespeicherten Seiten und die Aufzeichnung der Ereignisse, welche die Anzeige verändert haben, die im Ereignisprotokoll gespeichert sind, verwendet. Es sollte beachtet werden, dass diese Zustands-Wiederherstellung tatsächlich kontinuierlich mit dem fortschreitenden Simulationstakt abläuft. Bevor das Zuordnungswerkzeug 122 mit der Wiedergabe der wiederhergestellten Seiten beginnt, nimmt das Zuordnungswerkzeug den Inhalt der im Speicher 118 gespeicherten Seiten und stellt ihn im Cache-Speicher des Browsers 4 erneut her. Dann identifiziert das Zuordnungswerkzeug 122 die Elemente der Seiten durch Zugriff auf die Objektmodell-Schnittstelle 106 des Browsers 104, wie beispielsweise die COM-Schnittstelle von Microsoft® und speichert die identifizierten Elemente und die damit verbundenen spezifischen Informationen in der Elemente-Datenbank 124, wie im Folgenden ausführlicher beschrieben wird.
  • Damit wird während der Wiedergabe, wenn der Browser 104 auf eine dieser Seiten zugreift, diese in der Cache-Speicher-Version bereitgestellt, die mit derjenigen identisch ist, die vom Benutzer vorher während der Browser-Sitzung betrachtet wurde, an Stelle einer Version aus dem WWW, die unter Umständen nicht mehr die gleiche sein kann. Nach diesen ersten Schritten kann der Analyst, der mit dem Zuordnungswerkzeug 122 arbeitet, damit beginnen, den Simulationstakt vorlaufen zu lassen, um die Wiedergabe zu starten. Dazu sind Vorkehrungen getroffen, so dass der Analyst, der das vorliegende System 102 verwendet, die Wiedergabe der wiederhergestellten Seiten durch die Steuerung des Simulationstakts oder durch andere Mittel kontrollieren kann. Dazu arbeitet der Simulationstakt in Einheiten von Millisekunden, da 1 ms eine Untergrenze des Zeitunterschieds zwischen zwei Ereignissen im Ereignisprotokoll 120 oder zwischen zwei Fixierungspunkten ist.
  • Fixierungs-Elemente-Zuordnung
  • Wie vorher angemerkt, bedeutet der hierin verwendete Begriff Fixierungsdaten allgemein alle Informationen, die von den Blickrichtungsmessungsdaten abgeleitet werden, einschließlich Informationen, die von beliebigen Analysenebenen der Blickrichtungsmessungsdaten abgeleitet werden, wie beispielsweise Informationen in Bezug auf die tatsächlichen Fixierungspunkte, einen Bereich in der Nähe des Fixierungspunkts oder einen Übergang. Die Fixierungsdaten können dann in Übereinstimmung mit der vorliegenden Erfindung zugeordnet werden, um eine Identifizierung der für den Benutzer interessanten Elemente und/oder Objekte, d.h. Blickelemente, zu gestatten. Sobald diese Fixierungsdaten erhalten und in der Fixierungsdatenliste 134 gespeichert sind, und in der oben beschriebenen Weise ermittelt wurde, wie die Fixierungsdaten zeitlich und räumlich dem entsprechen, was auf dem Anzeigebildschirm betrachtet wurde, ordnet das Zuordnungswerkzeug 122 die Fixierungsdaten aus der Fixierungsdatenliste 134 auf der wiederhergestellten Anzeige zu, um Informationen darüber bereitzustellen, worauf der Blick des Benutzers auf dem Anzeigebildschirm fokussiert war. In Übereinstimmung mit einer Ausführungsform wird dies durch das Zuordnungswerkzeug 122 erreicht, das auf die Objektmodell-Schnittstelle 106, wie beispielsweise die COM-Schnittstelle zum Internet Explorer® von Microsoft®, in einer vorher erläuterten Weise zugreift, um Elementinformationen zu erhalten, die im Folgenden ausführlicher beschrieben werden.
  • Während der fortlaufenden Wiederherstellung und Wiedergabe durch den Analysten und den Vorläufen des Simulationstakts prüft das Zuordnungswerkzeug 122 das nächste Ereignis im Ereignisprotokoll 120 und die nächsten Fixierungsdaten in der Fixierungsdatenliste 134. Wenn der aktuelle Zeitpunkt des Simulationstakts gleich der verstrichenen Zeit eines Ereignisses ist, das in dem Ereignisprotokoll 120 gespeichert ist, weist das Zuordnungswerkzeug den Browser an, das Ereignis durch Methoden und Eigenschaften in der Objektmodell-Schnittstelle 106 "neu auszuführen". Entsprechend den im Ereignisprotokoll 120 gespeicherten Ereignissen ruft das Zuordnungswerkzeug 122 die geeigneten Methoden auf. Damit werden die Methoden für BILDLAUF-POSITION/BILDLAUF-AKTIV-Ereignisse (SCROLL-POSITION/ACTIVE-SCROLL events), FENSTERPOSITION/VERSCHIEBEN-AKTIV-Ereignisse (WINDOW-POSITION/ACTIVE MOVE events) und FENSTERGRÖSSE/ANPASSEN-AKTIV-Ereignisse (WINDOW-SIZE/ACTIVE-RESIZE events) aufgerufen, um im Browser-Fenster jeweils einen Bildlauf auszuführen, es zu verschieben oder seine Größe anzupassen. Bei DOKUMENT-FERTIG-Er eignissen (DOCUMENT-COMPLETE events) ruft das Zuordnungswerkzeug 122 eine Methode auf, um zu veranlassen, dass der Browser 104 zu der URL navigiert, die als der Parameter zu dem DOKUMENT-FERTIG-Ereignis (DOCUMENT-COMPLETE event) gespeichert ist.
  • Wenn der aktuelle Zeitpunkt des Simulationstakts gleich dem Zeitpunkt der Fixierungsdaten ist, wandelt das Zuordnungswerkzeug 122 die Koordinaten der Fixierungsdaten unter Verwendung der vorher erläuterten Koordinaten-Umwandlungsformeln in Bildschirm-Koordinaten um. Danach wandelt das Zuordnungswerkzeug 122 die Bildschirm-Koordinaten in die Fenster-Koordinaten des Browsers 104 um, wobei die Koordinaten-Umwandlungsformeln mit den Ecken des Fensters des Browsers 104, (auf die über die Eigenschaften der Objektmodell-Schnittstelle 106 zugegriffen werden kann), als Kalibrierungspunkte verwendet werden. Mit den Fensterkoordinaten der Fixierungsdaten aus der Fixierungsdatenliste 134 kann das Zuordnungswerkzeug 122 eine der Methoden der Objektmodell-Schnittstelle 106 aufrufen, die einen Adressenverweis auf das aktuelle, an einem bestimmten Punkt/Ort in dem Fenster angezeigte Webseiten-Element zurückgibt. Sobald das Zuordnungswerkzeug 122 über diesen Adressenverweis auf das Webseiten-Element verfügt, kann es auf die Eigenschaften des Element zugreifen, wie beispielsweise seinen HTML- oder XML-Tagnamen, seine grafische Begrenzungslinie auf dem Bildschirm, seinen Text, (falls es sich um ein Textelement handelt), sein Bitmap, (falls es sich um ein Bild handelt), und die URL, zu der es führt, (falls es sich um ein Hyperlink handelt).
  • Daher nimmt diese Fixierungs-Elemente-Zuordnung Fixierungsdaten in den Bildschirm-Koordinaten als Eingabe und gibt die Stelle des HTML- oder XML-Elements aus, (sofern vorhanden), das den Fixierungsdaten entsprechend wiedergegeben wird, wodurch das Blickelement identifiziert wird. Diese Ausgaben werden in der Blickelemente-Datenbank 126 gespeichert, die hierin im Folgenden erläutert wurde.
  • DATENBANKEN
  • Die primäre Ausgabe des Zuordnungswerkzeugs 122 ist eine Datenbank, die in ein Datenbankprogramm importiert werden kann, wie beispielsweise Microsoft® Access oder andere im Handel erhältliche oder eigene Datenbankprogramme. In der vorliegenden Ausführungsform gibt das Zuordnungswerkzeug 122 zwei Datenbanken in der Form von Textdateien aus. Insbesondere gibt das Zuordnungswerkzeug 122 eine Elemente-Datenbank 124 aus, die den Datensatz jedes HTML-Elements auf jeder angezeigten Seite enthält, die während der Browser-Sitzung betrachtet wurde. Des Weiteren gibt das Zuordnungswerkzeug 122 auch eine Blickelemente-Datenbank 126 aus, die einen Datensatz für jede Blickfixierung enthält, die während der Browser-Sitzung vorgenommen wurde.
  • Teilweise Ausgaben der Elemente-Datenbank 124 und der Blickelemente-Datenbank 126 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung werden jeweils in den 4 und 5 dargestellt, wobei die Fixierungsdaten die tatsächlichen Fixierungspunkte waren, auf die der Benutzer fokussiert war. Das in 4 dargestellte Beispiel von Daten 125, die in der Elemente-Datenbank 124 enthalten sind, umfasst die folgenden Informationen für jedes Element:
    • – Benutzerkennung
    • – Aufgabenkennung
    • – URL
    • – Lokaler Seitenspeicherort
    • – Element-Kennnummer, die für jedes Element einer bestimmten Seite eindeutig ist
    • – HTML-Tagname
    • – Elementtext
    • – Linke Koordinate der oberen linken Ecke der grafischen Element-Begrenzungslinie in logischem Seiten-Koordinatensystem
    • – Oberste Koordinate der oberen linken Ecke der grafischen Element-Begrenzungslinie in logischem Seiten-Koordinatensystem
    • – Breite der grafischen Element-Begrenzungslinie in Bildschirm-Pixeln
    • – Höhe der grafischen Element-Begrenzungslinie in Bildschirm-Pixeln
  • Das in 5 dargestellte Beispiel von Daten 127, die in der Blickelemente-Datenbank 126 der gleichen Ausführungsform enthalten sind, umfasst die folgenden Informationen für jedes Element:
    • – Benutzerkennung
    • – Aufgabenkennung
    • – Versuchsdatum und -uhrzeit
    • – URL
    • – Lokaler Seitenspeicherort
    • – Verstrichene Versuchszeit bei Beginn der Fixierung in Millisekunden
    • – Fixierungsdauer in Millisekunden
    • – Fixiertes Wort, falls vorhanden
    • – Horizontale Koordinate, logisches Seiten-Koordinatensystem
    • – Vertikale Koordinate, logisches Seiten-Koordinatensystem
    • – Horizontale Koordinate, Bildschirm-Koordinatensystem
    • – Vertikale Koordinate, Bildschirm-Koordinatensystem
    • – Horizontale Koordinate, Fenster-Koordinatensystem
    • – Vertikale Koordinate, Fenster-Koordinatensystem
    • – Horizontale Koordinate, Koordinatensystem der Blickrichtungs-Verfolgungsvorrichtung
    • – Vertikale Koordinate, Koordinatensystem der Blickrichtungs-Verfolgungsvorrichtung
  • Die während der Browser-Sitzung angezeigten Elemente, die in der Elemente-Datenbank 124 gespeichert sind, und die identifizierten Blickelemente in der Blickelemente-Datenbank 126 können dann zueinander in Beziehung gesetzt werden, indem ein Datenbankprogramm, wie beispielsweise Microsoft® Access oder ein anderes im Handel erhältliches oder eigenes Datenbankprogramm verwendet wird, um damit die Elemente zu identifizieren und auszugeben, die der Benutzer fixiert hat, oder um andere angezeigte, für den Benutzer interessante Objekte zu identifizieren. Dazu kann die Element-Kennnummer, die in der Blickelemente-Datenbank gespeichert ist, zu dem Element in Beziehung gesetzt werden, das die gleiche Element-Kennnummer in der Elemente-Datenbank 124 aufweist, um damit spezifische Informationen auszugeben, die sich auf das identifizierte Element beziehen, wie oben unter 4 erläutert. Daher automatisiert die vorliegende Erfindung im Wesentlichen die Punkt-Element-Zuordnung, was bisher nicht erreicht wurde. Durch die Korrelation der Blickelemente-Datenbank 126 mit der oben erläuterten Elemente-Datenbank 124 unter Verwendung von Werkzeugen, wie beispielsweise Datenbankprogrammen, ermöglicht es die vorliegende Erfindung dem Analysten, schnell und einfach zu ermitteln, welche Elemente genau der Benutzer fixiert hat, (d.h. die tatsächlichen Blickelemente), ohne die Anzeigebildschirme manuell zu prüfen, wie dies bei Systemen und Verfahren des bisherigen Stands der Technik erforderlich war.
  • Weil des Weiteren die tatsächlichen Inhalte der Elemente in der Elemente-Datenbank 124 gespeichert sind, sind Details und spezielle Informationen in Bezug auf die Elemente bekannt und zur Datenanalyse problemlos zugänglich. Daher ist bekannt, ob ein bestimmtes Element ein Bild, ein Link, ein Text, ein formatierter Text, eine Schaltfläche, Eingabefeld usw. ist, und die Elemente können identifiziert, sortiert oder anderweitig analysiert werden auf der Basis solcher Merkmale des Elements. Durch Bereitstellen zugänglicher Datenbanken, welche die visuelle Fixierung des Benutzers und Aktion in Bezug auf die Art, den Inhalt und den Ort der Multimedia-Elemente aufzeichnen, ermöglicht das System 102 zum Analysieren von Blickrichtungsmessungsdaten in Übereinstimmung mit der dargestellten Ausführungsform der vorliegenden Erfindung eine umfassende Analyse der aufgezeichneten Daten, um damit wertvolle Informationen und Antworten auf vorher gestellte Fragen bereitzustellen. Beispielsweise lässt sich aus der vorliegenden Erfindung die mittlere Augenmerk-Zeit ermitteln, die einzelnen Elementen gewidmet wird. Durch Klassifizieren von Elementen nach ihrer Art, beispielsweise "Überschriften" oder "Bilder", lässt sich die Zeitdauer ermitteln, die verschiedenen Arten von Anzeige-Elementen gewidmet wird. Des Weiteren kann ermittelt werden, ob Benutzer in bestimmten Situationen gewisse Links bemerkt haben. Beispielsweise lässt sich ermitteln, ob Benutzer, die einen Einkauf im Web nicht erfolgreich abschließen konnten, den Link zu einer "Hilfe-Seite" überhaupt gesehen haben. Die vorliegende Erfindung kann auch verwendet werden, um zu bestimmen, wie das Beobachten von Werbung und die Dauer in Abhängigkeit von der Platzierung auf der Seiten schwanken. Viele ähnliche Analysen sind möglich.
  • Aus dem Vorgenannten sollte es jetzt für einen durchschnittlichen Fachmann offenkundig sein, wie die vorliegende Erfindung ein verbessertes System und Verfahren zum Analysieren von Blickrichtungsmessungsdaten bereitstellt, die von einem Benutzer gesammelt werden, der die Anzeige von dynamischen Multimedia-Seiten betrachtet. Es sollte des Weiteren offenkundig sein, dass die vorliegende Erfindung die Interaktion und den Aufwand eines menschlichen Analysten minimiert, indem eine wesentliche Automatisierung der Punkte-Elemente-Zuordnung gestattet wird, die verwendet werden kann, um für den Benutzer interessante Elemente zu identifizieren. Es sollte ebenfalls offensichtlich sein, dass das vorliegende System und Verfahren eine umfassende Datenanalyse auf der Basis der erhaltenen Daten gestatten, weil die vorliegende Erfindung die Inhalte der Anzeige-Elemente ermittelt.

Claims (11)

  1. System zum Analysieren von Blickrichtungsmessungsdaten, die von einem Benutzer gesammelt werden, der eine Anzeige von dynamischen Multimedia-Seiten über einen Browser mit einer Objektmodell-Schnittstelle (object model interface) betrachtet, wobei das Verfahren umfasst: eine Blickrichtungs-Verfolgungsvorrichtung (12), die Speicherort und Uhrzeit des Blicks des Benutzers überwacht und Blickrichtungsmessungsdaten des Speicherorts und der Uhrzeit des Blicks des Benutzers speichert; ein Protokollierungs-Werkzeug (16), das angezeigte Seiten überwacht und Inhalt der angezeigten Seiten in einem Speicher speichert; und ein Zuordnungs-Werkzeug (22), das die Blickrichtungsmessungsdaten empfängt, die Blickrichtungsmessungsdaten in Fixierungsdaten (fixation data) verarbeitet, die das Interesse des Benutzers angeben, und die angezeigten Seiten aus dem Speicher wiederherstellt; wobei das Zuordnungs-Werkzeug die Fixierungsdaten zu den wiederhergestellten Seiten zuweist, um dadurch Blickelemente (elements of regard), die der Benutzer fixiert hat, und deren Speicherorte zu identifizieren, indem es auf die Objektmodell-Schnittstelle des Browsers zugreift und die identifizierten Blickelemente und deren Speicherorte speichert, wobei das Protokollierungs-Werkzeug (16) so ausgelegt ist, dass in einem Ereignisprotokoll Ereignisse und Zeitdaten der Ereignisse überwacht und gespeichert werden, die eine Veränderung in den angezeigten Seiten verursachen, und wobei das Zuordnungs-Werkzeug so ausgelegt ist, dass die Ereignisdaten in dem Ereignisprotokoll durch Wiederholen der Ereignisse der Ereignisdaten wiederhergestellt werden.
  2. System zum Analysieren von Blickrichtungsmessungsdaten nach Anspruch 1, in dem das Zuordnungs-Werkzeug (22) so ausgelegt ist, dass es auf die Objektmodell-Schnittstelle des Browsers (4) zugreift, um Elemente der wiederhergestellten Seiten zu identifizieren, und die identifizierten Elemente der wiederhergestellten Seiten in einer Elemente-Datenbank speichert.
  3. System zum Analysieren von Blickrichtungsmessungsdaten nach einem der Ansprüche 1 oder 2, in dem die Fixierungsdaten wenigstens eine von Informationen in Bezug auf Fixierungspunkte sind, auf die der Blick des Benutzers fixiert wird, Informationen in Bezug auf einen Bereich in der Nähe eines Fixierungspunkts, der in einer grafischen Begrenzungslinie enthalten ist, und Informationen in Bezug auf einen Übergang, der ein Cluster von Fixierungspunkten ist, die über einen vorgegebenen Algorithmus zueinander in Beziehung stehen.
  4. System zum Analysieren von Blickrichtungsmessungsdaten nach einem der Ansprüche 1 bis 3, in dem das Protokollierungs-Werkzeug (16) Ereignisse und Zeitdaten der Ereignisse überwacht und speichert, die eine in einem Ereignisprotokoll angezeigte Veränderung in den Seiten verursachen, und die angezeigten Seiten aus dem Speicher und den Ereignisdaten in dem Ereignisprotokoll wiederherstellt, indem die Ereignisse der Ereignisdaten auf den wiederhergestellten Seiten wiederholt werden.
  5. System zum Analysieren von Blickrichtungsmessungsdaten nach Anspruch 1, in dem die Zeit des Zuordnungs-Werkzeugs (mapping tool time) die Fixierungsdaten mit den Ereignisdaten synchronisiert.
  6. Verfahren zum Analysieren von Daten, die von einem Benutzer gesammelt werden, der eine Anzeige von dynamischen Multimedia-Seiten über einen Browser (4) mit einer Objektmodell-Schnittstelle betrachtet, umfassend: Überwachen von Speicherort und Uhrzeit des Blicks des Benutzers und Speichern des Speicherorts und der Uhrzeit des Blicks als Blickrichtungsmessungsdaten; Verarbeiten der Blickrichtungsmessungsdaten in Fixierungsdaten, die das Interesse des Benutzers angeben; Überwachen des Inhalts der angezeigten Seiten und Speichern des Inhalts der angezeigten Seiten in einem Speicher; Wiederherstellen der angezeigten Seiten aus dem Speicher; Zuordnen der Fixierungsdaten zu den wiederhergestellten Seiten; Zugreifen auf die Objektmodell-Schnittstelle des Browsers zum Identifizieren von Elementen der wiederhergestellten Seiten; und Speichern der identifizierten Elemente der wiederhergestellten Seiten in einer Elemente-Datenbank, wobei Ereignisse und Zeitdaten der Ereignisse überwacht werden, die eine Veränderung in den angezeigten Seiten verursachen; Speichern der Ereignisse und entsprechenden Zeitdaten, welche die Veränderung in den angezeigten Seiten verursachen, in einem Ereignis-Protokoll; und Wiederherstellen der Ereignisdaten in dem Ereignis-Protokoll durch Wiederholen der Ereignisse der Ereignisdaten.
  7. Verfahren zum Analysieren von Blickrichtungsmessungsdaten nach Anspruch 6, in dem die Fixierungsdaten wenigstens eine von Informationen in Bezug auf Fixierungspunkte sind, auf die der Blick des Benutzers fixiert wird, Informationen in Bezug auf einen Bereich in der Nähe eines Fixierungspunkts, der in einer grafischen Begrenzungslinie enthalten ist, und Informationen in Bezug auf einen Übergang, der ein Cluster von Fixierungspunkten ist, die über einen vorgegebenen Algorithmus zueinander in Beziehung stehen.
  8. Verfahren zum Analysieren von Blickrichtungsmessungsdaten nach einem der Ansprüche 6 bis 7, des Weiteren umfassend das Überwachen und Speichern von Ereignissen und Zeitdaten der Ereignisse, die eine Veränderung in den Seiten verursachen, die als Ereignisdaten angezeigt werden, wobei die angezeigten Seiten aus dem Speicher und die Ereignisdaten durch Wiederholen der Ereignisse der Ereignisdaten auf den wiederhergestellten Seiten wiederhergestellt werden.
  9. Verfahren zum Analysieren von Blickrichtungsmessungsdaten nach Anspruch 8, des Weiteren umfassend Zeit zum Synchronisieren der Fixierungsdaten mit den Ereignisdaten.
  10. Verfahren zum Analysieren von Blickrichtungsmessungsdaten nach einem der Ansprüche 6 bis 9, des Weiteren umfassend das Kalibrieren eines Koordinatensystems der Blickrichtungsmessungsdaten auf ein Bildschirm-Koordinatensystem, das zum Betrachten der Anzeige von dynamischen Multimedia-Seiten verwendet wird.
  11. Ein Computerprogramm-Produkt, das Anweisungen zum Durchführen eines Verfahrens gemäß einem der Ansprüche 6 bis 10 speichert.
DE60110193T 2000-12-08 2001-12-03 System und Verfahren zur Analyse von Blickrichtungsmessungsdaten Expired - Lifetime DE60110193T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US731783 2000-12-08
US09/731,783 US6601021B2 (en) 2000-12-08 2000-12-08 System and method for analyzing eyetracker data

Publications (2)

Publication Number Publication Date
DE60110193D1 DE60110193D1 (de) 2005-05-25
DE60110193T2 true DE60110193T2 (de) 2006-02-09

Family

ID=24940933

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60110193T Expired - Lifetime DE60110193T2 (de) 2000-12-08 2001-12-03 System und Verfahren zur Analyse von Blickrichtungsmessungsdaten

Country Status (4)

Country Link
US (1) US6601021B2 (de)
EP (1) EP1213642B1 (de)
JP (1) JP4063532B2 (de)
DE (1) DE60110193T2 (de)

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020165967A1 (en) * 2001-05-02 2002-11-07 Morgan Paul A. Global personalization engine
US6997556B2 (en) * 2001-10-01 2006-02-14 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
US6850933B2 (en) * 2001-11-15 2005-02-01 Microsoft Corporation System and method for optimizing queries using materialized views and fast view matching
US6712468B1 (en) * 2001-12-12 2004-03-30 Gregory T. Edwards Techniques for facilitating use of eye tracking data
US7271806B2 (en) 2002-12-18 2007-09-18 Microsoft Corporation International automatic line height system and method
US20040119714A1 (en) * 2002-12-18 2004-06-24 Microsoft Corporation International automatic font size system and method
US7385606B2 (en) * 2002-12-18 2008-06-10 Microsoft Corporation International font measurement system and method
US7881493B1 (en) * 2003-04-11 2011-02-01 Eyetools, Inc. Methods and apparatuses for use of eye interpretation information
FR2861197B1 (fr) * 2003-10-16 2008-06-27 France Telecom Procede et systeme de determination d'une reaction d'un utilisateur d'un dispositif de traitement
JP4396450B2 (ja) * 2003-10-29 2010-01-13 セイコーエプソン株式会社 視線誘導度算出システムおよび視線誘導度算出プログラム、並びに視線誘導度算出方法
JP2005148779A (ja) * 2003-11-11 2005-06-09 Hitachi Ltd 情報端末、ログ管理装置、コンテンツ提供装置、コンテンツ提供システム及びログ管理方法
US8721341B2 (en) * 2004-03-02 2014-05-13 Optimetrics, Inc. Simulated training environments based upon foveated object events
US9652032B2 (en) * 2004-03-02 2017-05-16 Brian T. Mitchell Simulated training environments based upon fixated objects in specified regions
JP4207883B2 (ja) * 2004-03-24 2009-01-14 セイコーエプソン株式会社 視線誘導度算出システム
EP1607840B1 (de) 2004-06-18 2015-01-28 Tobii Technology AB Augenkontrolle einer Rechnervorrichtung
EP1821215B1 (de) 2004-10-22 2011-11-30 Access Co., Ltd. Parametereinstell- und speicherverfahren
US8996486B2 (en) * 2004-12-15 2015-03-31 Applied Invention, Llc Data store with lock-free stateless paging capability
US11321408B2 (en) 2004-12-15 2022-05-03 Applied Invention, Llc Data store with lock-free stateless paging capacity
US7922670B2 (en) * 2005-02-24 2011-04-12 Warren Jones System and method for quantifying and mapping visual salience
WO2006110472A2 (en) * 2005-04-07 2006-10-19 User Centric, Inc. Website evaluation tool
US8775975B2 (en) 2005-09-21 2014-07-08 Buckyball Mobile, Inc. Expectation assisted text messaging
US20070088714A1 (en) * 2005-10-19 2007-04-19 Edwards Gregory T Methods and apparatuses for collection, processing, and utilization of viewing data
US8602791B2 (en) * 2005-11-04 2013-12-10 Eye Tracking, Inc. Generation of test stimuli in visual media
US8156186B2 (en) 2005-11-11 2012-04-10 Scenera Technologies, Llc Method and system for organizing electronic messages using eye-gaze technology
US8209620B2 (en) 2006-01-31 2012-06-26 Accenture Global Services Limited System for storage and navigation of application states and interactions
US7599520B2 (en) * 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
US7760910B2 (en) * 2005-12-12 2010-07-20 Eyetools, Inc. Evaluation of visual stimuli using existing viewing data
CN103823556B (zh) * 2006-07-28 2017-07-04 飞利浦灯具控股公司 用于被凝视物品的信息显示的凝视交互
US8060304B2 (en) 2007-04-04 2011-11-15 Certusview Technologies, Llc Marking system and method
US7640105B2 (en) 2007-03-13 2009-12-29 Certus View Technologies, LLC Marking system and method with location and/or time tracking
US8473209B2 (en) 2007-03-13 2013-06-25 Certusview Technologies, Llc Marking apparatus and marking methods using marking dispenser with machine-readable ID mechanism
US9086277B2 (en) 2007-03-13 2015-07-21 Certusview Technologies, Llc Electronically controlled marking apparatus and methods
EP2042969A1 (de) * 2007-09-28 2009-04-01 Alcatel Lucent Verfahren zur Bestimmung der Benutzerreaktion auf spezifischen Inhalt einer angezeigten Seite
US20090112694A1 (en) * 2007-10-24 2009-04-30 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Targeted-advertising based on a sensed physiological response by a person to a general advertisement
US20090112693A1 (en) * 2007-10-24 2009-04-30 Jung Edward K Y Providing personalized advertising
US9582805B2 (en) * 2007-10-24 2017-02-28 Invention Science Fund I, Llc Returning a personalized advertisement
US9513699B2 (en) * 2007-10-24 2016-12-06 Invention Science Fund I, LL Method of selecting a second content based on a user's reaction to a first content
US20090113297A1 (en) * 2007-10-24 2009-04-30 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Requesting a second content based on a user's reaction to a first content
US20090112696A1 (en) * 2007-10-24 2009-04-30 Jung Edward K Y Method of space-available advertising in a mobile device
US8532342B2 (en) 2008-02-12 2013-09-10 Certusview Technologies, Llc Electronic manifest of underground facility locate marks
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
US8965700B2 (en) 2008-10-02 2015-02-24 Certusview Technologies, Llc Methods and apparatus for generating an electronic record of environmental landmarks based on marking device actuations
US8280631B2 (en) 2008-10-02 2012-10-02 Certusview Technologies, Llc Methods and apparatus for generating an electronic record of a marking operation based on marking device actuations
US8424486B2 (en) 2008-07-10 2013-04-23 Certusview Technologies, Llc Marker detection mechanisms for use in marking devices and methods of using same
JP2010061218A (ja) * 2008-09-01 2010-03-18 Fujifilm Corp ウェブ広告効果測定装置、ウェブ広告効果測定方法及びプログラム
US20100198663A1 (en) 2008-10-02 2010-08-05 Certusview Technologies, Llc Methods and apparatus for overlaying electronic marking information on facilities map information and/or other image information displayed on a marking device
US8510141B2 (en) 2008-10-02 2013-08-13 Certusview Technologies, Llc Methods and apparatus for generating alerts on a marking device, based on comparing electronic marking information to facilities map information and/or other image information
US8600526B2 (en) 2008-10-02 2013-12-03 Certusview Technologies, Llc Marking device docking stations having mechanical docking and methods of using same
US20100188407A1 (en) 2008-10-02 2010-07-29 Certusview Technologies, Llc Methods and apparatus for displaying and processing facilities map information and/or other image information on a marking device
US8442766B2 (en) 2008-10-02 2013-05-14 Certusview Technologies, Llc Marking apparatus having enhanced features for underground facility marking operations, and associated methods and systems
KR101644421B1 (ko) * 2008-12-23 2016-08-03 삼성전자주식회사 사용자의 관심 정도에 기반한 컨텐츠 제공장치 및 방법
US20100169792A1 (en) * 2008-12-29 2010-07-01 Seif Ascar Web and visual content interaction analytics
US20100295774A1 (en) * 2009-05-19 2010-11-25 Mirametrix Research Incorporated Method for Automatic Mapping of Eye Tracker Data to Hypermedia Content
CA2710269C (en) 2009-08-11 2012-05-22 Certusview Technologies, Llc Locating equipment communicatively coupled to or equipped with a mobile/portable device
CA2713282C (en) 2009-08-20 2013-03-19 Certusview Technologies, Llc Marking device with transmitter for triangulating location during marking operations
CA2710189C (en) 2009-08-20 2012-05-08 Certusview Technologies, Llc Methods and apparatus for assessing marking operations based on acceleration information
CA2809013A1 (en) 2009-08-20 2011-02-24 Certusview Technologies, Llc Methods and marking devices with mechanisms for indicating and/or detecting marking material color
IT1399456B1 (it) * 2009-09-11 2013-04-19 Sr Labs S R L Metodo e apparato per l'utilizzo di generiche applicazioni software attraverso controllo oculare e opportune metodologie di interazione.
US9223854B2 (en) * 2009-10-14 2015-12-29 Hewlett-Packard Development Company, L.P. Document relevance determining method and computer program
US9047256B2 (en) * 2009-12-30 2015-06-02 Iheartmedia Management Services, Inc. System and method for monitoring audience in response to signage
US9373123B2 (en) 2009-12-30 2016-06-21 Iheartmedia Management Services, Inc. Wearable advertising ratings methods and systems
WO2012021898A2 (en) 2010-08-13 2012-02-16 Certusview Technologies, Llc Methods, apparatus and systems for surface type detection in connection with locate and marking operations
EP2450803A1 (de) * 2010-11-03 2012-05-09 Research In Motion Limited System und Verfahren zum Anzeigen von Suchergebnissen auf einem elektronischen Gerät
US8849845B2 (en) * 2010-11-03 2014-09-30 Blackberry Limited System and method for displaying search results on electronic devices
KR20120053803A (ko) * 2010-11-18 2012-05-29 삼성전자주식회사 시선 궤적을 이용한 컨텐츠 표시 장치 및 방법
WO2012133841A1 (ja) 2011-03-30 2012-10-04 日本電気株式会社 データ関連度判定装置、データ関連度判定方法、および、記録媒体
US8510166B2 (en) * 2011-05-11 2013-08-13 Google Inc. Gaze tracking system
US10598929B2 (en) 2011-11-09 2020-03-24 Google Llc Measurement method and system
US8879155B1 (en) * 2011-11-09 2014-11-04 Google Inc. Measurement method and system
US20130145304A1 (en) * 2011-12-02 2013-06-06 International Business Machines Corporation Confirming input intent using eye tracking
KR101638812B1 (ko) * 2012-04-23 2016-07-12 인텔 코포레이션 관찰 정보의 검색 및 관련 특정 컨텍스트의 검색을 위해 안구 운동 추적을 사용하는 시스템, 방법 및 컴퓨터 프로그램 제품
US9046917B2 (en) 2012-05-17 2015-06-02 Sri International Device, method and system for monitoring, predicting, and accelerating interactions with a computing device
US9086881B2 (en) * 2012-06-29 2015-07-21 Intel Corporation Mechanism for facilitating write tracking for following data eye movements across changing thermal conditions in memory systems
US9537706B2 (en) 2012-08-20 2017-01-03 Plentyoffish Media Ulc Apparatus, method and article to facilitate matching of clients in a networked environment
US8990843B2 (en) * 2012-10-26 2015-03-24 Mobitv, Inc. Eye tracking based defocusing
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
ES2751380T3 (es) 2012-12-11 2020-03-31 Ami Klin Sistemas y métodos para detectar inhibición de parpadeo como marcador de cautivación y prominencia de estímulo percibido
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US11568008B2 (en) * 2013-03-13 2023-01-31 Plentyoffish Media Ulc Apparatus, method and article to identify discrepancies between clients and in response prompt clients in a networked environment
US9672289B1 (en) 2013-07-23 2017-06-06 Plentyoffish Media Ulc Apparatus, method and article to facilitate matching of clients in a networked environment
WO2015057321A1 (en) 2013-10-17 2015-04-23 Children's Healthcare Of Atlanta, Inc. Methods for assessing infant and child development via eye tracking
US9256785B2 (en) * 2013-11-12 2016-02-09 Fuji Xerox Co., Ltd. Identifying user activities using eye tracking data, mouse events, and keystrokes
TWI510913B (zh) * 2013-11-12 2015-12-01 Inst Information Industry 測試裝置及其測試方法
US9870465B1 (en) 2013-12-04 2018-01-16 Plentyoffish Media Ulc Apparatus, method and article to facilitate automatic detection and removal of fraudulent user information in a network environment
US9552437B1 (en) * 2014-06-24 2017-01-24 Outbrain Inc. Content position recommendations
US9782069B2 (en) * 2014-11-06 2017-10-10 International Business Machines Corporation Correcting systematic calibration errors in eye tracking data
EP3220288A1 (de) 2014-11-14 2017-09-20 Fujitsu Limited Websitedarstellungsverfahren, websitedarstellungsverfahren und websitedarstellungsvorrichtung
KR20160071139A (ko) * 2014-12-11 2016-06-21 삼성전자주식회사 시선 캘리브레이션 방법 및 그 전자 장치
US9898865B2 (en) * 2015-06-22 2018-02-20 Microsoft Technology Licensing, Llc System and method for spawning drawing surfaces
US10241855B2 (en) * 2016-11-14 2019-03-26 International Business Machines Corporation Recovery of first failure data capture logs
US10877969B2 (en) 2018-03-16 2020-12-29 International Business Machines Corporation Augmenting structured data
GB2577711A (en) * 2018-10-03 2020-04-08 Lumen Res Ltd Eye-tracking methods, apparatuses and systems
CN113051508A (zh) * 2019-12-27 2021-06-29 中国电信股份有限公司 检测页面中的页面元素的点击流量的方法、系统及介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4789235A (en) 1986-04-04 1988-12-06 Applied Science Group, Inc. Method and system for generating a description of the distribution of looking time as people watch television commercials
US4931865A (en) 1988-08-24 1990-06-05 Sebastiano Scarampi Apparatus and methods for monitoring television viewers
US5231674A (en) 1989-06-09 1993-07-27 Lc Technologies, Inc. Eye tracking method and apparatus
US5204703A (en) 1991-06-11 1993-04-20 The Center For Innovative Technology Eye movement and pupil diameter apparatus and method
US5471542A (en) 1993-09-27 1995-11-28 Ragland; Richard R. Point-of-gaze tracker
US5410376A (en) 1994-02-04 1995-04-25 Pulse Medical Instruments Eye tracking method and apparatus
US5886683A (en) * 1996-06-25 1999-03-23 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven information retrieval
AU1091099A (en) 1997-10-16 1999-05-03 Board Of Trustees Of The Leland Stanford Junior University Method for inferring mental states from eye movements
US6091378A (en) 1998-06-17 2000-07-18 Eye Control Technologies, Inc. Video processing methods and apparatus for gaze point tracking
US6106119A (en) 1998-10-16 2000-08-22 The Board Of Trustees Of The Leland Stanford Junior University Method for presenting high level interpretations of eye tracking data correlated to saved display images

Also Published As

Publication number Publication date
EP1213642B1 (de) 2005-04-20
EP1213642A1 (de) 2002-06-12
JP4063532B2 (ja) 2008-03-19
US20020103625A1 (en) 2002-08-01
DE60110193D1 (de) 2005-05-25
JP2002238856A (ja) 2002-08-27
US6601021B2 (en) 2003-07-29

Similar Documents

Publication Publication Date Title
DE60110193T2 (de) System und Verfahren zur Analyse von Blickrichtungsmessungsdaten
EP2350873B1 (de) Erfassung des visuellen inhalts von browserfenstern
DE69815695T2 (de) Netzwerkübermittlung interaktiver unterhaltung zur ergänzung von audio-aufzeichnungen
DE60123843T2 (de) System und verfahren zum erfassen von browser-sitzungen und von aktionen des benutzers
DE10306294B4 (de) Evaluierung von Benutzerfreundlichkeitskenngrößen für ein Dialog-Anzeigegerät
EP1097428B1 (de) System und verfahren zum prüfen von netzwerk-anwendungen
DE69717351T2 (de) Verfahren, System und Rechnerprogrammprodukt zur Unterstützung eines Rechnerbenutzers bei der Wiederherstellung von verlorenem Kontext
DE69720186T2 (de) Inhaltsanzeigemonitor
DE10353846A1 (de) Verfahren zur Vorbereitung von für die Durchführung von medizinischen oder chirurgischen Eingriffen bestimmten Geräten
EP2691934B1 (de) Phantombilddatenbank (3d)
EP3168783A1 (de) Verfahren und vorrichtung zum auswerten von ergebnissen einer blickerfassung
DE102012221513A1 (de) Verfahren und System zum Bereitstellen zusätzlicher Daten einem grafischen Schnittstellenelement
DE19913509A1 (de) Verfahren zum Suchen und Identifizieren relevanter Dokumente
EP2084610B1 (de) Computergestütztes verfahren zur ferngesteuerten erfassung des userverhaltens bei der rezeption von webseiten
DE112013000393T5 (de) Zuordnung von Webanwendungsinhalten
DE10118898A1 (de) Vorrichtung und Verfahren zur Verarbeitung von Lesezeichenereignissen für eine Webseite
Soomro et al. HTML and multimedia Web GIS
EP3340072B1 (de) Verfahren zur durchführung einer selbsttätigen datenabfrage und programmprodukt
DE10306304B4 (de) Vorrichtung zur Unterstützung der Benutzerfreundlichkeits-Evaluierung
DE19942647C2 (de) Verfahren und Vorrichtung zur automatischen Wiedergabe elektronischer Datensätze
DE10108564A1 (de) Verfahren zur Suche nach in einem verteilten System aktuell oder früher gespeicherten Daten oder Daten enthaltenden Ressourcen unter Berücksichtigung des Zeitpunkts ihrer Verfügbarkeit
DE69910352T2 (de) Verfahren zum Kontrollieren der Arbeitsumgebung von Betriebsangestellten
EP1380928A2 (de) Vorrichtung und Verfahren zum Untersuchen von Bildern
DE10030856B4 (de) Verfahren, Computerprogramm, Computersystem, Netzwerkserver und Netzwerkclient zur Übertragung und Bereitstellung von Daten in einem Computersystem
AT506572B9 (de) Verfahren zur messung der visuellen aufmerksamkeit bei der betrachtung von statischen und dynamischen visuellen szenen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
R082 Change of representative

Ref document number: 1213642

Country of ref document: EP

Representative=s name: GRUENECKER, KINKELDEY, STOCKMAIR & SCHWANHAEUS, DE