[go: up one dir, main page]

DE10029644B4 - Verfahren zur Relevanzbewertung bei der Indexierung von Hypertext-Dokumenten mittels Suchmaschine - Google Patents

Verfahren zur Relevanzbewertung bei der Indexierung von Hypertext-Dokumenten mittels Suchmaschine Download PDF

Info

Publication number
DE10029644B4
DE10029644B4 DE10029644A DE10029644A DE10029644B4 DE 10029644 B4 DE10029644 B4 DE 10029644B4 DE 10029644 A DE10029644 A DE 10029644A DE 10029644 A DE10029644 A DE 10029644A DE 10029644 B4 DE10029644 B4 DE 10029644B4
Authority
DE
Germany
Prior art keywords
documents
document
references
indexing component
indexing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10029644A
Other languages
English (en)
Other versions
DE10029644A1 (de
Inventor
Thomas Dr. Hoppe
Helmut Oertel
Oliver Kai Paulus
Marc Ewert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsche Telekom AG
Original Assignee
NEOFONIE TECHNOLOGIEENTWICKLUN
NEOFONIE TECHNOLOGIEENTWICKLUNG und INFORMATIONSMANAGEMENT GmbH
Deutsche Telekom AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEOFONIE TECHNOLOGIEENTWICKLUN, NEOFONIE TECHNOLOGIEENTWICKLUNG und INFORMATIONSMANAGEMENT GmbH, Deutsche Telekom AG filed Critical NEOFONIE TECHNOLOGIEENTWICKLUN
Priority to DE10029644A priority Critical patent/DE10029644B4/de
Publication of DE10029644A1 publication Critical patent/DE10029644A1/de
Application granted granted Critical
Publication of DE10029644B4 publication Critical patent/DE10029644B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Verfahren zur Relevanzbewertung bei der Indexierung von Hypertext-Dokumenten mittels Suchmaschine, bei dem Hypertext-Dokumente in der Indexierungskomponente der Suchmaschine ausgewertet werden, dadurch gekennzeichnet, dass es in eine Aufbauphase, eine Aktualisierungsphase und eine Anfragephase unterteilt ist,
– dass in der Aufbauphase die Hypertext-Dokumente in der Indexierungskomponente gleichzeitig auf das Vorhandensein von Verweisen, speziell markierten und nicht-markierten Textinhalten durchsucht werden, wobei
a) bei der Identifizierung von Verweisen, für jede aus diesen Verweisen bestimmbare Adresse ein neuer Dokumenteneintrag in der Indexierungskomponente angelegt bzw. ein bereits vorhandener Dokumenteneintrag aktualisiert wird, dass für die in den Verweisen verwendeten Begriffe der Ankertexte ebenfalls ein neuer Termeintrag in der Indexierungskomponente angelegt wird bzw. ein bereits vorhandener Termeintrag aktualisiert wird, und dass für jeden Begriff des Ankertextes ein partieller Relevanzwert vorausberechnet wird,
b) bei der Identifizierung von speziell markierten Textinhalten, für jede ermittelte Markierung ein neuer Termeintrag in der Indexierungskomponente angelegt bzw. ein bereits angelegter Termeintrag...

Description

  • Die Erfindung bezieht sich auf ein Verfahren zur Relevanzbewertung bei der Indexierung von Hypertext-Dokumenten mittels Suchmaschine.
  • Konventionelle Suchmaschinen arbeiten in der Regel auf dem Prinzip der Volltextindexierung. Bei der Volltextindexierung wird pro Dokument die Häufigkeitsverteilung von Begriffen des Dokuments oder eines Teils des Dokuments in einem invertierten Index erfasst. Dieser Index wird benutzt, um zum Anfragezeitpunkt die Dokumente zu bestimmen, in denen die gesuchten Begriffe auftreten. Des weiteren wird an Hand einer systemspezifischen Relevanzbewertungsfunktion für jedes Dokument ein Relevanzwert ermittelt. Auf der Basis der Relevanzwerte werden die Ergebnisdokumente anschließend sortiert ausgegeben. Wesentlich hierbei ist die Tatsache, dass zur Bewertung nur die Begriffe herangezogen werden, die auch im Dokument auftreten.
  • Bei der Relevanzwertberechnung können bestimmte Elemente des Dokuments stärker gewichtet werden als der normale Textinhalt. Hierzu zählen:
    • • Meta-Informationen, insbesondere werden Inhalts-beschreibende Stichworte ausgewertet
    • • Titel und Überschriften
    • • Die ersten Zeilen eines Dokuments
    • • Anzahl der Verweise auf das Dokument
    • • Ankertexte von Verweisen auf andere Dokumente
    • • Abstand zwischen Begriffen
    • • Phrasen
  • Die Ermittlung des Relevanzwertes erfolgt auf der Basis der relativen Häufigkeiten der Begriffe mit Hilfe von Informations-theoretischen Methoden. Kurze Dokumente, in denen die gesuchten Begriffe häufig auftreten, werden als relevanter bzgl. der angefragten Begriffe bewertet als längere Dokumente oder Dokumente, in denen die gesuchten Begriffe seltener auftreten. Entsprechend der informations-theoretischen Betrachtungsweise werden seltene Begriffe – bezogen auf den gesamten Dokumentenbestand – stärker gewichtet als Begriffe, die im gesamten Dokumentenbestand häufiger auftreten.
  • Verbunden mit diesem Ansatz sind folgende Probleme:
    • • Reine Volltextindexierung wurde für kleine, kontrollierte Dokumentenmengen konzipiert, die nicht notwendigerweise als verknüpfter Hypertext ausgelegt sind. Eine Übernahme der Volltextindexierung für Hypertexte (wie z.B. das World-Wide-Web (WWW) oder Web-basierte Intranets) nutzt die in den – in Hypertexten verwendeten – Verweisen kodierte Information nicht aus.
    • • Es können lediglich Begriffe gesucht werden, die in den Dokumenten selber auftreten, bzw. für die mit Hilfe eines Thesaurus synonyme Begriffe bestimmt werden können, die in den Dokumenten auftreten.
    • • Das Vorkommen von Begriffen einer Anfrage in einem Dokument sagt in der Regel wenig bzgl. der Relevanz des Dokuments bezogen auf die Anfrage aus, da die Bedeutung der Begriffe nicht erfasst wird und damit auch keine Aussagen über die Bedeutung des gesamten Dokuments möglich sind. Um dieses Defizit auszugleichen, wurden Ansätze entwickelt, bei denen die Dokumentautoren die Bedeutung des Dokuments in Form von Meta-Beschreibungen annotieren und bei denen das Vorkommen der gesuchten Begriffe in den Meta-Beschreibungen stärker gewichtet wird und so zu einem höheren Relevanzwert führt.
    • • Der Dokumentenautor wird nicht alle möglichen Bedeutungen des Dokuments erfassen und somit wird das Dokument nur für die vom Dokumentenautor erfassten Bedeutungen als relevanter betrachtet werden als andere Dokumente.
    • • Durch die höhere Gewichtung der Meta-Beschreibungen ist die Relevanzbewertung bei unkontrollierten Dokumentenmengen offen für Manipulationen – als Spamming bezeichnet –, da die Dokumentenautoren willkürliche Begriffe in den Meta-Beschreibungen verwenden können.
  • Ein bekanntes Verfahren zur Relevanzbewertung bei der Indexierung von Texten basiert auf dem Lycos System. Bei dieser Lösung, die einer der ersten kommerziellen Suchmaschinen des WWW zugrunde liegt, wurden neben einer eingeschränkten Volltextindexierung, die lediglich die hundert „wichtigsten" Begriffe des Dokuments indexierte, zwei neue Konzepte eingeführt. Erstens, wurden Begriffe die in speziell ausgezeichneten Dokumentteilen auftraten (wie z.B. Titel, Überschriften, den ersten 20 Zeilen des Dokuments) bei der Relevanzbewertung stärker gewichtet als bei ihrem Auftreten in anderen Bestandteilen des Dokuments. Zweitens, floss in die Relevanzbewertung eines Dokuments bzgl. der Suchanfrage zum erste Mal eine Information über die „Dokumentenumgebung" in Form der „Anzahl der externen Verweise auf das Dokument" – als Popularität bezeichnet – mit ein, so dass Ergebnisdokumente, auf die sehr oft von anderen Dokumenten aus verwiesen wird, als „relevanter" betrachtet werden als Dokumente, auf die seltener verwiesen wird (Mauldin 97).
  • Die „Anzahl der externen Verweise auf ein Dokument" kann als eine Form eines „citation index" betrachtet werden, mit dem zwar in einigen Fällen die Qualität des Suchergebnisses verbessert werden kann, welches aber nicht in allen Fällen funktioniert. So werden beispielsweise bei einer Suche mit Lycos nach den Begriffen „Deutsche Telekom" ältere Presseveröffentlichungen als „populärer" betrachtet als die Homepage der Deutschen Telekom, auf die mit großer Wahrscheinlichkeit weitaus öfter verwiesen werden dürfte. Insofern erscheint die veröffentlichte Aussage über die Berücksichtigung der Popularität als fragwürdig.
  • Darüber hinaus werden hierdurch Meta-Beschreibungen des Inhalts nur im Rahmen der Methoden der eingesetzten eingeschränkten Volltextindexierung berücksichtigt.
  • Bekannt ist weiterhin ein mit Rankdex bezeichnetes Verfahren. Mit Rankdex wurde eine erste experimentelle Implementierung (http://rankdex.gari.com/) einer neuen Relevanzbewertungsfunktion veröffentlicht, welche auf dem Prinzip des „Hyper Vektor Votings" (HVV) basiert (Li 98). Bei dieser Bewertungsmethode werden sowohl die Popularität als auch die „Texte – als Ankertexte bezeichnet –, die in externen Verweisen auf ein Dokument verwendet werden" berücksichtigt, so dass „Dokumente, auf die häufig mit den gesuchten Begriffen verwiesen wird" als relevanter betrachtet werden als „Dokumente, auf die seltener mit den gesuchten Begriffen verwiesen wird". Der Inhalt der Dokumente wird bei dieser Methode – bis auf die Ankertexte nicht berücksichtigt.
  • Diesem Verfahren liegt die Beobachtung zu Grunde, dass Dokumentautoren, die auf ein anderes Dokument verweisen, den Verweis in den meisten Fällen mit einer kurzen und sehr prägnanten Beschreibung versehen, die den Inhalt des Dokuments, auf das verwiesen wird, sehr gut beschreibt, so dass der verwendete Ankertext als Meta-Beschreibung betrachtet werden kann. Wird beispielsweise ein Verweis mit den Begriffen „Deutsche Telekom" versehen, so wird man durch den Verweis in den meisten Fällen auf die Homepage der Deutschen Telekom verwiesen werden.
  • Die Meta-Beschreibungen der Ankertexte werden in der Regel von einer Vielzahl von Autoren erzeugt, wobei diese durchaus auch alternative Begriffe in den Ankertexten verwenden werden. So ist es beispielsweise möglich, dass auf die „Homepage" der Deutschen Telekom im WWW auch mit den Ankertexten „Homepage der Deutschen Telekom", „Deutsche Telekom AG", „Telekom", „German Telekom" etc. verwiesen wird. All diese Ankertexte können als alternative Meta-Beschreibungen betrachtet werden.
  • Die Gefahr des Spammings ist zwar auch bei diesem Ansatz gegeben, da prinzipiell ein Dokumentautor durch die gezielte Verwendung von bestimmten Ankertexten die Relevanzbewertungsfunktion manipulieren kann. Dennoch ist der Einfluss dieser Form des Spammings auf die Relevanzbewertungsfunktion jedoch vergleichsweise gering, da sie durch die Anzahl und Art der Ankertexte, die von anderen Autoren verwendet werden, nivelliert wird.
  • Mit dieser Form der Relevanzbewertung ist es darüber hinaus möglich, auch Dokumente zu finden, in denen die Suchbegriffe selber nicht auftreten, die aber mit den Suchbegriffen beschrieben werden können. Des Weiteren können auch Dokumente in anderen Sprachen gefunden werden, bzw. Dateien mit nicht-textuellem Inhalt, wie z.B. Bild-, Audio-, Video-, oder Archivdateien oder ausführbare Programme.
  • Der Rankdex Ansatz ist jedoch dadurch beschränkt, dass er den eigentlichen Inhalt der Dokumente nicht berücksichtigt.
  • Bei Rankdex handelt es sich um eine experimentelle Implementierung einer Suchmaschine, die auf HVV basiert. Zu Testzwecken wurden bei diesem Experiment 1997 5.3 Millionen Internetseiten gesammelt und ein Index von rund 100MB aufgebaut. Durch einen Vergleich mit anderen Suchmaschinen konnte nicht nur die Qualität der Ergebnisse unter Beweis gestellt werden, es konnten ebenfalls die Vorteile und die der bereits oben beschriebene Nachteil identifiziert werden. Rankdex konnte bisher nicht inspiziert oder getestet werden, da die publizierte URL http://rankdex.gari.com/ bisher nicht zugreifbar war.
  • Mit dem Ansatz von Google (Bryn & Page, 98) wurde eine Methode vorgestellt, mit der die Nachteile reiner Volltextindexierung, der alleinigen Beurteilung der Popularität und der Ankertexte behoben wurden.
  • Der mit Google vorgestellte Ansatz beruht darauf, dass alle zu verarbeitenden Dokumente aus dem WWW geladen und lokal gespeichert werden. Aus diesen Dokumenten wird die topologische Verweisstruktur extrahiert und ebenfalls gespeichert. Mit einer Bewertungsfunktion wird der „sogenannte PageRank" mit Hilfe eines in mehreren Durchlaufen konvergierenden, iterativen Algorithmus berechnet. Der PageRank eines Dokuments errechnet sich aus den PageRanks „aller Dokumente, die auf das Dokument verweisen" und betrachtet lediglich die topologische Verweisstruktur und nicht den Inhalt der Dokumente. Da eine Rückwärtsverfolgung von Verweisen im WWW nicht möglich ist, kommt dieser Ansatz nicht umhin, alle Dokumente – resp. einen Großteil – zunächst zu laden und die topologische Verweisstruktur lokal zu speichern, bevor mit der Berechnung des PageRanks begonnen werden kann.
  • Bedingt durch die lokale Speicherung der Dokumente und der topologischen Verweisstruktur wird viel Speicherplatz benötigt.
  • Die Berechnung des PageRanks erfolgt dann selber in einem Stück, so dass der verwendete Algorithmus als „kompilierend" bezeichnet werden kann. (Bryn & Page 98) schreiben „a PageRank of 26 million web pages can be computed in a few hours". Zusammen mit einem anderen Prozess – als Sorter bezeichnet –, der rund 24 Stunden für die Sortierung dieser Datenmenge benötigt, benötigt der Aktualisierungsprozess von 26 Mio. Dokumente des Indexes demnach weit mehr als 24 Stunden. Wie dies zu der zuletzt geschätzten Indexgröße von rund 190 Mio. Dokumenten skaliert, und ob dies weiter optimiert wurde, ist unbekannt.
  • Zwar terminiert die Berechnung des PageRanks bei den Dokumenten, auf die von keinem anderen Dokument aus verwiesen wird, so dass deren PageRank prinzipiell als konstant betrachtet werden könnte. Das garantiert aber nicht, dass nicht irgendwann doch auf die Dokumente verwiesen wird, so dass die Berechnung des PageRanks bei einer Aktualisierung auch für diese Dokumente immer von Neuem erfolgen muss.
  • Bedingt durch den kompilierenden Ansatz bei der PageRank Berechnung kann eine Aktualisierung des Indexes nur in zeitlich größeren Abständen erfolgen.
  • In die eigentliche Berechnung des Relevanzwerts der Suchergebnisse fließen neben dem PageRank und den Standardmaßen des Information Retrievals weitere Informationen ein, wie z.B. das Vorkommen der Suchbegriffe im Titel, in Ankertexten, URLs oder speziell ausgezeichneten Textteilen und – bei Mehrwortanfragen – die Nähe zwischen den Vorkommen der einzelnen Begriffe. Wie diese Informationen miteinander verknüpft werden, ist nicht bekannt.
  • Bei Google handelt es sich um eine Internetsuchmaschine, die aus einem Projekt der Stanford University hervorging, welches 1998 in der Gründung der Firma Google, Inc. münde te. Aus der Zeit vor der Firmengründung sind detailliertere und publizierte Informationen über Google bekannt.
  • Bei Google werden wie bei Rankdex Ankertexte gesondert bewertet. Hierbei liegt der Unterschied der Verfahren, neben der gesonderten Bewertung anderer Textkomponenten, in der Bewertungsfunktion. Zwar wurde für Google diese Bewertungsfunktion nicht im Detail veröffentlicht, dennoch ist bekannt, dass sie neben dem Dokumentinhalt auch die Positionen der gesuchten Begriffe im Dokument, Formatierungsinformationen, Ankertexte und den PageRank des Dokuments miteinander kombiniert.
  • Der PageRank eines Dokuments ist ein globaler Wert, der unabhängig vom Inhalt allein aus der topologischen Struktur des WWWs bestimmt wird und als „Zitierungsgrad" interpretiert werden kann. Vereinfacht gesprochen erhalten Dokumente, auf die von „wichtigen" Dokumenten verwiesen wird, einen höheren PageRank als Dokumente, auf die von „unwichtigen" Dokumenten verwiesen wird. Je öfter auf ein Dokument verwiesen wird, desto „wichtiger" wird es eingestuft.
  • Der PageRank kann allein aus der topologischen Struktur, der Anzahl der Verweise und dem PageRank anderer Dokumente bestimmt werden Zur Berechnung des PageRank eines Dokuments wird der PageRank aller Dokumente verwendet, die auf das Dokument verweisen. Zur korrekten Berechnung des rekursiv definierten PageRanks eines Dokuments muss somit der PageRank der auf sie verweisenden Dokumente bekannt sein.
  • Hieraus ergibt sich konsequenterweise der Schluss, dass bei einer Änderung des PageRanks eines Dokuments nicht nur dessen PageRank aktualisiert werden muss, sondern auch der PageRank aller von diesem Dokument aus erreichbaren Dokumente. Im schlimmsten Fall muss bei der Änderung eines Dokuments der PageRank aller Dokumente des Index neu berechnet werden.
  • Für Google wurde nicht beschrieben, wie die Bewertungsfunktion die einzelnen bewerteten Informationen kombiniert. Insofern ist auch unklar, wie Informationen aus dem Ankertexten mit dem PageRank kombiniert werden. Den Publikationen über Google kann entnommen werden, dass eine Änderung von Dokumenten zwar permanent in den Index aufge nommen wird, die Berechnung des PageRanks und die Sortierung des Index jedoch in einer Stapelverarbeitung (Batch-Lauf) erfolgt, die allein für die parallele Sortierung von 24 Mio. Dokumenten auf vier Rechnern rund 24 Stunden benötigt. Hieraus ergibt sich die Folgerung, dass ein Index-Update als Stapelverarbeitung durchgeführt wird, und somit Indexaktualisierungen nur in zeitlich größeren Abständen erfolgen.
  • Aus DE 198 42 320 A1 sind ein Verfahren und eine Einrichtung zur inhaltsbezogenen Suche von elektronischen Dokumenten bekannt. Die Lösung basiert auf einem Index mit elementaren und allgemein verständlichen Relationen, die es erlauben, jeden Sachverhalt abzubilden. Mit diesen auf den jeweiligen Suchgegenstand inhaltlich bezogenen Kategorisierungselementen werden die Informationen, beispielsweise im Web, mit den bekannten Suchmaschinen abgefragt und die Ergebnisse entsprechend der Kategorisierungselemente ausgewertet. Mit diesen Kategorien ist es auch möglich, unbekannte Textdokumente automatisch nach Inhalten zu klassifizieren.
  • DE 197 29 911 A1 beschreibt ein System zur Verbesserung der Organisation von Daten einer eine Gruppe von Datenobjekten enthaltenden Dokumentation, bei dem bestimmte Verknüpfungstypen (Linktypen,) vorgesehen sind. Die Verknüpfungstypen enthalten dabei eine generische Vorschrift möglicher Quellinstanzen von Strukturelementen der Datenobjekte und entsprechende Verknüpfungsvorschriften mit möglichen Zielinstanzen desselben oder anderer Datenobjekte. Das System stellt Verknüpfungen zur verbesserten Navigation eines Benutzers in der Dokumentation her.
  • In US 5 920 859A wird eine Suchmaschine für den Abruf von Dokumenten beschrieben. Die Suchmaschine indiziert Dokumente nach Maßgabe von Hyperlinks, die auf die Dokumente verweisen. Dabei durchläuft das Indexierprogramm die Hypertext-Datenbank und erfasst Hypertextinformationen, einschließlich der Adresse des Dokumentes, auf das die Hyperlinks verweisen und des Ankertextes der einzelnen Hyperlinks. Die Informationen werden in einer invertierten Indexdatei gespeichert, die auch zur Berechnung von Dokumentenverknüpfungsvektoren für die einzelnen Hy perlinks verwendet werden kann, die auf ein bestimmtes Dokument verweisen. Bei Eingabe einer Suchfrage findet die Suchmaschine alle Dokumentenvektoren für Dokumente, deren Ankertext die Abfragebegriffe enthält. Ebenso wird ein Abfragevektor berechnet, und es wird das Skalarprodukt des Abfragevektors und der einzelnen Dokumentenverknüpfungsvektoren berechnet. Die Skalarprodukte für ein bestimmtes Dokument werden addiert, um die Relevanz-Rangstufe für das jeweilige Dokument zu bestimmen.
  • Die Erfindung ist auf ein Relevanzbewertungsverfahren ausgerichtet, dass eine bessere und aktuellere Indexierung von Hypertext-Dokumenten ermöglicht.
  • Die vorstehende Aufgabe wird durch die Merkmale des einzigen Patentanspruches gelöst. Grundlage des erfindungsgemäßen Verfahrens ist eine Suchmaschine, die nachfolgend mit „TeleFinder" bezeichnet wird.
  • Die Suchmaschine TeleFinder besteht so wie die meisten bekannten Suchmaschinen, im Wesentlichen aus zwei Komponenten, einem Robotersystem inklusive Datenbank und einem Indexserver inklusive Benutzeroberfläche.
  • Das Robotersystem lädt ausgehend von Startadressen Dokumente, durchsucht sie auf bisher unbekannte Dokumentadressen und übergibt die Dokumente dem Indexserver. Ausgehend von den neuen, unbekannten Adressen werden die korrespondierenden Dokumente geladen und der Zyklus erneut durchlaufen, bis alle erreichbaren Dokumente verarbeitet wurden.
  • Der Indexserver analysiert den Inhalt der Dokumente und baut einen invertierten Index auf, welcher für die Anfragebearbeitung benutzt wird. Wie bei jeder anderen Suchmaschine auch, wird die Qualität der Suchergebnisse durch die Inhalte der Dokumente, die Berücksichtigung ausgewählter Strukturelemente und insbesondere auch durch die verwendete Berechnungsfunktion bestimmt.
  • Das erfindungsgemäße Relevanzbewertungsverfahren für den Indexierungsvorgang des TeleFinders basiert auf der Grundidee die aus dem „Hyper Vector Voting" (HVV) bekannte Verfahrensweise der Ermittlung des Relevanzwertes eines Dokumentes anhand der Anker texte von Verweisen, die auf das Dokument verweisen, mit der aus der konventionellen Volltextindexierung bekannten Verfahrensweise, die auf der Indexierung von Suchbegrif fen aus dem eigentlichen Dokument basiert, zu kombinieren. Das erfindungsgemäße Verfahren bewirkt eine neue Qualität bei der Suche nach relevanten Dokumenten, da es die positiven Eigenschaften des Hyper Vector Voting Verfahrens mit den positiven Eigenschaften des Verfahrens der konventionellen Volltextindexierung in einem neuen Verfahren vereinigt.
  • Gegenüber herkömmlicher Volltextindexierung fließen durch die besondere Berücksichtigung und Gewichtung von Ankertexten (der Texte, mit denen die Verweise auf ein Dokument versehen werden) in die Gesamtbewertung auch Inhaltsbeschreibungen ein, die von anderen Dokumentenautoren erstellt wurden. Die Ankertexte, die meist sehr prägnant und präzise den Inhalt des referenzierten Dokuments beschreiben, bilden so eine Form von Meta-Beschreibung, die bei der Bewertung berücksichtigt wird.
  • Zur Relevanzbewertung benutzt der TeleFinder ein Relevanzbewertungsverfahren, welches durch Gewichtung unterschiedlicher Anteile der Funktion parametrisiert werden kann. Unterschiedlich gewichtet werden kann so der Einfluß der folgenden Dokumentenbestandteile auf den Gesamtrelevanzwert:
    • • Titel
    • • Überschriften unterschiedlicher Gliederungsebenen
    • • Phrasen
    • • Phrasen in Ankertexten
    • • Texte in Verweisen auf das Dokument
    • • Texte in Verweisen innerhalb des Dokuments
    • • Dokumentadressen
  • Durch unterschiedliche Gewichtung dieser Elemente ist die Relevanzbewertungsfunktion selber konfigurierbar.
  • Das erfindungsgemäße Relevanzbewertungsverfahren läuft in drei Phasen ab. Die drei Phasen müssen dabei nicht notwendigerweise sequentiell ablaufen.
  • In der ersten Phase, die mit Aufbauphase bezeichnet wird, liefert das Robotersystem Hypertext-Dokumente an den Indexserver. Der Indexserver analysiert den Inhalt der Dokumente nach drei unterschiedlichen Gesichtspunkten:
    • 1. Werden Verweise in dem Dokument identifiziert, so wird für jede aus diesen Verweisen bestimmbare Adresse ein neuer Dokumenteneintrag im Index angelegt, sofern ein solcher noch nicht existiert. Ansonsten wird der Dokumenteneintrag entsprechend aktualisiert. Für die in den Verweisen verwendeten Begriffe der Ankertexte werden neue Termeinträge im Index angelegt, sofern diese noch nicht existieren. Ansonsten werden die entsprechenden Termeinträge aktualisiert. Für jeden Begriff des Ankertextes wird entsprechend einer Gewichtung ein partieller Relevanzwert vorausberechnet.
    • 2. Werden speziell markierte Textinhalte (z.B durch die HTML Auszeichnungen Titel, H1, H2 oder H3 markiert) in dem Dokument identifiziert, wird für jeden Begriff, der in diesen markierten Textinhalten verwendet wird, ein neuer Termeintrag im Index angelegt, sofern dieser noch nicht existiert. Ansonsten werden die entsprechenden Termeinträge aktualisiert. Für jeden identifizierten Begriff wird entsprechend der Gewichtung der Markierung ein partieller Relevanzwert vorausberechnet.
    • 3. Für jeden anderen nicht-markierten Textinhalt wird ein neuer Termeintrag im Index angelegt, sofern dieser noch nicht existiert. Ansonsten wird der entsprechende Termeintrag aktualisiert. Für jeden dieser Begriffe wird ein partieller Relevanzwert vorausberechnet.
  • In der zweiten Phase, die als Aktualisierungsphase bezeichnet wird, werden Dokumente deren Inhalte sich seit dem letzten Besuch verändert haben, zunächst aus dem Dokumentenindex entfernt. Die betreffenden Termeinträge werden aktualisiert. Sofern das veränderte Dokument weiterhin verfügbar ist, wird es entsprechend den Arbeitsschritten der Aufbauphase in den Index eingefügt.
  • Diese Verfahrensweise hat u.a. den Vorteil, dass ein Dokument – solange es sich nicht verändert hat – nur einmal über das Netz von einem anderen Server geladen werden muss, und dass es nicht lokal gespeichert werden muss. Darüber hinaus ermöglicht diese Verfahrensweise auch Verweise auf Dokumente in den Index aufzunehmen, deren zugehörige Dokumente selber noch nicht geladen und analysiert wurden.
  • Darüber hinaus wird durch die partielle Vorausberechnung der Relevanzwerte die Bestimmung des Relevanzwerts zum Anfragezeitpunkt minimiert. Mit unterschiedlichen Gewichtungswerten für Ankertexte in und auf Dokumente, für Phrasen und für unterschiedliche Textmarkierungen, ist die Relevanzbewertungsfunktion parametrisierbar und somit flexibel konfigurierbar.
  • Die dritte Phase wird mit Anfragephase bezeichnet.
  • In der Anfragephase werden in Abhängigkeit vom verwendeten Anfragetyp (einfache Anfrage, komplexe Anfrage, Bool'sche Anfrage oder Phrasenanfrage) aus dem Index die Dokumente ermittelt, die auf die Anfrage zutreffen. Für jedes gefundene Dokument wird der eigentliche Relevanzwert aus den vorausberechneten Relevanzwertanteilen, der zum Anfragezeitpunkt vorliegenden Anzahl an Verweisen auf das Dokument und der Gesamtanzahl der Dokumente im Index zum Relevanzwert des Dokuments verrechnet.
  • Im Gegensatz zu dem mit Google vorgestellten Ansatz handelt es sich bei der im TeleFinder realisierten Lösung um ein inkrementelles Verfahren, bei dem aktualisierte Dokumente direkt in den Index integriert werden und somit prinzipiell umgehend – nach einem als „flushen" bezeichneten Speichern des Indexes – zur Suche bereitgestellt werden. Im Vergleich zu dem Google Ansatz kann dadurch eine weitaus höhere Aktualität des Indexes garantiert werden. Durch die direkte inkrementelle Verarbeitung von neuen bzw. aktualisierten Dokumenten müssen keine lokalen Kopien der Dokumente gespeichert werden, so dass der benötigte Plattenspeicherplatz drastisch reduziert werden kann.
  • Gegenüber dem Rankdex Verfahren verhält sich TeleFinder wie eine konventionelle Volltextsuchmaschine, sofern die gesuchten Begriffe nicht in Ankertexten auftreten. Das liegt darin begründet, dass auch der Inhalt der Dokumente indexiert wird.
  • Zwar wird im erfindungsgemäßen Relevanzbewertungsverfahren wie auch im Lycos-Verfahren die Popularität der Ergebnisdokumente bewertet, jedoch geht die Bewertung nach der erfindungsgemäßen Lösung weiter als beim Lycos-Verfahren, da neben der reinen Volltextindexierung, der Berücksichtigung spezieller Dokumentenbestandteile und der Popularität, wie bei Rankdex und Google auch die Ankertexte berücksichtigt werden.
  • Die Relevanzbewertungsfunktion ist darüber hinaus parametrisiert, so dass die einzelnen bei der Bewertung berücksichtigten Bestandteile unterschiedlich gewichtet und die Bewertungsfunktion insgesamt beeinflusst werden kann

Claims (1)

  1. Verfahren zur Relevanzbewertung bei der Indexierung von Hypertext-Dokumenten mittels Suchmaschine, bei dem Hypertext-Dokumente in der Indexierungskomponente der Suchmaschine ausgewertet werden, dadurch gekennzeichnet, dass es in eine Aufbauphase, eine Aktualisierungsphase und eine Anfragephase unterteilt ist, – dass in der Aufbauphase die Hypertext-Dokumente in der Indexierungskomponente gleichzeitig auf das Vorhandensein von Verweisen, speziell markierten und nicht-markierten Textinhalten durchsucht werden, wobei a) bei der Identifizierung von Verweisen, für jede aus diesen Verweisen bestimmbare Adresse ein neuer Dokumenteneintrag in der Indexierungskomponente angelegt bzw. ein bereits vorhandener Dokumenteneintrag aktualisiert wird, dass für die in den Verweisen verwendeten Begriffe der Ankertexte ebenfalls ein neuer Termeintrag in der Indexierungskomponente angelegt wird bzw. ein bereits vorhandener Termeintrag aktualisiert wird, und dass für jeden Begriff des Ankertextes ein partieller Relevanzwert vorausberechnet wird, b) bei der Identifizierung von speziell markierten Textinhalten, für jede ermittelte Markierung ein neuer Termeintrag in der Indexierungskomponente angelegt bzw. ein bereits angelegter Termeintrag aktualisiert wird, dass für jeden markierten Begriff ein partieller Relevanzwert vorausberechnet wird, und c) bei der Identifizierung von nicht-markierten Textinformationen in einem auszuwertenden Dokument ein neuer Termeintrag in der Indexierungskomponente angelegt bzw. ein bereits zu der Textinformation vorhandener Termeintrag aktualisiert wird, und dass für jeden Termeintrag ein partieller Relevanzwert vorausberechnet wird, – dass in der Aktualisierungsphase bereits erfasste und indexierte Dokumente, deren Inhalt sich geändert hat, automatisch aus dem Dokumentenindex gelöscht werden, dass die Termeinträge zu diesen Dokumenten aktualisiert werden, und dass die geänderten Dokumente sofern sie weiterhin verfügbar sind, noch einmal entsprechend der Aufbauphase in der Indexierungskomponente erfasst werden, und – dass in der Anfragephase auf die Anfrage eines Nutzers in Abhängigkeit vom Abfragetyp, wie einfache Frage, komplexe Frage, Bool'sche Anfrage bzw. Phrasenanfrage aus der Indexierungskomponente Angaben zu relevanten Dokumenten ermittelt werden, wobei für jedes ermittelte Dokument der eigentliche Relevanzwert aus den vorausberechneten Relevanzwertanteilen, der zum Anfragezeitpunkt vorliegenden Anzahl an Verweisen auf das ermittelte Dokument und der Gesamtzahl der Dokumente in der Indexierungskomponente berechnet wird, und dass die entsprechend ihrer Relevanzbewertung geordneten Angaben zu den Dokumenten zusammen mit Zusatzinformationen an den Nutzer ausgegeben werden.
DE10029644A 2000-06-16 2000-06-16 Verfahren zur Relevanzbewertung bei der Indexierung von Hypertext-Dokumenten mittels Suchmaschine Expired - Fee Related DE10029644B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10029644A DE10029644B4 (de) 2000-06-16 2000-06-16 Verfahren zur Relevanzbewertung bei der Indexierung von Hypertext-Dokumenten mittels Suchmaschine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10029644A DE10029644B4 (de) 2000-06-16 2000-06-16 Verfahren zur Relevanzbewertung bei der Indexierung von Hypertext-Dokumenten mittels Suchmaschine

Publications (2)

Publication Number Publication Date
DE10029644A1 DE10029644A1 (de) 2002-01-17
DE10029644B4 true DE10029644B4 (de) 2008-02-07

Family

ID=7645925

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10029644A Expired - Fee Related DE10029644B4 (de) 2000-06-16 2000-06-16 Verfahren zur Relevanzbewertung bei der Indexierung von Hypertext-Dokumenten mittels Suchmaschine

Country Status (1)

Country Link
DE (1) DE10029644B4 (de)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6883135B1 (en) 2000-01-28 2005-04-19 Microsoft Corporation Proxy server using a statistical model
US8260786B2 (en) 2002-05-24 2012-09-04 Yahoo! Inc. Method and apparatus for categorizing and presenting documents of a distributed database
US7231395B2 (en) 2002-05-24 2007-06-12 Overture Services, Inc. Method and apparatus for categorizing and presenting documents of a distributed database
US7194466B2 (en) 2003-05-01 2007-03-20 Microsoft Corporation Object clustering using inter-layer links
US7228301B2 (en) 2003-06-27 2007-06-05 Microsoft Corporation Method for normalizing document metadata to improve search results using an alias relationship directory service
US7584221B2 (en) 2004-03-18 2009-09-01 Microsoft Corporation Field weighting in text searching
US7260568B2 (en) 2004-04-15 2007-08-21 Microsoft Corporation Verifying relevance between keywords and web site contents
US7689585B2 (en) 2004-04-15 2010-03-30 Microsoft Corporation Reinforced clustering of multi-type data objects for search term suggestion
US7366705B2 (en) 2004-04-15 2008-04-29 Microsoft Corporation Clustering based text classification
US7289985B2 (en) 2004-04-15 2007-10-30 Microsoft Corporation Enhanced document retrieval
US7305389B2 (en) 2004-04-15 2007-12-04 Microsoft Corporation Content propagation for enhanced document retrieval
US7606793B2 (en) 2004-09-27 2009-10-20 Microsoft Corporation System and method for scoping searches using index keys
US7761448B2 (en) 2004-09-30 2010-07-20 Microsoft Corporation System and method for ranking search results using click distance
US7739277B2 (en) 2004-09-30 2010-06-15 Microsoft Corporation System and method for incorporating anchor text into ranking search results
US7827181B2 (en) 2004-09-30 2010-11-02 Microsoft Corporation Click distance determination
US7792833B2 (en) 2005-03-03 2010-09-07 Microsoft Corporation Ranking search results using language types
US7599917B2 (en) 2005-08-15 2009-10-06 Microsoft Corporation Ranking search results using biased click distance
US7574449B2 (en) 2005-12-02 2009-08-11 Microsoft Corporation Content matching
US7840569B2 (en) 2007-10-18 2010-11-23 Microsoft Corporation Enterprise relevancy ranking using a neural network
US9348912B2 (en) 2007-10-18 2016-05-24 Microsoft Technology Licensing, Llc Document length as a static relevance feature for ranking search results
US8812493B2 (en) 2008-04-11 2014-08-19 Microsoft Corporation Search results ranking using editing distance and document information
US8738635B2 (en) 2010-06-01 2014-05-27 Microsoft Corporation Detection of junk in search result ranking
US9495462B2 (en) 2012-01-27 2016-11-15 Microsoft Technology Licensing, Llc Re-ranking search results
DE102019212421A1 (de) 2019-08-20 2021-02-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Ermittlung ähnlicher Dokumente
DE102023116650A1 (de) 2023-06-23 2024-12-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Verfahren und Vorrichtung zum Trainieren eines Word-Embedding Verfahrens

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19651788A1 (de) * 1996-12-12 1998-06-25 Wilfried Prof Dr Ing Krug Verfahren zur Datenermittlung und -aufbereitung in Informationsnetzwerken
DE19729911A1 (de) * 1997-07-04 1999-01-07 Siemens Ag System zur Verbesserung der Organisation von Daten einer Dokumentation
US5920859A (en) * 1997-02-05 1999-07-06 Idd Enterprises, L.P. Hypertext document retrieval system and method
EP0631245B1 (de) * 1993-06-21 2000-03-01 Xerox Corporation Verfahren zur Verarbeitung mehrerer elektronisch gespeicherte Dokumente
DE19842320A1 (de) * 1998-09-16 2000-03-23 Ibm Verfahren und Einrichtung zur inhaltsbezogenen Suche von elektronischen Dokumenten
EP0838056B1 (de) * 1995-07-13 2000-05-03 Cabletron Systems, Inc. Verfahren , vorrichtung und elektronisches speichermedium zum verwalten von anforderungen an mehrere server und zum kollationieren der antworten

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0631245B1 (de) * 1993-06-21 2000-03-01 Xerox Corporation Verfahren zur Verarbeitung mehrerer elektronisch gespeicherte Dokumente
EP0838056B1 (de) * 1995-07-13 2000-05-03 Cabletron Systems, Inc. Verfahren , vorrichtung und elektronisches speichermedium zum verwalten von anforderungen an mehrere server und zum kollationieren der antworten
DE19651788A1 (de) * 1996-12-12 1998-06-25 Wilfried Prof Dr Ing Krug Verfahren zur Datenermittlung und -aufbereitung in Informationsnetzwerken
US5920859A (en) * 1997-02-05 1999-07-06 Idd Enterprises, L.P. Hypertext document retrieval system and method
DE19729911A1 (de) * 1997-07-04 1999-01-07 Siemens Ag System zur Verbesserung der Organisation von Daten einer Dokumentation
DE19842320A1 (de) * 1998-09-16 2000-03-23 Ibm Verfahren und Einrichtung zur inhaltsbezogenen Suche von elektronischen Dokumenten

Also Published As

Publication number Publication date
DE10029644A1 (de) 2002-01-17

Similar Documents

Publication Publication Date Title
DE10029644B4 (de) Verfahren zur Relevanzbewertung bei der Indexierung von Hypertext-Dokumenten mittels Suchmaschine
DE69900854T2 (de) Ein suchsystem und verfahren zum zurückholen von daten und die anwendung in einem suchgerät
JP4976666B2 (ja) 情報検索システムにおけるフレーズ識別方法
JP4944406B2 (ja) フレーズに基づく文書説明の生成方法
JP5175005B2 (ja) 情報検索システムにおけるフレーズに基づく検索方法
DE69811066T2 (de) Datenzusammenfassungsgerät.
DE69330701T2 (de) Verfahren zur Durchführung der Suche nach Ähnlichkeiten mit einer Abfrage in einer Dokumentenmenge
DE69911842T2 (de) Verfahren und Vorrichtung zum Wiederauffinden von Information und entsprechendes Speichermedium
DE69718798T2 (de) Echtzeitsuchmotor mit strukturierten zusammenfassungen
DE69931256T2 (de) Verfahren und system zum zurückholen einer elektronischen akte
DE69833238T2 (de) System zur Schlüsselwortgewinnung und Textwiederauffingungssystem zu seiner Verwendung
DE60029845T2 (de) System zum identifizieren der verhältnisse zwischen bestandteilen in aufgaben vom typ informations-wiederauffindung
DE69917250T2 (de) Merkmalübertragung über hyperlinks
DE69834386T2 (de) Textverarbeitungsverfahren und rückholsystem und verfahren
DE69624985T2 (de) Verfahren und Gerät, um Suchantworten in einem rechnergestützten Dokumentwiederauffindungssystem zu generieren
DE102019212421A1 (de) Verfahren und Vorrichtung zur Ermittlung ähnlicher Dokumente
DE69330633T2 (de) Verfahren und Apparat zum Vergleichen von semantischen Mustern für das Wiederauffinden von Texten
JP2006048685A (ja) 情報検索システムにおけるフレーズに基づくインデックス化方法
DE102007037646B4 (de) Computerspeichersystem und Verfahren zum Indizieren, Durchsuchen und zur Datenwiedergewinnung von Datenbanken
US20070255686A1 (en) System and method for topical document searching
DE69733294T2 (de) Einrichtung und Verfahren zum Zugriff auf eine Datenbank
WO2010078859A1 (de) Verfahren und system zum ermitteln einer ähnlichkeit von dokumenten
EP1412875B1 (de) Verfahren zur verarbeitung von text in einer rechnereinheit und rechnereinheit
DE202022106616U1 (de) Ein System zur Darstellung und Einordnung von Formeln für die Suche nach mathematischen Informationen
EP1325412B1 (de) Verfahren zum zugriff auf eine speichereinheit, in der vermerkfolgen gespeichert sind, zugehörige speichereinheit und zugehöriges programm

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8127 New person/name/address of the applicant

Owner name: DEUTSCHE TELEKOM AG, 53113 BONN, DE NEOFONIE TECHN

8110 Request for examination paragraph 44
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee