[go: up one dir, main page]

DE102014201676A1 - Verfahren und Systeme für das Steuern des Dialogs von Sprachsystemen - Google Patents

Verfahren und Systeme für das Steuern des Dialogs von Sprachsystemen Download PDF

Info

Publication number
DE102014201676A1
DE102014201676A1 DE102014201676.2A DE102014201676A DE102014201676A1 DE 102014201676 A1 DE102014201676 A1 DE 102014201676A1 DE 102014201676 A DE102014201676 A DE 102014201676A DE 102014201676 A1 DE102014201676 A1 DE 102014201676A1
Authority
DE
Germany
Prior art keywords
list
elements
speech
positions
differences
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102014201676.2A
Other languages
English (en)
Other versions
DE102014201676B4 (de
Inventor
Eli Tzirkel-Hancock
Gaurav Talwar
Xufang Zhao
Greg T. Lindemann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102014201676A1 publication Critical patent/DE102014201676A1/de
Application granted granted Critical
Publication of DE102014201676B4 publication Critical patent/DE102014201676B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/086Recognition of spelled words
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Abstract

Es werden Verfahren und Systeme für das Steuern eines Sprachdialoges eines Sprachsystems bereitgestellt. In einer Ausführungsform beinhaltet ein Verfahren: Empfangen einer ersten Äußerung von einem Benutzer des Sprachsystems; Bestimmen einer ersten Liste von möglichen Ergebnissen aus der ersten Äußerung, wobei die erste Liste wenigstens zwei Elemente beinhaltet, von welchen jedes ein mögliches Ergebnis repräsentiert; Analysieren der wenigstens zwei Elemente der ersten Liste, um eine Zweideutigkeit der Elemente zu bestimmen; und Erzeugen eines Sprachkommandos für den Benutzer basierend auf der partiellen Orthographie und der Zweideutigkeit.

Description

  • TECHNISCHER BEREICH
  • Der technische Bereich bezieht sich im Allgemeinen auf Sprachsysteme, und spezieller ausgedrückt bezieht er sich auf Verfahren und Systeme für das Steuern des Dialoges innerhalb eines Sprachsystems, wobei partielle Orthographie benutzt wird.
  • HINTERGRUND
  • Fahrzeug-Spracherkennungssysteme führen die Spracherkennung oder das Verstehen der Sprache, welche durch Insassen des Fahrzeugs geäußert wird, durch. Die Sprachäußerungen beinhalten typischerweise Befehle, welche mit einem oder mehreren Merkmalen des Fahrzeugs oder anderen Systemen, welche über das Fahrzeug zugänglich sind, kommunizieren oder diese steuern. Ein Sprach-Dialogsystem erzeugt gesprochene Befehle in Antwort auf die Sprachäußerungen. In einigen Fällen werden die gesprochenen Befehle in Antwort auf die Spracherkennung erzeugt, wobei diese weitere Information benötigt, um die Spracherkennung durchzuführen. Zum Beispiel kann ein gesprochener Befehl den Benutzer fragen, die Sprachäußerung zu wiederholen, oder kann den Benutzer fragen, aus einer Liste von Möglichkeiten eine auszuwählen. Derartige gesprochene Befehle können unbeholfen sein, schwierig nachzuvollziehen sein, oder können fehlschlagen, die Erkennungsausgabe zu lösen.
  • Entsprechend ist es wünschenswert, verbesserte Verfahren und Systeme für das Steuern eines Sprachdialoges bereitzustellen, um die Spracherkennung zu verbessern. Entsprechend ist es ferner wünschenswert, Verfahren und Systeme für das Steuern eines Sprachdialogs bereitzustellen, wobei partielle Orthographie benutzt wird, um die Spracherkennung zu verbessern. Außerdem werden andere wünschenswerte Merkmale und Charakteristika der vorliegenden Erfindung aus der nachfolgenden detaillierten Beschreibung und den angehängten Ansprüchen offensichtlich, welche in Verbindung mit den beigefügten Zeichnungen und dem vorhergegangenen technischen Bereich und Hintergrund gegeben werden.
  • ZUSAMMENFASSUNG
  • Es werden Verfahren und Systeme für das Steuern des Sprachdialogs eines Sprachsystems bereitgestellt. In einer Ausführungsform beinhaltet ein Verfahren: Empfangen einer ersten Äußerung von einem Benutzer des Sprachsystems; Bestimmen einer ersten Liste von möglichen Ergebnissen aus der ersten Äußerung, wobei die erste Liste wenigstens zwei Elemente beinhaltet, welche jeweils ein mögliches Ergebnis repräsentieren; Analysieren der wenigstens zwei Elemente der ersten Liste, um eine Zweideutigkeit der Elemente zu bestimmen; und Erzeugen einer Sprachaufforderung an den Benutzer basierend auf der partiellen Orthographie und der Zweideutigkeit.
  • In einer anderen Ausführungsform beinhaltet ein System ein erstes Modul, welches eine erste Äußerung von einem Benutzer des Sprachsystems empfängt und welches eine erste Liste von möglichen Ergebnissen aus der ersten Äußerung bestimmt. Die erste Liste beinhaltet wenigstens zwei Elemente, welche jeweils ein mögliches Ergebnis repräsentieren. Ein zweites Modul analysiert die wenigstens zwei Elemente der ersten Liste, um eine Zweideutigkeit der Elemente zu bestimmen. Ein drittes Modul erzeugt eine Sprachaufforderung an den Benutzer basierend auf der partiellen Orthographie und der Zweideutigkeit.
  • BESCHREIBUNG DER ZEICHNUNGEN
  • Die beispielhaften Ausführungsformen werden hier nachfolgend in Verbindung mit den folgenden gezeichneten Figuren beschrieben, wobei gleiche Ziffern gleiche Elemente bezeichnen und worin:
  • 1 ein Funktionsblockdiagramm eines Fahrzeuges ist, welches ein Sprachsystem entsprechend zu verschiedenen Ausführungsformen beinhaltet;
  • 2 ein Datenflussdiagramm ist, welches ein Sprachsystem entsprechend zu verschiedenen beispielhaften Ausführungsformen darstellt; und
  • 35 Ablaufdiagramme sind, welche Sprachverfahren darstellen, welche durch das Sprachsystem entsprechend zu verschiedenen beispielhaften Ausführungsformen durchgeführt werden können.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende detaillierte Beschreibung ist nur beispielhaft in ihrer Art, und es ist nicht beabsichtigt, die Anmeldung und das Gebrauchen zu begrenzen. Außerdem gibt es keine Absicht, an irgendwelche ausgedrückte oder beinhaltete Theorie gebunden zu sein, welche in dem vorhergegangenen technischen Bereich, Hintergrund, der kurzen Zusammenfassung oder der folgenden detaillierten Beschreibung beinhaltet ist. Wie es hier benutzt wird, bezieht sich der Term Modul auf eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder in einer Gruppe) und einen Speicher, welcher eine oder mehrere Software- oder Firmware-Programme ausführt, eine kombinierte logische Schaltung und/oder andere gebräuchliche Komponenten, welche die beschriebene Funktionalität bereitstellen.
  • Entsprechend zu beispielhaften Ausführungsformen wird ein Sprachsystem 10 gezeigt, welches in einem Fahrzeug 12 beinhaltet ist. In verschiedenen beispielhaften Ausführungsformen stellt das Sprachsystem 10 Spracherkennung oder -vertständnis bzw. Sprachintelligenz und einen Dialog für eines oder mehrere Fahrzeugsysteme über ein Mensch-Maschine-Schnittstellenmodul-(HMI-)Modul 14 bereit. Derartige Fahrzeugsysteme können zum Beispiel beinhalten, sind jedoch nicht darauf begrenzt, ein Telefonsystem 16, ein Navigationssystem 18, ein Mediensystem 20, ein Telematiksystem 22, ein Netzsystem 24 oder irgendein anderes Fahrzeugsystem, welches eine sprachabhängige Anwendung beinhalten kann. Wie gewürdigt werden kann, können eine oder mehrere Ausführungsformen des Sprachsystems 10 für andere Nichtfahrzeug-Systeme anwendbar sein, welche sprachabhängige Anwendungen besitzen, und demnach ist diese nicht auf das vorliegende Fahrzeugbeispiel beschränkt.
  • Das Sprachsystem 10 kommuniziert mit den vielen Fahrzeugsystemen 1424 über einen Kommunikationsbus und/oder andere Kommunikationseinrichtungen 26 (z. B. verdrahtete, Kurzbereichsfunk oder Fernbereichsfunk). Der Kommunikationsbus kann zum Beispiel sein, ist jedoch nicht darauf begrenzt, ein Steuerglied-Bereichsnetz-(CAN-)Bus, ein lokaler Zwischenverbindungsnetz-(LIN-)Bus oder irgendein anderer Typ von Bus.
  • Das Sprachsystem 10 beinhaltet ein Sprachintelligenzmodul 32, ein Dialog-Steuermodul 34 und ein Spracherzeugungsmodul 35. Wie gewürdigt werden kann, können das Sprach-Intelligenzmodul 32, das Dialog-Steuermodul 34 und das Spracherzeugungsmodul 35 als getrennte Systeme und/oder als ein kombiniertes System, wie gezeigt, implementiert sein. Im Allgemeinen empfängt das Sprach-Intelligenzmodul 32 die Sprachäußerungen von dem HMI-Modul 14 und bearbeitet sie, wobei eine oder mehrere Spracherkennungstechniken benutzt werden. Das Sprachintelligenzmodul 32 erzeugt eine oder mehrere Listen von möglichen Ergebnissen aus der Sprachäußerung (z. B. basierend auf einem Vertrauensschwellwert) und sendet die Liste(n) an das Dialog-Steuermodul 34. In verschiedenen Ausführungsformen erzeugt das Sprachintelligenz-Modul 32 die Liste, wobei vordefinierte Möglichkeiten benutzt werden, welche in einem Datenspeicher gespeichert sind. Zum Beispiel können die vordefinierten Möglichkeiten Namen oder Nummern sein, welche in einem Telefonbuch gespeichert sind, Namen oder Adressen sein, welche in einem Adressbuch gespeichert sind, Liedernamen oder Künstler sein, welche in einem Musikverzeichnis gespeichert sind, etc..
  • Das Dialog-Steuermodul 34 steuert eine Interaktionsfolge und eine Auswahl von Sprachkommandos, welche zu dem Benutzer zu sprechen sind, basierend auf der (den) Liste(n). Im Speziellen, wenn eine Liste mehr als ein mögliches Ergebnis beinhaltet, benutzt das Dialog-Steuermodul 34 Begriffserklärungsstrategien, um einen Dialog der Kommandos mit dem Benutzer zu steuern, so dass ein erkanntes Ergebnis bestimmt werden kann. Die Begriffserklärungsstrategien helfen eher, ein Benutzerziel zu erkennen, als die exakten Wörter, welche der Benutzer sagt, zu erkennen. Das Spracherzeugungsmodul 35 erzeugt die gesprochenen Kommandos für den Benutzer basierend auf dem Dialog, welcher durch das Dialog-Steuerglied 34 bestimmt ist.
  • Mit Bezug nun auf 2 stellt ein Datenflussdiagramm das Sprachintelligenzmodul 32 und das Dialog-Steuermodul 34 entsprechend zu verschiedenen beispielhaften Ausführungsformen dar. Wie gewürdigt werden kann, können verschiedene beispielhafte Ausführungsformen des Sprachintelligenzmoduls 32 und des Dialog-Steuermoduls 34 entsprechend der vorliegenden Offenbarung jegliche Anzahl von Untermodulen beinhalten. In verschiedenen beispielhaften Ausführungsformen können die Untermodule, welche in 2 gezeigt werden, kombiniert und/oder weiter aufgeteilt werden, um in ähnlicher Weise den Dialog zu steuern, wobei Begriffserklärungsstrategien benutzt werden. In verschiedenen beispielhaften Ausführungsformen beinhaltet das Dialog-Steuermodul 34 ein Listen-Analysierungsmodul 40, ein Zweideutigkeit-Identifizierungsmodul 42, ein Kommando-Steuermodul 44 und ein Ergebnisbestimmungsmodul 45. Das Sprachintelligenzmodul 32 beinhaltet ein Erkennungsmodul 46.
  • Mit Bezug auf das Sprachintelligenzmodul 32 empfängt das Erkennungsgliedmodul 46 als Eingabe eine Sprachäußerung 47 von dem Benutzer (z. B. durch das HMI-Modul 14 (1)). Das Erkennungsgliedmodul 46 bearbeitet die Sprachäußerung 47, wobei ein oder mehrere Sprachmodelle benutzt werden, um eine Liste 50 von möglichen Ergebnissen zu bestimmen. Die Liste 50 beinhaltet ein oder mehrere Elemente, welche ein mögliches Ergebnis der Bearbeitung repräsentieren. In verschiedenen Ausführungsformen beinhaltet jedes Element der Liste eine oder mehrere Slots bzw. Positionen, welche jeweils mit einem Slot- bzw. Positionstyp verbunden sind, abhängig von der Anwendung. Wenn zum Beispiel eine Anwendung das Durchführen von Telefongesprächen zu Telefonbuchkontakten (z. B. ”Rufe John Doe an”) unterstützt, dann kann jedes Element Positionen mit Positionstypen eines Vornamens, eines zweiten Vornamens und/oder eines Hauptnamens beinhalten. Wenn in einem anderen Beispiel die Anwendung eine Navigation unterstützt (z. B. ”Gehe zu 1111 Sunshine Boulevard”), dann kann jedes Element Positionen mit Positionstypen einer Hausnummer und einem Straßennamen etc. beinhalten. In verschiedenen Ausführungsformen können die Positionen und Positionsarten in einem Datenspeicher gespeichert werden, und auf sie kann durch das Erkennungsmodul 46 zugegriffen werden. Jedes Element oder Position der Liste 50 gehört zu einer Vertrauensauswertung bzw. Vertrauenspunktzahl, welche als ein Ergebnis der Bearbeitung bestimmt ist.
  • Mit Bezug nun auf das Dialog-Steuermodul 34 empfängt das Listenauswertemodul 40 als Eingang die Liste 50 von dem Sprach-Intelligenzmodul 32. Das Listen-Auswertemodul 40 wertet die Liste 50 aus, um zu bestimmen, ob eine Begriffserklärung notwendig ist. Wenn zum Beispiel die Liste 50 mehr als ein Element enthält, wählt das Listen-Analysiermodul 40 diejenige Liste für das Weiterbearbeiten durch das Zweideutigkeit-Identifizierglied-Modul 42 aus, welche als die ausgewählte Lite 52 bezeichnet wird. Wenn die Liste 50 nur ein Element beinhaltet oder wenn sie in Antwort auf ein Sprachkommando 56 empfangen wird (wie das diskutiert werden wird), stellt das Listen-Auswertemodul 40 die Liste als eine aktualisierte Liste 62 für das Ergebnisbestimmungsmodul 45 bereit. Wie in verschiedenen Ausführungsformen gewürdigt werden kann, wenn die Liste 50 nur ein Element beinhaltet und eine dazugehöriger Vertrauenspunktzahl ist niedrig, kann die Liste 50 für das weitere Bearbeiten ausgewählt werden. Jedoch wird die Offenbarung für beispielhafte Zwecke im Kontext der ausgewählten Liste 52 diskutiert, welche mehr als ein Element beinhaltet.
  • Das Zweideutigkeit-Identifiziermodul 42 empfängt als Eingang die ausgewählte Liste 52. Das Zweideutigkeit-Identifiziermodul 42 bearbeitet die Elemente der ausgewählten Liste 52, um die Zweideutigkeiten zwischen den Elementen zu identifizieren. Das Zweideutigkeit-Identifiziermodul 42 erzeugt einen Zweideutigkeitstyp 54, basierend auf den Zweideutigkeiten zwischen den Elementen. Zum Beispiel kann der Zweideutigkeitstyp auf den Positionstypen (z. B. erster Name, Zuname, Straßenname, Hausnummer, etc.) der zweideutigen Elemente basieren.
  • Das Zweideutigkeit-Identifiziergliedmodul 42 identifiziert die Zweideutigkeiten zwischen den Elementen durch das Identifizieren der Zweideutigkeiten zwischen den Positionen der Elemente, welche einen speziellen Positionstyp besitzen. Zum Beispiel bearbeitet das Zweideutigkeit-Identifiziermodul 42 die erste Position der Elemente, um jegliche Zweideutigkeiten zu identifizieren, dann bearbeitet es die zweite Position der Elemente, um jegliche Zweideutigkeiten zu identifizieren, und so weiter, für die Anzahl der Positionen in dem Element. In verschiedenen Ausführungsformen identifiziert das Zweideutigkeit-Identifiziermodul 42 die Zweideutigkeiten zwischen einer Spitzennummer M der Elemente in der ausgewählten Liste 52, wobei M eine ganze Zahl größer als zwei ist. Zum Beispiel bearbeitet das Zweideutigkeit-Identifiziermodul 42 die Positionen von zwei Spitzenelementen der ausgewählten Liste 52, um die Zweideutigkeiten zu identifizieren, wobei die Elemente als die oberen zwei bzw. Top zwei in der Reihenfolge sind, basierend auf der (den) dazugehörigen Vertrauenspunktzahl(en).
  • Das Zweideutigkeit-Identifiziermodul 42 identifiziert ferner Zweideutigkeiten zwischen den Elementen durch das Bestimmen von Differenzen zwischen den Positionen des speziellen Positionstyps. In verschiedenen Ausführungsformen bestimmt das Zweideutigkeit-Identifiziermodul 42 die Differenzen basierend auf der Orthographie der Positionen. Zum Beispiel kann die Orthographie der Position entsprechend zu einer Sprache sein, welche zu der Position gehört, entweder gesprochen oder geschrieben. Das Zweideutigkeit-Identifiziermodul 42 evaluiert einen oder mehrere Gesichtspunkte der Orthographie, um die Differenz zu bestimmen (z. B. Buchstaben, Zahlwerte, Zeichen, Laute, Töne etc.). Wenn das Zweideutigkeit-Identifiziermodul 42 die Zweideutigkeiten basierend auf der Orthographie der Positionen identifiziert, wird ein Differenztyp 55 erzeugt, welcher den Gesichtspunkt der Orthographie identifiziert (z. B. Buchstaben, Ziffern, Zeichen, Laute, Töne etc.), welche die Differenz bzw. den Unterschied identifizierten.
  • Zum Beispiel vergleicht das Zweideutigkeit-Identifiziermodul 42 die ersten Positionen der Elemente (z. B. der Top-M-Elemente), um die orthographischen Unterschiede zwischen jeder der ersten Positionen zu bestimmen, vergleicht die zweiten Positionen der Elemente, um die orthographischen Unterschiede zwischen jeder der zweiten Positionen zu bestimmen, und so weiter, für alle die Positionen in den Elementen. Die Positionen der Elemente, welche den größten orthographischen Unterschied besitzen, werden als die zweideutigen Positionen identifiziert. Der Positionstyp, welcher zu den zweideutigen Positionen gehört, wird als der Zweideutigkeitstyp 54 ausgewählt. Der Gesichtspunkt der Orthographie, welcher als der größte Unterschied identifiziert ist, wird als der Unterschiedstyp 55 ausgewählt.
  • In verschiedenen Ausführungsformen bestimmt das Zweideutigkeit-Identifiziermodul 42 die Zweideutigkeiten zwischen den Elementen durch das Bestimmen eines Unterschieds in der Vertrauenspunktzahl, welche zu den Positionen oder Elementen gehört. Zum Beispiel vergleicht das Zweideutigkeit-Identifiziermodul 42 die Vertrauenspunktzahlen der ersten Positionen der Elemente (z. B. der Top-M-Elemente), um die Vertrauensunterschiede zu bestimmen, vergleicht die Vertrauenspunktzahlen der zweiten Positionen der Elemente, um die Vertrauensunterschiede zu bestimmen, und so weiter, für alle die Positionen in den Elementen. Die Positionen der Elemente, welche den kleinsten Vertrauensunterschied besitzen, werden als die zweideutigen Positionen identifiziert, und der Positionstyp, welcher zu den zweideutigen Positionen gehört, wird als der Zweideutigkeitstyp 54 ausgewählt. Wenn das Zweideutigkeit-Identifiziermodul 42 die Zweideutigkeiten identifiziert, und zwar basierend auf dem Vertrauenspegel, welcher zu den Positionen gehört, wird der Unterschiedstyp 55 auf einen vorher festgelegten Wert eingestellt, zum Beispiel basierend auf der Orthographie, welche zu den Positionen gehört.
  • In noch anderen Ausführungsformen identifiziert das Zweideutigkeit-Identifiziermodul 42 die Zweideutigkeiten zwischen den Elementen basierend auf den Vertrauenspunktzahlen und der Orthographie der Positionen. Zum Beispiel vergleicht das Zweideutigkeit-Identifiziermodul 42 die Vertrauenspunktzahlen der ersten Positionen der Elemente (z. B. der Top-M-elemente), um die Vertrauensunterschiede zu bestimmen, vergleicht die Vertrauenspunktzahlen der zweiten Positionen der Elemente, um die Vertrauensunterschiede zu bestimmen, und so weiter, für alle die Positionen in den Elementen. Die Positionen der Elemente, welche den kleinsten Vertrauensunterschied besitzen, werden als die zweideutigen Positionen identifiziert, und der Positionstyp, welcher zu den zweideutigen Positionen gehört, wird als der Zweideutigkeitstyp 54 ausgewählt. Das Zweideutigkeit-Identifiziermodul 42 bestimmt dann einen orthographischen Unterschied zwischen den Positionen, welche zu dem kleinsten Vertrauensunterschied gehören, und stellt den Unterschiedstyp 55 basierend auf dem orthographischen Unterschied ein. Wie gewürdigt werden kann, kann das Zweideutigkeit-Identifiziermodul 42 sowohl die Vertrauenspunktzahl als auch die Orthographie der Positionen auf andere Weise benutzen und ist damit nicht auf das vorliegende Beispiel begrenzt.
  • Das Kommando-Steuermodul 44 empfängt als Eingabe den Zweideutigkeitstyp 54 und den Unterschiedstyp 55. Das Kommando-Steuermodul 44 erzeugt ein Sprachkommando 56, basierend auf dem ausgewählten Zweideutigkeitstyp 54 und dem Unterschiedstyp 55. In verschiedenen Ausführungsformen wird das Sprachkommando 56 basierend auf der partiellen Orthographie erzeugt. Zum Beispiel fragt das Sprachkommando 56 den Benutzer, die X-Anzahl des Unterschiedstyps 55 des Zweideutigkeitstyps 54 zu buchstabieren/zu sagen. Wenn zum Beispiel der Zweideutigkeitstyp 54, welcher identifiziert ist, der Hauptname ist und der Unterschiedstyp 55, welcher identifiziert ist, die Buchstaben sind, erzeugt das Kommando-Steuermodul 44 ein Sprachkommando, welches ”Buchstabiere bitte die ersten drei Buchstaben des Hauptnamens”, ”Buchstabiere bitte die letzten vier Buchstaben des Hauptnamens”, ”Buchstabiere bitte einige Buchstaben des Hauptnamens” etc. beinhaltet. In einem anderen Beispiel, wenn der Zweideutigkeitstyp 54 die Hausnummer ist und der Unterschiedstyp 55 die Ziffern sind, erzeugt das Kommando-Steuermodul 44 ein Sprachkommando, welches beinhaltet: ”Nenne bitte die ersten drei Ziffern der Hausnummer”, ”Nenne bitte die letzten drei Ziffern der Hausnummer”, ”Nenne bitte einige Ziffern der Hausnummer” etc.. Wie gewürdigt werden kann, kann die Anzahl X vordefiniert sein oder kann basierend auf den bestimmten orthographischen Unterschieden zwischen den Positionen bestimmt werden.
  • Das Ergebnis-Bestimmungsmodul 45 empfängt als Eingabe die aktualisierte Liste 62 und/oder die ausgewählte Liste 52. Das Ergebnis-Bestimmungsmodul 45 bestimmt ein Ergebnis 64 basierend auf der ausgewählten Liste 52 und/oder der aktualisierten Liste 62. In verschiedenen Ausführungsformen bestimmt das Bestimmungsmodul 45 das Ergebnis 64 durch das Verbinden der ausgewählten Liste 52 mit der aktualisierten Liste 62. Zum Beispiel verbindet (oder kombiniert) das Ergebnis-Bestimmungsmodul 45 die Elemente und die Vertrauenspunktzahlen der Elemente der ausgewählten Liste 52 und der aktualisierten Liste 62, um eine zusammengefasste Liste zu erzeugen. Wenn zum Beispiel die ausgewählte Liste 52 ein Element enthält, welches das gleiche wie ein Element der aktualisierten Liste 62 ist, dann werden die Vertrauenspunktzahl(en) für dieses Element kombiniert (z. B. durch Addition oder eine andere Berechnung), und dieses Element wird zu der zusammengefassten Liste mit der kombinierten Vertrauenspunktzahl addiert. Die Vertrauenspunktzahlen der zusammengefassten Liste werden dann evaluiert, um das Ergebnis 64 zu bestimmen.
  • In verschiedenen anderen Ausführungsformen benutzt das Ergebnis-Bestimmungsmodul 45 die aktualisierte Liste 62, um eine Grammatik 65 des Sprachmodells zu aktualisieren, welches benutzt wird, um die Spracherkennung oder -intelligenz der Anfangssprachäußerung und/oder zukünftiger Sprachäußerungen durchzuführen. Zum Beispiel kann das Ergebnis 64 aus der Spracherkennung der Anfangssprachäußerung bestimmt werden, wobei die aktualisierte Grammatik benutzt wird.
  • Mit Bezug nun auf 35 stellen Ablaufdiagramme die Sprachverfahren dar, welche von dem Sprachsystem 10 entsprechend zu verschiedenen Ausführungsformen durchgeführt werden können. Wie in Hinsicht auf die Offenbarung gewürdigt werden kann, ist die Reihenfolge des Betriebs innerhalb der Verfahren nicht auf eine sequenzielle Ausführung begrenzt, wie sie in den 35 dargestellt ist, sondern kann in einer oder in mehreren variierenden Reihenfolgen durchgeführt werden, welche anwendbar und entsprechend zu der vorliegenden Offenbarung sind. Wie ferner gewürdigt werden kann, können einer oder mehrere Schritte des Verfahrens hinzugefügt oder weggelassen werden, ohne den Geist des Verfahrens zu ändern.
  • Wie gezeigt wird, kann das Verfahren bei 99 beginnen. Die Sprachäußerung 47 wird bei 100 empfangen. Ein oder mehrere Spracherkennungsverfahren werden an der Sprachäußerung 47 durchgeführt, um die Liste 50 der Ergebnisse bei 110 zu bestimmen. Wenn zum Beispiel die Sprachäußerung ”Rufe Scott Rothestein an” ist, kann der Name nicht direkt erkannt werden, und die Liste 50 der möglichen Ergebnisse für ”Scott Rothestein” wird erzeugt (z. B. aus den aufgeführten Namen in einem Adressbuch). In einem Beispiel beinhalten die Top-drei-Elemente der Liste 50 ”Scott Austin”, ”Scott Rothstein” und ”Tom Rothman”. Wie gewürdigt werden kann, wird das Verfahren im Kontext dieses Beispiels diskutiert, es ist jedoch nicht darauf begrenzt.
  • Da die Liste 50 mehr als ein Element enthält, wird die Liste 50 als die ausgewählte Liste 52 für die weitere Bearbeitung bei 120 ausgewählt. Die Zweideutigkeiten der Liste werden bei 125 bestimmt. Zum Beispiel werden die Unterschiede bei 130 bestimmt. Wird die beispielhafte Liste oben vorausgesetzt, basieren die Positionen auf dem ersten Wort und dem zweiten Wort und die Positionstypen sind der Vorname und der zweite Vorname. Die Unterschiede für die Positionen des ersten Vornamens werden basierend auf einem orthographischen Unterschied und/oder dem Vertrauensunterschied zwischen den Positionen bestimmt, welche zu dem ersten Vornamen gehören; und die Unterschiede für die Positionen des Hauptnamens werden basierend auf einem orthographischen Unterschied und/oder einem Vertrauensunterschied der Positionen bestimmt, welche zu dem Hauptnamen gehören. Zum Beispiel werden die orthographischen Unterschiede für den Vornamen zwischen ”Scott” und ”Scott”, und ”Scott” und ”Tom” bestimmt; und die orthographischen Unterschiede für den Hauptnamen werden zwischen ”Austin” und ”Rothstein”, ”Rothstein” und ”Rothman” und ”Rothman” und ”Austin” bestimmt.
  • Danach wird der Zweideutigkeitstyp 54 auf den Positionstyp der Positionen mit dem größten Unterschied bei 140 eingestellt, und der Unterschiedstyp 55 wird auf den Gesichtspunkt der Orthographie bei 150 eingestellt, welcher den größten Unterschied besitzt. In dem bereitgestellten Beispiel ist der Hauptname der Positionstyp, welcher den größten Unterschied besitzt, und die letzte Silbe des Hauptnamens ist ein Gesichtspunkt der Orthographie, welcher den größten Unterschied besitzt, basierend auf dem Zweideutigkeitstyp 54 und dem Unterschiedstyp 55. Zum Beispiel kann das Sprachkommando 56 ”Buchstabiere bitte einige der letzten Buchstaben des Hauptnamens” beinhalten.
  • Danach fährt das Verfahren mit dem Empfangen einer zweiten Sprachäußerung 47 bei 100 fort. Ein oder mehrere Spracherkennungsverfahren werden an der zweiten Sprachäußerung 47 durchgeführt, um eine zweite Liste 50 der Ergebnisse bei 110 zu bestimmen. Da die Liste in Antwort auf das Sprachkommando 56 empfangen wird, wird die Liste 50 auf die aktualisierte Liste 62 bei 120 eingestellt und nicht weiter nach Zweideutigkeiten bearbeitet. Das Ergebnis 64 wird basierend auf der ausgewählten Liste 52 und/oder der aktualisierten Liste 62 erzeugt, wobei entweder ein Zusammenfügen der Listen 52, 62 oder das Aktualisieren einer Grammatik benutzt werden, und zwar basierend auf der aktualisierten Liste 62, wie oben beschrieben, bei 180. Zum Beispiel, wie in 4 gezeigt wird, wird das Ergebnis 64 durch das Zusammenlegen der Listen 52, 62 bei 190 erzeugt, durch das Kombinieren der Elemente und der Vertrauenspunktzahlen der Listen 52, 62 in einer einzelnen zusammengefassten Liste bei 200, wobei die zusammengefasste Liste basierend auf den Vertrauenspunktzahlen bei 210 klassifiziert wird und das Top-Element der klassifizierten, zusammengefassten Liste als das Ergebnis 64 bei 220 ausgewählt wird.
  • In einem anderen Beispiel, wie dies in 5 gezeigt wird, wird das Ergebnis 64 basierend auf einer aktualisierten Grammatik erzeugt, welche aus der aktualisierten Liste 62 bei 230 bestimmt wird, und zwar durch das Erzeugen einer aktualisierten Grammatik, wobei die aktualisierte Liste 62 bei 240 benutzt wird, das Durchführen der Spracherkennung an der ersten Sprachäußerung 47, wobei die aktualisierte Grammatik benutzt wird, um eine aktualisierte Liste bei 250 zu erzeugen, und das Auswählen eines Top-Elementes (oder einer Top-Vertrauenspunktzahl) der aktualisierten Liste, als das Ergebnis 64 bei 260.
  • Mit Bezug zurück zu 3, nachdem das Ergebnis 64 bei 180 bestimmt ist, kann das Verfahren bei 270 enden.
  • Wie gewürdigt werden kann, kann das Verfahren jegliche Anzahl von Sprachäußerungen 47 wiederholen, da die Kriterien bei 120 auf der Anzahl der Elemente in der Liste basieren können, auf einer Anzahl von Antworten auf Sprachkommandos 56 basieren können, oder auf irgendwelchen anderen Kriterien. Wie ferner gewürdigt werden kann, können andere Verfahren durchgeführt werden, um ein Ergebnis zu bestimmen, wenn noch eine Zweideutigkeit in den Elementen nach dem Bearbeiten von wenigstens zwei Sprachäußerungen vorhanden ist.
  • Während wenigstens eine beispielhafte Ausführungsform in der vorhergegangenen detaillierten Beschreibung präsentiert wurde, sollte gewürdigt werden, dass eine große Anzahl von Variationen existiert. Es sollte auch gewürdigt werden, dass die beispielhafte Ausführungsform oder die beispielhaften Ausführungsformen nur Beispiele sind und es nicht beabsichtigt ist, dass diese den Umfang, die Anwendbarkeit oder die Konfiguration der Offenbarung in irgendeiner Weise begrenzen. Vielmehr wird die vorhergegangene detaillierte Beschreibung Fachleuten eine bequeme Anleitung für das Implementieren der beispielhaften Ausführungsform oder der beispielhaften Ausführungsformen bereitstellen. Es sollte davon ausgegangen werden, dass verschiedene Änderungen in der Funktion und in der Anordnung der Elemente durchgeführt werden können, ohne vom Umfang der Offenbarung abzuweichen, wie er in den angehängten Ansprüchen und den rechtlichen Äquivalenten davon dargelegt ist.
  • WEITERE AUSFÜHRUNGSFORMEN
    • 1. Verfahren für das Steuern eines Sprachdialoges eines Sprachsystems, welches aufweist: Empfangen einer ersten Äußerung eines Benutzers des Sprachsystems; Bestimmen einer ersten Liste von möglichen Ergebnissen aus der ersten Äußerung, wobei die erste Liste wenigstens zwei Elemente beinhaltet, welche jedes ein mögliches Ergebnis repräsentiert; Analysieren der wenigstens zwei Elemente der ersten Liste, um eine Zweideutigkeit der Elemente zu bestimmen; und Erzeugen eines Sprachkommandos an den Benutzer basierend auf der partiellen Orthographie und der Zweideutigkeit.
    • 2. Verfahren nach Ausführungsform 1, welches ferner aufweist: Empfangen einer zweiten Äußerung von einem Benutzer in Antwort auf das Sprachkommando; Bestimmen einer zweiten Liste der möglichen Ergebnisse aus der zweiten Äußerung; und Erzeugen eines Ergebnisses basierend auf der ersten Liste und der zweiten Liste.
    • 3. Verfahren nach Ausführungsform 2, wobei das Erzeugen des Ergebnisses auf einem Zusammenlegen der möglichen Ergebnisse der ersten Liste und der möglichen Ergebnisse der zweiten Liste basiert.
    • 4. Verfahren nach Ausführungsform 2, welches ferner aufweist: Aktualisieren einer Grammatik eines Sprachmodells, basierend auf der zweiten Liste; und Benutzen der aktualisierten Grammatik des Sprachmodells, um das Ergebnis zu erzeugen.
    • 5. Verfahren nach Ausführungsform 1, wobei das Analysieren das Analysieren der wenigstens zwei Elemente der ersten Liste aufweist, um die Unterschiede zwischen den wenigstens zwei Elementen zu bestimmen.
    • 6. Verfahren nach Ausführungsform 5, wobei das Analysieren ferner das Bestimmen der Unterschiede zwischen den Slots bzw. Positionen eines ersten Elements und den Slots bzw. Positionen eines zweiten Elements der ersten Liste aufweist, um die Unterschiede zu bestimmen.
    • 7. Verfahren nach Ausführungsform 6, wobei das Bestimmen der Unterschiede das Bestimmen der orthographischen Unterschiede zwischen den Positionen des ersten Elementes und den Positionen des zweiten Elementes aufweist.
    • 8. Verfahren nach Ausführungsform 7, wobei die orthographischen Unterschiede auf einer Sprache basieren, welche zu der Position gehört.
    • 9. Verfahren nach Ausführungsform 7, wobei die orthographischen Unterschiede auf wenigstens einem von Folgendem basieren: Buchstaben, Ziffern, Zeichen, Lauten und Töne der Positionen.
    • 10. Verfahren nach Ausführungsform 6, wobei das Bestimmen der Unterschiede das Bestimmen der Vertrauensunterschiede zwischen den Positionen des ersten Elementes und den Positionen des zweiten Elementes aufweist.
    • 11. Verfahren nach Ausführungsform 10, wobei das Bestimmen der Unterschiede ferner das Bestimmen der orthographischen Unterschiede zwischen den Positionen des ersten Elements und den Positionen des zweiten Elements aufweist.
    • 12. Verfahren nach Ausführungsform 6, wobei das Analysieren ferner aufweist: Auswählen eines größten Unterschiedes aus den Unterschieden und Einstellen eines Zweideutigkeitstyps für einen Positionstyp, welcher zu den Positionen gehört, welche zu dem größten Unterschied gehören, und wobei das Erzeugen des Sprachkommandos für den Benutzer auf dem Zweideutigkeitstyp basiert.
    • 13. Verfahren nach Ausführungsform 1, wobei die partielle Orthographie auf einem bestimmten orthographischen Unterschiedstyp basiert.
    • 14. Verfahren nach Ausführungsform 1, wobei die partielle Orthographie auf einem bestimmten Zweideutigkeitstyp basiert.
    • 15. Verfahren nach Ausführungsform 1, welches ferner aufweist: Bestimmen eines Zweideutigkeitstyps basierend auf der Zweideutigkeit; Bestimmen eines Unterschiedstyps basierend auf der Zweideutigkeit; und wobei das Erzeugen des Sprachkommandos auf dem Zweideutigkeitstyp und dem Unterschiedstyp basiert.
    • 16. Verfahren nach Ausführungsform 1, wobei das Empfangen der ersten Äußerung über ein Mensch-Maschine-Schnittstelle-Modul eines Fahrzeugs geschieht.
    • 17. Sprachsystem für das Steuern eines Sprachdialogs, welches aufweist: ein erstes Modul, welches eine erste Äußerung von einem Benutzer des Sprachsystems empfängt und welches eine erste Liste von möglichen Ergebnissen aus der ersten Äußerung bestimmt, wobei die erste Liste wenigstens zwei Elemente beinhaltet, welche jeweils ein mögliches Ergebnis repräsentieren; ein zweites Modul, welches die wenigstens zwei Elemente der ersten Liste analysiert, um eine Zweideutigkeit der Elemente zu bestimmen; und ein drittes Modul, welches ein Sprachkommando für den Benutzer, basierend auf einer partiellen Orthographie und der Zweideutigkeit, erzeugt.
    • 18. Sprachsystem nach Ausführungsform 17, wobei das erste Modul eine zweite Äußerung von einem Benutzer in Antwort auf das Sprachkommando empfängt, wobei das zweite Modul eine zweite Liste von möglichen Ergebnissen aus der zweiten Äußerung bestimmt und wobei ein viertes Modul ein Ergebnis, basierend auf der ersten Liste und der zweiten Liste, erzeugt.
    • 19. Sprachsystem nach Ausführungsform 18, wobei das vierte Modul das Ergebnis basierend auf einem Vergleich der möglichen Ergebnisse der ersten Liste und den möglichen Ergebnissen der zweiten Liste erzeugt.
    • 20. Sprachsystem nach Ausführungsform 18, wobei das vierte Modul eine Grammatik eines Sprachmodells basierend auf der zweiten Liste aktualisiert; und die aktualisierte Grammatik des Sprachmodells benutzt, um das Ergebnis zu erzeugen.

Claims (10)

  1. Verfahren für das Steuern eines Sprachdialoges eines Sprachsystems, welches aufweist: Empfangen einer ersten Äußerung eines Benutzers des Sprachsystems; Bestimmen einer ersten Liste von möglichen Ergebnissen aus der ersten Äußerung, wobei die erste Liste wenigstens zwei Elemente beinhaltet, welche jedes ein mögliches Ergebnis repräsentiert; Analysieren der wenigstens zwei Elemente der ersten Liste, um eine Zweideutigkeit der Elemente zu bestimmen; und Erzeugen eines Sprachkommandos an den Benutzer basierend auf der partiellen Orthographie und der Zweideutigkeit.
  2. Verfahren nach Anspruch 1, welches ferner aufweist: Empfangen einer zweiten Äußerung von einem Benutzer in Antwort auf das Sprachkommando; Bestimmen einer zweiten Liste der möglichen Ergebnisse aus der zweiten Äußerung; und Erzeugen eines Ergebnisses basierend auf der ersten Liste und der zweiten Liste.
  3. Verfahren nach Anspruch 2, wobei das Erzeugen des Ergebnisses auf einem Zusammenlegen der möglichen Ergebnisse der ersten Liste und der möglichen Ergebnisse der zweiten Liste basiert.
  4. Verfahren nach Anspruch 2 oder 3, welches ferner aufweist: Aktualisieren einer Grammatik eines Sprachmodells, basierend auf der zweiten Liste; und Benutzen der aktualisierten Grammatik des Sprachmodells, um das Ergebnis zu erzeugen.
  5. Verfahren nach einem der vorherigen Ansprüche, wobei das Analysieren das Analysieren der wenigstens zwei Elemente der ersten Liste aufweist, um die Unterschiede zwischen den wenigstens zwei Elementen zu bestimmen.
  6. Verfahren nach einem der vorherigen Ansprüche, wobei das Analysieren ferner das Bestimmen der Unterschiede zwischen den Slots bzw. Positionen eines ersten Elements und den Slots bzw. Positionen eines zweiten Elements der ersten Liste aufweist, um die Unterschiede zu bestimmen.
  7. Verfahren nach Anspruch 6, wobei das Bestimmen der Unterschiede das Bestimmen der orthographischen Unterschiede zwischen den Positionen des ersten Elementes und den Positionen des zweiten Elementes aufweist.
  8. Verfahren nach Anspruch 7, wobei die orthographischen Unterschiede auf einer Sprache basieren, welche zu der Position gehört.
  9. Verfahren nach Anspruch 7 oder 8, wobei die orthographischen Unterschiede auf wenigstens einem von Folgendem basieren: Buchstaben, Ziffern, Zeichen, Lauten und Töne der Positionen.
  10. Verfahren nach Ansprüchen 6 bis 9, wobei das Bestimmen der Unterschiede das Bestimmen der Vertrauensunterschiede zwischen den Positionen des ersten Elementes und den Positionen des zweiten Elementes aufweist.
DE102014201676.2A 2013-04-19 2014-01-30 Verfahren für das Steuern des Dialogs von Sprachsystemen Active DE102014201676B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/866,829 2013-04-19
US13/866,829 US9202459B2 (en) 2013-04-19 2013-04-19 Methods and systems for managing dialog of speech systems

Publications (2)

Publication Number Publication Date
DE102014201676A1 true DE102014201676A1 (de) 2014-10-23
DE102014201676B4 DE102014201676B4 (de) 2023-03-30

Family

ID=51629100

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014201676.2A Active DE102014201676B4 (de) 2013-04-19 2014-01-30 Verfahren für das Steuern des Dialogs von Sprachsystemen

Country Status (3)

Country Link
US (1) US9202459B2 (de)
CN (1) CN104112448B (de)
DE (1) DE102014201676B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018200088B3 (de) 2018-01-04 2019-06-13 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten einer Spracheingabe, Kraftfahrzeug und Nutzerendgerät mit einer Sprachverarbeitung

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140358538A1 (en) * 2013-05-28 2014-12-04 GM Global Technology Operations LLC Methods and systems for shaping dialog of speech systems
CN104360897B (zh) * 2014-10-29 2017-09-22 百度在线网络技术(北京)有限公司 对话处理方法和对话管理系统
US9858918B2 (en) * 2016-03-15 2018-01-02 GM Global Technology Operations LLC Root cause analysis and recovery systems and methods
US10824798B2 (en) 2016-11-04 2020-11-03 Semantic Machines, Inc. Data collection for a new conversational dialogue system
US10713288B2 (en) 2017-02-08 2020-07-14 Semantic Machines, Inc. Natural language content generator
US10762892B2 (en) * 2017-02-23 2020-09-01 Semantic Machines, Inc. Rapid deployment of dialogue system
US10586530B2 (en) 2017-02-23 2020-03-10 Semantic Machines, Inc. Expandable dialogue system
US11069340B2 (en) 2017-02-23 2021-07-20 Microsoft Technology Licensing, Llc Flexible and expandable dialogue system
US11132499B2 (en) 2017-08-28 2021-09-28 Microsoft Technology Licensing, Llc Robust expandable dialogue system
CN114020898B (zh) * 2022-01-07 2022-04-19 和美(深圳)信息技术股份有限公司 人机自动对话方法、装置、电子设备及存储介质

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU5803394A (en) 1992-12-17 1994-07-04 Bell Atlantic Network Services, Inc. Mechanized directory assistance
US5903864A (en) 1995-08-30 1999-05-11 Dragon Systems Speech recognition
CA2303312A1 (en) * 1997-09-24 1999-04-01 Guido Gallopyn Apparatus and method for distinguishing similar-sounding utterances in speech recognition
US5987411A (en) * 1997-12-17 1999-11-16 Northern Telecom Limited Recognition system for determining whether speech is confusing or inconsistent
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
US7526431B2 (en) 2001-09-05 2009-04-28 Voice Signal Technologies, Inc. Speech recognition using ambiguous or phone key spelling and/or filtering
US7246062B2 (en) * 2002-04-08 2007-07-17 Sbc Technology Resources, Inc. Method and system for voice recognition menu navigation with error prevention and recovery
US7676364B2 (en) 2004-03-25 2010-03-09 Ashwin Rao System and method for speech-to-text conversion using constrained dictation in a speak-and-spell mode
US7299181B2 (en) * 2004-06-30 2007-11-20 Microsoft Corporation Homonym processing in the context of voice-activated command systems
US20120158695A1 (en) 2004-09-07 2012-06-21 Mr. Scott P. Stuart More efficient search algorithm (MESA) using: integrated system optimizer
US8942985B2 (en) * 2004-11-16 2015-01-27 Microsoft Corporation Centralized method and system for clarifying voice commands
US7643985B2 (en) * 2005-06-27 2010-01-05 Microsoft Corporation Context-sensitive communication and translation methods for enhanced interactions and understanding among speakers of different languages
US20070043562A1 (en) * 2005-07-29 2007-02-22 David Holsinger Email capture system for a voice recognition speech application
US7904298B2 (en) 2006-11-17 2011-03-08 Rao Ashwin P Predictive speech-to-text input
US8099287B2 (en) * 2006-12-05 2012-01-17 Nuance Communications, Inc. Automatically providing a user with substitutes for potentially ambiguous user-defined speech commands
US7844456B2 (en) * 2007-03-09 2010-11-30 Microsoft Corporation Grammar confusability metric for speech recognition
US20080243504A1 (en) * 2007-03-30 2008-10-02 Verizon Data Services, Inc. System and method of speech recognition training based on confirmed speaker utterances
US8423362B2 (en) * 2007-12-21 2013-04-16 General Motors Llc In-vehicle circumstantial speech recognition
WO2009105639A1 (en) * 2008-02-22 2009-08-27 Vocera Communications, Inc. System and method for treating homonyms in a speech recognition system
US8082148B2 (en) * 2008-04-24 2011-12-20 Nuance Communications, Inc. Testing a grammar used in speech recognition for reliability in a plurality of operating environments having different background noise
US9123341B2 (en) * 2009-03-18 2015-09-01 Robert Bosch Gmbh System and method for multi-modal input synchronization and disambiguation
KR20110072847A (ko) * 2009-12-23 2011-06-29 삼성전자주식회사 열려진 사용자 의도 처리를 위한 대화관리 시스템 및 방법
US8433570B2 (en) * 2010-01-06 2013-04-30 General Motors Llc Method of recognizing speech
US8626511B2 (en) * 2010-01-22 2014-01-07 Google Inc. Multi-dimensional disambiguation of voice commands
US20110307250A1 (en) * 2010-06-10 2011-12-15 Gm Global Technology Operations, Inc. Modular Speech Recognition Architecture
US8473289B2 (en) * 2010-08-06 2013-06-25 Google Inc. Disambiguating input based on context
US9418674B2 (en) * 2012-01-17 2016-08-16 GM Global Technology Operations LLC Method and system for using vehicle sound information to enhance audio prompting

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018200088B3 (de) 2018-01-04 2019-06-13 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten einer Spracheingabe, Kraftfahrzeug und Nutzerendgerät mit einer Sprachverarbeitung
WO2019134774A1 (de) 2018-01-04 2019-07-11 Volkswagen Aktiengesellschaft Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zum verarbeiten einer spracheingabe, kraftfahrzeug und nutzerendgerät mit einer sprachverarbeitung
US11646031B2 (en) 2018-01-04 2023-05-09 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium having instructions for processing a speech input, transportation vehicle, and user terminal with speech processing

Also Published As

Publication number Publication date
US20140316782A1 (en) 2014-10-23
CN104112448B (zh) 2017-07-14
US9202459B2 (en) 2015-12-01
DE102014201676B4 (de) 2023-03-30
CN104112448A (zh) 2014-10-22

Similar Documents

Publication Publication Date Title
DE102014201676A1 (de) Verfahren und Systeme für das Steuern des Dialogs von Sprachsystemen
DE102013222507B4 (de) Verfahren zum Adaptieren eines Sprachsystems
DE102013223036B4 (de) Adaptionsverfahren für Sprachsysteme
EP0925578B1 (de) Sprachverarbeitungssystem und verfahren zur sprachverarbeitung
DE102014109122A1 (de) Systeme und Verfahren für ergebnisbezogene Arbitrierung in Sprachdialogsystemen
DE69827988T2 (de) Sprachmodelle für die Spracherkennung
DE102017124264B4 (de) Computerimplementiertes Verfahren und Rechensystem zum Bestimmen phonetischer Beziehungen
DE112017004374T5 (de) System und Verfahren zur Spracherkennung
DE102018113034A1 (de) Stimmenerkennungssystem und stimmenerkennungsverfahren zum analysieren eines befehls, welcher mehrere absichten hat
DE102020205786A1 (de) Spracherkennung unter verwendung von nlu (natural language understanding)-bezogenem wissen über tiefe vorwärtsgerichtete neuronale netze
DE102016125954A1 (de) Sprachwiedererkennung mit externen Datenquellen
EP0994461A2 (de) Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äusserung
WO2009010358A1 (de) Verfahren zur spracherkennung
DE102013222757A1 (de) Adaptionsverfahren und -systeme für Sprachsysteme
DE102015109379A1 (de) Systeme und Verfahren für ein Navigationssystem, das eine Suche mit Diktieren und Teilübereinstimmung verwendet
DE102015106280B4 (de) Systeme und Verfahren zum Kompensieren von Sprachartefakten in Spracherkennungssystemen
EP1884924A1 (de) Verfahren zum Erzeugen einer kontextbasierten Sprachdialogausgabe in einem Sprachdialogsystem
EP1182646A2 (de) Verfahren zur Zuordnung von Phonemen
EP3152753A1 (de) Assistenzsystem, das mittels spracheingaben steuerbar ist, mit einer funktionseinrichtung und mehreren spracherkennungsmodulen
DE69331247T2 (de) Spracherkennungssystem
DE112015003357T5 (de) Verfahren und System zum Erkennen einer eine Wortabfolge enthaltenden Sprachansage
DE102005018174A1 (de) Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11
DE102013222520B4 (de) Verfahren für ein sprachsystem eines fahrzeugs
DE102018132160A1 (de) System und verfahren zum verstehen von standardsprache und dialekten
EP3576084B1 (de) Effiziente dialoggestaltung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: LKGLOBAL LORENZ UND KOPF PATENTANWALT, ATTORNE, DE

Representative=s name: LKGLOBAL | LORENZ & KOPF PARTG MBB PATENTANWAE, DE

Representative=s name: LKGLOBAL ] LORENZ & KOPF PARTG MBB PATENTANWAE, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final