[go: up one dir, main page]

DE212017000226U1 - Fahrzeugbasiertes Fernsteuerungssystem - Google Patents

Fahrzeugbasiertes Fernsteuerungssystem Download PDF

Info

Publication number
DE212017000226U1
DE212017000226U1 DE212017000226.3U DE212017000226U DE212017000226U1 DE 212017000226 U1 DE212017000226 U1 DE 212017000226U1 DE 212017000226 U DE212017000226 U DE 212017000226U DE 212017000226 U1 DE212017000226 U1 DE 212017000226U1
Authority
DE
Germany
Prior art keywords
vehicle
voice command
user
control system
remote control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE212017000226.3U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GENTEX CORP
Gentex Corp Carbondale
Original Assignee
GENTEX CORP
Gentex Corp Carbondale
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GENTEX CORP, Gentex Corp Carbondale filed Critical GENTEX CORP
Publication of DE212017000226U1 publication Critical patent/DE212017000226U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Selective Calling Equipment (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Fernsteuerungssystem eines Fahrzeugs, umfassend:eine erste fahrzeuginterne Vorrichtung; undeine zweite fahrzeuginterne Vorrichtung, umfassend:einen Benutzereingabemechanismus; undeine Steuerung oder Regelung, die zum Ansprechen auf eine Eingabe von einem Benutzereingabemechanismus programmiert ist, wobei bei Betätigung des Benutzereingabemechanismus die Steuerung die erste fahrzeuginterne Vorrichtung auffordert, eine elektronische Kommunikation zu senden, die in einem Benutzersprachbefehl resultiert, der an einen Server bereitgestellt wird, und wobei der Server den Benutzersprachbefehl verarbeitet und einen Befehl zum Ausführen einer durch den Benutzersprachbefehl spezifizierten Aktion erzeugt.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • Die vorliegende Erfindung betrifft generell ein Fernsteuerungssystem eines Fahrzeugs und insbesondere ein fahrzeugbasiertes Fernsteuerungssystem zum Steuern oder Regeln von einer oder mehreren intelligenten Vorrichtungen, die sich entfernt von dem Fahrzeug befinden.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Gemäß einem Aspekt der vorliegenden Erfindung wird ein Fernsteuerungssystem eines Fahrzeugs bereitgestellt, das eine erste fahrzeuginterne Vorrichtung und eine zweite fahrzeuginterne Vorrichtung umfasst. Die zweite fahrzeuginterne Vorrichtung umfasst einen Benutzereingabemechanismus und eine Steuerung oder Regelung, die zum Ansprechen auf eine Eingabe von dem Benutzereingabemechanismus programmiert ist. Bei Betätigung des Benutzereingabemechanismus fordert die Steuerung die erste fahrzeuginterne Vorrichtung auf, eine elektronische Kommunikation zu senden, was in einem Benutzersprachbefehl resultiert, der an einen Server bereitgestellt wird. Der Server verarbeitet den Benutzersprachbefehl und erzeugt einen Befehl zum Ausführen einer durch den Benutzersprachbefehl spezifizierten Aktion.
  • Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung wird ein Fernsteuerungssystem eines Fahrzeugs bereitgestellt. Das Fernsteuerungssystem ist in Kommunikation mit einer ersten fahrzeuginternen Vorrichtung und umfasst eine zweite fahrzeuginterne Vorrichtung. Die zweite fahrzeuginterne Vorrichtung umfasst einen Benutzereingabemechanismus mit mindestens einem betätigbaren Element und eine Steuerung oder Regelung, die programmiert ist, auf eine Eingabe von dem Benutzereingabemechanismus anzusprechen. Bei Betätigen von dem mindestens einen betätigbaren Element fordert die Steuerung die erste fahrzeuginterne Vorrichtung auf, einen vorher aufgezeichneten Benutzersprachbefehl, der dem mindestens einen betätigbaren Element zugewiesen ist, zu senden. Der vorher aufgezeichnete Benutzersprachbefehl wird an einen Server gesendet, der in Kommunikation mit einer oder mehreren intelligenten Vorrichtungen ist, die sich entfernt von dem Fahrzeug befinden.
  • Ebenfalls offenbart wird ein fahrzeugbasiertes Fernsteuerungsverfahren. Das Verfahren umfasst den Schritt des Bereitstellens einer fahrzeuginternen Vorrichtung, die einen mit einer Steuerung gekoppelten Benutzereingabemechanismus umfasst. Der Benutzereingabemechanismus umfasst mindestens ein betätigbares Element mit einem vorher aufgezeichneten Benutzersprachbefehl, der diesem zugewiesen. Das Verfahren umfasst zudem die Schritte des Bereitstellens einer Eingabe von dem Benutzereingabemechanismus an die Steuerung basierend auf der Aktivierung von dem mindestens einen betätigbaren Element und des Verwendens der Steuerung, um eine andere fahrzeuginterne Vorrichtung aufzufordern, den vorher aufgezeichneten Benutzersprachbefehl an einen Server, der in Kommunikation mit einer oder mehreren intelligenten Vorrichtungen ist, zu senden, die sich entfernt von einem Fahrzeug befinden.
  • Diese und weitere Merkmale, Vorteile und Aufgaben der vorliegenden Erfindung werden von einem Fachmann unter Bezugnahme auf die folgende Beschreibung, die Ansprüche und die angefügten Zeichnungen weitergehend verstanden und nachvollziehbar.
  • Figurenliste
  • Die vorliegende Offenbarung wird anhand der ausführlichen Beschreibung und der zugehörigen Zeichnungen vollständiger verstanden, wobei:
    • 1 ein Blockdiagramm ist, das ein fahrzeugbasiertes Steuersystem in Kommunikation mit einem Server zeigt, das auf Sprachbefehle gemäß Ausführungsformen der vorliegenden Erfindung anspricht;
    • 2 ein Blockdiagramm ist, welches das fahrzeugbasierte Steuersystem ausführlicher zeigt;
    • 3 eine perspektivische Vorderansicht einer Rückspiegelanordnung ist, die eine fahrzeuginterne Vorrichtung des fahrzeugbasierten Steuersystems einschließt; und
    • 4 ein Ablaufdiagramm eines fahrzeugbasierten Fernsteuerungsverfahrens ist, das unter Verwendung eines Benutzereingabemechanismus und einer Steuerung der fahrzeuginternen Vorrichtung implementiert ist.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Nachfolgend wird detailliert auf die vorliegenden bevorzugten Ausführungsformen der Erfindung Bezug genommen, wobei Beispiele davon in den beigefügten Zeichnungen veranschaulicht sind. So weit wie möglich werden die gleichen Bezugszeichen in den Zeichnungen zum Bezeichnen gleicher oder ähnlicher Teile verwendet. In den Zeichnungen sind die abgebildeten Konstruktionselemente nicht maßstabsgetreu, und bestimmte Komponenten sind im Verhältnis zu den anderen Komponenten zum Zwecke besserer Hervorhebung und Verständnisses vergrößert.
  • Die Begriffe „beinhalten“, „umfasst“, „umfassen“ oder jegliche andere Variationen hiervon decken insoweit eine nicht-ausschließliche Einbeziehung ab, als dass ein Prozess, Verfahren, Produkt oder eine Vorrichtung, der/die/das eine Liste von Elementen umfasst, nicht notwendigerweise auf diese Elemente beschränkt ist, sondern dass er/sie/es andere Elemente beinhalten kann, die nicht ausdrücklich aufgelistet sind oder die eines solchen Prozesses, Verfahrens, Produktes oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“ vorangeht, schließt nicht, ohne mehr Beschränkungen, die Existenz von zusätzlichen identischen Elementen in dem Prozess, Verfahren, Artikel oder der Vorrichtung aus, die das Element umfasst.
  • Wie hierin benutzt, bedeutet der Ausdruck „und/oder“, wenn er in einer Liste von zwei oder mehr Dingen benutzt ist, dass jedes einzelne der aufgelisteten Dinge allein oder jede Kombination von zwei oder mehr der aufgelisteten Dinge angewandt werden kann. Beispielsweise kann, wenn eine Zusammensetzung als Komponente A, B und/oder C enthaltend beschrieben ist, die Zusammensetzung nur A; nur B, nur C; A und B zusammen; A und C zusammen; B und C zusammen; oder A, B und C zusammen enthalten.
  • 1 zeigt eine sprachgesteuerte intelligente Vorrichtung 10, die sich innerhalb eines Heims 12 befindet. Zum Zwecke der Veranschaulichung und des besseren Verständnisses kann die Vorrichtung 10 ein von Amazon verkaufter Echo oder Echo Dot sein. Bekanntermaßen umfasst der Echo oder Echo Dot ein integriertes Mikrofon und einen Lautsprecher und ist eine sprachgesteuerte Freisprechvorrichtung, die einen virtuellen Assistenten genannt Alexa verwendet. Im Betrieb horcht die Vorrichtung 10 kontinuierlich auf ein von einem Benutzer auszusprechendes Aufweckwort (z. B. „Alexa“). Sobald der Benutzer das Aufweckwort ausspricht, erkennt die Vorrichtung 10, dass das Aufweckwort gesagt wurde, und beginnt einen Benutzersprachbefehl aufzuzeichnen. Sobald der Benutzer aufgehört hat zu sprechen, sendet die Vorrichtung 10 die Aufzeichnung über das Internet 14 an einen Server 16, wie beispielsweise die Alexa Sprachdienste (AVS), die ein von Amazon betriebener Cloud-Dienst sind. Der Server 16 verarbeitet die Aufzeichnung und erzeugt einen Befehl, der über das Internet 14 an die Vorrichtung 10 gesendet wird. Die Vorrichtung 10 empfängt den Befehl und implementiert eine Aufgabe, die mit dem von dem Benutzer ursprünglich gesprochenen Benutzersprachbefehl konsistent ist. Wenn der Benutzer beispielsweise sagt „Alexa, wie ist das Wetter heute?“ kann Alexa mit einer mit dem geografischen Gebiet des Benutzers in Zusammenhang stehenden allgemeinen Prognose erwidern.
  • In anderen Fällen kann die Vorrichtung 10 mit einer oder mehreren kompatiblen intelligenten Vorrichtungen 18, wie beispielsweise irgendeiner von denjenigen die beispielsweise von Samsung SmartThings, Wink, Insteon, Nest, Phillips Hue, Wemo, Ecobee hergestellt werden, verbunden werden. Sobald die Vorrichtungen 18 mit der Vorrichtung 10 verbunden sind, kann der Server 16 Befehle zum Steuern von einer oder mehreren der Vorrichtungen 18 als Reaktion auf eine komplimentäre Benutzersprachbefehlaufzeichnung bzw. -aufzeichnungen erzeugen. Wenn der Server 16 beispielsweise einen Benutzersprachbefehl empfängt, der mit der Steuerung einer verbundenen Vorrichtung in Zusammenhang steht, wie beispielsweise einer der Vorrichtungen 18, kann der Server 16 den Benutzersprachbefehl vor dessen Senden an einen anderen Server 19, der für die verbundene Vorrichtung zuständig ist, parsen. Dieser Server 19 würde wiederum einen Befehl gemäß dem Benutzersprachbefehl erzeugen. Alternativ ist es denkbar, dass dieser Server 16 einen Befehl erzeugen kann, um die verbundene Vorrichtung direkt zu steuern, wenn eine solche Funktionalität es erlaubt.
  • Dementsprechend können Vorrichtungen wie Echo und Echo Dot es einem Benutzer ermöglichen, nicht nur Informationen auf Anforderung anzufordern, sondern auch verschiedene Heim-Merkmale als Reaktion auf einen Benutzersprachbefehl zu automatisieren. Diese Merkmale können beispielsweise Lichter, Thermostate, Lautsprecher, Sprinkler, Lüfter und Fernseher umfassen. Die Vorrichtung 10 kann außerdem derart konfiguriert sein, dass ein Benutzersprachbefehl darin resultiert, dass der Server 16 einen Befehl erzeugt, der über das Internet 14 an einen webbasierten Dienstanbieter 20 gesendet wird, um diesen aufzufordern, einen Dienst zu erbringen. Gegenwärtige Installationen von Echo und Echo Dot ermöglichen beispielsweise einem Benutzer, Pizza von Dominos Pizza oder ein Shuttle-Fahrzeug von Uber zu bestellen.
  • Derzeit wurde die Schnittstelle zu AVS öffentlich gemacht was dadurch Dritte in die Lage versetzt, Vorrichtungen und/oder Dienste zu entwickeln, die mit Echo oder Echo Dot kompatibel sind. Die Vielseitigkeit an Vorrichtungen wie Echo oder Echo Dot wird dementsprechend wahrscheinlich mit der Zeit aufgrund einer Zunahme der Anzahl an Dritten, die kompatible Anwendungen für ihre Produkte und/oder Dienste entwickeln, zunehmen. Obwohl die Vorrichtung 10 hierin als ein Echo oder Echo Dot beschrieben wurde, versteht es sich, dass die Vorrichtung 10 nicht zwangsläufig auf diese begrenzt ist. Google, Apple und Microsoft bieten beispielsweise auch Dienste an, die Aufgaben basierend auf Benutzersprachbefehlen ausführen können. Solche Dienste verwenden eine ähnliche Herangehensweise wie Amazon in der Weise, dass Benutzersprachbefehle in einem Cloud-Dienst verarbeitet werden. Dementsprechend ist es denkbar, dass die Vorrichtung 10 auf OK Google, Siri und Cortana, wie von Google, Apple und Microsoft entsprechend angeboten basieren kann, ohne von den hierin bereitgestellten Lehren wesentlich abzuweichen.
  • Während Vorrichtungen wie Echo und Echo Dot sich im Bereich der Heimautomatisierung als ziemlich fähig erwiesen haben, leiden diese unter mehreren Nachteilen. Insbesondere erfordern Echo und Echo Dot eine Internetkonnektivität und sind auf eine Hörweite begrenzt, was typischerweise erforderlich macht, dass ein Benutzer im gleichen Raum ist, damit die Vorrichtung das Aufweckwort hört. In lauten Umgebungen kann es des Weiteren schwierig sein, einen Benutzersprachbefehl von einem Umgebungsgeräusch zu differenzieren. Daher kann es erforderlich sein, dass der Benutzer den Benutzersprachbefehl mehrere Male wiederholt. Die Verwendung dieser Vorrichtungen kann daher generell auf eine verhältnismäßig leise Wohnung oder ein Büro begrenzt sein. Dementsprechend gibt es einen Bedarf für ein Mittel, um diese Vorrichtungen und/oder damit verbundene Vorrichtungen zu steuern, wenn der Benutzer unterwegs und nicht in Hörweite ist, wie beispielsweise, wenn dieser ein Fahrzeug fährt.
  • Unter Bezugnahme auf die 1 und 2 ist ein fahrzeugbasiertes Fernsteuerungssystem 22 gemäß Ausführungsformen der vorliegenden Erfindung gezeigt. Wie hierin beschrieben, kommuniziert das Fernsteuerungssystem 22 mit dem Server 16 und ermöglicht einem Benutzer, typischerweise einem Fahrzeuginsassen (z. B. dem Fahrer), die Vorrichtung 10 und/oder die damit verbundenen Vorrichtungen 18 entfernt zu steuern, ohne einen Benutzersprachbefehl ausgeben zu müssen. Das Fernsteuerungssystem 22 kann eine erste fahrzeuginterne Vorrichtung umfassen, die als eine mobile elektronische Vorrichtung 24 gezeigt ist und sich generell innerhalb eines Fahrzeugs 26 befindet. Die erste fahrzeuginterne Vorrichtung kann bei alternativen Ausführungsformen innerhalb der Fahrzeugausrüstung, wie z. B. einer Mittelsteuerkonsole, einer Dachkonsole und dergleichen, integriert sein. Die mobile elektronische Vorrichtung 24 verbindet sich über einen Mobiltelefonturm 28 oder andere bekannte Mittel, wie beispielsweise Wi-Fi, mit dem Internet 14. Die mobile elektronische Vorrichtung 24 kann ein Smartphone, Tablet oder dergleichen sein oder kann alternativ eine zugehörige Vorrichtung sein, die in das Fahrzeug integriert oder tragbar ist. Das Fernsteuerungssystem 22 kann auch eine zweite fahrzeuginterne Vorrichtung, die als fahrzeuginterne Vorrichtung 30 gezeigt ist und in Kommunikation mit der mobilen elektronischen Vorrichtung 24 ist, umfassen. Die fahrzeuginterne Vorrichtung 30 kann innerhalb des Fahrzeugs 26 integriert sein und kann Strom von der Fahrzeugbatterie- und/oder der Fahrzeugzündung erhalten. Gemäß einer Ausführungsform kann die fahrzeuginterne Vorrichtung 30 eine von mehreren HOMELINK®-Vorrichtungen sein, die von Gentex Corporation in Zeeland, Michigan erhältlich sind. Solche Vorrichtungen können beispielsweise in einer Rückspiegelanordnung, einer Sonnenblende oder einer Fahrzeugkonsole, wie beispielsweise einer Dachkonsole, integriert sein.
  • Die fahrzeuginterne Vorrichtung 30 umfasst einen Benutzereingabemechanismus 32, eine Schnittstelle 34, die zum Kommunizieren mit der mobilen elektronischen Vorrichtung 24 konfiguriert ist, und eine Steuerung 36, die mit dem Benutzereingabemechanismus 32 und der Schnittstelle 34 gekoppelt ist. Der Benutzereingabemechanismus 32 kann ein oder mehrere betätigbare Elemente umfassen, die beispielhaft als die Tasten A, B und C gezeigt sind. Obwohl drei Tasten gezeigt sind, versteht es sich, dass, falls gewünscht, mehr oder weniger Tasten vorgesehen werden können. Die betätigbaren Elemente können alternativ als Kippschalter, kapazitive Sensoren, optische Sensoren oder jede andere Komponente verkörpert sein, die fähig ist, eine Benutzerbetätigung zu registrieren. Der Benutzereingabemechanismus 32 kann mit einer Benutzerschnittstelle 38 verbunden sein, die auch einen oder mehrere optische Anzeiger 40 umfasst, um als Reaktion auf eine Betätigung des Benutzereingabemechanismus 32 ein Feedback bereitzustellen.
  • Die Schnittstelle 34 kann einen drahtlosen Kommunikationstransceiver 42 umfassen, um der Steuerung 36 zu ermöglichen, mit der mobilen elektronischen Vorrichtung 24 drahtlos zu kommunizieren. Der drahtlose Kommunikationstransceiver 42 kann beispielsweise derart konfiguriert sein, dass eine Kommunikation zwischen der Steuerung 36 und der mobilen elektronischen Vorrichtung 24 über Bluetooth®, Bluetooth® Low Energy, Wi-Fi oder jedes andere bekannte drahtlose Kommunikationsprotokoll erfolgt. Die Schnittstelle 34 kann zusätzlich oder alternativ eine Fahrzeugbusschnittstelle 44 umfassen, die mit einem Fahrzeugbus 46 verbunden ist, um der Steuerung 36 zu ermöglichen, mit der mobilen elektronischen Vorrichtung 24 über einen USB-Anschluss oder eine andere bekannte verdrahtete Verbindung zu kommunizieren. Der Fahrzeugbus 46 kann auch mit verschiedener Fahrzeugausrüstung verbinden, die beispielsweise ein Fahrzeugnavigationssystem 48, einen Lichtsensor 49 und ein Fahrzeugsoundsystem 50 umfasst.
  • In Bezug auf hierin beschriebene Ausführungsformen kann die Steuerung 36 ein Mikroprozessor sein, der programmiert ist, über die Schnittstelle 34 als Reaktion auf das Betätigen des Benutzereingabemechanismus 32 elektronische Kommunikationen zu und von der mobilen elektronischen Vorrichtung 24 zu senden und zu empfangen. Bei Betätigung des Benutzereingabemechanismus 32 (z. B. drückt der Benutzer die Tasten A, B, C oder eine Kombination davon) fordert die Steuerung 36 die mobile elektronische Vorrichtung 24 auf, eine elektronische Kommunikation zum Verarbeiten über das Internet 14 an den Server 16 zu senden. Der Server 16 erzeugt basierend auf der elektronischen Kommunikation einen Befehl, der über das Internet 14 gesendet wird, um eine durch die elektronische Kommunikation spezifizierte Aktion auszuführen.
  • Die elektronische Kommunikation umfasst einen vorher aufgezeichneten Benutzersprachbefehl, der in der mobilen elektronischen Vorrichtung 24 gespeichert ist und einer oder mehreren Tasten A, B, C unter Verwendung einer Anwendung 52 zugewiesen ist, die in der mobilen elektronischen Vorrichtung 24 gespeichert ist. Die Anwendung 52 tauscht Kommunikation sowohl mit der fahrzeuginternen Vorrichtung 30 als auch mit dem Server 16 aus und ermöglicht dem Benutzer, einen vorher aufgezeichneten Benutzersprachbefehl jeder von den Tasten A, B, C des Benutzereingabemechanismus 32 zuzuweisen. Zusätzlich kann ein vorher aufgezeichneter Benutzersprachbefehl zu zwei oder mehr Tasten A, B, C zugewiesen sein, die gleichzeitig gedrückt werden, und/oder einer einzelnen Taste A, B, C, die mehrere Male innerhalb eines Zeitraums gedrückt wird, und dadurch kann die Zahl an einzigartigen Zuweisungen erhöht werden, die hergestellt werden können.
  • Es ist vorstellbar, dass ein gegebener vorher aufgezeichneter Benutzersprachbefehl ein tatsächlicher Sprachbefehl sein kann, der von dem Benutzer gesprochen und unter Verwendung eines Mikrofons 54 der mobilen elektronischen Vorrichtung 24, einer generischen Sprachbefehlaufzeichnung, die in der Anwendung 52 beinhaltet ist, oder einer semigenerischen Sprachbefehlaufzeichnung, die in der Anwendung 52 beinhaltet ist, aufgezeichnet wird. Unter Verwendung des Echo oder Echo Dot zum Zwecke des Verständnisses wird nachfolgend ein Einrichtungsprozess beschrieben, bei dem der Benutzer wünscht, einen vorher aufgezeichneten Benutzersprachbefehl zum Einschalten der Heimfrontbeleuchtung des Benutzers 12 einer der Tasten A, B, C zuzuweisen. In Bezug auf die folgenden Implementierungen des Einrichtungsprozesses kann die Frontbeleuchtung einer der intelligenten Vorrichtungen 18, die mit der intelligenten Vorrichtung 10 verbunden sind, entsprechen und kann direkt durch den Server 16 gesteuert werden oder kann durch die Vorrichtung 10 oder den Server 19 durch einen Befehl von dem Server 16 gesteuert werden.
  • Gemäß einer ersten Implementierung stellt der Benutzer einen vorher aufgezeichneten Benutzersprachbefehl bereit, indem er einfach spricht und durch das Mikrofon 54 den folgenden Benutzersprachbefehl aufzeichnet: „Alexa, schalte die Frontbeleuchtung ein“. Bei solch einem Szenarium muss der Benutzer nur den vorher aufgezeichneten Benutzersprachbefehl einer der Tasten A, B, C zuweisen, um den Einrichtungsprozess abzuschließen. Der zugewiesene vorher aufgezeichnete Benutzersprachbefehl wird in der mobilen elektronischen Vorrichtung 24 derart gespeichert, dass jede anschließende Betätigung der zugewiesenen Taste A, B, C darin resultiert, dass der vorher aufgezeichnete Benutzersprachbefehl zum Verarbeiten von der mobilen elektronischen Vorrichtung 24 an den Server 16 gesendet wird. Der Server 16 wiederum sendet einen Befehl an die entsprechende Vorrichtung 18, um die Frontbeleuchtung einzuschalten. Der Befehl kann alternativ an die Vorrichtung 10 gesendet werden, um dasselbe zu erreichen.
  • Bei einer zweiten Implementierung wird der vorher aufgezeichnete Benutzersprachbefehl durch die Anwendung 52 bereitgestellt und umfasst die folgende generische Sprachbefehlaufzeichnung: „Alexa, schalte die Vorrichtung eins ein“. Bei solch einem Szenarium ist der Einrichtungsprozess abgeschlossen, sobald der Benutzer die generische Audiodatei einer der Tasten A, B, C zuweist und auch die „Vorrichtung eins“ als die Frontbeleuchtung zuweist, die unter Verwendung der Anwendung 52 verwaltet werden kann. Die zugewiesene generische Sprachbefehlaufzeichnung wird in der mobilen elektronischen Vorrichtung 24 derart gespeichert, dass jede anschließende Betätigung der zugewiesenen Taste A, B, C darin resultiert, dass die generische Sprachbefehlaufzeichnung von der mobilen elektronischen Vorrichtung 24 an den Server 16 zum Verarbeiten gemäß der Anweisung, dass „Vorrichtung eins“ der Frontbeleuchtung entspricht, gesendet wird. Der Server 16 wiederum sendet einen Befehl an die entsprechende Vorrichtung 18, um die Frontbeleuchtung einzuschalten. Der Befehl kann alternativ an die Vorrichtung 10 gesendet werden, um dasselbe zu erreichen.
  • Bei einer dritten Implementierung wird der vorher aufgezeichnete Benutzersprachbefehl durch die Anwendung 52 bereitgestellt und umfasst die folgende semigenerische Sprachbefehlaufzeichnung: „Alexa, schalte ein“, wobei es erforderlich ist, dass der Benutzer die Leerstelle ausfüllt, indem er „die Frontbeleuchtung“ sagt und es aufzeichnet, worauf die Anwendung 52 die semigenerische Sprachbefehlaufzeichnung aktualisiert, um die vom Benutzer bereitgestellte Aufzeichnung einzuschließen, die ein oder mehrere gesprochene Worte umfassen kann. Der Benutzer kann dann die aktualisierte semigenerische Sprachbefehlaufzeichnung einer der Tasten A, B, C zuweisen und dadurch den Einrichtungsprozess abschließen. Die zugewiesene aktualisierte semigenerische Sprachbefehlaufzeichnung wird in der mobilen elektronischen Vorrichtung 24 gespeichert, sodass jede anschließende Betätigung der zugewiesenen Taste A, B, C darin resultiert, dass die aktualisierte semigenerische Sprachbefehlaufzeichnung zum Verarbeiten von der mobilen elektronischen Vorrichtung 24 an den Server 16 gesendet wird. Der Server 16 sendet wiederum einen Befehl über das Internet 14 an die entsprechende Vorrichtung 18, um die Frontbeleuchtung einzuschalten. Der Befehl kann alternativ an die Vorrichtung 10 gesendet werden, um dasselbe zu erreichen.
  • Während die ersten, zweiten und dritten vorstehend beschriebenen Implementierungen das Speichern des vorher aufgezeichneten Benutzersprachbefehls in der mobilen elektronischen Vorrichtung 24 erwägen, ist es auch denkbar, dass der vorher aufgezeichnete Benutzersprachbefehl, sobald dieser einer der Tasten A, B, C zugewiesen ist, alternativ von der mobilen elektronischen Vorrichtung 24 über das Internet 14 übertragen und in einem Hostserver 56 gespeichert wird. Wenn die zugewiesene Taste A, B, C betätigt wird, würde die Steuerung 36 auf diese Weise stattdessen die mobile elektronische Vorrichtung 24 auffordern, eine elektronische Kommunikation in Form eines einfachen Befehls über das Internet 14 an den Hostserver 56 zu senden und diesen auffordern, den vorher aufgezeichneten Sprachbefehl zum Verarbeiten an den Server 16 zu senden. Der Server 16 würde dann einen Befehl an die Steuervorrichtung 18 senden, um in einer ähnlichen Weise wie derjenigen, die vorstehend in Bezug auf die ersten, zweiten und dritten Implementierungen beschrieben ist, die Frontbeleuchtung einzuschalten. Durch Verwenden der mobilen elektronischen Vorrichtung 24 zum Senden eines Befehls anstatt eines vorher aufgezeichneten Benutzersprachbefehls kann der Benutzer von einer Einsparung von Daten und Bandbreitenverwendung profitieren, da die Größe eines vorher aufgezeichneten Benutzersprachbefehls typischerweise größer ist als der entsprechende Befehl. Der Hostserver 56 kann ein Cloud-Dienst sein, der die API-(Anwenderprogrammschnittstelle) -Verbindung zu dem Server 16 und/oder irgendwelchen anderen mit der Vorrichtung 10 und/oder der bzw. den Vorrichtungen 18, die damit verbunden sind, in Zusammenhang stehenden Servern verwaltet. Während Hostserver 56 als von dem Server 16 getrennt gezeigt ist, ist hierin angedacht, dass der Hostserver 56 und der Server 16 bei einigen Ausführungsformen anderweitig integriert sein können.
  • In Bezug auf einige hierin beschriebene Ausführungsformen ist es denkbar, dass die Steuerung 36 programmiert sein kann, die mobile elektronische Vorrichtung 24 automatisch aufzufordern, einen Befehl oder einen vorher aufgezeichneten Benutzersprachbefehl als Reaktion auf eine Eingabe zu senden, die beispielsweise durch Fahrzeugausrüstung bereitgestellt wird. Gemäß einer Ausführungsform kann die Steuerung 36 auf eine von dem Fahrzeugnavigationssystem 48 über den Fahrzeugbus 46 und den Lichtsensor 49 bereitgestellte Eingabe ansprechen, um die mobile elektronische Vorrichtung 24 automatisch aufzufordern, einen zugewiesenen vorher aufgezeichneten Benutzersprachbefehl an den Server 16 zu senden. Der zugewiesene vorher aufgezeichnete Benutzersprachbefehl, der an den Server 16 gesendet wird, kann zum Einschalten der Frontbeleuchtung in Fällen, bei denen die Eingabe anzeigt, dass sich das Fahrzeug 26 dem Heim des Benutzers 12 zur Nachtzeit nähert, vorgesehen sein. Dies ist nur ein Beispiel dessen, wie eine automatische Kommunikation zwischen dem Fernsteuerungssystem 22 und dem Server 16 implementiert sein kann. Der Fachmann wird jedoch sicherlich andere Implementierungen im Hinblick auf die hierin bereitgestellten Lehren erkennen.
  • Unabhängig davon, wo der vorher aufgezeichnete Benutzersprachbefehl gespeichert ist, ist das Resultat generell das gleiche. Wann immer eine zugewiesene Taste A, B, C betätigt wird, oder in Fällen, in denen das Fernsteuerungssystem 22 mit dem Server 16 und/oder Hostserver 56 automatisch kommuniziert, wird daher letztlich der entsprechende vorher aufgezeichnete Sprachbefehl an den Server 16 gesendet, wo dieser verarbeitet und in einen Befehl, wie beispielsweise die Frontbeleuchtung einzuschalten, umgewandelt wird. Es versteht sich, dass verschiedene vorher aufgezeichnete Benutzersprachbefehle den Tasten A, B, C zugewiesen sein können, und abhängig vom Inhalt der vorher aufgezeichneten Benutzersprachbefehle kann der entsprechende Befehl, der durch den Server 16 erzeugt wird, zum Steuern der Vorrichtung 10, einer oder mehrerer Vorrichtungen 18, die mit der Vorrichtung 10 verbunden sind, oder einer Kombination davon sein. Es versteht sich daher, dass sich ein gegebener vorher aufgezeichneter Benutzersprachbefehl mit der Steuerung einer einzelnen intelligenten Vorrichtung oder einer Anzahl intelligenter Vorrichtungen in Zusammenhang stehen kann. Es ist denkbar, dass die Anzahl und/oder die Arten von mit einem gegebenen vorher aufgezeichneten Benutzersprachbefehl in Zusammenhang stehenden intelligenten Vorrichtungen unter Verwendung der Anwendung 52 verwaltet werden können. Die Befehle können alternativ zum Anfordern eines Dienstes von dem Dienstanbieter 20 oder von Informationen von der Vorrichtung 10 und jeder Vorrichtung bzw. jeden Vorrichtungen 18, die damit verbunden sind, sein.
  • Ein akustisches Feedback als Reaktion auf einen ausgeführten Befehl kann über das Internet 14 an die mobile elektronische Vorrichtung 24 gesendet werden, und kann durch einen Lautsprecher 58 der mobilen elektronischen Vorrichtung 24 abgespielt werden. Alternativ kann die mobile elektronische Vorrichtung 24 das Feedback an die Steuerung 36 über die Schnittstelle 34 senden, sodass das Feedback über das Fahrzeugsoundsystem 50 abgespielt werden kann. Bei einer Ausführungsform kann die Anwendung 52 das akustische Feedback in visuelles Feedback parsen oder umwandeln, bevor es dieses an die Steuerung 36 sendet. Das Feedback kann infolgedessen gegenüber dem Benutzer über visuelle Effekte ausgedrückt werden, die durch den bzw. die optischen Anzeiger 40 erzeugt werden. In Bezug auf die Ausführungsformen hierin kann Feedback einem Status, angeforderten Informationen oder anderen Informationen entsprechen, und kann über das Internet 14 (z. B. von der Vorrichtung 10, der bzw. den Vorrichtungen 18 oder dem Dienstanbieter 20) an die mobile elektronische Vorrichtung 24 über den Server 16 oder den Hostserver 56 gesendet werden.
  • 3 zeigt ein Beispiel eines Fahrzeugzubehörs in Form einer Rückspiegelanordnung 60, in der die fahrzeuginterne Vorrichtung 30 integriert sein kann. Obwohl sie in der Rückspiegelanordnung 60 gezeigt ist, versteht es sich, dass die fahrzeuginterne Vorrichtung 30 in verschiedenes anderes Fahrzeugzubehör oder verschiedene Fahrzeugorte innerhalb des Fahrzeugs 26 integriert sein könnte. Wie in 3, gezeigt kann die Rückspiegelanordnung 60 ein Gehäuse 62 zum Befestigen an dem Fahrzeug 26 und eine Rückansichtsvorrichtung 64, wie beispielsweise ein Rückspiegelelement, eine Rückansichtsanzeige oder eine Kombination davon umfassen. Zum Zwecke der Veranschaulichung befinden sich die Tasten A, B und C des Benutzereingabemechanismus 32 beispielhaft nahe einem oberen Eckenabschnitt des Gehäuses 62 zusammen mit dem optischen Anzeiger 40a. Die Tasten A, B und C können sich bei alternativen Ausführungsformen an anderer Stelle befinden, wie z. B. an einer Frontblende der Rückspiegelanordnung 60. Bei noch weiteren alternativen Ausführungsformen können die Tasten A, B und C in einer Fahrzeugausrüstung, wie z. B., aber nicht beschränkt auf, einer Mittelkonsole, einer Dachkonsole und dergleichen, vorgesehen sein. Der optische Anzeiger 40a wird betrieben, um als Reaktion auf einen ausgeführten Befehl ein visuelles Feedback zu geben, und kann die Form eines Led-Anzeigelichts annehmen, das in einer oder mehreren Farben leuchten kann. Im Betrieb kann der optische Anzeiger 40a unter anderem grün leuchten, um anzuzeigen, dass ein ausgeführter Befehl erfolgreich war, oder rot, um anzuzeigen, dass der ausgeführte Befehl fehlschlug.
  • Ein optischer Anzeiger 40b kann sich zusätzlich oder alternativ an, in oder hinter der Rückansichtsvorrichtung 64 befinden und kann ein beleuchtbares Symbol oder ein Symbol wie einen Haken und ein X umfassen. Bei anderen Ausführungsformen kann der optische Anzeiger 40b eine Anzeige umfassen, die in der Rückspiegelanordnung 60 integriert und konfiguriert ist, ein grafisches Symbol oder Bild zu erzeugen. Der Haken und das X wirken zusammen, um als Reaktion auf einen ausgeführten Befehl ein visuelles Feedback bereitzustellen, und sie können sich beispielhaft nahe eines unteren Eckabschnitts der Rückansichtsvorrichtung 64 befinden. Im Betrieb kann der Haken unter anderem grün leuchten, um anzuzeigen, dass ein ausgeführter Befehl erfolgreich war, und das X kann rot leuchten, um anzuzeigen, dass der ausgeführte Befehl fehlschlug. Der Haken, das X oder irgendwelche anderen beleuchtbaren Symbole oder Icons können sich hinter einem transflektiven Element befinden, sodass diese, bis sie aktiviert werden, verborgen sind, wie offenbart in US-Patent Nr. 8,643,481 eingereicht am 5. Oktober 2010 mit dem Titel „Interior rearview mirror assembly with integrated indicator symbol“, dessen gesamte Offenbarung hierin durch Bezugnahme aufgenommen wird. Die verbleibenden Komponenten der fahrzeuginternen Vorrichtung 30 können innerhalb des Gehäuses 62 aufgenommen sein und sind in 3 der Eindeutigkeit halber nicht dargestellt.
  • In Bezug auf Ausführungsformen, bei denen die Rückansichtsvorrichtung 64 ein elektrooptisches Spiegelelement ist, kann die Steuerung 36 konfiguriert sein, Ausgänge von Lichtsensoren (z. B. Lichtsensor 49) zu lesen und das Reflexionsvermögen des elektrooptischen Spiegelelements zu steuern. Ferner kann die Steuerung 36 programmiert sein, jegliche anderen Komponenten innerhalb der Rückspiegelanordnung 60 zu steuern, wie beispielsweise eine Anzeige, Kartenleseleuchten, einen Kompass, einen Imager und/oder ein Vorderlichtsteuersystem. Die Steuerung 36 kann ferner programmiert sein, ein anderes Fahrzeugzubehör über den Fahrzeugbus 46 zu steuern.
  • Mit Bezug auf 4 ist ein fahrzeugbasiertes Fernsteuerungsverfahren 66 gezeigt und hierin als durch die Steuerung 36 als Reaktion auf eine Eingabe implementiert beschrieben, die von dem Benutzereingabemechanismus 32 empfangen wird. Wie hierin beschrieben umfasst der Benutzereingabemechanismus 32 mindestens ein betätigbares Element (z. B. die Tasten A, B und/oder C) mit einem dazu zugewiesenen vorher aufgezeichneten Benutzersprachbefehl. Der vorher aufgezeichnete Benutzersprachbefehl kann dem mindestens einen betätigbaren Element unter Verwendung der Anwendung 52 zugewiesen werden, die in der mobilen elektronischen Vorrichtung 24 gespeichert ist. Der vorher aufgezeichnete Benutzersprachbefehl kann beispielsweise ein tatsächlicher Sprachbefehl, der von einem Benutzer gesprochen und unter Verwendung des Mikrofons 54 der mobilen elektronischen Vorrichtung 24 aufgezeichnet wird, eine generische Sprachbefehlaufzeichnung, die in der Anwendung 52 beinhaltet ist, oder eine semigenerische Sprachbefehlaufzeichnung, die in der Anwendung 52 beinhaltet ist, sein.
  • Das Verfahren 66 kann ein durch irgendeinen Prozessor ausgeführtes Unterprogramm sein und daher kann das Verfahren 66 in einem nicht flüchtigen computerlesbaren Medium mit darauf gespeicherten Softwarebefehlen verkörpert sein, die bei Ausführung durch einen Prozessor den Prozessor veranlassen, die nachfolgend beschriebenen Schritte des Verfahrens 66 auszuführen. Aspekte des Verfahrens 66 können mit anderen Worten durch Software erreicht werden, die auf einem nicht flüchtigen computerlesbaren Medium gespeichert ist, oder durch Softwaremodifikationen oder -aktualisierungen an vorhandener Software, die sich in einem nicht flüchtigen computerlesbaren Medium befindet.
  • Wie in 4 gezeigt, wird bei Schritt A eine fahrzeuginterne Vorrichtung vorgesehen. Die fahrzeuginterne Vorrichtung umfasst den Benutzereingabemechanismus 32 und die Steuerung 36. Der Benutzereingabemechanismus 32 umfasst mindestens ein betätigbares Element mit einem dazu zugewiesenen vorher aufgezeichneten Benutzersprachbefehl. Bei Schritt B wird eine Eingabe von dem Benutzereingabemechanismus 32 an die Steuerung 36 basierend auf der Aktivierung von dem mindestens einen betätigbaren Element bereitgestellt. Bei Schritt C fordert die Steuerung 36 eine andere fahrzeuginterne Vorrichtung (z. B. eine mobile elektronische Vorrichtung 24) auf, den vorher aufgezeichneten Benutzersprachbefehl an einen Server, der in Kommunikation mit einem oder mehreren intelligenten Vorrichtungen ist, zu senden, die sich entfernt von einem Fahrzeug befinden. Der vorher aufgezeichnete Benutzersprachbefehl kann beispielsweise an den Server 16 gesendet werden, der einen Befehl erzeugt, um eine durch den vorher aufgezeichneten Benutzersprachbefehl spezifizierte Aktion auszuführen. Der Befehl wird wiederum an den einen oder die mehreren intelligenten Vorrichtungen gesendet und dadurch ausgeführt.
  • Es werden einem Fachmann und denjenigen, die die Offenbarung fertigen oder verwenden, Modifikationen der Offenbarung offensichtlich sein. Daher versteht es sich, dass die in den Zeichnungen dargestellten und vorstehend beschriebenen Ausführungsformen lediglich veranschaulichenden Zwecken dienen und nicht den Umfang der Offenbarung begrenzen sollen, der durch die folgenden Ansprüche festgelegt ist, wie sie gemäß den Prinzipien des Patentrechts einschließlich der Äquivalenzlehre interpretiert werden.
  • Zum Zweck dieser Offenbarung bedeutet der Begriff „gekoppelt“ (in allen seinen Formen, koppeln, Kopplung, gekoppelt usw.) generell das Verbinden von zwei Komponenten miteinander (elektrisch oder mechanisch) direkt oder indirekt. Ein solches Verbinden kann in der Art stationär oder beweglich sein. Ein solches Verbinden kann mit den zwei Komponenten (elektrisch oder mechanisch) und jeglichen zusätzlichen Zwischenelementen erreicht werden, die als ein einzelner einheitlicher Körper miteinander oder mit den zwei Komponenten einstückig gebildet sind. Ein solches Verbinden kann dauerhafter, lösbarer oder entfernbarer Natur sein, sofern es nicht anderweitig angegeben ist.
  • Es ist jedoch offensichtlich, dass jegliche beschriebenen Prozesse oder Schritte innerhalb von beschriebenen Prozessen mit anderen offenbarten Prozessen oder Schritten kombiniert werden können, um Systeme und Verfahren im Umfang der vorliegenden Offenbarung herzustellen. Das hierin offenbarte beispielhafte System und Verfahren dient veranschaulichenden Zwecken und ist nicht als eingrenzend auszulegen.
  • Es versteht sich, dass Variationen und Modifikationen an dem vorstehend beschriebenen System und Verfahren erfolgen können, ohne von den Konzepten der vorliegenden Offenbarung abzuweichen, und ferner versteht es sich, dass solche Konzepte durch die folgenden Ansprüche abgedeckt sein sollen, es sei denn, dass diese Ansprüche es durch ihre Sprache ausdrücklich anderweitig angeben. Ferner sind die Ansprüche wie nachfolgend ausgeführt in diese ausführliche Beschreibung integriert und bilden einen Teil davon.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 8643481 [0029]

Claims (19)

  1. Fernsteuerungssystem eines Fahrzeugs, umfassend: eine erste fahrzeuginterne Vorrichtung; und eine zweite fahrzeuginterne Vorrichtung, umfassend: einen Benutzereingabemechanismus; und eine Steuerung oder Regelung, die zum Ansprechen auf eine Eingabe von einem Benutzereingabemechanismus programmiert ist, wobei bei Betätigung des Benutzereingabemechanismus die Steuerung die erste fahrzeuginterne Vorrichtung auffordert, eine elektronische Kommunikation zu senden, die in einem Benutzersprachbefehl resultiert, der an einen Server bereitgestellt wird, und wobei der Server den Benutzersprachbefehl verarbeitet und einen Befehl zum Ausführen einer durch den Benutzersprachbefehl spezifizierten Aktion erzeugt.
  2. Fernsteuerungssystem nach Anspruch 1, wobei die erste fahrzeuginterne Vorrichtung eine mobile elektronische Vorrichtung ist, und die zweite fahrzeuginterne Vorrichtung in einer Rückspiegelanordnung eines Fahrzeugs integriert ist.
  3. Fernsteuerungssystem nach einem der Ansprüche 1 und 2, wobei der Benutzersprachbefehl vorher aufgezeichnet und in der ersten fahrzeuginternen Vorrichtung gespeichert ist, und wobei die von der ersten fahrzeuginternen Vorrichtung gesendete elektronische Kommunikation den Benutzersprachbefehl umfasst.
  4. Fernsteuerungssystem nach einem der Ansprüche 1 und 2, wobei der Benutzersprachbefehl vorher aufgezeichnet und in einem Hostserver gespeichert ist, und wobei die von der ersten fahrzeuginternen elektronischen Vorrichtung gesendete elektronische Kommunikation einen Befehl umfasst, der den Hostserver auffordert, den Benutzersprachbefehl an den Server zu senden.
  5. Fernsteuerungssystem nach einem der Ansprüche 1 bis 3, wobei der Benutzersprachbefehl dem Benutzereingabemechanismus zugewiesen ist und jedes Mal an den Server gesendet wird, wenn der Benutzereingabemechanismus betätigt wird.
  6. Fernsteuerungssystem nach einem der Ansprüche 1 bis 5, wobei der Befehl zum Steuern von einer oder mehreren intelligenten Vorrichtungen dient, die sich entfernt von dem Fahrzeug befinden.
  7. Fernsteuerungssystem nach Anspruch 6, wobei die eine oder die mehreren intelligenten Vorrichtungen eine sprachgesteuerte intelligente Vorrichtung umfassen, die mit dem Server über das Internet verbunden ist.
  8. Fernsteuerungssystem nach einem der Ansprüche 1 bis 7, wobei der Befehl dazu dient, Informationen von einer oder mehreren intelligenten Vorrichtungen, die sich entfernt von einem Fahrzeug befinden, anzufordern.
  9. Fernsteuerungssystem nach einem der Ansprüche 1 bis 8, wobei der Befehl dazu dient, einen Dienst von einem webbasierten Dienstanbieter anzufordern.
  10. Fernsteuerungssystem nach einem der Ansprüche 1 bis 9, wobei, wenn der Befehl ausgeführt wird, ein akustisches Feedback über einen Lautsprecher der mobilen elektronischen Vorrichtung oder ein Fahrzeugsoundsystem abgespielt wird.
  11. Fernsteuerungssystem nach einem der Ansprüche 1 bis 10, wobei die zweite fahrzeuginterne Vorrichtung ferner einen oder mehrere optische Anzeiger zum Ausdrücken visueller Feedbacks, nachdem der Befehl ausgeführt ist, umfasst.
  12. Fernsteuerungssystem eines Fahrzeugs, wobei sich das Fernsteuerungssystem in Kommunikation mit einer ersten fahrzeuginternen Vorrichtung befindet und umfasst: eine zweite fahrzeuginterne Vorrichtung, umfassend: einen Benutzereingabemechanismus mit mindestens einem betätigbaren Element; und eine Steuerung oder Regelung, die zum Ansprechen auf eine Eingabe von dem Benutzereingabemechanismus programmiert ist, wobei bei Betätigung von dem mindestens einen betätigbaren Element die Steuerung die erste fahrzeuginterne Vorrichtung auffordert, einen vorher aufgezeichneten Benutzersprachbefehl an das mindestens eine zugewiesene betätigbare Element zu senden, wobei der vorher aufgezeichnete Benutzersprachbefehl an einen Server gesendet wird, der in Kommunikation mit einer oder mehreren intelligenten Vorrichtungen ist, die sich entfernt von dem Fahrzeug befinden.
  13. Fernsteuerungssystem nach Anspruch 12, wobei der vorher aufgezeichnete Benutzersprachbefehl dem mindestens einen betätigbaren Element unter Verwendung von einer in der ersten fahrzeuginternen Vorrichtung gespeicherten Anwendung zugewiesen wird.
  14. Fernsteuerungssystem nach Anspruch 13, wobei der vorher aufgezeichnete Benutzersprachbefehl von einem Benutzer gesprochen und unter Verwendung der ersten fahrzeuginternen Vorrichtung aufgezeichnet ist, und wobei der vorher aufgezeichnete Benutzersprachbefehl in der ersten fahrzeuginternen Vorrichtung gespeichert ist und jedes Mal an den Server zum Verarbeiten gesendet wird, wenn das mindestens eine betätigbare Element betätigt wird.
  15. Fernsteuerungssystem nach Anspruch 13, wobei der vorher aufgezeichnete Benutzersprachbefehl eine generische Sprachbefehlaufzeichnung umfasst, die durch die Anwendung bereitgestellt ist, und wobei die generische Sprachbefehlaufzeichnung in der ersten fahrzeuginternen Vorrichtung aufgezeichnet ist und eine Betätigung von dem mindestens einen betätigbaren Element bewirkt, dass die generische Sprachbefehlaufzeichnung an den Server gesendet und dadurch gemäß einer Benutzeranweisung verarbeitet wird.
  16. Fernsteuerungssystem nach Anspruch 13, wobei der vorher aufgezeichnete Benutzersprachbefehl eine durch die Anwendung bereitgestellte semigenerische Sprachbefehlaufzeichnung umfasst und von einem Benutzer erfordert, ein oder mehrere Worte zu sprechen und aufzuzeichnen, wobei die Anwendung die semigenerische Sprachbefehlaufzeichnung mit der von dem Benutzer aufgezeichneten Sprache aktualisiert, und wobei die aktualisierte semigenerische Sprachbefehlaufzeichnung in der ersten fahrzeuginternen Vorrichtung gespeichert und jedes Mal an den Server zum Verarbeiten gesendet wird, wenn das mindestens eine betätigbare Element betätigt wird.
  17. Fernsteuerungssystem nach einem der Ansprüche 12 bis 16, wobei die Steuerung ferner programmiert ist, die erste fahrzeuginterne Vorrichtung automatisch aufzufordern, als Reaktion auf eine Eingabe, die von einer oder mehreren Fahrzeugausrüstungen empfangen wurde, einen vorher aufgezeichneten Benutzersprachbefehl zu senden.
  18. Fernsteuerungssystem nach einem der Ansprüche 12 bis 17, wobei die eine oder die mehreren intelligenten Vorrichtungen mindestens eine von einer sprachgesteuerten intelligenten Vorrichtung und einer mit der sprachgesteuerten intelligenten Vorrichtung verbundenen intelligenten Vorrichtung umfassen.
  19. Fernsteuerungssystem nach einem der Ansprüche 12 bis 18, wobei der Server den vorher aufgezeichneten Benutzersprachbefehl verarbeitet und einen Befehl zum Ausführen einer Aktion erzeugt, die durch den vorher aufgezeichneten Benutzersprachbefehl spezifiziert ist, und wobei der Befehl durch die eine oder die mehreren intelligenten Vorrichtungen ausgeführt wird.
DE212017000226.3U 2016-10-05 2017-10-04 Fahrzeugbasiertes Fernsteuerungssystem Active DE212017000226U1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662404374P 2016-10-05 2016-10-05
US62/404,374 2016-10-05
PCT/US2017/055043 WO2018067639A1 (en) 2016-10-05 2017-10-04 Vehicle-based remote control system and method

Publications (1)

Publication Number Publication Date
DE212017000226U1 true DE212017000226U1 (de) 2019-05-13

Family

ID=61758408

Family Applications (1)

Application Number Title Priority Date Filing Date
DE212017000226.3U Active DE212017000226U1 (de) 2016-10-05 2017-10-04 Fahrzeugbasiertes Fernsteuerungssystem

Country Status (4)

Country Link
US (2) US10553212B2 (de)
CN (1) CN210129283U (de)
DE (1) DE212017000226U1 (de)
WO (1) WO2018067639A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023122271A1 (de) 2023-08-21 2025-02-27 Audi Aktiengesellschaft Verfahren und Vorrichtung zur Bereitstellung einer virtuellen Assistentenfunktion mit einem Kraftfahrzeug sowie Kraftfahrzeug

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10950229B2 (en) * 2016-08-26 2021-03-16 Harman International Industries, Incorporated Configurable speech interface for vehicle infotainment systems
US11024304B1 (en) * 2017-01-27 2021-06-01 ZYUS Life Sciences US Ltd. Virtual assistant companion devices and uses thereof
US20180341644A1 (en) * 2017-05-26 2018-11-29 John Gregory Retkowski Method and system for activating virtual assistants without the presence of the user
US20190019516A1 (en) * 2017-07-14 2019-01-17 Ford Global Technologies, Llc Speech recognition user macros for improving vehicle grammars
US11014532B2 (en) 2018-05-14 2021-05-25 Gentex Corporation Vehicle control module for smart home control system
GB2574471A (en) * 2018-06-08 2019-12-11 Pure International Ltd An apparatus and method
US11687850B2 (en) * 2018-11-21 2023-06-27 Honda Motor Co., Ltd System and method for processing a task request to be executed and fulfilled
US11694130B2 (en) 2018-11-21 2023-07-04 Honda Motor Co., Ltd. System and method for assigning an agent to execute and fulfill a task request
CN110120222A (zh) * 2019-05-23 2019-08-13 九牧厨卫股份有限公司 一种带语音播报功能的智能镜柜的语音播报方法
KR102821582B1 (ko) * 2019-08-06 2025-06-16 엘지전자 주식회사 가상 홈 서비스 장치 및 방법
CN112721933B (zh) * 2020-07-28 2022-01-04 盐城工业职业技术学院 一种基于语音识别的农用拖拉机的控制终端

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8643481B2 (en) 2010-09-17 2014-02-04 Johnson Controls Technology Company Interior rearview mirror assembly with integrated indicator symbol

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5450525A (en) * 1992-11-12 1995-09-12 Russell; Donald P. Vehicle accessory control with manual and voice response
US6496107B1 (en) * 1999-07-23 2002-12-17 Richard B. Himmelstein Voice-controlled vehicle control system
EP1184841A1 (de) * 2000-08-31 2002-03-06 Siemens Aktiengesellschaft Sprachgesteuerte Anordnung und Verfahren zur Spracheingabe und -erkennung
US8175886B2 (en) * 2001-03-29 2012-05-08 Intellisist, Inc. Determination of signal-processing approach based on signal destination characteristics
US7085722B2 (en) * 2001-05-14 2006-08-01 Sony Computer Entertainment America Inc. System and method for menu-driven voice control of characters in a game environment
US7194412B2 (en) * 2001-07-19 2007-03-20 Overhead Door Corporation Speech activated door operator system
US7911358B2 (en) * 2002-10-08 2011-03-22 Johnson Controls Technology Company System and method for enrollment of a remotely controlled device in a trainable transmitter
US20040267534A1 (en) * 2003-06-27 2004-12-30 General Motors Corporation Selective vehicle component control
US7363029B2 (en) * 2003-09-12 2008-04-22 Core Mobility, Inc. Unified interface for voice, text or picture message authoring
US7778604B2 (en) * 2004-01-30 2010-08-17 Lear Corporation Garage door opener communications gateway module for enabling communications among vehicles, house devices, and telecommunications networks
US7826945B2 (en) * 2005-07-01 2010-11-02 You Zhang Automobile speech-recognition interface
US20080215240A1 (en) * 2006-12-18 2008-09-04 Damian Howard Integrating User Interfaces
CN101589428B (zh) * 2006-12-28 2012-07-04 三菱电机株式会社 车载用声音识别装置
US7991391B2 (en) * 2008-04-17 2011-08-02 Verizon Online Llc Pre-recorded voice responses for portable telecommunication devices
US8359014B2 (en) * 2009-12-21 2013-01-22 Julia N M N Olincy I am driving/busy automatic response system for mobile phones
US20110193680A1 (en) * 2010-01-19 2011-08-11 Lear Corporation Vehicle appliance control system
WO2011091402A1 (en) * 2010-01-25 2011-07-28 Justin Mason Voice electronic listening assistant
WO2011163538A1 (en) * 2010-06-24 2011-12-29 Honda Motor Co., Ltd. Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
US8781838B2 (en) * 2010-08-09 2014-07-15 General Motors, Llc In-vehicle text messaging experience engine
JP5234160B2 (ja) * 2011-03-23 2013-07-10 株式会社デンソー 車両用装置および情報表示システム
DE102011109932B4 (de) * 2011-08-10 2014-10-02 Audi Ag Verfahren zum Ansteuern funktioneller Einrichtungen in einem Fahrzeug bei Sprachbefehl-Bedienung
WO2013044077A1 (en) * 2011-09-23 2013-03-28 Johnson Controls Technology Company Systems and methods for rear view mirror displays
US9393361B2 (en) * 2012-12-14 2016-07-19 Medtronic, Inc. Method to determine a material distribution
US20140365068A1 (en) * 2013-06-06 2014-12-11 Melvin Burns Personalized Voice User Interface System and Method
WO2016119064A1 (en) * 2015-01-29 2016-08-04 Rocky Mountain Equipment Canada Ltd. Communications system for use with unmanned aerial vehicles
CN105620388A (zh) * 2015-11-30 2016-06-01 东莞酷派软件技术有限公司 车辆控制装置和车辆控制方法
CN205541480U (zh) * 2016-03-11 2016-08-31 泉州市盛尊网络科技有限公司 一种智能停车位

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8643481B2 (en) 2010-09-17 2014-02-04 Johnson Controls Technology Company Interior rearview mirror assembly with integrated indicator symbol

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023122271A1 (de) 2023-08-21 2025-02-27 Audi Aktiengesellschaft Verfahren und Vorrichtung zur Bereitstellung einer virtuellen Assistentenfunktion mit einem Kraftfahrzeug sowie Kraftfahrzeug

Also Published As

Publication number Publication date
US20200168224A1 (en) 2020-05-28
US11289088B2 (en) 2022-03-29
US10553212B2 (en) 2020-02-04
CN210129283U (zh) 2020-03-06
WO2018067639A1 (en) 2018-04-12
US20180096684A1 (en) 2018-04-05

Similar Documents

Publication Publication Date Title
DE212017000226U1 (de) Fahrzeugbasiertes Fernsteuerungssystem
EP1123842B1 (de) Fahrerassistenzsystem und Verfahren zur Steuerung von einer Informationsdarstellung, von Kommunikationsmitteln und von einer Aktorik in einem Fahrzeug
DE102016120209B4 (de) System und verfahren zur deaktivierung des passivzugangs auf abruf
DE102015116703A1 (de) Verfahren und Systeme zur Aktualisierung eines Fahrzeugdatenverarbeitungssystems
DE102015201448A1 (de) Verfahren und Gerät für bleibende übertragbare persönlich anpassbare Fahrzeugeinstellungen
DE102015107189A1 (de) Modulschnittstelle für Fahrzeugaktualisierungen
DE102017127239A1 (de) Vom Server gelieferte visuelle Ausgabe an einer Sprachschnittstellenvorrichtung
DE112010002210T5 (de) Ausführen von Freihand-Bedienung einer elektronischen Kalenderanwendung in einem Fahrzeug
DE102014202306A1 (de) System und Verfahren für eine Mensch-Maschine-Schnittstelle
DE102016103612A1 (de) Benutzerschnittstelle einer fahrzeuginternen Komponente
DE102014225808A1 (de) Bluetooth-Kopplungs-System und Verfahren
DE102016218560A1 (de) Verfahren und systeme für eine mobile vorrichtung zum emulieren einer fahrzeug-mensch-maschine-schnittstelle
DE102014118903A1 (de) Fahrzeuginterne konfigurierbare Softwareschalter
DE102011109932B4 (de) Verfahren zum Ansteuern funktioneller Einrichtungen in einem Fahrzeug bei Sprachbefehl-Bedienung
DE102015104344A1 (de) System und verfahren für ein fahrzeugsystem mit einem hochgeschwindigkeitsnetz
DE102015226169A1 (de) Verfahren und systeme zur visuellen kommunikation von fahrzeugfahrinformationen mittels eines lampensatzes
DE102016125711A1 (de) Applikationssteuerung von primär verbundenen Vorrichtungen ausgehend von sekundär verbundenen Vorrichtungen
DE102016116296A1 (de) Verfahren und Systeme zum Synchronisieren von Fahrzeugeinstellungen über eine Heimnetzverbindung
DE102016116175A1 (de) Interaktive Plug-and-Play-Komponentenarchitektur für den Fahrzeuginnenraum
DE102014118953A1 (de) Verfahren und System für eine Haupteinheit zum Empfangen einer Anwendung
DE102012219020A1 (de) Architektur für mobile stimmplattform
DE102018113140A1 (de) Ganzheitliche individualisierte Mensch-Maschine-Kommunikation
DE102013208506A1 (de) Hierarchische Erkennung von Fahrzeugfahrer und Auswahlaktivierung von Fahrzeugeinstellungen auf der Grundlage der Erkennung
DE102015113631A1 (de) Verfahren und Vorrichtung zur Infotainmentsteuerung über ein betriebssystemunabhängiges Protokoll für eine drahtlose Vorrichtung
DE102014118949A1 (de) Verfahren und Systeme für einen Head Unit Anwendungs-Host

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years