DE102022201859A1 - Method for user-specific operation of a support system with artificial intelligence, computer program product and support system - Google Patents
Method for user-specific operation of a support system with artificial intelligence, computer program product and support system Download PDFInfo
- Publication number
- DE102022201859A1 DE102022201859A1 DE102022201859.1A DE102022201859A DE102022201859A1 DE 102022201859 A1 DE102022201859 A1 DE 102022201859A1 DE 102022201859 A DE102022201859 A DE 102022201859A DE 102022201859 A1 DE102022201859 A1 DE 102022201859A1
- Authority
- DE
- Germany
- Prior art keywords
- user
- artificial intelligence
- level
- trust
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/023—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
- B60R16/0231—Circuits relating to the driving or the functioning of the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren (100) zum nutzerspezifischen Betreiben eines Unterstützungssystems (10), das zur Unterstützung eines Nutzers bei einer Bedienung eines Fahrzeugsystems (2) eines Fahrzeuges (1) ein Unterstützungsmodul (12) mit einer künstlichen Intelligenz (11) aufweist, der ein vordefiniertes Vertrauensniveau (200) zugewiesen ist. Ferner betrifft die Erfindung einen Computerprogrammprodukt, sowie ein Unterstützungssystem (10). The invention relates to a method (100) for the user-specific operation of a support system (10), which has a support module (12) with an artificial intelligence (11) to support a user in operating a vehicle system (2) of a vehicle (1). a predefined confidence level (200) is assigned. The invention also relates to a computer program product and a support system (10).
Description
Die Erfindung betrifft ein Verfahren zum nutzerspezifischen Betreiben eines Unterstützungssystems, das zur Unterstützung eines Nutzers bei einer Bedienung eines Fahrzeugsystems eines Fahrzeuges ein Unterstützungsmodul mit einer künstlichen Intelligenz aufweist, ein Computerprogrammprodukt, sowie ein Unterstützungssystem.The invention relates to a method for user-specific operation of a support system, which has a support module with artificial intelligence to support a user when operating a vehicle system of a vehicle, a computer program product, and a support system.
Es ist aus dem Stand der Technik bekannt, in Fahrzeugen künstliche Intelligenz einzusetzen, um einen Nutzer beim Betreiben des Fahrzeuges zu unterstützen. Dabei kommen häufig trainierte, künstliche neuronale Netzwerke zum Einsatz, um bestimmte Situationsparameter zu erkennen und situationsadäquate Handlungen vorzunehmen.It is known from the prior art to use artificial intelligence in vehicles in order to support a user in operating the vehicle. Trained, artificial neural networks are often used to recognize certain situation parameters and to take appropriate actions.
Insbesondere, wenn die künstliche Intelligenz unerwartete Entscheidungen trifft, kann es jedoch vorkommen, dass Nutzer der künstlichen Intelligenz nur ein geringes Vertrauen entgegenbringen. Für ein verbessertes Vertrauen der Nutzer ist es beispielsweise aus der
Es ist eine Aufgabe der vorliegenden Erfindung, voranstehende, aus dem Stand der Technik bekannte Nachteile zumindest teilweise zu beheben. Insbesondere ist es eine Aufgabe der vorliegenden Erfindung ein verbessertes Betreiben eines Unterstützungssystems für ein Fahrzeug zu ermöglichen, um ein hohes Nutzervertrauen zu bewirken.It is an object of the present invention to at least partially eliminate the above disadvantages known from the prior art. In particular, it is an object of the present invention to enable improved operation of a support system for a vehicle in order to bring about a high level of user trust.
Die voranstehende Aufgabe wird gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1, einen Computerprogrammprodukt mit den Merkmalen des Anspruchs 10, sowie ein Unterstützungssystem mit den Merkmalen des Anspruchs 11. Weitere Merkmale und Details der Erfindung ergeben sich aus den jeweiligen Unteransprüchen, der Beschreibung und den Zeichnungen. Dabei gelten Merkmale und Details, die im Zusammenhang mit dem erfindungsgemäßen Verfahren beschrieben sind, selbstverständlich auch im Zusammenhang mit dem erfindungsgemäßen Computerprogrammprodukt und/oder dem erfindungsgemäßen Unterstützungssystem und jeweils umgekehrt, so dass bezüglich der Offenbarung zu den einzelnen Erfindungsaspekten stets wechselseitig Bezug genommen wird bzw. werden kann.The above object is achieved by a method having the features of claim 1, a computer program product having the features of
Gemäß einem ersten Aspekt der Erfindung ist ein Verfahren zum nutzerspezifischen Betreiben eines Unterstützungssystems vorgesehen. Das Unterstützungssystem weist zur Unterstützung eines Nutzers bei einer Bedienung eines Fahrzeugsystems eines Fahrzeuges ein Unterstützungsmodul mit einer künstlichen Intelligenz auf. Der künstlichen Intelligenz ist ein vordefiniertes Vertrauensniveau zugewiesen. Das Verfahren umfasst während des Betriebs des Fahrzeuges, insbesondere in Form von Verfahrensschritten:
- - Durchführen eines ersten Interaktionsvorgangs, bei dem in Abhängigkeit von dem Vertrauensniveau aufeinanderfolgende Handlungsvorschläge zur Ansteuerung des Fahrzeugsystems durch das Unterstützungsmodul ausgegeben und Nutzerinteraktionen des Nutzers in Reaktion auf die Handlungsvorschläge erfasst werden, wobei die künstliche Intelligenz anhand der Nutzerinteraktionen trainiert wird,
- - Überprüfen des Vertrauensniveaus in Abhängigkeit von einem Übereinstimmungskriterium einer Übereinstimmung der Nutzerinteraktionen und der jeweiligen Handlungsvorschläge bei dem ersten Interaktionsvorgang, wobei das Vertrauensniveau der künstlichen Intelligenz erhöht wird, wenn das Übereinstimmungskriterium erfüllt ist, insbesondere durch das Unterstützungsmodul,
- - Durchführen eines zweiten Interaktionsvorgangs, bei dem in Abhängigkeit von dem erhöhten Vertrauensniveau zumindest ein weiterer Handlungsvorschlag zur Ansteuerung des Fahrzeugsystems durch das Unterstützungsmodul ausgegeben wird.
- - Carrying out a first interaction process in which, depending on the level of trust, successive suggestions for action for controlling the vehicle system are output by the support module and user interactions of the user are recorded in response to the suggestions for action, the artificial intelligence being trained on the basis of the user interactions,
- - Checking the level of trust as a function of a match criterion of a match between the user interactions and the respective proposed actions in the first interaction process, the level of trust in the artificial intelligence being increased if the match criterion is met, in particular by the support module,
- - Carrying out a second interaction process in which at least one further action proposal for controlling the vehicle system is output by the support module as a function of the increased level of trust.
Die künstliche Intelligenz kann beispielsweise durch ein künstliches, neuronales Netzwerk gebildet sein. Ferner kann die künstliche Intelligenz vortrainiert sein, bevor der erste Interaktionsvorgang beginnt.The artificial intelligence can be formed by an artificial neural network, for example. Furthermore, the artificial intelligence can be pre-trained before the first interaction process begins.
Das Fahrzeugsystem kann ein sicherheitsrelevantes System des Fahrzeuges, wie z. B. ein Fahrassistenzsystem, sein. Es ist jedoch ebenso denkbar, dass es sich bei dem Fahrzeugsystem um ein Komfortsystem des Fahrzeuges, wie z. B. eine Temperaturregelung des Fahrzeuginnenraums oder eine Musikanlage, handelt. Bei der Bedienung des Fahrzeugsystems kann es sich um eine zumindest teilweise automatisierte Bedienung handeln.The vehicle system can be a safety-related system of the vehicle, such as B. be a driver assistance system. However, it is also conceivable that the vehicle system is a comfort system of the vehicle, such as B. a temperature control of the vehicle interior or a music system is. The operation of the vehicle system can be an at least partially automated operation.
Die Handlungsvorschläge können vorzugsweise jeweils eine durch die künstliche Intelligenz angenommene Präferenz unter zwei oder mehr Handlungsoptionen umfassen. Beispielsweise können die Handlungsoptionen anhand von Sensordaten einer Sensorik des Fahrzeuges durch das Unterstützungssystem, insbesondere das Unterstützungsmodul, bestimmt werden. Es kann vorgesehen sein, dass alle ermittelten Handlungsoptionen dem Nutzer angezeigt werden und der Handlungsvorschlag umgesetzt und/oder gegenüber den übrigen Handlungsoptionen hervorgehoben wird.The proposed actions can preferably each include a preference assumed by the artificial intelligence among two or more options for action. For example, the options for action can be determined by the support system, in particular the support module, using sensor data from a sensor system in the vehicle. Provision can be made for all determined action ops tion are displayed to the user and the suggested action is implemented and/or highlighted in relation to the other options for action.
Beim ersten und/oder zweiten Interaktionsvorgang kann eine Interaktion der künstlichen Intelligenz mit dem Fahrzeugsystem und/oder dem Nutzer erfolgen. Die Handlungsvorschläge während des ersten Interaktionsvorgangs können sich unterscheiden und/oder in Reaktion auf unterschiedliche Nutzungssituationen erfolgen. Das Übereinstimmungskriterium kann eine vordefinierte Anzahl an Übereinstimmungen der Nutzerinteraktionen mit den jeweiligen Handlungsvorschlägen innerhalb des ersten Interaktionsvorgangs umfassen. Es kann vorteilhafterweise vorgesehen sein, dass das Überprüfen des Vertrauensniveaus nach jedem Paar aus einer Nutzerinteraktion und einem Handlungsvorschlag oder nach einer vorbestimmten Anzahl Paaren aus einer Nutzerinteraktion und einem Handlungsvorschlag erfolgt.In the first and/or second interaction process, the artificial intelligence can interact with the vehicle system and/or the user. The suggested actions during the first interaction process can differ and/or be made in response to different usage situations. The match criterion can include a predefined number of matches between the user interactions and the respective proposed actions within the first interaction process. Provision can advantageously be made for the level of trust to be checked after each pair of a user interaction and a proposed action or after a predetermined number of pairs of a user interaction and a proposed action.
Das Vertrauensniveau kann durch einen Vertrauensparameter gebildet sein, anhand dessen die Handlungsvorschläge bestimmt und/oder ausgegeben werden. Beispielsweise kann vorgesehen sein, dass der erste Interaktionsvorgang ein niedriges Vertrauensniveau aufweist, bei welchem dem Nutzer nur einfache Entscheidungen durch Ausgabe der Handlungsvorschläge präsentiert werden. Bei dem zweiten Interaktionsvorgang, bei dem der künstlichen Intelligenz ein höheres Vertrauensniveau zugeordnet ist, können die Entscheidungen komplexer sein. Das Vertrauensniveau kann beispielsweise einen Vertrauenswert umfassen, durch welchen das Vertrauensniveau abgebildet und/oder klassifiziert wird. Es ist denkbar, dass der Vertrauenswert kontinuierlich, d. h. beispielsweise nach jeder Nutzerinteraktion, aktualisiert wird. Beim Trainieren der künstlichen Intelligenz können die Handlungsvorschläge mit den jeweiligen Nutzerinteraktionen die Trainingsdaten bilden. Durch das Training kann die künstliche Intelligenz aktualisiert werden. Dadurch entsteht während des Betriebs des Fahrzeuges eine Lernkurve für die künstliche Intelligenz.The trust level can be formed by a trust parameter, based on which the suggested actions are determined and/or output. For example, provision can be made for the first interaction process to have a low level of trust, at which the user is only presented with simple decisions by issuing the suggested actions. In the second interaction process, where the artificial intelligence is associated with a higher level of trust, the decisions can be more complex. The confidence level can include a confidence value, for example, by which the confidence level is mapped and/or classified. It is conceivable that the trust value increases continuously, i. H. for example after each user interaction. When training the artificial intelligence, the suggested actions with the respective user interactions can form the training data. Through the training, the artificial intelligence can be updated. This creates a learning curve for the artificial intelligence during vehicle operation.
Das Fahrzeugsystem kann anhand der Nutzerinteraktionen und/oder anhand der Handlungsvorschläge, insbesondere während des ersten und/oder zweiten Interaktionsvorgangs, angesteuert werden. Beispielsweise kann vorgesehen sein, dass die Handlungsvorschläge jeweils eine Nutzerinteraktion in Form einer Freigabe durch den Nutzer erfordern, bevor das Fahrzeugsystem angesteuert wird. Es kann vorgesehen sein, dass, insbesondere in Abhängigkeit von einer Kritikalität eines Handlungsvorschlags, dem Nutzer eine Zeitspanne vorgegeben wird, innerhalb welcher die Nutzerinteraktion erfolgen soll. Bei Ablauf der Zeitspanne kann das Fahrzeugsystem anhand des Handlungsvorschlags angesteuert oder der Handlungsvorschlag verworfen werden.The vehicle system can be controlled based on the user interactions and/or based on the suggested actions, in particular during the first and/or second interaction process. For example, it can be provided that the suggested actions each require a user interaction in the form of a release by the user before the vehicle system is activated. Provision can be made for the user to be given a time span within which the user interaction is to take place, in particular as a function of a criticality of a proposed action. When the period of time has expired, the vehicle system can be actuated using the suggested action or the suggested action can be discarded.
Das Erfassen der Nutzerinteraktionen kann durch das Unterstützungsmodul und/oder eine Nutzerschnittstelle des Unterstützungssystems und/oder des Fahrzeuges erfolgen. Beispielsweise kann die Nutzerinteraktion über ein Mikrofon als Spracheingabe und/oder über einen Touch-Screen als haptische Eingabe erfasst werden.The user interactions can be recorded by the support module and/or a user interface of the support system and/or the vehicle. For example, the user interaction can be recorded via a microphone as voice input and/or via a touch screen as haptic input.
Das Ausgeben der Handlungsvorschläge kann bei dem ersten und/oder zweiten Interaktionsvorgang visuell und/oder akustisch erfolgen. Beispielsweise können die Handlungsvorschläge auf einem Display des Fahrzeuges angezeigt oder über eine Sprachausgabe ausgegeben werden. Ferner ist es denkbar, dass der Handlungsvorschlag bei dem zweiten Interaktionsvorgang ein automatisiertes Ansteuern des Fahrzeugsystems umfasst. Dadurch kann der Handlungsvorschlag der künstlichen Intelligenz insbesondere direkt umgesetzt werden.The action proposals can be output visually and/or acoustically in the first and/or second interaction process. For example, the suggested actions can be shown on a display of the vehicle or can be output via a voice output. Furthermore, it is conceivable that the proposed action in the second interaction process includes an automated activation of the vehicle system. As a result, the proposed action by the artificial intelligence can be implemented directly.
Durch das Verfahren kann somit ein nutzerspezifischer Anlernvorgang für die künstliche Intelligenz realisiert werden. Während des Anlernvorgangs können sich ein menschlicher Nutzer und die künstliche Intelligenz in der Art eines gegenseitigen Kennenlernens aufeinander abstimmen. Dabei kann die künstliche Intelligenz anhand zumindest des ersten Interaktionsvorgangs oder anhand mehrerer Interaktionsvorgänge nutzerspezifisch trainiert werden. Ferner kann eine Selbstständigkeit der künstlichen Intelligenz bei der Unterstützung des Nutzers bei der Bedienung des Fahrzeugsystems durch das variable Vertrauensniveau und die davon abhängigen Handlungsvorschläge während des Anlernvorgangs variiert, insbesondere in einem nutzerfreundlichen Tempo erhöht, werden.A user-specific learning process for the artificial intelligence can thus be implemented using the method. During the learning process, a human user and the artificial intelligence can coordinate with each other by getting to know each other. The artificial intelligence can be trained in a user-specific manner using at least the first interaction process or using a plurality of interaction processes. Furthermore, the autonomy of the artificial intelligence in supporting the user in operating the vehicle system can be varied, in particular increased at a user-friendly pace, by the variable trust level and the action suggestions dependent thereon during the learning process.
Insbesondere ist künstliche Intelligenz in der Lage, schnell neue Algorithmen und Funktionen zu generieren sowie Entscheidungen zu treffen. Dabei kann vorgesehen sein, dass zunächst jede Entscheidung der künstlichen Intelligenz in Form eines Handlungsvorschlags zumindest oder nur während des ersten Interaktionsvorgangs Legitimation durch eine Freigabe vom Menschen erwartet. Insbesondere da die künstliche Intelligenz eine Entscheidungsfindung in einer höheren Frequenz umsetzen kann, als der Nutzer, kann vorgesehen sein, dass die künstliche Intelligenz in Abhängigkeit von dem Vertrauensniveau, und vorzugsweise weiteren Kriterien, die Prüfung durch den Menschen mit steigendem Vertrauensniveau reduziert wird.In particular, artificial intelligence is able to quickly generate new algorithms and functions and make decisions. It can be provided that initially every decision of the artificial intelligence in the form of a proposal for action awaits legitimacy through a release from the human at least or only during the first interaction process. In particular since the artificial intelligence can implement a decision-making process at a higher frequency than the user, it can be provided that the artificial intelligence, depending on the level of trust and preferably other criteria, reduces the human check as the level of trust increases.
Ferner kann bei einem erfindungsgemäßen Verfahren vorteilhafterweise vorgesehen sein, dass die Handlungsvorschläge während dem ersten Interaktionsvorgang, für eine Nutzerinteraktion in Form einer binären Entscheidung ausgestaltet sind. Dabei können dem Nutzer zwei alternative Handlungsoptionen aufgezeigt werden. Beispielsweise kann die Nutzerinteraktion eine Freigabe oder eine Verweigerung der Freigabe des Handlungsvorschlags durch den Nutzer umfassen. Ferner kann der Handlungsvorschlag zur Erwartung einer binären Entscheidung eine „Ja-Nein-Frage“ umfassen. Dadurch kann die Komplexität der Interaktion zwischen der künstlichen Intelligenz und dem Nutzer bei einem zunächst niedrigen Vertrauensniveau begrenzt werden, um dem Nutzer eine Möglichkeit zu geben, Vertrauen zur künstlichen Intelligenz aufzubauen und der künstlichen Intelligenz gleichzeitig eine Lernkurve zu ermöglichen.Furthermore, in a method according to the invention, it can advantageously be provided that the proposed actions during the first interaction process are in the form of a user interaction are designed with a binary decision. The user can be shown two alternative options for action. For example, the user interaction can include a release or a refusal to release the proposed action by the user. Furthermore, the suggested action to expect a binary decision can include a “yes/no question”. As a result, the complexity of the interaction between the artificial intelligence and the user can be limited at an initially low level of trust in order to give the user an opportunity to build trust in the artificial intelligence and at the same time allow the artificial intelligence to have a learning curve.
Weiterhin ist es bei einem erfindungsgemäßen Verfahren denkbar, dass bei dem zweiten Interaktionsvorgang der weitere Handlungsvorschlag mit einer Begründung des weiteren Handlungsvorschlages an den Nutzer ausgegeben wird. Es ist denkbar, dass der weitere Handlungsvorschlag mit mehreren Handlungsoptionen ausgegeben wird. Dabei kann die Begründung eine Information umfassen, weshalb der Handlungsvorschlag als angenommene, optimale Entscheidung durch die künstliche Intelligenz ausgewählt wurde. Die Begründung kann, insbesondere gemeinsam mit dem Handlungsvorschlag, beispielsweise in Textform und/oder als Sprachausgabe ausgegeben werden. Die Begründung kann dem Nutzer helfen, den Handlungsvorschlag nachzuvollziehen. Ferner kann die Begründung dem Nutzer beispielsweise Informationen über eine aktuelle Fahrsituation bereitstellen, welche einer Wahrnehmung des Nutzers andernfalls ggf. entgangen wären. Zusätzlich oder alternativ ist es denkbar, dass der Nutzer aufgefordert wird, die Nutzerinteraktion mit einer Begründung für die eigene Entscheidung zu versehen. Dazu kann beispielsweise eine Spracheingabe ermöglicht werden.Furthermore, it is conceivable in a method according to the invention that in the second interaction process the additional action suggestion is output to the user with a reason for the additional action suggestion. It is conceivable that the further action proposal is issued with several options for action. The justification can include information as to why the proposed action was selected as the assumed, optimal decision by the artificial intelligence. The justification can be output, in particular together with the proposed action, for example in text form and/or as a voice output. The justification can help the user to understand the proposed action. Furthermore, the justification can, for example, provide the user with information about a current driving situation, which the user might otherwise not have noticed. Additionally or alternatively, it is conceivable that the user is asked to provide the user interaction with a reason for their own decision. For example, voice input can be made possible for this purpose.
Weiterhin ist es bei einem erfindungsgemäßen Verfahren denkbar, dass das Vertrauensniveau in mehrere Vertrauensstufen unterteilbar oder unterteilt ist, insbesondere wobei jeweils nach mehreren aufeinanderfolgenden Handlungsvorschlägen innerhalb einer der Vertrauensstufen ein Überprüfen des Vertrauensniveaus erfolgt, bevor der künstlichen Intelligenz zum Erhöhen des Vertrauensniveaus die jeweils nächsthöhere Vertrauensstufe zugewiesen wird. Beispielsweise kann der künstlichen Intelligenz beim zweiten Interaktionsvorgang eine zweite Vertrauensstufe zugewiesen sein. Die Vertrauensstufe kann beispielsweise nur beim Überprüfen des Vertrauensniveaus änderbar und/oder erhöhbar sein. Es kann vorgesehen sein, dass für jede der Vertrauensstufen ein individuelles Übereinstimmungskriterium definiert ist. Beispielsweise kann das Überprüfen des Vertrauensniveaus zum Erreichen einer zweiten Vertrauensstufe von einem zweiten Übereinstimmungskriterium einer Übereinstimmung der Nutzerinteraktionen und der jeweiligen Handlungsvorschläge bei dem zweiten Interaktionsvorgang erfolgen. Weiterhin kann vorgesehen sein, dass jeder der Vertrauensstufen eine jeweils spezifische Vorschlagsart der Handlungsvorschläge zugeordnet ist, insbesondere wobei die Handlungsvorschläge unterschiedlicher Vorschlagsarten für Nutzerinteraktionen in Form unterschiedlicher Entscheidungsarten ausgestaltet sind. Durch die Vertrauensstufen kann eine Einteilung des Vertrauensniveaus realisiert sein, wodurch mehrere aufeinanderfolgende Handlungsvorschläge eine zumindest ähnliche Komplexität umfassen können, auf welche sich der Nutzer nach Erreichen der jeweiligen Vertrauensstufe einstellen kann.Furthermore, it is conceivable in a method according to the invention that the trust level can be subdivided or subdivided into several trust levels, in particular with a check of the trust level taking place after several consecutive proposed actions within one of the trust levels before the artificial intelligence is assigned the next higher trust level to increase the trust level becomes. For example, a second trust level can be assigned to the artificial intelligence in the second interaction process. For example, the trust level can only be changed and/or increased when checking the trust level. Provision can be made for an individual match criterion to be defined for each of the confidence levels. For example, the level of trust can be checked to achieve a second level of trust from a second match criterion of a match between the user interactions and the respective proposed actions in the second interaction process. Provision can furthermore be made for each of the trust levels to be assigned a specific type of proposed action, in particular with the proposed actions of different types of proposals for user interactions being designed in the form of different types of decisions. The trust levels can be used to classify the trust level, as a result of which a number of successive suggested actions can have at least a similar complexity, to which the user can adapt after the respective trust level has been reached.
Weiterhin ist es bei einem erfindungsgemäßen Verfahren denkbar, dass, insbesondere während dem zweiten und/oder einem weiteren Interaktionsvorgang, für jeden Handlungsvorschlag eine Kritikalität ermittelt wird, vorzugsweise wobei in Abhängigkeit von der Kritikalität eine Ausgabeart von zumindest zwei Ausgabearten zum Ausgeben des jeweiligen Handlungsvorschlags festgelegt wird, wobei eine erste Ausgabeart der Ausgabearten eine Anzeige für den Benutzer und eine zweite Ausgabeart der Ausgabearten eine, insbesondere direkte, Ansteuerung des Fahrzeugsystems umfasst. Die Kritikalität kann beispielsweise anhand einer potentiellen Auswirkung des Handlungsvorschlags auf die Fahrsituation und/oder den Nutzer ermittelt werden. Beispielsweise kann die Kritikalität anhand von Kriterien, wie z. B. einer Korrigierbarkeit im Falle einer Fehlentscheidung, einer finanziellen Auswirkung, einer Auswirkung auf eine Reputation und/oder ein Image des Nutzers und/oder des Fahrzeuges, einen potentiellen materiellen Schaden einen potentiellen Personenschaden, soziale Auswirkung und/oder eine Urteilsfähigkeit des Nutzers, bestimmt werden. Dazu können die einzelnen Kriterien weitere Unterklassifikationen umfassen. Beispielsweise kann eine finanzielle Auswirkung in Klassen in Abhängigkeit von einer Höhe der Auswirkung eingeteilt sein. Bei der Festlegung der Ausgabeart kann ferner das Vertrauensniveau berücksichtigt werden. Beispielsweise kann vorgesehen sein, dass bei einem niedrigen Vertrauensniveau die zweite Ausgabeart, bei welcher die künstliche Intelligenz zumindest teilweise ohne Nutzerinteraktion handeln kann, nur bei einer niedrigen Kritikalität festgelegt wird. Es kann vorgesehen sein, dass bei dem ersten Interaktionsvorgang nur Handlungsvorschläge mit einer niedrigen Kritikalität zugelassen sind und/oder bestimmt werden.Furthermore, it is conceivable in a method according to the invention that, in particular during the second and/or a further interaction process, a criticality is determined for each proposed action, preferably with one output type of at least two output types for outputting the respective proposed action being defined as a function of the criticality , wherein a first output type of the output types includes a display for the user and a second output type of the output types includes, in particular direct, control of the vehicle system. The criticality can be determined, for example, based on a potential impact of the action proposal on the driving situation and/or the user. For example, the criticality based on criteria such. B. correctability in the event of a wrong decision, a financial impact, an impact on the reputation and/or image of the user and/or the vehicle, potential material damage, potential personal injury, social impact and/or the user's ability to judge become. For this purpose, the individual criteria can include further sub-classifications. For example, a financial impact may be classified into classes depending on an impact magnitude. The level of confidence can also be taken into account when determining the type of output. For example, it can be provided that, given a low level of trust, the second type of output, in which the artificial intelligence can act at least partially without user interaction, is only specified when the criticality is low. It can be provided that in the first interaction process only suggested actions with a low criticality are permitted and/or determined.
Im Rahmen der Erfindung ist es weiterhin denkbar, dass das Vertrauensniveau bis zu einer maximalen Vertrauenshöhe erhöhbar ist oder erhöht wird, bei welcher Handlungsvorschläge zur autonomen Ansteuerung des Fahrzeugsystems, insbesondere durch die künstliche Intelligenz, ausgegeben werden. Es kann vorgesehen sein, dass die maximale Vertrauenshöhe durch eine maximal erreichbare Vertrauensstufe gebildet ist. Beispielsweise kann eine zweite oder eine dritte Vertrauensstufe der maximalen Vertrauenshöhe zugeordnet sein. Zur autonomen Ansteuerung kann das Unterstützungsmodul ein Ansteuerungssignal zur Ansteuerung des Fahrzeugsystems ausgeben und/oder initiieren. Es kann somit vorgesehen sein, dass die künstliche Intelligenz auf der höchsten Vertrauensstufe selbstständig agiert.In the context of the invention, it is also conceivable that the level of trust can be increased or increased up to a maximum level of trust at which proposed actions for autonomous Men control of the vehicle system, in particular by the artificial intelligence, are issued. It can be provided that the maximum confidence level is formed by a maximum achievable confidence level. For example, a second or a third confidence level may be associated with the maximum confidence level. For autonomous control, the support module can output and/or initiate a control signal for controlling the vehicle system. Provision can thus be made for the artificial intelligence to act independently at the highest level of trust.
Weiterhin kann bei einem erfindungsgemäßen Verfahren vorteilhafterweise vorgesehen sein, dass, vorzugsweise zumindest bei Erreichen der maximalen Vertrauenshöhe, ein, insbesondere regelmäßiger, Kontrollvorgang durchgeführt wird, bei welchem das Vertrauensniveau für zumindest einen Handlungsvorschlag verringert wird und das Vertrauensniveau in Abhängigkeit von einer Nutzerinteraktion auf den Handlungsvorschlag mit dem verringerten Vertrauensniveau überprüft wird. Durch den Kontrollvorgang kann sichergestellt sein, dass das Vertrauensniveau weiterhin gerechtfertigt ist. Bei dem Kontrollvorgang kann beispielsweise nach einer vorbestimmten Anzahl an Handlungsvorschlägen, z. B. nach 25 Handlungsvorschlägen, wieder einmalig die der künstlichen Intelligenz die nächstniedrigere Vertrauensstufe zugewiesen werden, um die Entscheidungsfindung zu verifizieren. Bei Bestehen des Kontrollvorgangs, d.h. insbesondere bei einer übereinstimmenden Nutzerinteraktion, können weitere Kontrollvorgänge in größeren Abständen, z. B. nach 50, 75 und 100 weiteren Handlungsvorgängen, durchgeführt werden. Bei einer abweichenden Nutzerinteraktion kann ein Rücksetzvorgang ausgeführt werden.Furthermore, in a method according to the invention, it can advantageously be provided that, preferably at least when the maximum level of trust is reached, an in particular regular control process is carried out, in which the level of trust for at least one proposed action is reduced and the level of trust is reduced as a function of a user interaction with the proposed action is checked with the reduced confidence level. The control process can ensure that the level of trust is still justified. In the control process, for example, after a predetermined number of proposals for action, z. B. after 25 suggestions for action, the artificial intelligence is once again assigned the next lower level of trust in order to verify the decision-making process. If the control process is passed, i.e. in particular if there is a matching user interaction, further control processes can be carried out at longer intervals, e.g. e.g. after 50, 75 and 100 further actions. If the user interaction deviates, a reset process can be carried out.
Es kann bei einem erfindungsgemäßen Verfahren vorteilhafterweise vorgesehen sein, dass in Abhängigkeit von einer Nutzereingabe und/oder von dem Überprüfen des Vertrauensniveaus ein Rücksetzvorgang durchgeführt wird, bei welchem das Erhöhen des Vertrauensniveaus verhindert wird und/oder das Vertrauensniveau, beispielsweise um eine Vertrauensstufe oder bis zum vordefinierten Vertrauensniveau, verringert wird. Durch den Rücksetzvorgang kann vorgesehen sein, dass die künstliche Intelligenz mit dem niedrigeren Vertrauensniveau einem weiteren Anlernvorgang unterzogen wird. Dadurch kann die Abstimmung zwischen dem Nutzer und der künstlichen Intelligenz verbessert werden. Durch die Nutzereingabe kann ferner eine ständige, manuelle Rücksetzmöglichkeit bereitgestellt werden, um dem Nutzer bei einem Fehlverhalten der künstlichen Intelligenz jederzeit das erneute Anlernen zu ermöglichen.In a method according to the invention, it can advantageously be provided that, depending on a user input and/or on the checking of the trust level, a reset process is carried out, in which the increase in the trust level is prevented and/or the trust level is increased, for example by one trust level or up to predefined confidence level, is reduced. The reset process can provide that the artificial intelligence with the lower level of trust is subjected to a further learning process. This can improve the coordination between the user and the artificial intelligence. Furthermore, the user input can provide a constant, manual reset option in order to enable the user to relearn at any time in the event of a malfunction of the artificial intelligence.
Ferner kann bei einem erfindungsgemäßen Verfahren vorteilhafterweise vorgesehen sein, dass die künstliche Intelligenz einem Nutzerprofil des Nutzers zugeordnet ist, insbesondere um eine fahrzeugübergreifende Nutzung der künstlichen Intelligenz zu ermöglichen. Das Nutzerprofil kann beispielsweise auf einem Server hinterlegt sein oder an einen Server gesendet werden. Dadurch kann die künstliche Intelligenz bei einem Fahrzeugwechsel, z. B. auf einen Leihwagen oder einen Neuwagen, übertragen werden, ohne dass der Nutzer den nutzerspezifischen Fortschritt der künstlichen Intelligenz verliert. Zusätzlich oder alternativ kann durch das Nutzerprofil eine nutzerübergreifende Nutzung des Fahrzeuges mit jeweils einer nutzerspezifisch angelernten künstlichen Intelligenz ermöglicht werden. Somit kann das Unterstützungssystem mehrere Unterstützungsmodule und/oder mehrere künstliche Intelligenzen umfassen. Weiterhin ist es denkbar, dass mehrere Nutzerprofile analysiert werden, um ein flottenspezifisches Anlernen mehrerer Fahrzeuge zu ermöglichen.Furthermore, in a method according to the invention, provision can advantageously be made for the artificial intelligence to be assigned to a user profile of the user, in particular in order to enable the artificial intelligence to be used across vehicles. For example, the user profile can be stored on a server or sent to a server. As a result, the artificial intelligence can be used when changing vehicles, e.g. B. to a rental car or a new car, without the user losing the user-specific progress of the artificial intelligence. Additionally or alternatively, the user profile can enable cross-user use of the vehicle, each with a user-specific trained artificial intelligence. Thus, the support system can include multiple support modules and/or multiple artificial intelligences. Furthermore, it is conceivable that several user profiles are analyzed in order to enable a fleet-specific training of several vehicles.
Gemäß einem weiteren Aspekt der Erfindung ist ein Computerprogrammprodukt vorgesehen. Das Computerprogrammprodukt umfasst Befehle, die bei einer Ausführung durch eine Steuereinheit die Steuereinheit veranlassen, ein erfindungsgemäßes Verfahren auszuführen.According to another aspect of the invention, a computer program product is provided. The computer program product comprises instructions which, when executed by a control unit, cause the control unit to carry out a method according to the invention.
Somit bringt ein erfindungsgemäßes Computerprogrammprodukt die gleichen Vorteile mit sich, wie sie bereits ausführlich mit Bezug auf ein erfindungsgemäßen Verfahren beschrieben worden sind. Bei dem Verfahren kann es sich insbesondere um ein computerimplementiertes Verfahren handeln. Das Computerprogrammprodukt kann als computerlesbarer Anweisungscode implementiert sein. Ferner kann das Computerprogrammprodukt auf einem computerlesbaren Speichermedium wie einer Datendisk, einem Wechsellaufwerk, einem flüchtigen oder nichtflüchtigen Speicher, oder einem eingebauten Speicher/Prozessor abgespeichert sein. Ferner kann das Computerprogrammprodukt in einem Netzwerk wie beispielsweise dem Internet bereitstellbar oder bereitgestellt sein, von dem es bei Bedarf von einem Nutzer heruntergeladen oder online ausgeführt werden kann. Das Computerprogrammprodukt kann sowohl mittels einer Software, als auch mittels einer oder mehrerer spezieller elektronischer Schaltungen, d.h. in Hardware oder in beliebig hybrider Form, d.h. mittels Software-Komponenten und Hardware-Komponenten, realisiert sein.A computer program product according to the invention thus entails the same advantages as have already been described in detail with reference to a method according to the invention. The method can in particular be a computer-implemented method. The computer program product can be implemented as computer-readable instruction code. Furthermore, the computer program product can be stored on a computer-readable storage medium such as a data disk, a removable drive, a volatile or non-volatile memory, or an integrated memory/processor. Furthermore, the computer program product can be made available or made available on a network such as the Internet, from which it can be downloaded by a user or run online when required. The computer program product can be implemented both by means of software and by means of one or more special electronic circuits, i.e. in hardware or in any hybrid form, i.e. by means of software components and hardware components.
Gemäß einem weiteren Aspekt der Erfindung ist ein Unterstützungssystem zur Unterstützung eines Nutzers bei einer Bedienung eines Fahrzeugsystems vorgesehen. Das Unterstützungssystem weist ein Unterstützungsmodul mit einer künstlichen Intelligenz zum Ausführen eines erfindungsgemäßen Verfahrens auf.According to a further aspect of the invention, a support system is provided to support a user when operating a vehicle system. The support system has a support module with an artificial Intelligence for executing a method according to the invention.
Somit bringt ein erfindungsgemäßes Unterstützungssystem die gleichen Vorteile mit sich, wie sie bereits ausführlich mit Bezug auf ein erfindungsgemäßes Verfahren und/oder ein erfindungsgemäßes Computerprogrammprodukt beschrieben worden sind. Das Unterstützungssystem kann ein Ausgabemodul zur Ausgabe der Handlungsvorschläge umfassen. Weiterhin kann das Unterstützungssystem das Fahrzeug und/oder das Fahrzeugsystem umfassen. Das Unterstützungsmodul kann in eine Steuereinheit, insbesondere in Form eines Steuergerätes innerhalb des Fahrzeuges und/oder eines Servers außerhalb des Fahrzeuges, integriert sein. Die Steuereinheit kann einen Prozessor und/oder einen Mikroprozessor umfassen.A support system according to the invention thus entails the same advantages as have already been described in detail with reference to a method according to the invention and/or a computer program product according to the invention. The support system can include an output module for outputting the suggested actions. Furthermore, the support system can include the vehicle and/or the vehicle system. The support module can be integrated into a control unit, in particular in the form of a control unit inside the vehicle and/or a server outside the vehicle. The control unit may include a processor and/or a microprocessor.
Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung, in der unter Bezugnahme auf die Zeichnungen Ausführungsbeispiele der Erfindung im Einzelnen beschrieben sind. Dabei können die in den Ansprüchen und in der Beschreibung erwähnten Merkmale jeweils einzeln für sich oder in beliebiger Kombination erfindungswesentlich sein. Es zeigen schematisch:
-
1 einen ersten und zweiten Interaktionsvorgang eines erfindungsgemäßen Verfahrens, -
2 das Verfahren in schematischer Darstellung von Verfahrensschritten, und -
3 ein erfindungsgemäßes Unterstützungssystem zum Ausführen des Verfahrens bei einem Fahrzeug.
-
1 a first and second interaction process of a method according to the invention, -
2 the process in a schematic representation of process steps, and -
3 a support system according to the invention for carrying out the method in a vehicle.
In der nachfolgenden Beschreibung zu einigen Ausführungsbeispielen der Erfindung werden für die gleichen technischen Merkmale auch in unterschiedlichen Ausführungsbeispielen die identischen Bezugszeichen verwendet.In the following description of some exemplary embodiments of the invention, identical reference symbols are used for the same technical features in different exemplary embodiments.
Zur Unterstützung des Nutzers weist das Unterstützungssystem 10 ein Unterstützungsmodul 12 mit einer künstlichen Intelligenz 11 auf. Beispielsweise kann die künstliche Intelligenz 11 durch ein künstliches, neuronales Netzwerk gebildet sein. Der künstlichen Intelligenz 11 ist ferner ein vordefiniertes Vertrauensniveau 200 zugewiesen, um Handlungsvorschläge 210 in Abhängigkeit von dem Vertrauensniveau 200 zu bestimmen. Das Fahrzeugsystem 2 kann beispielsweise ein Fahrsystem und/oder ein Komfortsystem des Fahrzeuges 1 umfassen. Dabei wird das Verfahren 100 während des Betriebes des Fahrzeuges 1, insbesondere des Fahrzeugsystems 2, ausgeführt. Um eine fahrzeugübergreifende Nutzung der künstlichen Intelligenz 11 und/oder eine nutzerübergreifende Nutzung des Fahrzeuges 1 zu ermöglichen, ist die künstliche Intelligenz 11 vorzugsweise einem Nutzerprofil 214 des Nutzers zugeordnet. Das Nutzerprofil 214 kann beispielsweise auf einem Server hinterlegt sein, um die künstliche Intelligenz 11 nutzerspezifisch in wechselnden Fahrzeugen 1 und/oder mehrere künstliche Intelligenzen 11 im gleichen Fahrzeug 1 bei wechselnden Nutzern vorteilhaft einsetzen zu können.The
Insbesondere zum Anlernen der künstlichen Intelligenz 11 erfolgt zunächst ein Durchführen eines ersten Interaktionsvorgangs 101, bei dem in Abhängigkeit von dem Vertrauensniveau 200 aufeinanderfolgende Handlungsvorschläge 210 zur Ansteuerung des Fahrzeugsystems 2 durch das Unterstützungsmodul 12 ausgegeben und Nutzerinteraktionen 211 des Nutzers in Reaktion auf die Handlungsvorschläge 210 erfasst werden. Der erste Interaktionsvorgang 101 ist in
Weiterhin umfasst das Verfahren 100 ein Überprüfen 103 des Vertrauensniveaus 200 in Abhängigkeit von einem Übereinstimmungskriterium 212 einer Übereinstimmung der Nutzerinteraktionen 211 und der jeweiligen Handlungsvorschläge 210 bei dem ersten Interaktionsvorgang 101. Dabei wird das Vertrauensniveau 200 der künstlichen Intelligenz 11 erhöht, wenn das Übereinstimmungskriterium 212 erfüllt ist. Beispielsweise kann das Überprüfen 103 nach einer festgelegten Anzahl an Handlungsvorschlägen 210 und/oder Nutzerinteraktionen 211 erfolgen. Das Übereinstimmungskriterium 212 kann dann einen erforderlichen Prozentsatz an Handlungsvorschlägen 210 umfassen, zu denen die Nutzerinteraktionen 211 während dem ersten Interaktionsvorgang 101 positiv waren. Vorteilhafterweise kann in Abhängigkeit von einer Nutzereingabe und/oder von dem Überprüfen 103 des Vertrauensniveaus 200 ein Rücksetzvorgang 105 durchgeführt werden, bei welchem das Erhöhen des Vertrauensniveaus 200 verhindert wird und/oder das Vertrauensniveau 200 verringert wird. In diesem Fall kann der erste Interaktionsvorgang 101 neugestartet und/oder wiederholt werden, um die Anlernphase bei einem niedrigen Vertrauensniveau 200 zu verlängern.The
Bei einer Erhöhung des Vertrauensniveaus 200 durch das Überprüfen 103 des Vertrauensniveaus 200 erfolgt ein Durchführen eines zweiten Interaktionsvorgangs 102, bei dem in Abhängigkeit von dem erhöhten Vertrauensniveau 200 zumindest ein weiterer Handlungsvorschlag 210 zur Ansteuerung des Fahrzeugsystems 2 durch das Unterstützungsmodul 12 ausgegeben wird. Dabei kann die künstliche Intelligenz 11 aufgrund des erhöhten Vertrauensniveaus 200 selbstständiger agieren und beispielsweise die Sitzheizung automatisch regeln. Vorzugsweise kann während dem zweiten Interaktionsvorgang 102 für jeden Handlungsvorschlag 210 eine Kritikalität 213 ermittelt werden. In Abhängigkeit von der Kritikalität 213 kann dabei eine Ausgabeart von zumindest zwei Ausgabearten 215.1, 215.2 zum Ausgeben des jeweiligen Handlungsvorschlags 210 festgelegt werden. Eine erste Ausgabeart 215.1 der Ausgabearten 215.1, 215.2 kann ferner eine Anzeige für den Benutzer und eine zweite Ausgabeart 215.2 der Ausgabearten 215.1, 215.2 eine Ansteuerung des Fahrzeugsystems 2 umfassen. Dadurch kann für kritische Entscheidungen ferner eine Nutzerinteraktion 211 eingeholt werden. Weiterhin kann vorgesehen sein, dass bei dem ersten Interaktionsvorgang 101 und/oder bei dem zweiten Interaktionsvorgang 102 der weitere Handlungsvorschlag 210 mit einer Begründung des Handlungsvorschlages 210 an den Nutzer ausgegeben wird.When
Wie in
Es kann vorgesehen sein, dass nach jeder Erhöhung des Vertrauensniveaus 200 und/oder zumindest bei Erreichen der maximalen Vertrauenshöhe 202 ein regelmäßiger Kontrollvorgang 104 durchgeführt wird, bei welchem das Vertrauensniveau 200 für zumindest einen Handlungsvorschlag 210 verringert wird und das Vertrauensniveau 200 in Abhängigkeit von einer Nutzerinteraktion 211 auf den Handlungsvorschlag 210 mit dem verringerten Vertrauensniveau 200 überprüft wird. Dabei kann beispielsweise ein Handlungsvorschlag 210 der nächstniedrigeren Vertrauensstufe 201 ausgegeben werden und überprüft werden, ob eine entsprechende Nutzerinteraktion 211 noch mit dem Handlungsvorschlag 210 übereinstimmt. Falls eine Übereinstimmung gegeben ist, kann das Vertrauensniveau 200 wieder auf die höhere Vertrauensstufe 201 zurückkehren. Andernfalls kann der Rücksetzvorgang 105 durchgeführt werden.Provision can be made for a
BezugszeichenlisteReference List
- 11
- Fahrzeugvehicle
- 22
- Fahrzeugsystemvehicle system
- 33
- Nutzerschnittstelle user interface
- 1010
- Unterstützungssystemsupport system
- 1111
- künstliche Intelligenzartificial intelligence
- 1212
- Unterstützungsmodulsupport module
- 1313
- Ausgabemoduloutput module
- 1414
- Steuereinheit control unit
- 100100
- VerfahrenProceedings
- 101101
- erster Interaktionsvorgangfirst interaction process
- 102102
- zweiter Interaktionsvorgangsecond interaction process
- 103103
- ÜberprüfenCheck
- 104104
- Kontrollvorgangcontrol process
- 105105
- Rücksetzvorgangreset operation
- 106106
- weiterer Interaktionsvorgang further interaction process
- 200200
- Vertrauensniveautrust level
- 201201
- Vertrauensstufentrust levels
- 202202
- maximale Vertrauenshöhe maximum trust level
- 210210
- Handlungsvorschlägesuggestions for action
- 211211
- Nutzerinteraktionenuser interactions
- 212212
- Übereinstimmungskriteriummatch criterion
- 213213
- Kritikalitätcriticality
- 214214
- Nutzerprofiluser profile
- 215.1215.1
- erste Ausgabeartfirst type of output
- 215.2215.2
- zweite Ausgabeartsecond type of output
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- US 20190310627 A1 [0003]US20190310627A1 [0003]
Claims (11)
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102022201859.1A DE102022201859A1 (en) | 2022-02-22 | 2022-02-22 | Method for user-specific operation of a support system with artificial intelligence, computer program product and support system |
| CN202310143831.3A CN116639143A (en) | 2022-02-22 | 2023-02-21 | Method, computer program product and assistance system for user-specific operation of an assistance system with artificial intelligence |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102022201859.1A DE102022201859A1 (en) | 2022-02-22 | 2022-02-22 | Method for user-specific operation of a support system with artificial intelligence, computer program product and support system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102022201859A1 true DE102022201859A1 (en) | 2023-08-24 |
Family
ID=87518650
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102022201859.1A Pending DE102022201859A1 (en) | 2022-02-22 | 2022-02-22 | Method for user-specific operation of a support system with artificial intelligence, computer program product and support system |
Country Status (2)
| Country | Link |
|---|---|
| CN (1) | CN116639143A (en) |
| DE (1) | DE102022201859A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102023133909A1 (en) * | 2023-12-05 | 2025-06-05 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Method and system for an individual vehicle AI agent |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190310627A1 (en) | 2018-04-09 | 2019-10-10 | SafeAl, Inc. | User interface for presenting decisions |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE10332502A1 (en) * | 2003-07-17 | 2005-02-03 | Daimlerchrysler Ag | Method and device for hazard warning display, in particular in a motor vehicle |
| WO2013133791A1 (en) * | 2012-03-05 | 2013-09-12 | Intel Corporation | User identification and personalized vehicle settings management system |
| US9815481B2 (en) * | 2015-09-28 | 2017-11-14 | GM Global Technology Operations LLC | Vehicle-user-interaction system |
| US20200193311A1 (en) * | 2018-12-18 | 2020-06-18 | Sri International | Autonomous system action explanation |
| US11498591B2 (en) * | 2019-09-13 | 2022-11-15 | Honda Motor Co., Ltd. | System and method for providing adaptive trust calibration in driving automation |
| US11332165B2 (en) * | 2020-01-27 | 2022-05-17 | Honda Motor Co., Ltd. | Human trust calibration for autonomous driving agent of vehicle |
-
2022
- 2022-02-22 DE DE102022201859.1A patent/DE102022201859A1/en active Pending
-
2023
- 2023-02-21 CN CN202310143831.3A patent/CN116639143A/en active Pending
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190310627A1 (en) | 2018-04-09 | 2019-10-10 | SafeAl, Inc. | User interface for presenting decisions |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102023133909A1 (en) * | 2023-12-05 | 2025-06-05 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Method and system for an individual vehicle AI agent |
Also Published As
| Publication number | Publication date |
|---|---|
| CN116639143A (en) | 2023-08-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2021008836A1 (en) | Device and computer-implemented method for the processing of digital sensor data and training method for same | |
| WO2019081241A1 (en) | METHOD, DEVICE AND COMPUTER PROGRAM FOR CREATING A DEEP NEURAL NETWORK | |
| DE102018211835A1 (en) | Method for determining a setting position of a position-adjustable component | |
| EP0901658B1 (en) | Process for optimizing fuzzy rules using a computer | |
| EP3953865B1 (en) | Method, device, and computer program for operating a deep neural network | |
| DE102022201859A1 (en) | Method for user-specific operation of a support system with artificial intelligence, computer program product and support system | |
| DE102021123597A1 (en) | Process and control unit for the automated application of driver assistance systems in series production | |
| DE102018219290A1 (en) | Method for teaching a personalized headlight device of a motor vehicle | |
| DE102020122979A1 (en) | Method for providing a compressed, robust neural network and assistance device | |
| WO2021089499A1 (en) | Method and system for checking an automated driving function by reinforcement learning | |
| DE102024000267A1 (en) | Method for creating at least one vehicle configuration of a vehicle | |
| WO2020193481A1 (en) | Method and device for training and producing an artificial neural network | |
| DE102021208472B3 (en) | Computer-implemented method for training a machine learning model for a vehicle or robot | |
| DE102020105783A1 (en) | Method of creating a reduced neural network | |
| DE19624614C2 (en) | Process for designing or adapting a fuzzy controller or a system of linked fuzzy controllers | |
| DE102019208265A1 (en) | Adaptive cleaning of measurement data for different types of disturbances | |
| DE102022003544A1 (en) | Assistance system and method for supporting a driver during a drift maneuver with a vehicle | |
| DE102022112606B3 (en) | Computer-implemented method for calibrating a technical system | |
| DE102013200932A1 (en) | Method for monitoring control function of engine control device of engine system of motor vehicle, involves determining comparison value by using mathematical numerical parametric model, particularly Gaussian model | |
| DE102019214308A1 (en) | Fast, quantized training of trainable modules | |
| DE102017011695A1 (en) | Method for operating a vehicle | |
| DE112022008081T5 (en) | INTERNAL CONDITION ESTIMATION DEVICE AND INTERNAL CONDITION ESTIMATION METHOD | |
| DE102023103652A1 (en) | Computer-implemented method for calculating a calculation output from a calculation input | |
| DE102024002685A1 (en) | Method for configuring an AI function in a vehicle | |
| DE102024001334A1 (en) | Method, computer system and vehicle for generating a student network from a teacher network formed by a fleet of vehicles |