FR3036570A1 - TECHNIQUE FOR INTERACTING A USER DEVICE WITH A DEVICE CALLED - Google Patents
TECHNIQUE FOR INTERACTING A USER DEVICE WITH A DEVICE CALLED Download PDFInfo
- Publication number
- FR3036570A1 FR3036570A1 FR1554629A FR1554629A FR3036570A1 FR 3036570 A1 FR3036570 A1 FR 3036570A1 FR 1554629 A FR1554629 A FR 1554629A FR 1554629 A FR1554629 A FR 1554629A FR 3036570 A1 FR3036570 A1 FR 3036570A1
- Authority
- FR
- France
- Prior art keywords
- interaction
- user device
- voice
- menu
- called
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000003993 interaction Effects 0.000 claims abstract description 244
- 238000004891 communication Methods 0.000 claims abstract description 75
- 230000004044 response Effects 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 8
- 230000015654 memory Effects 0.000 description 9
- 230000002452 interceptive effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 208000032041 Hearing impaired Diseases 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/25—Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service
- H04M2203/251—Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service where a voice mode or a visual mode can be used interchangeably
- H04M2203/253—Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service where a voice mode or a visual mode can be used interchangeably where a visual mode is used instead of a voice mode
- H04M2203/254—Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service where a voice mode or a visual mode can be used interchangeably where a visual mode is used instead of a voice mode where the visual mode comprises menus
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
L'invention concerne une technique d'interaction d'un dispositif utilisateur (10, 11) avec un dispositif appelé (20). Lorsqu'une demande d'établissement d'une communication vocale entre le dispositif utilisateur et le dispositif appelé est émise, le dispositif utilisateur détecte que le dispositif appelé met en œuvre des étapes d'interaction vocale automatisées. Un menu d'interaction est alors reçu au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif appelé et est affiché sous forme sur un écran du dispositif utilisateur. Une donnée de sélection relative au menu d'interaction reçu est alors saisie par un utilisateur du dispositif utilisateur et est envoyée par le dispositif utilisateur sous forme textuelle au moyen de la session multimédia.The invention relates to a technique for interaction of a user device (10, 11) with a called device (20). When a request for establishing a voice communication between the user device and the called device is issued, the user device detects that the called device implements automated voice interaction steps. An interaction menu is then received by means of a multimedia session established between the user device and the called device and is displayed in form on a screen of the user device. A selection data relating to the received interaction menu is then entered by a user of the user device and is sent by the user device in text form by means of the multimedia session.
Description
1 Technique d'interaction d'un dispositif utilisateur avec un dispositif appelé L'invention se rapporte au domaine général des télécommunications. L'invention concerne plus particulièrement une technique d'interaction d'un dispositif utilisateur avec un dispositif appelé, notamment lorsque le dispositif appelé est un serveur vocal interactif. Un tel dispositif d'interaction vocale met en oeuvre des étapes d'interaction vocales automatisées. Il arrive fréquemment qu'un service téléphonique de support en ligne (« hotline » en anglais) mette en oeuvre des étapes d'interaction avec un dispositif appelant sous la forme de menu d'interaction et de choix dans ce menu successivement selon une logique d'interaction. Lors de ces étapes d'interaction, plusieurs choix sont proposés vocalement et l'utilisateur du dispositif appelant sélectionne un de ces choix vocalement ou bien par appui sur une touche de son clavier. A titre d'exemple illustratif, un menu propose les choix suivants : « Appuyez sur la touche 1 pour modifier vos données personnelles, appuyez sur la touche 2 pour être mis en relation avec un opérateur, appuyez sur la touche 3 pour toute autre demande, appuyez sur la touche * pour revenir au menu précédent ». Lorsque la sélection s'effectue par appui sur une touche du claver, l'utilisateur du dispositif appelant doit écouter les choix qui lui sont proposés puis entrer son choix sur le clavier de son terminal. Ceci est particulièrement fastidieux, surtout lorsque l'utilisateur du dispositif appelant ne souhaite pas basculer la communication vocale sur haut-parleur. Lorsque la sélection s'effectue par reconnaissance vocale, un choix de l'utilisateur du dispositif appelant peut être mal reconnu. Ceci a pour conséquence une navigation dans les différents menus d'interaction particulièrement fastidieuse. Ainsi, beaucoup d'utilisateurs n'apprécient pas de dialoguer avec une machine, en raison de ces contraintes et de problèmes de fiabilité. Par ailleurs, des utilisateurs malentendants se trouvent confronter à des difficultés pour interagir avec un tel serveur vocal. Un des buts de l'invention est de remédier à des insuffisances/inconvénients de l'état de la technique et/ou d'y apporter des améliorations.The invention relates to the general field of telecommunications. The invention relates more particularly to a technique of interaction of a user device with a called device, especially when the called device is an interactive voice server. Such a voice interaction device implements automated voice interaction steps. It often happens that an online hotline service ("hotline" in English) implements interaction steps with a calling device in the form of interaction menu and choice in this menu successively according to a logic of 'interaction. During these interaction steps, several choices are proposed vocally and the user of the calling device selects one of these choices vocally or by pressing a key on his keyboard. As an illustrative example, a menu offers the following choices: "Press key 1 to modify your personal data, press key 2 to be put in contact with an operator, press key 3 for any other request, press the * key to return to the previous menu ". When the selection is made by pressing a key claver, the user of the calling device must listen to the choices that are available and enter his choice on the keyboard of his terminal. This is particularly tedious, especially when the user of the calling device does not wish to switch the voice communication on loudspeaker. When the selection is made by voice recognition, a choice of the user of the calling device may be poorly recognized. This results in a navigation in the various interaction menus particularly tedious. Thus, many users do not like to interact with a machine, because of these constraints and reliability issues. In addition, hearing-impaired users find it difficult to interact with such a voice server. One of the aims of the invention is to remedy the shortcomings / disadvantages of the state of the art and / or to make improvements thereto.
Selon un premier aspect, l'invention a pour objet un procédé d'interaction d'un dispositif utilisateur avec un dispositif appelé. Ce procédé comprend, lorsqu'une demande d'établissement d'une communication vocale entre le dispositif utilisateur et le dispositif appelé est émise : - une détection par le dispositif utilisateur que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées ; - un affichage sur un écran du dispositif utilisateur sous forme textuelle d'un menu d'interaction reçu au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif appelé ; 3036570 2 - un envoi par le dispositif utilisateur sous forme textuelle au moyen de la session multimédia d'une donnée de sélection relative au menu d'interaction reçu.. Corrélativement, au niveau du dispositif appelé, le procédé d'interaction d'un dispositif utilisateur avec un dispositif appelé comprend, lorsqu'une demande d'établissement d'une 5 communication vocale entre le dispositif utilisateur et le dispositif appelé est reçue : - une fourniture par le dispositif appelé au dispositif utilisateur d'une indication que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées ; - un envoi au dispositif utilisateur d'un menu d'interaction au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif appelé pour un affichage sous forme 10 textuelle sur un écran du dispositif utilisateur ; - une réception par le dispositif appelé d'une donnée de sélection relative au menu d'interaction envoyé, reçue sous forme textuelle au moyen de la session multimédia. Un dispositif mettant en oeuvre des étapes automatisées correspond par exemple à un serveur vocal interactif, proposant des choix de sélection par l'intermédiaire de menus d'interaction 15 sous forme vocale selon une logique d'interaction. Une session multimédia est une session de communication, apte à transmettre différents types d'informations : des textes, des fichiers, des messages instantanés, des contenus, ... Ainsi, l'interaction d'un utilisateur du dispositif appelant avec le dispositif appelé s'effectue de manière simple et conviviale. Des utilisateurs malentendants peuvent grâce au 20 procédé d'interaction avoir accès au service vocal. La durée nécessaire aux interactions du dispositif utilisateur avec le dispositif d'interaction vocale ou serveur vocal appelé est également écourtée et plus fiable, notamment par rapport à une logique d'interaction basée sur une reconnaissance vocale pour obtenir la donnée de sélection. De manière courante, un serveur vocal interactif met en oeuvre une synthèse vocale, c'est- 25 à-dire une conversion de texte en parole, afin de restituer sous forme vocale les menus d'interaction. De ce fait, la transmission des menus d'interaction directement sous forme textuelle au dispositif appelant n'entraîne pas une augmentation des moyens de traitement nécessaires au niveau du serveur vocal. Par ailleurs, la donnée de sélection étant obtenue directement sous forme textuelle, ceci diminue le temps de traitement notamment pour des serveurs vocaux interactifs 30 mettant en oeuvre un algorithme de reconnaissance vocale pour identifier la donnée de sélection. La donnée de sélection peut être convertie lors de sa réception sous la forme d'un signal multifréquences bi-tons DTMF (pour « Dual-Tone Multi-Frequency ») afin de limiter les modifications apportées à la logique d'interaction du serveur vocal. La technique d'interaction est particulièrement avantageuse pour être mise en oeuvre sur 35 des dispositifs utilisateur de nouvelle génération. De tels dispositifs, par exemple des « smartphone », disposent en effet d'un écran dont la taille est adaptée pour un affichage de menus sous forme textuelle. Pour un écran tactile, la saisie de la donnée de sélection peut s'effectuer 3036570 3 directement sans nécessiter une interaction avec un clavier. La sélection dans les menus peut également se faire au moyen des flèches haut/bas. L'expérience de l'utilisateur est ainsi améliorée grâce à l'utilisation des capacités graphiques de ce type de terminal 5 L'affichage sous forme textuelle permet également une interaction plus rapide. Il n'est en effet pas nécessaire de lire une proposition in extenso pour décider de ne pas la sélectionner. Dans une interaction sous forme vocale, la proposition doit être écoutée dans son ensemble avant de pouvoir écouter la proposition suivante. Une interaction plus rapide et efficace est particulièrement appréciable pour les services vocaux interactifs destinés à traiter une urgence.According to a first aspect, the subject of the invention is a method of interaction of a user device with a called device. This method comprises, when a request for establishing a voice communication between the user device and the called device is issued: - a detection by the user device that the called device implements automated voice interaction steps; a display on a screen of the user device in text form of an interaction menu received by means of a multimedia session established between the user device and the called device; - A sending by the user device in text form by means of the multimedia session of a selection data item relating to the interaction menu received. Correlatively, at the level of the called device, the method of interaction of a device user with a called device includes, when a request for establishing a voice communication between the user device and the called device is received: - a provision by the called device to the user device of an indication that the called device sets implementing automated voice interaction steps; a sending to the user device of an interaction menu by means of a multimedia session established between the user device and the called device for a textual display on a screen of the user device; a reception by the called device of a selection data item relating to the sent interaction menu, received in text form by means of the multimedia session. A device implementing automated steps corresponds, for example, to an interactive voice server, offering selection choices via interaction menus 15 in voice form according to an interaction logic. A multimedia session is a communication session, capable of transmitting different types of information: texts, files, instant messages, contents, etc. Thus, the interaction of a user of the calling device with the called device is done in a simple and user-friendly way. Hearing impaired users can, through the interaction process, have access to the voice service. The time required for the interactions of the user device with the called voice interaction device or voice server is also shortened and more reliable, especially with respect to interaction logic based on voice recognition to obtain the selection data. Commonly, an interactive voice server implements a speech synthesis, ie a text to speech conversion, in order to render the interaction menus in voice form. As a result, the transmission of interaction menus directly in text form to the calling device does not result in an increase in the processing means required at the voice server level. Furthermore, the selection data being obtained directly in textual form, this reduces the processing time especially for interactive voice servers 30 implementing a voice recognition algorithm to identify the selection data. The selection data can be converted upon reception as a DTMF (Dual-Tone Multi-Frequency) multi-frequency signal to limit changes to the interaction logic of the voice server. The interaction technique is particularly advantageous for use on next-generation user devices. Such devices, for example "smartphones", have in fact a screen whose size is suitable for displaying menus in textual form. For a touch screen, the input of the selection data can be done directly without requiring interaction with a keyboard. The selection in the menus can also be done using the up / down arrows. The user experience is thus improved thanks to the use of the graphic capabilities of this type of terminal. The display in textual form also allows a faster interaction. It is not necessary to read a proposal in extenso to decide not to select it. In voice interaction, the proposal must be heard as a whole before listening to the next proposition. A faster and more effective interaction is particularly valuable for interactive voice services intended to handle an emergency.
10 En fonction de la donnée de sélection, le dispositif d'interaction vocale ou serveur vocal sélectionne le menu suivant pour un affichage sous forme textuelle. Le nouveau menu est affiché sur l'écran du dispositif utilisateur, et ce jusqu'à ce que l'utilisateur soit connecté à un opérateur via un transfert d'appel ou mette fin à l'interaction avec le serveur vocal. Dans un mode de réalisation particulier, la technique d'interaction est mis en oeuvre au 15 moyen de fonctionnalités de communication enrichies RCS (pour « Rich Communication Services »), disponibles pour le service Joyn. La mise en oeuvre du procédé d'interaction ne nécessite pas de savoir au préalable si le dispositif appelé est un dispositif mettant en oeuvre des étapes d'interaction vocale automatisées. En effet, lorsque le dispositif appelé est un autre dispositif utilisateur, il est détecté que cet autre 20 dispositif utilisateur ne met pas en oeuvre des étapes d'interaction vocale automatisées et la communication vocale peut être établie de manière classique. Les différents modes ou caractéristiques de réalisation mentionnés ci-après peuvent être ajoutés indépendamment ou en combinaison les uns avec les autres, aux étapes du procédé de d'interaction tel que défini précédemment.Depending on the selection data, the voice interaction device or voice server selects the following menu for textual display. The new menu is displayed on the screen of the user device, until the user is connected to an operator via a call transfer or terminates interaction with the voice server. In a particular embodiment, the interaction technique is implemented by means of enhanced communication functionalities RCS (for "Rich Communication Services"), available for the Joyn service. The implementation of the interaction method does not require prior knowledge if the device called is a device implementing automated voice interaction steps. Indeed, when the called device is another user device, it is detected that this other user device does not implement automated voice interaction steps and voice communication can be established in a conventional manner. The various modes or features of embodiment mentioned below may be added independently or in combination with each other, to the steps of the interaction method as defined above.
25 Selon une caractéristique particulière du procédé d'interaction, la détection comprend un envoi au dispositif appelé d'un message de découverte de capacités de communication et une réception d'une capacité de communication indiquant un mode de fonctionnement de type automate. On note que, pour une mise en oeuvre du procédé à l'aide des fonctionnalités de 30 communication enrichies RCS, le message de découverte correspond au message SIP-OPTIONS et la capacité de communication « isAutomata » reçue en retour permet au dispositif appelé d'indiquer un mode de fonctionnement de type automate (booléen positionné à la valeur « vraie »). Ainsi, le procédé d'interaction s'appuie des échanges déjà spécifiés dans le standard RCS et permettant de garantir une interopérabilité entre le dispositif utilisateur et le dispositif d'interaction 35 vocale ou serveur vocal.According to a particular characteristic of the interaction method, the detection comprises sending to the called device a communication capability discovery message and receiving a communication capability indicating a PLC mode of operation. Note that, for an implementation of the method using the RCS enhanced communication functionalities, the discovery message corresponds to the SIP-OPTIONS message and the "isAutomata" communication capability received in return allows the called device to communicate. indicate an operating mode of the PLC type (Boolean set to the value "true"). Thus, the interaction method relies on exchanges already specified in the RCS standard and to ensure interoperability between the user device and the voice interaction device or voice server.
3036570 4 Corrélativement, la fourniture comprend une réception par le dispositif appelé d'un message de découverte de capacités de communication et un envoi d'une capacité de communication indiquant un mode de fonctionnement de type automate. Selon une caractéristique particulière du procédé d'interaction, la session multimédia est 5 établie suite à la détection que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées. Ceci permet d'établir une session multimédia uniquement lorsque cela est nécessaire, c'est-à-dire lorsqu'il est détecté que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées.Correspondingly, the supply comprises a reception by the called device of a communication capability discovery message and a sending of a communication capability indicating a PLC type operating mode. According to a particular characteristic of the interaction method, the multimedia session is established following the detection that the called device implements automated voice interaction steps. This makes it possible to establish a multimedia session only when it is necessary, that is to say when it is detected that the called device implements automated voice interaction steps.
10 Dans un autre mode de réalisation, la session multimédia est établie au préalable. Selon une caractéristique particulière du procédé d'interaction, le menu d'interaction est envoyé par le dispositif appelé et est reçu par le dispositif utilisateur sous forme textuelle au moyen de la session multimédia. Dans ce mode de réalisation, le menu peut être affiché directement.In another embodiment, the multimedia session is pre-established. According to a particular characteristic of the interaction method, the interaction menu is sent by the called device and is received by the user device in text form by means of the multimedia session. In this embodiment, the menu can be displayed directly.
15 Dans un autre mode de réalisation, le menu est reçu sous forme vocale et le dispositif utilisateur convertit par reconnaissance vocale le menu sous forme textuelle. Selon un deuxième aspect, l'invention concerne également un dispositif utilisateur comprenant : - un module d'interaction, agencé pour : 20 - détecter qu'un dispositif pour lequel une demande d'établissement d'une communication vocale est émise, dit dispositif appelé, met en oeuvre des étapes d'interaction vocale automatisées ; - recevoir un menu d'interaction au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif appelé ; 25 - envoyer sous forme textuelle au moyen de la session multimédia d'une donnée de sélection relative au menu d'interaction reçu ; - un module d'interface homme-machine, agencé pour afficher sur un écran du dispositif utilisateur sous forme textuelle le menu d'interaction reçu. Selon un troisième aspect, l'invention concerne également un dispositif d'interaction 30 vocale, agencé pour interagir au moyen d'une communication vocale avec un dispositif utilisateur, ledit dispositif d'interaction vocale comprenant : - un module de communication, agencé pour fournir un service de communication enrichi et pour fournir à un dispositif utilisateur le requérant une indication que ledit dispositif d'interaction vocale met en oeuvre des étapes d'interaction vocale automatisées ; 35 - un module d'interaction, agencé pour : 3036570 5 - fournir en réponse à une demande d'un dispositif utilisateur un menu d'interaction au moyen d'une session multimédia établie entre le dispositif utilisateur et le dispositif d'interaction vocale pour un affichage sous forme textuelle sur un écran du dispositif utilisateur ; - recevoir une donnée de sélection relative au menu d'interaction envoyé, reçue sous 5 forme textuelle au moyen de la session multimédia. Selon un quatrième aspect, l'invention concerne un programme pour un dispositif utilisateur, comprenant des instructions de code de programme destinées à commander l'exécution de celles des étapes du procédé d'interaction précédemment décrit mises en oeuvre par le dispositif utilisateur, lorsque ce programme est exécuté par ce dispositif et un support d'enregistrement lisible 10 par un dispositif sur lequel est enregistré un programme pour un dispositif. Les avantages énoncés pour le procédé d'interaction selon le premier aspect sont transposables directement au programme pour un dispositif utilisateur et au support d' enregistrement. Selon un cinquième aspect, l'invention concerne un programme pour un dispositif 15 d'interaction vocale, comprenant des instructions de code de programme destinées à commander l'exécution de celles des étapes du procédé d'interaction précédemment décrit mises en oeuvre par le dispositif, lorsque ce programme est exécuté par cette entité et un support d'enregistrement lisible par un dispositif sur lequel est enregistré un programme pour un dispositif. Les avantages énoncés pour le procédé d'interaction selon le premier aspect sont 20 transposables directement au programme pour un tel dispositif et au support d'enregistrement. La technique d'interaction sera mieux comprise à l'aide de la description suivante de modes de réalisation particuliers, en référence aux dessins annexés sur lesquels : - la figure 1 représente un environnement dans lequel est mis en oeuvre le procédé de d'interaction dans un mode de réalisation particulier ; 25 - la figure 2 représente un dispositif utilisateur selon un mode particulier de réalisation ; - la figure 3 représente un dispositif d'interaction vocale selon un mode particulier de réalisation ; - les figures 4a et 4b illustrent des étapes d'un procédé d'interaction mises en oeuvre 30 par un dispositif utilisateur et par un dispositif appelé selon des modes particuliers de réalisation ; - les figures 5a et 5b illustrent un exemple de mise en oeuvre du procédé d'interaction sur un dispositif utilisateur.In another embodiment, the menu is received in voice form and the user device converts the textual menu by voice recognition. According to a second aspect, the invention also relates to a user device comprising: an interaction module, arranged to: detect a device for which a request for setting up a voice communication is sent, said device called implements automated voice interaction steps; receiving an interaction menu by means of a multimedia session established between the user device and the called device; 25 - sending in textual form by means of the multimedia session a selection data relating to the interaction menu received; - A human-machine interface module, arranged to display on a screen of the user device in text form the received interaction menu. According to a third aspect, the invention also relates to a voice interaction device, arranged to interact by means of a voice communication with a user device, said voice interaction device comprising: a communication module, arranged to provide an enriched communication service and for providing an applicant user device with an indication that said voice interaction device implements automated voice interaction steps; An interaction module, arranged to: provide in response to a request from a user device an interaction menu by means of a multimedia session established between the user device and the voice interaction device for a textual display on a screen of the user device; receiving a selection data relating to the sent interaction menu, received in text form by means of the multimedia session. According to a fourth aspect, the invention relates to a program for a user device, comprising program code instructions intended to control the execution of those of the steps of the previously described interaction method implemented by the user device, when this program is executed by this device and a recording medium readable by a device on which a program for a device is recorded. The advantages stated for the interaction method according to the first aspect are directly transferable to the program for a user device and to the recording medium. According to a fifth aspect, the invention relates to a program for a voice interaction device, comprising program code instructions for controlling the execution of those of the steps of the previously described interaction method implemented by the device. , when this program is executed by this entity and a recording medium readable by a device on which a program for a device is recorded. The advantages stated for the interaction method according to the first aspect are directly transferable to the program for such a device and to the recording medium. The interaction technique will be better understood with the aid of the following description of particular embodiments, with reference to the appended drawings, in which: FIG. 1 represents an environment in which the interaction method is implemented in a particular embodiment; FIG. 2 represents a user device according to a particular embodiment; FIG. 3 represents a voice interaction device according to a particular embodiment; FIGS. 4a and 4b illustrate steps of an interaction method implemented by a user device and by a device called according to particular embodiments; FIGS. 5a and 5b illustrate an exemplary implementation of the interaction method on a user device.
35 La figure 1 représente un environnement dans lequel est mis en oeuvre le procédé d'interaction d'un dispositif utilisateur avec un dispositif de type automate dans un mode de réalisation particulier. L'environnement comprend deux dispositifs utilisateur 10, 11 accédant à un 3036570 6 réseau de communication 1 par l'intermédiaire d'un réseau d'accès mobile, non représenté sur la figure 1. Le réseau d'accès mobile correspond par exemple à un réseau de communication mobile de type GSM, EDGE, 3G, 3G+ ou 4G (également appelé LTE pour « Long Term Evolution »)... Une architecture de type IMS, pour « IP Multimedia Subsystem », permet d'établir des sessions de 5 communication multimédia IP (pour « Internet Protocol ») entre les différents dispositifs. Le service RCS, pour « Rich Communication Service », s'appuie sur cette architecture IMS pour offrir un service de communication enrichi. Ce service permet à deux ou plusieurs dispositifs au moyen d'une session de communication multimédia d'échanger des messages instantanés (connu sous le nom de « chat »), de partager des fichiers multimédia, d'établir des appels vocaux sur LTE 10 (VoLTE), des appels vidéos sur LTE, ... Le réseau de communication 1 peut correspondre à plusieurs réseaux de communication d'opérateurs de communication différents interconnectés entre eux. Les dispositifs utilisateur 10, 11 peuvent établir des communications vocales entre eux ou avec un dispositif de type automate 20 par l'intermédiaire du réseau de communication 1. Ce 15 dispositif de type automate 20, ou dispositif d'interaction vocale, propose une interaction vocale avec un dispositif utilisateur sous la forme d'échange de menus d'interaction et de données de sélection dans un menu d'interaction selon une logique d'interaction. Un tel dispositif met en oeuvre des étapes d'interaction vocale automatisées. Par la suite, ce dispositif 20 est appelé indifféremment dispositif d'interaction vocale ou serveur vocal interactif. Ce dispositif 20 transmet 20 sous forme vocale un menu d'interaction et reçoit en retour un code DTMF, représentant une donnée de sélection relative au menu d'interaction courant. Dans un autre mode de réalisation, la donnée de sélection est transmise sous forme vocale du dispositif utilisateur au dispositif d'interaction vocale 20 et ce dernier met en oeuvre un algorithme de reconnaissance vocale pour identifier la sélection dans le menu d'interaction. On souligne ici, que dans ces deux cas, la donnée 25 de sélection est transmise sous la forme d'un signal audible. Par ailleurs, il est également souligné que cet environnement est représenté de manière simplifiée pour ne pas surcharger la figure. Aucune limitation n'est notamment attachée au nombre de dispositifs utilisateur, ni au nombre de dispositifs de type automate. Les dispositifs utilisateur 10 et 11 peuvent être tout type de terminaux permettant 30 d'établir une communication téléphonique ou visiophonique, tels qu'un téléphone portable, un téléphone intelligent (« smartphone » en anglais), une tablette, une télévision connectée à un réseau de communication, un ordinateur personnel sur lequel une application de téléphonie, également appelée « softphone », est installée. Dans l'exemple décrit ici, le dispositif utilisateur 10 est un terminal de type 35 « smartphone » disposant d'un écran tactile. Le dispositif utilisateur 10 est connecté au réseau de communication 1 et peut émettre et recevoir tout type de communications, via le réseau de communication 1.FIG. 1 represents an environment in which the method of interaction of a user device with a controller device in a particular embodiment is implemented. The environment comprises two user devices 10, 11 accessing a communication network 1 via a mobile access network, not shown in FIG. 1. The mobile access network corresponds, for example, to a network. mobile communication network of GSM, EDGE, 3G, 3G + or 4G type (also called LTE for "Long Term Evolution") ... An IMS architecture, for "IP Multimedia Subsystem", allows to establish 5 IP multimedia communication (for "Internet Protocol") between the different devices. The RCS service, for Rich Communication Service, uses this IMS architecture to offer an enriched communication service. This service allows two or more devices using a multimedia communication session to exchange instant messages (known as "chat"), share multimedia files, and make voice calls on LTE 10 ( VoLTE), video calls on LTE, ... The communication network 1 can correspond to several communication networks of different communication operators interconnected with each other. The user devices 10, 11 can establish voice communications with each other or with a controller type device 20 via the communication network 1. This type of device 20, or voice interaction device, offers a voice interaction. with a user device in the form of interchange of interaction menus and selection data in an interaction menu according to interaction logic. Such a device implements automated voice interaction steps. Subsequently, this device 20 is called indifferently voice interaction device or interactive voice server. This device 20 transmits 20 in voice form an interaction menu and receives in return a DTMF code, representing a selection data relative to the current interaction menu. In another embodiment, the selection data is transmitted in voice form from the user device to the voice interaction device 20 and the latter uses a voice recognition algorithm to identify the selection in the interaction menu. It is emphasized here that in these two cases the selection data is transmitted in the form of an audible signal. Moreover, it is also emphasized that this environment is represented in a simplified way so as not to overload the figure. In particular, no limitation is attached to the number of user devices or the number of devices of the PLC type. The user devices 10 and 11 can be any type of terminal for establishing a telephone or videophone communication, such as a mobile phone, a smartphone, a tablet, a television connected to a network. of communication, a personal computer on which a telephony application, also called "softphone", is installed. In the example described here, the user device 10 is a "smartphone" type terminal with a touch screen. The user device 10 is connected to the communication network 1 and can transmit and receive any type of communication via the communication network 1.
3036570 7 Dans l'exemple décrit ici, le dispositif utilisateur 11 est un terminal disposant d'un écran et d'un clavier. Le dispositif utilisateur 11 est connecté au réseau de communication 1 et peut émettre et recevoir tout type de communications, via le réseau de communication 1. La figure 2 représente un dispositif utilisateur 10 dans un mode particulier de réalisation.In the example described here, the user device 11 is a terminal with a screen and a keyboard. The user device 11 is connected to the communication network 1 and can transmit and receive any type of communication, via the communication network 1. FIG. 2 represents a user device 10 in a particular embodiment.
5 Le dispositif utilisateur 10 comprend notamment : - une zone mémoire 101, agencée pour mémoriser une application qui comprend des instructions de code pour mettre en oeuvre les étapes du procédé d'interaction ; - une mémoire de stockage, non représentée, agencée pour stocker des données utilisées lors de la mise en oeuvre du procédé d'interaction ; 10 - un processeur 100 pour exécuter des instructions de code de modules logiciels ; - un module d'interface 102 avec un réseau de communication, agencé pour émettre et recevoir des données ; - un module de communication 103 pour proposer un service de communication enrichi RCS, dit module RCS ; 15 - un module d'interaction 104, agencé pour interagir avec un module d'interaction d'un dispositif de type automate ; - un module d'interface-homme machine 105, agencé pour interagir avec un utilisateur, notamment pour émettre et recevoir des communications vocales. Le module d'interaction 104 dialogue avec le module RCS 103 au moyen d'une interface 20 de programmation (souvent désignée par le terme API pour « Application Programming Interface »). Cette interface de programmation est définie dans le document de spécification de la GSMA, intitulé « RCS Device API 1.5 Specification », Version 2.0, 16 October 2014. Il est ici souligné que le dispositif utilisateur 10 comprend également d'autres modules de traitement, non représentés sur la figure 2, agencés pour mettre en oeuvre les différentes fonctions 25 de dispositif utilisateur. La figure 3 représente un dispositif de type automate dans un mode particulier de réalisation. Ce dispositif 20 comprend notamment : - une zone mémoire 201, agencée pour mémoriser une application qui comprend des instructions de code pour mettre en oeuvre les étapes du procédé d'interaction ; 30 - une mémoire de stockage, non représentée, agencée pour stocker des données utilisées lors de la mise en oeuvre du procédé d'interaction ; - un processeur 200 pour exécuter des instructions de code de modules logiciels ; - un module d'interface 202 avec un réseau de communication, agencé pour émettre et recevoir des données ; 35 - un module de communication 203 pour proposer un service de communication enrichi RCS, dit module RCS ; 3036570 8 - un module d'interaction 204, agencé pour interagir avec un module d'interaction d'un dispositif utilisateur ; - un module applicatif de service vocal 205, agencé pour interagir sous forme vocale avec un utilisateur par l'intermédiaire d'un dispositif utilisateur ; 5 - une zone mémoire 206, agencée pour mémoriser une arborescence de menus et une logique d'interaction avec un utilisateur. Dans un mode particulier de réalisation, la zone mémoire 206 mémorise les menus sous forme textuelle. Dans un autre mode particulier de réalisation, la zone mémoire 206 mémorise les menus 10 sous forme vocale. Le module d'interaction 204 dialogue avec le module RCS 203 au moyen d'une interface de programmation API. Dans un mode de réalisation particulier, le module applicatif de service vocal 205 est un module logiciel programmé à l'aide du langage VoiceXML ou VXML (pour « Voice eXtensible 15 Markup Language » ou langage de balisage extensible vocal), défini par l'organisme de normalisation W3C (pour « World Wide Web Consortium »). Ce langage permet de créer des dialogues avec un serveur vocal interactif, comprenant des fonctions de parole synthétisée, de reconnaissance de saisie vocale ou de code DTMF, d'enregistrement d'entrée vocale, de téléphonie,...The user device 10 comprises in particular: a memory zone 101, arranged to store an application that includes code instructions for implementing the steps of the interaction method; - A storage memory, not shown, arranged to store data used in the implementation of the interaction method; A processor 100 for executing software module code instructions; an interface module 102 with a communication network, arranged to transmit and receive data; a communication module 103 for proposing an enriched communication service RCS, referred to as the RCS module; An interaction module 104, arranged to interact with an interaction module of a device of the PLC type; a human-machine interface module 105, arranged to interact with a user, in particular for transmitting and receiving voice communications. The interaction module 104 communicates with the RCS module 103 via a programming interface (often referred to as the API for "Application Programming Interface"). This programming interface is defined in the GSMA specification document, entitled "RCS Device API 1.5 Specification", Version 2.0, 16 October 2014. It is emphasized here that the user device 10 also includes other processing modules, not represented in FIG. 2, arranged to implement the various user device functions. FIG. 3 represents a device of the automaton type in a particular embodiment. This device 20 comprises in particular: a memory area 201, arranged to store an application that includes code instructions for implementing the steps of the interaction method; A storage memory, not shown, arranged to store data used during the implementation of the interaction method; a processor 200 for executing code instructions of software modules; an interface module 202 with a communication network, arranged to transmit and receive data; A communication module 203 for proposing an enriched communication service RCS, referred to as the RCS module; An interaction module 204, arranged to interact with an interaction module of a user device; a voice service application module 205, arranged to interact in voice form with a user via a user device; 5 - a memory zone 206, arranged to store a menu tree and interaction logic with a user. In a particular embodiment, the memory zone 206 stores the menus in text form. In another particular embodiment, the memory zone 206 memorizes the menus 10 in voice form. The interaction module 204 communicates with the RCS module 203 by means of an API programming interface. In a particular embodiment, the voice service application module 205 is a software module programmed using VoiceXML or VXML (for "Voice eXtensible Markup Language") defined by the organization. W3C standardization (for "World Wide Web Consortium"). This language allows you to create dialogs with an interactive voice server, including synthesized speech, voice recognition or DTMF code recognition, voice input recording, telephony, ...
20 Il est ici souligné que le dispositif 20 comprend également d'autres modules de traitement, non représentés sur la figure 3, agencés pour mettre en oeuvre les différentes fonctions de dispositif d'interaction vocale ou serveur vocal. Les modules d'interaction, 104 pour le dispositif utilisateur 10, et 204 pour le dispositif 20, échangent des données par l'intermédiaire de leurs modules de communication RCS respectifs, 25 103 et 203. Le module d'interaction 104 du dispositif utilisateur 10 est agencé pour contrôler le module d'interaction 204 du dispositif 20. Le module d'interaction 204 est agencé pour fournir une interface entre des commandes RCS et le module applicatif de service vocal 205, notamment pour fournir une donnée de sélection sous forme sonore et pour obtenir un menu associé à un état courant du dialogue vocal selon la logique d'interaction.It is emphasized here that the device 20 also comprises other processing modules, not shown in FIG. 3, arranged to implement the different functions of voice interaction device or voice server. The interaction modules 104 for the user device 10 and 204 for the device 20 exchange data through their respective RCS communication modules 103 and 203. The interaction module 104 of the user device 10 is arranged to control the interaction module 204 of the device 20. The interaction module 204 is arranged to provide an interface between the RCS commands and the voice service application module 205, in particular to provide a selection data in sound form and to obtain a menu associated with a current state of the voice dialogue according to the interaction logic.
30 La figure 4a illustre des étapes d'un procédé d'interaction mises en oeuvre par un dispositif utilisateur 10 et par le dispositif 20 selon un mode particulier de réalisation. Le procédé d'interaction est initié par la sélection par un utilisateur du dispositif 10 sur un menu d'interface homme-machine d'une demande d'établissement d'une communication vocale avec un dispositif 20, dit dispositif appelé. Ceci déclenche un envoi par le module IHM 105 au 35 module d'interaction 104 d'une demande d'établissement d'une communication vocale Ml entre le dispositif utilisateur et le dispositif appelé. Cette demande M1 est reçue par le module d'interaction 104 dans une étape El.FIG. 4a illustrates steps of an interaction method implemented by a user device 10 and by the device 20 according to a particular embodiment. The interaction method is initiated by the selection by a user of the device 10 on a human-machine interface menu of a request for establishing a voice communication with a device 20, called called device. This triggers a sending by the HMI module 105 to the interaction module 104 of a request for establishing a voice call M1 between the user device and the called device. This request M1 is received by the interaction module 104 in a step El.
3036570 9 Toujours dans cette étape El, le module d'interaction 104 transmet une commande N1 au module RCS 103, afin de détecter si le dispositif appelé 20 met en oeuvre des étapes d'interaction vocale automatisées. Lors d'une étape Fl, le dispositif utilisateur, plus précisément le module RCS 103, envoie 5 au dispositif 20 un message 01 de découverte de capacités de communication du dispositif appelé 20. Dans un mode de réalisation particulier, le message de découverte 01 est par exemple un message SIP OPTIONS selon le protocole SIP (pour « Session Initiation Protocol »). Ce message est envoyé sans nécessiter d'ouverture préalable de session de communication entre les deux dispositifs. Les capacités de communication sont définies dans le document de spécification de la 10 GSMA, intitulé « RCS Device API 1.5 Specification », dans un groupe (« package » en anglais) « com.gsma.services.rcs.capability ». Dans un mode de réalisation particulier, le message de découverte 01 demande l'ensemble des capacités de communication du dispositif 20. Dans un autre mode de réalisation particulier, le message de découverte demande spécifiquement une ou plusieurs capacités de communication, dont une capacité de communication indiquant que le mode 15 de fonctionnement est de type automate. Plus précisément, cette capacité de communication est nommée « rcs.isAutomata » et est un booléen qui prend une valeur « vrai » ou « faux ». Lors d'une étape Gl, le dispositif appelé, plus précisément le module RCS 203, reçoit le message de découverte 01 de capacités de communication en provenance du dispositif utilisateur 10. Toujours dans cette étape Gl, le module RCS 203 envoie au module RCS 103 du dispositif 20 utilisateur 10 un message de réponse 02 au message de découverte 01. Ce message de réponse 02 comprend une indication que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées. Dans un mode de réalisation particulier, ce message 02 est par exemple un message SIP 200 OK, comprenant une capacité de communication indiquant un mode de fonctionnement de type automate. On se place par la suite dans le cas particulier où le dispositif appelé est un 25 dispositif d'interaction vocale ou serveur vocal 20, mettant en oeuvre des étapes d'interaction vocale automatisées. Dans ce cas, la capacité de communication indique que le mode de fonctionnement est de type automate. Dans une étape F2, le module RCS 103 reçoit le message de réponse 02 et transmet au module d'interaction 104 une notification N2 indiquant une détection que le dispositif appelé met 30 en oeuvre des étapes d'interaction automatisées. Dans une étape E2, le module d'interaction 104 détecte que le dispositif appelé met en oeuvre des étapes d'interaction vocale automatisées, en raison de la demande d'établissement d'une communication vocale et de la réception de la notification N2. Le module d'interaction 104 demande par un message N3 au module RCS 103 d'établir une session multimédia avec le 35 dispositif appelé.Still in this step E1, the interaction module 104 transmits a command N1 to the RCS module 103, in order to detect whether the called device 20 implements automated voice interaction steps. In a step F1, the user device, more precisely the RCS module 103, sends the device 20 a message 01 for discovering the communication capabilities of the called device 20. In a particular embodiment, the discovery message 01 is for example a SIP OPTIONS message according to the SIP protocol (for "Session Initiation Protocol"). This message is sent without requiring prior communication session opening between the two devices. The communication capabilities are defined in the GSMA specification document, entitled "RCS Device API 1.5 Specification", in a "package" group "com.gsma.services.rcs.capability". In a particular embodiment, the discovery message 01 requires all the communication capabilities of the device 20. In another particular embodiment, the discovery message specifically requests one or more communication capabilities, including a communication capability. indicating that the operating mode is of the PLC type. Specifically, this communication capability is named "rcs.isAutomata" and is a boolean that takes a "true" or "false" value. In a step G1, the device called, more specifically the module RCS 203, receives the communication capability discovery message 01 from the user device 10. In this step G1, the module RCS 203 sends to the module RCS 103 from the user device 10 a response message 02 to the discovery message 01. This response message 02 includes an indication that the called device implements automated voice interaction steps. In a particular embodiment, this message 02 is for example a SIP message 200 OK, comprising a communication capability indicating a PLC type operating mode. In the particular case where the called device is a voice interaction device or voice server 20, implementing automated voice interaction steps. In this case, the communication capacity indicates that the operating mode is of PLC type. In a step F2, the RCS module 103 receives the response message 02 and transmits to the interaction module 104 a notification N2 indicating a detection that the called device implements automated interaction steps. In a step E2, the interaction module 104 detects that the called device implements automated voice interaction steps, due to the request for establishing a voice call and the receipt of the notification N2. The interaction module 104 requests by a message N3 from the RCS module 103 to establish a multimedia session with the called device.
3036570 10 Dans une étape F3, le module RCS 103 transmet au module RCS 203 du dispositif appelé un message 03 de demande d'établissement de session multimédia. Dans un mode de réalisation particulier, le message 03 est un message SIP Multimedia Session Init. Ce message 03 est reçu dans une étape G2 par le module RCS 203. Toujours dans cette 5 étape G2, le module RCS 203 notifie par un message P1 le module d'interaction 204 de la demande d'établissement d'une session multimédia. Dans un mode de réalisation particulier, le message P1 est un message d'interface « SIP Session finit callback ». Il est ici souligné que pour des raisons de lisibilité, seule la fonction est indiquée dans ce message d'interface. L'homme du métier est apte à déterminer aisément à partir de cette fonction le message SIP correspondant. Il en est de même par 10 la suite. Le message P1 est reçu dans une étape H1 par le module d'interaction 204. Toujours dans cette étape H1, le module d'interaction 204 envoie une demande d'acquittement P2 au module RCS 203. Ce dernier envoie alors un acquittement 04 d'établissement de session multimédia au module RCS 103, ayant demandé l'établissement de la session multimédia. Dans un mode de réalisation 15 particulier, ce message d'acquittement est un message SIP 200 OK. Le message d'acquittement 04 est reçu par le module RCS 103 dans une étape F4. Le module RCS 103 notifie alors le module d'interaction 104 par un message N4 que la session multimédia a bien été établie. Ce message de notification N4 est reçu par le module d'interaction 104 dans une étape E3.In a step F3, the RCS module 103 transmits to the RCS module 203 of the called device a multimedia session establishment request message 03. In a particular embodiment, the message 03 is a SIP Multimedia Session Init message. This message 03 is received in a step G2 by the RCS module 203. Still in this step G2, the module RCS 203 notifies by a message P1 the interaction module 204 of the request to establish a multimedia session. In a particular embodiment, the message P1 is an interface message "SIP Session ends callback". It is emphasized here that for reasons of readability, only the function is indicated in this interface message. Those skilled in the art are able to easily determine from this function the corresponding SIP message. The same is true afterwards. The message P1 is received in a step H1 by the interaction module 204. Also in this step H1, the interaction module 204 sends an acknowledgment request P2 to the RCS module 203. The latter then sends an acknowledgment 04 of multimedia session setup at the RCS module 103, having requested the establishment of the multimedia session. In a particular embodiment, this acknowledgment message is a 200 OK SIP message. The acknowledgment message 04 is received by the RCS module 103 in a step F4. The RCS module 103 then notifies the interaction module 104 by a message N4 that the multimedia session has been established. This notification message N4 is received by the interaction module 104 in a step E3.
20 A l'issue de ces étapes, le dispositif utilisateur 10 a obtenu l'information que le dispositif appelé 20 est un serveur vocal mettant en oeuvre des étapes d'interaction automatisées et a établi une session de communication multimédia. Cette session multimédia permet un dialogue entre le dispositif utilisateur 10 et le dispositif serveur vocal 20, afin d'échanger successivement un menu d'interaction et une sélection relative au menu d'interaction reçu, effectuée par un utilisateur du 25 dispositif appelant. Toujours dans cette étape E3, le module d'interaction 104 demande par un message N5 la fourniture du premier menu d'interaction Menu(1). Ce message N5 est envoyé au module d'interaction 204 au moyen de la session multimédia. Dans une étape H2, le module d'interaction 204 notifie par un message Q1 « CS Voice 30 Call » le module applicatif de service vocal 205 de la réception d'un appel entrant. La réception de ce message Q1 est acquittée par le module applicatif de service vocal 205 par un message Q2. Le module d'interaction 204 demande alors par un message Q3 « Get menu in text format » au module applicatif de service vocal 205 la fourniture du premier menu d'interaction Menu(1). Le module d'interaction 204 reçoit en réponse dans un message Q4 le premier menu Menu(1) sous forme 35 textuelle. Toujours dans cette étape H2, le premier menu d'interaction Menu(1) est envoyé par le module d'interaction 204 au module RCS 203. Ce dernier l'envoie au module RCS 103 du 3036570 11 dispositif appelant dans une étape G3 par un message 05. Ce menu(1) est envoyé sous forme textuelle au moyen de la session multimédia établie pour un affichage sous forme textuelle sur un écran du dispositif utilisateur. Le premier menu d'interaction Menu(1) est reçu par le module RCS 103 dans une étape 5 F5. Le module RCS 103 commande alors au module d'interaction 104 un affichage du menu d'interaction reçu par un message N6 de commande Dans une étape E4, le module d'interaction 104 demande par un message M2 au module IHM 105 d'afficher sous forme textuelle le premier menu Menu(1) à l'écran. Le module IHM 105 affiche alors le premier menu d'interaction Menu(1) dans une fenêtre secondaire (appelée « pop-up 10 window » en anglais). La réception des différents messages est ensuite acquittée (représenté sous la forme de traits pointillés sur la figure 4a). La figure Sa illustre un tel affichage dans une fenêtre secondaire Wl. Le menu(1) affiché comprend ainsi une phrase « Blablal » et deux propositions de réponse « Yes » ou « No » à sélectionner par l'utilisateur du dispositif 10.Following these steps, the user device 10 obtains the information that the called device 20 is a voice server implementing automated interaction steps and has established a multimedia communication session. This multimedia session allows a dialogue between the user device 10 and the voice server device 20, in order successively to exchange an interaction menu and a selection relating to the interaction menu received, made by a user of the calling device. Still in this step E3, the interaction module 104 requests by an N5 message the provision of the first Menu interaction menu (1). This message N5 is sent to the interaction module 204 by means of the multimedia session. In a step H2, the interaction module 204 notifies by a Q1 message "CS Voice 30 Call" the voice service application module 205 of the reception of an incoming call. The reception of this message Q1 is acknowledged by the voice service application module 205 by a message Q2. The interaction module 204 then requests by a message Q3 "Get menu in text format" to the voice service application module 205 the provision of the first Menu interaction menu (1). The interaction module 204 receives in response in a message Q4 the first menu Menu (1) in text form. Still in this step H2, the first Menu interaction menu (1) is sent by the interaction module 204 to the RCS module 203. The latter sends it to the RCS module 103 of the calling device 3036570 in a step G3 by a message 05. This menu (1) is sent in text form by means of the established multimedia session for display in text form on a screen of the user device. The first menu interaction menu (1) is received by the RCS module 103 in a step 5 F5. The RCS module 103 then commands the interaction module 104 to display the interaction menu received by a control message N6. In a step E4, the interaction module 104 requests, by an M2 message, the HMI module 105 to display under textual form the first menu Menu (1) on the screen. The HMI module 105 then displays the first Menu interaction menu (1) in a secondary window (called "pop-up 10 window"). The reception of the various messages is then acknowledged (represented in the form of dashed lines in FIG. 4a). Figure Sa illustrates such a display in a secondary window W1. The menu (1) displayed includes a sentence "Blablal" and two proposals for answer "Yes" or "No" to be selected by the user of the device 10.
15 L'utilisateur interagit avec le dispositif appelant pour sélectionner une des propositions de réponse qui sont affichées dans le premier menu d'interaction Menu(1). Lorsque le dispositif utilisateur dispose d'un écran tactile, la donnée de sélection est saisie par une action de toucher sur l'écran. Dans un autre mode de réalisation, la donnée de sélection relative au premier menu est saisie au moyen d'un clavier du dispositif 10. Dans un autre mode de réalisation, la donnée de 20 sélection est saisie à l'aide de flèches haut/bas. Aucune limitation n'est attachée à la manière dont l'utilisation saisit la donnée de sélection. La figure 4b illustre des étapes d'un procédé d'interaction mises en oeuvre par un dispositif utilisateur 10 et par le dispositif 20 selon un mode particulier de réalisation, suite à la sélection d'une donnée de sélection par l'utilisateur.The user interacts with the calling device to select one of the response proposals that are displayed in the first menu interaction menu (1). When the user device has a touch screen, the selection data is entered by touching the screen. In another embodiment, the selection data relating to the first menu is entered by means of a keyboard of the device 10. In another embodiment, the selection data is entered using up / down arrows. . No limitation is attached to how the usage captures the selection data. FIG. 4b illustrates steps of an interaction method implemented by a user device 10 and by the device 20 according to a particular embodiment, following the selection of a selection data item by the user.
25 La donnée de sélection relative au premier menu Menu(1) est obtenue par le module IHM 105. Ceci déclenche un envoi par le module IHM 105 au module d'interaction 104 d'une demande de transmission M3 de la donnée de sélection au dispositif appelé. Cette demande M3 est reçue par le module d'interaction 104 dans une étape E5. Toujours dans cette étape E5, le module d'interaction 104 transmet une commande de 30 transmission N7 sous forme textuelle de la donnée de sélection au module RCS 103. Lors d'une étape F6, le dispositif utilisateur, plus précisément le module RCS 103, envoie au dispositif 20 un message 06 comprenant la donnée de sélection sous forme textuelle au moyen de la session multimédia établie. Lors d'une étape G4, le dispositif appelé, plus précisément le module RCS 203, reçoit en 35 provenance du dispositif utilisateur 10 le message 06 comprenant la donnée de sélection relative au menu d'interaction précédemment envoyé, sous forme textuelle au moyen de la session 3036570 12 multimédia. Toujours dans cette étape G4, le module RCS 203 transmet la donnée de sélection par un message P4 au module d'interaction 204. Le message P4 est reçu dans une étape H3 par le module d'interaction 204. Toujours dans cette étape H3, le module d'interaction 204 convertit la donnée de 5 sélection sous la forme d'une tonalité bi tons multifréquences (DTMF) et envoie la donnée de sélection convertie au module applicatif de service vocal 205 dans un message Q5. Puis dans une étape H4, le module d'interaction 204 demande par un message Q6 « Get next menu in text format » au module applicatif de service vocal 205 la fourniture du prochain menu d'interaction Menu(x). Ce menu dépend de la donnée de sélection qui a été reçue selon la logique d'interaction.The selection data relating to the first Menu menu (1) is obtained by the HMI module 105. This triggers a sending by the HMI module 105 to the interaction module 104 of a transmission request M3 of the selection data to the device. called. This request M3 is received by the interaction module 104 in a step E5. Still in this step E5, the interaction module 104 transmits an N7 transmission command in text form of the selection data to the RCS module 103. During a step F6, the user device, more specifically the RCS module 103, sends to the device 20 a message 06 comprising the selection data in text form by means of the established multimedia session. In a step G4, the device called, more precisely the module RCS 203, receives from the user device 10 the message 06 comprising the selection data relating to the interaction menu previously sent, in textual form by means of the session 3036570 12 multimedia. Still in this step G4, the module RCS 203 transmits the selection data by a message P4 to the interaction module 204. The message P4 is received in a step H3 by the interaction module 204. Also in this step H3, the Interaction module 204 converts the selection data as a multifrequency bi-ton tone (DTMF) and sends the converted selection data to the voice service application module 205 in a Q5 message. Then in a step H4, the interaction module 204 requests by a message Q6 "Get next menu in text format" to the voice service application module 205 the supply of the next Menu interaction menu (x). This menu depends on the selection data that has been received according to the interaction logic.
10 Le module d'interaction 204 reçoit en réponse dans un message Q7 le prochain menu Menu(x), dit menu d'interaction courant. Toujours dans cette étape H4, le menu d'interaction courant Menu(x) est envoyé par le module d'interaction 204 au module RCS 203 dans un message P5. Le module RCS 203 l'envoie au module RCS 103 du dispositif appelant dans une étape G5 par un message 07. Ce menu courant 15 Menu(x) est envoyé sous forme textuelle au moyen de la session multimédia établie. Le menu d'interaction courant Menu(x) est reçu par le module RCS 103 dans une étape F7, similaire à l'étape F5 précédemment décrite. Le module RCS 103 commande alors au module d'interaction 104 un affichage du menu d'interaction reçu par un message N8 de commande Le module d'interaction 104 demande ensuite par un message M4 au module IHM 105 20 d'afficher le menu courant Menu(x) à l'écran. Le module IHM 105 affiche alors sous forme textuelle dans une étape E6 le menu d'interaction courant Menu(x) dans la fenêtre secondaire. La réception des différents messages est ensuite acquittée (représenté sous la forme de traits pointillés sur la figure 4b). La figure Sb illustre un tel affichage dans la fenêtre secondaire Wl. Le menu courant 25 Menu(x) affiché comprend ainsi une phrase « Blabla2 » et deux propositions de réponse « Choice l » ou « Choice2 » à sélectionner par l'utilisateur du dispositif 10. L'utilisateur interagit avec le dispositif appelant pour sélectionner une des propositions de réponse qui sont affichées dans le menu d'interaction courant Menu(x). Ces différentes étapes sont ainsi mises en oeuvre de manière successive lorsque 30 l'utilisateur sélectionne une nouvelle donnée, jusqu'à ce que l'interaction de l'utilisateur avec le serveur vocal 20 soit terminée La communication peut prendre fin, ou bien l'utilisateur peut être mis en relation avec un opérateur humain Le mode de réalisation a été décrit avec une réception à l'étape E2 par le module RCS 103 d'un message de réponse 02, dans lequel une capacité de communication indique un mode de 35 fonctionnement de type automate. Il est ici souligné que lorsque le dispositif appelé est un autre dispositif utilisateur 11, la capacité de communication indique que le mode de fonctionnement n'est pas de type automate. Le booléen rcs.isAutomata() prend alors la valeur « faux ». Dans ce cas, à 3036570 13 l'étape E2, le module RCS 103 transmet au module d'interaction 104 une notification indiquant que le dispositif appelé ne met pas en oeuvre des étapes d'interaction automatisées. Il s'agit donc d'un dispositif utilisateur standard. Dans ce cas, le module d'interaction 104 établit la communication vocale avec le dispositif appelé de manière classique. Ainsi, lorsque le dispositif 5 appelé est un terminal classique, l'établissement de la communication vocale n'est pas perturbé du fait de la mise en oeuvre des étapes El, E2 par le module d'interaction 104. Dans le mode de réalisation décrit, un menu d'interaction est transmis sous forme textuelle au moyen de la session multimédia établie. Dans un autre mode de réalisation, le menu d'interaction est transmis sous forme vocale et le module d'interaction 104 convertit le menu reçu 10 sous forme textuelle. Ceci présente l'avantage de ne pas modifier le mode de mémorisation des menus d'interaction au niveau du serveur vocal, lorsque ceux-ci sont mémorisés sous forme vocale. Dans le mode de réalisation décrit, la donnée de sélection est convertie sous forme de tonalité DTMF et transmise sous cette forme par le module d'interaction 204 au module applicatif de service vocal 205. Aucune limitation n'est attachée à ce mode de conversion. La donnée de 15 sélection peut par exemple être convertie sous forme vocale, lorsque l'interaction de l'utilisateur avec le serveur vocal s'effectue de cette manière. Le module d'interaction 204 convertit la donnée de sélection par synthèse vocale et le module applicatif de service vocal 205 met alors en oeuvre un algorithme de reconnaissance vocale pour reconnaître la donnée de sélection. Ceci permet de limiter les modifications à apporter pour certains types de serveurs vocaux. Dans un autre mode de 20 réalisation, la donnée de sélection est transmise directement sous forme textuelle au module applicatif de service vocal 205. Dans le mode de réalisation décrit, une session multimédia est établie suite à la détection que le dispositif appelé met en oeuvre des étapes automatisées d'interaction vocale. Dans un autre mode de réalisation, la session multimédia est établie suite à la demande d'établissement d'une 25 communication vocale entre le dispositif utilisateur et le dispositif appelé. Ceci permet d'accélérer l'affichage du premier menu d'interaction. Dans le mode de réalisation décrit, il est prévu un affichage d'un menu d'interaction, suivie d'une sélection dans le menu d'interaction affiché, cette sélection permettant de sélectionner le menu suivant. Dans le cadre d'une interaction avec un serveur de messagerie vocale, la session 30 multimédia permet également de transmettre un message vocal laissé par un correspondant. Dans ce mode de réalisation, un tag audio (tag <audio> en VXML par exemple) correspond à un pointeur vers un message vocal laissé par un correspondant. Un tag audio dans un menu d'interaction est alors transformé par le module d'interaction 204 en un autre tag à destination du module d'interaction 104. Ce dernier transforme alors cet autre tag en un lien pour être affiché sur le 35 dispositif utilisateur. Ce lien est sélectionnable par un clic au moyen de l'interface homme-machine du dispositif utilisateur. Sur sélection par l'utilisateur, le module d'interaction 104 détecte cet autre tag et déclenche la restitution du flux audio associé au message vocal sélectionné. La lecture ou 3036570 14 restitution audio peut être effectuée en mode téléchargement continu (connu sous le terme de « streaming » en anglais) avec le serveur vocal. Dans ce cas, le module d'interaction 104 se connecte au moyen du lien à un serveur de téléchargement audio associé au serveur vocal. A titre d'exemple illustratif, ce lien prend la forme <audio src= 5 « www.server.com/mystreaming/audio.mp3 »>. La lecture audio peut également être effectuée localement si le fichier audio a été téléchargé via la session multimédia. A titre d'exemple illustratif, ce lien prend la forme <audio src= « /sdcard/mystreaming/audio.mp3 »>. Lors de la lecture du flux audio associé au message vocal, une deuxième fenêtre secondaire (« pop-up ») est affichée sur l'écran avec des boutons de contrôle de la lecture (ex : play, pause, stop). Le menu 10 d'interaction reste affiché sur l'écran dans la première fenêtre secondaire. Une fois la lecture audio terminée ou bien en cas d'interruption de la restitution par l'utilisateur, un menu d'interaction est alors affiché. L'ergonomie du service de consultation et de gestion des messages vocaux est ainsi améliorée. Dans un autre mode de réalisation, le message vocal est converti en un message textuel. A 15 cet effet, le serveur vocal sollicite un module de conversion de parole vers du texte pour effectuer cette conversion. Plus précisément, à l'étape H4, le module d'interaction 204 demande par le message Q6 « Get next menu in text format » au module applicatif de service vocal 205 la fourniture du prochain menu d'interaction Menu(x). Ce menu dépend de la donnée de sélection qui a été reçue selon la logique d'interaction. Le module d'interaction 204 reçoit en réponse dans un 20 message Q7 le prochain menu Menu(x), dit menu d'interaction courant. Le module d'interaction 204 détecte dans ce menu d'interaction courant un tag audio, par exemple un tag <audio> VXML. Dans ce cas, le module d'interaction 204 demande au module applicatif de service vocal 205 par un message « get voice message in text format » de lui transmettre sous forme texte le message vocal identifié par le tag audio. Le module applicatif de service vocal 205 sollicite alors le module de 25 conversion afin d'obtenir le message vocal sous forme textuelle et le transmet au module d'interaction 204. Le message sous forme textuelle est alors envoyé avec le menu d'interaction courant Menu(x) par le module d'interaction 204 au module RCS 203 dans un message P5. Le module RCS 203 l'envoie au module RCS 103 du dispositif appelant lors de l'étape G5 par le message 07. Ce menu courant Menu(x) et le message vocal sont ainsi envoyés sous forme textuelle 30 au moyen de la session multimédia établie. Le menu courant comprend alors un lien contenant directement le contenu du message vocal (par exemple, <audio txt= « blabla »>). L'affichage du menu d'interaction courant sous forme textuelle est réalisé ensuite comme décrit précédemment. L'affichage du texte correspondant au message vocal est affiché dans une deuxième fenêtre secondaire (« pop-up) à la demande de l'utilisateur. Ce mode de réalisation présente l'avantage de 35 s'effectuer entièrement sous forme textuelle et permet ainsi d'interagir avec un serveur de messagerie vocale pour prendre connaissance de messages vocaux de manière silencieuse. Cette consultation peut ainsi s'effectuer de manière aisée en public. Ce mode de réalisation est également 3036570 15 avantageux pour des personnes malentendantes. Alternativement, le message vocal est converti en texte lors de sa réception par le dispositif utilisateur. On constate ainsi que du point de vue de l'utilisateur, dans ces différents modes de réalisation, l'interaction avec le serveur vocal est très simplifiée. L'utilisateur ne doit pas écouter 5 un menu dans sa totalité et mémoriser les choix qui lui sont proposés. Il lui suffit de lire le menu affiché dans la fenêtre secondaire. De même, lorsque l'écran est tactile, la sélection du choix s'effectue de manière plus naturelle. Ainsi, le procédé d'interaction permet de simplifier une interaction d'un utilisateur avec un serveur vocal mettant en oeuvre des étapes d'interaction vocale automatisées.The interaction module 204 receives in response in a Q7 message the next menu Menu (x), said current interaction menu. Still in this step H4, the current interaction menu Menu (x) is sent by the interaction module 204 to the RCS module 203 in a message P5. The RCS module 203 sends it to the RCS module 103 of the calling device in a step G5 by a message 07. This current menu 15 Menu (x) is sent in text form by means of the established multimedia session. The current menu interaction menu (x) is received by the RCS module 103 in a step F7, similar to the previously described step F5. The RCS module 103 then commands the interaction module 104 to display the interaction menu received by a control message N8. The interaction module 104 then requests the message M4 to the HMI module 105 to display the current menu. (x) on the screen. The HMI module 105 then displays in textual form in a step E6 the menu of current interaction Menu (x) in the secondary window. The reception of the various messages is then acknowledged (represented in the form of dashed lines in FIG. 4b). Figure Sb illustrates such a display in the secondary window W1. The current menu 25 Menu (x) displayed thus includes a phrase "Blabla2" and two "Choice l" or "Choice2" response proposals to be selected by the user of the device 10. The user interacts with the calling device to select a response proposals that are displayed in the current Menu (x) interaction menu. These different steps are thus implemented successively when the user selects a new piece of data, until the interaction of the user with the voice server 20 is over. The communication can be terminated, or else the The embodiment has been described with a reception in step E2 by the RCS module 103 of a response message 02, in which a communication capability indicates a mode of operation. PLC type. It is emphasized here that when the called device is another user device 11, the communication capability indicates that the operating mode is not of PLC type. The boolean rcs.isAutomata () then takes the value "false". In this case, at step E2, the RCS module 103 transmits to the interaction module 104 a notification indicating that the called device does not implement automated interaction steps. It is therefore a standard user device. In this case, the interaction module 104 establishes voice communication with the conventionally called device. Thus, when the device 5 called is a conventional terminal, the establishment of the voice communication is not disturbed because of the implementation of steps E1, E2 by the interaction module 104. In the embodiment described , an interaction menu is transmitted in text form by means of the established multimedia session. In another embodiment, the interaction menu is transmitted in voice form and the interaction module 104 converts the received menu 10 into textual form. This has the advantage of not modifying the mode of storage interaction menus at the voice server, when they are stored in voice form. In the described embodiment, the selection data is converted into a DTMF tone and transmitted in this form by the interaction module 204 to the voice service application module 205. No limitation is attached to this conversion mode. The selection data may for example be converted to voice form when the user's interaction with the voice server is effected in this manner. The interaction module 204 converts the selection data by speech synthesis and the voice service application module 205 then implements a speech recognition algorithm to recognize the selection data. This makes it possible to limit the modifications to be made for certain types of voice servers. In another embodiment, the selection data is transmitted directly in textual form to the voice service application module 205. In the embodiment described, a multimedia session is established following the detection that the called device implements automated steps of voice interaction. In another embodiment, the multimedia session is established following the request to establish a voice communication between the user device and the called device. This speeds up the display of the first interaction menu. In the embodiment described, a display of an interaction menu is provided, followed by a selection in the displayed interaction menu, this selection making it possible to select the following menu. In the context of an interaction with a voicemail server, the multimedia session also makes it possible to transmit a voice message left by a correspondent. In this embodiment, an audio tag (tag <audio> in VXML for example) corresponds to a pointer to a voice message left by a correspondent. An audio tag in an interaction menu is then transformed by the interaction module 204 into another tag for the interaction module 104. The latter then transforms the other tag into a link to be displayed on the user device. . This link is selectable by a click through the human-machine interface of the user device. On selection by the user, the interaction module 104 detects this other tag and triggers the playback of the audio stream associated with the selected voice message. Playback or audio playback can be performed in continuous download mode (known as streaming) with the voice server. In this case, the interaction module 104 connects by means of the link to an audio download server associated with the voice server. As an illustrative example, this link takes the form <audio src = 5 "www.server.com/mystreaming/audio.mp3">. Audio playback can also be performed locally if the audio file has been downloaded via the multimedia session. As an illustrative example, this link takes the form <audio src = "/sdcard/mystreaming/audio.mp3">. When playing the audio stream associated with the voice message, a second secondary window ("pop-up") is displayed on the screen with play control buttons (ex: play, pause, stop). The interaction menu 10 remains displayed on the screen in the first secondary window. Once the audio playback is finished or if the user returns to the interruption, an interaction menu is displayed. The ergonomics of the consultation and voice message management service is thus improved. In another embodiment, the voice message is converted to a text message. For this purpose, the voice server requests a speech conversion module to text to perform this conversion. More precisely, in step H4, the interaction module 204 requests the message Q6 "Get next menu in text format" from the voice service application module 205 to provide the next Menu interaction menu (x). This menu depends on the selection data that has been received according to the interaction logic. The interaction module 204 receives in response in a message Q7 the next menu Menu (x), the current interaction menu. The interaction module 204 detects in this current interaction menu an audio tag, for example a <audio> VXML tag. In this case, the interaction module 204 requests the voice service application module 205 by a "get voice message in text format" message to transmit in text form the voice message identified by the audio tag. The voice service application module 205 then requests the conversion module to obtain the voice message in text form and transmits it to the interaction module 204. The message in textual form is then sent with the current menu interaction menu. (x) by the interaction module 204 to the RCS module 203 in a message P5. The module RCS 203 sends it to the RCS module 103 of the calling device during the step G5 by the message 07. This current menu Menu (x) and the voice message are thus sent in textual form by means of the multimedia session established. . The current menu then includes a link directly containing the contents of the voice message (for example, <audio txt = "blah">). The display of the current interaction menu in textual form is then performed as described above. The display of the text corresponding to the voice message is displayed in a second secondary window ("pop-up") at the request of the user. This embodiment has the advantage of being entirely in text form and thus makes it possible to interact with a voicemail server to hear voice messages in a silent manner. This consultation can thus be carried out easily in public. This embodiment is also advantageous for hearing-impaired persons. Alternatively, the voice message is converted to text when it is received by the user device. It can thus be seen that from the point of view of the user, in these different embodiments, the interaction with the voice server is very simplified. The user should not listen to a menu in its entirety and memorize the choices that are proposed to him. All he has to do is read the menu displayed in the secondary window. Similarly, when the screen is touch, the selection of the choice is made more naturally. Thus, the interaction method makes it possible to simplify an interaction of a user with a voice server implementing automated voice interaction steps.
10 Aucune limitation n'est attachée à ces différents modes de réalisation et l'homme du métier est à même d'en définir d'autres visant à afficher à l'écran des menus d'interaction sous forme textuelle dans une fenêtre secondaire. La technique d'interaction est mise en oeuvre au moyen de composants logiciels et/ou matériels. Dans cette optique, le terme "module" peut correspondre dans ce document aussi bien à 15 un composant logiciel, qu'à un composant matériel ou à un ensemble de composants matériels et/ou logiciels, apte à mettre en oeuvre une fonction ou un ensemble de fonctions, selon ce qui est décrit précédemment pour le module concerné. Un composant logiciel correspond à un ou plusieurs programmes d'ordinateur, un ou plusieurs sous-programmes d'un programme, ou de manière plus générale à tout élément d'un 20 programme ou d'un logiciel. Un tel composant logiciel est stocké en mémoire puis chargé et exécuté par un processeur de données d'une entité physique et est susceptible d'accéder aux ressources matérielles de cette entité physique (mémoires, supports d'enregistrement, bus de communication, cartes électroniques d'entrées/sorties, interfaces utilisateur, etc). De la même manière, un composant matériel correspond à tout élément d'un ensemble 25 matériel (ou hardware). Il peut s'agir d'un composant matériel programmable ou non, avec ou sans processeur intégré pour l'exécution de logiciel. Il s'agit par exemple d'un circuit intégré, d'une carte à puce, d'une carte électronique pour l'exécution d'un micrologiciel (firmware), etc. Dans un mode de réalisation particulier, les modules 103, 104 sont agencés pour mettre en oeuvre le procédé d'interaction précédemment décrit. Il s'agit de préférence de modules logiciels 30 comprenant des instructions logicielles pour faire exécuter celles des étapes du procédé d'interaction précédemment décrit, mises en oeuvre par un dispositif utilisateur. L'invention concerne donc aussi : - un programme pour un dispositif utilisateur, comprenant des instructions de code de programme destinées à commander l'exécution des étapes du procédé d'interaction précédemment décrit, 35 lorsque ledit programme est exécuté par ce dispositif utilisateur ; - un support d'enregistrement lisible par un dispositif utilisateur sur lequel est enregistré le programme pour un dispositif.No limitation is attached to these various embodiments and one skilled in the art is able to define others to display on the screen interaction menus in text form in a secondary window. The interaction technique is implemented by means of software and / or hardware components. In this context, the term "module" may correspond in this document to both a software component, a hardware component or a set of hardware and / or software components, capable of implementing a function or a set of functions, as described above for the module concerned. A software component corresponds to one or more computer programs, one or more subroutines of a program, or more generally to any element of a program or software. Such a software component is stored in memory and then loaded and executed by a data processor of a physical entity and is able to access the hardware resources of this physical entity (memories, recording media, communication buses, electronic cards of a physical entity). input / output, user interfaces, etc.). In the same way, a hardware component corresponds to any element of a hardware set. It may be a programmable hardware component or not, with or without an integrated processor for running software. This is for example an integrated circuit, a smart card, an electronic card for executing a firmware, etc. In a particular embodiment, the modules 103, 104 are arranged to implement the previously described interaction method. These are preferably software modules 30 comprising software instructions for executing those of the steps of the interaction method described above, implemented by a user device. The invention therefore also relates to: - a program for a user device, comprising program code instructions for controlling the execution of the steps of the previously described interaction method, when said program is executed by that user device; a recording medium readable by a user device on which the program for a device is recorded.
3036570 16 Dans un mode de réalisation particulier, les modules 203, 204 sont agencés pour mettre en oeuvre le procédé d'interaction précédemment décrit. Il s'agit de préférence de modules logiciels comprenant des instructions logicielles pour faire exécuter celles des étapes du procédé d'interaction précédemment décrit, mises en oeuvre par un dispositif d'interaction vocale.In a particular embodiment, the modules 203, 204 are arranged to implement the previously described interaction method. These are preferably software modules comprising software instructions for executing those of the steps of the interaction method described above, implemented by a voice interaction device.
5 L'invention concerne donc aussi : - un programme pour un dispositif d'interaction vocale, comprenant des instructions de code de programme destinées à commander l'exécution des étapes du procédé d'interaction précédemment décrit, lorsque ledit programme est exécuté par ce dispositif d'interaction vocale ; - un support d'enregistrement lisible par un dispositif d'interaction vocale sur lequel est enregistré 10 le programme pour un dispositif d'interaction vocale. Les modules logiciels peuvent être stockés dans ou transmis par un support de données. Celui-ci peut être un support matériel de stockage, par exemple un CD-ROM, une disquette magnétique ou un disque dur, ou bien un support de transmission tel qu'un signal électrique, optique ou radio, ou un réseau de télécommunication. 15The invention therefore also relates to: a program for a voice interaction device, comprising program code instructions for controlling the execution of the steps of the previously described interaction method, when said program is executed by this device voice interaction; a recording medium readable by a voice interaction device on which the program is recorded for a voice interaction device. The software modules can be stored in or transmitted by a data carrier. This may be a hardware storage medium, for example a CD-ROM, a magnetic diskette or a hard disk, or a transmission medium such as an electrical signal, optical or radio, or a telecommunications network. 15
Claims (13)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR1554629A FR3036570A1 (en) | 2015-05-22 | 2015-05-22 | TECHNIQUE FOR INTERACTING A USER DEVICE WITH A DEVICE CALLED |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR1554629A FR3036570A1 (en) | 2015-05-22 | 2015-05-22 | TECHNIQUE FOR INTERACTING A USER DEVICE WITH A DEVICE CALLED |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| FR3036570A1 true FR3036570A1 (en) | 2016-11-25 |
Family
ID=54140583
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR1554629A Withdrawn FR3036570A1 (en) | 2015-05-22 | 2015-05-22 | TECHNIQUE FOR INTERACTING A USER DEVICE WITH A DEVICE CALLED |
Country Status (1)
| Country | Link |
|---|---|
| FR (1) | FR3036570A1 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012068510A1 (en) * | 2010-11-20 | 2012-05-24 | Millind Mittal | Method and apparatus for data channel augmented auto attended voice response systems |
-
2015
- 2015-05-22 FR FR1554629A patent/FR3036570A1/en not_active Withdrawn
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012068510A1 (en) * | 2010-11-20 | 2012-05-24 | Millind Mittal | Method and apparatus for data channel augmented auto attended voice response systems |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10084912B2 (en) | Communication of information during a call | |
| EP2174476B1 (en) | Communication system and method for displaying contact user content | |
| US8355678B2 (en) | System and method for controlling communications during an E-reader session | |
| EP2443806B1 (en) | Generic smart ussd client module embarked in a telecommunication terminal | |
| FR3039030A1 (en) | METHOD AND DEVICE FOR ESTABLISHING WEBRTC COMMUNICATIONS | |
| CN101834957A (en) | Incoming call management method and system based on home gateway | |
| FR3036570A1 (en) | TECHNIQUE FOR INTERACTING A USER DEVICE WITH A DEVICE CALLED | |
| EP2820821B1 (en) | Method and device for making available at least one communication datum | |
| EP3104586A1 (en) | Method for sharing digital content during communication | |
| EP2992657B1 (en) | Method and device for controlling the use of a communication data flow | |
| EP4348985B1 (en) | Apparatus and method for rendering audio content as part of an interactive digital service | |
| US10951771B2 (en) | Method and apparatus for call handling control | |
| KR20120025364A (en) | System and method for providing multi modal typed interactive auto response service | |
| WO2015128561A1 (en) | Method and device for discovering communication capabilities relating to a user of a terminal | |
| EP3219090A1 (en) | Communication method and device | |
| FR3023117A1 (en) | METHOD AND DEVICE FOR ESTABLISHING COMMUNICATION | |
| WO2018234655A1 (en) | METHOD OF ESTABLISHING COMMUNICATION WITH AN INTERACTIVE SERVER | |
| FR2828368A1 (en) | Mobile phone multimedia message transmission system has deliberate envelope errors | |
| EP3021552A1 (en) | Method and apparatus for communicating via a shared interaction space | |
| FR3034275A1 (en) | METHOD AND DEVICE FOR NAMING A TERMINAL |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PLFP | Fee payment |
Year of fee payment: 2 |
|
| PLSC | Publication of the preliminary search report |
Effective date: 20161125 |
|
| ST | Notification of lapse |
Effective date: 20180131 |