[go: up one dir, main page]

BE1023596B1 - INTERACTIVE SYSTEM BASED ON MULTIMODAL GESTURES AND METHOD USING SINGLE DETECTION SYSTEM - Google Patents

INTERACTIVE SYSTEM BASED ON MULTIMODAL GESTURES AND METHOD USING SINGLE DETECTION SYSTEM Download PDF

Info

Publication number
BE1023596B1
BE1023596B1 BE2015/5045A BE201505045A BE1023596B1 BE 1023596 B1 BE1023596 B1 BE 1023596B1 BE 2015/5045 A BE2015/5045 A BE 2015/5045A BE 201505045 A BE201505045 A BE 201505045A BE 1023596 B1 BE1023596 B1 BE 1023596B1
Authority
BE
Belgium
Prior art keywords
interaction
predetermined
interactive
dimensional
gesture
Prior art date
Application number
BE2015/5045A
Other languages
French (fr)
Other versions
BE1023596A1 (en
Inventor
Aliaksandr Kamovich
Julien Thollot
Laurent Guigues
Original Assignee
Softkinetic Software Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Softkinetic Software Sa filed Critical Softkinetic Software Sa
Priority to BE2015/5045A priority Critical patent/BE1023596B1/en
Application granted granted Critical
Publication of BE1023596A1 publication Critical patent/BE1023596A1/en
Publication of BE1023596B1 publication Critical patent/BE1023596B1/en

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

Le présent document décrit un procédé et un système pour permettre une interaction basée sur des gestions multimodaux naturels efficaces et complémentaires avec un système informatisé qui affiche des informations de retour visuel sur une interface utilisateur graphique sur une surface d’interaction. La surface d’interaction est située à l’intérieur du tronc de cône d’un dispositif d’imagerie comprenant un seul système de détection. Le système utilise le seul système de détection pour détecter des interactions de gestes tactiles avec la surface d’interaction et des interactions de gestes non tactiles tridimensionnels dans des zones ou des volumes au-dessus de la surface d’interaction effectués par les mains d’un utilisateur. Les deux types d’interaction sont associés contextuellement avec une commande d’interaction contrôlant le système informatisé quand le geste a été détecté. Le système comprend un système de projection pour afficher l’interface utilisateur graphique et un retour visuel sur la surface d’interaction.This document describes a method and system for enabling efficient and complementary natural multimodal management-based interaction with a computerized system that displays visual feedback information on a graphical user interface on an interaction surface. The interaction surface is located within the truncated cone of an imaging device comprising a single detection system. The system uses the only sensing system to detect touch gesture interactions with the interaction surface and three-dimensional non-touch gesture interactions in areas or volumes above the interaction surface performed by the hands of an user. The two types of interaction are contextually associated with an interaction command controlling the computerized system when the gesture has been detected. The system includes a projection system to display the graphical user interface and visual feedback on the interaction surface.

Description

SYSTÈME INTERACTIF BASÉ SUR DES GESTES MULTIMODAUX ET PROCÉDÉ UTILISANT UN SEUL SYSTÈME DEINTERACTIVE SYSTEM BASED ON MULTIMODAL GESTURES AND METHOD USING A SINGLE SYSTEM OF

DÉTECTIONDETECTION

Domaine de l'inventionField of the invention

La présente invention se rapporte à des améliorations de systèmes interactifs multimodaux homme-ordinateur ou relatives à ceux-ci et concerne en particulier un procédé et un système pour fournir deux modes complémentaires d’interaction utilisant un seul moyen de détection, par exemple, un système d'imagerie tridimensionnelle exploité pour la reconnaissance de gestes, les deux modes d'interaction étant respectivement des interactions de gestes tactiles et des interactions de gestes tridimensionnels non tactiles.The present invention relates to or relates to multimodal human-computer interactive system enhancements and particularly relates to a method and a system for providing two complementary modes of interaction using a single detection means, for example, a system. three-dimensional imaging system exploited for the recognition of gestures, the two interaction modes being respectively touch gesture interactions and interactions of non-tactile three-dimensional gestures.

Art antérieur de l'inventionPrior art of the invention

Les interfaces conventionnelles homme-ordinateur comprennent des interfaces matérielles de système de contrôle telles que claviers, souris, télécommande, tablettes, écrans tactiles et dispositifs de pointage. Avec de telles interfaces, une action physique doit être effectuée sur le dispositif matériel même, par exemple, toucher, déplacer, maintenir, pointer, presser, cliquer ou même une pluralité de ces actions ensemble, séquentiellement ou simultanément, d'une façon rendue possible par ces interfaces de dispositif afin que des commandes de contrôle, telles que des événements binaires déclenchés ou des valeurs continues, puissent être envoyées à un système informatique avec lequel l'interface est destinée à interagir.Conventional human-computer interfaces include control system hardware interfaces such as keyboards, mice, remote control, tablets, touch screens and pointing devices. With such interfaces, a physical action must be performed on the hardware device itself, for example, touch, move, hold, point, squeeze, click, or even a plurality of these actions together, sequentially or simultaneously, in a manner made possible through these device interfaces so that control commands, such as triggered binary events or continuous values, can be sent to a computer system with which the interface is intended to interact.

Le système informatique comprend souvent une interface utilisateur graphique (GUI) ayant des fenêtres, des boutons et d'autres composants ou éléments, appelés tous ensemble les paramètres, qui sont affichés sur des écrans pour fournir un retour visuel à un utilisateur comme une fonction de commandes de contrôle déclenchées et exécutées; ils sont conçus conformément à l'utilisabilité et à l'ergonomie des interfaces matérielles conventionnelles homme-ordinateur et eu égard aux capacités bidimensionnelles des systèmes d'affichage grand public. Par exemple, les systèmes d'exploitation ont basiquement des fenêtres GUI bidimensionnelles qui comprennent souvent des barres de défilement pour permettre la navigation dans un contenu multimédia tel qu'une carte, une image ou une zone de texte dont la taille est potentiellement plus grande que l'image affichée dans la zone délimitée par la taille même de l'écran d'affichage. L'interaction avec les barres de défilement est optimisée pour utiliser une roulette sur un dispositif matériel de souris ou en combinant un mouvement du curseur de la souris avec une action de maintien du clic. De plus, les GUI conventionnelles comprennent souvent des boutons bidimensionnels sur lesquels un utilisateur clique avec des boutons de souris pour faire un zoom avant et arrière dans le contenu de la GUI quand la représentation du curseur de la souris pointe sur la zone de bouton spécifiquement déterminée.The computer system often includes a graphical user interface (GUI) having windows, buttons and other components or elements, all together called parameters, which are displayed on screens to provide a visual feedback to a user as a function of triggered and executed control commands; they are designed according to the usability and ergonomics of conventional human-computer hardware interfaces and the two-dimensional capabilities of consumer display systems. For example, operating systems basically have two-dimensional GUI windows that often include scrollbars to allow browsing of multimedia content such as a map, an image, or a text box that is potentially larger than the image displayed in the area delimited by the actual size of the display screen. Interaction with the scrollbars is optimized to use a wheel on a hardware mouse device or by combining a movement of the mouse cursor with a click-hold action. In addition, conventional GUIs often include two-dimensional buttons on which a user clicks with mouse buttons to zoom in and out of the GUI content when the mouse cursor representation points to the specifically determined button area. .

En outre, les GUI bidimensionnelles conventionnelles peuvent également comprendre des interactions de GUI de navigation de carte qui requièrent en général un clic combiné avec un mouvement continu de la souris pour faire défiler la carte comme fonction du mouvement de la souris ou pour changer d'une zone de la carte à l'autre.In addition, conventional two-dimensional GUIs may also include map navigation GUI interactions that typically require a combined click with continuous mouse movement to scroll the map as a function of mouse movement or to change a map. map area to another.

Plus récemment, des GUI bidimensionnelles conventionnelles ont été développées afin d'être actionnées par des interfaces de contrôle tactiles et/ou tactiles multipoints telles que des écrans d'affichage à surface tactile multipoint. Les commandes de contrôle de ces interfaces de deuxième génération basées sur des gestes tactiles ont été conçues pour permettre à un utilisateur d'interagir, de cliquer, de faire défiler ou de faire un zoom avant et arrière, en utilisant une partie d'au moins une main, par exemple un doigt, et peuvent être basées sur différents types de technologies matérielles telles que les technologies capacitive, résistive, à grille infrarouge, basée sur l'imagerie optique, les signaux dispersifs ou les ondes acoustiques.More recently, conventional two-dimensional GUIs have been developed to be operated by multi-touch and / or tactile control interfaces such as multi-touch surface display screens. Control commands for these second-generation touch gesture-based interfaces have been designed to allow a user to interact, click, scroll, or zoom in and out using at least a portion of a hand, for example a finger, and can be based on different types of hardware technologies such as capacitive, resistive, infrared grid, based on optical imaging, dispersive signals or acoustic waves.

Plus récemment encore, une troisième génération d'interfaces de système de contrôle est devenue disponible. Cette génération comprend des systèmes d'interaction sans contact. Ces systèmes peuvent aussi être basés sur un capteur capacitif de suivi de mouvements et comprend un système incluant des électrodes et de l'électronique d'interface. Le principal avantage de l'utilisation de tels capteurs capacitifs par rapport aux systèmes de contrôle existants réside dans le fait qu'ils consomment peu d'énergie, fournissent une intégration facile et sont d'un faible coût. Cependant, les capteurs capacitifs permettent uniquement des interactions sans contact très rapprochées, par exemple à une distance entre 0 cm et 10 cm du plan des électrodes, avec la capacité de distinguer et de suivre un nombre très limité de points d’intérêt ou d'extrémités en même temps, tels que des doigts humains, typiquement seulement un ou deux. Ces capteurs capacitifs de suivi de mouvements sont couramment associés à un autre système d'interaction de la première ou deuxième génération d’interfaces de contrôle, par exemple un système d'écran tactile, afin de permettre des interactions de gestes tactiles et non tactiles ou sans contact. Cependant, de tels capteurs ne sont pas assez complémentaires pour être utilisés efficacement pour combiner une reconnaissance de gestes tridimensionnels tactiles et non tactiles où les gestes de contrôle sont effectués dans l'air par un utilisateur, par exemple, utilisant les deux mains et une pluralité de doigts, par exemple 6, à des distances variant entre 0 cm et 150 cm d'une surface d'interaction.More recently, a third generation of control system interfaces has become available. This generation includes contactless interaction systems. These systems can also be based on a capacitive motion tracking sensor and include a system including electrodes and interface electronics. The main advantage of using such capacitive sensors over existing control systems is that they consume little power, provide easy integration and are low cost. However, capacitive sensors only allow very close contactless interactions, for example at a distance between 0 cm and 10 cm from the plane of the electrodes, with the ability to distinguish and follow a very limited number of points of interest or extremities at the same time, such as human fingers, typically only one or two. These capacitive motion tracking sensors are commonly associated with another interaction system of the first or second generation of control interfaces, for example a touch screen system, to enable tactile and non-tactile gesture interactions or without touching. However, such sensors are not complementary enough to be used effectively to combine a recognition of tactile and non-tactile three-dimensional gestures where the control gestures are performed in the air by a user, for example, using both hands and a plurality of fingers, for example 6, at distances varying between 0 cm and 150 cm from an interaction surface.

Cette troisième génération de systèmes d'interaction sans contact peut aussi être basée sur un système d'imagerie, par exemple, des dispositifs de caméra bidimensionnelle ou tridimensionnelle, pour capturer séquentiellement des images d'une scène au cours du temps et un procédé pour déterminer des gestes tridimensionnels effectués par un utilisateur dans la scène capturée. De tels systèmes d'interactions sans contact sont conformes à une utilisation en combinaison avec des interfaces matérielles conventionnelles existantes, telles que des affichages d'écran tactile, ou éventuellement seul en déclenchant les mêmes commandes de contrôle que lesdites interfaces matérielles conventionnelles mais à partir d'un ensemble de gestes tridimensionnels reconnus, à savoir des poses statiques ou des poses dynamiques, dans les images de la scène capturées séquentiellement.This third generation of non-contact interaction systems may also be based on an imaging system, for example, two-dimensional or three-dimensional camera devices, for sequentially capturing images of a scene over time and a method for determining three-dimensional gestures made by a user in the captured scene. Such contactless interaction systems conform to use in combination with existing conventional hardware interfaces, such as touchscreen displays, or possibly only by triggering the same control commands as said conventional hardware interfaces but from a set of recognized three-dimensional gestures, namely static poses or dynamic poses, in the images of the scene captured sequentially.

Un tel système d'interaction multimodale utilisant un système de reconnaissance de gestes non tactiles d'une caméra 3D combiné avec un autre système interactif d'un dispositif matériel est décrit dans WO-A-2013/104681. WO-A-2013/104681 décrit un nouveau système de dispositif de contrôle à distance sans fil tenu à la main. Il peut être utilisé pour fournir des signaux conventionnels de contrôle à distance basés sur le matériel en vue d'interagir avec un système informatique en association avec trois signaux de contrôle basés sur des gestes tridimensionnels fournis par le système de reconnaissance de gestes. Le dispositif de contrôle à distance sans fil tenu à la main comprend un boîtier ayant une unité de détection et ayant au moins un bouton de contrôle qui est capable de générer ou de déclencher un signal de contrôle pour le système informatisé associé. Le système informatisé utilise l'information obtenue du dispositif de contrôle conjointement avec l'information obtenue d'un système de reconnaissance de gestes d'une façon multimodale pour résoudre toute ambiguïté due, par exemple, à l’occlusion de la main effectuant le geste ou de la main se trouvant en dehors du champ de vision du système d’imagerie associé au système informatisé et pour déclencher des interactions avec le système d'interaction basé sur des gestes. Exploités d'une façon multimodale, les deux systèmes d'interaction différents sont utilisés de manière efficace en combinaison et chacun délivre des signaux à utiliser pour améliorer les signaux de l'autre, permettant ainsi une interaction améliorée homme-ordinateur qui ne peut être fournie si l'on utilise uniquement un des deux systèmes d'interaction.Such a multimodal interaction system using a non-tactile gesture recognition system of a 3D camera combined with another interactive system of a hardware device is described in WO-A-2013/104681. WO-A-2013/104681 discloses a novel handheld wireless remote control device system. It can be used to provide conventional hardware-based remote control signals for interacting with a computer system in association with three control signals based on three-dimensional gestures provided by the gesture recognition system. The hand-held wireless remote control device includes a housing having a detection unit and having at least one control button that is capable of generating or triggering a control signal for the associated computer system. The computerized system uses the information obtained from the control device together with the information obtained from a gesture recognition system in a multimodal manner to resolve any ambiguity due, for example, to the occlusion of the hand performing the gesture. or hand outside the field of view of the imaging system associated with the computerized system and to trigger interactions with the gesture-based interaction system. Multimodally operated, the two different interaction systems are used effectively in combination and each delivers signals to be used to enhance the signals of the other, thereby enabling enhanced human-computer interaction that can not be provided. if only one of the two interaction systems is used.

Un autre système d'interaction sans contact qui utilise une caméra vidéo et un système d'écran d'ordinateur est décrit dans WO-A-99/40562. Le système comprend un système d'entrée de données de type écran tactile déterminé à partir d'images vidéo comprenant des données relatives à des objets s'approchant de l'écran d'ordinateur. Le système de caméra vidéo est monté au-dessus de l'écran d’ordinateur pour surveiller la zone située immédiatement devant l'écran. Le traitement des images permet la détection et le suivi d'une main d'un utilisateur ou d'un stylo à l'avant-plan de l'écran en utilisant des techniques courantes d'élimination d'arrière-plan. Un processus d'étalonnage est utilisé dans lequel des points d’étalonnage sont placés de manière à couvrir la majeure partie de l'écran, le processus d'étalonnage générant des coordonnées spatiales d'écran en transformant des coordonnées d'espace virtuel de la position de la main suivie en utilisant des moyens tels que l'interpolation linéaire et l'extrapolation linéaire.Another non-contact interaction system that uses a video camera and a computer screen system is disclosed in WO-A-99/40562. The system includes a touch screen type data entry system determined from video images including data relating to objects approaching the computer screen. The video camera system is mounted above the computer screen to monitor the area immediately in front of the screen. Image processing allows the detection and tracking of a user's hand or pen in the foreground of the screen using common background removal techniques. A calibration process is used in which calibration points are positioned to cover most of the screen, the calibration process generating screen spatial coordinates by transforming virtual space coordinates of the screen. hand position followed using such means as linear interpolation and linear extrapolation.

Dans WO-A-02/03316, un écran tactile capacitif passif est associé à au moins une caméra à vision stéréo basée sur un système d'interaction sans contact. Les données du système tactile capacitif à faible résolution, sensible à la température et à l'humidité, à faible extensibilité sont améliorées par l'information récupérée par la caméra. La caméra à vision stéréo basée sur un système d'interaction sans contact comprend au moins deux caméras avec des champs de vision se chevauchant qui englobent la surface de l'écran tactile capacitif. Les caméras acquièrent des images de la surface tactile à partir de différents endroits et déterminent l'endroit exact du pointeur par rapport à la surface tactile quand ce pointeur est capturé dans des images acquises par les caméras. Une routine d'étalonnage est utilisée pour faciliter la détermination de la position de l'objet en recourant à la triangulation et en tenant compte des angles de déviation de la caméra par rapport à la surface tactile. Cela permet de mieux déterminer si un pointeur est en contact avec la surface tactile en un point donné ou s'il plane au-dessus de la surface tactile.In WO-A-02/03316, a passive capacitive touch screen is associated with at least one stereo vision camera based on a contactless interaction system. The low-resolution, low temperature, humidity sensitive, low-resolution capacitive touch system data is enhanced by the information retrieved by the camera. The stereo vision camera based on a contactless interaction system comprises at least two cameras with overlapping fields of view that encompass the surface of the capacitive touch screen. Cameras acquire images of the touch surface from different locations and determine the exact location of the pointer to the touch surface when that pointer is captured in images acquired by the cameras. A calibration routine is used to facilitate the determination of the position of the object using triangulation and taking into account deflection angles of the camera with respect to the touch surface. This makes it possible to better determine if a pointer is in contact with the touch surface at a given point or if it is hovering over the touch surface.

Alors que les systèmes interactifs homme-ordinateur existants permettent des interactions multimodales basées sur des interfaces tactiles et des interfaces de gestes tridimensionnels sans contact en associant au moins deux systèmes de détection ayant des technologies différentes, par exemple un écran tactile capacitif associé à un système de reconnaissance de gestes tridimensionnels sans contact exploité en utilisant des informations de profondeur d'une caméra 3D, il n'existe pas encore de solution pour permettre des interfaces multimodales tactiles et basées sur des gestes tridimensionnels sans contact, précises, fiables, efficaces et rentables pour contrôler un système informatisé de la même façon qu'un système utilisant une combinaison de différentes technologies existantes.While the existing human-computer interactive systems allow multimodal interactions based on tactile interfaces and contactless three-dimensional gesture interfaces by associating at least two detection systems having different technologies, for example a capacitive touch screen associated with a control system. recognition of three-dimensional touch-free gestures exploited using depth information from a 3D camera, there is as yet no solution to allow tactile multimodal interfaces based on contactless three-dimensional gestures, accurate, reliable, efficient and cost-effective for control a computer system in the same way as a system using a combination of different existing technologies.

De surcroît, l'intégration de deux systèmes de détection ayant des technologiques différentes avec une interface utilisateur graphique est toujours contrainte par une des technologies. Par exemple, quand on utilise un écran d'affichage capacitif pour permettre une interaction de geste tactile, l'écran utilisé a la principale interface utilisateur graphique et, l'ajout d'une autre interface utilisateur graphique qui, par exemple, peut avoir des propriétés d'extensibilité, tel qu'un système de projection, nécessite d'ajouter de la complexité et des coûts au système existant. De la même façon, l'association d'une pluralité d'écrans d'affichage avec une pluralité de systèmes de détection ne fournit pas un système complet qui est polyvalent et embarquable, permettant ainsi au système interactif d'être exploité n'importe où et sur n'importe quelle surface.In addition, the integration of two detection systems with different technologies with a graphical user interface is still constrained by one of the technologies. For example, when using a capacitive display screen to enable touch gesture interaction, the screen used has the main graphical user interface and, adding another graphical user interface that, for example, may have Extensibility properties, such as a projection system, need to add complexity and cost to the existing system. In the same way, the combination of a plurality of display screens with a plurality of detection systems does not provide a complete system that is versatile and embeddable, thus allowing the interactive system to be operated anywhere and on any surface.

Dernier point et qui n'est pas le moindre, comme l'intégration d'une pluralité de systèmes de détection est contrainte et rendue complexe par le système d'affichage requis par un des systèmes de détection, l'intégration d’interactions naturelles en utilisant une combinaison de gestes tridimensionnels tactiles et non tactiles pour exploiter de manière naturelle l'interface multimodale homme-machine (ou ordinateur) tend à être assez limitée en termes d'application, d'utilisabilité et d'ergonomie dans le processus d'interaction. Résumé de l'inventionLast but not least, as the integration of a plurality of detection systems is constrained and complicated by the display system required by one of the detection systems, the integration of natural interactions into using a combination of tactile and non-tactile three-dimensional gestures to naturally exploit the human-machine (or computer) multimodal interface tends to be quite limited in terms of application, usability and ergonomics in the interaction process . Summary of the invention

Par conséquent, un but de la présente invention est de fournir un système d'interaction multimodal polyvalent qui surmonte les problèmes associés à l'utilisation d’une pluralité de systèmes de détection pour permettre une multimodalité fiable, simple et utilisable. La présente invention comprend, en particulier, un nouveau procédé pour utiliser un unique système de détection, soit seul soit en association avec un unique système d'affichage polyvalent, pour fournir un système interactif basé sur des gestes tactiles et non tactiles ayant une interface utilisateur graphique, le procédé étant suffisamment polyvalent et ergonomique pour être exploité sur différentes surfaces d’interaction qui peuvent être différentes de celle imposée par l'unique système de détection même.It is therefore an object of the present invention to provide a versatile multimodal interaction system that overcomes the problems associated with using a plurality of detection systems to enable reliable, simple and usable multimodality. The present invention includes, in particular, a novel method for using a single detection system, either alone or in combination with a single versatile display system, to provide an interactive system based on tactile and non-tactile gestures having a user interface. graphic, the method being sufficiently versatile and ergonomic to be operated on different interaction surfaces that may be different from that imposed by the unique detection system itself.

Par conséquent, un but de la présente invention est également de fournir un nouveau système d'interaction multimodal naturel dans lequel différents modes d'interaction peuvent être facilement associés ou combinés les uns avec les autres, soit séquentiellement soit simultanément, pour permettre une interaction homme-ordinateur en utilisant au moins une partie d'au moins une main d'un utilisateur, ou un autre objet, tout en étant suffisamment polyvalent pour permettre des interactions naturelles homme-ordinateur en utilisant au moins deux parties soit d'une soit de deux mains ou plus d'un ou de multiples utilisateurs.Therefore, an object of the present invention is also to provide a novel natural multimodal interaction system in which different modes of interaction can be easily associated or combined with each other, either sequentially or simultaneously, to enable human interaction. computer using at least a portion of at least one hand of a user, or other object, while being sufficiently versatile to allow human-computer natural interactions using at least two parts of either one or two hands or more than one or multiple users.

Par conséquent, un objet de la présente invention est, en particulier, de fournir un système polyvalent pour interagir avec une interface utilisateur graphique, le système comprenant: un système d'affichage pour afficher une interface utilisateur graphique sur une surface d'interaction, un système d'imagerie tridimensionnelle exploité pour au moins suivre au moins une partie d'au moins un objet ou d'au moins une main d’un utilisateur à l'intérieur de son tronc de cône, et un système informatique configuré pour contrôler le système d'affichage et le système d'imagerie tridimensionnel ainsi que pour déterminer des contrôles d'interaction basés sur des gestes sur la base de données produites par le système d'imagerie tridimensionnel.Therefore, an object of the present invention is, in particular, to provide a versatile system for interacting with a graphical user interface, the system comprising: a display system for displaying a graphical user interface on an interaction surface, a three-dimensional imaging system operated to at least track at least a portion of at least one object or at least one hand of a user within its truncated cone, and a computer system configured to control the system display and the three-dimensional imaging system and to determine gesture-based interaction controls based on data produced by the three-dimensional imaging system.

Le présent système interactif est en outre avantageusement caractérisé en ce que la surface d'affichage servant à afficher l’interface utilisateur graphique est située dans une partie du tronc de cône du système d'imagerie et est aussi sensiblement aligné sur celui-ci de manière à réduire à un minimum le problème et les contraintes d'étalonnage. Le terme "sensiblement aligné" tel qu'utilisé dans le présent document se réfère à la perspective de l'affichage ou de la surface d'interaction du point de vue de la caméra, c'est-à-dire que le plan X-Y de la surface d'interaction se trouve dans une plage angulaire prédéterminée par rapport au plan X-Y du système d'imagerie, par exemple entre 0 et 45 degrés.The present interactive system is furthermore advantageously characterized in that the display surface for displaying the graphical user interface is located in a part of the truncated cone of the imaging system and is also substantially aligned thereon. to minimize the problem and the calibration constraints. The term "substantially aligned" as used herein refers to the perspective of the display or the interaction surface from the point of view of the camera, i.e., the XY plane of the interaction surface is in a predetermined angular range with respect to the XY plane of the imaging system, for example between 0 and 45 degrees.

De manière avantageuse quand on considère des systèmes embarqués, le système d'affichage comprendra un élément projecteur situé sur le même côté de la surface d'interaction sur lequel l'interface utilisateur graphique est affichée comme le dispositif d'imagerie tridimensionnelle.Advantageously when considering embedded systems, the display system will include a projector element located on the same side of the interaction surface on which the graphical user interface is displayed as the three-dimensional imaging device.

Quand on considère des surfaces d'interaction telles que des bureaux, des tables ou des fenêtres, le système interactif sera de préférence configuré de manière que le système d'imagerie tridimensionnelle et l'élément projecteur soient situés sur des côtés opposés de la surface d'interaction sur laquelle l'interface utilisateur graphique est projetée. La surface d'interaction sera exploitable de préférence pour diffuser un rayonnement ayant une longueur d'onde dans une plage qui correspond sensiblement à la partie visible du spectre électromagnétique, et pour transmettre un rayonnement ayant une longueur d'onde dans une plage qui correspond sensiblement à la partie infrarouge du spectre électromagnétique avec diffusion limitée, le coefficient de transmission de la surface d'interaction étant supérieur à 50 % avec une diffusion limitée inférieure à 20 degrés dans le domaine IR.When considering interaction surfaces such as desks, tables, or windows, the interactive system will preferably be configured so that the three-dimensional imaging system and the projector element are located on opposite sides of the surface of the image. the interaction on which the graphical user interface is projected. The interaction surface will preferably be operable to diffuse radiation having a wavelength in a range that substantially corresponds to the visible portion of the electromagnetic spectrum, and to transmit radiation having a wavelength in a range that substantially corresponds to to the infrared part of the electromagnetic spectrum with limited diffusion, the transmission coefficient of the interaction surface being greater than 50% with limited diffusion of less than 20 degrees in the IR domain.

Par conséquent, un autre but de la présente invention est de fournir un procédé destiné à être mis en œuvre par le système interactif, le procédé étant stocké dans un support informatique non temporaire et étant mis en œuvre comme instructions exécutables par le système interactif.Therefore, another object of the present invention is to provide a method to be implemented by the interactive system, the method being stored in a non-temporary computer medium and being implemented as executable instructions by the interactive system.

Le procédé prévoit des interactions multimodales tactiles et non tactiles pour contrôler le système informatisé dans lequel lesdites interactions multimodales tactiles et non tactiles sont détectées et reconnues en utilisant des informations de données d'un unique système de détection. L’unique système de détection est de préférence un dispositif d'imagerie tridimensionnelle, et le procédé comprend les étapes de: détection et suivi d'au moins une partie d'au moins un objet à l'intérieur du tronc de cône d'un dispositif d’imagerie tridimensionnelle; amorçage de l'interaction en déterminant si ladite au moins une partie dudit au moins un objet suivi effectue au moins un de: un geste tactile prédéterminé sur une zone interactive prédéterminée sur la surface d'interaction et un geste tridimensionnel non tactile prédéterminé dans un volume interactif prédéterminé le long d'un axe de vecteur normal d'une zone interactive prédéterminée; interaction avec le système informatisé en détectant et en reconnaissant les gestes effectués par ladite au moins une partie dudit au moins un objet à l'intérieur du tronc de cône du dispositif d'imagerie tridimensionnelle, et les gestes détectés et reconnus étant au moins un de: un geste tactile prédéterminé sur la zone interactive prédéterminée de la surface d'interaction et un geste tridimensionnel non tactile prédéterminé dans le volume interactif prédéterminé le long d'un axe de vecteur normal à une zone interactive prédéterminée.The method provides tactile and non-tactile multimodal interactions for controlling the computer system in which said tactile and non-tactile multimodal interactions are detected and recognized using data information from a single detection system. The unique detection system is preferably a three-dimensional imaging device, and the method comprises the steps of: detecting and tracking at least a portion of at least one object within the truncated cone of a three-dimensional imaging device; initiating the interaction by determining whether said at least a portion of said at least one tracked object performs at least one of: a predetermined touch gesture on a predetermined interactive area on the interaction surface and a predetermined non-touch three-dimensional gesture in a volume interactive interactive along a normal vector axis of a predetermined interactive area; interacting with the computerized system by detecting and recognizing the gestures made by said at least a portion of said at least one object within the truncated cone of the three-dimensional imaging device, and the detected and recognized gestures being at least one of a predetermined tactile gesture on the predetermined interactive area of the interaction surface and a predetermined non-tactile three-dimensional gesture in the predetermined interactive volume along a vector axis normal to a predetermined interactive area.

De manière avantageuse, la détection de l'exécution d'un geste tactile sur une zone interactive prédéterminée de la surface d'interaction correspond au fait de détecter quand ladite au moins une partie dudit au moins un objet suivi est positionnée dans l'espace tridimensionnel au même endroit dans l'espace que la zone interactive prédéterminée sur la surface d'interaction.Advantageously, the detection of the execution of a touch gesture on a predetermined interactive area of the interaction surface corresponds to the fact of detecting when the said at least part of the said at least one tracked object is positioned in three-dimensional space. at the same place in the space as the predetermined interactive area on the interaction surface.

Dans un mode de réalisation préféré, détecter si un geste tactile a été effectué peut correspondre au fait de déterminer quand la distance par rapport à la surface d'interaction de ladite au moins une partie dudit au moins un objet suivi, dans l’espace tridimensionnel, est inférieure à un seuil prédéterminé.In a preferred embodiment, detecting whether a tactile gesture has been made may correspond to determining when the distance from the interaction surface of said at least a portion of said at least one tracked object in three-dimensional space. is less than a predetermined threshold.

De manière similaire, le procédé comprend le fait de déterminer si un geste tactile multipoint est effectué en détectant quand les positions d'au moins deux parties dudit au moins un objet suivi dans l'espace atteignent au moins deux zones interactives prédéterminées appartenant à la surface d'interaction.Similarly, the method includes determining whether a multi-touch gesture is performed by detecting when the positions of at least two portions of said at least one tracked object in space reach at least two predetermined interactive areas belonging to the surface. interaction.

Le procédé comprend en outre la détermination de commandes de contrôle d'interaction de gestes tactiles comme fonction de positions et durées successives d'au moins un de: un geste tactile et un geste tactile multipoint.The method further comprises determining interaction control commands of touch gestures as a function of successive positions and durations of at least one of: a touch gesture and a multi-touch gesture.

De plus, le procédé comprend aussi la détection d’interactions de geste tridimensionnels non tactiles et la détermination de commandes de contrôle contextuellement comme fonction du geste tridimensionnel effectué par ladite au moins une partie dudit au moins un objet suivi. Par contextuellement, on entend à quel moment, pendant combien de temps et où dans l'espace par rapport aux zones et volumes d'interaction de la surface d’interaction.In addition, the method also includes detecting non-tactile three-dimensional gesture interactions and determining control commands contextually as a function of the three-dimensional gesture performed by said at least a portion of said at least one tracked object. Contextually we mean when, for how long and where in space with respect to the zones and interaction volumes of the interaction surface.

Dans un mode de réalisation préféré, le procédé comprend en outre l'étape consistant à mettre fin à une interaction amorcée basée sur un geste quand un événement prédéterminé est déclenché, ledit événement prédéterminé étant au moins un de: l'écoulement d'une période de temps prédéterminée, la reconnaissance d'un geste tactile prédéterminé sur la surface d'interaction, la reconnaissance d'un geste non tactile tridimensionnel prédéterminé dans ie tronc de cône du dispositif d'imagerie tridimensionnelle et une sortie dudit au moins un objet d'un volume interactif prédéterminé dans l'espace tridimensionnel.In a preferred embodiment, the method further comprises the step of terminating gesture-initiated interaction when a predetermined event is triggered, said predetermined event being at least one of: the flow of a period predetermined time, the recognition of a predetermined tactile gesture on the interaction surface, the recognition of a predetermined three-dimensional non-tactile gesture in the truncated cone of the three-dimensional imaging device and an output of said at least one object of a predetermined interactive volume in the three-dimensional space.

Le procédé peut utiliser au moins une première partie détectée et suivie d'au moins un premier objet pour amorcer une interaction et au moins une deuxième partie détectée et suivie dudit au moins un premier objet pour effectuer l’interaction. Le procédé peut aussi utiliser séquentiellement une seule partie détectée et suivie d'un objet pour effectuer l'amorçage de l'interaction de geste et l'interaction de geste proprement dite. Le procédé peut aussi utiliser une pluralité d'objets détectés et suivis d'un ou plusieurs objets pour déterminer soit des gestes tactiles, des gestes tactiles multipoints et des gestes tridimensionnels, les gestes tridimensionnels étant statiques, par exemple, une pose de la main, ou dynamiques, par exemple un geste de la main avec changement d'au moins l'agencement dans l'espace d'au moins une partie détectée et suivie sur la main.The method may utilize at least a first detected portion and followed by at least a first object to initiate an interaction and at least a second detected and followed portion of the at least one first object to effect the interaction. The method may also sequentially use a single detected portion followed by an object to initiate the gesture interaction and the actual gesture interaction. The method may also use a plurality of objects detected and followed by one or more objects to determine either tactile gestures, multi-touch gestures and three-dimensional gestures, the three-dimensional gestures being static, for example, a hand pose, or dynamic, for example a gesture of the hand with change of at least the arrangement in space of at least a detected portion and followed on the hand.

De manière avantageuse, le procédé comprend l'affichage d'un retour visuel prédéterminé sur une interface utilisateur graphique sur au moins une partie de la surface d'interaction, ledit retour visuel étant relatif à au moins un de: la position de ladite au moins une partie dudit au moins un objet et les gestes reconnus de ladite au moins une partie dudit au moins un objet suivi.Advantageously, the method comprises displaying a predetermined visual feedback on a graphical user interface on at least a portion of the interaction surface, said visual feedback being relative to at least one of: the position of said at least one a part of said at least one object and recognized gestures of said at least part of said at least one object being tracked.

Un but de la présente invention est en particulier de fournir un procédé dans lequel l’interaction avec l'interface utilisateur graphique affichée sur la surface d'interaction comprend en outre l'accomplissement des étapes de;- détermination de la position dans l'espace et de la topologie de la surface d'interaction en utilisant le dispositif d'imagerie tridimensionnelle; détermination d'un ensemble prédéterminé de zones interactives sur la surface d’interaction comme fonction de sa topologie et sa taille; et association avec chaque zone interactive d'au moins un contrôle d'interaction de geste tactile.An object of the present invention is in particular to provide a method in which interaction with the graphical user interface displayed on the interaction surface further comprises accomplishing the steps of: - determining the position in space and the topology of the interaction surface using the three-dimensional imaging device; determining a predetermined set of interactive areas on the interaction surface as a function of its topology and size; and associating with each interactive area at least one touch gesture interaction control.

De manière plus avantageuse, le procédé comprend en plus les étapes de: association avec l'ensemble prédéterminé de zones interactives d'au moins un volume interactif, chaque volume interactif étant situé au-dessus de ladite zone interactive le long d'un vecteur normal à cette zone interactive; et association de chaque volume interactif avec un contrôle d'interaction de geste non tactile tridimensionnel prédéterminé.More advantageously, the method further comprises the steps of: associating with the predetermined set of interactive areas of at least one interactive volume, each interactive volume being located above said interactive area along a normal vector to this interactive area; and associating each interactive volume with a predetermined three-dimensional non-tactile gesture interaction control.

Et enfin, le procédé comprenant l'affichage d'un retour visuel prédéterminé sur une interface utilisateur graphique sur la surface d'interaction selon l'un quelconque des modes de réalisation précédents qui peut en outre être mis en œuvre en utilisant au moins un de: une partie d'un corps d'un utilisateur, un plateau de bureau, une paroi, une surface translucide infrarouge et un objet, l'interface utilisateur graphique étant projetée sur la surface d’interaction.And finally, the method comprising displaying a predetermined visual feedback on a graphical user interface on the interaction surface according to any one of the preceding embodiments which may further be implemented using at least one of a part of a user's body, a desktop tray, a wall, a translucent infrared surface and an object, the graphical user interface being projected onto the interaction surface.

Brève description des dessinsBrief description of the drawings

Pour une meilleure compréhension de la présente invention, il sera maintenant fait référence, à titre d'exemple uniquement, aux dessins joints dans lesquels:For a better understanding of the present invention, reference will now be made, by way of example only, to the accompanying drawings in which:

La figure 1 montre une vue schématique de côté d'un système interactif selon la présente invention, le système interactif comprenant une surface d'interaction sur laquelle une interface utilisateur graphique est projetée, un écran d'affichage additionnel et des éléments de détection de projection et de profondeur avec un ensemble de montage supérieur;FIG. 1 shows a schematic side view of an interactive system according to the present invention, the interactive system comprising an interaction surface on which a graphical user interface is projected, an additional display screen and projection detection elements. and depth with an upper mounting assembly;

La figure 2 montre une vue schématique de devant du système interactif de la figure 1 ;Figure 2 shows a schematic front view of the interactive system of Figure 1;

La figure 3 montre une vue en plan d'une surface associée avec le système interactif des figures 1 et 2 dans laquelle la zone interactive est incorporée dans la surface de la surface d'interaction;Fig. 3 shows a plan view of a surface associated with the interactive system of Figs. 1 and 2 in which the interactive area is embedded in the surface of the interaction surface;

La figure 4 montre quatre positions différentes d’un élément suivi utilisé pour contrôler une interaction tridimensionnelle en utilisant le système interactif de la présente invention, où la position d'un élément suivi est déterminée comme fonction de la surface d'interaction et où les quatre positions différentes déterminent respectivement un contrôle d'interaction de geste tactile et trois contrôles d'interaction de geste tridimensionnel;Figure 4 shows four different positions of a tracking element used to control a three-dimensional interaction using the interactive system of the present invention, where the position of a tracked element is determined as a function of the interaction surface and where the four different positions respectively determine a touch gesture interaction control and three three-dimensional gesture interaction controls;

La figure 5 montre un mode de réalisation du système interactif de la présente invention dans lequel une surface diffusant de la couleur affiche une interface utilisateur graphique rétroprojetée et l'interaction de geste tactile d’une première main suivie est utilisée en combinaison avec une interaction de geste tridimensionnel d'une deuxième main suivie; et la figure 6 montre un autre mode de réalisation du système interactif de la présente invention dans lequel une surface diffusant de la couleur affiche une interface utilisateur graphique rétroprojetée et une interaction de geste tactile multipoint d'au moins deux parties d'une première main suivie est utilisée adjacente à une autre interaction de tactile monopoint déterminée par une partie d'une deuxième main suivie.Fig. 5 shows an embodiment of the interactive system of the present invention in which a color diffusing surface displays a back-projected graphical user interface and the first-hand tactile interaction of a first hand is used in combination with an interaction of three-dimensional gesture of a second hand followed; and Fig. 6 shows another embodiment of the interactive system of the present invention wherein a color diffusing surface displays a back-projected graphical user interface and a multipoint touch gesture interaction of at least two parts of a first hand followed. is used adjacent to another single-point touch interaction determined by a portion of a second hand followed.

Description de l'inventionDescription of the invention

La présente invention sera décrite en rapport avec des modes de réalisation particuliers et en référence à certains dessins mais l'invention n'y est toutefois pas limitée. Les dessins décrits ne sont que schématiques et sont non limitatifs. Dans les dessins, la taille de certains des éléments peut être exagérée et non dessinée à l'échelle à des fins illustratives.The present invention will be described in connection with particular embodiments and with reference to certain drawings but the invention is however not limited thereto. The drawings described are only schematic and are non-limiting. In the drawings, the size of some of the elements may be exaggerated and not drawn to scale for illustrative purposes.

La présente invention fournit un procédé et un système pour permettre des interactions basées sur des gestes humains multimodaux tactiles et non tactiles avec un système informatisé ayant au moins une interface utilisateur graphique (GUI) affichant des informations de retour visuel. L'interface utilisateur graphique peut afficher des paramètres tels que des boutons à presser, des barres de défilement, des boutons à tourner, des pointeurs, des fenêtres, du contenu multimédia ou tout autre paramètre parmi ceux connus des personnes de métier. Des commandes de contrôle peuvent être associées à chaque paramètre affiché pour exploiter le système interactif. Chaque commande de contrôle peut être associée à un événement déclencheur contrôlé par la détection et la reconnaissance d'au moins un geste spécifique prédéterminé.The present invention provides a method and system for enabling interactions based on tactile and non-tactile multimodal human gestures with a computer system having at least one graphical user interface (GUI) displaying visual feedback information. The graphical user interface may display parameters such as buttons to be pressed, scrollbars, buttons to rotate, pointers, windows, multimedia content or any other parameter among those known to those skilled in the art. Control commands may be associated with each displayed parameter to operate the interactive system. Each control command can be associated with a trigger event controlled by the detection and recognition of at least one predetermined specific gesture.

Un geste spécifique prédéterminé peut être un geste humain tactile ou non tactile. Les interactions basées sur des gestes tactiles forment une premier mode d'interaction de geste multimodal et les interactions basées sur des gestes non tactiles forment un deuxième mode d'interaction de geste multimodal. L’utilisation conjointe des deux modes d'interaction, séquentiellement ou simultanément, forme un système interactif basé sur des gestes multimodaux destiné à être exploité à partir de données d'information obtenues d'un seul système de détection.A predetermined specific gesture may be a tactile or non-tactile human gesture. Interactions based on tactile gestures form a first mode of multimodal gesture interaction and interactions based on non-tactile gestures form a second mode of multimodal gesture interaction. The combined use of the two modes of interaction, sequentially or simultaneously, forms an interactive system based on multimodal gestures to be exploited from information data obtained from a single detection system.

Par exemple, un geste spécifique prédéterminé peut être un geste tridimensionnel basé sur une pose d'une main suivie où un nuage de points tridimensionnel (3D) de cette main capturée par le système d'imagerie a un agencement spécifique correspondant à une pose spécifique. La détection de cette pose est effectuée en utilisant des classifieurs et des techniques d’apprentissage machine pour le traitement d'images et la vision par ordinateur. L'un quelconque d'un réseau de neurones, d'un classifieur SVM ou d'un classifieur Random Forest (forêts aléatoires) (ou d'autres classifieurs appropriés) fonctionne bien, c'est-à-dire a un taux de détection supérieur à 85 %, avec un ensemble de gestes tridimensionnels spécifiques prédéfinis et de descripteurs appropriés.For example, a predetermined specific gesture may be a three-dimensional gesture based on a one-handed pose followed where a three-dimensional point cloud (3D) of that hand captured by the imaging system has a specific arrangement corresponding to a specific pose. Detection of this pose is performed using classifiers and machine learning techniques for image processing and computer vision. Any of a neural network, an SVM classifier, or a Random Forest classifier (or other appropriate classifiers) works well, i.e., at a detection rate greater than 85%, with a set of predefined three-dimensional gestures and appropriate descriptors.

Le geste spécifique prédéterminé peut être un geste tridimensionnel basé sur un mouvement d’une main suivie où un nuage de points en 3D de cette main capturée par le système d'imagerie, ou au moins un point d'intérêt associé, tel que, sans toutefois y être limité, un point correspondant à un point de centrage de paume de main ou à un bout de doigt, démontre l'exécution d'un mouvement dynamique spécifique dans l'espace, dont le chemin tridimensionnel associé est analysé statistiquement pour déterminer, à partir d'un ensemble de descripteurs, la forme qui a été réalisée. Chaque forme peut être associée à un geste tridimensionnel. Par exemple, si le mouvement d'une main suivie en mouvement effectue un mouvement circulaire à l’intérieur d'une zone prédéterminée dans le tronc de cône du système d'imagerie, un geste en forme de cercle peut en conséquence être détecté. Il est à noter que la qualité des descripteurs est décisive. Un descripteur d'objet pertinent de grande qualité peut être sa vitesse moyenne au cours du temps, un ensemble de positions où le mouvement tel que démontré est un changement de direction le long d'un des axes d'un système de coordonnées, l'accélération, une durée, la taille du mouvement, etc.The predetermined specific gesture may be a three-dimensional gesture based on a movement of a hand followed where a 3D point cloud of that hand captured by the imaging system, or at least one associated point of interest, such as, without however, to be limited to this, a point corresponding to a palm center point or a fingertip, demonstrates the execution of a specific dynamic motion in space, whose associated three-dimensional path is statistically analyzed to determine, from a set of descriptors, the form that has been realized. Each form can be associated with a three-dimensional gesture. For example, if the movement of a moving hand moves circularly within a predetermined area in the truncated cone of the imaging system, a circle-like gesture can be detected. It should be noted that the quality of the descriptors is decisive. A relevant high quality object descriptor may be its average velocity over time, a set of positions where the motion as demonstrated is a change of direction along one of the axes of a coordinate system, the acceleration, duration, movement size, etc.

Les gestes tridimensionnels basés sur un mouvement et les gestes tridimensionnels basés sur une pose sont appelés conjointement ci-après geste tridimensionnel. Ils peuvent être effectués et donc détectés en même temps et, par conséquent, ils peuvent déclencher une commande de contrôle si le système interactif le permet. En pratique, la sélection de l'un ou de l'autre est prédéterminée spécifiquement pour chaque type d'interaction. Par exemple, une main se déplaçant rapidement de gauche à droite dans la scène peut déclencher une commande de contrôle de "balayage" de droite si l'application le permet. Dans un tel cas, par exemple, un contenu multimédia peut être remplacé par un autre contenu. Dans un autre exemple, si la détection d'un geste tridimensionnel de "saisie" basé sur une pose est effectuée à un endroit spécifique sur une représentation d'une barre de défilement ou d'un bouton de l'interface utilisateur graphique (GUI) et que ce geste de "saisie" est maintenu pendant que la position de la main se déplace le long de l'axe de la barre de défilement de la GUI, la représentation de la barre de défilement ou du bouton se déplacera et le contenu affiché, comme une carte, défilera en conséquence jusqu'à ce que le geste de "saisie" soit détecté comme étant relâché ou comme n'étant plus effectué.Three-dimensional gestures based on motion and three-dimensional gestures based on a pose are jointly referred to hereinafter as three-dimensional gesture. They can be performed and therefore detected at the same time and, therefore, they can trigger a control command if the interactive system allows it. In practice, the selection of one or the other is predetermined specifically for each type of interaction. For example, a hand moving rapidly from left to right in the scene may trigger a right "scan" control command if the application allows it. In such a case, for example, multimedia content may be replaced by other content. In another example, if the detection of a three-dimensional gesture of "capture" based on a pose is performed at a specific location on a representation of a scrollbar or a button of the graphical user interface (GUI) and that this "grabbing" gesture is maintained while the hand position moves along the GUI scrollbar axis, the scrollbar or button representation will move and the displayed content , like a map, will scroll accordingly until the "capture" gesture is detected as released or no longer performed.

La détection de l’exécution d'un geste tactile se fait par rapport à une zone interactive prédéterminée sur la surface d'interaction. Des gestes tactiles multipoints sont déterminés de la même façon mais sont relatifs à une pluralité de zones interactives de la surface d'interaction. La détection comprend le suivi d'une position tridimensionnelle, par rapport au temps ou au cours du temps, d’au moins une partie d'au moins un objet suivi. Elle comprend en outre l'étape de détermination continue de la distance de chaque partie suivie de l'objet, qui peut être le bout d'un doigt d'une main, par rapport à la zone interactive la plus proche prédéterminée sur la surface d’interaction. Elle comprend en outre l'étape de déclenchement de l'événement du geste tactile ou du geste tactile multipoint au niveau de chaque zone interactive où au moins une partie de l'objet suivi a sa distance par rapport à la zone interactive en dessous d'un seuil prédéterminé, par exemple, le seuil peut être 0,1 mm, ou si la distance est égale à zéro (0). Chaque geste tactile unique déclenche une commande de contrôle en fonction de la zone interactive avec laquelle il est associé ou à laquelle il appartient.The detection of the execution of a tactile gesture is done with respect to a predetermined interactive zone on the interaction surface. Multipoint gestures are determined in the same way but relate to a plurality of interactive areas of the interaction surface. Detection includes tracking a three-dimensional position, relative to time or over time, of at least a portion of at least one tracked object. It further comprises the step of continuously determining the distance of each part followed by the object, which may be the tip of a finger of a hand, with respect to the predetermined closest interactive zone on the surface of 'interaction. It further comprises the step of triggering the touch gesture event or the multipoint touch gesture at each interactive area where at least a portion of the tracked object has its distance from the interactive area below a predetermined threshold, for example, the threshold may be 0.1 mm, or if the distance is zero (0). Each single touch gesture triggers a control command based on the interactive area with which it is associated or to which it belongs.

Par exemple, un contrôle simultané utilisant des gestes tactiles multipoints peut être permis avec une GUI affichant un clavier dans lequel trois gestes tactiles simultanés sur la GUI et leurs zones interactives associées correspondent au bouton “CTRL”, au bouton “ALT” et au bouton “DEL”, et qui, quand ils sont effectués ensemble, activent une commande de contrôle pour afficher un nouveau menu.For example, a simultaneous control using multi-touch gestures can be enabled with a GUI displaying a keyboard in which three simultaneous touch gestures on the GUI and their associated interactive zones correspond to the "CTRL" button, the "ALT" button and the "ALT" button. LED ", and when done together, activate a control command to display a new menu.

Un contrôle simultané utilisant une combinaison d'au moins deux gestes du même mode ou de différents modes est également possible, par exemple, un contrôle tactile multipoint effectué avec une main pendant que l'autre main effectue un geste tridimensionnel basé sur un mouvement. Des combinaisons séquentielles de différents modes d'interaction de gestes peuvent aussi être permises.Simultaneous control using a combination of at least two gestures of the same mode or different modes is also possible, for example, a multipoint touch control performed with one hand while the other hand performs a three-dimensional movement-based gesture. Sequential combinations of different modes of gesture interaction may also be permitted.

La présente invention est caractérisée en ce qu'elle utilise un système d'interaction ne comprenant qu'un système de détection comme fournisseur d'informations de données au moyen de calcul ou processeur qui détermine les deux différents modes d'interaction, à savoir les interactions de gestes tactiles et les interactions de gestes non tactiles. Les interactions de gestes non tactiles peuvent aussi être appelées ci-après "gestes sans contact", "gestes tridimensionnels (3D)” ou "gestes tridimensionnels (3D) non tactiles".The present invention is characterized in that it uses an interaction system comprising only a detection system as a data information provider by means of calculation or processor which determines the two different modes of interaction, namely the Interactions of tactile gestures and interactions of non-tactile gestures. The interactions of non-tactile gestures can also be called "contactless gestures", "three-dimensional gestures (3D)" or "three-dimensional gestures (3D) non-tactile".

Comme décrit ci-dessus, la GUI affichée peut comprendre une pluralité de paramètres qui peuvent être associés contextuellement à au moins un moyen de contrôle d'interaction. Un moyen de contrôle d'interaction est une instruction de système informatisé qui effectuera un calcul prédéterminé quand elle est déclenchée. Le résultat du calcul prédéterminé peut éventuellement être fourni comme information de retour selon le moyen de retour du système informatisé, en utilisant au moins le retour visuel graphique de la GUI, et éventuellement des retours audio, si un système de rendu audio est inclus dans le système interactif multimodal. Par exemple, un bouton sur une interface utilisateur peut être associé à une opération "fermer fenêtre" ou une action "lire multimédia" que le système informatisé effectuera. Si une interaction d'utilisateur déclenche le début de cette opération, le système informatisé effectuera la fermeture des fenêtres ouvertes et son rendu sur la GUI et lancera le lecteur multimédia générant un retour audio par l'intermédiaire d’un système audio, tandis que la GUI affichera et actualiser l'état d'une barre de progression du lecteur multimédia.As described above, the displayed GUI may include a plurality of parameters that may be contextually associated with at least one interaction control means. An interaction control means is a computerized system instruction that will perform a predetermined calculation when it is triggered. The result of the predetermined calculation may optionally be provided as feedback information according to the return means of the computerized system, using at least the graphic visual feedback of the GUI, and possibly audio returns, if an audio rendering system is included in the system. multimodal interactive system. For example, a button on a user interface may be associated with a "close window" operation or a "play multimedia" action that the computer system will perform. If a user interaction triggers the start of this operation, the computerized system will close the open windows and render it on the GUI and launch the media player generating audio feedback through an audio system, while the GUI will display and refresh the status of a progress bar of the media player.

Chaque paramètre sera contrôlé par une interaction d'utilisateur qui peut être associée à au moins une zone interactive prédéterminée sur la surface de la surface d'interaction avec laquelle l'utilisateur est censé interagir.Each parameter will be controlled by a user interaction that may be associated with at least one predetermined interactive area on the surface of the interaction surface with which the user is expected to interact.

Chaque zone interactive ainsi définie est destinée à être utilisée avec des interactions de gestes tactiles. De préférence, la zone associée à un paramètre sera d'une taille correspondant à la représentation rendue de ce paramètre sur la surface d'interaction. Cela empêche de déclencher une interaction basée sur un geste, laquelle appartient à un paramètre voisin, si les paramètres sont trop proches l'un de l'autre. Cependant, à des fins de facilité d'utilisation, certains paramètres peuvent avoir contextuellement une zone interactive de taille différente (soit plus petite, soit plus grande) que leur représentation graphique sur la surface d'interaction.Each interactive zone thus defined is intended to be used with tactile gesture interactions. Preferably, the area associated with a parameter will be of a size corresponding to the rendered representation of this parameter on the interaction surface. This prevents triggering an interaction based on a gesture, which belongs to a neighboring parameter, if the parameters are too close to each other. However, for ease-of-use purposes, some parameters may contextually have an interactive area of different size (either smaller or larger) than their graphical representation on the interaction surface.

De manière similaire, chaque paramètre, ou un sous-paramètre de ce paramètre qui sera contrôlé par les interactions d'utilisateur peut être associé à au moins un volume interactif prédéterminé, c'est-à-dire une zone interactive tridimensionnelle dont la position est de préférence au-dessus de la zone interactive d'un retour visuel rendu sur la surface d'interaction. La taille, la position et la forme du volume interactif peuvent être contextuellement prédéfinies selon l'interaction supportée par l'application. Les contrôles de volume interactif sont de préférence destinés à être utilisés avec des interactions de gestes tridimensionnels.Similarly, each parameter, or a sub-parameter of this parameter that will be controlled by the user interactions can be associated with at least one predetermined interactive volume, i.e., a three-dimensional interactive area whose position is preferably above the interactive area a visual feedback made on the interaction surface. The size, position, and shape of the interactive volume can be contextually predefined depending on the interaction supported by the application. Interactive volume controls are preferably intended for use with three-dimensional gesture interactions.

Par exemple, un volume interactif peut être associé au contrôle du volume d'un système audio. Le volume interactif peut être situé au-dessus d'une représentation de haut-parleur affichée sur la GUI. Quand l’utilisateur effectue une interaction tactile, en utilisant au moins une partie de sa main, avec la zone interactive sur la surface d'interaction associée à la représentation de haut-parleur, la zone interactive ayant la taille de la représentation de haut-parleur, le système informatisé reçoit l'instruction qu'une interaction de contrôle du volume commence. Le déplacement de la main de l'utilisateur à la suite de l'interaction tactile constitue un contrôle d'interaction de geste tridimensionnel continu pour lequel la distance entre au moins une partie de la main, par exemple, la paume ou un doigt prédéterminé, et la surface de la zone interactive détermine la valeur du paramètre d'ajustement (ou de contrôle) du volume audio, c'est-à-dire que plus la main est distante (ou surélevée) de la surface d'interaction, plus le volume audio est élevé, et plus la main est proche (ou abaissée) de la surface d'interaction, plus le volume est faible.For example, an interactive volume can be associated with the volume control of an audio system. The interactive volume can be located above a speaker representation displayed on the GUI. When the user performs a tactile interaction, using at least a portion of his hand, with the interactive area on the interaction surface associated with the speaker representation, the interactive area having the size of the representation of loudspeaker. speaker, the computer system receives the instruction that a volume control interaction begins. The movement of the user's hand as a result of the tactile interaction constitutes a continuous three-dimensional gesture interaction control for which the distance between at least a portion of the hand, for example, the predetermined palm or finger, and the area of the interactive area determines the value of the adjustment (or control) parameter of the audio volume, i.e., the further the hand is distant (or elevated) from the interaction surface, the greater the audio volume is high, and the closer the hand is (or lower) to the interaction surface, the lower the volume.

Dans un mode de réalisation supplémentaire, la valeur du volume audio peut être continuellement ajustée comme fonction du mouvement de la main jusqu'à ce que la main sorte d'un volume interactif associé à la zone interactive, et donc au contrôle du volume audio. Dans un autre mode de réalisation, le volume audio peut être continuellement réglé comme fonction de la distance de la main à la surface d'interaction et fixé après une période de temps prédéterminée. Dans un autre mode de réalisation préféré, le volume audio peut être continuellement réglé comme fonction de la distance de la main à la surface d'interaction et fixé quand la main suivie, à l'intérieur du volume interactif, effectue un geste tridimensionnel prédéterminé, à savoir un geste statique ou une pose, tel qu'un geste de "pincement" ou de "saisie", où des doigts prédéterminés, par exemple, sans toutefois y être limité, l'index et le pouce, sont détectés comme s'approchant l'un de l'autre en dessous d’un seuil de distance prédéterminé. Dans un mode de réalisation, le seuil de distance peut être aussi bas que 1 mm.In a further embodiment, the audio volume value may be continuously adjusted as a function of the movement of the hand until the hand exits an interactive volume associated with the interactive zone, and therefore the audio volume control. In another embodiment, the audio volume may be continuously adjusted as a function of the distance from the hand to the interaction surface and set after a predetermined period of time. In another preferred embodiment, the audio volume may be continuously adjusted as a function of the distance from the hand to the interaction surface and fixed when the hand followed, within the interactive volume, performs a predetermined three-dimensional gesture, namely a static gesture or a pose, such as a gesture of "pinching" or "seizure", where predetermined fingers, for example, but not limited to, the index and the thumb, are detected as s' approaching each other below a predetermined distance threshold. In one embodiment, the distance threshold can be as low as 1 mm.

Dans ce dernier exemple, on comprendra que la représentation du haut-parleur sur la GUI est un paramètre de GUI dans une zone interactive associée à une opération d'interaction de démarrage du "contrôle du volume audio" déclenchée quand une interaction tactile est détectée et que l'interaction de volume est associée à un sous-paramètre de "contrôle de valeur audio" activé comme fonction de la détection d'une interaction subséquente prédéterminée de geste tridimensionnel.In this last example, it will be understood that the representation of the speaker on the GUI is a GUI parameter in an interactive zone associated with a start interaction operation of the "audio volume control" triggered when a touch interaction is detected and that the volume interaction is associated with an activated "audio value control" sub-parameter as a function of the detection of a predetermined subsequent three-dimensional gesture interaction.

Comme décrit dans le présent document, l'invention comprend un procédé comprenant le suivi d'au moins une partie d'au moins un objet à l'intérieur du tronc de cône du système d'imagerie tridimensionnelle. L'objet peut être une main et une partie de l'objet peut être un doigt ou un bout de doigt. On se rendra compte que la détection et le suivi de points d'intérêt n'est pas le but de la présente invention et que plusieurs techniques peuvent être appliquées pour obtenir un apport requis similaire. Par exemple, dès que la configuration du système interactif est réglée, une technique d’apprentissage en arrière-plan statique peut être appliquée pour enregistrer l'arrière-plan d'une scène capturée, et une technique d'élimination de l'arrière-plan, tel qu'une soustraction d’image de profondeur morpho-mathématique, peut être appliquée lors de l'exécution pour dissocier, trame par trame, des objets d'intérêt en mouvement à l’avant-plan d'une scène capturée de l'arrière-plan statique. En ce qui concerne l'acquisition d'une carte de profondeur du dispositif capteur d'imagerie, un nuage de points en 3D de la main d'un utilisateur peut être obtenu. Une technique de mise en grappes de nuages de points en 3D contrainte par la taille des grappes peut alors être appliquée sur les points d'avant-plan correspondant à la main et un graphe d'adjacence utilisé pour déterminer des extrémités en détectant quelles grappes sont connectées à une seule autre grappe. L'identification et le suivi d'objets, ou de parties d'objets, peuvent être effectués efficacement en utilisant des techniques de classification, telles que le classifieur Random Forest, si elles sont appliquées à des données adéquatement segmentées en utilisant, par exemple, un mélange de mises en grappes par K-moyennes et meneur-suiveur. Combiner l'élimination de l'arrière-plan avec des techniques de mise en grappes et de classifieurs fournit une manière de détecter, suivre et identifier chaque partie d'un objet connu avec des formes 3D connues ou apprises destinées à être utilisées pour l'interaction.As described herein, the invention includes a method comprising tracking at least a portion of at least one object within the truncated cone of the three-dimensional imaging system. The object can be a hand and part of the object can be a finger or a fingertip. It will be appreciated that the detection and tracking of points of interest is not the object of the present invention and that several techniques can be applied to achieve a similar required input. For example, as soon as the interactive system configuration is set, a static background learning technique can be applied to record the background of a captured scene, and a rearward elimination technique. plane, such as a morpho-mathematical depth image subtraction, can be applied at runtime to dissociate, frame by field, moving objects of interest in the foreground of a captured scene from the static background. With respect to the acquisition of a depth map of the imaging sensor device, a 3D point cloud of a user's hand can be obtained. A cluster-constrained 3D clustering technique can then be applied to the foreground points corresponding to the hand and an adjacency graph used to determine extremes by detecting which clusters are connected to only one other cluster. The identification and tracking of objects, or portions of objects, can be efficiently performed using classification techniques, such as the Random Forest classifier, if applied to properly segmented data using, for example, a mix of K-averaged clustering and leader-follower. Combining background removal with clustering and classifier techniques provides a way to detect, track, and identify each part of a known object with known or learned 3D shapes for use in interaction.

Si le procédé d'interaction est compatible avec un quelconque type de système d'affichage ayant au moins un écran d'affichage, une pluralité d’affichages peuvent être utilisés en combinaison, comme par exemple, comme montré sur la figure 1 où un écran d'affichage conventionnel 110 tel qu'un écran LCD est associé à une surface d'interaction 120 sur laquelle une GUI peut être affichée en utilisant des moyens de projection. Des interactions basées sur des gestes peuvent permettre à un utilisateur de transférer des paramètres, tels qu'un contenu multimédia, de la GUI d'un écran d'affichage à la GUI de l'autre. Plus précisément, la commande de transfert peut être déclenchée après qu'un geste tactile a été détecté à l'endroit où le paramètre était affiché sur une première GUI, amorçant l'interaction qui peut ensuite être permise et effectuée en détectant l'accomplissement d'une séquence de gestes de "saisie - glissement - relâchement" en direction de la deuxième GUI à laquelle le paramètre de contenu sera transféré.If the interaction method is compatible with any type of display system having at least one display screen, a plurality of displays may be used in combination, such as, for example, as shown in Fig. 1 where a display Conventional display 110 such as an LCD screen is associated with an interaction surface 120 on which a GUI can be displayed using projection means. Gesture-based interactions may allow a user to transfer parameters, such as multimedia content, from the GUI of one display screen to the GUI of the other. Specifically, the transfer control may be triggered after a touch gesture has been detected at the location where the parameter was displayed on a first GUI, initiating the interaction that can then be enabled and performed by detecting the completion of the interaction. a sequence of "drag-and-drop" gestures toward the second GUI to which the content parameter will be transferred.

Dans un mode de réalisation préféré de la présente invention, la GUI est affichée en utilisant un seul système d'affichage en raison de l'utilisation du moyen de projection, tel qu'un projecteur ou un pico-projecteur, qui fournit un retour visuel à l'utilisateur pendant l'interaction. Cela est illustré sur les figures 5 et 6 ci-dessous et décrit en référence à celles-ci.In a preferred embodiment of the present invention, the GUI is displayed using a single display system due to the use of the projection means, such as a projector or pico-projector, which provides visual feedback. to the user during the interaction. This is illustrated in Figures 5 and 6 below and described with reference thereto.

La projection peut être effectuée sur une grande variété de surfaces et matériaux. Le terme "surface" tel qu’utilisé dans le présent document se réfère à une quelconque surface sur laquelle des images peuvent être projetées. Les surfaces appropriées incluent, sans toutefois y être limitées, des écrans, des surfaces plates, des surfaces incurvées et des surfaces transparentes.The projection can be performed on a wide variety of surfaces and materials. The term "surface" as used herein refers to any surface on which images can be projected. Suitable surfaces include, but are not limited to, screens, flat surfaces, curved surfaces, and transparent surfaces.

Dans le mode de réalisation le plus simple de la présente invention, la GUI peut être projetée sur un plateau plan de bureau ou sur une paroi plate qui sera utilisée comme support d'affichage définissant la surface d'interaction homme-ordinateur. Cependant, la GUI peut aussi être projetée sur des surfaces non planes, telles qu'un objet ayant des formes circulaires, par exemple un ballon, ou une partie d'un corps d'un utilisateur, telle qu'un avant-bras ou la partie intérieure d'une paume de main.In the simplest embodiment of the present invention, the GUI may be projected onto a desktop flatbed or flat wall that will be used as a display medium defining the human-computer interaction surface. However, the GUI can also be projected onto non-planar surfaces, such as an object having circular shapes, for example a balloon, or a part of a user's body, such as a forearm or the inner part of a palm of a hand.

Dans un mode de réalisation préféré, le matériel utilisé comme écran d'affichage et surface d'interaction peut présenter des propriétés de diffusion substantielles pour un rayonnement électromagnétique ayant des longueurs d'onde dans la partie visible (par l'homme) du spectre électromagnétique. Des propriétés de diffusion substantielles signifient que le matériel diffuse au moins dix pour-cent (10%) de la lumière incidente pour permettre un rendu adéquat du retour visuel à afficher. L'énergie lumineuse émise par le système de projection peut être adaptée en conséquence.In a preferred embodiment, the hardware used as a display screen and interaction surface may exhibit substantial scattering properties for electromagnetic radiation having wavelengths in the visible (human) portion of the electromagnetic spectrum . Substantial diffusion properties mean that the material diffuses at least ten percent (10%) of the incident light to allow adequate rendering of the visual feedback to be displayed. The light energy emitted by the projection system can be adapted accordingly.

De préférence, un rayonnement électromagnétique appartenant au faisceau de lumière incidente ayant une plage de longueurs d'onde entre 400 nm et 680 nm peut être diffusé de façon "lambertienne", c'est-à-dire de manière homogène pour tous les angles de réflexion possibles quand l'utilisateur est du même côté de la surface d'interaction que le moyen de projection ou pour tous les angles de transmission possibles quand l'utilisateur est sur le côté opposé de la surface d'interaction à celui du moyen de projection.Preferably, electromagnetic radiation belonging to the incident light beam having a wavelength range between 400 nm and 680 nm can be scattered in a "lambertian" manner, that is to say in a homogeneous manner for all angles of possible reflection when the user is on the same side of the interaction surface as the projection means or for all possible transmission angles when the user is on the opposite side of the interaction surface to that of the projection means .

La réflectance lambertienne est une propriété qui définit une surface ''matte" ou à réflexion diffuse idéale. La brillance apparente d'une telle surface pour un observateur est la même quel que soit l'angle de vue de l'observateur. Plus spécifiquement, la luminance de la surface est isotrope et, l'intensité lumineuse obéit à la loi du cosinus de Lambert.Lambertian reflectance is a property that defines an ideal "matte" or diffuse reflection surface, and the apparent brightness of such a surface for an observer is the same regardless of the viewer's angle of view. the luminance of the surface is isotropic and the luminous intensity obeys Lambert's law of cosine.

Dans un mode de réalisation encore plus préféré de la présente invention, le rayonnement électromagnétique du faisceau incident de lumière projetée ayant une longueur d’onde supérieure à 680 nm, c'est-à-dire dans le domaine infrarouge, peut être transmis avec un taux élevé du coefficient de transmission (par exemple supérieur à 20 %) et sans diffusion substantielle, c’est-à-dire, dans les limites d'un angle solide de moins de 20 degrés quand l'utilisateur est positionné sur le côté opposé de la surface d'interaction par rapport à la caméra tridimensionnelle. Quand l'utilisateur est positionné du même côté de la surface d'interaction que la caméra tridimensionnelle, un matériel avec un faible taux du coefficient de réflexion infrarouge (IR) de moins de 20 % est préféré tout en présentant un taux de diffusion élevé substantiel de plus de 60 degrés d’angle solide pour éviter la réflexion spéculaire IR dans le système d'imagerie qui est capable de détruire la fiabilité des valeurs de mesure de profondeur.In an even more preferred embodiment of the present invention, the electromagnetic radiation of the incident beam of projected light having a wavelength greater than 680 nm, i.e., in the infrared range, may be transmitted with a high transmission coefficient (eg greater than 20%) and no substantial diffusion, ie, within a solid angle of less than 20 degrees when the user is positioned on the opposite side of the interaction surface with respect to the three-dimensional camera. When the user is positioned on the same side of the interaction surface as the three-dimensional camera, material with a low infrared reflectance (IR) ratio of less than 20% is preferred while having a substantial high diffusion rate. more than 60 degrees of solid angle to avoid specular IR reflection in the imaging system that is capable of destroying the reliability of the depth measurement values.

Le présent système destiné à permettre des interactions basées sur des gestes humains tactiles et non tactiles multimodaux avec un système informatisé est caractérisé en ce qu'il comprend un seul système de détection. Le seul système de détection tel qu'utilisé ici comme fournisseur d'informations de données comprend un système de détection tridimensionnelle, par exemple un système de détection tridimensionnelle peut être un système d'imagerie ou une caméra tridimensionnelle (3D). De préférence, le présent système informatisé interactif basé sur des gestes humains tactiles et non tactiles multimodaux fera usage d'une caméra 3D utilisant l'éclairage IR de la scène pour obtenir de meilleures mesures de profondeur. Une caméra 3D IR passive, tel qu'une caméra 3D à vision stéréo ou lumière structurée, peut être appropriée avec le système informatisé, cependant, des caméras 3D basées sur un éclairage actif, tel que des caméras à détection de profondeur ou temps de vol (ToF) sont préférées. Encore mieux, le système d'imagerie peut en outre incorporer une caméra 3D conjointement avec une caméra en couleur d'une résolution similaire ou supérieure. La caméra à détection de profondeur ou ToF et la caméra en couleur ont chacune un tronc de cône qui au moins se chevauchent réciproquement et qui permettront de capturer toute la surface d'interaction dans laquelle des mouvements et des gestes d'au moins une partie d'au moins une main ou un objet peuvent être détectés, suivis et utilisés pour déterminer des paramètres de contrôle de la GUI projetée.The present system for enabling interactions based on tactile and non-tactile multimodal human gestures with a computerized system is characterized in that it comprises a single detection system. The only detection system as used herein as a data information provider comprises a three-dimensional detection system, for example a three-dimensional detection system may be an imaging system or a three-dimensional (3D) camera. Preferably, the present interactive computer system based on multimodal tactile and non-tactile human gestures will make use of a 3D camera using the IR lighting of the scene to obtain better depth measurements. A passive 3D IR camera, such as a 3D camera with stereo vision or structured light, may be appropriate with the computerized system, however, 3D cameras based on active lighting, such as depth detection cameras or flight time (ToF) are preferred. Even better, the imaging system may further incorporate a 3D camera together with a color camera of similar or higher resolution. The depth detection camera or ToF and the color camera each have a truncated cone that at least overlap each other and that will capture the entire interaction surface in which movements and gestures of at least a part of at least one hand or object can be detected, tracked and used to determine control parameters of the projected GUI.

Le terme "tronc de cône” tel qu'utilisé dans le présent document se réfère au champ de vision de l'élément d'imagerie, par exemple, un volume conique s'étendant d'une lentille à une surface. Il se réfère également à une vue d'une image projetée à partir d'un projecteur, par exemple, un cône s'étendant de la lentille du projecteur à une surface. Dans chaque cas, la zone sur la surface peut être définie par une ellipse, un cercle ou un rectangle, si la projection est collimatée de la même façon.The term "truncated cone" as used herein refers to the field of view of the imaging element, for example, a conical volume extending from a lens to a surface. to a view of an image projected from a projector, for example, a cone extending from the projector lens to a surface In each case, the area on the surface can be defined by an ellipse, a circle or a rectangle, if the projection is collimated in the same way.

Les termes "caméra tridimensionnelle", "caméra à détection de profondeur" ou "caméra temps de vol (ToF)" tels qu'utilisés dans le présent document se réfèrent à une caméra vidéo ou un appareil photographique qui fournit des coordonnées tridimensionnelles pour chaque pixel dans une image d'une scène capturée. Deux des dimensions (X et Y) sont déterminées par un plan X-Y qui est normal à un axe de la caméra, et la troisième dimension (Z) est une distance du pixel de la caméra à la surface imagée. Une telle caméra produit un nuage de points tridimensionnel où chaque point dans le nuage correspond à un pixel ayant des coordonnées tridimensionnelles. Le nuage de points en 3D ou la carte de profondeur correspondante fournit des valeurs corrélées avec le système de coordonnées de la caméra et corrélées avec le système de coordonnées de la surface d'interaction (ou mondiales) quand un procédé d'étalonnage de l'état de la technique est utilisé pour appliquer une matrice de transformation pour projeter des valeurs de données d'un système de coordonnées dans l'autre.The terms "three-dimensional camera", "depth-sensing camera" or "flight-time camera (ToF)" as used herein refer to a video camera or a camera that provides three-dimensional coordinates for each pixel in an image of a captured scene. Two of the dimensions (X and Y) are determined by an X-Y plane that is normal to an axis of the camera, and the third dimension (Z) is a distance from the pixel of the camera to the imaged surface. Such a camera produces a three-dimensional point cloud where each point in the cloud corresponds to a pixel having three-dimensional coordinates. The 3D point cloud or corresponding depth map provides values correlated with the camera coordinate system and correlated with the interaction surface (or global) coordinate system when a calibration method of the state of the art is used to apply a transformation matrix to project data values from one coordinate system into the other.

De plus, les termes "caméra en couleur" ou "caméra RGB" tels qu'utilisés dans le présent document se réfèrent à une caméra vidéo ou un appareil photographique qui fournit des images en couleur d'une scène capturée. Une telle caméra produit une image en couleur bidimensionnelle pour chaque pixel dans la scène capturée. La caméra en couleur et la caméra tridimensionnelle associent chaque valeur de mesure de profondeur (s'il y a référence au système de coordonnées de la caméra) ou point 3D (s'il y a référence au système de coordonnées mondiales) à une couleur quand il est fait usage de techniques d'enregistrement d'images de l'état de la technique. Dans un mode de réalisation, le système d'imagerie comprenant au moins une caméra tridimensionnelle pour extraire des informations de profondeur de la scène et une caméra en couleur d'une plus haute résolution. La résolution plus élevée de l'unité de détection de couleur qui donne une image de la même scène que l'unité de détection de profondeur peut être utilisée pour la localisation et la détermination précises de gestes tactiles sur une surface d'interaction affichant l'interface utilisateur graphique. Des techniques conventionnelles d'enregistrement d'images peuvent être utilisées pour associer chaque pixel détecteur de profondeur avec chaque pixel détecteur de couleur, la résolution plus élevée de l'unité de détection de couleur étant utilisée pour affiner des positions X-Y brutes obtenues de la caméra à détection de profondeur à plus faible résolution pour fournir une position X-Y plus précise sur la surface d'affichage qui est également de résolution élevée.In addition, the terms "color camera" or "RGB camera" as used herein refer to a video camera or a camera that provides color images of a captured scene. Such a camera produces a two-dimensional color image for each pixel in the captured scene. The color camera and the three-dimensional camera associate each depth measurement value (if there is reference to the camera's coordinate system) or 3D point (if there is reference to the global coordinate system) to a color when state-of-the-art image recording techniques are used. In one embodiment, the imaging system includes at least one three-dimensional camera for extracting depth information from the scene and a color camera of a higher resolution. The higher resolution of the color detection unit that gives an image of the same scene as the depth detection unit can be used for the precise location and determination of touch gestures on an interaction surface displaying the graphical user interface. Conventional image recording techniques may be used to associate each depth detector pixel with each color detector pixel, the higher resolution of the color detection unit being used to refine raw XY positions obtained from the camera at lower resolution depth detection to provide a more accurate XY position on the display surface which is also of high resolution.

La présente invention sera à présent décrite de manière plus détaillée ci-après en rapport avec les figures 1 à 6 qui concernent des modes de réalisation spécifiques englobant la portée de la présente invention.The present invention will now be described in more detail hereinafter with reference to Figs. 1 to 6 which relate to specific embodiments encompassing the scope of the present invention.

Le procédé de la présente invention comprend la détection de l'exécution d'un geste tactile par rapport à une zone interactive prédéterminée sur la surface d'interaction. Il comprend aussi une étape de prédétermination des zones interactives contextuellement avec une interface utilisateur graphique à afficher et les commandes de contrôle permises pour interagir avec elle. Lors d'une étape préliminaire, la surface d'interaction est détectée et au moins une de sa position, forme et topologie, c'est-à-dire la modélisation de la surface est enregistrée.The method of the present invention includes detecting the execution of a touch gesture with respect to a predetermined interactive area on the interaction surface. It also includes a step of predetermining the interactive areas contextually with a graphical user interface to be displayed and the control commands allowed to interact with it. During a preliminary step, the interaction surface is detected and at least one of its position, shape and topology, that is to say the modeling of the surface is recorded.

Selon le système exploitant le procédé, la détection de la surface d'interaction peut être effectuée une fois, par exemple, au démarrage du système interactif basé sur des gestes multimodaux quand la surface d'interaction est fixe, c'est-à-dire, non mobile, et d’une forme connue, telle qu'un panneau plat, un bureau ou une surface, le processus de détection peut être effectué manuellement ou automatiquement. Quand la surface d'interaction est capable de bouger et d’avoir une forme variable, par exemple quand la surface d'interaction est un avant-bras d'un utilisateur, la détection doit être effectuée automatiquement en temps réel.According to the system operating the method, the detection of the interaction surface can be performed once, for example, at the start of the interactive system based on multimodal gestures when the interaction surface is fixed, that is to say , non-mobile, and of a known form, such as a flat panel, a desk or a surface, the detection process can be performed manually or automatically. When the interaction surface is able to move and have a variable shape, for example when the interaction surface is a forearm of a user, the detection must be performed automatically in real time.

Dans un premier mode de réalisation dans lequel la détection est effectuée manuellement avec une surface plate statique disposée dans l'espace dans le système de sorte que sa surface est à l'intérieur du tronc de cône du système d'imagerie, l'utilisateur du système interactif peut, lors une première étape, utiliser une simple feuille de papier blanc placée sur le dessus de la surface, dont la taille est définie pour être de la taille de la surface d’interaction. La feuille de papier blanc réfléchit l'éclairage IR d'une caméra IR active à détection de profondeur, par exemple une caméra tridimensionnelle ToF. Cependant, si la propriété de réflexion d'IR de la surface, sans la feuille de papier blanc, est suffisamment forte, c'est-à-dire au moins 20 % de la lumière incidente, la feuille de papier blanc n'est pas obligatoire.In a first embodiment in which the detection is carried out manually with a static flat surface disposed in the space in the system so that its surface is inside the truncated cone of the imaging system, the user of the The interactive system may, in a first step, use a simple sheet of white paper placed on top of the surface, the size of which is defined to be the size of the interaction surface. The white sheet of paper reflects the IR illumination of an active IR depth-detecting camera, for example a three-dimensional ToF camera. However, if the IR reflection property of the surface, without the white paper sheet, is strong enough, that is to say at least 20% of the incident light, the white paper sheet is not mandatory.

Lors d'une deuxième étape, la distance de la surface d'interaction désignée au système de détection est mesurée en utilisant le système de détection. Les données de profondeur acquises peuvent être utilisées lors d'une troisième étape utilisant des procédés de vision par ordinateur pour déterminer un plan dans l'ensemble de données 3D, le nuage de points en 3D ou la carte de profondeur acquis. Des méthodes de détection de plan, telles que des algorithmes conventionnels d'ajustement de plan, par exemple plan des moindres carrés en 3D par exemple, Ransac ou tout autre méthode basée sur l'algèbre linéaire peuvent être utilisées. L'entrée requise pour déterminer les propriétés géométriques du plan doit comprendre au moins quatre points répartis sur la surface de la surface d'interaction. De préférence, si ces points sont limités au nombre de quatre, ils doivent être choisis comme les coins de la surface d'interaction. Une fois le plan déterminé, chacun de ses points peut être situé comme fonction de leur distance par rapport au système d'imagerie, et comme une fonction par rapport à un quelconque point à l'intérieur du tronc de cône du système d'imagerie. Les mesures de profondeur, fournissant des mesures de distance réelle, peuvent être utilisées comme critères pour déterminer des seuils à utiliser à des fins de reconnaissance de gestes lors d’une étape subséquente.In a second step, the distance from the designated interaction area to the detection system is measured using the detection system. The acquired depth data may be used in a third step using computer vision methods to determine a plane in the 3D data set, the 3D point cloud, or the acquired depth map. Plan detection methods, such as conventional plane adjustment algorithms, for example 3D least squares plane for example, Ransac or any other method based on linear algebra can be used. The input required to determine the geometric properties of the plane must include at least four points distributed over the surface of the interaction surface. Preferably, if these points are limited to the number of four, they should be chosen as the corners of the interaction surface. Once the plane is determined, each of its points can be located as a function of their distance from the imaging system, and as a function with respect to any point within the truncated cone of the imaging system. Depth measurements, providing actual distance measurements, can be used as criteria for determining thresholds to be used for gesture recognition purposes in a subsequent step.

De manière similaire, les mêmes étapes de détection et de détermination de la surface d'interaction peuvent être accomplies automatiquement avec une surface plate statique disposée dans l'espace dans le système afin que sa surface soit à l'intérieur du tronc de cône du système d'imagerie. Comme illustré sur la figure 3, la surface d'interaction plate peut comprendre un ensemble de quatre points hautement réfléchissants à l'éclairage IR qui remplacent les au moins quatre points mesurés sur la feuille de papier blanc des étapes de détection et de détermination manuelles, chaque point étant de nouveau situé dans un coin d'une zone définie pour être la surface d'interaction.Similarly, the same steps of detecting and determining the interaction surface can be performed automatically with a static flat surface disposed in the space in the system so that its surface is inside the truncated cone of the system. imaging. As illustrated in FIG. 3, the flat interaction surface may comprise a set of four highly reflective points in the IR illumination which replace the at least four points measured on the white paper sheet of the manual detection and determination steps, each point being again located in a corner of an area defined to be the interaction surface.

Dans une autre mise en œuvre manuelle de l'étape de détection et détermination de la surface d'interaction, l'ensemble de quatre points qui sont hautement réfléchissants à l'éclairage IR peuvent ne pas se trouver sur la surface d'interaction. L'utilisateur utilisera ses doigts pour localiser séquentiellement dans le temps les quatre coins de la surface d'interaction. Le système d'imagerie sera en plus activé pour détecter et suivre un bout de doigt spécifique et pour enregistrer séquentiellement la position tridimensionnelle dans l'espace de chacun des quatre coins.In another manual implementation of the detecting step and determining the interaction surface, the set of four points that are highly reflective to the IR illumination may not be on the interaction surface. The user will use his fingers to locate sequentially in time the four corners of the interaction surface. The imaging system will additionally be activated to detect and track a specific fingertip and sequentially record the three-dimensional position in the space of each of the four corners.

Dans l'une quelconque des mises en œuvre précédemment décrites, une déviation de, par exemple, 3 mm, peut être appliquée dans la direction verticale (Z) le long d'une normale au plan de la surface d'interaction.In any of the implementations previously described, a deflection of, for example, 3 mm, may be applied in the vertical direction (Z) along a normal to the plane of the interaction surface.

Cela fournit une compensation pour les problèmes de précision des mesures de profondeur du dispositif d'imagerie en 3D, et pour s'assurer qu'un objet en mouvement qui est détecté comme étant presque en contact avec la zone d'interaction, c'est-à-dire, par exemple, à une distance de 2 mm, peut encore être capable de déclencher un événement de geste tactile si possible.This provides compensation for the accuracy problems of depth measurements of the 3D imaging device, and to ensure that a moving object that is detected to be almost in contact with the interaction zone is ie, for example, at a distance of 2 mm, may still be able to trigger a touch gesture event if possible.

Dans un autre mode de réalisation de la présente invention où la position tridimensionnelle du projecteur est connue par rapport à la position de la caméra tridimensionnelle, par exemple s'ils sont tous les deux du même côté de la zone d'interaction, et s'ils sont statiquement incorporés dans un système matériel, tel qu'un ordinateur portable, un casque ou incorporés dans des lunettes intelligentes, le réglage des paramètres de projection, à savoir la mise au point, la distorsion trapézoïdale, la variation de focale, et la taille du modèle d'interface utilisateur graphique peuvent être automatiquement modifiés en extrayant la distance, la topologie et des informations géométriques relatives à une surface d'interaction potentiellement en mouvement pour adapter le rendu de la taille du modèle d'interface utilisateur graphique. Cela peut se faire par rétablissement d’une distorsion géométrique en utilisant des méthodes de triangulation.In another embodiment of the present invention where the three-dimensional position of the projector is known with respect to the position of the three-dimensional camera, for example if they are both on the same side of the interaction zone, and they are statically incorporated into a hardware system, such as a laptop, a headset or embedded in smart glasses, adjusting the projection parameters, namely focus, keystone distortion, zooming, and GUI model size can be automatically modified by extracting the distance, topology and geometric information relating to a potentially moving interaction surface to fit the rendering of the graphical user interface template size. This can be done by restoring geometric distortion using triangulation methods.

La détection et la détermination de la surface d'interaction et, celles de la surface d'affichage, peuvent être effectuées en continu même quand la surface d'affichage peut bouger par rapport au temps. Par exemple, quand la surface d'affichage est un objet spécifique ou une partie du corps d'un utilisateur, par exemple l'avant-bras ou la partie intérieure d'une paume, et si la caméra tridimensionnelle et le projecteur sont montés sur un casque ou dans des lunettes intelligentes, l'utilisation de moyens de traitement d'images tels que des techniques de reconnaissance de formes (motifs) ou de classifieurs, fournit une détection et un suivi fiables de l'avant-bras utilisé comme une surface d'interaction dans l’espace tridimensionnel. La position et l'orientation de l'avant-bras suivi peuvent en outre être déterminées par accumulation progressive d'un modèle topologique de l'objet en mouvement suivi en utilisant un quelconque algorithme de localisation et cartographie simultanées (SLAM) de l'état de la technique, le modèle topologique étant une représentation tridimensionnelle de la surface d'interaction, la position et l'orientation exactes de la représentation étant déterminées d'une trame à l'autre, et une quelconque position de la surface d'affichage peut être déterminée en utilisant de simples calculs géométriques tridimensionnels tels que la triangulation.Detection and determination of the interaction surface and those of the display surface can be performed continuously even when the display surface can move with respect to time. For example, when the display surface is a specific object or part of a user's body, for example the forearm or the inner part of a palm, and if the three-dimensional camera and the projector are mounted on a helmet or in smart glasses, the use of image processing means such as pattern recognition techniques or classifiers, provides reliable detection and tracking of the forearm used as a surface interaction in three-dimensional space. The position and orientation of the forearm tracked can further be determined by gradually accumulating a topological model of the moving object tracked using any of the simultaneous location and mapping algorithm (SLAM) of the state of the technique, the topological model being a three-dimensional representation of the interaction surface, the exact position and orientation of the representation being determined from frame to frame, and any position of the display surface may be to be determined using simple three-dimensional geometric calculations such as triangulation.

Nous référant pour commencer à la figure 1, une vue schématique de côté d'un système interactif 100 selon la présente invention y est montré. Le système 100 comprend un écran 110 positionné sur une surface 120 et une unité d'imagerie 130 associée à l'écran 110. L'écran 110 peut être un quelconque écran approprié qui peut être connecté à une source de données (non représentée) pour afficher des images. L'unité d'imagerie 130 est positionnée pour avoir un tronc de cône 140 qui s'étend jusqu'à la surface de support 120.Referring first to Figure 1, a schematic side view of an interactive system 100 according to the present invention is shown. The system 100 includes a screen 110 positioned on a surface 120 and an imaging unit 130 associated with the screen 110. The screen 110 may be any suitable screen that can be connected to a data source (not shown) for display images. The imaging unit 130 is positioned to have a truncated cone 140 that extends to the support surface 120.

Dans le mode de réalisation montré sur la figure 1, l’unité d'imagerie 130 est montée directement sur l'écran 110. Cependant, on se rendra facilement compte que l'unité d'imagerie 130 peut être montée d'une quelconque autre façon appropriée telle manière qu'elle ait le même tronc de cône 140 mais est soit incorporée soit montée séparément par rapport à l'écran. De plus, l'écran 110 est montré supporté par la surface 120. De nouveau, on se rendra compte que l'écran peut être supporté d'autres façons.In the embodiment shown in Fig. 1, the imaging unit 130 is mounted directly on the screen 110. However, it will be readily appreciated that the imaging unit 130 may be mounted of any other suitably so that it has the same truncated cone 140 but is either incorporated or mounted separately from the screen. In addition, the screen 110 is shown supported by the surface 120. Again, it will be appreciated that the screen can be supported in other ways.

La figure 2 montre une vue schématique de devant du système interactif 100. L'unité d'imagerie 130 comprend trois éléments d'imagerie 150, 160, 170 séparés. Bien que les éléments d’imagerie 150, 160, 170 soient montrés intégrés dans une seule unité d'imagerie 130, on se rendra compte que chacun de ces éléments peut être situé individuellement par rapport à l'écran 110 et par rapport à la surface 120 tout en offrant la même fonctionnalité comme cela sera décrit de manière plus détaillée ci-dessous. L'élément d'imagerie 150 peut comprendre une caméra en couleur ou RGB qui capture des images en couleur bidimensionnelles d'une scène à l'intérieur de son tronc de cône 180 (indiqué par deux lignes en trait-point-point-trait). L'élément d'imagerie 150 produit des images qui sont utilisées pour l'enregistrement d'images avec des images de l'élément d'imagerie 170, les deux se trouvant dans le système interactif de la présente invention, et comme décrit de manière plus détaillée ci-dessous. L'élément d'imagerie 170 peut comprendre une caméra à détection de profondeur ou ToF qui capture des images tridimensionnelles d'une scène à l'intérieur de son tronc de cône 190 (indiqué par deux lignes en trait-point-trait). Les images produites par l'élément d'imagerie 170, quand elles sont traitées, fournissent des informations de position tridimensionnelle pour des objets à l'intérieur de son tronc de cône 190 qui peuvent être utilisées à des fins d'interaction avec une interface utilisateur graphique (GUI) projetée sur la surface 120 comme cela sera décrit de manière plus détaillée ci-dessous. L'élément d'imagerie 160 comprend un projecteur qui est connecté au système informatisé. Il peut projeter les mêmes images fournies à l'écran 110 sur la surface 120. L'élément d'imagerie 160 projette les images dans un tronc de cône 200 (indiqué par deux lignes en traits interrompus). Dans un mode de réalisation, les images projetées sont des images en couleur comprenant une GUI avec au moins un paramètre qui est affiché sur la surface 120.Figure 2 shows a schematic front view of the interactive system 100. The imaging unit 130 includes three separate imaging elements 150, 160, 170. Although the imaging elements 150, 160, 170 are shown integrated in a single imaging unit 130, it will be appreciated that each of these elements can be located individually with respect to the screen 110 and with respect to the surface 120 while providing the same functionality as will be described in more detail below. The imaging element 150 may comprise a color or RGB camera that captures two-dimensional color images of a scene within its truncated cone 180 (indicated by two dot-dot-dot lines) . The imaging element 150 produces images that are used for image recording with images of the imaging element 170, both of which are in the interactive system of the present invention, and as described in detail. more detailed below. The imaging element 170 may include a depth-detecting camera or ToF that captures three-dimensional images of a scene within its truncated cone 190 (indicated by two dashed-dot-line lines). The images produced by the imaging element 170, when processed, provide three-dimensional position information for objects within its truncated cone 190 that can be used for interaction with a user interface. graph (GUI) projected on the surface 120 as will be described in more detail below. The imaging element 160 includes a projector that is connected to the computer system. It can project the same images supplied to the screen 110 on the surface 120. The imaging element 160 projects the images in a truncated cone 200 (indicated by two dashed lines). In one embodiment, the projected images are color images including a GUI with at least one parameter that is displayed on the surface 120.

Comme le montre la figure 2, il y a un chevauchement, sur la surface 120, des troncs de cône 180, 190, 200 de chacun des éléments d'imagerie 150, 160, 170.As shown in FIG. 2, there is an overlap, on the surface 120, of the truncated cones 180, 190, 200 of each of the imaging elements 150, 160, 170.

La figure 3 illustre une vue en plan de la surface 120 indiquant des zones qui sont à l'intérieur des troncs de cône des éléments d'imagerie 150, 170 avec la zone 200 sur laquelle l'élément d'imagerie 160 projette des images. Comme montré, chaque zone est encadrée par le même type de ligne que sur la figure 2 et comprend, par exemple, un rectangle. Naturellement, en fonction des éléments d'imagerie particuliers, les troncs de cône peuvent être différents, par exemple, une ellipse ou un cercle.Figure 3 illustrates a plan view of the surface 120 showing areas within the truncated cones of the imaging elements 150, 170 with the area 200 on which the imaging element 160 projects images. As shown, each zone is framed by the same type of line as in FIG. 2 and comprises, for example, a rectangle. Naturally, depending on the particular imaging elements, the truncated cones may be different, for example, an ellipse or a circle.

Comme le montre la figure 3, une zone 210 est commune aux troncs de cône 180, 190, 200. Une zone ou région interactive 220 est également montrée à l'intérieur de la zone commune 210. La zone ou région interactive comprend effectivement un volume s'étendant de la surface d'interaction dans une direction vers le système d'imagerie ToF. Dès que le système interactif a été étalonné, le mouvement d’un quelconque objet à l'intérieur de la région interactive 220 peut être utilisé pour contrôler une image sur l'écran.As shown in FIG. 3, an area 210 is common to the truncated cones 180, 190, 200. An interactive area or region 220 is also shown within the common area 210. The interactive area or region does include a volume extending from the interaction surface in one direction to the ToF imaging system. Once the interactive system has been calibrated, the movement of any object within the interactive region 220 can be used to control an image on the screen.

Dans un mode de réalisation de la présente invention dans lequel une surface plane tel qu'un plateau de bureau est utilisée comme surface d’interaction, l'étalonnage de la région interactive 220 est réalisé en définissant un sous-ensemble de quatre points 220A, 220B, 220C, 220D qui correspondent aux coins d'un rectangle sur la surface à l'intérieur de la zone commune. Le processus d’étalonnage peut être une étape préliminaire dans laquelle un utilisateur ne peut effectuer qu'une seule fois le placement d'au moins une partie d'au moins une main, par exemple un doigt, dans chacun des coins de manière séquentielle pour définir la zone interactive sur la surface 120 sur laquelle une interface utilisateur graphique (GUI) est projetée par l'élément d'imagerie ou projecteur 160. Dans le processus d'étalonnage, la position du doigt dans l'espace tridimensionnel est enregistrée séquentiellement pour chacun des quatre points et un plan est déterminé comme étant la surface délimitée par les quatre points par des calculs géométriques. Toute position appartenant à la surface ainsi déterminée, c'est-à-dire ayant la même hauteur que cette surface et des coordonnées horizontale et verticale dans les limites de la surface, constitue des points qui forment une surface d'interaction et sa zone interactive associée.In one embodiment of the present invention in which a flat surface such as a desk top is used as the interaction surface, the calibration of the interactive region 220 is performed by defining a subset of four points 220A, 220B, 220C, 220D which correspond to the corners of a rectangle on the surface inside the common area. The calibration process may be a preliminary step in which a user can only perform the placement of at least a portion of at least one hand, for example a finger, in each of the corners sequentially for define the interactive area on the surface 120 on which a graphical user interface (GUI) is projected by the imaging element or projector 160. In the calibration process, the position of the finger in the three-dimensional space is recorded sequentially for each of the four points and a plane is determined as being the area delimited by the four points by geometric calculations. Any position belonging to the surface thus determined, that is to say having the same height as this surface and horizontal and vertical coordinates within the limits of the surface, constitutes points which form an interaction surface and its interactive zone. associated.

Dans un autre mode de réalisation de la présente invention dans lequel une surface plane, telle qu'un plateau de bureau, est utilisée comme surface d’interaction, l'étalonnage de la région interactive 220 peut être réalisé en ligne avec un processus automatisé au démarrage. Le processus automatisé peut comprendre la détection, en utilisant des techniques de reconnaissance de motifs (formes), du motif de quatre vignettes autocollantes collées précédemment sur la surface d'interaction de manière à déterminer physiquement ses limites. La reconnaissance de motifs (formes) peut comprendre l'utilisation d'une de la forme, la couleur et la texture des quatre vignettes autocollantes. Une fois les vignettes autocollantes détectées avec chaque système d'imagerie, l'étalonnage comprend la transformation des données de position de chaque système d'imagerie en données de position d'un autre système d'imagerie. Par exemple, des données X horizontale et Y verticale de la caméra en couleur peuvent être projetées dans le système de coordonnées de la caméra tridimensionnelle en utilisant des modèles ordinaires de transformation d'enregistrement d'image, tels qu'une simple transformation linéaire ou de préférence des splines en plaque mince ou de surface, des transformations multiquadratiques.In another embodiment of the present invention in which a flat surface, such as a desktop tray, is used as the interaction surface, the calibration of the interactive region 220 can be performed in line with an automated process at the same time. start-up. The automated process may include detecting, using pattern recognition techniques, the pattern of four self-adhesive thumbnails previously pasted on the interaction surface so as to physically determine its boundaries. Pattern recognition can include the use of one of the shape, color and texture of the four self-adhesive thumbnails. Once the thumbnails are detected with each imaging system, the calibration includes transforming the position data of each imaging system into position data of another imaging system. For example, horizontal X and vertical Y data of the color camera can be projected into the coordinate system of the three-dimensional camera using ordinary image recording transformation models, such as a simple linear transformation or preferably splines in thin plate or surface, multiquadratic transformations.

Les positions X-Y respectives de la caméra en couleur, de la caméra 3D et du projecteur sont enregistrées les unes par rapport aux autres de sorte que toute position X-Y d'un paramètre d'un quelconque de ces systèmes peut être associée à des informations de profondeur. L'association d'une coordonnée X-Y bidimensionnelle (2D) d'un paramètre avec une troisième coordonnée relative à l'information de profondeur forme une coordonnée 3D. Par conséquent, l'étalonnage permet à chaque paramètre du système d'imagerie 130 d'être associé à une position tridimensionnelle dans l'espace et à une couleur pour ce qui est d'une quelconque position sur la surface d'interaction déterminée qui fait partie de la zone interactive 220.The respective XY positions of the color camera, the 3D camera and the projector are recorded relative to each other so that any XY position of a parameter of any of these systems can be associated with depth information. . The combination of a two-dimensional (2D) X-Y coordinate of a parameter with a third coordinate relative to the depth information forms a 3D coordinate. Therefore, the calibration allows each parameter of the imaging system 130 to be associated with a three-dimensional position in space and a color with respect to any position on the determined interaction surface that makes part of the interactive zone 220.

Comme décrit ci-dessus, dans un mode de réalisation de la présente invention, la GUI peut comprendre au moins une partie au-dessus laquelle un mouvement d’un objet par rapport à celle-ci dans une direction perpendiculaire au plan de la surface 120 peut contrôler un paramètre, par exemple, un contrôle du volume audio. La figure 4 montre un exemple de la mise en oeuvre d'un contrôle de volume qui sera décrit de manière plus détaillée ci-dessous. L'identification d'un objet à l'intérieur de la région interactive 220 est déterminée en utilisant l'élément d'imagerie 170, c'est-à-dire la caméra à détection de profondeur ou ToF. Un nuage de points tridimensionnel est traité en premier pour identifier l'objet et puis pour suivre son mouvement d'une trame à l'autre. Le suivi de l'objet fournit l'interaction qui est utilisée pour contrôler la GUI; Le mouvement de l'objet 240 s'éloignant de la surface 120 dans la direction perpendiculaire à celle-ci est suivi pour fournir des signaux de contrôle au contrôleur de volume.As described above, in one embodiment of the present invention, the GUI may include at least one portion above which a movement of an object with respect thereto in a direction perpendicular to the plane of the surface 120 can control a parameter, for example, an audio volume control. Figure 4 shows an example of the implementation of a volume control which will be described in more detail below. The identification of an object within the interactive region 220 is determined using the imaging element 170, i.e., the depth detection camera or ToF. A three-dimensional point cloud is processed first to identify the object and then to follow its movement from one frame to another. Object tracking provides the interaction that is used to control the GUI; Movement of the object 240 away from the surface 120 in the direction perpendicular thereto is followed to provide control signals to the volume controller.

Plus précisément, une partie 230 de la GUI, c'est-à-dire une zone interactive correspondant à la position d'un paramètre de la GUI, peut être considérée comme étant un contrôleur et, quand un objet 240, tel qu'un doigt ou une main, est mis en contact avec la surface sur la partie et éloigné dans une direction de la surface 120 sur laquelle la GUI est projetée dans une direction prédéterminée, le contrôleur est activé pour changer le niveau du volume associé à une image projetée. À la position représentée par 0 %, le volume est à 0 ou coupé. Lorsque l'objet 240 est déplacé de la position 0 % à une première distance prédéterminée de la partie 230, le volume est augmenté à 25 % du volume maximum. Lorsque l'objet 240 est déplacé à une deuxième distance prédéterminée de la partie 230, le volume est augmenté à 50 % du volume maximum. Lorsque l'objet est déplacé à une troisième distance prédéterminée de la partie 230, le volume est augmenté au volume maximum. Naturellement, bien que seuls trois niveaux soient montrés sur la figure 4 à titre d'exemple, on se rendra compte qu’un quelconque nombre approprié de niveaux peut être mis en oeuvre conformément à d'autres distances prédéterminées de la surface.More specifically, a portion 230 of the GUI, that is to say an interactive zone corresponding to the position of a parameter of the GUI, can be considered as a controller and, when an object 240, such as a finger or hand, is brought into contact with the surface on the part and moved away in a direction of the surface 120 on which the GUI is projected in a predetermined direction, the controller is activated to change the volume level associated with a projected image . At the position represented by 0%, the volume is at 0 or off. When the object 240 is moved from the 0% position to a first predetermined distance from the portion 230, the volume is increased to 25% of the maximum volume. When the object 240 is moved at a second predetermined distance from the portion 230, the volume is increased to 50% of the maximum volume. When the object is moved a third predetermined distance from the portion 230, the volume is increased to the maximum volume. Of course, although only three levels are shown in Figure 4 as an example, it will be appreciated that any appropriate number of levels may be implemented in accordance with other predetermined distances from the surface.

Bien que le mouvement d'un objet dans une direction perpendiculaire à la surface soit décrit, on se rendra compte que d'autres mouvements par rapport à la surface peuvent aussi être utilisés pour contrôler la GUI, par exemple un mouvement dynamique, tel qu'une rotation, qui peut être détecté quand on considère une main d'un utilisateur comme une fonction du changement de position d'un ensemble d'au moins trois points d’intérêt, qui peuvent être le bout du pouce, le bout de l'index et le milieu du poignet. La détection et le suivi de points d'intérêt peuvent être effectués selon diverses méthodes, telles qu'une analyse de composants principaux, sur le masque de détection de la main ou de toute autre extrémité appropriée.Although the movement of an object in a direction perpendicular to the surface is described, it will be appreciated that other movements with respect to the surface may also be used to control the GUI, for example dynamic motion, such as a rotation, which can be detected when considering a user's hand as a function of the change of position of a set of at least three points of interest, which may be the tip of the thumb, the tip of the index and the middle of the wrist. Detection and tracking of points of interest may be performed by a variety of methods, such as an analysis of major components, on the hand-detection mask or other suitable end.

Sur la figure 5, un mode de réalisation du système interactif de la présente invention comprend un affichage de rétroprojection diffusant des couleurs de l'interface utilisateur graphique en utilisant un projecteur 160. Une surface d'interaction 120 est utilisée pour des interactions de gestes tactiles dans une zone d'interaction 230a contextuellement prédéterminée de gestes tactiles d’une première main 240a suivie en combinaison avec une interaction déterminée de gestes tridimensionnels par une deuxième main 240b suivie et survenant dans un volume d'interaction d'une taille prédéterminée qui s'étend le long d'une normale à la surface d'interaction 120 sur une deuxième zone d'interaction 230b contextuellement déterminée, le suivi utilisant une caméra à détection de profondeur 170 montée frontalement, située au-dessus de la surface d'interaction 120 et sur le côté opposé au projecteur par rapport à la surface d'interaction 120.In Fig. 5, an embodiment of the interactive system of the present invention includes a back-projection display diffusing colors of the graphical user interface using a projector 160. An interaction surface 120 is used for tactile gesture interactions. in a contextally predetermined interaction zone 230a of first-hand tactile gestures 240a followed in combination with a determined interaction of three-dimensional gestures by a second hand 240b followed and occurring in an interaction volume of a predetermined size which extends along a normal to the interaction surface 120 on a second contextally determined interaction zone 230b, the tracking using a front-end depth-sensing camera 170 located above the interaction surface 120 and on the side opposite to the projector with respect to the interaction surface 120.

Dans le mode de réalisation illustré sur la figure 5, la surface d'interaction doit présenter des propriétés spécifiques par rapport à la lumière. Elle doit diffuser des longueurs d'onde dans la partie visible du spectre électromagnétique afin que l'interface utilisateur graphique projetée puisse être vue par l'utilisateur, tout en étant transparente à l'IR pour éviter une saturation ou perturbation des mesures de profondeur sur les capteurs IR quand il est fait usage d'une caméra IR active à détection de profondeur, telle qu'une caméra 3D ToF, due à des réflexions spéculaires ou fortes du matériau dont est constituée la surface d'interaction.In the embodiment illustrated in FIG. 5, the interaction surface must have specific properties with respect to light. It must broadcast wavelengths in the visible part of the electromagnetic spectrum so that the projected graphical user interface can be seen by the user, while being transparent to the IR to avoid saturation or disruption of depth measurements on IR sensors when using an active depth-detecting IR camera, such as a 3D ToF camera, due to specular or strong reflections of the material of which the interaction surface is made.

Des telles propriétés photoniques pour une telle surface sont difficiles à obtenir, et quelques solutions peuvent être prévues. Celles-ci comprennent par exemple, sans toutefois y être limitées, l’utilisation d'une fenêtre en verre ou d'une fenêtre en polycarbonate ayant une surface sur laquelle un revêtement peut être appliqué. Le revêtement peut être constitué de particules de pigment sulfure de zinc (ZnS) ou de particules de sulfate de zinc (ZnS04) dans une proportion de 10% de la substance utilisée pour appliquer le revêtement. Du pigment sulfate de baryum (BaS04) peut aussi convenir, étant considéré comme le meilleur diffuseur de lumière du spectre visible, et étant donné qu'il n'introduit pas d'aberrations chromatiques quand il est utilisé comme substrat vu qu'il réfléchit de manière homogène les longueurs d'onde dans la partie visible du spectre électromagnétique de façon lambertienne.Such photonic properties for such a surface are difficult to obtain, and some solutions may be provided. These include, but are not limited to, the use of a glass window or polycarbonate window having a surface on which a coating can be applied. The coating may consist of zinc sulfide pigment particles (ZnS) or zinc sulfate particles (ZnSO4) in a proportion of 10% of the substance used to apply the coating. Barium sulphate pigment (BaSO4) may also be suitable, being considered as the best light scatterer of the visible spectrum, and since it does not introduce chromatic aberrations when it is used as a substrate since it reflects homogeneously the wavelengths in the visible part of the electromagnetic spectrum lambertian way.

Un mode de réalisation comprendra un revêtement sur une fenêtre en verre ou en polycarbonate qui est imprimé avec la substance pour former une grille de substance de revêtement sur la fenêtre. Le pas entre les minuscules zones revêtues sur la fenêtre ainsi que leur taille et leur agencement peuvent être ajustés en fonction des propriétés de diffusion de couleur escomptées.One embodiment will include a coating on a glass or polycarbonate window that is printed with the substance to form a coating material grid on the window. The pitch between the tiny areas coated on the window as well as their size and arrangement can be adjusted according to the expected color diffusion properties.

Sur la figure 6, un mode de réalisation du système interactif de la présente invention comprend un affichage de rétroprojection diffusant des couleurs de l'interface utilisateur graphique en utilisant un projecteur 160. Une surface d'interaction 120 déterminée est utilisée pour des interactions de gestes tactiles dans des zones d'interaction 230 contextuellement prédéterminées de gestes tactiles. Une première main 240c suivie effectue une interaction d'un seul geste tactile tandis qu'une deuxième main 240d suivie effectue une interaction de gestes tactiles multipoints sur deux zones d'interaction 230 différentes, le suivi utilisant une caméra à détection de profondeur 170 avec un tronc de cône 140 situé au-dessus de la surface d'interaction 120.In Fig. 6, an embodiment of the interactive system of the present invention includes a back-projection display diffusing colors of the graphical user interface using a projector 160. A determined interaction surface 120 is used for gesture interactions. tactile in interacting zones of contextually predetermined interaction of tactile gestures. A first hand 240c followed performs an interaction of a single touch gesture while a second hand 240d followed performs an interaction of touch gestures multipoint on two different interaction zones 230, tracking using a depth detection camera 170 with a truncated cone 140 located above the interaction surface 120.

Un mode de réalisation préféré plus approprié pour permettre des gestes tactiles multipoints robustes et puissants serait d'avoir le dispositif de détection d'imagerie sur le côté opposé à celui de l'utilisateur par rapport à la surface d'interaction. Un tel mode de réalisation fournirait un système où les principales parties interagissantes d'une main d’un utilisateur pour des gestes tactiles, c'est-à-dire que les bouts des doigts ne sont jamais masqués.A more preferred embodiment more suitable for robust and powerful multi-touch gestures would be to have the imaging detection device on the opposite side of the user's side from the interaction surface. Such an embodiment would provide a system where the main interacting parts of a user's hand for tactile gestures, i.e. fingertips are never masked.

Bien que la présente invention ait été décrite en référence à des modes de réalisation spécifiques, on se rendra compte que l'invention n'est pas limitée à de tels modes de réalisation et que l'invention peut être mise en œuvre autrement.Although the present invention has been described with reference to specific embodiments, it will be appreciated that the invention is not limited to such embodiments and that the invention may be implemented otherwise.

Claims (18)

REVENDICATIONS:CLAIMS: 1. Procédé d'interaction multimodale tactile et non tactile avec un système informatisé dans lequel ladite interaction multimodale tactile et non tactile est effectuée en utilisant des informations de données d'un seul système de détection, le seul système de détection étant un dispositif d'imagerie tridimensionnelle, le procédé comprenant les étapes de: a) détection et suivi d'au moins une partie d'au moins un objet à l'intérieur du tronc de cône d'un dispositif d'imagerie tridimensionnelle; b) amorçage de l'interaction en déterminant si ladite au moins une partie dudit au moins un objet suivi effectue au moins un de: un geste tactile prédéterminé sur une zone interactive prédéterminée d'une surface d’interaction et un geste tridimensionnel non tactile prédéterminé dans un volume interactif prédéterminé sur l'axe de vecteur normal à une zone interactive prédéterminée; c) interaction avec le système informatisé en détectant et en reconnaissant les gestes effectués par ladite au moins une partie dudit au moins un objet à l'intérieur du tronc de cône du dispositif d'imagerie tridimensionnelle, les gestes détectés et reconnus étant au moins un de: un geste tactile prédéterminé sur une zone interactive prédéterminée de la surface d'interaction et un geste tridimensionnel non tactile prédéterminé dans un volume interactif prédéterminé sur l'axe de vecteur normal à une zone interactive.A multimodal tactile and non-tactile interaction method with a computer system in which said tactile and non-tactile multimodal interaction is performed using data information from a single detection system, the only detection system being a device three-dimensional imaging, the method comprising the steps of: a) detecting and tracking at least a portion of at least one object within the truncated cone of a three-dimensional imaging device; b) initiating the interaction by determining whether said at least a portion of said at least one tracked object performs at least one of: a predetermined touch gesture on a predetermined interactive area of an interaction surface and a predetermined non-touch three-dimensional gesture in a predetermined interactive volume on the vector axis normal to a predetermined interactive area; c) interacting with the computerized system by detecting and recognizing the gestures made by said at least a portion of said at least one object within the truncated cone of the three-dimensional imaging device, the detected and recognized gestures being at least one of: a predetermined touch gesture on a predetermined interactive area of the interaction surface and a predetermined non-touch three-dimensional gesture in a predetermined interactive volume on the vector axis normal to an interactive area. 2. Procédé selon la revendication 1, dans lequel la détection de l'exécution d'un geste tactile sur une zone interactive prédéterminée de la surface d'interaction correspond au fait de détecter quand ladite au moins une partie dudit au moins un objet suivi est positionnée dans l'espace tridimensionnel au même endroit dans l'espace que la zone interactive prédéterminée sur la surface d'interaction.The method of claim 1, wherein detecting the execution of a touch gesture on a predetermined interactive area of the interaction surface is to detect when said at least a portion of said at least one tracked object is positioned in the three-dimensional space at the same location in the space as the predetermined interactive area on the interaction surface. 3. Procédé selon la revendication 1 ou 2, dans lequel le fait de détecter si un geste tactile a été exécuté est déterminé quand la distance par rapport à la surface d'interaction de ladite au moins une partie dudit au moins un objet suivi, dans l'espace tridimensionnel, est inférieure à un seuil prédéterminé.The method of claim 1 or 2, wherein detecting whether a touch gesture has been executed is determined when the distance from the interaction surface of said at least a portion of said at least one tracked object, in the three-dimensional space is less than a predetermined threshold. 4. Procédé selon l'une quelconque des revendications 1 à 3, dans lequel la détermination d'un geste tactile multipoint est effectuée quand les positions d'au moins deux parties dudit au moins un objet suivi dans l'espace atteignent au moins deux zones interactives prédéterminées appartenant à la surface d'interaction.The method according to any one of claims 1 to 3, wherein determining a multi-touch gesture is performed when the positions of at least two portions of said at least one object tracked in space reach at least two areas. predetermined interactive features belonging to the interaction surface. 5. Procédé selon l'une quelconque des revendications 1 à 4, comprenant en outre l'étape de détermination de contrôles d'interactions de gestes tactiles comme une fonction de positions successives et de la durée d'au moins un de: un geste tactile et un geste tactile multipoint.The method of any one of claims 1 to 4, further comprising the step of determining gesture interaction controls as a function of successive positions and the duration of at least one of: a touch gesture and a multi-touch gesture. 6. Procédé selon l'une quelconque des revendications 1 à 5, comprenant en outre l'étape de détermination de contrôles d'interactions de gestes tridimensionnels non tactiles comme fonction du geste tridimensionnel effectué par ladite au moins une partie dudit au moins un objet.The method of any one of claims 1 to 5, further comprising the step of determining non-tactile three-dimensional gesture interaction controls as a function of the three-dimensional gesture performed by said at least a portion of said at least one object. 7. Procédé selon l'une quelconque des revendications 1 à 6, dans lequel l'étape c) comprend l'étape consistant à mettre fin à l'interaction quand un événement prédéterminé est déclenché, ledit événement prédéterminé comprenant au moins un de: l'écoulement d'une période de temps prédéterminée, la reconnaissance d'un geste tactile prédéterminé sur la surface d'interaction, la reconnaissance d'un geste non tactile tridimensionnel prédéterminé dans le tronc de cône du dispositif d'imagerie tridimensionnelle et une sortie dudit au moins un objet d'un volume interactif prédéterminé dans l'espace tridimensionnel.The method of any one of claims 1 to 6, wherein step c) comprises the step of terminating the interaction when a predetermined event is triggered, said predetermined event comprising at least one of: flow of a predetermined period of time, recognition of a predetermined tactile gesture on the interaction surface, recognition of a predetermined three-dimensional non-tactile gesture in the truncated cone of the three-dimensional imaging device and an output of said at least one object of a predetermined interactive volume in the three-dimensional space. 8. Procédé selon la revendication 7, dans lequel l'étape b) comprend l'utilisation d'une première partie détectée et suivie dudit au moins un objet, et l'étape c) comprend l'utilisation d'une deuxième partie détectée et suivie dudit au moins un objet.The method of claim 7 wherein step b) comprises using a first portion detected and followed by said at least one object, and step c) comprises using a second detected portion and followed by said at least one object. 9. Procédé selon la revendication 7, dans lequel les étapes b) et c) sont contrôlées séquentiellement en utilisant une seule partie détectée et suivie d'un objet.The method of claim 7, wherein steps b) and c) are sequentially controlled using a single detected portion followed by an object. 10. Procédé selon l'une quelconque des revendications 1 à 9, lequel comprend en outre l'affichage d'un retour visuel prédéterminé sur une interface utilisateur graphique sur au moins une partie de la surface d'interaction, le retour visuel concernant au moins un de: la position de ladite au moins une partie dudit au moins un objet et les gestes reconnus de ladite au une partie dudit au moins un objet suivi.The method of any one of claims 1 to 9, which further comprises displaying a predetermined visual feedback on a graphical user interface on at least a portion of the interaction surface, the visual feedback relating to at least one of: the position of said at least a portion of said at least one object and recognized gestures of said at a portion of said at least one tracked object. 11. Procédé selon la revendication 10, dans lequel l'interaction avec l'interface utilisateur graphique affichée sur la surface d'interaction comprend en outre l'accomplissement des étapes de:- d) détermination de la position dans l’espace et de la topologie de la surface d'interaction en utilisant le dispositif d'imagerie tridimensionnelle; e) détermination d'un ensemble prédéterminé de zones interactives sur la surface d'interaction comme fonction de sa topologie et sa taille; et f) association avec chaque zone interactive d'au moins un contrôle d'interaction de geste tactile.The method of claim 10, wherein the interaction with the graphical user interface displayed on the interaction surface further comprises accomplishing the steps of: - d) determining the position in the space and the topology of the interaction surface using the three-dimensional imaging device; e) determining a predetermined set of interactive areas on the interaction surface as a function of its topology and size; and f) associating with each interactive area at least one tactile gesture interaction control. 12. Procédé selon la revendication 11, comprenant en outre les étapes de: g) association avec l'ensemble prédéterminé de zones interactives, d'au moins un volume interactif, chaque volume interactif étant situé au-dessus de ladite zone interactive le long d'un vecteur normal à cette zone interactive; et h) association avec chaque volume interactif d'un contrôle d'interaction de geste non tactile tridimensionnel prédéterminé.The method of claim 11, further comprising the steps of: g) associating with the predetermined set of interactive areas, at least one interactive volume, each interactive volume being located above said interactive area along the interactive area; a vector normal to this interactive zone; and h) associating with each interactive volume a predetermined three-dimensional non-tactile gesture interaction control. 13. Procédé selon la revendication 11 ou 12, dans lequel la surface d'interaction est au moins un de: une partie d'un corps d'un utilisateur, un plateau de bureau, une paroi, une surface translucide infrarouge et un objet, l'interface utilisateur graphique étant projetée sur la surface d’interaction.The method of claim 11 or 12, wherein the interaction surface is at least one of: a portion of a user's body, a desktop tray, a wall, a translucent infrared surface, and an object, the graphical user interface being projected onto the interaction surface. 14. Système pour interagir avec une interface utilisateur graphique, le système comprenant:- un système d'affichage pour afficher l'interface utilisateur graphique sur la surface d'interaction; un système d'imagerie tridimensionnelle exploité pour au moins suivre au moins une partie d'au moins une main d'un utilisateur à l'intérieur de son tronc de cône; et un système informatique configuré pour contrôler le système d'affichage et le dispositif d'imagerie tridimensionnelle, et pour déterminer des contrôles d'interaction basée sur des gestes en utilisant des données produites par le dispositif d'imagerie tridimensionnelle; le système étant caractérisé en ce que la surface d'affichage servant à afficher l'interface utilisateur graphique comprend au moins une partie du tronc de cône du dispositif d'imagerie tridimensionnelle et est sensiblement alignée sur celle-ci.A system for interacting with a graphical user interface, the system comprising: - a display system for displaying the graphical user interface on the interaction surface; a three-dimensional imaging system operated to at least follow at least a portion of at least one hand of a user within its truncated cone; and a computer system configured to control the display system and the three-dimensional imaging device, and to determine gesture-based interaction controls using data produced by the three-dimensional imaging device; the system being characterized in that the display surface for displaying the graphical user interface comprises at least a portion of the truncated cone of the three-dimensional imaging device and is substantially aligned therewith. 15. Système selon la revendication 14, dans lequel le système d'affichage comprend un élément projecteur qui est situé du même côté de la surface d'interaction sur laquelle l'interface utilisateur graphique est affichée que le dispositif d'imagerie tridimensionnelle.The system of claim 14, wherein the display system comprises a projector element that is located on the same side of the interaction surface on which the graphical user interface is displayed as the three-dimensional imaging device. 16. Système selon la revendication 14, dans lequel le système d'imagerie tridimensionnelle et l'élément projecteur sont situés sur des côtés opposés de la surface d'interaction sur laquelle l'interface utilisateur graphique est projetée, la surface d'interaction étant exploitable pour diffuser un rayonnement ayant une longueur d'onde dans une plage qui correspond sensiblement à la partie visible du spectre électromagnétique et pour transmettre un rayonnement ayant une longueur d'onde dans une plage qui correspond sensiblement à la partie infrarouge du spectre électromagnétique avec diffusion limitée, le coefficient de transmission de la surface d'interaction étant supérieur à 50% et la diffusion limitée étant inférieure à 20 degrés.The system of claim 14, wherein the three-dimensional imaging system and the projector element are located on opposite sides of the interaction surface on which the graphical user interface is projected, the interaction surface being exploitable. for diffusing radiation having a wavelength in a range substantially corresponding to the visible portion of the electromagnetic spectrum and for transmitting radiation having a wavelength in a range substantially corresponding to the infrared portion of the electromagnetic spectrum with limited diffusion , the transmission coefficient of the interaction surface being greater than 50% and the limited diffusion being less than 20 degrees. 17. Système selon l'une quelconque des revendications 14 à 16, lequel est exploitable pour mettre en oeuvre le procédé de l'une quelconque des revendications 1 à 13.17. System according to any one of claims 14 to 16, which is operable to implement the method of any one of claims 1 to 13. 18. Support informatique non temporaire utilisable pour stocker des instructions exécutables pour mettre en œuvre le procédé selon l'une quelconque des revendications 1 à 13.18. Non-temporary computer support usable for storing executable instructions for implementing the method according to any one of claims 1 to 13.
BE2015/5045A 2015-01-30 2015-01-30 INTERACTIVE SYSTEM BASED ON MULTIMODAL GESTURES AND METHOD USING SINGLE DETECTION SYSTEM BE1023596B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BE2015/5045A BE1023596B1 (en) 2015-01-30 2015-01-30 INTERACTIVE SYSTEM BASED ON MULTIMODAL GESTURES AND METHOD USING SINGLE DETECTION SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BE2015/5045A BE1023596B1 (en) 2015-01-30 2015-01-30 INTERACTIVE SYSTEM BASED ON MULTIMODAL GESTURES AND METHOD USING SINGLE DETECTION SYSTEM

Publications (2)

Publication Number Publication Date
BE1023596A1 BE1023596A1 (en) 2017-05-11
BE1023596B1 true BE1023596B1 (en) 2017-05-11

Family

ID=65990327

Family Applications (1)

Application Number Title Priority Date Filing Date
BE2015/5045A BE1023596B1 (en) 2015-01-30 2015-01-30 INTERACTIVE SYSTEM BASED ON MULTIMODAL GESTURES AND METHOD USING SINGLE DETECTION SYSTEM

Country Status (1)

Country Link
BE (1) BE1023596B1 (en)

Also Published As

Publication number Publication date
BE1023596A1 (en) 2017-05-11

Similar Documents

Publication Publication Date Title
KR102335132B1 (en) Multi-modal gesture based interactive system and method using one single sensing system
JP5950130B2 (en) Camera-type multi-touch interaction device, system and method
US8682030B2 (en) Interactive display
RU2579952C2 (en) Camera-based illumination and multi-sensor interaction method and system
US9582117B2 (en) Pressure, rotation and stylus functionality for interactive display screens
US8581852B2 (en) Fingertip detection for camera based multi-touch systems
US8665244B2 (en) Optical touch detection
CN101809880B (en) Detecting finger orientation on a touch-sensitive device
US20080029691A1 (en) Multi-touch sensing display through frustrated total internal reflection
TW200945123A (en) A multi-touch position tracking apparatus and interactive system and image processing method there of
Hofer et al. FLATIR: FTIR multi-touch detection on a discrete distributed sensor array
Muller Multi-touch displays: design, applications and performance evaluation
BE1023596B1 (en) INTERACTIVE SYSTEM BASED ON MULTIMODAL GESTURES AND METHOD USING SINGLE DETECTION SYSTEM
TWI543045B (en) Touch device and touch projection system using the same
EP2926232A1 (en) System and method for communication reproducing an interactivity of physical type
FR2998686A1 (en) Communication system for reproducing and multiplying physical interactivity between two actors in meeting, has detection device for detection of position of set of objects so as to emit uniform signal by measuring physical size
Varshney et al. SmartTouch: A cost-effective infrared based imaging touch screen
EP2067092A2 (en) Pointing device

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20170511

HC Change of name of the owners

Owner name: SONY DEPTHSENSING SOLUTIONS; BE

Free format text: DETAILS ASSIGNMENT: CHANGE OF OWNER(S), CHANGEMENT DE NOM DU PROPRIETAIRE; FORMER OWNER NAME: SOFTKINETIC INTERNATIONAL

Effective date: 20180621

PD Change of ownership

Owner name: SOFTKINETIC INTERNATIONAL; BE

Free format text: DETAILS ASSIGNMENT: CHANGE OF OWNER(S), FUSION; FORMER OWNER NAME: SOFTKINETIC SOFTWARE SA

Effective date: 20180621

MM Lapsed because of non-payment of the annual fee

Effective date: 20230131