ES2716012A1 - SYSTEM AND METHOD OF INTERACTION IN VIRTUAL ENVIRONMENTS USING HAPPICAL DEVICES - Google Patents
SYSTEM AND METHOD OF INTERACTION IN VIRTUAL ENVIRONMENTS USING HAPPICAL DEVICES Download PDFInfo
- Publication number
- ES2716012A1 ES2716012A1 ES201830941A ES201830941A ES2716012A1 ES 2716012 A1 ES2716012 A1 ES 2716012A1 ES 201830941 A ES201830941 A ES 201830941A ES 201830941 A ES201830941 A ES 201830941A ES 2716012 A1 ES2716012 A1 ES 2716012A1
- Authority
- ES
- Spain
- Prior art keywords
- zoom
- virtual scene
- scene
- virtual
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
SISTEMA Y MÉTODO DE INTERACCIÓN EN ENTORNOS VIRTUALES UTILIZANDO SYSTEM AND METHOD OF INTERACTION IN VIRTUAL ENVIRONMENTS USING
DISPOSITIVOS HÁPTICOS HAPPICAL DEVICES
DESCRIPCIÓNDESCRIPTION
CAMPO DE LA INVENCIÓNFIELD OF THE INVENTION
El objeto de la invención se enmarca en el campo de la informática, más concretamente en el de los dispositivos hápticos y la simulación virtual.The object of the invention is framed in the field of computer science, more specifically in that of haptic devices and virtual simulation.
ANTECEDENTES DE LA INVENCIÓNBACKGROUND OF THE INVENTION
Las técnicas diseñadas para controlar la interacción mediante dispositivos hápticos se pueden clasificar en tres grupos atendiendo a su modo de funcionamiento: basadas en control de posición, basadas en control de velocidad y técnicas híbridas. En primer lugar, las técnicas basadas en el control de posición se sirven de la posición del efector final del dispositivo háptico -dentro del espacio de trabajo físico- para, consecuentemente, situar su avatar virtual. En segundo lugar, las técnicas basadas en control de velocidad desplazan el avatar virtual en concordancia a la desviación del efector final y con respecto al centro del espacio de trabajo, como si de un joystick se tratara. Por último, las técnicas híbridas combinan el control de posición y el control de velocidad en una misma, añadiendo algún mecanismo que permite intercambiarlas.The techniques designed to control the interaction by haptic devices can be classified into three groups according to their mode of operation: based on position control, based on speed control and hybrid techniques. In the first place, techniques based on position control use the position of the end effector of the haptic device -in the physical work space- to, consequently, locate its virtual avatar. Secondly, the techniques based on speed control displace the virtual avatar in accordance with the deviation of the end effector and with respect to the center of the workspace, as if it were a joystick. Finally, hybrid techniques combine position control and speed control in one, adding some mechanism that allows exchange.
Dentro de las técnicas de interacción basadas en control de posición se encuentran el clutching [1] y el mapeado directo o escalado [2]. El clutching es una adaptación a los dispositivos hápticos de la técnica utilizada en los ratones de escritorio. Consiste en levantar el ratón y volverlo a posar en una posición más cómoda cuando con un solo movimiento no es posible alcanzar un área de interés. Aplicado a los dispositivos hápticos, consiste en desacoplar el movimiento del efector final del movimiento del avatar virtual mientras se presione, por ejemplo, un botón. De esta manera, es posible realizar repetidas veces tal maniobra y alcanzar así cualquier parte de la escena virtual con un dispositivo háptico que tenga un espacio de trabajo limitado. El mapeado directo o escalado, realiza una correspondencia entre el espacio de trabajo del dispositivo háptico y toda la escena virtual, estableciendo un factor de escala lo que implica que en escenas grandes un movimiento pequeño del dispositivo háptico produzca un gran movimiento en el avatar virtual, penalizando seriamente la precisión. Within the techniques of interaction based on position control are clutching [1] and direct or scaled mapping [2]. Clutching is an adaptation to the haptic devices of the technique used in desktop mice. It consists of lifting the mouse and repositioning it in a more comfortable position when with a single movement it is not possible to reach an area of interest. Applied to haptic devices, it consists of decoupling the movement of the end effector from the movement of the virtual avatar while pressing, for example, a button. In this way, it is possible to repeatedly perform such maneuver and thus reach any part of the virtual scene with a haptic device that has a limited workspace. The direct mapping or scaling, makes a correspondence between the workspace of the haptic device and the entire virtual scene, establishing a scale factor which implies that in large scenes a small movement of the haptic device produces a great movement in the virtual avatar, seriously penalizing accuracy.
Otra de las técnicas basadas en control de posición es la presentada por Conti & Khatib [3], consistente en recolocar continuamente el efector final hacia el centro del espacio de trabajo sin actualizar la realimentación visual. En otras palabras, mientras se está interaccionando con un objeto virtual, el efector final se va desplazando gradualmente—y con movimientos suaves- hacia el centro del espacio de trabajo físico, sin que ello repercuta de ninguna manera en su aspecto visual, y por ende, sin que el usuario se percate.Another technique based on position control is the one presented by Conti & Khatib [3], consisting in continuously repositioning the final effector towards the center of the workspace without updating the visual feedback. In other words, while interacting with a virtual object, the end effector gradually moves - and with smooth movements - towards the center of the physical workspace, without affecting in any way its visual aspect, and therefore , without the user noticing.
Las técnicas híbridas comprenden dos modos de funcionamiento: uno basado en control de posición y otro en control de velocidad. Estas técnicas se centran en resolver el problema del cambio de modo, como es el caso de la propuesta de Liu et al. [4]. En ella, se propone mantener un área neutra alrededor del centro del espacio de trabajo del dispositivo háptico. Así, al ejecutar el cambio de modo no se perturba la posición deseada por el usuario, ya que dicho cambio está asociado a la pulsación de un botón— lo que puede repercutir en un movimiento no deseado del efector final.Hybrid techniques comprise two modes of operation: one based on position control and the other on speed control. These techniques focus on solving the problem of mode change, as is the case of the proposal of Liu et al. [4]. In it, it is proposed to maintain a neutral area around the center of the working space of the haptic device. Thus, when executing the mode change, the position desired by the user is not disturbed, since said change is associated with the pressing of a button- which may affect an unwanted movement of the end effector.
Por último, la denominada técnica de la burbuja también se encuadra dentro de las técnicas de interacción híbridas y consiste en dividir virtualmente el espacio de trabajo del dispositivo háptico en dos secciones: una burbuja interior y el resto del área de trabajo exterior. Se representa visualmente una burbuja semitransparente en el entorno virtual y, dentro de la burbuja, se consigue una buena precisión gracias a un mapeado 1:1; mientras que para poder alcanzar cualquier parte del entorno es necesario mover la burbuja. Para ello, realizando fuerza con el avatar virtual hacia afuera de la misma, ésta se moverá en la dirección del avatar, a mayor o menor velocidad dependiendo de la magnitud aplicada [5].Finally, the so-called bubble technique is also framed within the hybrid interaction techniques and consists in virtually dividing the workspace of the haptic device into two sections: an inner bubble and the rest of the outer work area. A semi-transparent bubble is visually represented in the virtual environment and, within the bubble, good precision is achieved thanks to a 1: 1 mapping; while to reach any part of the environment it is necessary to move the bubble. To do this, making force with the virtual avatar out of it, it will move in the direction of the avatar, at greater or lesser speed depending on the applied magnitude [5].
Referencias bibliográficasBibliographic references
[1] Dominjon, L., Perret, J., & Lécuyer, A. (2007). Novel devices and interaction techniques for human-scale haptics. The Visual Computer, 23(4), 257-266.[1] Dominjon, L., Perret, J., & Lécuyer, A. (2007). Novel devices and interaction techniques for human-scale haptics. The Visual Computer, 23 (4), 257-266.
[2] Hirzinger, G., Brunner, B., Dietrich, J., & Heindl, J. (1993). Sensor-based space robotics-ROTEX and its telerobotic features. IEEE Transactions on robotics and automation, 9(5), 649 663.[2] Hirzinger, G., Brunner, B., Dietrich, J., & Heindl, J. (1993). Sensor-based space robotics-ROTEX and its telerobotic features. IEEE Transactions on robotics and automation, 9 (5), 649 663.
[3] Conti, F., & Khatib, O. (2005, March). Spanning large workspaces using small haptic devices. In Eurohaptics Conference, 2005 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2005. World Haptics 2005. First Joint (pp. 183-188). IEEE.[3] Conti, F., & Khatib, O. (2005, March). Spanning large workspaces using small haptic devices. In Eurohaptics Conference, 2005 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2005. World Haptics 2005. First Joint (pp. 183-188). IEEE.
[4] Liu, L., Liu, G., Zhang, Y., & Wang, D. (2014, August). A modified motion mapping method for haptic device based space teleoperation. In Robot and Human Interactive Communication, 2014 RO-MAN: The 23rd IEEE International Symposium on (pp. 449-453). IEEE.[4] Liu, L., Liu, G., Zhang, Y., & Wang, D. (2014, August). A modified motion mapping method for haptic device based space teleoperation. In Robot and Human Interactive Communication, 2014 RO-MAN: The 23rd IEEE International Symposium on (pp. 449-453). IEEE.
[5] Dominjon, L., Lecuyer, A., Burkhardt, J. M., Andrade-Barroso, G., & Richir, S. (2005, March). The" Bubble" technique: interacting with large virtual environments using haptic devices with limited workspace. In Eurohaptics Conference, 2005 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2005. World Haptics 2005. First Joint (pp. 639-640). IEEE.[5] Dominjon, L., Lecuyer, A., Burkhardt, J.M., Andrade-Barroso, G., & Richir, S. (2005, March). The "Bubble" technique: interacting with large virtual environments using haptic devices with limited workspace. In Eurohaptics Conference, 2005 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2005. World Haptics 2005. First Joint (pp. 639-640). IEEE.
DESCRIPCIÓN DE LA INVENCIÓNDESCRIPTION OF THE INVENTION
La invención se refiere a un método y sistema de interacción en entornos virtuales utilizando dispositivos hápticos. La invención propone un nuevo modelo de interacción para dispositivos hápticos que soluciona el principal problema de los mismos, su espacio de trabajo limitado, permitiendo utilizar este tipo de dispositivos con un área de trabajo limitada como principales elementos de interacción, consiguiendo un alto nivel de movilidad y precisión.The invention relates to a method and system of interaction in virtual environments using haptic devices. The invention proposes a new interaction model for haptic devices that solves the main problem of them, their limited work space, allowing to use this type of devices with a limited work area as main elements of interaction, achieving a high level of mobility and precision.
La presente invención permite utilizar los dispositivos hápticos para una interacción natural y precisa con escenas virtuales. El modelo de interacción está basado en la realización de ampliaciones sobre una escena virtual inicial utilizando un dispositivo háptico (por lo que la ampliación realizada se puede denominar “zoom háptico”), lo que permite al operador realizar una primera fase de aproximación al área de interés de la escena para posteriormente activar el zoom háptico y disponer de una mayor precisión. Por tanto, dada una escena virtual en la que se utilice un dispositivo háptico, el zoom háptico consiste en realizar una o varias ampliaciones de la misma para conseguir un mayor nivel de precisión háptica.The present invention allows the use of haptic devices for a natural and precise interaction with virtual scenes. The interaction model is based on the realization of enlargements on an initial virtual scene using a haptic device (so the magnification performed can be called "haptic zoom"), which allows the operator to perform a first phase of approach to the area of interest of the scene to later activate the haptic zoom and have a greater precision. Therefore, given a virtual scene in which a haptic device is used, the haptic zoom consists of performing one or more enlargements of it to achieve a higher level of haptic precision.
En cada una de las escenas ampliadas, el espacio de trabajo disponible para el avatar virtual del dispositivo háptico se mapea directamente con el espacio que representa la escena virtual, permitiendo de esta manera que el avatar alcance cualquier lugar de la escena. Si el usuario requiere un mayor nivel de precisión sobre alguna zona de la escena, se activa el zoom háptico. Este hecho repercute en la realización de un zoom visual sobre el área de interés, dando lugar a una segunda escena. Con la nueva escena ya determinada, se mapea de nuevo el espacio de trabajo del dispositivo háptico con el espacio que representa la nueva escena, permitiendo una vez más que el avatar virtual alcance cualquier zona.In each of the enlarged scenes, the work space available for the virtual avatar of the haptic device is directly mapped with the space representing the virtual scene, thus allowing the avatar to reach any place in the scene. If the user requires a higher level of precision on any part of the scene, the haptic zoom is activated. This fact affects the realization of a visual zoom on the area of interest, giving rise to a second scene. With the new scene already determined, it is mapped again the workspace of the haptic device with the space that represents the new scene, once again allowing the virtual avatar to reach any area.
El método de interacción en entornos virtuales de acuerdo a la presente invención comprende las siguientes etapas:The method of interaction in virtual environments according to the present invention comprises the following stages:
- Detectar una orden de zoom de una escena virtual inicial.- Detect a zoom order of an initial virtual scene.
- Generar, por parte de una unidad de procesamiento gráfico, una nueva escena virtual a partir de la escena virtual inicial con un nivel de ampliación modificado en función de la orden de zoom detectada.- Generate, on the part of a graphic processing unit, a new virtual scene from the initial virtual scene with a modified magnification level based on the zoom order detected.
- Mapear el espacio de trabajo de un dispositivo háptico con el espacio que representa la nueva escena virtual.- Mapping the workspace of a haptic device with the space that represents the new virtual scene.
- Representar la nueva escena virtual en un dispositivo de visualización, preferentemente en un visor de realidad virtual (aunque también podría representarse en una pantalla).- Represent the new virtual scene in a visualization device, preferably in a virtual reality viewer (although it could also be represented on a screen).
La orden de zoom puede ser una instrucción que permite modificar progresivamente el nivel de ampliación de la escena virtual inicial o modificar puntualmente el nivel de ampliación de la escena virtual inicial según un determinado valor predefinido.The zoom order can be an instruction that allows to progressively modify the level of expansion of the initial virtual scene or to modify the level of expansion of the initial virtual scene according to a certain predefined value.
La detección de la orden de zoom la puede realizar el propio dispositivo háptico, preferentemente mediante la detección de la pulsación de un botón del dispositivo háptico. En este caso, el método comprende enviar la orden de zoom detectada a la unidad de procesamiento gráfico. Adicionalmente, o alternativamente, la detección de la orden de zoom se puede llevar a cabo mediante el reconocimiento de un comando de voz. Para este caso la detección la puede realizar directamente la unidad de procesamiento gráfico mediante el análisis de la señal capturada por un micrófono.The detection of the zoom order can be performed by the haptic device itself, preferably by detecting the pressing of a button on the haptic device. In this case, the method comprises sending the zoom order detected to the graphic processing unit. Additionally, or alternatively, detection of the zoom order can be carried out by recognizing a voice command. For this case, the detection can be performed directly by the graphic processing unit by analyzing the signal captured by a microphone.
Un segundo aspecto de la presente invención se refiere a un sistema de interacción en entornos virtuales que implementa el método anteriormente descrito. El sistema comprende un dispositivo háptico para interactuar con un entorno virtual, una unidad de procesamiento gráfico encargada de generar escenas del entorno virtual, y un dispositivo de visualización para representar las escenas virtuales generadas. La unidad de procesamiento gráfico está configurada para recibir una orden de zoom de una escena virtual inicial; generar, a partir de la escena virtual inicial, una nueva escena virtual con un nivel de ampliación modificado en función de la orden de zoom recibida; y mapear el espacio de trabajo del dispositivo háptico con el espacio que representa la nueva escena virtual.A second aspect of the present invention relates to an interaction system in virtual environments that implements the method described above. The system comprises a haptic device for interacting with a virtual environment, a graphic processing unit responsible for generating scenes from the virtual environment, and a display device for representing the virtual scenes generated. The graphic processing unit is configured to receive a zoom command of an initial virtual scene; generate, from the initial virtual scene, a new virtual scene with a modified level of expansion in function of the received zoom order; and mapping the work space of the haptic device with the space that represents the new virtual scene.
Existen también diferentes maneras de aplicar el zoom háptico atendiendo a la localización de la ampliación y a la del avatar virtual.There are also different ways to apply the haptic zoom taking into account the location of the extension and the virtual avatar.
• Zoom centrado en el avatar virtual. En este modo de zoom se tomará la posición del avatar virtual como el centro de la escena tras la ampliación. Este modo de zoom implica la recolocación física del efector final del dispositivo háptico hacia el centro del espacio de trabajo para que concuerde con la representación en pantalla del mismo. Al realizar una ampliación de la escena centrada en el avatar virtual (puntero háptico), en la escena resultante el avatar virtual estará en el centro de la misma. Para hacer corresponder la escena con el dispositivo físico (efector), se debe recolocar el mismo automáticamente en el centro del espacio de trabajo, de tal forma que tanto el avatar virtual esté en el centro de la escena como el efector esté en el centro del espacio de trabajo. Esta correspondencia permitirá que con los movimientos permitidos por el espacio de trabajo (limitado) se alcance cualquier punto de la escena virtual. La recolocación automática se lleva a cabo mediante la aplicación de fuerzas del dispositivo háptico hacia el centro de su espacio de trabajo.• Zoom centered on the virtual avatar. In this zoom mode the position of the virtual avatar will be taken as the center of the scene after enlargement. This zoom mode involves the physical repositioning of the end effector of the haptic device to the center of the workspace so that it matches the on-screen representation of it. When performing an enlargement of the scene centered on the virtual avatar (haptic pointer), in the resulting scene the virtual avatar will be at the center of it. To match the scene with the physical device (effector), it must be repositioned automatically in the center of the workspace, so that both the virtual avatar is in the center of the scene and the effector is in the center of the scene. work space. This correspondence will allow any point of the virtual scene to be reached with the movements allowed by the (limited) workspace. Automatic repositioning is carried out by applying forces from the haptic device to the center of your workspace.
• Zoom manteniendo las proporciones. En este modo de zoom se realiza un aumento en la escena manteniendo el avatar virtual a las mismas distancias en porcentaje de los bordes de la escena, por lo que no será necesaria una recolocación física del efector final.• Zoom keeping the proportions. In this zoom mode, an increase is made in the scene, keeping the virtual avatar at the same distances as a percentage of the edges of the scene, so a physical repositioning of the final effector will not be necessary.
La presente invención soluciona un problema inherente a los dispositivos hápticos, su pequeño espacio de trabajo. Aplicar el modelo descrito por la invención en los dispositivos hápticos permite utilizarlos de una manera más natural y precisa como principales dispositivos de interacción en diferentes tipos de simulaciones de diferentes campos técnicos (sector médico, industria automovilística, industria aeroespacial, etc.).The present invention solves a problem inherent to haptic devices, their small workspace. Applying the model described by the invention in haptic devices allows them to be used in a more natural and precise manner as main interaction devices in different types of simulations from different technical fields (medical sector, automotive industry, aerospace industry, etc.).
BREVE DESCRIPCIÓN DE LOS DIBUJOSBRIEF DESCRIPTION OF THE DRAWINGS
A continuación, se describen de manera muy breve una serie de figuras que ayudan a comprender mejor la invención y que se relacionan expresamente con una realización de dicha invención que se presenta como un ejemplo no limitativo de ésta.Next, a series of figures that help to better understand the invention and that are expressly related to an embodiment of said invention that is presented as a non-limiting example thereof, are described very briefly.
Las Figuras 1A y 1B representan un diagrama de flujo del método de interacción en entornos virtuales de acuerdo a dos posibles realizaciones de la presente invención.Figures 1A and 1B represent a flow diagram of the interaction method in environments virtual devices according to two possible embodiments of the present invention.
Las Figuras 2A y 2B muestran, de acuerdo a una posible realización, el sistema de interacción en entornos virtuales en funcionamiento, cuando el usuario realiza un zoom háptico.Figures 2A and 2B show, according to a possible embodiment, the interaction system in virtual environments in operation, when the user performs a haptic zoom.
La Figura 3 representa la relación entre las imágenes por segundo (trames) y el nivel de zoom aplicado.Figure 3 represents the relationship between the images per second (frames) and the zoom level applied.
REALIZACIÓN PREFERENTE DE LA INVENCIÓNPREFERRED EMBODIMENT OF THE INVENTION
La presente invención se refiere a un método y sistema de interacción en entornos virtuales utilizando dispositivos hápticos.The present invention relates to a method and system of interaction in virtual environments using haptic devices.
La Figura 1A representa un esquema principal del método de interacción en entornos virtuales de acuerdo a la presente invención, a través del cual se realiza un zoom (ya sea de acercamiento o de alejamiento de la imagen) utilizando un dispositivo háptico. Este tipo de zoom habilitado por un dispositivo háptico se puede denominar “zoom háptico”. Figure 1A represents a main scheme of the interaction method in virtual environments according to the present invention, through which a zoom is made (either zooming in or zooming out of the image) using a haptic device. This type of zoom enabled by a haptic device can be called "haptic zoom".
Un usuario realiza una acción que genera una orden de zoom 102 para ampliar o reducir una escena virtual inicial, que es la imagen mostrada al usuario a través de un visor de realidad virtual. La acción puede consistir, por ejemplo, en la pulsación de un botón de un dispositivo háptico. La orden de zoom es detectada 104 por el dispositivo háptico, el cual envía 106 la orden de zoom detectada a una unidad de procesamiento gráfico.A user performs an action that generates a zoom order 102 to enlarge or reduce an initial virtual scene, which is the image shown to the user through a virtual reality viewer. The action may consist, for example, in the pressing of a button on a haptic device. The zoom command is detected 104 by the haptic device, which sends 106 the detected zoom order to a graphic processing unit.
A continuación, la unidad de procesamiento gráfico genera 108 una nueva escena virtual a partir de la escena virtual inicial con un nivel de ampliación modificado en función de la orden de zoom recibida, y mapea 110 el espacio de trabajo del dispositivo háptico con el espacio que representa la nueva escena virtual. Finalmente, la nueva escena virtual se representa 112 en un visor de realidad virtual (el cual estará normalmente portado por el mismo usuario).Next, the graphic processing unit generates a new virtual scene from the initial virtual scene with a modified magnification level according to the received zoom order, and maps the working space of the haptic device 110 to the space that represents the new virtual scene. Finally, the new virtual scene is represented 112 in a virtual reality viewer (which will normally be carried by the same user).
La orden de zoom incluye al menos la información indicativa de si hay que realizar una ampliación o una reducción de la imagen inicial. Además, la orden de zoom puede contener información del nivel de zoom a aplicar sobre la escena virtual inicial, si bien dicha información está preferentemente prefijada en la unidad de procesamiento gráfico (e.g. mediante una variable almacenada en memoria y modificable por el usuario utilizando una aplicación). La orden de zoom también puede incluir información relativa a si se trata de un zoom puntual o un zoom continuo o progresivo que hay que aplicar a la escena virtual inicial. En el caso de zoom progresivo, la orden se envía preferentemente de manera continuada mientras el dispositivo háptico detecte la actuación del usuario (e.g. mientras el usuario mantenga apretado un botón). De esta forma, la unidad de procesamiento gráfico generará, según una tasa determinada de refresco, sucesivas imágenes (i.e. “frames”) ampliadas o reducidas a partir de la escena virtual inicial, según un nivel de ampliación entre imágenes sucesivas determinado, hasta que deje de recibir la orden de zoom. Debido al uso de una alta tasa de refresco (e.g. 30, 60 o 90 frames por segundo) y el cómputo acelerado de las imágenes sucesivas, el usuario percibe de manera fluida un zoom de la escena virtual inicial mientras realice la acción de orden de zoom (e.g. mientras mantenga un botón pulsado).The zoom order includes at least the information indicative of whether to enlarge or reduce the initial image. In addition, the zoom order may contain information on the zoom level to be applied to the initial virtual scene, although said information is preferably prefixed in the graphic processing unit (eg by a variable stored in memory and modifiable by the user using an application). ). The zoom order can also include information about whether it is a point zoom or a continuous or progressive zoom that must be applied to the initial virtual scene. In the case of progressive zoom, the command is preferably sent continuously as long as the haptic device detects the user's performance (eg while the user presses a button). In this way, the graphic processing unit will generate, according to a certain refresh rate, successive images (ie "frames") enlarged or reduced from the initial virtual scene, according to a level of enlargement between determined successive images, until it leaves to receive the zoom order. Due to the use of a high refresh rate (eg 30, 60 or 90 frames per second) and the accelerated counting of the successive images, the user fluidly perceives a zoom of the initial virtual scene while performing the zoom order action (eg while holding a button pressed).
La Figura 1B representa un esquema del método de interacción en entornos virtuales de acuerdo a otra posible realización. Esta realización difiere de la realización anterior en el modo de detección de la orden de zoom. En el caso de la Figura 1A, la detección 104 es realizada por el dispositivo háptico, mediante la detección de la pulsación de un botón del dispositivo háptico. En la realización de la Figura 1B la detección 105 la realiza la unidad de procesamiento gráfico mediante la detección de un comando de voz del usuario capturado por un micrófono. Figure 1B represents a scheme of the interaction method in virtual environments according to another possible embodiment. This embodiment differs from the previous embodiment in the zoom order detection mode. In the case of Figure 1A, detection 104 is performed by the haptic device, by detecting the pressing of a button on the haptic device. In the embodiment of Figure 1B the detection 105 is performed by the graphic processing unit by detecting a voice command of the user captured by a microphone.
En la Figura 2A se muestran los distintos elementos del sistema de interacción en entornos virtuales de acuerdo a una posible realización de la presente invención. En particular, el sistema comprende un dispositivo háptico 204 para que el usuario interactúe con un entorno virtual, una unidad de procesamiento gráfico 206 encargada de generar escenas del entorno virtual, y un dispositivo de visualización 208 para representar las escenas virtuales generadas. De acuerdo a la realización mostrada en la Figura 2A, el dispositivo de visualización es un visor de realidad virtual 208, si bien puede ser también una pantalla normal (e.g. un monitor, un televisor). Figure 2A shows the different elements of the interaction system in virtual environments according to a possible embodiment of the present invention. In particular, the system comprises a haptic device 204 for the user to interact with a virtual environment, a graphic processing unit 206 responsible for generating scenes from the virtual environment, and a display device 208 for representing the virtual scenes generated. According to the embodiment shown in Figure 2A, the display device is a virtual reality viewer 208, although it can also be a normal screen (eg a monitor, a television).
Según la realización de la Figura 2A, la unidad de procesamiento gráfico 206 es una entidad separada e independiente del visor de realidad virtual 208. Dicha unidad de procesamiento gráfico se puede implementar, por ejemplo, mediante un ordenador conectado por cable 210 (o por conexión inalámbrica a alta frecuencia según las recientes tecnologías, e.g. WiGig) al visor de realidad virtual 208. Sin embargo, en otra realización (no mostrada en las figuras) la unidad de procesamiento gráfico 206 y el visor de realidad virtual 208 pueden ser la misma entidad, esto es, la unidad de procesamiento gráfico 206 puede estar integrada en el propio visor de realidad virtual 208 autónomo (e.g. Oculus Go). En otra realización, la unidad de procesamiento gráfico 206 y el dispositivo de visualización pueden estar implementados en un teléfono móvil inteligente que se acopla a un soporte (e.g. casco de realidad virtual Samsung Gear VR) para su correcta utilización.According to the embodiment of Figure 2A, the graphic processing unit 206 is a separate entity independent of the virtual reality viewer 208. Such a graphic processing unit may be implemented, for example, by a computer connected by cable 210 (or by connection). wireless at high frequency according to the recent technologies, eg WiGig) to the virtual reality viewer 208. However, in another embodiment (not shown in the figures) the graphic processing unit 206 and the virtual reality viewer 208 may be the same entity , that is, the graphic processing unit 206 can be integrated into the autonomous virtual reality viewer 208 (eg Oculus Go). In another embodiment, the graphic processing unit 206 and the display device may be implemented in a smart mobile telephone that is coupled to a support (eg, Samsung Gear VR virtual reality helmet) for its correct use.
El dispositivo háptico 204 está configurado para detectar una orden de zoom para ampliar o reducir una escena virtual inicial 212, representada a modo de ejemplo en la figura. La orden de zoom puede ser detectada por el dispositivo háptico 204 mediante la detección de la pulsación, realizada por un usuario 202, de un botón 205 del dispositivo háptico 204. El dispositivo háptico 204 envía 106, preferentemente de manera inalámbrica, la orden de zoom detectada (y convenientemente procesada) a la unidad de procesamiento gráfico 206.The haptic device 204 is configured to detect a zoom order to enlarge or reduce an initial virtual scene 212, represented by way of example in the figure. The zoom command can be detected by the haptic device 204 by detecting the pulsation, performed by a user 202, of a button 205 of the haptic device 204. The haptic device 204 sends 106, preferably wirelessly, the zoom order detected (and conveniently processed) to the graphic processing unit 206.
Según se muestra en la Figura 2B, la unidad de procesamiento gráfico 206 genera, a partir de la escena virtual inicial 212, una nueva escena virtual 216 con un nivel de ampliación modificado en función de la orden de zoom recibida (en el ejemplo, la orden de zoom es de ampliación, pero podría ser en su lugar de reducción). Tal y como se ha indicado anteriormente, el nivel de ampliación o reducción a aplicar (e.g. 1.5x, 2x, 4x,...) puede estar predeterminado por la unidad de procesamiento gráfico 206 (e.g. un dato almacenado en memoria) o puede ser un dato incluido en la propia orden de zoom enviada 106. El zoom a realizar puede ser puntual o progresivo, en función de la orden de zoom enviada 106 (por ejemplo, la orden de zoom puede incluir un campo que determina el tipo de zoom a aplicar, si puntual o progresivo). A partir de entonces, la unidad de procesamiento gráfico 206 mapea el espacio de trabajo del dispositivo háptico 204 (las coordenadas espaciales donde se mueve el dispositivo háptico) con el espacio que representa la nueva escena virtual 216.As shown in Figure 2B , the graphic processing unit 206 generates, from the initial virtual scene 212, a new virtual scene 216 with a modified magnification level as a function of the received zoom order (in the example, the zoom order is enlargement, but it could be in its reduction place). As indicated above, the level of enlargement or reduction to be applied (eg 1.5x, 2x, 4x, ...) may be predetermined by the graphic processing unit 206 (eg a data stored in memory) or it may be a data included in the zoom order itself sent 106. The zoom to be made can be specific or progressive, depending on the zoom order sent 106 (for example, the zoom order can include a field that determines the type of zoom to apply, if timely or progressive). Thereafter, the graphic processing unit 206 maps the work space of the haptic device 204 (the spatial coordinates where the haptic device moves) with the space representing the new virtual scene 216.
De acuerdo a una realización, la unidad de procesamiento gráfico 206 puede estar configurada para efectuar un zoom en la escena virtual inicial 212 centrado en un avatar virtual, recolocando el dispositivo háptico 204 hacia el centro del espacio de trabajo.According to one embodiment, the graphic processing unit 206 may be configured to zoom the initial virtual scene 212 centered on a virtual avatar, relocating the haptic device 204 to the center of the workspace.
En otra realización, se aplica un zoom en el que se mantienen las proporciones desde un avatar virtual a los bordes de la escena. En esta realización la unidad de procesamiento gráfico 206 efectúa un zoom en la escena virtual inicial manteniendo a un avatar virtual 214 (representado con un aspa) a la misma distancia (Dx, Dy) de los bordes de la escena virtual, tal y como se representa en el ejemplo de las Figuras 2A y 2B, donde las líneas punteadas representan la distancia en porcentaje desde el avatar 214 a los bordes de la escena. Tras la activación del zoom háptico, se comprueba cómo el avatar 214 se mantiene a la misma distancia en porcentaje de los bordes de la escena, lo que representa que tanto el efector final (i.e. el dispositivo físico que maneja el usuario con la mano) como el puntero háptico (i.e. la representación del efector final en el entorno virtual) del dispositivo háptico mantienen su posición.In another embodiment, a zoom is applied in which proportions are maintained from a virtual avatar to the edges of the scene. In this embodiment, the graphic processing unit 206 zooms in the initial virtual scene maintaining a virtual avatar 214 (represented with a cross) at the same distance (Dx, Dy) from the edges of the virtual scene, as represents in the example of Figures 2A and 2B, where the dashed lines represent the percentage distance from the avatar 214 to the edges of the scene. Behind the activation of the haptic zoom, it is checked how the avatar 214 is kept at the same distance as a percentage of the edges of the scene, which represents that both the final effector (ie the physical device that the user handles) and the pointer haptic (ie the representation of the end effector in the virtual environment) of the haptic device maintains its position.
En función de la orden de zoom recibida o de la configuración de la unidad de procesamiento gráfico 206, el zoom háptico ejecutado puede ser un zoom puntual, de forma que cada pulsación del botón 205 del dispositivo háptico 204 conlleva la realización de un zoom en la escena con un determinado valor predefinido, o un zoom continuo, donde al mantener pulsado el botón 205 del dispositivo háptico 204 se aplicará un zoom progresivo sobre la escena hasta que el usuario deje de presionar el botón, momento en el que se considera alcanzado el nivel de ampliación deseado.Depending on the zoom order received or the configuration of the graphic processing unit 206, the haptic zoom executed may be a point zoom, so that each pressing of the button 205 of the haptic device 204 involves zooming the scene with a certain predefined value, or a continuous zoom, where pressing and holding the button 205 of the haptic device 204 will apply a progressive zoom on the scene until the user stops pressing the button, at which time the level is considered reached of desired expansion.
La Figura 3 muestra, para la ejecución de un zoom continuo, el cálculo del nivel de ampliación sobre la escena original que debe tener cada trame durante 1 segundo, tanto a 30 trames por segundo (parte superior de la Figura 3) como a 60 trames por segundo (parte inferior de la Figura 3). Figure 3 shows, for the execution of a continuous zoom, the calculation of the magnification level on the original scene that each trame must have for 1 second, both at 30 trams per second (top of Figure 3) and at 60 trams per second (bottom of Figure 3).
Dada una escena inicial eo y una posición del avatar virtual p medida en porcentaje a los bordes de la escena, el zoom háptico se activa cuando el usuario mantenga presionado uno de los botones 205 del dispositivo háptico 204. Para conseguir un nivel aceptable de fluidez en la ampliación se realizan como mínimo 30 pequeñas ampliaciones del zoom en cada segundo, siendo 60 el número de actualizaciones por segundo deseadas. Partiendo de la escena inicial eo con un valor de ampliación 1.0 y una tasa de refresco de 30 ampliaciones por segundo, el valor que debe tomar el zoom en la escena posterior, escena ei, es:Given an initial scene eo and a position of the virtual avatar p measured in percentage at the edges of the scene, the haptic zoom is activated when the user presses one of the buttons 205 of the haptic device 204. To achieve an acceptable level of fluency in At least 30 small magnifications of the zoom are made in each second, with 60 the number of updates per second desired. Starting from the initial scene eo with a magnification value of 1.0 and a refresh rate of 30 enlargements per second, the value that the zoom must take in the subsequent scene, scene ei, is:
La fórmula general para el cálculo del nivel de zoom para una escena genérica e, a partir de la escena anterior e-i, es:The general formula for calculating the zoom level for a generic scene e, from the previous scene ei, is:
En la fórmula anterior a es una constante y fps es la tasa de refresco (en frames por segundo). En una realización preferida a =0,3. Al aplicar dicha fórmula consecutivamente durante 30 iteraciones (un segundo) sobre la escena inicial, con nivel de zoom inicial de 1.0 (zoom(e0) = 1.0 ), se obtiene un nivel de zoom final de 1.3478, por lo que la escena inicial eo en un segundo habrá experimentado un nivel de ampliación del 34.78% (zoom(e30) = 1.3478 ). Para el ejemplo de 60 fps, el zoom final es de 34.88% (zoom(e60) = 1.3488 ). In the previous formula a is a constant and fps is the refresh rate (in frames per second). In a preferred embodiment a = 0.3. By applying this formula consecutively for 30 iterations (one second) on the initial stage, with initial zoom level of 1.0 (zoom (e0) = 1.0), a level of end zoom 1.3478 is obtained at the initial stage and or in a second you will have experienced an enlargement level of 34.78% ( zoom (e30) = 1.3478 ). For the 60 fps example, the final zoom is 34.88% ( zoom (e60) = 1.3488 ).
Una vez calculado el valor del zoom de cada escena e, se aplicará ese nivel de zoom sobre la escena anterior e- i , de tal manera que la escena resultante e¡conserve el avatar virtual a la misma distancia en porcentaje de los bordes de la escena que la escena anterior e- i . Once calculated the zoom setting of each scene and, the zoom level of the previous scene and apply - i, so that the resulting e scene keep the virtual avatar at the same distance as a percentage of the edges of the scene that the previous scene e - i .
Existen diferentes maneras de activar el zoom háptico atendiendo a las posibilidades físicas (e.g. botones) de los que disponga el dispositivo háptico en cuestión. Dada la diferente disponibilidad de botones en los diferentes dispositivos hápticos de escritorio presentes en el mercado, la activación del zoom háptico (ya sea en modo de zoom puntual o en modo de zoom continuo) se puede realizar de varias maneras:There are different ways to activate the haptic zoom taking into account the physical possibilities (e.g., buttons) of the available haptic device. Given the different availability of buttons in the different haptic desktop devices present in the market, haptic zoom activation (either in point zoom mode or continuous zoom mode) can be done in several ways:
- Dispositivos hápticos con un único botón:- Haptic devices with a single button:
• Zoom puntual (niveles constantes de zoom): Cada pulsación del botón del dispositivo háptico conlleva la realización de un zoom en la escena con un determinado valor predefinido. Deshacer un nivel de zoom podrá llevarse a cabo con una doble pulsación rápida del botón.• Spot zoom (constant zoom levels): Each press of the button of the haptic device entails zooming the scene with a certain predefined value. Undo a zoom level can be carried out with a double quick press of the button.
• Zoom continuo: Manteniendo pulsado el botón del dispositivo háptico se aplicará un zoom progresivo sobre la escena hasta que el usuario deje de presionar el botón, momento en el que se considera alcanzado el nivel de ampliación deseado. La acción que activará el zoom reverso será una doble pulsación del botón del dispositivo háptico manteniendo pulsado el botón tras la segunda pulsación.• Continuous zoom: Keeping the button of the haptic device pressed, a progressive zoom will be applied to the scene until the user stops pressing the button, at which point the desired level of magnification is considered reached. The action that will activate the back zoom will be a double press of the button of the haptic device keeping the button pressed after the second press.
- Dispositivos hápticos con al menos dos botones:- Haptic devices with at least two buttons:
• Zoom puntual (niveles constantes de zoom): Cada pulsación de uno de los botones del dispositivo háptico conllevará la realización de un zoom en la escena con un determinado valor predefinido. Deshacer un nivel de zoom podrá realizarse con una pulsación sobre el otro de los botones.• Spot zoom (constant zoom levels): Each press of one of the buttons of the haptic device will entail zooming in the scene with a certain predefined value. Undo a zoom level can be done with a click on the other of the buttons.
• Zoom continuo: Manteniendo pulsado uno de los botones del dispositivo háptico se aplicará un zoom progresivo sobre la escena hasta que el usuario deje de presionar el botón, que será cuando se haya alcanzado el nivel de ampliación deseado. La acción que activará el zoom reverso será el mantener pulsado el otro botón del dispositivo háptico.• Continuous zoom: Keeping one of the buttons on the haptic device pressed, a progressive zoom will be applied on the scene until the user stops pressing the button, which will be when the enlargement level has been reached. wanted. The action that will activate the reverse zoom will be to hold down the other button of the haptic device.
- Dispositivos hápticos sin botones: Mediante órdenes de voz el usuario puede aplicar, de forma constante o continua, tanto aumentos como decrementos al nivel de zoom. Las órdenes de voz son capturadas a través de un micrófono conectado a la unidad de procesamiento gráfico 206 (e.g. un ordenador o el propio visor de realidad virtual) encargada de representar el entorno virtual. La unidad de procesamiento gráfico 206 recibe, analiza y ejecuta los comandos de voz, aplicando la acción correspondiente sobre la escena virtual (i.e. activando el zoom háptico en la representación virtual).- Haptic devices without buttons: Through voice commands the user can apply, both constantly and continuously, both increases and decreases at the zoom level. The voice commands are captured through a microphone connected to the graphic processing unit 206 (e.g. a computer or the virtual reality viewer itself) responsible for representing the virtual environment. The graphic processing unit 206 receives, analyzes and executes the voice commands, applying the corresponding action on the virtual scene (i.e. activating the haptic zoom in the virtual representation).
La implementación del zoom háptico más adecuada es aquella en la que se utiliza un dispositivo háptico de escritorio con al menos dos botones como método de interacción aplicando un zoom continuo en el que se mantienen las proporciones desde el avatar a los bordes de la escena. The most appropriate haptic zoom implementation is one in which a desktop haptic device with at least two buttons is used as an interaction method applying a continuous zoom in which proportions are kept from the avatar to the edges of the scene.
Claims (21)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| ES201830941A ES2716012B2 (en) | 2018-09-28 | 2018-09-28 | INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| ES201830941A ES2716012B2 (en) | 2018-09-28 | 2018-09-28 | INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| ES2716012A1 true ES2716012A1 (en) | 2019-06-07 |
| ES2716012B2 ES2716012B2 (en) | 2020-07-22 |
Family
ID=66676931
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES201830941A Active ES2716012B2 (en) | 2018-09-28 | 2018-09-28 | INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES |
Country Status (1)
| Country | Link |
|---|---|
| ES (1) | ES2716012B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| ES2807674A1 (en) * | 2020-10-29 | 2021-02-23 | Univ Leon | PROGRAM METHOD, SYSTEM AND PRODUCT FOR INTERACTION IN VIRTUAL REALITY ENVIRONMENTS THROUGH A HAPTIC DESKTOP FORCES FEEDBACK DEVICE (Machine-translation by Google Translate, not legally binding) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110214087A1 (en) * | 2006-03-24 | 2011-09-01 | Denso Corporation | Display apparatus and method of controlling same |
| WO2012037157A2 (en) * | 2010-09-13 | 2012-03-22 | Alt Software (Us) Llc | System and method for displaying data having spatial coordinates |
| US20140154655A1 (en) * | 2009-06-04 | 2014-06-05 | Zimmer Dental, Inc. | Dental implant surgical training simulation system |
| US20170287225A1 (en) * | 2016-03-31 | 2017-10-05 | Magic Leap, Inc. | Interactions with 3d virtual objects using poses and multiple-dof controllers |
| US20180181199A1 (en) * | 2016-11-14 | 2018-06-28 | Logitech Europe S.A. | Systems and methods for operating an input device in an augmented/virtual reality environment |
-
2018
- 2018-09-28 ES ES201830941A patent/ES2716012B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110214087A1 (en) * | 2006-03-24 | 2011-09-01 | Denso Corporation | Display apparatus and method of controlling same |
| US20140154655A1 (en) * | 2009-06-04 | 2014-06-05 | Zimmer Dental, Inc. | Dental implant surgical training simulation system |
| WO2012037157A2 (en) * | 2010-09-13 | 2012-03-22 | Alt Software (Us) Llc | System and method for displaying data having spatial coordinates |
| US20170287225A1 (en) * | 2016-03-31 | 2017-10-05 | Magic Leap, Inc. | Interactions with 3d virtual objects using poses and multiple-dof controllers |
| US20180181199A1 (en) * | 2016-11-14 | 2018-06-28 | Logitech Europe S.A. | Systems and methods for operating an input device in an augmented/virtual reality environment |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| ES2807674A1 (en) * | 2020-10-29 | 2021-02-23 | Univ Leon | PROGRAM METHOD, SYSTEM AND PRODUCT FOR INTERACTION IN VIRTUAL REALITY ENVIRONMENTS THROUGH A HAPTIC DESKTOP FORCES FEEDBACK DEVICE (Machine-translation by Google Translate, not legally binding) |
Also Published As
| Publication number | Publication date |
|---|---|
| ES2716012B2 (en) | 2020-07-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20220151716A1 (en) | Association processes and related systems for manipulators | |
| US10384348B2 (en) | Robot apparatus, method for controlling the same, and computer program | |
| US11688148B2 (en) | Methods and systems for selection of objects | |
| EP2755194B1 (en) | 3d virtual training system and method | |
| KR102042115B1 (en) | Method for generating robot operation program, and device for generating robot operation program | |
| US11327630B1 (en) | Devices, methods, systems, and media for selecting virtual objects for extended reality interaction | |
| JP2014203463A5 (en) | ||
| CN105148514A (en) | Device and method for controlling game view angle | |
| CN109648568A (en) | Robot control method, system and storage medium | |
| CN105094635A (en) | Apparatus and method for navigating through volume image | |
| CN108066008A (en) | Aid in the Medical Instruments control method and system of operation | |
| JP6174646B2 (en) | Computer program for 3-axis operation of objects in virtual space | |
| ES2716012B2 (en) | INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES | |
| KR102361985B1 (en) | Method and system for wearable device-based manual providing | |
| CN115847431B (en) | Waypoint setting method, device, electronic equipment and storage medium of mechanical arm | |
| WO2018074054A1 (en) | Display control device, display control method, and program | |
| WO2020235539A1 (en) | Method and device for specifying position and posture of object | |
| JP2005527872A (en) | Method and apparatus for interacting with a three-dimensional computer model | |
| KR102093918B1 (en) | Line of sight moving stabilization method of electro-optical targetting pod for joystick command | |
| KR101586895B1 (en) | Method and apparatus for selecting 3-dimensional volume and medical imaging device using the same | |
| WO2025102363A1 (en) | Method for controlling movement of robot, electronic device, and computer readable storage medium | |
| JP5595948B2 (en) | Object correction processing apparatus, method and program | |
| JP7070245B2 (en) | Information processing device, motion control program, and motion control method | |
| JP4399815B2 (en) | Robot control method and control apparatus | |
| WO2024075565A1 (en) | Display control device and display control method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| BA2A | Patent application published |
Ref document number: 2716012 Country of ref document: ES Kind code of ref document: A1 Effective date: 20190607 |
|
| FG2A | Definitive protection |
Ref document number: 2716012 Country of ref document: ES Kind code of ref document: B2 Effective date: 20200722 |