[go: up one dir, main page]

ES2716012A1 - SYSTEM AND METHOD OF INTERACTION IN VIRTUAL ENVIRONMENTS USING HAPPICAL DEVICES - Google Patents

SYSTEM AND METHOD OF INTERACTION IN VIRTUAL ENVIRONMENTS USING HAPPICAL DEVICES Download PDF

Info

Publication number
ES2716012A1
ES2716012A1 ES201830941A ES201830941A ES2716012A1 ES 2716012 A1 ES2716012 A1 ES 2716012A1 ES 201830941 A ES201830941 A ES 201830941A ES 201830941 A ES201830941 A ES 201830941A ES 2716012 A1 ES2716012 A1 ES 2716012A1
Authority
ES
Spain
Prior art keywords
zoom
virtual scene
scene
virtual
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
ES201830941A
Other languages
Spanish (es)
Other versions
ES2716012B2 (en
Inventor
Llamas Camino Fernández
Costales Gonzalo Esteban
Fernández Alexis Gutiérrez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad de Leon
Original Assignee
Universidad de Leon
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad de Leon filed Critical Universidad de Leon
Priority to ES201830941A priority Critical patent/ES2716012B2/en
Publication of ES2716012A1 publication Critical patent/ES2716012A1/en
Application granted granted Critical
Publication of ES2716012B2 publication Critical patent/ES2716012B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

System and method of interaction in virtual environments. The method comprises: detecting (104, 105) a zoom order of an initial virtual scene (212); generating (108), on the part of a graphic processing unit (206), a new virtual scene (216) from the initial virtual scene (212) with a modified magnification level depending on the zoom order detected; mapping (110) the working space of a haptic device (204) with the space representing the new virtual scene (216); and represent (112) the new virtual scene (216). The zoom order can be performed by pressing a button (205) of the haptic device (204) or by voice command. The zoom order is an instruction that allows the expansion level of the initial virtual scene (212) to be progressively modified or the expansion level of the initial virtual scene (212) modified according to a certain predefined value. (Machine-translation by Google Translate, not legally binding)

Description

SISTEMA Y MÉTODO DE INTERACCIÓN EN ENTORNOS VIRTUALES UTILIZANDO SYSTEM AND METHOD OF INTERACTION IN VIRTUAL ENVIRONMENTS USING

DISPOSITIVOS HÁPTICOS HAPPICAL DEVICES

DESCRIPCIÓNDESCRIPTION

CAMPO DE LA INVENCIÓNFIELD OF THE INVENTION

El objeto de la invención se enmarca en el campo de la informática, más concretamente en el de los dispositivos hápticos y la simulación virtual.The object of the invention is framed in the field of computer science, more specifically in that of haptic devices and virtual simulation.

ANTECEDENTES DE LA INVENCIÓNBACKGROUND OF THE INVENTION

Las técnicas diseñadas para controlar la interacción mediante dispositivos hápticos se pueden clasificar en tres grupos atendiendo a su modo de funcionamiento: basadas en control de posición, basadas en control de velocidad y técnicas híbridas. En primer lugar, las técnicas basadas en el control de posición se sirven de la posición del efector final del dispositivo háptico -dentro del espacio de trabajo físico- para, consecuentemente, situar su avatar virtual. En segundo lugar, las técnicas basadas en control de velocidad desplazan el avatar virtual en concordancia a la desviación del efector final y con respecto al centro del espacio de trabajo, como si de un joystick se tratara. Por último, las técnicas híbridas combinan el control de posición y el control de velocidad en una misma, añadiendo algún mecanismo que permite intercambiarlas.The techniques designed to control the interaction by haptic devices can be classified into three groups according to their mode of operation: based on position control, based on speed control and hybrid techniques. In the first place, techniques based on position control use the position of the end effector of the haptic device -in the physical work space- to, consequently, locate its virtual avatar. Secondly, the techniques based on speed control displace the virtual avatar in accordance with the deviation of the end effector and with respect to the center of the workspace, as if it were a joystick. Finally, hybrid techniques combine position control and speed control in one, adding some mechanism that allows exchange.

Dentro de las técnicas de interacción basadas en control de posición se encuentran el clutching [1] y el mapeado directo o escalado [2]. El clutching es una adaptación a los dispositivos hápticos de la técnica utilizada en los ratones de escritorio. Consiste en levantar el ratón y volverlo a posar en una posición más cómoda cuando con un solo movimiento no es posible alcanzar un área de interés. Aplicado a los dispositivos hápticos, consiste en desacoplar el movimiento del efector final del movimiento del avatar virtual mientras se presione, por ejemplo, un botón. De esta manera, es posible realizar repetidas veces tal maniobra y alcanzar así cualquier parte de la escena virtual con un dispositivo háptico que tenga un espacio de trabajo limitado. El mapeado directo o escalado, realiza una correspondencia entre el espacio de trabajo del dispositivo háptico y toda la escena virtual, estableciendo un factor de escala lo que implica que en escenas grandes un movimiento pequeño del dispositivo háptico produzca un gran movimiento en el avatar virtual, penalizando seriamente la precisión. Within the techniques of interaction based on position control are clutching [1] and direct or scaled mapping [2]. Clutching is an adaptation to the haptic devices of the technique used in desktop mice. It consists of lifting the mouse and repositioning it in a more comfortable position when with a single movement it is not possible to reach an area of interest. Applied to haptic devices, it consists of decoupling the movement of the end effector from the movement of the virtual avatar while pressing, for example, a button. In this way, it is possible to repeatedly perform such maneuver and thus reach any part of the virtual scene with a haptic device that has a limited workspace. The direct mapping or scaling, makes a correspondence between the workspace of the haptic device and the entire virtual scene, establishing a scale factor which implies that in large scenes a small movement of the haptic device produces a great movement in the virtual avatar, seriously penalizing accuracy.

Otra de las técnicas basadas en control de posición es la presentada por Conti & Khatib [3], consistente en recolocar continuamente el efector final hacia el centro del espacio de trabajo sin actualizar la realimentación visual. En otras palabras, mientras se está interaccionando con un objeto virtual, el efector final se va desplazando gradualmente—y con movimientos suaves- hacia el centro del espacio de trabajo físico, sin que ello repercuta de ninguna manera en su aspecto visual, y por ende, sin que el usuario se percate.Another technique based on position control is the one presented by Conti & Khatib [3], consisting in continuously repositioning the final effector towards the center of the workspace without updating the visual feedback. In other words, while interacting with a virtual object, the end effector gradually moves - and with smooth movements - towards the center of the physical workspace, without affecting in any way its visual aspect, and therefore , without the user noticing.

Las técnicas híbridas comprenden dos modos de funcionamiento: uno basado en control de posición y otro en control de velocidad. Estas técnicas se centran en resolver el problema del cambio de modo, como es el caso de la propuesta de Liu et al. [4]. En ella, se propone mantener un área neutra alrededor del centro del espacio de trabajo del dispositivo háptico. Así, al ejecutar el cambio de modo no se perturba la posición deseada por el usuario, ya que dicho cambio está asociado a la pulsación de un botón— lo que puede repercutir en un movimiento no deseado del efector final.Hybrid techniques comprise two modes of operation: one based on position control and the other on speed control. These techniques focus on solving the problem of mode change, as is the case of the proposal of Liu et al. [4]. In it, it is proposed to maintain a neutral area around the center of the working space of the haptic device. Thus, when executing the mode change, the position desired by the user is not disturbed, since said change is associated with the pressing of a button- which may affect an unwanted movement of the end effector.

Por último, la denominada técnica de la burbuja también se encuadra dentro de las técnicas de interacción híbridas y consiste en dividir virtualmente el espacio de trabajo del dispositivo háptico en dos secciones: una burbuja interior y el resto del área de trabajo exterior. Se representa visualmente una burbuja semitransparente en el entorno virtual y, dentro de la burbuja, se consigue una buena precisión gracias a un mapeado 1:1; mientras que para poder alcanzar cualquier parte del entorno es necesario mover la burbuja. Para ello, realizando fuerza con el avatar virtual hacia afuera de la misma, ésta se moverá en la dirección del avatar, a mayor o menor velocidad dependiendo de la magnitud aplicada [5].Finally, the so-called bubble technique is also framed within the hybrid interaction techniques and consists in virtually dividing the workspace of the haptic device into two sections: an inner bubble and the rest of the outer work area. A semi-transparent bubble is visually represented in the virtual environment and, within the bubble, good precision is achieved thanks to a 1: 1 mapping; while to reach any part of the environment it is necessary to move the bubble. To do this, making force with the virtual avatar out of it, it will move in the direction of the avatar, at greater or lesser speed depending on the applied magnitude [5].

Referencias bibliográficasBibliographic references

[1] Dominjon, L., Perret, J., & Lécuyer, A. (2007). Novel devices and interaction techniques for human-scale haptics. The Visual Computer, 23(4), 257-266.[1] Dominjon, L., Perret, J., & Lécuyer, A. (2007). Novel devices and interaction techniques for human-scale haptics. The Visual Computer, 23 (4), 257-266.

[2] Hirzinger, G., Brunner, B., Dietrich, J., & Heindl, J. (1993). Sensor-based space robotics-ROTEX and its telerobotic features. IEEE Transactions on robotics and automation, 9(5), 649­ 663.[2] Hirzinger, G., Brunner, B., Dietrich, J., & Heindl, J. (1993). Sensor-based space robotics-ROTEX and its telerobotic features. IEEE Transactions on robotics and automation, 9 (5), 649 663.

[3] Conti, F., & Khatib, O. (2005, March). Spanning large workspaces using small haptic devices. In Eurohaptics Conference, 2005 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2005. World Haptics 2005. First Joint (pp. 183-188). IEEE.[3] Conti, F., & Khatib, O. (2005, March). Spanning large workspaces using small haptic devices. In Eurohaptics Conference, 2005 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2005. World Haptics 2005. First Joint (pp. 183-188). IEEE.

[4] Liu, L., Liu, G., Zhang, Y., & Wang, D. (2014, August). A modified motion mapping method for haptic device based space teleoperation. In Robot and Human Interactive Communication, 2014 RO-MAN: The 23rd IEEE International Symposium on (pp. 449-453). IEEE.[4] Liu, L., Liu, G., Zhang, Y., & Wang, D. (2014, August). A modified motion mapping method for haptic device based space teleoperation. In Robot and Human Interactive Communication, 2014 RO-MAN: The 23rd IEEE International Symposium on (pp. 449-453). IEEE.

[5] Dominjon, L., Lecuyer, A., Burkhardt, J. M., Andrade-Barroso, G., & Richir, S. (2005, March). The" Bubble" technique: interacting with large virtual environments using haptic devices with limited workspace. In Eurohaptics Conference, 2005 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2005. World Haptics 2005. First Joint (pp. 639-640). IEEE.[5] Dominjon, L., Lecuyer, A., Burkhardt, J.M., Andrade-Barroso, G., & Richir, S. (2005, March). The "Bubble" technique: interacting with large virtual environments using haptic devices with limited workspace. In Eurohaptics Conference, 2005 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2005. World Haptics 2005. First Joint (pp. 639-640). IEEE.

DESCRIPCIÓN DE LA INVENCIÓNDESCRIPTION OF THE INVENTION

La invención se refiere a un método y sistema de interacción en entornos virtuales utilizando dispositivos hápticos. La invención propone un nuevo modelo de interacción para dispositivos hápticos que soluciona el principal problema de los mismos, su espacio de trabajo limitado, permitiendo utilizar este tipo de dispositivos con un área de trabajo limitada como principales elementos de interacción, consiguiendo un alto nivel de movilidad y precisión.The invention relates to a method and system of interaction in virtual environments using haptic devices. The invention proposes a new interaction model for haptic devices that solves the main problem of them, their limited work space, allowing to use this type of devices with a limited work area as main elements of interaction, achieving a high level of mobility and precision.

La presente invención permite utilizar los dispositivos hápticos para una interacción natural y precisa con escenas virtuales. El modelo de interacción está basado en la realización de ampliaciones sobre una escena virtual inicial utilizando un dispositivo háptico (por lo que la ampliación realizada se puede denominar “zoom háptico”), lo que permite al operador realizar una primera fase de aproximación al área de interés de la escena para posteriormente activar el zoom háptico y disponer de una mayor precisión. Por tanto, dada una escena virtual en la que se utilice un dispositivo háptico, el zoom háptico consiste en realizar una o varias ampliaciones de la misma para conseguir un mayor nivel de precisión háptica.The present invention allows the use of haptic devices for a natural and precise interaction with virtual scenes. The interaction model is based on the realization of enlargements on an initial virtual scene using a haptic device (so the magnification performed can be called "haptic zoom"), which allows the operator to perform a first phase of approach to the area of interest of the scene to later activate the haptic zoom and have a greater precision. Therefore, given a virtual scene in which a haptic device is used, the haptic zoom consists of performing one or more enlargements of it to achieve a higher level of haptic precision.

En cada una de las escenas ampliadas, el espacio de trabajo disponible para el avatar virtual del dispositivo háptico se mapea directamente con el espacio que representa la escena virtual, permitiendo de esta manera que el avatar alcance cualquier lugar de la escena. Si el usuario requiere un mayor nivel de precisión sobre alguna zona de la escena, se activa el zoom háptico. Este hecho repercute en la realización de un zoom visual sobre el área de interés, dando lugar a una segunda escena. Con la nueva escena ya determinada, se mapea de nuevo el espacio de trabajo del dispositivo háptico con el espacio que representa la nueva escena, permitiendo una vez más que el avatar virtual alcance cualquier zona.In each of the enlarged scenes, the work space available for the virtual avatar of the haptic device is directly mapped with the space representing the virtual scene, thus allowing the avatar to reach any place in the scene. If the user requires a higher level of precision on any part of the scene, the haptic zoom is activated. This fact affects the realization of a visual zoom on the area of interest, giving rise to a second scene. With the new scene already determined, it is mapped again the workspace of the haptic device with the space that represents the new scene, once again allowing the virtual avatar to reach any area.

El método de interacción en entornos virtuales de acuerdo a la presente invención comprende las siguientes etapas:The method of interaction in virtual environments according to the present invention comprises the following stages:

- Detectar una orden de zoom de una escena virtual inicial.- Detect a zoom order of an initial virtual scene.

- Generar, por parte de una unidad de procesamiento gráfico, una nueva escena virtual a partir de la escena virtual inicial con un nivel de ampliación modificado en función de la orden de zoom detectada.- Generate, on the part of a graphic processing unit, a new virtual scene from the initial virtual scene with a modified magnification level based on the zoom order detected.

- Mapear el espacio de trabajo de un dispositivo háptico con el espacio que representa la nueva escena virtual.- Mapping the workspace of a haptic device with the space that represents the new virtual scene.

- Representar la nueva escena virtual en un dispositivo de visualización, preferentemente en un visor de realidad virtual (aunque también podría representarse en una pantalla).- Represent the new virtual scene in a visualization device, preferably in a virtual reality viewer (although it could also be represented on a screen).

La orden de zoom puede ser una instrucción que permite modificar progresivamente el nivel de ampliación de la escena virtual inicial o modificar puntualmente el nivel de ampliación de la escena virtual inicial según un determinado valor predefinido.The zoom order can be an instruction that allows to progressively modify the level of expansion of the initial virtual scene or to modify the level of expansion of the initial virtual scene according to a certain predefined value.

La detección de la orden de zoom la puede realizar el propio dispositivo háptico, preferentemente mediante la detección de la pulsación de un botón del dispositivo háptico. En este caso, el método comprende enviar la orden de zoom detectada a la unidad de procesamiento gráfico. Adicionalmente, o alternativamente, la detección de la orden de zoom se puede llevar a cabo mediante el reconocimiento de un comando de voz. Para este caso la detección la puede realizar directamente la unidad de procesamiento gráfico mediante el análisis de la señal capturada por un micrófono.The detection of the zoom order can be performed by the haptic device itself, preferably by detecting the pressing of a button on the haptic device. In this case, the method comprises sending the zoom order detected to the graphic processing unit. Additionally, or alternatively, detection of the zoom order can be carried out by recognizing a voice command. For this case, the detection can be performed directly by the graphic processing unit by analyzing the signal captured by a microphone.

Un segundo aspecto de la presente invención se refiere a un sistema de interacción en entornos virtuales que implementa el método anteriormente descrito. El sistema comprende un dispositivo háptico para interactuar con un entorno virtual, una unidad de procesamiento gráfico encargada de generar escenas del entorno virtual, y un dispositivo de visualización para representar las escenas virtuales generadas. La unidad de procesamiento gráfico está configurada para recibir una orden de zoom de una escena virtual inicial; generar, a partir de la escena virtual inicial, una nueva escena virtual con un nivel de ampliación modificado en función de la orden de zoom recibida; y mapear el espacio de trabajo del dispositivo háptico con el espacio que representa la nueva escena virtual.A second aspect of the present invention relates to an interaction system in virtual environments that implements the method described above. The system comprises a haptic device for interacting with a virtual environment, a graphic processing unit responsible for generating scenes from the virtual environment, and a display device for representing the virtual scenes generated. The graphic processing unit is configured to receive a zoom command of an initial virtual scene; generate, from the initial virtual scene, a new virtual scene with a modified level of expansion in function of the received zoom order; and mapping the work space of the haptic device with the space that represents the new virtual scene.

Existen también diferentes maneras de aplicar el zoom háptico atendiendo a la localización de la ampliación y a la del avatar virtual.There are also different ways to apply the haptic zoom taking into account the location of the extension and the virtual avatar.

• Zoom centrado en el avatar virtual. En este modo de zoom se tomará la posición del avatar virtual como el centro de la escena tras la ampliación. Este modo de zoom implica la recolocación física del efector final del dispositivo háptico hacia el centro del espacio de trabajo para que concuerde con la representación en pantalla del mismo. Al realizar una ampliación de la escena centrada en el avatar virtual (puntero háptico), en la escena resultante el avatar virtual estará en el centro de la misma. Para hacer corresponder la escena con el dispositivo físico (efector), se debe recolocar el mismo automáticamente en el centro del espacio de trabajo, de tal forma que tanto el avatar virtual esté en el centro de la escena como el efector esté en el centro del espacio de trabajo. Esta correspondencia permitirá que con los movimientos permitidos por el espacio de trabajo (limitado) se alcance cualquier punto de la escena virtual. La recolocación automática se lleva a cabo mediante la aplicación de fuerzas del dispositivo háptico hacia el centro de su espacio de trabajo.• Zoom centered on the virtual avatar. In this zoom mode the position of the virtual avatar will be taken as the center of the scene after enlargement. This zoom mode involves the physical repositioning of the end effector of the haptic device to the center of the workspace so that it matches the on-screen representation of it. When performing an enlargement of the scene centered on the virtual avatar (haptic pointer), in the resulting scene the virtual avatar will be at the center of it. To match the scene with the physical device (effector), it must be repositioned automatically in the center of the workspace, so that both the virtual avatar is in the center of the scene and the effector is in the center of the scene. work space. This correspondence will allow any point of the virtual scene to be reached with the movements allowed by the (limited) workspace. Automatic repositioning is carried out by applying forces from the haptic device to the center of your workspace.

• Zoom manteniendo las proporciones. En este modo de zoom se realiza un aumento en la escena manteniendo el avatar virtual a las mismas distancias en porcentaje de los bordes de la escena, por lo que no será necesaria una recolocación física del efector final.• Zoom keeping the proportions. In this zoom mode, an increase is made in the scene, keeping the virtual avatar at the same distances as a percentage of the edges of the scene, so a physical repositioning of the final effector will not be necessary.

La presente invención soluciona un problema inherente a los dispositivos hápticos, su pequeño espacio de trabajo. Aplicar el modelo descrito por la invención en los dispositivos hápticos permite utilizarlos de una manera más natural y precisa como principales dispositivos de interacción en diferentes tipos de simulaciones de diferentes campos técnicos (sector médico, industria automovilística, industria aeroespacial, etc.).The present invention solves a problem inherent to haptic devices, their small workspace. Applying the model described by the invention in haptic devices allows them to be used in a more natural and precise manner as main interaction devices in different types of simulations from different technical fields (medical sector, automotive industry, aerospace industry, etc.).

BREVE DESCRIPCIÓN DE LOS DIBUJOSBRIEF DESCRIPTION OF THE DRAWINGS

A continuación, se describen de manera muy breve una serie de figuras que ayudan a comprender mejor la invención y que se relacionan expresamente con una realización de dicha invención que se presenta como un ejemplo no limitativo de ésta.Next, a series of figures that help to better understand the invention and that are expressly related to an embodiment of said invention that is presented as a non-limiting example thereof, are described very briefly.

Las Figuras 1A y 1B representan un diagrama de flujo del método de interacción en entornos virtuales de acuerdo a dos posibles realizaciones de la presente invención.Figures 1A and 1B represent a flow diagram of the interaction method in environments virtual devices according to two possible embodiments of the present invention.

Las Figuras 2A y 2B muestran, de acuerdo a una posible realización, el sistema de interacción en entornos virtuales en funcionamiento, cuando el usuario realiza un zoom háptico.Figures 2A and 2B show, according to a possible embodiment, the interaction system in virtual environments in operation, when the user performs a haptic zoom.

La Figura 3 representa la relación entre las imágenes por segundo (trames) y el nivel de zoom aplicado.Figure 3 represents the relationship between the images per second (frames) and the zoom level applied.

REALIZACIÓN PREFERENTE DE LA INVENCIÓNPREFERRED EMBODIMENT OF THE INVENTION

La presente invención se refiere a un método y sistema de interacción en entornos virtuales utilizando dispositivos hápticos.The present invention relates to a method and system of interaction in virtual environments using haptic devices.

La Figura 1A representa un esquema principal del método de interacción en entornos virtuales de acuerdo a la presente invención, a través del cual se realiza un zoom (ya sea de acercamiento o de alejamiento de la imagen) utilizando un dispositivo háptico. Este tipo de zoom habilitado por un dispositivo háptico se puede denominar “zoom háptico”. Figure 1A represents a main scheme of the interaction method in virtual environments according to the present invention, through which a zoom is made (either zooming in or zooming out of the image) using a haptic device. This type of zoom enabled by a haptic device can be called "haptic zoom".

Un usuario realiza una acción que genera una orden de zoom 102 para ampliar o reducir una escena virtual inicial, que es la imagen mostrada al usuario a través de un visor de realidad virtual. La acción puede consistir, por ejemplo, en la pulsación de un botón de un dispositivo háptico. La orden de zoom es detectada 104 por el dispositivo háptico, el cual envía 106 la orden de zoom detectada a una unidad de procesamiento gráfico.A user performs an action that generates a zoom order 102 to enlarge or reduce an initial virtual scene, which is the image shown to the user through a virtual reality viewer. The action may consist, for example, in the pressing of a button on a haptic device. The zoom command is detected 104 by the haptic device, which sends 106 the detected zoom order to a graphic processing unit.

A continuación, la unidad de procesamiento gráfico genera 108 una nueva escena virtual a partir de la escena virtual inicial con un nivel de ampliación modificado en función de la orden de zoom recibida, y mapea 110 el espacio de trabajo del dispositivo háptico con el espacio que representa la nueva escena virtual. Finalmente, la nueva escena virtual se representa 112 en un visor de realidad virtual (el cual estará normalmente portado por el mismo usuario).Next, the graphic processing unit generates a new virtual scene from the initial virtual scene with a modified magnification level according to the received zoom order, and maps the working space of the haptic device 110 to the space that represents the new virtual scene. Finally, the new virtual scene is represented 112 in a virtual reality viewer (which will normally be carried by the same user).

La orden de zoom incluye al menos la información indicativa de si hay que realizar una ampliación o una reducción de la imagen inicial. Además, la orden de zoom puede contener información del nivel de zoom a aplicar sobre la escena virtual inicial, si bien dicha información está preferentemente prefijada en la unidad de procesamiento gráfico (e.g. mediante una variable almacenada en memoria y modificable por el usuario utilizando una aplicación). La orden de zoom también puede incluir información relativa a si se trata de un zoom puntual o un zoom continuo o progresivo que hay que aplicar a la escena virtual inicial. En el caso de zoom progresivo, la orden se envía preferentemente de manera continuada mientras el dispositivo háptico detecte la actuación del usuario (e.g. mientras el usuario mantenga apretado un botón). De esta forma, la unidad de procesamiento gráfico generará, según una tasa determinada de refresco, sucesivas imágenes (i.e. “frames”) ampliadas o reducidas a partir de la escena virtual inicial, según un nivel de ampliación entre imágenes sucesivas determinado, hasta que deje de recibir la orden de zoom. Debido al uso de una alta tasa de refresco (e.g. 30, 60 o 90 frames por segundo) y el cómputo acelerado de las imágenes sucesivas, el usuario percibe de manera fluida un zoom de la escena virtual inicial mientras realice la acción de orden de zoom (e.g. mientras mantenga un botón pulsado).The zoom order includes at least the information indicative of whether to enlarge or reduce the initial image. In addition, the zoom order may contain information on the zoom level to be applied to the initial virtual scene, although said information is preferably prefixed in the graphic processing unit (eg by a variable stored in memory and modifiable by the user using an application). ). The zoom order can also include information about whether it is a point zoom or a continuous or progressive zoom that must be applied to the initial virtual scene. In the case of progressive zoom, the command is preferably sent continuously as long as the haptic device detects the user's performance (eg while the user presses a button). In this way, the graphic processing unit will generate, according to a certain refresh rate, successive images (ie "frames") enlarged or reduced from the initial virtual scene, according to a level of enlargement between determined successive images, until it leaves to receive the zoom order. Due to the use of a high refresh rate (eg 30, 60 or 90 frames per second) and the accelerated counting of the successive images, the user fluidly perceives a zoom of the initial virtual scene while performing the zoom order action (eg while holding a button pressed).

La Figura 1B representa un esquema del método de interacción en entornos virtuales de acuerdo a otra posible realización. Esta realización difiere de la realización anterior en el modo de detección de la orden de zoom. En el caso de la Figura 1A, la detección 104 es realizada por el dispositivo háptico, mediante la detección de la pulsación de un botón del dispositivo háptico. En la realización de la Figura 1B la detección 105 la realiza la unidad de procesamiento gráfico mediante la detección de un comando de voz del usuario capturado por un micrófono. Figure 1B represents a scheme of the interaction method in virtual environments according to another possible embodiment. This embodiment differs from the previous embodiment in the zoom order detection mode. In the case of Figure 1A, detection 104 is performed by the haptic device, by detecting the pressing of a button on the haptic device. In the embodiment of Figure 1B the detection 105 is performed by the graphic processing unit by detecting a voice command of the user captured by a microphone.

En la Figura 2A se muestran los distintos elementos del sistema de interacción en entornos virtuales de acuerdo a una posible realización de la presente invención. En particular, el sistema comprende un dispositivo háptico 204 para que el usuario interactúe con un entorno virtual, una unidad de procesamiento gráfico 206 encargada de generar escenas del entorno virtual, y un dispositivo de visualización 208 para representar las escenas virtuales generadas. De acuerdo a la realización mostrada en la Figura 2A, el dispositivo de visualización es un visor de realidad virtual 208, si bien puede ser también una pantalla normal (e.g. un monitor, un televisor). Figure 2A shows the different elements of the interaction system in virtual environments according to a possible embodiment of the present invention. In particular, the system comprises a haptic device 204 for the user to interact with a virtual environment, a graphic processing unit 206 responsible for generating scenes from the virtual environment, and a display device 208 for representing the virtual scenes generated. According to the embodiment shown in Figure 2A, the display device is a virtual reality viewer 208, although it can also be a normal screen (eg a monitor, a television).

Según la realización de la Figura 2A, la unidad de procesamiento gráfico 206 es una entidad separada e independiente del visor de realidad virtual 208. Dicha unidad de procesamiento gráfico se puede implementar, por ejemplo, mediante un ordenador conectado por cable 210 (o por conexión inalámbrica a alta frecuencia según las recientes tecnologías, e.g. WiGig) al visor de realidad virtual 208. Sin embargo, en otra realización (no mostrada en las figuras) la unidad de procesamiento gráfico 206 y el visor de realidad virtual 208 pueden ser la misma entidad, esto es, la unidad de procesamiento gráfico 206 puede estar integrada en el propio visor de realidad virtual 208 autónomo (e.g. Oculus Go). En otra realización, la unidad de procesamiento gráfico 206 y el dispositivo de visualización pueden estar implementados en un teléfono móvil inteligente que se acopla a un soporte (e.g. casco de realidad virtual Samsung Gear VR) para su correcta utilización.According to the embodiment of Figure 2A, the graphic processing unit 206 is a separate entity independent of the virtual reality viewer 208. Such a graphic processing unit may be implemented, for example, by a computer connected by cable 210 (or by connection). wireless at high frequency according to the recent technologies, eg WiGig) to the virtual reality viewer 208. However, in another embodiment (not shown in the figures) the graphic processing unit 206 and the virtual reality viewer 208 may be the same entity , that is, the graphic processing unit 206 can be integrated into the autonomous virtual reality viewer 208 (eg Oculus Go). In another embodiment, the graphic processing unit 206 and the display device may be implemented in a smart mobile telephone that is coupled to a support (eg, Samsung Gear VR virtual reality helmet) for its correct use.

El dispositivo háptico 204 está configurado para detectar una orden de zoom para ampliar o reducir una escena virtual inicial 212, representada a modo de ejemplo en la figura. La orden de zoom puede ser detectada por el dispositivo háptico 204 mediante la detección de la pulsación, realizada por un usuario 202, de un botón 205 del dispositivo háptico 204. El dispositivo háptico 204 envía 106, preferentemente de manera inalámbrica, la orden de zoom detectada (y convenientemente procesada) a la unidad de procesamiento gráfico 206.The haptic device 204 is configured to detect a zoom order to enlarge or reduce an initial virtual scene 212, represented by way of example in the figure. The zoom command can be detected by the haptic device 204 by detecting the pulsation, performed by a user 202, of a button 205 of the haptic device 204. The haptic device 204 sends 106, preferably wirelessly, the zoom order detected (and conveniently processed) to the graphic processing unit 206.

Según se muestra en la Figura 2B, la unidad de procesamiento gráfico 206 genera, a partir de la escena virtual inicial 212, una nueva escena virtual 216 con un nivel de ampliación modificado en función de la orden de zoom recibida (en el ejemplo, la orden de zoom es de ampliación, pero podría ser en su lugar de reducción). Tal y como se ha indicado anteriormente, el nivel de ampliación o reducción a aplicar (e.g. 1.5x, 2x, 4x,...) puede estar predeterminado por la unidad de procesamiento gráfico 206 (e.g. un dato almacenado en memoria) o puede ser un dato incluido en la propia orden de zoom enviada 106. El zoom a realizar puede ser puntual o progresivo, en función de la orden de zoom enviada 106 (por ejemplo, la orden de zoom puede incluir un campo que determina el tipo de zoom a aplicar, si puntual o progresivo). A partir de entonces, la unidad de procesamiento gráfico 206 mapea el espacio de trabajo del dispositivo háptico 204 (las coordenadas espaciales donde se mueve el dispositivo háptico) con el espacio que representa la nueva escena virtual 216.As shown in Figure 2B , the graphic processing unit 206 generates, from the initial virtual scene 212, a new virtual scene 216 with a modified magnification level as a function of the received zoom order (in the example, the zoom order is enlargement, but it could be in its reduction place). As indicated above, the level of enlargement or reduction to be applied (eg 1.5x, 2x, 4x, ...) may be predetermined by the graphic processing unit 206 (eg a data stored in memory) or it may be a data included in the zoom order itself sent 106. The zoom to be made can be specific or progressive, depending on the zoom order sent 106 (for example, the zoom order can include a field that determines the type of zoom to apply, if timely or progressive). Thereafter, the graphic processing unit 206 maps the work space of the haptic device 204 (the spatial coordinates where the haptic device moves) with the space representing the new virtual scene 216.

De acuerdo a una realización, la unidad de procesamiento gráfico 206 puede estar configurada para efectuar un zoom en la escena virtual inicial 212 centrado en un avatar virtual, recolocando el dispositivo háptico 204 hacia el centro del espacio de trabajo.According to one embodiment, the graphic processing unit 206 may be configured to zoom the initial virtual scene 212 centered on a virtual avatar, relocating the haptic device 204 to the center of the workspace.

En otra realización, se aplica un zoom en el que se mantienen las proporciones desde un avatar virtual a los bordes de la escena. En esta realización la unidad de procesamiento gráfico 206 efectúa un zoom en la escena virtual inicial manteniendo a un avatar virtual 214 (representado con un aspa) a la misma distancia (Dx, Dy) de los bordes de la escena virtual, tal y como se representa en el ejemplo de las Figuras 2A y 2B, donde las líneas punteadas representan la distancia en porcentaje desde el avatar 214 a los bordes de la escena. Tras la activación del zoom háptico, se comprueba cómo el avatar 214 se mantiene a la misma distancia en porcentaje de los bordes de la escena, lo que representa que tanto el efector final (i.e. el dispositivo físico que maneja el usuario con la mano) como el puntero háptico (i.e. la representación del efector final en el entorno virtual) del dispositivo háptico mantienen su posición.In another embodiment, a zoom is applied in which proportions are maintained from a virtual avatar to the edges of the scene. In this embodiment, the graphic processing unit 206 zooms in the initial virtual scene maintaining a virtual avatar 214 (represented with a cross) at the same distance (Dx, Dy) from the edges of the virtual scene, as represents in the example of Figures 2A and 2B, where the dashed lines represent the percentage distance from the avatar 214 to the edges of the scene. Behind the activation of the haptic zoom, it is checked how the avatar 214 is kept at the same distance as a percentage of the edges of the scene, which represents that both the final effector (ie the physical device that the user handles) and the pointer haptic (ie the representation of the end effector in the virtual environment) of the haptic device maintains its position.

En función de la orden de zoom recibida o de la configuración de la unidad de procesamiento gráfico 206, el zoom háptico ejecutado puede ser un zoom puntual, de forma que cada pulsación del botón 205 del dispositivo háptico 204 conlleva la realización de un zoom en la escena con un determinado valor predefinido, o un zoom continuo, donde al mantener pulsado el botón 205 del dispositivo háptico 204 se aplicará un zoom progresivo sobre la escena hasta que el usuario deje de presionar el botón, momento en el que se considera alcanzado el nivel de ampliación deseado.Depending on the zoom order received or the configuration of the graphic processing unit 206, the haptic zoom executed may be a point zoom, so that each pressing of the button 205 of the haptic device 204 involves zooming the scene with a certain predefined value, or a continuous zoom, where pressing and holding the button 205 of the haptic device 204 will apply a progressive zoom on the scene until the user stops pressing the button, at which time the level is considered reached of desired expansion.

La Figura 3 muestra, para la ejecución de un zoom continuo, el cálculo del nivel de ampliación sobre la escena original que debe tener cada trame durante 1 segundo, tanto a 30 trames por segundo (parte superior de la Figura 3) como a 60 trames por segundo (parte inferior de la Figura 3). Figure 3 shows, for the execution of a continuous zoom, the calculation of the magnification level on the original scene that each trame must have for 1 second, both at 30 trams per second (top of Figure 3) and at 60 trams per second (bottom of Figure 3).

Dada una escena inicial eo y una posición del avatar virtual p medida en porcentaje a los bordes de la escena, el zoom háptico se activa cuando el usuario mantenga presionado uno de los botones 205 del dispositivo háptico 204. Para conseguir un nivel aceptable de fluidez en la ampliación se realizan como mínimo 30 pequeñas ampliaciones del zoom en cada segundo, siendo 60 el número de actualizaciones por segundo deseadas. Partiendo de la escena inicial eo con un valor de ampliación 1.0 y una tasa de refresco de 30 ampliaciones por segundo, el valor que debe tomar el zoom en la escena posterior, escena ei, es:Given an initial scene eo and a position of the virtual avatar p measured in percentage at the edges of the scene, the haptic zoom is activated when the user presses one of the buttons 205 of the haptic device 204. To achieve an acceptable level of fluency in At least 30 small magnifications of the zoom are made in each second, with 60 the number of updates per second desired. Starting from the initial scene eo with a magnification value of 1.0 and a refresh rate of 30 enlargements per second, the value that the zoom must take in the subsequent scene, scene ei, is:

Figure imgf000010_0001
Figure imgf000010_0001

La fórmula general para el cálculo del nivel de zoom para una escena genérica e, a partir de la escena anterior e-i, es:The general formula for calculating the zoom level for a generic scene e, from the previous scene ei, is:

Figure imgf000010_0002
Figure imgf000010_0002

En la fórmula anterior a es una constante y fps es la tasa de refresco (en frames por segundo). En una realización preferida a =0,3. Al aplicar dicha fórmula consecutivamente durante 30 iteraciones (un segundo) sobre la escena inicial, con nivel de zoom inicial de 1.0 (zoom(e0) = 1.0 ), se obtiene un nivel de zoom final de 1.3478, por lo que la escena inicial eo en un segundo habrá experimentado un nivel de ampliación del 34.78% (zoom(e30) = 1.3478 ). Para el ejemplo de 60 fps, el zoom final es de 34.88% (zoom(e60) = 1.3488 ). In the previous formula a is a constant and fps is the refresh rate (in frames per second). In a preferred embodiment a = 0.3. By applying this formula consecutively for 30 iterations (one second) on the initial stage, with initial zoom level of 1.0 (zoom (e0) = 1.0), a level of end zoom 1.3478 is obtained at the initial stage and or in a second you will have experienced an enlargement level of 34.78% ( zoom (e30) = 1.3478 ). For the 60 fps example, the final zoom is 34.88% ( zoom (e60) = 1.3488 ).

Una vez calculado el valor del zoom de cada escena e, se aplicará ese nivel de zoom sobre la escena anterior e- i , de tal manera que la escena resultante e¡conserve el avatar virtual a la misma distancia en porcentaje de los bordes de la escena que la escena anterior e- i . Once calculated the zoom setting of each scene and, the zoom level of the previous scene and apply - i, so that the resulting e scene keep the virtual avatar at the same distance as a percentage of the edges of the scene that the previous scene e - i .

Existen diferentes maneras de activar el zoom háptico atendiendo a las posibilidades físicas (e.g. botones) de los que disponga el dispositivo háptico en cuestión. Dada la diferente disponibilidad de botones en los diferentes dispositivos hápticos de escritorio presentes en el mercado, la activación del zoom háptico (ya sea en modo de zoom puntual o en modo de zoom continuo) se puede realizar de varias maneras:There are different ways to activate the haptic zoom taking into account the physical possibilities (e.g., buttons) of the available haptic device. Given the different availability of buttons in the different haptic desktop devices present in the market, haptic zoom activation (either in point zoom mode or continuous zoom mode) can be done in several ways:

- Dispositivos hápticos con un único botón:- Haptic devices with a single button:

• Zoom puntual (niveles constantes de zoom): Cada pulsación del botón del dispositivo háptico conlleva la realización de un zoom en la escena con un determinado valor predefinido. Deshacer un nivel de zoom podrá llevarse a cabo con una doble pulsación rápida del botón.• Spot zoom (constant zoom levels): Each press of the button of the haptic device entails zooming the scene with a certain predefined value. Undo a zoom level can be carried out with a double quick press of the button.

• Zoom continuo: Manteniendo pulsado el botón del dispositivo háptico se aplicará un zoom progresivo sobre la escena hasta que el usuario deje de presionar el botón, momento en el que se considera alcanzado el nivel de ampliación deseado. La acción que activará el zoom reverso será una doble pulsación del botón del dispositivo háptico manteniendo pulsado el botón tras la segunda pulsación.• Continuous zoom: Keeping the button of the haptic device pressed, a progressive zoom will be applied to the scene until the user stops pressing the button, at which point the desired level of magnification is considered reached. The action that will activate the back zoom will be a double press of the button of the haptic device keeping the button pressed after the second press.

- Dispositivos hápticos con al menos dos botones:- Haptic devices with at least two buttons:

• Zoom puntual (niveles constantes de zoom): Cada pulsación de uno de los botones del dispositivo háptico conllevará la realización de un zoom en la escena con un determinado valor predefinido. Deshacer un nivel de zoom podrá realizarse con una pulsación sobre el otro de los botones.• Spot zoom (constant zoom levels): Each press of one of the buttons of the haptic device will entail zooming in the scene with a certain predefined value. Undo a zoom level can be done with a click on the other of the buttons.

• Zoom continuo: Manteniendo pulsado uno de los botones del dispositivo háptico se aplicará un zoom progresivo sobre la escena hasta que el usuario deje de presionar el botón, que será cuando se haya alcanzado el nivel de ampliación deseado. La acción que activará el zoom reverso será el mantener pulsado el otro botón del dispositivo háptico.• Continuous zoom: Keeping one of the buttons on the haptic device pressed, a progressive zoom will be applied on the scene until the user stops pressing the button, which will be when the enlargement level has been reached. wanted. The action that will activate the reverse zoom will be to hold down the other button of the haptic device.

- Dispositivos hápticos sin botones: Mediante órdenes de voz el usuario puede aplicar, de forma constante o continua, tanto aumentos como decrementos al nivel de zoom. Las órdenes de voz son capturadas a través de un micrófono conectado a la unidad de procesamiento gráfico 206 (e.g. un ordenador o el propio visor de realidad virtual) encargada de representar el entorno virtual. La unidad de procesamiento gráfico 206 recibe, analiza y ejecuta los comandos de voz, aplicando la acción correspondiente sobre la escena virtual (i.e. activando el zoom háptico en la representación virtual).- Haptic devices without buttons: Through voice commands the user can apply, both constantly and continuously, both increases and decreases at the zoom level. The voice commands are captured through a microphone connected to the graphic processing unit 206 (e.g. a computer or the virtual reality viewer itself) responsible for representing the virtual environment. The graphic processing unit 206 receives, analyzes and executes the voice commands, applying the corresponding action on the virtual scene (i.e. activating the haptic zoom in the virtual representation).

La implementación del zoom háptico más adecuada es aquella en la que se utiliza un dispositivo háptico de escritorio con al menos dos botones como método de interacción aplicando un zoom continuo en el que se mantienen las proporciones desde el avatar a los bordes de la escena. The most appropriate haptic zoom implementation is one in which a desktop haptic device with at least two buttons is used as an interaction method applying a continuous zoom in which proportions are kept from the avatar to the edges of the scene.

Claims (21)

REIVINDICACIONES 1. Método de interacción en entornos virtuales, caracterizado por que comprende:1. Method of interaction in virtual environments, characterized by comprising: detectar (104, 105) una orden de zoom de una escena virtual inicial (212); detecting (104, 105) a zoom command of an initial virtual scene (212); generar (108), por parte de una unidad de procesamiento gráfico (206), una nueva escena virtual (216) a partir de la escena virtual inicial (212) con un nivel de ampliación modificado en función de la orden de zoom detectada;generating (108), on the part of a graphic processing unit (206), a new virtual scene (216) from the initial virtual scene (212) with a modified magnification level depending on the zoom order detected; mapear (110) el espacio de trabajo de un dispositivo háptico (204) con el espacio que representa la nueva escena virtual (216);mapping (110) the working space of a haptic device (204) with the space representing the new virtual scene (216); representar (112) la nueva escena virtual (216).represent (112) the new virtual scene (216). 2. Método según la reivindicación 1, caracterizado por que la orden de zoom es una instrucción para modificar puntualmente el nivel de ampliación de la escena virtual inicial (212) según un determinado valor predefinido.Method according to claim 1, characterized in that the zoom order is an instruction for modifying the expansion level of the initial virtual scene (212) according to a specific predefined value. 3. Método según la reivindicación 1, caracterizado por que la orden de zoom es una instrucción para modificar progresivamente el nivel de ampliación de la escena virtual inicial (212).Method according to claim 1, characterized in that the zoom order is an instruction for progressively modifying the expansion level of the initial virtual scene (212). 4. Método según cualquiera de las reivindicaciones anteriores, caracterizado por que la detección (104) de la orden de zoom se realiza por parte del dispositivo háptico (204); donde el método comprende enviar (106) la orden de zoom detectada a la unidad de procesamiento gráfico (206).Method according to any of the previous claims, characterized in that the detection (104) of the zoom order is carried out by the haptic device (204); wherein the method comprises sending (106) the detected zoom order to the graphic processing unit (206). 5. Método según la reivindicación 4, caracterizado por que la detección (104) de la orden de zoom comprende la detección de la pulsación de un botón (205) del dispositivo háptico (204).Method according to claim 4, characterized in that the detection (104) of the zoom order comprises the detection of the pressing of a button (205) of the haptic device (204). 6. Método según cualquiera de las reivindicaciones 1 a 3, caracterizado por que la detección (105) de la orden de zoom comprende la detección de un comando de voz.Method according to any of claims 1 to 3, characterized in that the detection (105) of the zoom order comprises the detection of a voice command. 7. Método según cualquiera de las reivindicaciones 1 a 6, caracterizado por que el zoom efectuado en la escena virtual inicial (212) está centrado en un avatar virtual (214), donde el método comprende la recolocación del dispositivo háptico hacia el centro del espacio de trabajo. Method according to any of claims 1 to 6, characterized in that the zoom performed in the initial virtual scene (212) is centered on a virtual avatar (214), where the method comprises the relocation of the haptic device towards the center of the space of work. 8. Método según cualquiera de las reivindicaciones 1 a 6, caracterizado por que el zoom efectuado en la escena virtual inicial (212) mantiene a un avatar virtual (214) a la misma distancia en porcentaje de los bordes de la escena virtual.Method according to any of claims 1 to 6, characterized in that the zoom performed in the initial virtual scene (212) maintains a virtual avatar (214) at the same distance as a percentage of the edges of the virtual scene. 9. Método según cualquiera de las reivindicaciones anteriores, caracterizado por que la nueva escena virtual (216) se representa (112) en un visor de realidad virtual (208).Method according to any of the preceding claims, characterized in that the new virtual scene (216) is represented (112) in a virtual reality viewer (208). 10. Método según cualquiera de las reivindicaciones anteriores, caracterizado por que la nueva escena virtual (216) se representa (112) en una pantalla.Method according to any of the previous claims, characterized in that the new virtual scene (216) is represented (112) on a screen. 11. Sistema de interacción en entornos virtuales, que comprende:11. Interaction system in virtual environments, comprising: un dispositivo háptico (204) para interactuar con un entorno virtual,a haptic device (204) for interacting with a virtual environment, una unidad de procesamiento gráfico (206) encargada de generar escenas del entorno virtual,a graphic processing unit (206) responsible for generating scenes from the virtual environment, un dispositivo de visualización para representar las escenas virtuales generadas, a display device to represent the virtual scenes generated, caracterizado por que la unidad de procesamiento gráfico (206) está configurada para:characterized in that the graphic processing unit (206) is configured to: recibir una orden de zoom de una escena virtual inicial (212);receive a zoom command of an initial virtual scene (212); generar, a partir de la escena virtual inicial (212), una nueva escena virtual (216) con un nivel de ampliación modificado en función de la orden de zoom recibida;generating, from the initial virtual scene (212), a new virtual scene (216) with a modified magnification level depending on the received zoom order; mapear el espacio de trabajo del dispositivo háptico (204) con el espacio que representa la nueva escena virtual (216).mapping the workspace of the haptic device (204) with the space representing the new virtual scene (216). 12. Sistema según la reivindicación 11, caracterizado por que la orden de zoom es una instrucción para modificar puntualmente el nivel de ampliación de la escena virtual inicial (212),System according to claim 11, characterized in that the zoom order is an instruction for modifying the expansion level of the initial virtual scene (212), donde la unidad de procesamiento gráfico (206) está configurada para ampliar o reducir, en función de la orden de zoom, la escena virtual inicial (212) con un nivel de ampliación predefinido.wherein the graphic processing unit (206) is configured to enlarge or reduce, depending on the zoom order, the initial virtual scene (212) with a predefined magnification level. 13. Sistema según la reivindicación 11, caracterizado por que la orden de zoom es una instrucción para modificar progresivamente el nivel de ampliación de la escena virtual inicial donde la unidad de procesamiento gráfico (206) está configurada para ampliar o reducir, en función de la orden de zoom, de forma progresiva la escena virtual inicial (212) según una tasa de refresco determinada.System according to claim 11, characterized in that the zoom order is an instruction for progressively modifying the magnification level of the initial virtual scene wherein the graphic processing unit (206) is configured to progressively enlarge or reduce, depending on the zoom order, the initial virtual scene (212) according to a given refresh rate. 14. Sistema según la reivindicación 13, caracterizado por que la unidad de procesamiento gráfico (206) está configurada para calcular el nivel zoom aplicado a una escena e i a partir del nivel de zoom aplicado en una escena anterior e i_1 según la siguiente fórmula:System according to claim 13, characterized in that the graphic processing unit (206) is configured to calculate the zoom level applied to a scene and to start from the zoom level applied in a previous scene and i_1 according to the following formula: ) = zoom(e a x zo -o--m ) = zoom (e ax zo - o - m oom(eoom (e i i i_1i_1 ) ----------- ---(-e-) ----------- --- ( - e - ii -- __ --- 1one -) - ) z - z - dondewhere zoom (e) es el nivel de zoom de la escena e¡, zoom (e) is the zoom level of the scene e, zoom (e¡-i) es el nivel de zoom de la escena anterior e-i, zoom (ei-i) is the zoom level of the previous scene ei, a es una constante, a is a constant, fps es la tasa de refresco. fps is the refresh rate. 15. Sistema según cualquiera de las reivindicaciones 11 a 14, caracterizado por que el dispositivo háptico (204) está configurado para detectar (104) una orden de zoom de una escena virtual inicial (212) y enviar (106) la orden de zoom a la unidad de procesamiento gráfico (206).System according to any of claims 11 to 14, characterized in that the haptic device (204) is configured to detect (104) a zoom command of an initial virtual scene (212) and send (106) the zoom order to the graphic processing unit (206). 16. Sistema según la reivindicación 15, caracterizado por que el dispositivo háptico (204) está configurado para detectar (104) la orden de zoom mediante la detección de la pulsación de un botón (205) del dispositivo háptico (204).System according to claim 15, characterized in that the haptic device (204) is configured to detect (104) the zoom order by detecting the pressing of a button (205) of the haptic device (204). 17. Sistema según cualquiera de las reivindicaciones 11 a 14, caracterizado por que la unidad de procesamiento gráfico (206) está configurada para detectar (105) la orden de zoom mediante la detección de un comando de voz capturado por un micrófono.System according to any of claims 11 to 14, characterized in that the graphic processing unit (206) is configured to detect (105) the zoom order by detecting a voice command captured by a microphone. 18. Sistemas según cualquiera de las reivindicaciones 11 a 17, caracterizado por que la unidad de procesamiento gráfico (206) está configurada para:18. Systems according to any of claims 11 to 17, characterized in that the graphic processing unit (206) is configured to: efectuar un zoom en la escena virtual inicial centrado en un avatar virtual (214), y recolocar del dispositivo háptico (204) hacia el centro del espacio de trabajo. zoom in on the initial virtual scene centered on a virtual avatar (214), and relocate the haptic device (204) to the center of the workspace. 19. Sistema según cualquiera de las reivindicaciones 11 a 17, caracterizado por que la unidad de procesamiento gráfico (206) está configurada para efectuar un zoom en la escena virtual inicial manteniendo a un avatar virtual (214) a la misma distancia en porcentaje de los bordes de la escena virtual.System according to any of claims 11 to 17, characterized in that the graphic processing unit (206) is configured to zoom in on the initial virtual scene by keeping a virtual avatar (214) at the same distance as a percentage of the edges of the virtual scene. 20. Sistema según cualquiera de las reivindicaciones 11 a 19, caracterizado por que el dispositivo de visualización es un visor de realidad virtual (208).System according to any of claims 11 to 19, characterized in that the display device is a virtual reality viewer (208). 21. Sistema según cualquiera de las reivindicaciones 11 a 19, caracterizado por que el dispositivo de visualización es una pantalla. System according to any of claims 11 to 19, characterized in that the display device is a screen.
ES201830941A 2018-09-28 2018-09-28 INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES Active ES2716012B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES201830941A ES2716012B2 (en) 2018-09-28 2018-09-28 INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201830941A ES2716012B2 (en) 2018-09-28 2018-09-28 INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES

Publications (2)

Publication Number Publication Date
ES2716012A1 true ES2716012A1 (en) 2019-06-07
ES2716012B2 ES2716012B2 (en) 2020-07-22

Family

ID=66676931

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201830941A Active ES2716012B2 (en) 2018-09-28 2018-09-28 INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES

Country Status (1)

Country Link
ES (1) ES2716012B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2807674A1 (en) * 2020-10-29 2021-02-23 Univ Leon PROGRAM METHOD, SYSTEM AND PRODUCT FOR INTERACTION IN VIRTUAL REALITY ENVIRONMENTS THROUGH A HAPTIC DESKTOP FORCES FEEDBACK DEVICE (Machine-translation by Google Translate, not legally binding)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110214087A1 (en) * 2006-03-24 2011-09-01 Denso Corporation Display apparatus and method of controlling same
WO2012037157A2 (en) * 2010-09-13 2012-03-22 Alt Software (Us) Llc System and method for displaying data having spatial coordinates
US20140154655A1 (en) * 2009-06-04 2014-06-05 Zimmer Dental, Inc. Dental implant surgical training simulation system
US20170287225A1 (en) * 2016-03-31 2017-10-05 Magic Leap, Inc. Interactions with 3d virtual objects using poses and multiple-dof controllers
US20180181199A1 (en) * 2016-11-14 2018-06-28 Logitech Europe S.A. Systems and methods for operating an input device in an augmented/virtual reality environment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110214087A1 (en) * 2006-03-24 2011-09-01 Denso Corporation Display apparatus and method of controlling same
US20140154655A1 (en) * 2009-06-04 2014-06-05 Zimmer Dental, Inc. Dental implant surgical training simulation system
WO2012037157A2 (en) * 2010-09-13 2012-03-22 Alt Software (Us) Llc System and method for displaying data having spatial coordinates
US20170287225A1 (en) * 2016-03-31 2017-10-05 Magic Leap, Inc. Interactions with 3d virtual objects using poses and multiple-dof controllers
US20180181199A1 (en) * 2016-11-14 2018-06-28 Logitech Europe S.A. Systems and methods for operating an input device in an augmented/virtual reality environment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2807674A1 (en) * 2020-10-29 2021-02-23 Univ Leon PROGRAM METHOD, SYSTEM AND PRODUCT FOR INTERACTION IN VIRTUAL REALITY ENVIRONMENTS THROUGH A HAPTIC DESKTOP FORCES FEEDBACK DEVICE (Machine-translation by Google Translate, not legally binding)

Also Published As

Publication number Publication date
ES2716012B2 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
US20220151716A1 (en) Association processes and related systems for manipulators
US10384348B2 (en) Robot apparatus, method for controlling the same, and computer program
US11688148B2 (en) Methods and systems for selection of objects
EP2755194B1 (en) 3d virtual training system and method
KR102042115B1 (en) Method for generating robot operation program, and device for generating robot operation program
US11327630B1 (en) Devices, methods, systems, and media for selecting virtual objects for extended reality interaction
JP2014203463A5 (en)
CN105148514A (en) Device and method for controlling game view angle
CN109648568A (en) Robot control method, system and storage medium
CN105094635A (en) Apparatus and method for navigating through volume image
CN108066008A (en) Aid in the Medical Instruments control method and system of operation
JP6174646B2 (en) Computer program for 3-axis operation of objects in virtual space
ES2716012B2 (en) INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES
KR102361985B1 (en) Method and system for wearable device-based manual providing
CN115847431B (en) Waypoint setting method, device, electronic equipment and storage medium of mechanical arm
WO2018074054A1 (en) Display control device, display control method, and program
WO2020235539A1 (en) Method and device for specifying position and posture of object
JP2005527872A (en) Method and apparatus for interacting with a three-dimensional computer model
KR102093918B1 (en) Line of sight moving stabilization method of electro-optical targetting pod for joystick command
KR101586895B1 (en) Method and apparatus for selecting 3-dimensional volume and medical imaging device using the same
WO2025102363A1 (en) Method for controlling movement of robot, electronic device, and computer readable storage medium
JP5595948B2 (en) Object correction processing apparatus, method and program
JP7070245B2 (en) Information processing device, motion control program, and motion control method
JP4399815B2 (en) Robot control method and control apparatus
WO2024075565A1 (en) Display control device and display control method

Legal Events

Date Code Title Description
BA2A Patent application published

Ref document number: 2716012

Country of ref document: ES

Kind code of ref document: A1

Effective date: 20190607

FG2A Definitive protection

Ref document number: 2716012

Country of ref document: ES

Kind code of ref document: B2

Effective date: 20200722