[go: up one dir, main page]

DE102005011432B4 - Data glove - Google Patents

Data glove Download PDF

Info

Publication number
DE102005011432B4
DE102005011432B4 DE102005011432.6A DE102005011432A DE102005011432B4 DE 102005011432 B4 DE102005011432 B4 DE 102005011432B4 DE 102005011432 A DE102005011432 A DE 102005011432A DE 102005011432 B4 DE102005011432 B4 DE 102005011432B4
Authority
DE
Germany
Prior art keywords
data glove
subject
finger
receiving element
glove
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102005011432.6A
Other languages
German (de)
Other versions
DE102005011432A1 (en
Inventor
Peter Zimmermann
Dr. Symietz Michael
Ralph Voges
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102005011432.6A priority Critical patent/DE102005011432B4/en
Publication of DE102005011432A1 publication Critical patent/DE102005011432A1/en
Application granted granted Critical
Publication of DE102005011432B4 publication Critical patent/DE102005011432B4/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Datenhandschuh (40, 41) mit einem Referenzkörper (21), der zumindest zwei räumlich durch Stäbe getrennte mittels einer Kamera (10, 11, 12, 13) als Referenzpunkte identifizierbare Handreferenzpunkte (210, 211, 212, 213, 214) umfasst, wobei der Datenhandschuh (40, 41) zumindest ein Aufnahmeelement (22, 23, 24) zur Aufnahme einer Fingerspitze eines Probanden (3) oder eines Teils eines Fingers des Probanden (3) umfasst, wobei das Aufnahmeelement (22, 23, 24) zumindest einen mittels der Kamera (10, 11, 12, 13) oder einer weiteren Kamera als Referenzpunkt identifizierbaren Fingerreferenzpunkt (25, 26, 27) umfasst, und wobei der Datenhandschuh (40, 41) einen mit dem Aufnahmeelement (22, 23, 24) verbundenen Aktor zur Erzeugung einer haptischen Rückkopplung umfasst.

Figure DE102005011432B4_0000
Data glove (40, 41) with a reference body (21) comprising at least two spatially separated by bars by means of a camera (10, 11, 12, 13) as reference points identifiable hand reference points (210, 211, 212, 213, 214), wherein the data glove (40, 41) comprises at least one receiving element (22, 23, 24) for receiving a fingertip of a subject (3) or a part of a finger of the subject (3), wherein the receiving element (22, 23, 24) at least one by means of the camera (10, 11, 12, 13) or another camera as a reference point identifiable finger reference point (25, 26, 27), and wherein the data glove (40, 41) connected to the receiving element (22, 23, 24) Includes actuator for generating a haptic feedback.
Figure DE102005011432B4_0000

Description

Die Erfindung betrifft einen Datenhandschuh.The invention relates to a data glove.

Derartige Datenhandschuhe sind z.B. in Verbindung mit virtuellen Techniken einsetzbar, die insbesondere im Produkt-Entstehungs-Prozess in der Automobilindustrie zum Einsatz kommen können. Neben der reinen Visualisierung in CAx-Systemen und der Visualisierung unter Echtzeit-Bedingungen in Virtual-Reality-Systemen (VR) oder Augmented-Reality-Systemen (AR) umfasst dies auch so genannte interaktive und immersive Anwendungen. Solche Anwendungen können zum Beispiel eingesetzt werden, um Ergonomie-Untersuchungen und virtuelle Montagen durchzuführen.Such data gloves are e.g. Can be used in conjunction with virtual techniques, which can be used in particular in the product development process in the automotive industry. In addition to pure visualization in CAx systems and visualization under real-time conditions in virtual reality systems (VR) or augmented reality (AR) systems, this includes so-called interactive and immersive applications. Such applications may be used, for example, to perform ergonomic examinations and virtual assemblies.

Da der Mensch bei interaktiven und immersiven Anwendungen unmittelbares Element im gesamten Regelkreis ist, unterliegen diese Applikationen strengeren Echtzeit-Bedingungen. Um diesen Regelkreis stabil zu gestalten, sollte die Bildrate (neue Informationen) mindestens etwa 10 Bilder/s betragen, möglichst jedoch 20 bis 25 Bilder/s. Neben den stringenten Echtzeitbedingungen ist es für eine erfolgreiche Durchführung solcher Aufgaben wünschenswert, möglichst intuitiv agieren zu können. Dazu können Schnittstellen in Hardware und Software vorgesehen werden, die diesen Anspruch erfüllen können. Zu den Hardware-Schnittstellen gehören z.B. Displays, Datenhandschuhe zum Greifen und für die Gestik, Kraftfeedback bzw. ganz allgemein haptisches Feedback. Datenhandschuhe sind u. a. aus der WO 02/37466 A1 und der JP 082856627 A bekannt. Derartige Datenhandschuhe sind insbesondere von handschuhartigen Eingabevorrichtungen zu unterscheiden, wie sie z.B. die US 2003/0006962 A1 und die US 2004/0012574 A1 offenbaren. Datenhandschuhe für vorgenannte Anwendungen können z.B. von Virtual Technologies bezogen werden. Diese Datenhandschuhe werden auch mit zusätzlichen haptischen Feedbacks ausgestattet („Force Feedback“, Fa. Virtual Technologies). Entweder sind diese mechanisch (z.B. mit Seilzügen) oder pneumatisch (mit Luftkissen) ausgestattet. Bei der Seilzug-Lösung entstehen auch Kräfte größerer Art, die die Finger zurückziehen können.Since humans are an immediate element in the entire control loop for interactive and immersive applications, these applications are subject to stricter real-time conditions. To make this loop stable, the frame rate (new information) should be at least about 10 fps, but preferably 20 to 25 fps. In addition to the stringent real-time conditions, it is desirable for successful completion of such tasks to be as intuitive as possible. For this purpose, interfaces in hardware and software can be provided which can fulfill this requirement. The hardware interfaces include, for example, displays, data gloves for grasping and gestures, force feedback and generally haptic feedback. Data gloves are among others from the WO 02/37466 A1 and the JP 082856627 A known. Such data gloves are to be distinguished in particular from glove-like input devices, such as the US 2003/0006962 A1 and the US 2004/0012574 A1 reveal. Data gloves for the aforementioned applications can be obtained, for example, from Virtual Technologies. These data gloves are also equipped with additional haptic feedbacks ("Force Feedback", Virtual Technologies). Either these are equipped mechanically (eg with cable pulls) or pneumatically (with air cushions). The cable pull solution also creates forces of a larger kind, which can pull back the fingers.

Die DE 103 35 595 A1 offenbart ein Verfahren zur Bestimmung der räumlichen Lage von Markern in einem Volumen bezüglich eines Bezugs-Koordinatensystems mit Hilfe von Kameras, indem die Lage und Orientierung jeder Kamera eingemessen wird, mit jeder Kamera ein 2-D-Bild des Volumens aufgenommen und so 2-D-Bilder gewonnen werden. Die 2-D-Bilder werden in digitaler Form in eine EDV-Einrichtung eingelesen und dort einer Marker-Erkennungsprozedur unterzogen, wobei jede erkannte Markerposition gemessen und gespeichert wird. Es werden Gruppen von 2-D-Positionen gebildet, deren jede aus jedem 2-D-Bild höchstens eine 2-D-Position enthält, wobei jede 2-D-Position zu genau einer der Gruppen gehört, sodass man einen Satz von Gruppen erhält. In dieser Weise werden zahlreiche weitere Sätze gebildet. Aus dieser Vielzahl von Sätzen wird mit Hilfe der Methode des Bündelausgleichs einer dieser Sätze ausgewählt, und die erkannten 2-D-Positionen, welche zu derselben der so gefundenen Gruppen gehören, werden als zu demselben Marker gehörend interpretiert. Die räumlichen Lagen der Marker bezüglich des Bezugs-Koordinatensystems werden mittels der so gewonnenen Zuordnungen ermittelt.The DE 103 35 595 A1 discloses a method for determining the spatial location of markers in a volume relative to a reference coordinate system by means of cameras by measuring the position and orientation of each camera, taking a 2-D image of the volume with each camera and thus 2-D Images are obtained. The 2 D-pictures are read in digital form into an EDP device and there subjected to a marker recognition procedure, wherein each recognized marker position is measured and stored. Groups of 2-D positions are formed, each of which contains at most one 2-D position from each 2-D image, each 2-D position belonging to exactly one of the groups, thus obtaining a set of groups , In this way many more sentences are formed. From among the plurality of sets, one of these sets is selected using the bundle balance method, and the detected 2-D positions belonging to the same group thus found are interpreted as belonging to the same marker. The spatial positions of the markers with respect to the reference coordinate system are determined by means of the assignments thus obtained.

Die US 2004/0046736 A1 offenbart eine Handpuppe, die zum Beispiel als Vogel ausgestaltet sein kann, und deren Position dadurch bestimmt werden kann, dass an ihren Händen sogenannte Targets und an ihren Lippen kurvenförmige sogenannte Targets angebracht sind. Die Bewegung dieser sogenannten Targets kann durch ein Paar Kameras aufgenommen und mittels Computer in Signale transformiert werden, die über das Internet übertragbar sind. Auf diese Weise kann an einem anderen Ort mit der so ausgerüsteten Handpuppe interagiert werden.The US 2004/0046736 A1 discloses a hand puppet, which can be configured, for example, as a bird, and whose position can be determined by the fact that on their hands so-called targets and their lips curved so-called targets are attached. The movement of these so-called targets can be recorded by a pair of cameras and transformed by means of computers into signals that can be transmitted via the Internet. In this way, interacting with the hand puppet so equipped can be done in a different location.

Die DE 297 19 995 U1 offenbart ein System zur Umwandlung von visuell aufgenommenen Raumdaten in erfühl- und ertastbare Informationen. Dabei sind zwei Kameras auf dem Kopf eines Probanden vorgesehen, die „geradeaus“ filmen. Teil des Systems ist zudem ein Handschuh, in dessen Fingerkuppen Instrumente angebracht sind, die Druck ausüben können bzw. ein Druckgefühl erzeugen können. Darüber hinaus weist der derart ausgestaltete Handschuh Ultraschallgeber auf, die gepulste Signale aussenden, die mittels Mikrofonen aufgenommen werden, um daraus die Position des Handschuhs im Raum zu bestimmen.The DE 297 19 995 U1 discloses a system for converting visually captured spatial data into perceptual and tactile information. There are two cameras on the head of a subject, the "straight ahead" filming. Part of the system is also a glove, in whose fingertips instruments are attached, which can exert pressure or create a feeling of pressure. Moreover, the glove designed in this way has ultrasound transmitters that emit pulsed signals that are picked up by microphones in order to determine the position of the glove in space.

Die US 5 354 162 offenbart ein Aktorensystem zur Bereitstellung einer haptischen Rückkopplung, die die Steuerung einer Roboterhand mittels einer menschlichen Hand unterstützen soll. Dabei ist ein Polhemus-Sensor vorgesehen, mittels dessen die Position und Ausrichtung eines Handgelenks ermittelt wird. Darüber hinaus sind auf der Benutzerhand fieberoptische Sensoren angebracht, die die Bewegung und Position einzelner Finger ermitteln. Es ist Aufgabe der Erfindung, virtuelle interaktive oder immersive Anwendungen, insbesondere für den Produkt-Entstehungs-Prozess, in der Automobilindustrie zu verbessern bzw. einen verbesserten Herstellungsprozess für ein Kraftfahrzeug anzugeben.The US 5,354,162 discloses an actuator system for providing haptic feedback intended to assist in the control of a robot hand by means of a human hand. In this case, a Polhemus sensor is provided, by means of which the position and orientation of a wrist is determined. In addition, fever-optic sensors are mounted on the user's hand to determine the movement and position of individual fingers. It is the object of the invention to improve virtual interactive or immersive applications, in particular for the product development process, in the automobile industry or to specify an improved production process for a motor vehicle.

Vorgenannte Aufgabe wird durch einen Datenhandschuh gemäß Anspruch 1 gelöst, wobei unter anderen vorgesehen ist, dass der Datenhandschuh einen Referenzkörperumfasst, der zumindest zwei räumlich getrennte mittels einer, insbesondere als Infrarotkamera ausgestalteten, Kamera als Referenzpunkte identifizierbare Handreferenzpunkte umfasst, wobei der Datenhandschuh zumindest ein Aufnahmeelement zur Aufnahme einer Fingerspitze eines Probanden oder eines Teils eines Fingers des Probanden umfasst, und wobei das Aufnahmeelement zumindest einen mittels der Kamera oder einer weiteren, insbesondere als Infrarotkamera ausgestalteten, Kamera als Referenzpunkt identifizierbaren Fingerreferenzpunkt umfasst. Ein Datenhandschuh im Sinne der Erfindung ist nicht auf einen Handschuh im engen Sinne beschränkt. Vielmehr soll ein Datenhandschuh im Sinne der Erfindung auch Vorrichtungen einbeziehen, die lediglich einen Teil einer menschlichen Hand abdecken. Der Datenhandschuh umfasst zudem einen mit dem Aufnahmeelement verbundenen Aktor zur Erzeugung einer haptischen Rückkopplung. Kraft-Feedback-Vorrichtungen die der haptischen Rückkopplung dienen können sind z.B. aus folgenden Literaturstellen bekannt:

  • - Bergamasco, M. : The GLAD-IN-ART Project, Virtual Reality, Anwendungen und Trends in Forschung und Praxis, IPA/ IAO Forum, Springer Verlag, Berlin, S. 251 -258, 1993
  • - Bergamasco, M. : Theoretical Study and Experiments on Internal and External Force Replication, IEEE Workshop on Force Display on Virtual Environments and its Application to robotic Teleoperation, IEEE, New York, 1993
  • - Burdea, C.G. : Force and Touch Feedback for Virtual Reality, ISBN 0-471-02141-5, John Wiley & Sons, New York, 1996
  • - Frank-Lothar Krause, Trac Tang, Ulrich Ahle (Hrsg.), Abschlußbericht Leitprojekt Integrierte Virtuelle Produktentstehung, hier Teilprojekt 4.2, Entwicklung und Test eines Kraftffedback-Systems für die virtuellen Umgebungen, S. 125 ff., bmb+f, PT Forschungszentrum Karlsruhe, Juni 2002 .
The aforementioned object is achieved by a data glove according to claim 1, wherein among other things it is provided that the data glove comprises a reference body, the at least two spatially separated by means of a, in particular The camera comprises at least one receiving element for receiving a fingertip of a subject or a part of a finger of the subject, and wherein the receiving element at least one by means of the camera or another, in particular designed as an infrared camera, Camera as a reference point identifiable finger reference point includes. A data glove according to the invention is not limited to a glove in the strict sense. Rather, a data glove in the context of the invention should also include devices that cover only a portion of a human hand. The data glove also includes an actuator connected to the receiving element for generating a haptic feedback. Force feedback devices which can serve the haptic feedback are known, for example, from the following references:
  • - Bergamasco, M.: The GLAD-IN-ART Project, Virtual Reality, Applications and Trends in Research and Practice, IPA / IAO Forum, Springer Verlag, Berlin, pp. 251-258, 1993
  • - Bergamasco, M.: Theoretical Study and Experiments on Internal and External Force Replication, IEEE Workshop on Force Display on Virtual Environments and its Application to Robotic Teleoperation, IEEE, New York, 1993
  • - Burdea, CG: Force and Touch Feedback for Virtual Reality, ISBN 0-471-02141-5, John Wiley & Sons, New York, 1996
  • - Frank-Lothar Krause, Trac Tang, Ulrich Ahle (ed.), Final Report Leading Project Integrated Virtual Product Development, here Subproject 4.2, Development and Test of a Force Feedback System for Virtual Environments, p. 125 ff., Bmb + f, PT Forschungszentrum Karlsruhe , June 2002 ,

In vorteilhafter Ausgestaltung der Erfindung umfasst der Fingerreferenzpunkt ein Leuchtmittel, insbesondere eine LED.In an advantageous embodiment of the invention, the finger reference point comprises a light source, in particular an LED.

In weiterhin vorteilhafter Ausgestaltung der Erfindung umfasst der Referenzkörper zumindest vier, insbesondere fünf, räumlich getrennte Handreferenzpunkte.In a further advantageous embodiment of the invention, the reference body comprises at least four, in particular five, spatially separated manual reference points.

In weiterhin vorteilhafter Ausgestaltung der Erfindung ist der Datenhandschuh derart ausgestaltet, dass der Referenzkörper (bei bestimmungsgemäßer Verwendung des Datenhandschuhs) auf einem Handrücken des Probanden angeordnet ist.In a further advantageous embodiment of the invention, the data glove is designed such that the reference body (with the intended use of the data glove) is arranged on a back of the subject's hand.

In weiterhin vorteilhafter Ausgestaltung der Erfindung umfasst der Aktor eine Aktorschicht, deren Volumen mittels einer elektrischen Spannung oder eines elektrischen Stromes veränderbar ist. Die Aktorschicht ist dabei vorteilhafterweise innerhalb eines zylinderartigen Elementes zur Aufnahme der Fingerspitze des Probanden oder eines Teil eines Fingers des Probanden, innerhalb des Aufnahmeelementes, wobei das Aufnahmeelement als starrer Körper oder zum Teil als starrer Körper ausgestaltet ist, oder innerhalb eines als starrer Körper ausgestalteten Teils des Aufnahmeelementes angeordnet. Dabei wird ein Teil eines Fingers des Probanden oder einer Fingerspitze bzw. eine Fingerspitze des Probanden (bei bestimmungsgemäßer Verwendung des Datenhandschuhs) von der Aktorschicht ganz oder teilweise umschlossen.In a further advantageous embodiment of the invention, the actuator comprises an actuator layer whose volume is variable by means of an electrical voltage or an electric current. The Aktorschicht is advantageously within a cylinder-like element for receiving the fingertip of the subject or a part of a finger of the subject, within the receiving element, wherein the receiving element is designed as a rigid body or in part as a rigid body, or within a configured as a rigid body part arranged the receiving element. In this case, part of a finger of the subject or of a fingertip or a fingertip of the subject (when the data glove is used as intended) is completely or partially enclosed by the actuator layer.

In weiterhin vorteilhafter Ausgestaltung der Erfindung umfasst der Aktor eine Wicklung, deren Länge mittels einer elektrischen Spannung oder eines elektrischen Stromes veränderbar ist. Dabei wird ein Teil eines Fingers des Probanden oder einer Fingerspitze bzw. eine Fingerspitze des Probanden (bei bestimmungsgemäßer Verwendung des Datenhandschuhs) von der Wicklung umschlossen.In a further advantageous embodiment of the invention, the actuator comprises a winding whose length is variable by means of an electrical voltage or an electric current. In this case, a part of a test person's finger or a fingertip or a fingertip of the test person (when the data glove is used as intended) is enclosed by the winding.

Ein vorgenannter Datenhandschuh kann Teil eines Virtual-Reality-System sein, wobei das Virtual-Reality-System zumindest eine, insbesondere als Infrarotkamera ausgestaltete, Kamera und ein Aufnahmeelement zur Aufnahme einer Fingerspitze eines Probanden oder eines Teils eines Fingers des Probanden umfasst, und wobei das Aufnahmeelement zumindest einen mittels der Kamera oder einer weiteren, insbesondere als Infrarotkamera ausgestalteten, Kamera als Referenzpunkt identifizierbaren Fingerreferenzpunkt umfasst. Ein Virtual-Reality-System in diesem Sinne soll nicht nur Virtual-Reality-Systeme im engen Sinne sondern z.B. auch Augmented-Reality-Systeme umfassen.An aforementioned data glove may be part of a virtual reality system, wherein the virtual reality system comprises at least one, in particular designed as an infrared camera, and a recording element for receiving a fingertip of a subject or part of a finger of the subject, and wherein the Recording element comprises at least one by means of the camera or another, in particular designed as an infrared camera, camera as a reference point identifiable finger reference point. A virtual reality system in this sense is intended not only virtual reality systems in the strict sense but, for. also include augmented reality systems.

In vorteilhafter Ausgestaltung der Erfindung umfasst das Virtual-Reality-System zumindest vier, insbesondere als Infrarotkameras ausgestaltete, Kameras zur Identifizierung des Fingerreferenzpunktes.In an advantageous embodiment of the invention, the virtual reality system comprises at least four, in particular designed as infrared cameras, cameras for identifying the finger reference point.

In weiterhin vorteilhafter Ausgestaltung der Erfindung umfasst das Virtual-Reality-System ein Auswertesystem zur Ermittlung der (räumlichen) Position zumindest eines Fingers des Probanden oder zumindest einer Fingerspitze des Probanden in Abhängigkeit eines Ausgangssignals der Kamera, in Abhängigkeit eines Ausgangssignals zumindest einer der zumindest vier Kameras oder in Abhängigkeit von Ausgangssignalen der zumindest vier Kameras.In a further advantageous embodiment of the invention, the virtual reality system comprises an evaluation system for determining the (spatial) position of at least one finger of the subject or at least one fingertip of the subject as a function of an output signal of the camera, in response to an output signal of at least one of the at least four cameras or in response to output signals of the at least four cameras.

Vorgenannter Datenhandschuh kann in einem Verfahren zum Herstellen eines Kraftfahrzeuges oder eines Bauteils für ein Kraftfahrzeug Verwendung finden, wobei das Kraftfahrzeug oder das Bauteil entworfen wird, wobei ein Virtual-Reality-Modell des Kraftfahrzeuges oder des Bauteils erzeugt wird, wobei das Virtual-Reality-Modell des Kraftfahrzeuges oder des Bauteils durch zumindest einen Probanden unter Verwendung eines vorgenannten Datenhandschuhs oder eines vorgenannten Virtual-Reality-Systems getestet wird, und wobei in Abhängigkeit dieses Tests das Kraftfahrzeug oder das Bauteil implementiert oder erneut entworfen wird.The aforementioned data glove can be used in a method for manufacturing a motor vehicle or a component for a motor vehicle, wherein the motor vehicle or the component is designed, wherein a virtual reality model of the motor vehicle or of the component is produced, wherein the virtual reality model of the motor vehicle or the component is tested by at least one subject using an aforementioned data glove or an aforementioned virtual reality system, and wherein the motor vehicle or the component is implemented or redesigned depending on this test.

Kraftfahrzeug im Sinne der Erfindung ist insbesondere ein individuell im Straßenverkehr benutzbares Landfahrzeug. Kraftfahrzeuge im Sinne der Erfindung sind insbesondere nicht auf Landfahrzeuge mit Verbrennungsmotor beschränkt.Motor vehicle in the sense of the invention is in particular a land vehicle which can be used individually in road traffic. Motor vehicles according to the invention are not limited in particular to land vehicles with internal combustion engine.

Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen. Dabei zeigen:

  • 1 ein Ausführungsbeispiel eines Virtual-Reality-Systems,
  • 2 ein Ausführungsbeispiel eines Datenhandschuhs,
  • 3 ein weiteres Ausführungsbeispiel eines Datenhandschuhs,
  • 4 ein Ausführungsbeispiel eines Aufnahmeelementes zur Aufnahme einer Fingerspitze eines Probanden oder eines Teil eines Fingers des Probanden mit einem Aktor zur Erzeugung einer haptischen Rückkopplung,
  • 5 ein weiteres Ausführungsbeispiel eines Aufnahmeelementes mit einem Aktor zur Erzeugung einer haptischen Rückkopplung und
  • 6 ein Ausführungsbeispiel eines Verfahrens zum Herstellen eines Kraftfahrzeuges oder eines Bauteils für ein Kraftfahrzeug.
Further advantages and details emerge from the following description of exemplary embodiments. Showing:
  • 1 an embodiment of a virtual reality system,
  • 2 an embodiment of a data glove,
  • 3 another embodiment of a data glove,
  • 4 An embodiment of a receiving element for receiving a fingertip of a subject or a part of a finger of the subject with an actuator for generating a haptic feedback,
  • 5 a further embodiment of a receiving element with an actuator for generating a haptic feedback and
  • 6 An embodiment of a method for producing a motor vehicle or a component for a motor vehicle.

1 zeigt ein Ausführungsbeispiel eines Virtual-Reality-Systems 1. Das Virtual-Reality-System 1 umfasst zumindest vier, insbesondere als Infrarotkameras ausgestaltete, Kameras 10, 11, 12, 13 zur optischen Aufnahme eines Bildes von einem Probanden 3 in einer Versuchsanordnung 2 wie z.B. einer mit Monitoren ausgestatteten Sitzkiste. Das Virtual-Reality-System 1 umfasst zudem ein Auswertesystem 15 zur Ermittlung der (räumlichen) Position des Probanden 3 bzw. zumindest eines Fingers des Probanden 3 oder zumindest einer Fingerspitze des Probanden 3 in Abhängigkeit von Ausgangssignalen der zumindest vier Kameras 10, 11, 12, 13. Zudem ist mittels des Auswertesystems 15 z. B. ein virtuelles Bild eines Kraftfahrzeuges und des Probanden 3 in einer räumlichen Zuordnung zu dem Kraftfahrzeug darstellbar. Geeignete Kameras und Auswertesysteme können z.B. von der A.R.T. advanced realtime tracking GmbH, Weilheim (www.ar-tracking.de) bezogen werden. 1 shows an embodiment of a virtual reality system 1 , The virtual reality system 1 includes at least four, in particular designed as infrared cameras, cameras 10 . 11 . 12 . 13 for optically capturing an image of a subject 3 in a test arrangement 2 such as a seat box equipped with monitors. The virtual reality system 1 also includes an evaluation system 15 to determine the (spatial) position of the subject 3 or at least one finger of the subject 3 or at least a fingertip of the subject 3 depending on output signals of the at least four cameras 10 . 11 . 12 . 13 , In addition, by means of the evaluation system 15 z. B. a virtual image of a motor vehicle and the subject 3 displayed in a spatial association with the motor vehicle. Suitable cameras and evaluation systems can be obtained, for example, from ART advanced realtime tracking GmbH, Weilheim (www.ar-tracking.de).

2 zeigt ein Ausführungsbeispiel eines Datenhandschuhs 40 für eine Hand 4 des Probanden 3. Der Datenhandschuh 40 umfasst einen Referenzkörper 21, der fünf räumlich durch Stäbe 215, 216, 217 und 218 getrennte mittels der Kameras 10, 11, 12, 13 als Referenzpunkte identifizierbare Handreferenzpunkte 210, 211, 212, 213 und 214 aufweist. Der Referenzkörper 21 ist auf einem Funk-IC 20 des Datenhandschuhs 40 zum Aufbau einer drahtlosen - in 1 mit Bezugszeichen 5 bezeichneten - Kommunikationsverbindung zwischen dem Auswertesystem 15 und dem Funk-IC 20 angeordnet. Der Datenhandschuh 40 ist derart ausgestaltet, dass der Referenzkörper 21 (bei bestimmungsgemäßer Verwendung des Datenhandschuhs 40) auf einem Handrücken des Probanden 3 angeordnet ist. Dazu kann der Datenhandschuh 40 ein Befestigungsband 37 zur Befestigung des Funk-ICs 20 auf dem Handrücken des Probanden 3 aufweisen. 2 shows an embodiment of a data glove 40 for a hand 4 of the subject 3 , The data glove 40 includes a reference body 21 , the five spatially by bars 215 . 216 . 217 and 218 separated by means of the cameras 10 . 11 . 12 . 13 Hand reference points identifiable as reference points 210 . 211 . 212 . 213 and 214 having. The reference body 21 is on a radio IC 20 of the data glove 40 to build a wireless - in 1 with reference number 5 designated - communication link between the evaluation system 15 and the radio IC 20 arranged. The data glove 40 is designed such that the reference body 21 (if the data glove is used as intended 40 ) on the back of the person's hand 3 is arranged. This can be the data glove 40 a fastening tape 37 for mounting the radio IC 20 on the back of the subject 3 exhibit.

In dem Ausführungsbeispiel gemäß 2 umfasst der Datenhandschuh 40 für den Daumen, den Zeigefinder und den Mittelfinger der Hand 4 des Probanden 3 je ein - unter Bezugnahme auf 4 und 5 näher erläutertes - Aufnahmeelement 22, 23, 24 je mit einem mittels der Kameras 10, 11, 12, 13 als Referenzpunkt identifizierbaren, eine LED umfassenden oder als LED ausgestalteten Fingerreferenzpunkt 25, 26, 27. Die LEDs werden dabei über mit Bezugszeichen 30, 31 und 32 bezeichnete Zuleitungen von dem Funk-IC 20 mit elektrischer Energie versorgt. Der Funk-IC 20 wiederum kann drahtlos mit elektrischer Energie versorgt werden, kann einen nicht dargestellte Energiespeicher umfassen und/oder kann - wie in 3 dargestellt - über eine Zuleitung 36 mittels eines externen, von dem Probanden 3 tragbaren Energiespeicher 35 mit elektrischer Energie versorgt werden.In the embodiment according to 2 includes the data glove 40 for the thumb, the index finger and the middle finger of the hand 4 of the subject 3 one each - with reference to 4 and 5 closer explained - receiving element 22 . 23 . 24 each with one by means of the cameras 10 . 11 . 12 . 13 as a reference point identifiable, a LED comprehensive or designed as an LED finger reference point 25 . 26 . 27 , The LEDs are over with reference numerals 30 . 31 and 32 designated leads from the radio IC 20 supplied with electrical energy. The radio IC 20 in turn can be supplied with electrical energy wirelessly, may include an energy storage, not shown, and / or may - as in 3 shown - via a supply line 36 by means of an external, by the subject 3 portable energy storage 35 be supplied with electrical energy.

3 zeigt ein weiteres Ausführungsbeispiel eines - im wesentlichem dem Datenhandschuh 40 entsprechenden - Datenhandschuhs 41, wobei gleiche Bezugszeichen wie in 2 gleiche oder gleichartige Elemente bezeichnen. Während die Aufnahmeelemente 22, 23, 24 des Datenhandschuhs 40 separat ausgestaltet, d. h. nicht miteinander und nur mittels der Zuleitungen 30, 31 und 32 mit dem Funk-IC 20 verbunden, und einzeln auf den Daumen, den Zeigefinder bzw. den Mittelfinger der Hand 4 des Probanden 3 steckbar sind und während der Datenhandschuh 40 das Befestigungsband 37 zur Befestigung des Funk-ICs 20 auf dem Handrücken des Probanden 3 umfasst, sind bei dem Datenhandschuh 41 die Aufnahmeelemente 22, 23, 24 und der Funk-IC 20 in einem aus Gründen der Übersichtlichkeit nicht dargestellten Handschuh integriert. Dabei ist zumindest der Referenzkörper 21 (sowie ggf. der Funk-IC 20) an der Außenseite des Handschuhs angeordnet. Der Handschuh kann z.B. als schwarzer Lederhandschuh ausgestaltet sein. 3 shows a further embodiment of a - essentially the data glove 40 corresponding - data glove 41 , wherein the same reference numerals as in 2 designate identical or similar elements. While the recording elements 22 . 23 . 24 of the data glove 40 configured separately, ie not with each other and only by means of the supply lines 30 . 31 and 32 with the radio IC 20 connected, and individually on the thumb, the index finger or the middle finger of the hand 4 of the subject 3 are pluggable and while the data glove 40 the fastening tape 37 for mounting the radio IC 20 on the back of the subject 3 are included in the data glove 41 the receiving elements 22 . 23 . 24 and the radio IC 20 integrated in a glove, not shown for reasons of clarity. At least the reference body is 21 (and possibly the wireless IC 20 ) are arranged on the outside of the glove. The glove can be configured, for example, as a black leather glove.

4 zeigt am Beispiel eines Querschnittes des Aufnahmeelementes 22 ein Ausführungsbeispiel zur vorteilhaften Ausgestaltung der Aufnahmeelemente 22, 23 bzw. 24. Das Aufnahmeelement 22 umfasst eine LED 250 zur Beleuchtung des Fingerreferenzpunktes 25. In vorteilhafter Ausgestaltung ist vorgesehen, dass der Datenhandschuh 40 bzw. 41 einen mit dem Aufnahmeelement 22 verbundenen Aktor zur Erzeugung einer haptischen Rückkopplung umfasst. Zur Implementierung eines derartigen Aktors umfasst das Aufnahmeelement 22 in vorteilhafter Ausgestaltung einen zylinderartigen starren Körper 50 (Fingerhut) zur Aufnahme der Fingerspitze des Mittelfingers des Probanden 3, wobei innerhalb des zylinderartigen starren Körpers 50 eine Aktorschicht 51 angeordnet ist, deren Volumen mittels einer über die Zuleitung 30 übertragbaren elektrischen Spannung oder eines über die Zuleitung 30 übertragbaren elektrischen Stromes veränderbar ist. Die Aktorschicht 51 ist dabei derart an der Innenseite 52 des zylinderartigen starren Körpers 50 angeordnet, dass die Fingerspitze des Mittelfingers des Probanden 3 (bei bestimmungsgemäßer Verwendung des Datenhandschuhs 40 bzw. 41) ganz oder teilweise von der Aktorschicht 51 umschlossen wird. 4 shows the example of a cross section of the receiving element 22 An embodiment of the advantageous embodiment of the receiving elements 22 . 23 respectively. 24 , The receiving element 22 includes an LED 250 for illumination of the finger reference point 25 , In an advantageous embodiment, it is provided that the data glove 40 respectively. 41 one with the receiving element 22 connected actuator for generating a haptic feedback includes. To implement such an actuator, the receiving element comprises 22 in an advantageous embodiment, a cylinder-like rigid body 50 (Thimble) for receiving the fingertip of the middle finger of the subject 3 , wherein within the cylinder-like rigid body 50 an actuator layer 51 is arranged, whose volume by means of a via the supply line 30 transferable electrical voltage or one over the supply line 30 transferable electric current is changeable. The actuator layer 51 is so on the inside 52 of the cylinder-like rigid body 50 arranged that the fingertip of the middle finger of the subject 3 (if the data glove is used as intended 40 respectively. 41 ) completely or partially from the actuator layer 51 is enclosed.

Die Aktorschicht 51 ist in vorteilhafter Ausgestaltung eine ein, insbesondere nicht-ionisches, dielektrisches Elastomer aufweisende Schicht bzw. umfasst eine derartige Schicht. Als dielektrische Elastomere können dabei z.B. in dem Artikel „Actuation response of polyacrylate dielectric elastomers“ von Kofod, Guggi, Kornbluh, Roy D., Pelrine, Ron, Sommer-Larsen, Peter, Proc. SPIE Vol. 4329, S. 141-147 offenbarte Materialien verwendet werden. Besonders gut geeignete Elastomere sind z.B. aus dem unter der Internetadresse robots.mit.edu/publications/PDF/188.pdf veröffentlichten Artikel „Hyper-Redundant Robot Manipulators Actuated by Optimized Binary Dielectric Polymers“ von Andreas Winger, Matthew Lichter, Steven Dubowsky, Moustapha Hafez, Department of Mechanical Engineering, Massachusetts Institute of Technology bekannt. Weitere verwendbare Elastomere (EAP) sind z.B. in der DE 101 51 556 A1 , US 2002/0054060 A1 , US 2002/0130673 A1 und der US 6 586 859 B2 offenbart. Die Aktorschicht 51 kann ggf. auch als Titan-Zink-Legierung oder über als magnetisch ansteuerbare sogenannte „Gedächtnis“-Legierung ausgestaltet sein.The actuator layer 51 In an advantageous embodiment, it is a layer comprising, in particular, non-ionic, dielectric elastomer, or comprises such a layer. As dielectric elastomers can eg in the article "Actuation Response of polyacrylate dielectric elastomers" by Kofod, Guggi, Kornbluh, Roy D., Pelrine, Ron, Sommer-Larsen, Peter, Proc. SPIE Vol. 4329, pp. 141-147 disclosed materials are used. Particularly suitable elastomers are, for example, from the article "Hyper-Redundant Robot Manipulators Actuated by Optimized Binary Dielectric Polymers" published by Roberts.mit.edu/publications/PDF/188.pdf by Andreas Winger, Matthew Lichter, Steven Dubowsky, Moustapha Hafez, Department of Mechanical Engineering, Massachusetts Institute of Technology. Other suitable elastomers (EAP) are, for example in the DE 101 51 556 A1 . US 2002/0054060 A1 . US 2002/0130673 A1 and the US Pat. No. 6,586,859 B2 disclosed. The actuator layer 51 If appropriate, it can also be designed as a titanium-zinc alloy or as a magnetically controllable so-called "memory" alloy.

5 zeigt am Beispiel eines weiteren Ausführungsbeispiels eines Querschnittes des Aufnahmeelementes 22 eine weitere vorteilhafte Ausgestaltung der Aufnahmeelemente 22, 23 bzw. 24, wobei gleiche Bezugszeichen wie in 4 gleiche oder gleichartige Elemente bezeichnen. Zur Implementierung eines vorgenannten Aktors umfasst das in 5 dargestellte Ausführungsbeispiel des Aufnahmeelementes 22 in vorteilhafter Ausgestaltung einen an der Papillenseite (des Fingers) geschlitzten Fingerhut 61, der in einem starren Körper 60 angeordnet sein kann. Um den geschlitzten Fingerhut 61 herum ist eine Wicklung 62, d.h. ein als Spule bzw. Coil gewickelter Draht, derart angeordnet, dass die Fingerspitze des Mittelfingers des Probanden 3 (bei bestimmungsgemäßer Verwendung des Datenhandschuhs 40 bzw. 41) ganz oder teilweise von der Wicklung 62 umschlossen wird. Die Wicklung 62 ist derart (z.B. als Titan-Zink-Legierung) ausgestaltet, dass ihre Länge mittels einer elektrischen Spannung oder eines elektrischen Stromes veränderbar ist. Die Wicklung 62 ist derart um den geschlitzten Fingerhut 61 gewickelt, dass bei einem Zusammenziehen der Wicklung 62 der Fingerhut 61 auf die Papille des entsprechenden Fingers wirkt und die andere Seite (zum Fingernagel hin) eine Kraft aufnimmt. 5 shows the example of another embodiment of a cross section of the receiving element 22 a further advantageous embodiment of the receiving elements 22 . 23 respectively. 24 , wherein the same reference numerals as in 4 designate identical or similar elements. To implement an aforementioned actuator, the in 5 illustrated embodiment of the receiving element 22 in an advantageous embodiment, a thimble slit on the papilla side (of the finger) 61 who is in a rigid body 60 can be arranged. To the slotted thimble 61 there is a winding around 62 ie a wire wound as a coil or coil, arranged such that the fingertip of the middle finger of the subject 3 (if the data glove is used as intended 40 respectively. 41 ) completely or partially from the winding 62 is enclosed. The winding 62 is designed (eg as a titanium-zinc alloy) such that its length is variable by means of an electrical voltage or an electric current. The winding 62 is so around the slotted thimble 61 wrapped that when contraction of the winding 62 the thimble 61 on the papilla of the corresponding finger acts and the other side (to the fingernail) receives a force.

Mittels des Auswertesystems 15 kann aus den Ausgangssignalen der Kameras 10, 11, 12, 13 durch Auswertung der Handreferenzpunkte 210, 211, 212, 213, 214 die Position der Hand 4 sowie deren Haltung (Drehrichtung) ermittelt werden. Ausgehend von der Position und der Haltung der Hand 4 kann das Auswertesystem 15 aus den Ausgangssignalen der Kameras 10, 11, 12, 13 durch Auswertung der Fingerreferenzpunkte 25, 26, 27 die Position der Fingerspitzen von Daumen, Zeigefinger und Mittelfinger der Hand 4 ermitteln. Die Position der Fingerspitzen von Daumen, Zeigefinger und Mittelfinger der Hand 4 können mittels des Auswertesystems 15 räumlich einem virtuellen Kraftfahrzeug oder einem Bauteil eines virtuellen Kraftfahrzeuges zugeordnet werden.By means of the evaluation system 15 can be from the output signals of the cameras 10 . 11 . 12 . 13 by evaluation of the hand reference points 210 . 211 . 212 . 213 . 214 the position of the hand 4 and their attitude (direction of rotation) are determined. Based on the position and posture of the hand 4 can the evaluation system 15 from the output signals of the cameras 10 . 11 . 12 . 13 by evaluation of the finger reference points 25 . 26 . 27 the position of the fingertips of the thumb, forefinger and middle finger of the hand 4 determine. The position of the fingertips of the thumb, forefinger and middle finger of the hand 4 can by means of the evaluation system 15 spatially assigned to a virtual motor vehicle or a component of a virtual motor vehicle.

Kommt es zu einer Berührung einer der Fingerspitzen von Daumen, Zeigefinger und Mittelfinger der Hand 4 mit dem virtuellen Kraftfahrzeug oder dem Bauteil des virtuellen Kraftfahrzeuges, so kann diese Berührung durch eine unter Bezugnahme auf 4 bzw. 5 beschriebene haptische Rückkopplung für den Probanden simuliert werden. Dazu wird mittels der drahtlosen Kommunikationsverbindung 5 ein entsprechender Steuerbefehl von dem Auswertesystem 15 an den Funk-IC 20 übertragen, der wiederum eine elektrische Größe zur entsprechenden Anregung der Aktorschicht 51 bzw. der Wicklung 62 des entsprechenden Aufnahmeelementes 22, 23, 24 erzeugt. Zusätzlich können visuelle, akustische und evtl. olfaktorische Feedbacks vorgesehen werden.If there is a touch of one of the fingertips of the thumb, forefinger and middle finger of the hand 4 with the virtual motor vehicle or the component of the virtual motor vehicle, this contact can by a reference to 4 respectively. 5 described haptic feedback can be simulated for the subject. This is done by means of the wireless communication link 5 a corresponding control command from the evaluation system 15 to the radio IC 20 transferred, in turn, an electrical variable for the corresponding excitation of the actuator layer 51 or the winding 62 the corresponding receiving element 22 . 23 . 24 generated. In addition, visual, acoustic and possibly olfactory feedbacks can be provided.

7 zeigt ein Verfahren zum Herstellen eines Kraftfahrzeuges oder eines Bauteils für ein Kraftfahrzeug. Dabei wird das Kraftfahrzeug oder das Bauteil in einen Schritt 70 entworfen. Dem Schritt 70 folgt ein Schritt 71, in dem ein Virtual-Reality-Modell des Kraftfahrzeuges oder des Bauteils erzeugt wird. Dem Schritt 71 folgt ein Schritt 72 in dem das Virtual-Reality-Modell des Kraftfahrzeuges oder des Bauteils durch Probanden wie den Probanden 3 unter Verwendung des Virtual-Reality-Systems 1 bzw. des Datenhandschuhs 40 oder 41 gemäß dem unter Bezugnahme auf 1, 2, 3, 4 und 5 beschriebenen Verfahren getestet und bewertet wird. 7 shows a method of manufacturing a motor vehicle or a component for a motor vehicle. In this case, the motor vehicle or the component in one step 70 designed. The step 70 follows a step 71 in which a virtual reality model of the motor vehicle or the component is generated. The step 71 follows a step 72 in which the virtual reality model of the motor vehicle or the component by subjects such as the subjects 3 using the virtual reality system 1 or the data glove 40 or 41 according to with reference to 1 . 2 . 3 . 4 and 5 tested and evaluated.

Dem Schritt 72 folgt eine Abfrage 73, ob das auf diese Weise getestete Kraftfahrzeug oder Bauteil (aufgrund der Testergebnisse bzw. der Bewertung) implementiert werden soll. Soll das auf vorgenannte Weise getestete Kraftfahrzeug oder Bauteil implementiert werden, so folgt der Abfrage 73 ein Schritt 74, in dem das Kraftfahrzeug oder das Bauteil implementiert wird. Soll das auf vorgenannte Weise getestete Kraftfahrzeug oder Bauteil dagegen so nicht implementiert werden, so folgt der Abfrage 73 der Schritt 70, in dem das Kraftfahrzeug oder das Bauteil verändert entworfen wird.The step 72 follows a query 73 whether the vehicle or component tested in this way should be implemented (on the basis of the test results or the rating). If the motor vehicle or component tested in the aforementioned manner is to be implemented, the query follows 73 a step 74 in which the motor vehicle or the component is implemented. On the other hand, if the motor vehicle or component tested in the aforementioned manner is not to be implemented in this way, the query follows 73 the step 70 in which the motor vehicle or component is designed to be altered.

Das unter Bezugnahme auf 1, 2, 3, 4 und 5 beschriebene Virtual-Reality-System 1 kann unter entsprechender Abwandlung auch für andere Körperteile (Hand, Arm, Knie, Fuß, usw.) eingesetzt werden.With reference to 1 . 2 . 3 . 4 and 5 described virtual reality system 1 can be used with appropriate modification for other body parts (hand, arm, knee, foot, etc.).

Die Elemente in 1 sind unter Berücksichtigung von Einfachheit und Klarheit und nicht notwendigerweise maßstabsgetreu gezeichnet. So sind z.B. die Größenordnungen einiger Elemente übertrieben gegenüber anderen Elementen dargestellt, um das Verständnis der Ausführungsbeispiele der vorliegenden Erfindung zu verbessern.The elements in 1 are drawn in the light of simplicity and clarity and not necessarily to scale. For example, the magnitudes of some elements are exaggerated over other elements to enhance understanding of the embodiments of the present invention.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Virtual-Reality-SystemVirtual Reality System
22
Versuchsanordnungexperimental arrangement
33
ProbandFamily
44
Handhand
55
drahtlose Kommunikationsverbindungwireless communication connection
10, 11, 12, 1310, 11, 12, 13
Kameracamera
1515
Auswertesystemevaluation system
2020
Funk-ICRF IC
2121
Referenzkörperreference body
22, 23, 2422, 23, 24
Aufnahmeelementreceiving element
25, 26, 2725, 26, 27
FingerreferenzpunktFinger reference point
30, 31, 32, 3630, 31, 32, 36
Zuleitungsupply
3535
Energiespeicherenergy storage
3737
Befestigungsbandfixing tape
40, 4140, 41
DatenhandschuhData glove
50, 6050, 60
starrer Körperrigid body
5151
Aktorschichtactuator layer
5252
Innenseiteinside
6161
Fingerhutfoxglove
6262
Wicklungwinding
70, 71, 72, 7470, 71, 72, 74
Schrittstep
7373
Abfragequery
210, 211, 212, 213,214210, 211, 212, 213.214
HandreferenzpunktHand reference point
215,216,217,218215,216,217,218
StabRod
250250
LEDLED

Claims (6)

Datenhandschuh (40, 41) mit einem Referenzkörper (21), der zumindest zwei räumlich durch Stäbe getrennte mittels einer Kamera (10, 11, 12, 13) als Referenzpunkte identifizierbare Handreferenzpunkte (210, 211, 212, 213, 214) umfasst, wobei der Datenhandschuh (40, 41) zumindest ein Aufnahmeelement (22, 23, 24) zur Aufnahme einer Fingerspitze eines Probanden (3) oder eines Teils eines Fingers des Probanden (3) umfasst, wobei das Aufnahmeelement (22, 23, 24) zumindest einen mittels der Kamera (10, 11, 12, 13) oder einer weiteren Kamera als Referenzpunkt identifizierbaren Fingerreferenzpunkt (25, 26, 27) umfasst, und wobei der Datenhandschuh (40, 41) einen mit dem Aufnahmeelement (22, 23, 24) verbundenen Aktor zur Erzeugung einer haptischen Rückkopplung umfasst.Data glove (40, 41) with a reference body (21) comprising at least two spatially separated by bars by means of a camera (10, 11, 12, 13) as reference points identifiable hand reference points (210, 211, 212, 213, 214), wherein the data glove (40, 41) comprises at least one receiving element (22, 23, 24) for receiving a fingertip of a subject (3) or a part of a finger of the subject (3), wherein the receiving element (22, 23, 24) at least one by means of the camera (10, 11, 12, 13) or another camera as a reference point identifiable finger reference point (25, 26, 27), and wherein the data glove (40, 41) connected to the receiving element (22, 23, 24) Includes actuator for generating a haptic feedback. Datenhandschuh (40, 41) nach Anspruch 1, dadurch gekennzeichnet, dass der Fingerreferenzpunkt (25, 26, 27) ein Leuchtmittel (250) umfasst.Data glove (40, 41) after Claim 1 , characterized in that the finger reference point (25, 26, 27) comprises a lighting means (250). Datenhandschuh (40, 41) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Referenzkörper (21) zumindest vier, insbesondere fünf, räumlich getrennte Handreferenzpunkte (210, 211, 212, 213, 214) umfasst.Data glove (40, 41) after Claim 1 or 2 , characterized in that the reference body (21) at least four, in particular five, spatially separated manual reference points (210, 211, 212, 213, 214). Datenhandschuh (40, 41) nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass der Datenhandschuh (40, 41) derart ausgestaltet ist, dass der Referenzkörper (21) auf einem Handrücken des Probanden (3) angeordnet ist.Data glove (40, 41) after Claim 1 . 2 or 3 , characterized in that the data glove (40, 41) is designed such that the reference body (21) on a back of the hand of the subject (3) is arranged. Datenhandschuh (40, 41) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mittels des Aktors erzeugte haptische Rückkopplung der Simulation einer Berührung eines virtuellen Gegenstandes dient.Data glove (40, 41) according to any one of the preceding claims, characterized in that the haptic feedback generated by the actuator of the simulation of a touch of a virtual object is used. Datenhandschuh (40, 41) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Aktor eine Aktorschicht (51) umfasst, deren Volumen mittels einer elektrischen Spannung oder eines elektrischen Stromes veränderbar ist.Data glove (40, 41) according to any one of the preceding claims, characterized in that the actuator comprises an actuator layer (51) whose volume is variable by means of an electrical voltage or an electric current.
DE102005011432.6A 2005-03-12 2005-03-12 Data glove Expired - Fee Related DE102005011432B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102005011432.6A DE102005011432B4 (en) 2005-03-12 2005-03-12 Data glove

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005011432.6A DE102005011432B4 (en) 2005-03-12 2005-03-12 Data glove

Publications (2)

Publication Number Publication Date
DE102005011432A1 DE102005011432A1 (en) 2006-09-14
DE102005011432B4 true DE102005011432B4 (en) 2019-03-21

Family

ID=36914752

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005011432.6A Expired - Fee Related DE102005011432B4 (en) 2005-03-12 2005-03-12 Data glove

Country Status (1)

Country Link
DE (1) DE102005011432B4 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007053008A1 (en) 2007-11-05 2009-05-14 Repetzki, Sebastian, Dr.-Ing. Target body and method for determining its spatial position
DE102010008985A1 (en) * 2010-02-24 2011-06-30 Deutsches Zentrum für Luft- und Raumfahrt e.V., 51147 Tracing device i.e. marker, for movement-tracing of finger limb in human hand, has reflection elements arranged at distance to each other to determine position and orientation of human limb to be traced in simultaneous manner
ES2397031B1 (en) * 2011-05-10 2014-01-27 Universidade Da Coruña VIRTUAL REALITY SYSTEM FOR THE EVALUATION AND TREATMENT OF MOTOR DISORDERS ASSOCIATED WITH NEURODEGENERATIVE DISEASES AND AGE.
DE102011114535A1 (en) 2011-09-29 2013-04-04 Eads Deutschland Gmbh Data glove with tactile feedback information and procedures
DE102015122281B4 (en) 2015-12-18 2017-07-13 Christina Schannath Glove-like device with ergonomically advantageous triggerable integrated camera
CN106933341B (en) * 2015-12-31 2024-04-26 北京体基科技有限公司 Method and device for determining region of finger in image and wrist type equipment
DE102018217219B4 (en) 2018-10-09 2022-01-13 Audi Ag Method for determining a three-dimensional position of an object

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5354162A (en) 1991-02-26 1994-10-11 Rutgers University Actuator system for providing force feedback to portable master support
DE29719995U1 (en) 1997-11-11 1998-02-19 Schlosser Mario System for converting visually recorded room data into tangible and tactile information
US5982352A (en) * 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US5986643A (en) * 1987-03-24 1999-11-16 Sun Microsystems, Inc. Tactile feedback mechanism for a data processing system
WO2000016121A1 (en) * 1998-09-11 2000-03-23 Qualisys Ab System relating to positioning in a virtual studio
US20020054060A1 (en) 2000-05-24 2002-05-09 Schena Bruce M. Haptic devices using electroactive polymers
WO2002037466A1 (en) 2000-11-02 2002-05-10 Essential Reality, Inc Electronic user worn interface device
DE69331259T2 (en) * 1992-09-08 2002-07-18 Toshiba Kawasaki Kk Spatial human interface through motion detection with dynamic image processing
US20020130673A1 (en) 2000-04-05 2002-09-19 Sri International Electroactive polymer sensors
US20030006962A1 (en) 2001-07-06 2003-01-09 Bajramovic Mark B. Computer mouse on a glove
DE10151556A1 (en) 2001-10-23 2003-04-30 Bosch Gmbh Robert Device for opening and closing a moving part
US6586859B2 (en) 2000-04-05 2003-07-01 Sri International Electroactive polymer animated devices
US20040012574A1 (en) 2002-07-16 2004-01-22 Manish Sharma Multi-styli input device and method of implementation
DE10335595A1 (en) 2002-08-02 2004-02-26 Tecmedic Gmbh Motion capture method for determination of the spatial positions of markers in a 3D volume from 2D digital images for use in motion capture systems so that the marker positions can be related to a coordinate system
US20040046736A1 (en) 1997-08-22 2004-03-11 Pryor Timothy R. Novel man machine interfaces and applications
EP1533683A2 (en) * 2003-11-21 2005-05-25 Seat, S.A. Mixed reality simulation system

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5986643A (en) * 1987-03-24 1999-11-16 Sun Microsystems, Inc. Tactile feedback mechanism for a data processing system
US5354162A (en) 1991-02-26 1994-10-11 Rutgers University Actuator system for providing force feedback to portable master support
DE69331259T2 (en) * 1992-09-08 2002-07-18 Toshiba Kawasaki Kk Spatial human interface through motion detection with dynamic image processing
US5982352A (en) * 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US20040046736A1 (en) 1997-08-22 2004-03-11 Pryor Timothy R. Novel man machine interfaces and applications
DE29719995U1 (en) 1997-11-11 1998-02-19 Schlosser Mario System for converting visually recorded room data into tangible and tactile information
WO2000016121A1 (en) * 1998-09-11 2000-03-23 Qualisys Ab System relating to positioning in a virtual studio
US20020130673A1 (en) 2000-04-05 2002-09-19 Sri International Electroactive polymer sensors
US6586859B2 (en) 2000-04-05 2003-07-01 Sri International Electroactive polymer animated devices
US20020054060A1 (en) 2000-05-24 2002-05-09 Schena Bruce M. Haptic devices using electroactive polymers
WO2002037466A1 (en) 2000-11-02 2002-05-10 Essential Reality, Inc Electronic user worn interface device
US20030006962A1 (en) 2001-07-06 2003-01-09 Bajramovic Mark B. Computer mouse on a glove
DE10151556A1 (en) 2001-10-23 2003-04-30 Bosch Gmbh Robert Device for opening and closing a moving part
US20040012574A1 (en) 2002-07-16 2004-01-22 Manish Sharma Multi-styli input device and method of implementation
DE10335595A1 (en) 2002-08-02 2004-02-26 Tecmedic Gmbh Motion capture method for determination of the spatial positions of markers in a 3D volume from 2D digital images for use in motion capture systems so that the marker positions can be related to a coordinate system
EP1533683A2 (en) * 2003-11-21 2005-05-25 Seat, S.A. Mixed reality simulation system

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
„Actuation response of polyacrylate dielectric elastomers" von Kofod, Guggi, Kornbluh, Roy D., Pelrine, Ron, Sommer-Larsen, Peter, Proc. SPIE Vol. 4329, S. 141-147
Bergamasco, M. : The GLAD-IN-ART Project, Virtual Reality, Anwendungen und Trends in Forschung und Praxis, IPA/ IAO Forum, Springer Verlag, Berlin, S. 251 -258, 1993
Bergamasco, M. : Theoretical Study and Experiments on Internal and External Force Replication, IEEE Workshop on Force Display on Virtual Environments and its Application to robotic Teleoperation, IEEE, New York, 1993
Burdea, C.G. : Force and Touch Feedback for Virtual Reality, ISBN 0-471-02141-5, John Wiley & Sons, New York, 1996
Frank-Lothar Krause, Trac Tang, Ulrich Ahle (Hrsg.), Abschlußbericht Leitprojekt Integrierte Virtuelle Produktentstehung, hier Teilprojekt 4.2, Entwicklung und Test eines Kraftffedback-Systems für die virtuellen Umgebungen, S. 125 ff., bmb+f, PT Forschungszentrum Karlsruhe, Juni 2002

Also Published As

Publication number Publication date
DE102005011432A1 (en) 2006-09-14

Similar Documents

Publication Publication Date Title
EP2214872B1 (en) Robot and method for projecting an image onto the surface of an object
JP6116064B2 (en) Gesture reference control system for vehicle interface
Elstob et al. A low cost EEG based BCI prosthetic using motor imagery
DE102010009065B4 (en) Input device for medical minimally invasive robots or medical simulators and medical device with input device
Haruna et al. Comparison of three feedback modalities for haptics sensation in remote machine manipulation
DE102005011432B4 (en) Data glove
Dargahi et al. Tactile sensing and displays: haptic feedback for minimally invasive surgery and robotics
DE102013017007B4 (en) Robot with a end manipulator arm with end effector and method for determining a force and torque input to an end effector of a robot
EP2406697B1 (en) Program and system for detecting an object on a display screen
DE102019106684A1 (en) System for haptic interaction with virtual objects for applications in virtual reality
de Mathelin et al. Sensors for expert grip force profiling: Towards benchmarking manual control of a robotic device for surgical tool movements
DE102012110460A1 (en) A method for entering a control command for a component of a motor vehicle
WO2019149871A1 (en) Method and device for generating a control signal, marker array and controllable system
Cho et al. Design of vast DOF artificial muscle actuators with a cellular array structure and its application to a five-fingered robotic hand
Bergamasco et al. Advanced interfaces for teleoperated biomedical robots
DE102015202179A1 (en) Method and device for determining hand rigidity
Min et al. Multiple Tendon-inspired Sensors for Hand Motion Detection
DE102019214283A1 (en) Method and device for processing an image recorded by a camera
WO2024235374A1 (en) Controlling a function of a motor vehicle
DE102019207454B4 (en) Augmented Reality System
Jeong et al. Manipulation of a master manipulator with a combined‐grip‐handle of pinch and power grips
Hendrich et al. Multi-sensor based segmentation of human manipulation tasks
Kobayashi et al. Toward rich facial expression by face robot
Klare et al. Development of a 3 dof mr-compatible haptic interface for pointing and reaching movements
Ali et al. Exoskeleton Robotics Glove with A Dual Force Feedback Haptic Device for Immersive Virtual Reality Interaction

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee