[go: up one dir, main page]

DE10045117C2 - Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung - Google Patents

Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung

Info

Publication number
DE10045117C2
DE10045117C2 DE10045117A DE10045117A DE10045117C2 DE 10045117 C2 DE10045117 C2 DE 10045117C2 DE 10045117 A DE10045117 A DE 10045117A DE 10045117 A DE10045117 A DE 10045117A DE 10045117 C2 DE10045117 C2 DE 10045117C2
Authority
DE
Germany
Prior art keywords
control data
input device
pattern
movement
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE10045117A
Other languages
English (en)
Other versions
DE10045117A1 (de
Inventor
Bernd Von Prittwitz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Civile "galileo 2011" Mc Ste
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE10045117A priority Critical patent/DE10045117C2/de
Priority to AU2002212137A priority patent/AU2002212137A1/en
Priority to DE20121798U priority patent/DE20121798U1/de
Priority to EP01980243A priority patent/EP1319207A2/de
Priority to PCT/EP2001/009356 priority patent/WO2002023323A2/de
Publication of DE10045117A1 publication Critical patent/DE10045117A1/de
Application granted granted Critical
Publication of DE10045117C2 publication Critical patent/DE10045117C2/de
Priority to US10/386,693 priority patent/US7199301B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/315User input interfaces for electrophonic musical instruments for joystick-like proportional control of musical input; Videogame input devices used for musical input or control, e.g. gamepad, joysticks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/4013D sensing, i.e. three-dimensional (x, y, z) position or movement sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Echtzeit- Geometriesteuerung eines Gelenk-Objekts, auf ein Verfahren zur frei spezifizierbaren Geometriesteuerung sowie auf Vorrichtungen zur Echtzeit-Geometriesteuerung von Objekten.
Der technologische Hintergrund der vorliegenden Erfindung ist die Echtzeit- Ansteuerung von virtuellen Objekten zur Erzeugung von Bewegungs-, Oberflächen-, Beleuchtungseffekten. Eine solche Möglichkeit hat sich in letzter Zeit dadurch ergeben, daß Eingabegeräte für Computer bekannt wurden, die die gleichzeitige Eingabe von Ansteuerdaten mehrerer, voneinander unabhängiger Freiheitsgrade ermöglichen. Die dadurch geschaffenen Möglichkeiten übersteigen beiweitem diejenigen, die beispielsweise bei der Verwendung einer sogenannten Maus bestehen, die sich lediglich zweidimensional über eine Ebene bewegen kann. Zwar ist es auch bekannt, eine Maus beispielsweise mit zusätzlichen Schaltern zu versehen, indessen haben diese Schalter den Nachteil, daß sie nicht die Eingabe von Analogdaten ermöglichen, sondern vielmehr auf Binärdaten (Ein/Aus) beschränkt sind. Die vorliegende Erfindung bezieht sich aber insbesondere auf Eingabegeräte, die Ansteuerdaten von verschiedenen voneinander unabhängigen Freiheitsgraden erzeugen können, und dies jeweils durch Analogsignale. Jedes dieser Analogsignale kann somit als Parameterwert einer Ansteuerung verwendet werden.
Aus dem Stand der Technik sind verschiedene Eingabegeräte dieser Art bekannt. Beispielsweise ist aus der US-5,757,360 ein eiförmiges Eingabegerät für Computer bekannt, das durch die Hand des Benutzers frei im Raum bewegt werden kann und dessen Bewegung sowie Beschleunigungen erfaßt und drahtlos zu dem Computer überträgt. Dabei wird ein spezifischer analoger Bewegungsablauf in Form eines Bewegungsmusters identifiziert, woraus Bewegungsbefehle abgeleitet und eine animierte Grafikdarstellung gegeben werden. Die Bewegungsmuster werden mittels eines Mustererkennungsalgorithmus erkannt. Zusätzlich werden generelle Steuerbefehle erzeugt. Dadurch besteht also der Nachteil, daß diese Technologie insofern nicht frei spezifizierbar ist, als Bewegungsabläufe, die durch Eingabegerät analog vollzogen werden, nur in korrespondierende Bewegungsabläufe einer animierten Grafikdarstellung umgesetzt werden können.
Kraft-Momenten-Sensoren als von Hand betätigbare Eingabegeräte sind beispielsweise aus der DE 36 11 336 C2, DE 37 64 287 sowie der EP 0 979 990 A2 bekannt. Aus der zuletzt genannten Druckschrift ist es weiterhin bekannt, einen derartigen Kraft- Momenten-Sensor zum Steuern eines realen oder virtuellen Misch- bzw. Steuerpults zu verwenden, so beispielsweise zum Steuern des Entwickelns von neuartigen Farb-, Licht- und Tonkompositionen. Hierbei kann wiederum in vorteilhafter Weise die intuitive räumliche Steuerung in den drei translatorischen sowie in den drei rotatorischen Richtungen auf ein stufenloses räumliches Mischen oder Steuern einer großen Anzahl von Parametern übertragen werden.
Aus der US 5,923,337 ist es bekannt, in Echtzeit auf Grundlage von Spracheingabesignalen eines Benutzers eine Animationssequenz zu erzeugen. Dazu ist unter anderem ein Animationsgenerator sowie eine Animationsbild-Datenbank vorgesehen.
Aus Wilhelms, Jane: Toward Automatic Motion Control, in IEEE Computer Graphics and Applications, April 1987, Seiten 11 bis 22 ist eine allgemeine Darstellung der Möglichkeiten für Bewegungssteuerungen bei Computeranimationen bekannt. In dem Kapitel "Algorithmic control" auf Seite 19 dieses Dokuments wird ganz grob angesprochen, dass der Benutzer Parameter zur Kontrolle eines Algorithmus (im Gegensatz zu der konkreten Ansteuerung von Freiheitsgraden des Objekts) verwenden kann.
Aus WO 99/06962 ist es grundsätzlich bekannt, Oberflächendaten für ein Gelenk-Objekt auf Skelettdaten zu basieren.
Aus dem deutschen Gebrauchsmuster DE 298 04 023 U1 ist ein halbkugelförmiges Gerät zur Echtzeit-Steuerung von Synthesizern bzw. "MIDI"-Klangerzeugern über Drucktasten bekannt. Diese Drucktasten können lediglich binäre Schaltsignale, aber kein analoges Ansteuersignal erzeugen.
Aus Kohno, Izumi et al.: Systematic Approach for Creating Animated Character Interfaces, in Proc. 2000 IEEE Int. Conf. on Multimedia and Expo, 30. Juli-­ 2. August 2000, Seite 231 bis 234 ist es bekannt (siehe Fig. 1), Bewegungsmuster vorab zu erzeugen und dann in einer Datenbank (Motion Pattern Database) abzulegen. Diese fertigen, unveränderbaren Bewegungsmuster (Makros) können dann als Internetapplikationen, etc. abgerufen werden. Eine Echtzeit-Steuerung ist indessen nicht vorgesehen.
Aus der EP 0 457 541 A1 ist ein mehrdimensionales Eingabegerät bekannt, mittels dem translatorische und rotatorische Manipulationen durch einen Benutzer mittels Beschleunigungssensoren sowie mit einem Gyroskop erfasst und ausgegeben werden können.
Aus den von dem oben genannten Stand stellt sich die vorliegende Erfindung zur Aufgabe, die Echtzeit-Geometriesteuerung eines Objekts zu vereinfachen. Diese Aufgabe wird erfindungsgemäß durch die Merkmale der unabhängigen Ansprüche gelöst. Die abhängigen Ansprüche bilden den zentralen Gedanken der Erfindung in besonders vorteilhafter Weise weiter. Zentraler Aspekt der vorliegenden Erfindung ist es also, daß Muster für die Bewegung, Oberflächengestaltung, und/oder Beleuchtung vorab abgespeichert werden. Diese vorab abgespeicherten Muster können dann abhängig von den Ansteuerdaten als Parameterwerte zur Erzeugung von Bewegungs-, Oberflächen-, bzw. Beleuchtungseffekten abgerufen werden. Das Hinterlegen der jeweiligen Muster kann dabei standardisiert erfolgen, so daß aufbauend auf eine solche Echtzeit-Geometriesteuerung eine Änderung der Bewegungsmuster, Oberflächengestaltung, und/oder Beleuchtungseffekte durch modulartiges Austauschen der jeweiligen Muster an einer entsprechenden Schnittstelle der Echtzeit- Geometriesteuerung mit verhältnismäßig geringem Aufwand erfolgen kann.
Gemäß der vorliegenden Erfindung ist es somit erstmals möglich, auf eine vollständige Neuprogrammierung eines Echtzeit-Bewegungsablaufes oder dergleichen zu verzichten; vielmehr können bekannte Bewegungsmuster über eine standardisierte Schnittstelle entsprechend parametrisiert an die Echtzeit-Geometriesteuerung angebunden werden.
Es ist also ein Verfahren zur Echtzeit-Geometriesteuerung eines Gelenk- Objekts bekannt. Dabei wird zunächst wenigstens ein parametrisiertes Bewegungsmuster zu wenigstens einem Oberflächenmuster für das Objekt definiert. Wenn nunmehr mittels eines Eingabegeräts Ansteuerdaten in die Echtzeit- Geometriesteuerung eingegeben werden, berechnet diese Skelett-Änderungsdaten auf Grundlage der Ansteuerdaten als Parameterwerte und des wenigstens einen parametrisierten Bewegungsmusters. Dabei geben die Skelett-Änderungsdaten translatorische und/oder rotatorische Änderungen der Lage bzw. Orientierung der Gelenke des Objekts wieder. Schließlich wird die Oberfläche des (virtuellen) Gelenk- Objekts auf Grundlage der Skelett-Änderungsdaten und des wenigstens einen Oberflächenmusters berechnet. In dem nunmehr die zuletzt genannten Schritte zügig wiederholt werden, wird eine Echtzeit-Geometriesteuerung des Objekts abhängig von den Ansteuerdaten erhalten.
Durch Austausch bzw. erneute Definition eines parametrisierten Bewegungsmusters und/oder Oberflächenmusters kann also mit sehr geringem Aufwand eine Geometriesteuerung eines neuartigen Gelenk-Objekts erzielt werden.
Die Ansteuerdaten von wenigstens sechs unabhängigen Freiheitsgraden können gleichzeitig eingegeben und in Echtzeit verarbeitet werden.
Die Ansteuerdaten von drei translatorischen und drei rotatorischen Freiheitsgraden können dabei verwendet werden.
Es können darüber hinaus insbesondere zeitliche Ableitungen der Ansteuerdaten ermittelt und verarbeitet werden. Die Steuerung ermittelt also die zeitliche Veränderung der Ansteuerdaten selbst, so daß im Gegensatz beispielsweise zur bereits genannten US-A-5,757,360 kein eigener Beschleunigungssensor erforderlich ist. Die Beschleunigung kann vielmehr durch zeitliche Auswertung der Entwicklung der Ansteuerdaten durch die Geometriesteuerung selbst ermittelt werden.
Die Zuordnung der Ansteuerdaten bzw. deren zeitliche Ableitungen als Parameterwerte für die Bewegungs-, Oberflächen- bzw. Klangmuster können frei spezifizierbar sein.
Bei der vorliegenden Erfindung ist ein Verfahren zur frei spezifizierbaren Geometrie vorgesehen. Für eine Bewegungs- oder Oberflächenerzeugung ist dabei wenigstens ein vordefiniertes parametrisiertes Bewegungs- oder Oberflächenmuster hinterlegt. Ansteuerdaten verschiedener Freiheitsgrade von einem Eingabegerät werden ausgewertet und als Parameterwerte zur Erzeugung von Bewegungs- oder Oberflächendaten mit Hilfe des/der hinterlegten Muster verwendet. Die Zuordnung der Ansteuerdaten jeweils eines Freiheitsgrades zu einem bestimmten Bewegungs- oder Oberflächenmuster ist dabei durch den Benutzer frei wählbar.
Zusätzlich können gegebenenfalls zeitliche Ableitungen der Ansteuerdaten einem bestimmten Bewegungs- oder Oberflächenmuster zugeordnet werden.
Die Kopplungsparameter der Zuordnung, wie beispielsweise die Dämpfung und die Verstärkung können dabei ebenfalls durch den Benutzer frei einstellbar sein.
Bei der vorliegenden Erfindung ist eine Vorrichtung zur Echtzeit-Geometriesteuerung von Objekten vorgesehen, das einen Speicher aufweist, in dem wenigstens ein parametrisiertes Bewegungsmuster und wenigstens ein Oberflächenmuster des Objekts abgelegt sind. Weiterhin weist die Vorrichtung ein Eingabegerät zur Eingabe von Ansteuerdaten für die Echtzeit-Geometriesteuerung auf. Ein Bewegungsgenerator ist vorgesehen, um Skelett-Änderungsdaten auf Grundlage der Ansteuerdaten als Parameterwerte und des wenigstens einen parametrisierten Bewegungsmusters zu berechnen. Die Skelett-Änderungsdaten geben dabei translatorische und/oder rotatorische Änderungen der Lage bzw. Orientierung der Gelenke des Objekts wieder. Schließlich ist ein Oberflächengenerator vorgesehen, der die Oberfläche des virtuellen Gelenkobjekts auf Grundlage der Skelett-Änderungsdaten und des Oberflächenmusters berechnet.
Das Eingabegerät kann zur gleichzeitigen Eingabe von Ansteuerdaten von wenigstens sechs unabhängigen Freiheitsgraden ausgelegt sein.
Das Eingabegerät kann insbesondere zur Eingabe von Ansteuerdaten von drei translatorischen und drei rotatorischen Freiheitsgraden ausgelegt sein.
Es kann weiterhin eine Einheit zur Ermittlung und Verarbeitung von zeitlichen Ableitungen der Ansteuerdaten vorgesehen sein.
Weiterhin kann eine Einheit zur wahlfreien Zuordnung der Ansteuerdaten bzw. derer Ableitungen als Parameterwerte für die Skelett- und Oberflächendaten bzw. Klangsignale vorgesehen sein.
Bei der vorliegenden Erfindung ist eine Vorrichtung zur frei spezifizierbaren Geometriesteuerung vorgesehen. Die Vorrichtung weist dabei einen Speicher auf, in dem für eine Bewegungs-, Oberflächen-, und/oder Beleuchtungserzeugung wenigstens ein vordefiniertes parametrisiertes Bewegungs-, Oberflächen-, und/oder Beleuchtungsmuster hinterlegt ist. Das System weist weiterhin eine Recheneinheit zur Auswertung von Ansteuerdaten verschiedener Freiheitsgrade von einem Eingabegerät als Parameterwerte zur Erzeugung von Bewegungs-, und/oder Oberflächendaten mit Hilfe des/der hinterlegten Muster auf. Schließlich ist eine Einstelleinheit vorgesehen, um eine frei wählbare Zuordnung von Ansteuerdaten jeweils eines Freiheitsgrads zu einem bestimmten Bewegungs-, und/oder Oberflächenmuster zu ermöglichen.
Die Einstelleinheit kann dabei weiterhin die Zuordnung von zeitlichen Ableitungen der Ansteuerdaten zu einem bestimmten Bewegungs-, und/oder Oberflächenmuster ermöglichen.
Die Einstelleinheit kann dabei darüber hinaus eine frei wählbare Einstellung von Kopplungsparametern der Zuordnung, wie beispielsweise der zeitlichen Dämpfung und der Verstärkung ermöglichen.
Weitere Eigenschaften, Merkmale und Vorteile der vorliegenden Erfindung werden aus der nunmehr folgenden Beschreibung eines Ausführungsbeispiels und bezugnehmend auf die Figuren der beigelegten Zeichnungen näher ersichtlich.
Fig. 1 zeigt eine schematische Darstellung einer frei spezifizierbaren Geometriesteuerung gemäß der vorliegenden Erfindung,
Fig. 2 zeigt eine Detailansicht von Fig. 1, aus der insbesondere die verschiedenen Elemente der frei spezifizierbaren Geometrie- und Klangsteuerung näher ersichtlich sind, und
Fig. 3 zeigt eine schematische Flußbilddarstellung des Ablaufs gemäß der vorliegenden Erfindung.
Bezugnehmend auf Fig. 1 soll nunmehr zuerst die vorliegende Echtzeit-Geometriesteuerung schematisch erläutert werden. Die Mensch/Maschinenschnittstelle ist ein Eingabegerät 2 und insbesondere ein sogenanntes 3D-Eingabegerät, das beispielsweise Ansteuerdaten 11 in sechs voneinander unabhängigen Freiheitsgraden erzeugen kann, wenn es entsprechend durch einen Benutzer manipuliert wird. Diese Freiheitsgrade umfassen beispielsweise drei translatorische Freiheitsgrade, die im folgenden x, y, z bezeichnet werden, sowie drei rotatorische Freiheitsgrade, die im folgenden als a, b, c bezeichnet werden.
Selbstverständlich können beispielsweise mit Tastensteuerungen oder Schaltern verhältnismäßig einfach noch weitere Freiheitsgrade hinzugefügt werden. Dabei ist anzumerken, daß Schalter bzw. Tasten in der Regel binäre Ansteuersignale (Ein/Aus oder dergleichen) erzeugen, wohingegen die oben genannten drei translatorischen Freiheitsgrade x, y, z bzw. rotatorischen Freiheitsgrade a, b, c jeweils analoge Ansteuersignale ergeben können, die dann beispielsweise in 256 Stufen als digitale Signale zur weiteren Verarbeitung umgesetzt werden können.
Dadurch, daß die translatorischen und drei rotatorischen Freiheitsgrade x, y, z, a, b, c "Analogsignale" bzw. in 256 Stufen aufgelöste digitale Signale sind, kann gemäß der vorliegenden Erfindung auch die zeitliche Veränderung dieser Ansteuersignale 11 durch die weiter unten dann näher beschriebene frei spezifizierbare Geometrie- und Klangsteuerung 1 ausgewertet werden. Insbesondere ist es also möglich, die Geschwindigkeit, Beschleunigung, etc. der Freiheitsgrade x, y, z, a, b, c, . . . zu erfassen und gegebenenfalls als weitere Freiheitsgrade unabhängig von dem Absolutwert der jeweiligen Ansteuersignale 11 zu verwerten. Dabei sind seitens des Eingabegeräts keine weiteren Sensoren (Beschleunigungssensoren etc.) notwendig.
Während also eingabeseitig die Ansteuersignale 11 von dem Eingabegerät 2 der frei spezifizierbaren Geometrie- und Klangsteuerung 1 gemäß der vorliegenden Erfindung zugeführt werden, gibt diese abhängig von diesen Ansteuersignalen 11 Animationssignale 10 aus, mit Hilfe derer eine 3D-Animation 21 beispielsweise auf dem Bildschirm eines Computer erzeugt werden kann. Diese 3D-Animation 21 kann folgendes umfassen:
  • - wenigstens einen bewegten Gelenkkörper,
  • - ansteuerbare Oberflächenmuster des Gelenkkörpers und/oder der Umgebung,
  • - ansteuerbare Klangmuster, und
  • - ansteuerbare Beleuchtungsmuster für den/die Gelenkkörper und/oder die Umgebung.
Dabei ist darauf hinzuweisen, daß die Erzeugung dieser Animation 21 bezüglich der Ansteuersignale 11 in Echtzeit ausgeführt wird. Es ist also im Gegensatz zu manchen bekannten Beispielen des Standes der Technik normalerweise nicht notwendig, Klang- oder Bewegungssequenzen vorab abzuspeichern, um sie dann sozusagen auf Knopfdruck auszulösen.
Großer Vorteil der vorliegenden Erfindung ist es, daß für eine neue zu erzeugende Animation 21 nicht eine vollständig neue Programmierung erfolgen muß, wie es gemäß dem Stand der Technik der Fall ist. Vielmehr können vordefinierte Bewegungsmuster 3, Oberflächenmuster 4, Klangmuster 5 und Beleuchtungsmuster 19 schnittstellenartig mit der frei spezifizierbaren Geometrie- und Klangsteuerung 1 verbunden werden. Durch Austausch bzw. Neuspezifikation wenigstens eines der genannten Muster kann in einfacher Weise eine völlig neuartige Animation 21 erzeugt werden. Der Programmieraufwand zur Erstellung einer neuen Animation 21 wird somit deutlich verringert.
Im übrigen ist anzumerken, daß hinsichtlich der Bewegungsmuster beispielsweise von verschiedenen Tieren oder aber auch von Menschen bereits sehr viel Know-how besteht, so daß gemäß der vorliegenden Erfindung in einfacher Weise auf dieses bestehende Know-how zurückgegriffen werden kann, indem diese bekannten Bewegungsmuster modulartig und standardisiert (siehe weiter unten) an die Schnittstelle der frei spezifizierbaren Geometrie- und Klangsteuerung 1 "angedockt" werden.
Es ist anzumerken, daß das 3D-Eingabegerät 2 nur ein Beispiel für ein Eingabegerät zur Erzeugung von Ansteuersignalen 11 darstellt. Grundsätzlich ist jede andere Art von Eingabegerät ebenfalls geeignet, wobei indessen das 3D-Eingabegerät 2 den großen Vorteil aufweist, daß die Eingabe von Ansteuersignalen 11 von unterschiedlichen Freiheitsgraden in besonders intuitiver Weise erfolgen kann. Hinsichtlich der konkreten Ausführungsformen von solchen 3D-Eingabegeräten 2 wird auf den Beschreibungseinleitung zitierten Stand der Technik verwiesen. Derartige Produkte sind bspw. von der Firma Logicad3d im Handel erhältlich.
Bezugnehmend auf Fig. 2 soll nunmehr im Detail der Aufbau der frei spezifizierbaren Geometrie- und Klangsteuerung 1 erläutert werden. Die grau unterlegten Pfeile 11 und 10 zeigen die in Echtzeit ablaufende Ein- bzw. Ausgabe von Signalen von bzw. zu der frei spezifizierbaren Geometrie- und Klangsteuerung 1, nämlich die Ansteuersignale 11 (x, y, z, a, b, c, . . .) von dem Eingabegerät 2 sowie die Animations-Ausgabedaten 10.
Wie aus Fig. 2 ersichtlich werden die Ansteuersignale 11 einem Freispezifizierungsmodul 6 zugeführt. Die eine Funktion des Freispezifizierungsmoduls 6 ist es, aus den Absolutwerten der eingegebenen "Analogdaten" x, y, z, a, b, c, . . . zeitliche Ableitungen (Geschwindigkeit) dieser Werte bzw. auch Ableitungen höherer Ordnung (Beschleunigung) zu ermitteln. Somit kann ohne zusätzlichen Sensor (Beschleunigungssensor) beispielsweise die Geschwindigkeit und die Beschleunigung bezüglich der genannten "Analogdaten" unter den Ansteuersignalen 11 ermittelt werden.
Die zweite wichtige Funktion des Freispezifizierungsmoduls 6 ist es, die Ansteuersignale 11 der verschiedenen Freiheitsgrade der Klangerzeugung, der Beleuchtungserzeugung, der Oberflächenerzeugung sowie der Bewegungserzeugung zuzuordnen. Es kann also beispielsweise für den Benutzer eine Maske bei der Initialisierung der erfindungsgemäßen Geometrie- und Klangsteuerung 1 vorgesehen sein, die dem Benutzer den Zugriff auf das Freispezifizierungsmodul 6 derart ermöglicht, daß der Benutzer je einen Freiheitsgrad der Ansteuersignale 11 einem von Bewegungserzeugung, Oberflächenerzeugung, Beleuchtungserzeugung bzw. Klangerzeugung zuordnen kann.
Darüber hinaus kann der Benutzer mittels dieses Freispezifizierungsmoduls 6 Kopplungsparameter der Zuordnung wie beispielsweise die Dämpfung und Verstärkung frei einstellen. Die einstellbaren Kopplungsparameter legen also die zeitliche Kopplung sowie die Verstärkung der Veränderung des entsprechenden Musters abhängig von dem zugewiesenen Ansteuersignal und somit das Signalantwortverhalten des Systems fest. Abhängig von der Spezifizierung durch den Benutzer ordnet also das Freispezifizierungsmodul 6 Kopplungsparameter der Zuordnung wie beispielsweise die Dämpfung und Verstärkung frei einstellbar zu. Wenn bspw. die Kopplungsparameter bezüglich eines Bewegungsmusters verändert werden, kann von einer dynamischen auf eine hinkende Gehbewegung stufenlos umgestellt werden. Als weiteres Beispiel können dadurch verschiedene Stimmungen oder Emotionen, ausgedrückt durch ein Gesicht eingestellt werden. Der Benutzer kann dadurch bspw. stufenlos zwischen der Gehbewegung eines jungen Sportlers und der eines alten Mannes wählen, so daß in einfacher Weise verschiedene Charaktere und/oder Stimmungen gewählt werden können.
Im Sinne einer höherwertigen Zuordnung ist es auch möglich, anstelle der Einstellung einzelner Kopplungsparameter lediglich im Zuge der Spezifizierung den Charakter (alt etc.) und/oder die Stimmung (lustig/traurig etc.) anzuwählen, wobei das Freispezifizierungsmodul 6 dann automatisch die einzelnen Kopplungsparameter (bspw. für den Gang, das Gesicht etc.) einstellt. Anstelle einer Einzeleinstellung ermöglicht diese höherwertige (verknüpften) Zuordnung also eine Charakter- und/oder Stimmungswahl. Die Stimmungswahl kann Einfluß auf verschiedene Muster haben, so daß bspw. gleichzeitig die Klangerzeugung, die Beleuchtung und der Gang als Bewegung verändert werden. Es können also durch eine Aktion des Benutzers sowohl mehrere Kopplungsparameter eines Musters wie auch mehrere Kopplungsparameter verschiedener Muster (Bewegung, Oberfläche, Klang, Beleuchtung) automatisch verändert werden.
Somit können Choreographien erstellt werden, die eine Echtzeit-Ansteuerung einer Charakter-Figur und des Hintergrunds verwenden.
Abhängig von der Spezifizierung durch den Benutzer ordnet genauer gesagt das Freispezifizierungsmodul 6 die entsprechenden Ansteuersignale 11 als Akkustik- Ansteuersignale 12 einem Akkustikgenerator 21, als Beleuchtungs-Ansteuersignale 18 einem Beleuchtungsgenerator 8, als Bewegungs-Ansteuersignale 17 einem Bewegungsgenerator 7 und/oder als Oberflächen-Ansteuersignale 15 einem Oberflächengenerator 9 zu.
Der Akkustikgenerator 21 verknüpft dabei die ihm zugeordneten Akkustik(Klang)- Ansteuerdaten 12 mit wenigstens einem parametrisierten vordefinierten Klangmuster 3. Das Produkt dieser Verknüpfung sind Klang-Animationsansteuerdaten 13, die einen Teil der Animations-Ansteuerdaten 10 darstellen. Die vordefinierten Klangmuster können bspw. parametrisierte digitale Klangdateien sein.
In entsprechender Weise verknüpft der Beleuchtungsgenerator 8 die ihm zugewiesenen Beleuchtungs-Ansteuerdaten 18 mit wenigstens einem vordefinierten parametrisierten Beleuchtungsmuster 19 zur Erzeugung von Beleuchtungs-Animationsdaten 20. Das Beleuchtungsmuster 19 kann dabei ein Objekt und/oder seine Umgebung betreffen.
Der Bewegungsgenerator verknüpft die ihm zugewiesenen Bewegungs-Ansteuerdaten 17 mit wenigstens einem vordefinierten parametrisierten Bewegungsmuster 4 zur Erzeugung von Bewegungs-Animationsdaten 16. Somit können also verschiedene Bewegungsmuster wie z. B. Gehen in verschiedenen Richtungen, Bücken, Springen etc. in Echtzeit angesteuert werden.
Der Oberflächengenerator 9 verknüpft die ihm zugewiesenen Oberflächen- Ansteuerdaten 15, die durch den Bewegungsgenerator 7 erzeugen Bewegungs- Animationsdaten 16 sowie Daten von wenigstens einem vorgegebenen parametrisierten Oberflächenmuster 5 zur Erzeugung von Oberflächen-Animationsdaten 14. Somit kann bspw. eine Farbänderung bestimmter Flächen eines bewegten Objekts und/oder seiner Umgebung angesteuert werden.
Wie bereits ausgeführt sind die vordefinierten Klangmuster 3, Beleuchtungsmuster 19, Bewegungsmuster 4 und Oberflächenmuster 5 jeweils parametrisiert, so daß die entsprechenden zugeordneten Ansteuerdaten durch den Akkustikgenerator 21, den Beleuchtungsgenerator 8, den Bewegungsgenerator 7 bzw. den Oberflächengenerator 9 als Parameterwerte verwendet werden können, um eine Echtzeitsteuerung der entsprechenden Muster abhängig von den Ansteuersignalen 11 auszuführen, wobei sich die Echtzeit-Ansteuerung der entsprechenden Muster in der entsprechenden Veränderung der erzeugten Animationsdaten 13, 20, 14 und 16 niederschlägt, die insgesamt zu den Animations-Ansteuerdaten 10 zusammengefaßt werden.
Der Benutzer kann also durch entsprechende Manipulation des Eingabegeräts 2 und der entsprechenden Zuordnung durch das Freispezifizierungsmodul 6 (die durch den Benutzer selbst oder aber vorab eingestellt wurde) in Echtzeit die Klangmuster 3, die Beleuchtungsmuster 19, die Bewegungsmuster 4 sowie die Oberflächenmuster (Geometrien, Texturen, etc.) 5 ansteuern. Dabei kann er einerseits vordefinierte Muster auslösen, wozu beispielsweise ein reiner Schalter am Eingabegerät 2 verwendet werden kann. Andererseits kann er unter Verwendung der "Analogansteuersignale" x, y, z, a, b, c eine echte Echtzeitsteuerung der genannten Muster ausführen.
Die Funktion der Generatoren soll dabei anhand des Bewegungsgenerators 7 im Detail erläutert werden:
Es wird vorausgesetzt, daß im Zuge der Animation ein Gelenkkörper in Echtzeit angesteuert werden soll. Der Bewegungsgenerator 7 berechnet also in diesem Fall laufend abhängig von den Bewegungs-Ansteuerdaten 17 die neue Position und Orientierung der Gelenke des Gelenkkörpers.
Ein Bewegungsmuster 4 wird also beispielsweise wie folgt definiert: Zuerst werden Skelettdaten definiert, die die Art und Lage der Gelenke des Gelenkkörpers beschreiben. Neben der Position (Lage) der Gelenke wird also auch die Art (Freiheitsgrade, etc.) definiert. Für jedes Gelenk kann beispielsweise folgender String definiert werden:
{Name, Position, Freiheitsgrad, maximale Amplitude, Dämpfung, . . .}
Ein Bewegungsablauf besteht also dann aus einer Liste oder einer Funktion, die festlegen, welches der definierten Gelenke sich abhängig von den Ansteuerdaten als Parametern wann und wie bewegt. Ein Bewegungsablauf kann somit beispielsweise durch eine Liste der "abzuarbeitenden" Gelenke bestehen. Pro Zyklus wird also durch Abarbeiten der Liste oder einer Funktion berechnet, welche neue Position und/oder Orientierung der Gelenke sich aus den Einzelbeiträgen der verschiedenen Gelenke abhängig von den Ansteuerdaten als Parameterwerte ergibt.
Zu einem Zeitpunkt t berechnet sich also die Position definiert durch die Koordinaten x, y, z sowie die Orientierung definiert durch die Winkelkoordinaten a, b, c eines Gelenks wie folgt:
Diese Gleichung (1) wird also für jedes der in den Skelettdaten definierten Gelenke berechnet. Die neue Position und Orientierung eines Gelenks zum Zeitpunkt t berechnet sich somit aus der Position aus dem vorherigen Zyklus t - 1 zuzüglich der neuen ansteuerdatenabhängigen Beiträge Δxj, Δyj, Δzj, Δaj, Δbj, Δcj. Jedes Gelenk j liefert somit einen Positions- und Orientierungsänderungsbeitrag für jedes Gelenk, sich selbst eingeschlossen.
Es sei angemerkt, daß die Großbuchstaben sich auf die Positionen und Orientierungen der Gelenke beziehen, wohingegen die Kleinbuchstaben sich auf die jeweiligen Ansteuersignale in diesem Freiheitsgrad beziehen.
Die Beiträge eines jeden Gelenks j zur Verschiebung der Position bzw. Orientierung eines jeden anderen Gelenks sowie desselben Gelenks werden nach der folgenden Formel berechnet:
Die Funktion fj(x, y, z, a, b, c, , , , , , , . . .) stellt dabei die Repräsentation dar, wie ein bestimmter Bewegungsablauf, z. B. der Gang eines Menschen standardisiert wiedergegeben werden kann.
Bezugnehmend auf das Flußdiagramm von Fig. 3 soll nun schließlich nochmals der Ablauf gemäß der vorliegenden Erfindung erläutert werden. Die Schritte S9, S10 und S11 beziehen sich dabei auf einen Einstellungs- und Zuweisungsvorgang in dem Freispezifizierungsmodul 6. Dieser Vorgang kann entweder durch den Benutzer oder aber auch vorab festgelegt sein. Nach dem Start im Schritt S9 kann also der Benutzer und/oder ein Programmierer durch das Freispezifizierungsmodul 6 die einzelnen Ansteuersignale 11 der verschiedenen Freiheitsgrade in verschiedenen Muster Klang, Bewegung, Oberflächen und/oder Beleuchtung zuweisen. In einem Schritt S11 können dann die Kopplungsparameter zwischen den Ansteuersignalen und den tatsächlich in Echtzeit ausgeführten Änderungen der entsprechenden Muster eingestellt werden. Diese Kopplungsparameter können beispielsweise die Dämpfung und die Verstärkung betreffen.
Bei dem Start einer eigentlichen Echtzeitanimation im Schritt S1 werden dann in einem Schritt S2 die Ansteuerdaten von dem Eingabegerät 2 in die frei spezifizierbare Geometrie- und Klangsteuerung ausgegeben. In einem Schritt S3 werden dann die Ansteuerdaten ausgewertet, wobei beispielsweise die verschiedenen zeitlichen Ableitungen der "Analogsteuersignale" ermittelt werden. Schließlich wird in einem Schritt S4 eine Zuweisung der Ansteuerdaten der verschiedenen Freiheitsgrade zu den bereits genannten Mustern Klang S5, Bewegung S6, Oberfläche S7 und/oder Beleuchtung S8 ausgeführt.
Hinsichtlich des Beleuchtungsmusters S8 ist anzumerken, daß sowohl die Beleuchtungssituation für ein animiertes Gelenkobjekt selbst wie aber auch die Beleuchtung des Hintergrunds bzw. verschiedener Szenen in Echtzeit durch entsprechende Zuordnung und Eingabe von Ansteuersignalen 11 verändert werden kann.

Claims (19)

1. Verfahren zur Echtzeit-Geometriesteuerung eines Gelenk-Objekts, aufweisend die folgenden Schritte:
  • 1. Definition wenigstens eines parametrisierten Bewegungsmusters (4),
  • 2. Definition wenigstens eines Oberflächenmusters (5) für das Objekt,
  • 3. Eingabe von Positions-Ansteuerdaten (11) mittels eines analogen Eingabegeräts (2),
  • 4. Berechnung (7) von Skelett-Änderungsdaten auf Grundlage der Positions-Ansteuerdaten (11) sowie einer zeitlichen Ableitung davon als Parameterwerte und des wenigstens einen parametrisierten Bewegungsmusters (4), wobei die Skelett-Änderungsdaten translatorische und/oder rotatorische Änderungen der Lage und/oder Orientierung der Gelenke des Objekts wiedergeben,
  • 5. Berechnung (9) der Oberfläche des virtuellen Gelenk-Objekts auf Grundlage der Skelett- Änderungsdaten und des wenigstens einen Oberflächenmusters (5),
wobei die Schritte c.), d.) und e.) zyklisch wiederholt werden
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass mittels des Eingabegeräts (2) gleichzeitig Positions-Ansteuerdaten (11) bezüglich einer translatorischen und einer rotatorischen Manipulation des Eingabegeräts (2) eingegeben werden können.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß mittels des Eingabegeräts (2) Positions-Ansteuerdaten (11) von wenigstens sechs unabhängigen Freiheitsgraden eingegeben und in Echtzeit verarbeitet werden können.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass Positions-Ansteuerdaten (11) von drei translatorischen und drei rotatorischen Freiheitsgraden eingegeben werden können.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Zuordnung (6) der Positions-Ansteuerdaten (11) oder deren Ableitungen als Parameterwerte für die Bewegungs- bzw. Oberflächenmuster frei spezifiziert werden kann.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß weiterhin parametrisierte Beleuchtungsmuster hinterlegt werden, die zur Erzeugung von Beleuchtungseffekten mittels entsprechender Verknüpfung mit Positions-Ansteuerdaten (11) als Parametern verwendet werden.
7. Verfahren zur frei spezifizierbaren Geometriesteuerung in Echtzeit, wobei
für eine Bewegungs- und/oder Oberflächenerzeugung wenigstens ein vordefiniertes parametrisiertes Bewegungsmuster (3, 4, 5) hinterlegt ist,
Ansteuerdaten (11) verschiedener Freiheitsgrade von einem analogen Eingabegerät (2) ausgewertet werden und als Parameterwerte zur Erzeugung (7, 8, 9) von Bewegungsdaten in Echtzeit mit Hilfe des/der hinterlegten parametrisierten Muster verwendet werden, und
die Zuordnung (6) von Ansteuerdaten jeweils eines Freiheitsgrads zu einem bestimmten Bewegungsmuster (3, 4, 5) durch einen Benutzer frei wählbar ist.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass mittels des Eingabegeräts (2) gleichzeitig Ansteuerdaten (11) bezüglich einer translatorischen und einer rotatorischen Manipulation des Eingabegeräts (2) eingegeben werden können.
9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass weiterhin zeitliche Ableitungen der Ansteuerdaten (11) einem bestimmten Bewegungs- und/oder Oberflächenmuster zugeordnet (6) werden können.
10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass Kopplungsparameter der Zuordnung durch den Benutzer frei wählbar sind.
11. Vorrichtung zur Echtzeit-Geometriesteuerung von Gelenk-Objekten, mit
einem Speicher, in dem abgelegt sind:
wenigstens ein parametrisiertes Bewegungsmusters (4), und
wenigstens ein Oberflächenmuster (5) eines Objekts,
einem Eingabegerät (2) zur Eingabe von analogen Positions-Ansteuerdaten (11),
einem Bewegungsgenerator (7) zur Berechnung von Skelett-Änderungsdaten auf Grundlage der Positions-Ansteuerdaten (11) sowie einer zeitlichen Ableitung davon als Parameterwerte und des wenigstens einen parametrisierten Bewegungsmusters (4), wobei die Skelett-Änderungsdaten translatorische und/oder rotatorische Änderungen der Lage und/oder Orientierung von Gelenken wiedergeben, und
einem Oberflächengenerator (9) zur Berechnung der Oberfläche des Objekts auf Grundlage der Skelett-Änderungsdaten und des Oberflächenmusters (5).
12. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet, dass mittels des Eingabegeräts (2) gleichzeitig Positions-Ansteuerdaten (11) bezüglich einer translatorischen und einer rotatorischen Manipulation des Eingabegeräts (2) eingebbar sind.
13. Vorrichtung nach einem der Anspruch 11 oder 12, dadurch gekennzeichnet, daß das Eingabegerät (2) zur gleichzeitigen Eingabe von Positions-Ansteuerdaten (11) von wenigstens sechs unabhängigen Freiheitsgraden ausgelegt ist.
14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, daß das Eingabegerät (2) zur Eingabe von Positions-Ansteuerdaten (11) von drei translatorischen und drei rotatorischen Freiheitsgraden ausgelegt ist.
15. Vorrichtung nach einem der Ansprüche 11 bis 14, gekennzeichnet durch eine Einheit (6) zur wahlfreien Zuordnung der Ansteuerdaten (11) oder derer Ableitungen als Parameterwerte für die Skelett- und Oberflächendaten.
16. Vorrichtung zur frei spezifizierbaren Geometriesteuerung in Echtzeit, aufweisend:
einen Speicher (3, 4, 5), in dem für eine Bewegungserzeugung wenigstens ein vordefiniertes parametrisiertes Bewegungsmuster (3, 4, 5) hinterlegt ist,
eine Recheneinheit (1) zur Auswertung von Ansteuerdaten (11) verschiedener Freiheitsgrade von einem analogen Eingabegerät (2) als Parameterwerte zur Erzeugung von Bewegungsdaten mit Hilfe des/der hinterlegten parametrisierten Muster (3, 4, 5) in Echtzeit, und
eine Einstelleinheit (6) zur frei wählbaren Zuordnung von Ansteuerdaten (11) jeweils eines Freiheitsgrads zu einem bestimmten Bewegungsmuster (3, 4, 5) durch einen Benutzer.
17. Vorrichtung nach Anspruch 16, dadurch gekennzeichnet, dass mittels des Eingabegeräts (2) gleichzeitig Ansteuerdaten (11) bezüglich einer translatorischen und einer rotatorischen Manipulation des Eingabegeräts (2) eingebbar sind.
18. Vorrichtung nach Anspruch 16 oder 17, dadurch gekennzeichnet, daß die Einstelleinheit (6) weiterhin die Zuordnung von zeitliche Ableitungen der Ansteuerdaten (11) zu einem bestimmten Bewegungsmuster ermöglicht.
19. Vorrichtung nach Anspruch 16 oder 18, dadurch gekennzeichnet, daß die Einstelleinheit (6) eine frei wählbare Einstellung von Kopplungsparametern der Zuordnung ermöglicht.
DE10045117A 2000-09-13 2000-09-13 Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung Expired - Lifetime DE10045117C2 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE10045117A DE10045117C2 (de) 2000-09-13 2000-09-13 Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung
AU2002212137A AU2002212137A1 (en) 2000-09-13 2001-08-13 Freely specifiable real-time control
DE20121798U DE20121798U1 (de) 2000-09-13 2001-08-13 System zur frei spezifizierbaren Echtzeit-Steuerung
EP01980243A EP1319207A2 (de) 2000-09-13 2001-08-13 Frei spezifizierbare echtzeit-steuerung
PCT/EP2001/009356 WO2002023323A2 (de) 2000-09-13 2001-08-13 Frei spezifizierbare echtzeit-steuerung
US10/386,693 US7199301B2 (en) 2000-09-13 2003-03-13 Freely specifiable real-time control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10045117A DE10045117C2 (de) 2000-09-13 2000-09-13 Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung

Publications (2)

Publication Number Publication Date
DE10045117A1 DE10045117A1 (de) 2002-03-28
DE10045117C2 true DE10045117C2 (de) 2002-12-12

Family

ID=7655959

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10045117A Expired - Lifetime DE10045117C2 (de) 2000-09-13 2000-09-13 Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung

Country Status (5)

Country Link
US (1) US7199301B2 (de)
EP (1) EP1319207A2 (de)
AU (1) AU2002212137A1 (de)
DE (1) DE10045117C2 (de)
WO (1) WO2002023323A2 (de)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7339589B2 (en) * 2002-10-24 2008-03-04 Sony Computer Entertainment America Inc. System and method for video choreography
US6999093B1 (en) * 2003-01-08 2006-02-14 Microsoft Corporation Dynamic time-of-day sky box lighting
WO2005098583A1 (ja) * 2004-03-30 2005-10-20 Pioneer Corporation 音情報出力装置、音情報出力方法、および音情報出力プログラム
WO2006039324A2 (en) * 2004-10-01 2006-04-13 Wms Gaming Inc. System and method for 3d reel effects
US20090181769A1 (en) * 2004-10-01 2009-07-16 Alfred Thomas System and method for 3d image manipulation in gaming machines
WO2006039371A2 (en) * 2004-10-01 2006-04-13 Wms Gaming Inc. Displaying 3d characters in gaming machines
DE102004059051A1 (de) * 2004-12-07 2006-06-08 Deutsche Telekom Ag Verfahren und modellbasiertes Audio- und Videosystem zur Darstellung einer virtuellen Figur
CN1870128B (zh) * 2005-05-25 2011-11-23 光宝科技股份有限公司 混合乐曲的方法及装置
US7855715B1 (en) * 2005-07-27 2010-12-21 James Harrison Bowen Switch with depth and lateral articulation detection using optical beam
US9666031B2 (en) * 2006-06-12 2017-05-30 Bally Gaming, Inc. Wagering machines having three dimensional game segments
DE102006049863B4 (de) * 2006-10-23 2015-09-10 Siemens Aktiengesellschaft Navigator bei medizinischen bewegten Bildern
WO2008091869A2 (en) * 2007-01-22 2008-07-31 Bell Helicopter Textron, Inc. System and method for the interactive display of data in a motion capture environment
CA2675995C (en) 2007-01-22 2014-11-04 Bell Helicopter Textron Inc. System and method for performing multiple, simultaneous, independent simulations in a motion capture environment
EP2126778A4 (de) * 2007-01-22 2013-01-09 Bell Helicopter Textron Inc System und verfahren zur steuerung einer virtuellen realität durch einen darsteller in der virtuellen realität
US20110035684A1 (en) * 2007-04-17 2011-02-10 Bell Helicoper Textron Inc. Collaborative Virtual Reality System Using Multiple Motion Capture Systems and Multiple Interactive Clients
WO2009052032A1 (en) * 2007-10-19 2009-04-23 Sony Computer Entertainment America Inc. Scheme for providing audio effects for a musical instrument and for controlling images with same
GB0901858D0 (en) * 2009-02-05 2009-03-11 Schoegler Benjaman W Data input device and sound generating device
US7939742B2 (en) * 2009-02-19 2011-05-10 Will Glaser Musical instrument with digitally controlled virtual frets
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
JP5434638B2 (ja) * 2010-01-29 2014-03-05 ソニー株式会社 情報処理装置および情報処理方法
US8620661B2 (en) * 2010-03-02 2013-12-31 Momilani Ramstrum System for controlling digital effects in live performances with vocal improvisation
US9092135B2 (en) 2010-11-01 2015-07-28 Sony Computer Entertainment Inc. Control of virtual object using device touch interface functionality
US9519640B2 (en) 2012-05-04 2016-12-13 Microsoft Technology Licensing, Llc Intelligent translations in personal see through display
US9122321B2 (en) 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
US9019174B2 (en) 2012-10-31 2015-04-28 Microsoft Technology Licensing, Llc Wearable emotion detection and feedback system
US9236039B2 (en) * 2013-03-04 2016-01-12 Empire Technology Development Llc Virtual instrument playing scheme
RU2584645C1 (ru) * 2015-05-15 2016-05-20 Мария Петровна Кибардина Способ диагностики артикуляции речевых расстройств
WO2018189854A1 (ja) * 2017-04-13 2018-10-18 ローランド株式会社 電子楽器本体装置及び電子楽器システム
FR3075428B1 (fr) * 2017-12-15 2020-02-28 Enhancia Bague et module d'interface
US10782779B1 (en) * 2018-09-27 2020-09-22 Apple Inc. Feedback coordination for a virtual interaction
US11073920B1 (en) 2020-10-20 2021-07-27 Cirque Corporation Multi-touch input system
CN112720504B (zh) * 2021-01-20 2023-03-28 清华大学 从rgbd视频中学习手与物体交互运动控制方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0457541A1 (de) * 1990-05-18 1991-11-21 British Aerospace Public Limited Company Steuergeräte
EP0805418A2 (de) * 1996-04-25 1997-11-05 Matsushita Electric Industrial Co., Ltd. Rechnergrafikanimationsverfahren
US5757360A (en) * 1995-05-03 1998-05-26 Mitsubishi Electric Information Technology Center America, Inc. Hand held computer control device
DE29804023U1 (de) * 1998-02-27 1998-07-30 Schoetzau, Claus, 10629 Berlin Halbkugelförmiges Gerät zur Echzeitsteuerung von Synthesizern bzw. "Midi"-Klangerzeugern über Drucktasten
WO1999006962A1 (en) * 1997-08-04 1999-02-11 Pixar Animation Studios Realistic surface simulation in computer animation
US5923337A (en) * 1996-04-23 1999-07-13 Image Link Co., Ltd. Systems and methods for communicating through computer animated images
US6097374A (en) * 1997-03-06 2000-08-01 Howard; Robert Bruce Wrist-pendent wireless optical keyboard

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4600919A (en) * 1982-08-03 1986-07-15 New York Institute Of Technology Three dimensional animation
DE3611336A1 (de) 1986-04-04 1987-10-15 Deutsche Forsch Luft Raumfahrt Kraft-drehmoment-fuehler
DE3611337A1 (de) 1986-04-04 1987-10-22 Deutsche Forsch Luft Raumfahrt In einer kunststoffkugel untergebrachte, opto-elektronische anordnung
EP0461577B1 (de) * 1990-06-11 1998-12-02 Hitachi, Ltd. Vorrichtung zur Erzeugung eines Objektbewegungsweges
US5630017A (en) * 1991-02-19 1997-05-13 Bright Star Technology, Inc. Advanced tools for speech synchronized animation
US6011212A (en) * 1995-10-16 2000-01-04 Harmonix Music Systems, Inc. Real-time music creation
DE59901485D1 (de) 1998-08-10 2002-06-27 Deutsch Zentr Luft & Raumfahrt Anordnung zum Auslösen von technischen Steueroperationen und/oder zum Auslösen der Ausführung von technischen Funktionen

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0457541A1 (de) * 1990-05-18 1991-11-21 British Aerospace Public Limited Company Steuergeräte
US5757360A (en) * 1995-05-03 1998-05-26 Mitsubishi Electric Information Technology Center America, Inc. Hand held computer control device
US5923337A (en) * 1996-04-23 1999-07-13 Image Link Co., Ltd. Systems and methods for communicating through computer animated images
EP0805418A2 (de) * 1996-04-25 1997-11-05 Matsushita Electric Industrial Co., Ltd. Rechnergrafikanimationsverfahren
US6097374A (en) * 1997-03-06 2000-08-01 Howard; Robert Bruce Wrist-pendent wireless optical keyboard
WO1999006962A1 (en) * 1997-08-04 1999-02-11 Pixar Animation Studios Realistic surface simulation in computer animation
DE29804023U1 (de) * 1998-02-27 1998-07-30 Schoetzau, Claus, 10629 Berlin Halbkugelförmiges Gerät zur Echzeitsteuerung von Synthesizern bzw. "Midi"-Klangerzeugern über Drucktasten

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KOHNO, Izumi et al.: Systematic Approach for Creating Animated Character Interfaces, in: Proc. 2000 IEEE int. Conf. on Multimedia and Expo, 30.7.-2.8.2000, S. 231-234 *
WILHELMS, Jane: Toward Automatic Motion Control, in: IEEE Computer Graphics & Applications, April 1987, S. 11-22 *

Also Published As

Publication number Publication date
US20040080507A1 (en) 2004-04-29
EP1319207A2 (de) 2003-06-18
WO2002023323A3 (de) 2003-03-13
DE10045117A1 (de) 2002-03-28
WO2002023323A2 (de) 2002-03-21
US7199301B2 (en) 2007-04-03
AU2002212137A1 (en) 2002-03-26

Similar Documents

Publication Publication Date Title
DE10045117C2 (de) Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung
DE69921563T2 (de) System und Methode zur Steuerung von Objekten durch Simulation von Gefühlen und Persönlichkeit im Objekt
EP1428110B1 (de) 3d-eingabegerät mit integriertem touchscreen
DE69433061T2 (de) Netzwerk der virtuellen realität
DE69735269T2 (de) Steuerverfahren zum schrittbetrieb eines roboters
DE69808365T2 (de) Off-line-Erzeugung eines Krafteffekts
EP3575890B1 (de) Assistenzsystem zur unterstützung der planung von automatisierungssystemen
DE69710566T2 (de) Vorrichtung zur interaktion und navigation in einer virtuellen umgebung
DE69632033T2 (de) Verfahren und vorrichtung zur steuerung der bewegung eines virtuellen körpers
DE69303359T2 (de) Rechnerunterstütztes Entwurf- und Fertigungssystem
DE69812496T2 (de) Gerät, Verfahren und Speichermedium zur Bewegungsdatenerzeugung
DE112011100069T5 (de) Verfahren zum Entwickeln von Software und Vorrichtung für dasselbe
DE3422107A1 (de) Roboter-steuereinrichtung
DE60219570T2 (de) Simulationsvorrichtung
EP2068214A1 (de) Grafische Programmerstellung durch Ableiten des Prozesssteuerungsablaufes aus der Zuordnung dynamischer Grafikobjekte
DE69106462T2 (de) Animationsgerät.
DE60024514T2 (de) Aufzeichnungsmedium, Verfahren und Einrichtung zur Bildverarbeitung mit integrierten Daten zur Formmodellierung
DE4001493A1 (de) Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten
EP4064106A1 (de) Verfahren zum erzeugen von trainingsdaten für ein ml-modell
DE10047187B4 (de) Vorrichtung zum Steuern eines Robots mit einem Rechensystem
EP4430375A1 (de) Testumfeld für urbane mensch-maschine interaktion
EP2642359A1 (de) Entwicklungseinrichtung und Verfahren zum Erstellen eines Steuergeräteprogramms
DE69804355T2 (de) Dynamischer bedienoberflächenerzeuger
EP3944120B1 (de) Verfahren zur bestimmung von zuschnittparametern für platten und verfahren zur herstellung von tafeln für eine vertäfelung einer fläche
AT17054U1 (de) Verfahren zum Bereitstellen eines elektronischen dreidimensionalen Gebäude- oder Wohnungsplans, sowie Verfahren und System zur Visualisierung von Gebäude- und Wohnungsplänen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8172 Supplementary division/partition in:

Ref document number: 10066093

Country of ref document: DE

Q171 Divided out to:

Ref document number: 10066093

Country of ref document: DE

AH Division in

Ref document number: 10066093

Country of ref document: DE

D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: 3DCONNEXION GMBH, 82229 SEEFELD, DE

8381 Inventor (new situation)

Inventor name: PRITTWITZ, BERND VON, 82229 SEEFELD, DE

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAELTE,

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAELTE,

R081 Change of applicant/patentee

Owner name: SOCIETE CIVILE "GALILEO 2011", MC

Free format text: FORMER OWNER: 3DCONNEXION GMBH, 82229 SEEFELD, DE

Effective date: 20111220

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20111014

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20111220

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20111220

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20111014

R071 Expiry of right