[go: up one dir, main page]

DE20121798U1 - Method for real-time control of a jointed object in which an object is controlled via use of a virtual object in a computer program representing a real object - Google Patents

Method for real-time control of a jointed object in which an object is controlled via use of a virtual object in a computer program representing a real object

Info

Publication number
DE20121798U1
DE20121798U1 DE20121798U DE20121798U DE20121798U1 DE 20121798 U1 DE20121798 U1 DE 20121798U1 DE 20121798 U DE20121798 U DE 20121798U DE 20121798 U DE20121798 U DE 20121798U DE 20121798 U1 DE20121798 U1 DE 20121798U1
Authority
DE
Germany
Prior art keywords
sound
parameterized
control signals
pattern
patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE20121798U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3DConnexion GmbH
Original Assignee
3DConnexion GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE10045117A external-priority patent/DE10045117C2/en
Application filed by 3DConnexion GmbH filed Critical 3DConnexion GmbH
Priority to DE20121798U priority Critical patent/DE20121798U1/en
Publication of DE20121798U1 publication Critical patent/DE20121798U1/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/315User input interfaces for electrophonic musical instruments for joystick-like proportional control of musical input; Videogame input devices used for musical input or control, e.g. gamepad, joysticks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/4013D sensing, i.e. three-dimensional (x, y, z) position or movement sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

Method has the following steps: definition of a moving pattern and its parameters (106) for the object, definition of a similar object surface pattern (108), input of parameter control signals (116) using a 3-D input device, calculation of skeleton alteration data based on the control signal and the moving pattern, calculation of the surface of a the object based on the skeleton alterations and the surface pattern and repetition of the preceding steps as required. Independent claims are made for a computer software product and a system for real time movement control of real and virtual hinged or articulated objects.

Description

System zur frei spezifizierbaren Echtzeit-SteuerungSystem for freely specifiable real-time control

HINTERGRUND UND EINSATZBEREICH DER ERFINDUNGBACKGROUND AND FIELD OF APPLICATION OF THE INVENTION

Die Erfindung bezieht sich auf Systeme, d.h. Erzeugnisse, zur grafischen Visualisierung und Echtzeit-Ansteuerung von virtuellen und/oder realen Objekten zur Erzeugung und/oder Beeinflussung von Bild- bzw. Tonsequenzen, mit dessen Hilfe auf einem Bildschirm dargestellte bzw. reale Objekte wie beispielsweise Roboter oder dergleichen durch interaktive Steuerbefehle eines Benutzers in ihren Eigenschaften und/oder Aktionen auf eine komfortable und zuverlässige Weise (quasi) in Echtzeit manipuliert bzw. gesteuert werden können. Insbesondere bezieht sich die vorliegende Erfindung auf Systeme zur Animation und Bewegungssteuerung eines dreidimensionalen (realen oder virtuellen) Gelenk-Objekts in Echtzeit, auf Systeme zur frei spezifizierbaren Steuerung von animierten Grafiken, Video- bzw. Audiodaten mit Hilfe von optischen bzw. akustischen Parametern sowie auf ein System zur Echtzeit-Bewegungssteuerung von virtuellen und/oder realen Objekten.The invention relates to systems, i.e. products, for graphic visualization and real-time control of virtual and/or real objects for generating and/or influencing image or sound sequences, with the aid of which objects displayed on a screen or real objects such as robots or the like can be manipulated or controlled in their properties and/or actions in a comfortable and reliable manner (quasi) in real time by means of interactive control commands from a user. In particular, the present invention relates to systems for animating and controlling the motion of a three-dimensional (real or virtual) articulated object in real time, to systems for freely specifying control of animated graphics, video or audio data using optical or acoustic parameters, and to a system for real-time motion control of virtual and/or real objects.

Es sei angemerkt, dass „Objekte" im Sinne der Erfindung virtuelle Objekte, aber auch reale Objekte wie Roboter oder andere ferngesteuerte Objekte mit mehreren Freiheitsgraden sein können.It should be noted that "objects" in the sense of the invention can be virtual objects, but also real objects such as robots or other remote-controlled objects with multiple degrees of freedom.

Im Rahmen der interaktiven Kommunikation zwischen Mensch und Maschine treten häufig Probleme auf, die auf der ungenügenden Anpassung der Maschine an die Eigenschaften der Aufnahme, Verarbeitung und Ausgabe von Information durch den menschli-In the context of interactive communication between humans and machines, problems often arise that are due to the insufficient adaptation of the machine to the characteristics of the reception, processing and output of information by the human.

P 24392 DEP 24392 EN

t ·t ·

• ··

chen Anwender beruhen. Diese Fehlanpassung kann einerseits zu einer vom Anwender nicht mehr zu bewältigenden Informationsflut führen, vor allem wenn mehrere Aufgaben erledigt werden müssen. Andererseits kann auch eine Unterforderung des Anwenders, beispielsweise bei einer hochautomatisierten Anlage, bei der dem Menschen lediglich eine Kontrollfunktion zukommt, bewirken, dass durch die Monotonie der Arbeitssituation ein Leistungsabfall eintritt und Störfälle infolge mangelnder Übung der Vorgehensweise in solchen Situationen nicht mehr beherrscht werden. Auch die mangelnde Berücksichtigung von Kenntnissen und Ausbildungsstand des Benutzers einer Maschine sind hier zu nennen. Noch immer wird in vielen Fällen das menschliche Verhalten, zum Beispiel bei der Auswahl, Bewertung und Verknüpfung von Information, bei der Entscheidungsfindung, beim Problemlösen sowie bei der Planung und Ausführung von Handlungen, nur unzureichend berücksichtigt und unterstützt, wenn es sich um die Auslegung technischer Systeme handelt.user. On the one hand, this mismatch can lead to a flood of information that the user can no longer handle, particularly when several tasks have to be completed. On the other hand, if the user is not challenged enough, for example in a highly automated system where humans only have a control function, the monotony of the work situation can lead to a drop in performance and malfunctions can no longer be controlled due to a lack of practice in how to proceed in such situations. The lack of consideration of the knowledge and level of training of the machine user should also be mentioned here. In many cases, human behaviour, for example in the selection, evaluation and linking of information, in decision-making, problem-solving and in the planning and execution of actions, is still not sufficiently taken into account and supported when it comes to the design of technical systems.

Die derzeit verwendeten Systeme zur Darstellung und Steuerung von Objekten in virtuellen Umgebungen berücksichtigen zwar in zunehmendem Maße die Fähigkeiten des Menschen zur Aufnahme und Verarbeitung von Information, jedoch weisen sie einen entscheidenden Nachteil auf: Bei der Eingabe von Steuerbefehlen zur direkten Beeinflussung der dargestellten Szene ist der Benutzer nach wie vor auf herkömmliche Methoden zur manuellen Eingabe von Information angewiesen, wie zum Beispiel über Maus, Trackball, Joystick, Grafiktablett mit Griffel oder Touchscreen. Die hierbei notwendigen Eingabemechanismen müssen vom Benutzer erst erlernt werden, um auch in einer angemessenen Reaktionsgeschwindigkeit ausgeführt werden zu können. Dagegen werden die angeborenen bzw. bereits vorhandenen erlernten Fähigkeiten des Menschen zur Kommunikation mittels akustischen Signalen (z.B. Sprache) bzw. optischen Signalen (z.B. Mimik, Gestik, Gebärden und Bewegungen) bei der EingabeThe systems currently used to display and control objects in virtual environments are increasingly taking into account people's ability to absorb and process information, but they have one major disadvantage: when entering control commands to directly influence the scene displayed, the user is still dependent on conventional methods for manually entering information, such as a mouse, trackball, joystick, graphics tablet with stylus or touchscreen. The input mechanisms required for this must first be learned by the user in order to be able to carry out the work at an appropriate reaction speed. In contrast, the innate or existing learned abilities of people to communicate using acoustic signals (e.g. speech) or optical signals (e.g. facial expressions, gestures, signs and movements) are used when entering

P 24392 DEP 24392 EN

von Information zur 'Steuerung von Objekten nur unzureichend berücksichtigt.of information for the control of objects is only inadequately taken into account.

Für die Anpassung technischer Systeme an den Menschen ist somit Vorwissen über seine Eigenschaften, seine Verhaltensmuster, seine Fertigkeiten und seinen Kenntnisstand notwendig. Beim Austausch von Informationen zwischen einem Benutzer und einem Informationssystem interessieren dabei insbesondere die sensorischen, kognitiven und motorischen Eigenschaften des Menschen.In order to adapt technical systems to people, prior knowledge about their characteristics, behavioral patterns, skills and level of knowledge is necessary. When exchanging information between a user and an information system, the sensory, cognitive and motor characteristics of people are of particular interest.

Auf der Seite der durch die Sinneskanäle vorgegebenen sensorischen Eigenschaften des Menschen werden von herkömmlichen Maschinen und Geräten zur Ausgabe von Information im Wesentliehen die folgenden Wahrnehmungskanäle angesprochen:On the side of the sensory properties of humans determined by the sensory channels, conventional machines and devices for outputting information essentially address the following perception channels:

- der visuelle Kanal (Augen) durch optische Signale,- the visual channel (eyes) through optical signals,

- der auditive Kanal (Ohren) durch akustische Signale und- the auditory channel (ears) through acoustic signals and

- der taktile Kanal (Tastsinn) durch haptische Signale.- the tactile channel (sense of touch) through haptic signals.

Nach der Verarbeitung der Signale im Gehirn (Kognition) stehen auf der Seite der durch die Ausgabekanäle vorgegebenen motorischen Eigenschaften des Menschen im Wesentlichen folgende Kanäle zur Verfügung:After the signals have been processed in the brain (cognition), the following channels are essentially available on the side of the human motor properties determined by the output channels:

- die Arm-, Hand- und Finger- bzw. Bein- und Fußmotorik sowie Körper-, Kopf-, Augen- oder Mundbewegungen, also physikalische Bewegungen, Gebärden, Gestik und Mimik zur Erzeugung von mechanischen bzw. optischen Signalen,- arm, hand and finger or leg and foot motor skills as well as body, head, eye or mouth movements, i.e. physical movements, signs, gestures and facial expressions to generate mechanical or optical signals,

- die Sprachmotorik zur Erzeugung von akustischen Signalen.- speech motor skills for generating acoustic signals.

Über diese Kanäle können Signale in ein Informationssystem eingegeben werden, um eine gewünschte Aktion des Systems auszulösen. Signals can be entered into an information system via these channels in order to trigger a desired action of the system.

• ··

• ··

• *• *

P 24392 DEP 24392 EN

&diams;· <&diams;· <

Ein ideales Medium zur Kommunikation zwischen einem Benutzer und einem Informationssystem sollte sowohl auf die sensorischen und perzeptuellen als auch auf die motorischen Fähigkeiten sowie auf die spezifischen Eigenschaften des menschlichen Benutzers abgestimmt sein. Dabei sollte die Information so strukturiert sein, dass eine optimale Übereinstimmung zwischen der Repräsentation der ausgegebenen Information und dem mentalen Modell des Benutzers erzielt wird: Werden die dem Benutzer anzuzeigenden Informationen in einer Weise dargeboten, dass zum Beispiel sein räumliches Wahrnehmungsvermögen angesprochen wird, kann der Benutzer mit erstaunlich komplexen Informationsmengen pro Zeiteinheit umgehen. Ebenso sollte das Informationssystem in der Lage sein, möglichst viele Arten der von einem Benutzer abgesetzten Information aufzunehmen, zu verstehen und zu verarbeiten und in entsprechende Aktionen umzusetzen. Damit ist der Vorteil verbunden, dass der Benutzer effizienter und schneller auf neue Ereignisse und Situationen reagieren kann. Benutzerfreundlichkeit und Aufgabenangemessenheit sind somit typische Merkmale, über die ein solches ideales Kommunikationsmedium verfügt. Diese Merkmale können sich wie folgt äußern:An ideal medium for communication between a user and an information system should be tailored to the sensory and perceptual abilities as well as the motor skills and the specific characteristics of the human user. The information should be structured in such a way that an optimal match is achieved between the representation of the information provided and the user's mental model: If the information to be displayed to the user is presented in a way that, for example, appeals to his spatial perception, the user can handle astonishingly complex amounts of information per unit of time. The information system should also be able to receive, understand and process as many types of information provided by a user as possible and convert it into appropriate actions. This has the advantage that the user can react more efficiently and quickly to new events and situations. User-friendliness and task suitability are therefore typical characteristics of such an ideal communication medium. These characteristics can be expressed as follows:

- Übereinstimmung zwischen Art, Umfang und Ausgabegeschwindigkeit und Präsentation der ausgegebenen Information mit den sensorischen Eigenschaften des menschlichen Benutzers,- Matching the type, extent and speed of output and presentation of the information provided with the sensory characteristics of the human user,

- Berücksichtigung aller Informationskanäle des Benutzers bei der Aufnahme, Erkennung und Interpretation empfangener Steuersignale des Benutzers,- Taking into account all information channels of the user when recording, recognizing and interpreting received control signals from the user,

- leichte Erlernbarkeit und intuitive Bedienbarkeit des Mediums ,- easy to learn and intuitive to use,

P 24392 DEP 24392 EN

- hohe Bandbreite der Informationsübermittlung zum Gehirn und hoher Durchsatz der Information,- high bandwidth of information transmission to the brain and high throughput of information,

- dynamische Adaption der Applikation an die individuellen Eigenschaften, Fähigkeiten, Aufgaben, Arbeits- und Organisationstechniken des Benutzers,- dynamic adaptation of the application to the individual characteristics, skills, tasks, work and organizational techniques of the user,

- Verwendung einer natürlichen Interaktionssprache mit hohem semantischen Inhalt,- Use of a natural interaction language with high semantic content,

- Zuverlässigkeit, Robustheit und Wartbarkeit des Mediums,- Reliability, robustness and maintainability of the medium,

- soziale Akzeptanz des Mediums in der Bevölkerung,- social acceptance of the medium among the population,

- Berücksichtigung gesundheitlicher, ergonomischer und sicherheitsrelevanter Aspekte etc.- Consideration of health, ergonomic and safety-related aspects etc.

Das Ziel der Entwicklung von geeigneten Schnittstellen zwischen Mensch und Maschine ist es, von den Eigenschaften der menschlichen Kommunikationskanäle und Fertigkeiten auszugehen, um Geräte, Interaktionstechniken und Schnittstellen bereitzustellen, die eine effektive wechselseitige Kommunikation über diese Kanäle gewährleisten. Um dieses Ziel zu erreichen, sind sogenannte "Virtuelle Realitäten" (VR) besonders geeignet. Unter dem Begriff "Virtuelle Realität" (VR) versteht man die computerbasierte Erzeugung einer intuitiv wahrnehmbaren oder empfindbaren Szene, bestehend aus ihrer grafischen Darstellung und den Interaktionsmöglichkeiten für den Benutzer. Eine virtuelle Umgebung ermöglicht einem Benutzer Zugriff zu Informationen, die andernfalls am gegebenen Ort oder zur gegebenen Zeit nicht verfügbar wären. Sie stützt sich auf natürliche Aspekte der menschlichen Wahrnehmung, indem sie visuelle Information in drei räumlichen Dimensionen einsetzt. Diese Information kann beispielsweise gezielt ver-The aim of developing suitable interfaces between humans and machines is to build on the properties of human communication channels and skills in order to provide devices, interaction techniques and interfaces that ensure effective two-way communication via these channels. To achieve this goal, so-called "virtual realities" (VR) are particularly suitable. The term "virtual reality" (VR) refers to the computer-based generation of an intuitively perceptible or perceptible scene, consisting of its graphical representation and the interaction options for the user. A virtual environment gives a user access to information that would otherwise not be available at the given place or time. It relies on natural aspects of human perception by using visual information in three spatial dimensions. This information can, for example, be used in a targeted manner.

P 24392 DEP 24392 EN

6
ändert oder mit weiteren sensorischen Reizen angereichert werden. Wesentliche Voraussetzungen sind dabei die Kontrolle der Perspektive in Echtzeit und die Möglichkeit der aktiven Einflussnahme auf die dargestellte Szene durch den Benutzer des Systems.
6
changed or enriched with further sensory stimuli. The essential prerequisites are the control of the perspective in real time and the possibility for the user of the system to actively influence the scene displayed.

Bei der Navigation durch virtuelle Umgebungen kann der Benutzer die für ihn natürliche Art der Steuerung einsetzen. Dies können beispielsweise entsprechende Arm- oder Beinbewegungen, Bewegungen zum Positionieren des Kopfes bzw. der Augen, Drehbewegungen des Körpers oder auf ein Objekt hingerichtete Bewegungen sein. Durch den Einsatz bereits vorhandener Fertigkeiten des Benutzers zur Steuerung kann die kognitive Belastung während der Interaktion zwischen Mensch und Maschine reduziert werden. Dadurch kann die Bandbreite der Kommunikation zwischen Mensch und Maschine erhöht und die Bedienbarkeit der Maschine verbessert werden. Während bei den herkömmlichen Formen der Mensch-Maschine-Kommunikation die Steuerung der Maschine kommandoorientiert erfolgt, müssen bei der Steuerung von Objekten in virtuellen Umgebungen keine spezifischen Kommandos neu erlernt und eingesetzt werden: Der Computer "beobachtet" den Benutzer passiv und reagiert in angemessener Weise auf Augen-, Kopf- und/oder Handbewegungen des Benutzers unter Echtzeitbedingungen.When navigating through virtual environments, the user can use the type of control that is natural for him. This can be, for example, appropriate arm or leg movements, movements to position the head or eyes, rotational movements of the body or movements directed at an object. By using the user's existing skills for control, the cognitive load during the interaction between man and machine can be reduced. This can increase the range of communication between man and machine and improve the usability of the machine. While in conventional forms of human-machine communication the control of the machine is command-oriented, when controlling objects in virtual environments no specific commands have to be newly learned and used: the computer "observes" the user passively and reacts appropriately to the user's eye, head and/or hand movements under real-time conditions.

Die Manipulation der Eigenschaften und Beeinflussung der Aktionen von Objekten einer dargestellten Szene setzt ein kompliziertes Zusammenspiel von Sensorik, kognitiver Verarbeitung und Motorik voraus, auf das viele Faktoren einwirken (individuelle Verhaltensmuster und Fähigkeiten, Erfahrungen, Umwelteinflüsse etc.). Bei Interaktionen in einer virtuellen Welt kommen noch zusätzliche Schwierigkeiten hinzu. Zur Steuerung, Manipulation bzw. Beeinflussung von Objekten ist insbesondere eine reflexartige bzw. kognitive sensorisch-motorisehe Rückkopplung wichtig, die beispielsweise von RezeptorenThe manipulation of the properties and influencing of the actions of objects in a displayed scene requires a complicated interplay of sensory, cognitive processing and motor skills, which is influenced by many factors (individual behavioral patterns and abilities, experiences, environmental influences, etc.). Additional difficulties arise when interacting in a virtual world. In order to control, manipulate or influence objects, a reflex-like or cognitive sensory-motor feedback is particularly important, which is provided by receptors, for example.

P 24392 DEP 24392 EN

in der Haut, kinästhetischen Empfindungen, dem Gleichgewichtssinn sowie visuellen und/oder akustischen Empfindungen stammt. Dabei ergibt sich in vielen Fällen eine notwendige Redundanz, die bei VR-Applikationen nicht immer gegeben ist. Aufgrund der oft unzureichenden sensorischen Rückkopplung bei VR-Applikationen wird zudem das Erlernen motorischer Fertigkeiten erschwert.in the skin, kinesthetic sensations, the sense of balance and visual and/or acoustic sensations. In many cases, this results in a necessary redundancy that is not always present in VR applications. Due to the often inadequate sensory feedback in VR applications, learning motor skills is also made more difficult.

Bei den handelsüblichen VR-Applikationen unterscheidet man Systeme, bei denen der Benutzer vollständig in die virtuelle Umgebung integriert ist (engl.: "Immersion") und Systeme, die nur ein "Fenster" zur virtuellen Realität darbieten. Neben den bekannten Formen der Mensch-Maschine-Kommunikation wieIn commercially available VR applications, a distinction is made between systems in which the user is fully integrated into the virtual environment ("immersion") and systems that only provide a "window" to virtual reality. In addition to the well-known forms of human-machine communication such as

- Direktmanipulationen von Objekten durch manuelle feinmotorische Operationen (Zeigen, Berühren, Greifen, Bewegen, Festhalten etc.),- Direct manipulation of objects through manual fine motor operations (pointing, touching, grasping, moving, holding, etc.),

- formalen Interaktionssprachen (Programmiersprachen, Kommandosprachen und formale Abfragesprachen), - natürlichsprachlicher Interaktion,- formal interaction languages (programming languages, command languages and formal query languages), - natural language interaction,

- gestischer Interaktion mittels nonverbaler symbolischer Kommandos (Mimik, Gestik, Gebärden, Bewegungen) sowie- gestural interaction using non-verbal symbolic commands (facial expressions, gestures, signs, movements) and

- hybriden aufgabenorientierten Interaktionsformen- hybrid task-oriented forms of interaction

kann man virtuelle Realitäten auch als eine neue Form der Mensch-Maschine-Kommunikation auffassen. Wie der Name "Virtuelle Realität" schon andeutet, ist hierfür eine gewisse Realitätstreue der Darstellung notwendig: Dem Anwender soll diejenige sensorische Information dargeboten werden, die zur Bearbeitung einer Aufgabe oder zum Erreichen eines Ziels erforderlich ist.Virtual realities can also be seen as a new form of human-machine communication. As the name "virtual reality" suggests, a certain level of realism in the representation is necessary: the user should be presented with the sensory information that is required to complete a task or achieve a goal.

Die visuelle Wahrnehmung liefert nicht nur Informationen über die Lage, Bewegung, Form, Struktur, Kontur, Textur, FarbeVisual perception not only provides information about the position, movement, shape, structure, contour, texture, color

P 24392 DEP 24392 EN

8
bzw. Musterung von Objekten etc., sondern auch Informationen über die relative Körperstellung des Betrachters und dessen Bewegungen sowie über die Beschaffenheit der dreidimensionalen Umgebung. Synthetisch generierte Umgebungen können dabei realistischer gestaltet werden, wenn möglichst viele der in natürlichen Umgebungen auftretenden Informationen (Bewegungsparallaxe, Fluchtpunkte der perspektivischen Darstellung, räumliche Tiefenwirkung und Plastizität, Beleuchtung und Schattenwurf, Verdeckung, Glanzwirkung, Spiegelungseffekte und diffuse Reflexion etc.) simuliert werden. Wie viele und welche Informationen präsentiert werden sollen, hängt von der jeweiligen Aufgabenstellung ab. Die Unterschiede zwischen realer und virtueller Welt bestimmen, als wie realistisch die Simulation wahrgenommen wird.
8th
or patterning of objects, etc., but also information about the relative body position of the viewer and their movements as well as the nature of the three-dimensional environment. Synthetically generated environments can be made more realistic if as much of the information that occurs in natural environments (motion parallax, vanishing points of the perspective representation, spatial depth and plasticity, lighting and shadows, occlusion, gloss effect, mirror effects and diffuse reflection, etc.) is simulated. How much and what information should be presented depends on the respective task. The differences between the real and virtual world determine how realistic the simulation is perceived to be.

Die visuelle Information muss zur Realisierung virtueller Realitäten durch einen Computer simuliert werden. Dabei sind ähnliche Aspekte relevant wie in der Malerei. Bei der computergestützten Simulation dreidimensionaler Welten wird üblicherweise die Projektion einzelner Lichtstrahlen simuliert. Ausgangspunkt einer solchen Simulation ist die Spezifikation der zu simulierenden Umgebung. Dazu müssen die einzelnen Objekte mit ihren Eigenschaften und ihrer Lage festgelegt werden. Zur Visualisierung werden dann die Intensitäten einzelner Bildpunkte berechnet und auf das Ausgabemedium projiziert .The visual information must be simulated by a computer to create virtual realities. Similar aspects are relevant here as in painting. In the computer-aided simulation of three-dimensional worlds, the projection of individual light rays is usually simulated. The starting point of such a simulation is the specification of the environment to be simulated. To do this, the individual objects must be defined with their properties and their position. For visualization, the intensities of individual pixels are then calculated and projected onto the output medium.

Mit Hilfe dieser Simulationen lassen sich völlig neue Arten des Lernens und Übens realisieren (Beispiele: Fahrzeug- bzw. Flugzeugsimulator), andererseits wird dabei immer auch von bestimmten Aspekten der realen Welt abstrahiert. VR-Applikationen bewirken daher gleichzeitig eine Anreicherung und eine Einschränkung der Erfahrungsmöglichkeiten des Anwenders.These simulations enable completely new types of learning and practice (examples: vehicle or aircraft simulators), but at the same time they also abstract from certain aspects of the real world. VR applications therefore simultaneously enrich and limit the user's experience options.

P 24392 DE &Phi;. .. .» .... ·* *«·;P 24392 DE ? . .. . » .... ·* *«·;

9
Grundsätzlich bestehen VR-Systeme aus Sensoren und Aktoren sowie deren Kopplung. Wichtige Hardware-Bestandteile sind unter anderem folgende:
9
Basically, VR systems consist of sensors and actuators and their coupling. Important hardware components include the following:

- "Displays" zur Präsentation der virtuellen Umgebung: Im Rahmen der visuellen Präsentation kommen heute vor allem Monitore, "Head Mounted Displays" (HMD), "Binocular Omni-Oriented Monitors" (BOOM) und Projektionssysteme; verwendet werden aber auch auditive bzw. taktile Displays, welche auf akustische bzw. manuelle Benutzereingaben reagieren.- "Displays" for presenting the virtual environment: Today, visual presentations mainly use monitors, "Head Mounted Displays" (HMD), "Binocular Omni-Oriented Monitors" (BOOM) and projection systems; however, auditory or tactile displays that respond to acoustic or manual user inputs are also used.

- Positionierungs- und Orientierungssysteme zur Erfassung von Standort und Perspektive des Benutzers: Hierbei wird unterschieden zwischen der Bestimmung der absoluten Position (engl: "Position Tracking") und der Messung der Beugung von Gelenken (engl.: "Angle Measurement"). Zum Einsatz kommen elektromagnetische, kinematische, akustische, optische sowie bildverarbeitende Prozeduren.- Positioning and orientation systems for recording the user's location and perspective: A distinction is made between determining the absolute position ("position tracking") and measuring the flexion of joints ("angle measurement"). Electromagnetic, kinematic, acoustic, optical and image processing procedures are used.

- Interaktions- und Manipulationssysteme zum Agieren und Reagieren des Anwenders in der virtuellen Umgebung: Hierfür werden Zeigegeräte (2D- bzw. 3D-Mäuse, -Trackballs, -Joysticks etc.) bzw. taktile Geräte (Touchscreens, elektromagnetische Grafiktabletts mit Griffel etc.) verwendet; auch sogenannte "Datenhandschuhe" mit Beugungs- und Drucksensoren werden in zunehmendem Maße eingesetzt. Darüber hinaus ist auch Sprachsteuerung in diesem Zusammenhang zu nennen.- Interaction and manipulation systems for the user to act and react in the virtual environment: Pointing devices (2D or 3D mice, trackballs, joysticks, etc.) or tactile devices (touch screens, electromagnetic graphics tablets with styluses, etc.) are used for this purpose; so-called "data gloves" with diffraction and pressure sensors are also being used to an increasing extent. Voice control should also be mentioned in this context.

- Berechnungssysteme und Software zur Erzeugung der virtuellen Umgebung unter EchtZeitanforderungen.- Calculation systems and software for generating the virtual environment under real-time requirements.

- Netzwerke zur Integration verschiedener Benutzer, durch die sich neue Formen der Zusammenarbeit entwickeln können.- Networks for the integration of different users, through which new forms of collaboration can develop.

P 24392 DEP 24392 EN

10
Die verschiedenartigen technischen Varianten von helm- bzw. kopfbasierten Systemen zur Visualisierung virtueller Realitäten werden im englischen Sprachgebrauch zusammenfassend als "Visually Coupled Systems" (VCS) bezeichnet. Sie bestehen aus den folgenden wichtigen Komponenten:
10
The various technical variants of helmet- or head-based systems for visualizing virtual reality are collectively referred to as "Visually Coupled Systems" (VCS). They consist of the following important components:

1.einem am Kopf bzw. Helm befestigtes Display,1.a display attached to the head or helmet,

2.einem Gerät zum Bestimmen der Kopf- und/oder Blickbewegungen des Anwenders,2.a device for determining the head and/or eye movements of the user,

3.einer Quelle visueller Information, die von der Kopf- und/oder Blickrichtung des Anwenders abhängt.3.a source of visual information that depends on the head and/or gaze direction of the user.

Beim Einsatz eines derartigen Systems für VR-Applikationen können sowohl Informationen aus der realen als auch aus der virtuellen Umgebung gleichzeitig dargeboten werden. Man spricht dabei von "See-Through Displays" für die Darstellung von angereicherten Realitäten.When using such a system for VR applications, information from both the real and the virtual environment can be presented simultaneously. This is referred to as "see-through displays" for the representation of enriched realities.

Die Verfolgung von Kopfbewegungen ist ein wichtiger Bestandteil von VR-Applikationen. Üblicherweiser werden Position und Orientierung des Kopfes im Raum ermittelt, fortgeschrittene Systeme können außerdem die Blickrichtung verfolgen. Die meisten Systeme setzen dazu entweder Ultraschall, magnetische oder Lichtenergie zur Kommunikation zwischen den am Kopf angebrachten Sendern und den Empfängern ein. Wichtige technische Daten, die bei der Auswahl dieser Systeme eine Rolle spielen, sind:Tracking head movements is an important part of VR applications. Usually, the position and orientation of the head in space are determined, and advanced systems can also track the direction of gaze. Most systems use either ultrasound, magnetic or light energy to communicate between the transmitters attached to the head and the receivers. Important technical data that play a role in selecting these systems are:

- die Anzahl der Freiheitsgrade für die Bewegungsrichtungen, welche registriert und verfolgt werden können,- the number of degrees of freedom for the directions of movement that can be registered and tracked,

- der erfassbare Winkelbereich,- the detectable angle range,

- die statische Genauigkeit (Erschütterungsempfindlichkeit) ,- the static accuracy (shock sensitivity),

P 24392 DEP 24392 EN

- das Auflösungsvermögen,- the resolution,

- die Zuverlässigkeit,- the reliability,

- der Datendurchsatz und die Bildschirm-Abtastfrequenz,- the data throughput and the screen scanning frequency,

- die Schnittstelle zum Computer sowie - weitere Performanzaspekte.- the interface to the computer and - other performance aspects.

VR-Applikationen lassen sich in einer Reihe von unterschiedlichen Bereichen in der Praxis erfolgreich anwenden. Im Folgenden werden einige Anwendungsmöglichkeiten beispielhaft skizziert.VR applications can be used successfully in a number of different areas in practice. Some possible applications are outlined below as examples.

- Einsatz im Ausbildungsbereich: Durch das Erlernen des Umgangs mit (virtuellen) Objekten, interaktive Demonstrationen, Visualisierung abstrakter Konzepte, virtuelles Training des Verhaltens in gefährlichen Situationen, virtuelle Erforschung entfernter Orte oder Epochen können Wissen vermittelt, kreative Fertigkeiten geschult und Verhaltensmuster trainiert werden.- Use in the field of education: By learning how to handle (virtual) objects, interactive demonstrations, visualization of abstract concepts, virtual training of behavior in dangerous situations, virtual exploration of distant places or eras, knowledge can be imparted, creative skills can be trained and behavioral patterns can be practiced.

- Einsatz beim Fahr- und Flugtraining in entsprechenden Simulatoren: Durch den Einsatz von Simulatoren kann das Verhalten insbesondere in NotSituationen geschult werden.- Use in driving and flight training in appropriate simulators: By using simulators, behavior can be trained, especially in emergency situations.

- Einsatz im Bereich von Computerspielen: Durch die Möglichkeit der Navigation durch eine virtuelle Szene und die Möglichkeit der gezielten Steuerung und Beeinflussung virtueller Objekte entsteht ein realitätsnaher Eindruck, wodurch die Attraktivität eines Computerspiels für den Benutzer wesentlich erhöht werden kann.- Use in the field of computer games: The possibility of navigating through a virtual scene and the possibility of specifically controlling and influencing virtual objects creates a realistic impression, which can significantly increase the attractiveness of a computer game for the user.

Die heute verfügbaren Technologien zur Eingabe von Information in ein datenverarbeitendes System lassen sich nach den verwendeten Sensoren in vier Gruppen einteilen:The technologies available today for entering information into a data processing system can be divided into four groups according to the sensors used:

P 24392 DEP 24392 EN

!.mechanische Eingabesysteme (z.B. Tastaturen, Mäuse, Trackballs und Joysticks),!.mechanical input systems (e.g. keyboards, mice, trackballs and joysticks),

2.elektrische Eingabesysteme (z.B. taktile Displays und Grafiktabletts) ,
3.optische Eingabesysteme (z.B. Lichtgriffel) und
2.electrical input systems (e.g. tactile displays and graphics tablets),
3.optical input systems (e.g. light pen) and

4.akustische Eingabesysteme (z.B. Spracheingabe- und Sprachinterpretationssysteme). 4. acoustic input systems (e.g. speech input and speech interpretation systems).

Im Folgenden soll auf die nach dem heutigen Stand der Technik gebräuchlichen Hilfsmittel zur Eingabe von Information, die zur Steuerung von Objekten im Bereich von VR-Applikationen eingesetzt werden, kurz eingegangen werden.In the following, we will briefly discuss the tools commonly used according to the current state of the art for entering information that are used to control objects in the field of VR applications.

Herkömmliche Eingabesysteme wie Tastaturen, Mäuse, Trackballs als auch Joysticks sind heute weit verbreitet. Sie werden verwendet, um Positionsmarken (engl.: "Cursors"), Mauszeiger etc. zu steuern, um beispielsweise durch eine virtuelle Szene navigieren zu können oder virtuelle Objekte auf dem Bildschirm zu bewegen. Der Nachteil dieser Eingabesysteme ist, dass sie eine Ablagefläche (also einen festen Standplatz) benötigen, um in effizienter Weise bedient werden zu können.Conventional input systems such as keyboards, mice, trackballs and joysticks are widely used today. They are used to control cursors, mouse pointers, etc., for example to navigate through a virtual scene or move virtual objects on the screen. The disadvantage of these input systems is that they require a surface (i.e. a fixed location) in order to be operated efficiently.

Mit einem Touchscreen dagegen ist es möglich, direkt auf Objekte, die auf dem Bildschirm abgebildet sind, mit dem Finger zu zeigen, ohne weitere platzraubende Zusatzgeräte auf dem Schreibtisch zu benötigen. Niedrig auflösende Touchscreens weisen 10 bis 50 Positionen in waagerechter und senkrechter Richtung auf und benutzen eine horizontale und vertikale Reihe von Infrarot-Leuchtdioden und Fotosensoren, um ein Gitter von unsichtbaren Lichtstrahlen unmittelbar vor dem Bildschirm aufzubauen. Bei einer Berührung des Bildschirms werden sowohl vertikale als auch horizontale Lichtstrahlen unterbrochen. Aus dieser Information kann die aktuelle Fingerposition ermittelt werden.With a touchscreen, however, it is possible to point directly at objects shown on the screen with your finger, without the need for additional space-consuming devices on the desk. Low-resolution touchscreens have 10 to 50 positions horizontally and vertically and use a horizontal and vertical row of infrared LEDs and photo sensors to create a grid of invisible light rays directly in front of the screen. When the screen is touched, both vertical and horizontal light rays are interrupted. From this information, the current finger position can be determined.

&bull; ··

&bull; ··

P 24392 DEP 24392 EN

Eine andere bekannte Ausführungsform berührungssensitiver Informationseingabegeräte ist das kapazitiv gekoppelte Touch-Panel. Dieses liefert eine Auflösung von ca. 100 Positionen in jeder Richtung. Wenn ein Benutzer die leitfähig beschichtete Glasplatte des Touchscreens mit einem Finger berührt, kann aufgrund der Impedanzänderung die aktuelle Fingerposition ermittelt werden. Andere hochauflösende Panels verwenden zwei minimal voneinander entfernte, transparente Schichten. Eine davon ist leitfähig beschichtet, die andere mit einem Widerstandsmaterial beschichtet. Durch den Anpressdruck des Fingers berühren sich diese beiden Lagen, und durch Messung des daraus resultierenden Spannungsabfalls kann dann die aktuelle Fingerposition ermittelt werden. Eine niedriger auflösende und billigere Variante dieser Technologie verwendet anstelle dieser Schichten ein Gitter von feinen Drähten.Another well-known embodiment of touch-sensitive information input devices is the capacitively coupled touch panel. This provides a resolution of around 100 positions in each direction. When a user touches the conductively coated glass plate of the touchscreen with a finger, the current finger position can be determined based on the change in impedance. Other high-resolution panels use two transparent layers that are minimally spaced apart. One of these is coated with a conductive material, the other with a resistive material. When the finger is pressed against the glass, these two layers touch each other, and the current finger position can then be determined by measuring the resulting voltage drop. A lower-resolution and cheaper variant of this technology uses a grid of fine wires instead of these layers.

Nach dem Stand der Technik sind heute verschiedene Lösungen für das Problem der Echtzeit-Bewegungssteuerung virtueller Objekte verfügbar, wobei jede dieser Lösungen für einen speziellen Anwendungszweck optimiert ist. Mit jeder dieser Lösungen sind daher bestimmte Einschränkungen verbunden. Um einige der wichtigsten dieser Lösungen ansatzweise erklären zu können, ist es notwendig, kurz auf ihre wichtigsten Aspekte einzugehen.According to the state of the art, there are currently several solutions available to the problem of real-time motion control of virtual objects, each of which is optimized for a specific application. Each of these solutions therefore has certain limitations. In order to begin to explain some of the most important of these solutions, it is necessary to briefly discuss their most important aspects.

Eine Möglichkeit zur Echtzeit-Bewegungssteuerung virtueller oder realer Objekte hat sich in letzter Zeit dadurch ergeben, dass Eingabegeräte für Computer bekannt wurden, die die gleichzeitige Eingabe von Ansteuersignale mehrerer, voneinander unabhängiger Freiheitsgrade ermöglichen. Die dadurch geschaffenen Möglichkeiten übersteigen bei weitem diejenigen, die beispielsweise bei der Verwendung einer Maus bestehen, die lediglich zweidimensional (z.B. auf der Ablagefläche eines Schreibtischs) gesteuert werden kann. Zwar ist es auch bekannt, eine Maus beispielsweise mit zusätzlichen SchalternA possibility for real-time motion control of virtual or real objects has recently emerged as a result of the introduction of input devices for computers that allow the simultaneous input of control signals for several, independent degrees of freedom. The possibilities created by this far exceed those that exist, for example, when using a mouse that can only be controlled two-dimensionally (e.g. on the surface of a desk). It is also known to equip a mouse with additional switches, for example.

P 24392 DE .. P 24392 EN ..

&bull; ··

14
zu versehen, indessen haben diese Schalter den Nachteil, dass sie nicht die Eingabe von Analogdaten ermöglichen, sondern vielmehr auf Binärdaten (Ein/Aus) beschränkt sind.
14
However, these switches have the disadvantage that they do not allow the input of analog data, but are rather limited to binary data (on/off).

Aus dem Stand der Technik sind auch verschiedene Eingabegeräte bekannt, die analoge Ansteuersignale von verschiedenen, voneinander unabhängigen Freiheitsgraden erzeugen können, wobei jedes dieser Analogsignale somit als Parameterwert einer Ansteuerung verwendet werden kann. Beispielsweise ist aus der Patentschrift US-A-5,757,360 ein eiförmiges Eingabegerät für Computer bekannt, das durch eine Hand des Benutzers frei im Raum bewegt werden kann, seine momentanen Positionen, Bewegungsrichtungen, Geschwindigkeiten und Beschleunigungen ermittelt und diese kinematischen Daten drahtlos zu dem Computer überträgt. Dabei wird ein analoger Bewegungsablauf in Form eines Bewegungsmusters identifiziert, woraus Bewegungsbefehle abgeleitet und in eine animierte Grafikdarstellung umgesetzt werden. Die Bewegungsmuster werden mit Hilfe eines Mustererkennungsalgorithmus automatisch erkannt. Zusätzlich werden Steuerbefehle erzeugt. Der Nachteil dieses Verfahrens besteht darin, dass es nicht frei spezifizierbar ist, da Bewegungsabläufe des Benutzers, die durch das Eingabegerät analog erfasst werden, korrespondierenden Bewegungsabläufen von gespeicherten Bewegungssequenzen einer animierten Grafikdarstellung zugeordnet werden und nur als solche dargestellt werden können.Various input devices are also known from the prior art that can generate analog control signals with different, independent degrees of freedom, whereby each of these analog signals can thus be used as a parameter value of a control. For example, from the patent specification US-A-5,757,360, an egg-shaped input device for computers is known that can be moved freely in space by the user's hand, determines its current positions, directions of movement, speeds and accelerations and transmits this kinematic data wirelessly to the computer. An analog movement sequence is identified in the form of a movement pattern, from which movement commands are derived and implemented in an animated graphic representation. The movement patterns are automatically recognized using a pattern recognition algorithm. Control commands are also generated. The disadvantage of this method is that it cannot be freely specified, since the user's movements, which are recorded analogously by the input device, are assigned to corresponding movements of stored movement sequences of an animated graphic representation and can only be displayed as such.

Eingabegeräte, die über manuell zu betätigende Kraft-Momenten-Sensoren verfügen, sind beispielsweise aus den Patent-Schriften DE 36 11 336 C2, DE 37 64 287 sowie EP 0 979 990 A2 bekannt. Aus der zuletzt genannten Patentschrift ist es weiterhin bekannt, einen derartigen Kraft-Momenten-Sensor zum Steuern eines realen oder virtuellen Misch- bzw. Steuerpults zu verwenden, beispielsweise um neuartige Färb-, Licht- und/oder Tonkompositionen zu kreieren und zu gestalten. Hier-Input devices that have manually operated force-moment sensors are known, for example, from patent documents DE 36 11 336 C2, DE 37 64 287 and EP 0 979 990 A2. From the last-mentioned patent document, it is also known to use such a force-moment sensor to control a real or virtual mixing or control console, for example to create and design new color, light and/or sound compositions. Here-

P 24392 DE .. ., P 24392 EN .. .,

&bull; ··

bei kann wiederum in vorteilhafter Weise die intuitive räumliche Steuerung in drei translatorischen sowie drei rotatorischen Freiheitsgraden auf ein stufenloses räumliches Mischen oder Steuern einer großen Anzahl von optischen und/oder akustischen Parametern übertragen werden.In turn, the intuitive spatial control in three translational and three rotational degrees of freedom can be advantageously transferred to a continuous spatial mixing or control of a large number of optical and/or acoustic parameters.

Manuell steuerbare Eingabesysteme, die eine Navigation in drei Dimensionen erlauben, werden heute in einer Reihe der unterschiedlichsten technischen Anwendungsfeider erfolgreich eingesetzt. Ein solches Anwendungsfeld stellen beispielsweise Steuervorrichtungen zur Steuerung der Funktionen elektronischer Musikinstrumente (vor allem bei Synthesizern und Masterkeyboards) dar, die über eine sogenannte MIDI-Schnittstelle (engl.: "Musical Instrument Digital Interface") verfügen. Manually controllable input systems that allow navigation in three dimensions are now used successfully in a number of different technical fields of application. One such field of application is, for example, control devices for controlling the functions of electronic musical instruments (especially synthesizers and master keyboards) that have a so-called MIDI interface (Musical Instrument Digital Interface).

Eine solche dreidimensionale Steuervorrichtung für elektronische Musikinstrumente ist zum Beispiel durch den in den Keyboards EM-30 und EM-50 der Firma Roland integrierten D-Beam Controller gegeben. Durch die Verwendung eines extrem empfindlichen Infrarot-Lichtstrahls können dabei die Hand- und/oder Körperbewegungen eines Benutzers oberhalb einer mit Infrarot-Sensorelementen beschichteten Fläche berührungslos detektiert werden. Kraft der D-Beam-Technologie können durch diese Hand- und/oder Körperbewegungen des Benutzers einzelne akustische Parameter eingespielter Improvisationen bzw. Kompositionen in Echtzeit modifiziert bzw. gesteuert werden. Der D-Beam Controller verwandelt dazu die Bewegungen des Benutzers in MIDI-Signale und analoge Steuersignale.One such three-dimensional control device for electronic musical instruments is the D-Beam Controller integrated in the EM-30 and EM-50 keyboards from Roland. By using an extremely sensitive infrared light beam, the hand and/or body movements of a user can be detected without contact above a surface coated with infrared sensor elements. Thanks to the D-Beam technology, these hand and/or body movements of the user can be used to modify or control individual acoustic parameters of recorded improvisations or compositions in real time. The D-Beam Controller converts the user's movements into MIDI signals and analog control signals.

Da eines der bevorzugten Ausführungsbeispiele der vorliegenden Erfindung ebenfalls auf einer Steuervorrichtung zur Steuerung von gespeicherten parametrisierten Audiodaten mit Hilfe von parametrisierten Ansteuersignalen beruht, die mit Hilfe steuerbarer virtueller Objekte über eine MIDI-Schnitt-Since one of the preferred embodiments of the present invention is also based on a control device for controlling stored parameterized audio data with the aid of parameterized control signals, which are transmitted with the aid of controllable virtual objects via a MIDI interface,

P 24392 DEP 24392 EN

16
stelle zu mindestens einem elektronischen Musikinstrument
16
to at least one electronic musical instrument

übertragen werden, sollen im Folgenden die für das Verständnis der Erfindung wichtigen Aspekte des MIDI-Standards kurz dargestellt werden.
5
In the following, the aspects of the MIDI standard that are important for understanding the invention will be briefly presented.
5

Bei der MIDI-Schnittstelle handelt es sich um ein digitales Datenübertragungsformat zwischen elektronischen Musikinstrumenten, Computern und Peripheriegeräten. Der MIDI-Standard ist heute weitverbreitet und wird seit seiner Einführung im Jahre 1983 von vielen Musikern und Komponisten verwendet.The MIDI interface is a digital data transfer format between electronic musical instruments, computers and peripheral devices. The MIDI standard is now widely used and has been used by many musicians and composers since its introduction in 1983.

MIDI eröffnet eine sehr effiziente Methode, Audiodaten darzustellen, und das macht MIDI nicht nur für Komponisten oder Künstler zu einem sehr attraktiven Datenübertragungsprotokoll, sondern auch für eine Vielzahl von Computer-Applikationen, die in der Lage sind, Klangmuster (Sounds) zu generieren, wie beispielsweise Multimedia-Anwendungen oder Computerspiele. Dank der Veröffentlichungen der General MIDI System Specification genießen heute die gebräuchlichsten PC/MIDI-Schnittstellen weitgehend Anerkennung unter den Benutzern.MIDI offers a very efficient way of representing audio data, and this makes MIDI a very attractive data transfer protocol not only for composers or artists, but also for a wide range of computer applications that are able to generate sound patterns (sounds), such as multimedia applications or computer games. Thanks to the publication of the General MIDI System Specification, the most common PC/MIDI interfaces are now widely accepted by users.

Darüber hinaus wird MIDI von dem Betriebssystem Microsoft Windows und anderen Betriebssystemen unterstützt. Aufgrund der Entwicklung und Vermarktung preisgünstiger Synthesizer erfreut sich der MIDI-Standard bei kontinuierlich steigender Anzahl von Anwendungen zunehmend an Beliebtheit.In addition, MIDI is supported by the Microsoft Windows operating system and other operating systems. Due to the development and marketing of inexpensive synthesizers, the MIDI standard is becoming increasingly popular with a continuously growing number of applications.

MIDI wurde ursprünglich entwickelt, um zwei oder mehrere Keyboards verschiedener Herstellerfirmen miteinander koppeln zu können. Dass jedoch mit Hilfe des MIDI-Datenformats komplette Musikproduktionen durch Sequenzer-Systeme erstellt würden, hat damals niemand vorausgesehen. Heute findet MIDI vor allem Anwendung als Übertragungsmedium, um digitalisierte Audiodaten in Computerspielen bzw. Multimedia-Applikationen zu ersetzen oder zu ergänzen.MIDI was originally developed to link two or more keyboards from different manufacturers. However, no one predicted at the time that the MIDI data format would be used to create complete music productions using sequencer systems. Today, MIDI is mainly used as a transmission medium to replace or supplement digitized audio data in computer games or multimedia applications.

P 24392 DEP 24392 EN

&bull; · t <· t <

Standardisiert wurde MIDI von der MIDI Manufacturers Association (MMA), der weltweit alle Hersteller digitaler Musikinstrumente angehören. Dieses Komitee definiert die für alle Mitglieder verbindliche Norm, unter anderem auch die im MIDI-Standard festgelegte Befehlsstruktur des MIDI-Protokolls. Ohne diesen Standard wären Inkompatibilitaten unter den Geräten verschiedener Hersteller die Folge.MIDI was standardized by the MIDI Manufacturers Association (MMA), to which all manufacturers of digital musical instruments worldwide belong. This committee defines the standard that is binding for all members, including the command structure of the MIDI protocol specified in the MIDI standard. Without this standard, incompatibilities between devices from different manufacturers would be the result.

Im Gegensatz zur Übertragung von analogen Audiodaten werden bei der Übertragung von Klangmustern via MIDI-Schnittstelle von einem oder mehreren Keyboards zu einem Computer (bzw. in umgekehrter Richtung) lediglich Bitsequenzen (sogenannte "MIDI-Events") übermittelt, welche die signifikanten akustischen Parameter der auf den einzelnen Keyboards gespielten bzw. wiederzugebenden Musikstücke in elektronisch lesbarer Form beinhalten. Diese Programmierbefehle beinhalten MIDI-Sequenzen, die den Synthesizer beispielsweise anweisen, welche Tonspuren bespielt werden sollen, welche Solo- bzw. Begleitinstrumente für ein Arrangement verwendet werden sollen und welche musikalischen Parameter übertragen werden. Unter akustischen Parametern versteht man im Einzelnen beispielsweise Tonhöhen, Noten- bzw. Pausenwerte, Lautstärken, Tempi, Artikulationsanweisungen, Klangfarben, Pedal-, Vibrato-, Chorus-, Hall-, Oberton- und/oder andere Spezialeffekte. Im Folgenden sollen diese akustischen Parameter als "MIDI-Spielinformationen" bezeichnet werden. Bei der Wiedergabe der Audiodaten auf einem Keyboard handelt es sich also nicht um analoge Aufzeichnungen von zuvor auf einem Keyboard eingespielter Musikstücke, sondern um die exakte Reproduktion des Aufnahmevorgangs selbst. Die polyphonen Stimmen eines Wiedergabe-Synthesizers sind dabei zumindest teilweise belegt.In contrast to the transmission of analog audio data, when sound samples are transmitted via a MIDI interface from one or more keyboards to a computer (or vice versa), only bit sequences (so-called "MIDI events") are transmitted, which contain the significant acoustic parameters of the pieces of music played or to be played on the individual keyboards in an electronically readable form. These programming commands contain MIDI sequences that instruct the synthesizer, for example, which sound tracks should be played, which solo or accompanying instruments should be used for an arrangement and which musical parameters should be transmitted. Acoustic parameters include, for example, pitches, note or rest values, volumes, tempos, articulation instructions, timbres, pedal, vibrato, chorus, reverb, overtone and/or other special effects. In the following, these acoustic parameters will be referred to as "MIDI playing information". When audio data is played back on a keyboard, this does not involve analog recordings of pieces of music previously played on a keyboard, but rather an exact reproduction of the recording process itself. The polyphonic voices of a playback synthesizer are at least partially occupied.

Im Vergleich zur Verwendung von abgetasteten Audiodaten, die auf einer Diskette oder einer CD-ROM gespeichert sind, weist die Erzeugung von Klangmustern (Sounds) mit Hilfe von MIDI-Compared to the use of sampled audio data stored on a floppy disk or CD-ROM, the generation of sound patterns (sounds) using MIDI

P 24392 DE .. ., ··.P 24392 DE .. ., ··.

Synthesizern viele Vorteile auf. Einer dieser Vorteile betrifft den zur Speicherung der parametrisierten Audiodaten benötigten Speicherplatz. Dateien, in denen normalerweise digital abgetastete Audiodaten in einem PCM-Format abgespeichert werden (wie z.B. ".WAV"-Dateien), sind in der Regel ziemlich groß. Das trifft insbesondere für lange Musikstücke zu, die in Stereoqualität bei hoher Abtastrate aufgenommen wurden. Im Gegensatz dazu sind MIDI-Dateien extrem klein. Beispielsweise enthalten Dateien, in denen hochwertige abgetastete Audiodaten in Stereoqualität gespeichert sind, circa 10 MByte pro Minute abgespielter Musik, während eine typische MIDI-Sequenz eine Größe von weniger als 10 kByte pro Minute abgespielter Musik aufweist. Das ist deswegen der Fall, weil MIDI-Dateien - wie bereits erwähnt - nicht die abgetasteteten Audiodaten enthalten, sondern lediglich die Programmierbefehle, die von einem Synthesizer benötigt werden, um den gewünschten Sound zu generieren.Synthesizers have many advantages. One of these advantages is the amount of space needed to store the parameterized audio data. Files that typically store digitally sampled audio data in a PCM format (such as ".WAV" files) tend to be quite large. This is especially true for long pieces of music recorded in stereo quality at a high sampling rate. In contrast, MIDI files are extremely small. For example, files that store high-quality sampled audio data in stereo quality contain about 10 MBytes per minute of music played, while a typical MIDI sequence is less than 10 kBytes per minute of music played. This is because, as mentioned above, MIDI files do not contain the sampled audio data, but only the programming commands required by a synth to generate the desired sound.

Da die MIDI-Spielinformationen keine unmittelbaren Informationen über die Art der repräsentierten Audiodaten transportieren, sind einzelne akustische Parameter dieser MIDI-Spielinformationen nachträglich beliebig austauschbar. Dies birgt ebenfalls große Vorteile:Since the MIDI performance information does not convey any direct information about the type of audio data represented, individual acoustic parameters of this MIDI performance information can be subsequently exchanged at will. This also has great advantages:

- Ein Komponist kann sein Werk nachträglich variabel instrumentieren bzw. umarrangieren.- A composer can subsequently instrument or rearrange his work in a variable way.

- Die beim Einspielen möglicherweise aufgetretenen Fehler- Any errors that may have occurred during the installation

(z.B. "falsche Töne") können nachträglich korrigiert werden. (e.g. "wrong notes") can be corrected later.

- Mehrere Synthesizer können beispielsweise ein und dieselbe Stimme wiedergeben (Unisono), um mehr Klangfülle zu erzielen u.v.m.- Several synthesizers can, for example, reproduce one and the same voice (unison) to achieve more fullness of sound and much more.

P 24392 DEP 24392 EN

Die zusätzliche Möglichkeit, auf einem oder mehreren Synthesizern oder anderen elektronischen Musikinstrumenten eingespielte Musikstücke auf dem Bildschirm zu editieren, also einzelne Noten oder Pausen, Notengruppen oder ganze Notensysteme verändern, ergänzen, löschen, verschieben bzw. transponieren zu können, vereinfacht die Arbeit eines Komponisten beträchtlich.The additional possibility of editing pieces of music recorded on one or more synthesizers or other electronic musical instruments on the screen, i.e. being able to change, add to, delete, move or transpose individual notes or rests, groups of notes or entire staves, considerably simplifies the work of a composer.

Ein komplettes MIDI-Wort besteht in der Regel aus drei Byte. Zuerst wird das sogenannte Status-Byte gesendet. Es handelt sich dabei um eine Mitteilung, um welche Art von Nachricht es sich handelt. Dem Status-Byte folgen zwei Daten-Bytes, die Angaben über den jeweiligen Inhalt der Nachricht enthalten. Das folgende Beispiel bezieht sich auf die MIDI-Darstellung für das "Anschalten" eines Tons mittlerer Tonhöhe (c1) , der in einer mittleren Lautstärke (ital.: "Mezzoforte", mf) erklingen soll:A complete MIDI word usually consists of three bytes. The so-called status byte is sent first. This is a message about the type of message. The status byte is followed by two data bytes that contain information about the content of the message. The following example refers to the MIDI representation for "switching on" a medium pitch tone (c 1 ) that should sound at a medium volume (Italian: "mezzoforte", mf):

2020

Art der
Nachricht
(Status-
Byte)
Type of
News
(Status-
Byte)
Tonhöhen-
Information
(1. Daten-
Byte)
Pitch
information
(1. Data
Byte)
Lautstärken-
Information
(2. Daten-
Byte)
Volume-
information
(2. Data
Byte)
MIDI-Wort
(binär)
MIDI word
(binary)
1001000O2 1001000O2 0011110O2 0011110O 2 0100011O2 0100011O 2
MIDI-Wort
(dezimal)
MIDI word
(decimal)
144io144io 6Oio6Oio 7O10 7O 10
Musikalische
Information
Musical
information
"Note On""Note On" Eingestrichenes
"C" (c1)
Coated
"C" ( c1 )
"Mezzoforte"
(mf)
"Mezzoforte"
(mf)

Das erste Bit (engl.: "Most Significant Bit", MSB) in der Binärdarstellung des Status-Bytes ist immer mit dem Wert "1" belegt, bei Daten-Bytes hat das MSB stets den Wert "0". Auf diese Weise lassen sich Status- und Datenbytes eindeutig unterscheiden. Für die Dezimalwerte Zs für ein Status-Byte gilt infolge der "1" im MSB: Z8 e [12810; 255i0] . Da bei den Daten-Bytes das MSB auf "0" gesetzt ist, also nicht mehr als Wertindikator herangezogen werden kann, verbleiben für die Daten-The first bit (most significant bit, MSB) in the binary representation of the status byte is always assigned the value "1", for data bytes the MSB always has the value "0". In this way, status and data bytes can be clearly distinguished. For the decimal values Z s for a status byte, the following applies due to the "1" in the MSB: Z 8 e [128 10 ; 255i 0 ] . Since the MSB is set to "0" for the data bytes, i.e. can no longer be used as a value indicator, there are only 1 bits left for the data bytes.

P 24392 DEP 24392 EN

&diams; ·&diams; ·

&bull; ··

20
Bytes nur noch jeweils sieben Bits, so dass folglich für die Dezimalwerte Z01 bzw. ZD2 der beiden Daten-Bytes gilt: &Zgr;&Oacgr;1 e [Oio;127io] und Z02 e [0i0; 127i0] . Diese 128 verschiedenen "Note On"- bzw. "Note Off"-Kombinationen reichen völlig aus, da 12 8 verschiedene Tonhöhen - angeordnet in einer gleichschwebendtemperierten, chromatischen Tonskala (d.h. im Abstand von Halbton-Intervallen) - den Tonumfang (Ambitus) eines modernen Konzertflügels mit 88 Tasten weit übersteigt.
20
Bytes only have seven bits each, so that the following applies to the decimal values Z 01 and Z D 2 of the two data bytes: &Zgr;&Oacgr;1 e [Oio;127io] and Z 02 e [0i 0 ; 127i 0 ] . These 128 different "note on" and "note off" combinations are completely sufficient, since 12 8 different pitches - arranged in an equal-tempered, chromatic scale (i.e. at intervals of semitones) - far exceed the range (ambitus) of a modern concert grand piano with 88 keys.

Um einzelne Geräte innerhalb eines MIDI-Systems gezielt ansprechen zu können, existieren insgesamt 16 MIDI-Kanäle. Der MIDI-Kanal des Senders muss dabei mit dem des jeweiligen Empfängers identisch sein. Grundsätzlich gilt dabei, dass eine MIDI-Datenleitung alle Spielinformationen auf allen 16 MIDI-Kanälen transportiert, wobei die angeschlossenen Tonerzeuger die Nachrichten selektieren, die ihnen jeweils zugedacht sind. Mit Hilfe der letzten vier Bits des Status-Bytes wird dabei die Adresse Ak eines selektierten MIDI-Kanals k (wobei k e {&Ogr;&iacgr;&ogr;, . . . , 15io} bzw. Ak 6 {000O2, . . . , 111I2)) übertragen. Das bedeutet, dass nur die ersten vier Bits des Status-Bytes die Status-Information einer MIDI-Sequenz (z.B. "Note On", "Note Off" etc.) beinhalten.In order to be able to specifically address individual devices within a MIDI system, there are a total of 16 MIDI channels. The MIDI channel of the transmitter must be identical to that of the respective receiver. Basically, a MIDI data line transports all playing information on all 16 MIDI channels, with the connected sound generators selecting the messages that are intended for them. The address A k of a selected MIDI channel k (where ke {&Ogr;&iacgr;&ogr;, . . . , 15io} or A k 6 {000O 2 , . . . , 111I 2 )) is transmitted using the last four bits of the status byte. This means that only the first four bits of the status byte contain the status information of a MIDI sequence (e.g. "Note On", "Note Off", etc.).

1. Quartett des1. Quartet of 2. Quartett des2. Quartet of Status-BytesStatus bytes Status-BytesStatus bytes (Status-(Status- (Kanal-(Channel- Information)Information) adresse)address) Art der NachrichtType of message 100I2 100I 2 000O2 000O 2 (Status-Byte, binär)(Status byte, binary) Art der NachrichtType of message 9io9io &Ogr;&iacgr;&ogr;&Ogr;&iacgr;&ogr; (Status-Byte, dezimal)(Status byte, decimal)

Für das Beispiel des oben beschriebenen "Note On"-Befehls bedeutet das konkret, dass der erste Kanal (k = 0) mit der Adresse A0 = 000O2 selektiert wurde.For the example of the "Note On" command described above, this means that the first channel (k = 0) with the address A 0 = 000O 2 was selected.

P 24392 DEP 24392 EN

21
Wird ein Byte eines solchen MIDI-Wortes von einem Synthesizer empfangen, wird zunächst anhand des MSB geprüft, ob ein Status-Byte oder ein Daten-Byte vorliegt. Der Empfänger muss darüber hinaus alle Status-Bytes hinsichtlich ihrer Kanaladressierung überprüfen, die er, beauftragt durch die jeweilige MIDI-Kanal-Einstellung, empfangen muss. Wird ein MIDI-Event mit der ihm zugedachten Adresse entdeckt, entschlüsselt der Empfänger die dem Status-Byte folgenden Daten-Bytes und generiert die entsprechenden Töne. Man kann dieses Prinzip mit der Lesart eines Chorsängers bzw. Instrumentalisten vergleichen, der beim Singen bzw. Spielen eines Musikstücks aus einem polyphonen Tonsatz, einem Arrangement oder einer Partitur lediglich die ihm zugedachte Stimme herausliest.
21
If a byte of such a MIDI word is received by a synthesizer, the MSB is first used to check whether it is a status byte or a data byte. The receiver must also check all status bytes for their channel addressing, which it must receive based on the respective MIDI channel setting. If a MIDI event with the address assigned to it is discovered, the receiver decodes the data bytes following the status byte and generates the corresponding tones. This principle can be compared to the reading of a choir singer or instrumentalist who, when singing or playing a piece of music, only reads out the voice assigned to him from a polyphonic composition, an arrangement or a score.

Im Folgenden sollen die Funktionen von zwei der gebräuchlichsten Steuervorrichtungen, die bei Synthesizern und Masterkeyboards anzutreffen sind, kurz beschrieben werden: das "Pitch Bend Wheel" zur stufenlosen Verstimmung der Tonhöhen von Tönen angeschlagener Tasten eines Synthesizers und das "Modulation Wheel" zur Modulation der Klangfarbeneigenschaften der Tonhöhen von Tönen angeschlagener Tasten eines Synthesizers .The following briefly describes the functions of two of the most common control devices found on synthesizers and master keyboards: the "Pitch Bend Wheel" for continuously detuning the pitch of tones of struck keys on a synthesizer and the "Modulation Wheel" for modulating the timbre characteristics of the pitch of tones of struck keys on a synthesizer.

Das MIDI-Datenformat sieht als kleinstmögliches Intervall zwischen verschiedenen Tonhöhen gleichschwebend-temperierte Halbtonschritte bzw. "Chromas" vor (also enharmonisch äquivalente Intervalle wie übermäßige Primen, kleine Sekunden bzw. doppelt verminderte Terzen). Um eine stufenlose Frequenz-Variation (engl.: "Pitch Bending") zu erreichen, werden sogenannte Pitch-Bend-Wheel-Daten benötigt, die mit einem entsprechenden Steuerinstrument des Synthesizers (dem "Pitch Bend Wheel") erzeugt werden können. Es handelt sich dabei meist um ein Rad oder (seltener) einen in vier Richtungen beweglichen Joystick. Bei Synthesizern, die mit diesen Pitch Bend Wheels ausgestattet sind, lassen sich die Tonhöhen derThe MIDI data format provides the smallest possible interval between different pitches as equal-tempered semitone steps or "chromas" (i.e. enharmonically equivalent intervals such as augmented primes, minor seconds or doubly diminished thirds). In order to achieve a continuous frequency variation ("pitch bending"), so-called pitch bend wheel data is required, which can be generated with a corresponding control instrument of the synthesizer (the "pitch bend wheel"). This is usually a wheel or (less often) a joystick that can be moved in four directions. In synthesizers that are equipped with these pitch bend wheels, the pitches of the

P 24392 DE ···· .··,··-:P 24392 DE ···· .··,··-:

Tasten, welche auf der Tastatur des Synthesizers niedergedrückt werden, durch eine Drehbewegung am Pitch Bend Wheel in Richtung höherer bzw. tieferer Frequenzen verstimmen. Normalerweise können damit Verstimmungen von bis zu einem gleichschwebend-temperierten Ganzton in Richtung höherer bzw. tieferer Frequenzen erzeugt werden. Das Pitch Bend Wheel ist in der Regel mit einem Rückholmechanismus ausgestattet, der beim Loslassen des Rades wieder zur Mittel- bzw. Normalstellung zurückspringt. Diese Stellung entspricht dabei den Tonhöhen der niedergedrückten Tasten bei Zugrundelegung der gleichschwebenden-temperierten Stimmung.Keys that are pressed down on the synthesizer keyboard can be detuned towards higher or lower frequencies by rotating the pitch bend wheel. This can normally be used to create detunings of up to one equal-tempered whole tone towards higher or lower frequencies. The pitch bend wheel is usually equipped with a return mechanism that springs back to the middle or normal position when the wheel is released. This position corresponds to the pitch of the pressed keys based on equal-tempered tuning.

Mit Hilfe einer Modulationsfunktion, die üblicherweise mit einem weiteren Steuerinstruments des Synthesizers (dem "Modulation Wheel") vorgenommen werden kann, können die Töne der auf der Tastatur des Synthesizers angeschlagenen Tasten optional mit einem Vibrato-Effekt versehen werden. Alternativ kann dieses Steuerinstrument auch zur Erzielung anderer Effekte eingesetzt werden, etwa um die Klanghelligkeit bzw. die Resonanz der gespielten Töne durch eine Änderung ihres Obertonspektrums zu mofifizieren. Wird das Modulation Wheel bis zu einem ersten Anschlagspunkt zugedreht, ist die Effekttiefe minimal; wird es bis zu einem gegenüberliegenden zweiten Anschlagspunkt aufgedreht, ist die Effekttiefe maximal.Using a modulation function, which can usually be carried out using another control instrument on the synthesizer (the "modulation wheel"), the notes of the keys played on the synthesizer keyboard can optionally be given a vibrato effect. Alternatively, this control instrument can also be used to achieve other effects, such as modifying the brightness or resonance of the notes played by changing their overtone spectrum. If the modulation wheel is turned down to a first stop point, the effect depth is minimal; if it is turned up to a second stop point opposite, the effect depth is maximum.

Um die Ansteuerung einzelner MIDI-Funktionen mit Hilfe von parametrisierten Ansteuersignalen erklären zu können, soll im Folgenden kurz auf die wichtigsten der dazu nötigen MIDI-Controller eingegangen werden.In order to be able to explain the control of individual MIDI functions using parameterized control signals, the most important MIDI controllers required for this purpose will be briefly discussed below.

Mit Hilfe des ersten Daten-Bytes eines MIDI-Wortes können maximal 128 verschiedene Controller-Adressen und damit bis zu 128 verschiedene Spielhilfen oder andere MIDI-Funktionen angesprochen werden. Das zweite Daten-Byte ist für den Regelbereich verantwortlich. Beispielsweise kann mit Hilfe des fürUsing the first data byte of a MIDI word, a maximum of 128 different controller addresses and thus up to 128 different playing aids or other MIDI functions can be addressed. The second data byte is responsible for the control range. For example, using the data byte for

P 24392 DEP 24392 EN

Frequenzmodulationen zuständigen Controllers Nr. 1 den vom Synthesizer erzeugten Klängen ein Vibrato- bzw. Tremolo-Effekt hinzugefügt werden. In der folgenden Tabelle sind die gebräuchlichsten Controller mit ihren Nummern (Adressen) und Bezeichnungen aufgelistet:Controller No. 1, which is responsible for frequency modulation, can be used to add a vibrato or tremolo effect to the sounds produced by the synthesizer. The following table lists the most common controllers with their numbers (addresses) and names:

Controller-Nummer
(dezimal)
Controller number
(decimal)
Controller-BezeichnungController designation
11 Modulationmodulation 22 Breath ControllerBreath Controller 44 Foot ControllerFoot Controller 55 Portamento TimePortamento Time 66 Data Entry SliderData Entry Slider 77 VolumeVolume 88th Balancebalance 1010 Panoramapanorama 1111 Expression PedalExpression Pedal 12 bis 3112 to 31 User-DefinedUser-Defined 9191 External Effects DepthExternal Effects Depth 9292 Tremolo DepthTremolo Depth 9393 Chorus DepthChorus Depth 9494 Detune DepthDetune Depth 9595 Phaser DepthPhaser Depth

Die Adressen 12 bis 31 sind nicht belegt und bieten dem Anwender Möglichkeiten freier Zuordnungen von MIDI-Funktionen. Je nach Beschaffenheit des jeweiligen Synthesizers können diesen Adressen mitunter sehr ausgefallene physikalische Parameter zugewiesen werden, z.B. Oszillatorfrequenz oder PuIsweite der generierten Schwingungen.Addresses 12 to 31 are not used and offer the user the opportunity to freely assign MIDI functions. Depending on the nature of the synthesizer, these addresses can sometimes be assigned very unusual physical parameters, e.g. oscillator frequency or pulse width of the generated oscillations.

Die Controller 32 bis 38 dienen dazu, den Wertebereich der Controller-Adressen 1 bis 6 feiner aufzulösen. Dasselbe wird auch von den Controller-Nummern 39 bis S3 für die Adressen 7 bis 31 bewirkt.Controllers 32 to 38 are used to more finely resolve the value range of controller addresses 1 to 6. The same is achieved by controller numbers 39 to S3 for addresses 7 to 31.

Die bisher beschriebenen Spielhilfen zeichnen sich durch eine gemeinsame Eigenschaft aus: Sie lassen sich (in 128 oder mehrThe game aids described so far have one thing in common: they can be used (in 128 or more

P 24392 DEP 24392 EN

&bull; &diams;&bull;&diams;

&bull; ··

24
Einzelschritten) stufenlos regeln. Der Oberbegriff für diese Controller lautet "Continuous Controller". Im Gegensatz dazu existieren weitere Controller, die Schalterfunktionen übernehmen und daher allgemein "Switch Controller" genannt werden. Die folgende Tabelle gibt eine Übersicht über die wichtigsten dieser Controller:
24
The generic term for these controllers is "continuous controllers". In contrast, there are other controllers that perform switch functions and are therefore generally called "switch controllers". The following table provides an overview of the most important of these controllers:

Controller-Nummer
(dezimal)
Controller number
(decimal)
Controller-BezeichnungController designation
6464 Sustain PedalSustain Pedal 6565 Portamento SwitchPortamento Switch 6666 SostenutoSustenuto 6767 Soft PedalSoft Pedal 6969 Hold-PedalHold pedal 70 bis 9070 to 90 undefinedundefined 9696 Data Entry (-/No)Data Entry (-/No) 9797 Data Entry (+/Yes)Data Entry (+/Yes)

Bei genauerer Betrachtung des zweiten Daten-Bytes von Controller 64 findet man nur zwei Werte vor, nämlichA closer look at the second data byte of controller 64 reveals only two values, namely

0000000O2 (= O10) für "Pedal Off" und 1111111I2 (= 127io) für "Pedal On".0000000O 2 (= O 10 ) for "Pedal Off" and 1111111I 2 (= 127io) for "Pedal On".

Das MIDI-Datenformat lässt prinzipiell jedoch eine differenziertere Interpretation des Wertebereichs I10 bis 126i0 zu. Beispielsweise kann so auch ein mehrstufiger Sustain-Effekt vorgesehen sein. Bei Synthesizern, die diesen mehrstufigen Sustain-Effekt zulassen, wird die Abklingphase von Klangereignissen bei "halb" heruntergetretenem Pedal im Vergleich zur Abklingphase von Klangereignissen gleicher Tonhöhe und Lautstärke bei bis zum Anschlag heruntergetretenem Pedal entsprechend verkürzt.In principle, however, the MIDI data format allows a more differentiated interpretation of the value range I 10 to 126i 0. For example, a multi-stage sustain effect can be provided in this way. In synthesizers that allow this multi-stage sustain effect, the decay phase of sound events when the pedal is "half" depressed is correspondingly shortened compared to the decay phase of sound events of the same pitch and volume when the pedal is depressed all the way down.

Normalerweise sind die Controller-Adressen, z.B. für das Modulationsrad, das Haltepedal oder mit dem Fuß bedienbare Schweller zur Beeinflussung der Dynamik, bereits festgelegt.Normally, the controller addresses, e.g. for the modulation wheel, the sustain pedal or foot-operated swell pedals to influence the dynamics, are already defined.

P 24392 DE ···· ."."-JP 24392 EN ···· ."."-J

Wenn eine dieser Spielhilfen benutzt wird, steht die gesendete Controller-Adresse fest. Moderne Synthesizer und Master-Keyboards verfügen jedoch darüber hinaus auch über frei definierbare Controller, d.h. den dafür vorgesehenen Spielhilfen (Pedalen, Schwellern, Rädern und Schiebereglern) kann eine beliebige Controller-Nummer zugewiesen werden. Einige Tonerzeuger gestatten wiederum die Neudefinition der Controller-Funktionen im Gerät selbst. Dabei kann die empfangene Controller-Nummer einer internen Funktion frei zugewiesen werden. When one of these controllers is used, the controller address sent is fixed. However, modern synthesizers and master keyboards also have freely definable controllers, i.e. the controllers provided for them (pedals, swells, wheels and sliders) can be assigned any controller number. Some sound generators allow the controller functions to be redefined in the device itself. The received controller number can be freely assigned to an internal function.

Zur Klangerzeugung mit Hilfe von elektronischen Musikinstrumenten, Computern bzw. Sound-Karten sind heute eine Vielzahl von verschiedenen Technologien und Verfahren im Einsatz. Zwei weit verbreitete Techniken der Klangerzeugung mit Hilfe elektronischer Musikinstrumente sind Frequenzmodulation (FM-Synthese) und die Verwendung von Wavetables (WAV-Synthese).A variety of different technologies and processes are used today to generate sound using electronic musical instruments, computers or sound cards. Two widely used techniques for generating sound using electronic musical instruments are frequency modulation (FM synthesis) and the use of wavetables (WAV synthesis).

FM-Synthese ist ein Verfahren, das von Sound-Karten und Computern benutzt wird, um die Klangfarben von akustischen Musikinstrumenten durch elektronische Mittel nachzuahmen. Mit Hilfe von FM-Synthese generierte Klänge sind als solche leicht erkennbar - im Gegensatz zu Klangmustern, die durch WAV-Synthese mit Hilfe von Wavetables erzeugt wurden. Master-Keyboards und Synthesizer, die über Wavetables verfügen, sind verhältnismäßig kostspielig, werden aber oft von vielen Berufs- und Hobbymusikern wegen ihrer hohen Abspielqualität bevorzugt. Die Klangmuster werden dabei von Wavetables erzeugt, die gespeicherte, digital abgetastete Original-Klänge (engl.:FM synthesis is a process used by sound cards and computers to imitate the timbres of acoustic musical instruments by electronic means. Sounds generated using FM synthesis are easily recognizable as such - in contrast to sound patterns generated by WAV synthesis using wavetables. Master keyboards and synthesizers that have wavetables are relatively expensive, but are often preferred by many professional and amateur musicians because of their high playback quality. The sound patterns are generated by wavetables that contain stored, digitally sampled original sounds (engl.:

"Samples") von akustischen Musikinstrumenten miteinander kombinieren und/oder reproduzieren. Verglichen mit der FM-Synthese, bei der elektronische Klänge mit Hilfe des Computers erzeugt werden, erscheinen Wavetable-Klangmuster somit wesentlich realistischer.Wavetables combine and/or reproduce sound samples (also known as "samples") of acoustic musical instruments. Compared to FM synthesis, in which electronic sounds are generated using a computer, wavetable sound patterns appear much more realistic.

P 24392 DE .. .·P 24392 EN .. .·

Mit Hilfe von Sound-Karten können die Möglichkeiten herkömmlicher Computer zur Erzeugung von Audiosignalen und Klangmustern erweitert werden. Sound-Karten sind unerlässlich für jede Applikation, die Sound-Effekte verwendet. Um analoge Audiodaten in die digitale Rechnersprache übersetzen zu können, verfügen Sound-Karten über entsprechende Vorrichtungen zur Digitalisierung analoger Klänge. Dabei basiert die Klangerzeugung durch eine Sound-Karte entweder auf einer FM-Synthese oder einer WAV-Synthese.
10
Sound cards can be used to expand the capabilities of conventional computers for generating audio signals and sound patterns. Sound cards are essential for any application that uses sound effects. In order to be able to translate analog audio data into the digital computer language, sound cards have the appropriate devices for digitizing analog sounds. The sound generation by a sound card is based on either FM synthesis or WAV synthesis.
10

AUFGABE DER VORLIEGENDEN ERFINDUNGOBJECT OF THE PRESENT INVENTION

Ausgehend von dem oben genannten Stand der Technik, widmet sich die vorliegende Erfindung der Aufgabe, Erzeugnisse bereitzustellen, mit deren Hilfe dem Anwender eine aktive Steuerung von virtuellen und/oder realen Objekte ermöglicht wird, wobei die bereits vorhandenen Fertigkeiten des Benutzers zur Aussendung von Information genutzt werden. Insbesondere soll durch die Erzeugnisse dabei die Bewegungssteuerung von Objekten in Echtzeit bzw. die Echtzeit-Steuerung von elektronisch erzeugten Audiosignalen vereinfacht werden.Based on the above-mentioned prior art, the present invention is dedicated to the task of providing products that enable the user to actively control virtual and/or real objects, using the user's existing skills to send out information. In particular, the products are intended to simplify the movement control of objects in real time or the real-time control of electronically generated audio signals.

Diese Aufgabe wird erfindungsgemäß durch Systeme, d.h. Erzeugnisse, mit den Merkmalen der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsbeispiele von Systemen, die den Gedanken der Erfindung weiterbilden, sind in den abhängigen Patentansprüchen definiert.This object is achieved according to the invention by systems, i.e. products, having the features of the independent patent claims. Advantageous embodiments of systems which further develop the idea of the invention are defined in the dependent patent claims.

ZUSAMMENFASSENDE DARSTELLUNG DER VORLIEGENDEN ERFINDUNGSUMMARY OF THE PRESENT INVENTION

Die Erfindung schlägt zur Lösung der im vorangehenden Abschnitt definierten Aufgabe vor eine effiziente Technik zur grafischen Visualisierung und Echtzeit-Ansteuerung von virtuellen oder realen Objekten zur Erzeugung und/oder Beeinflussung von Bild- bzw. Tonsequenzen, mit dessen Hilfe aufTo solve the problem defined in the previous section, the invention proposes an efficient technique for graphic visualization and real-time control of virtual or real objects for generating and/or influencing image or sound sequences, with the help of which

P 24392 DEP 24392 EN

fe **

einem Bildschirm dargestellte oder reale Objekte durch interaktive Steuerbefehle eines Benutzers in ihren Eigenschaften und/oder Aktionen auf eine komfortable und zuverlässige Weise in Echtzeit manipuliert, gesteuert bzw. beeinflusst werden können. Insbesondere beinhaltet die vorliegende Erfindung Systemezur Animation und Bewegungssteuerung eines Gelenk-Objekts in (Quasi-)Echtzeit, Systeme zur frei spezifizierbaren Steuerung von optischen bzw. akustischen Parametern sowie ein System zur Echtzeit-Bewegungssteuerung von virtuellen oder realen Objekten.Objects displayed on a screen or real objects can be manipulated, controlled or influenced in their properties and/or actions in a comfortable and reliable manner in real time by interactive control commands from a user. In particular, the present invention includes systems for animation and motion control of an articulated object in (quasi) real time, systems for freely specifying control of optical or acoustic parameters and a system for real-time motion control of virtual or real objects.

Die vorliegende Erfindung bezieht sich insbesondere auf Eingabegeräte, die Ansteuersignale für verschiedene, voneinander unabhängige Freiheitsgrade erzeugen können, und dies jeweils durch Analogsignale. Jedes dieser Analogsignale kann somit als Parameterwert bei der Ansteuerung virtueller Objekte verwendet werden.The present invention relates in particular to input devices that can generate control signals for different, independent degrees of freedom, each using analog signals. Each of these analog signals can thus be used as a parameter value when controlling virtual objects.

Bei den dabei verwendeten Technologien zur Eingabe der vom Benutzer abgesetzten Steuerbefehle handelt es sich im Gegensatz zu herkömmlichen manuell bedienbaren, mechanischen bzw. berührungssensitiven Eingabemechanismen über Tastatur, Maus, Trackball, Joystick, Grafiktablett mit Griffel, taktile Displays etc. um Vorrichtungen zur Aufnahme, Erkennung, Interpretation und Verarbeitung dreidimensionaler Bewegungen eines Benutzers. Der Benutzer ist somit nicht mehr auf das Vorhandensein zusätzlicher Hardware-Vorrichtungen zur manuellen Eingabe von Steuerbefehlen angewiesen. Die Auswertung der eingegebenen Information kann stattdessen bzw. zusätzlich mit Hilfe von Methoden der Signal- bzw. Mustererkennung erfolgen. Ferner kann die Art des Eingabeverfahrens speziell auf die individuell vorhandenen Fähigkeiten des Benutzers zugeschnitten sein.In contrast to conventional manually operated, mechanical or touch-sensitive input mechanisms such as keyboards, mice, trackballs, joysticks, graphics tablets with styluses, tactile displays, etc., the technologies used to enter the control commands issued by the user are devices for recording, recognizing, interpreting and processing three-dimensional movements of a user. The user is therefore no longer dependent on the presence of additional hardware devices for manually entering control commands. The evaluation of the entered information can be carried out instead or in addition using signal or pattern recognition methods. Furthermore, the type of input method can be tailored specifically to the user's individual abilities.

P 24392 DEP 24392 EN

Ein Aspekt der vorliegenden Erfindung ist es, dass Referenzmuster zur Animation und Bewegungssteuerung von Objekten, zur Gestaltung von Form, Farbe und Struktur der Oberflächen virtueller Objekte sowie zur Erzeugung und/oder Beeinflussung von Bild- bzw. Tonsequenzen vorab abgespeichert werden. Diese Referenzmuster können dann - abhängig von den Ansteuersignalen des Benutzers - als Parameterwerte zur Erzeugung und/oder Beeinflussung von Animationseffekten, zur Oberflächengestaltung der Objekte, zur Steuerung bzw. gezielten Manipulation von Video- bzw. Audiodaten etc. in Echtzeit abgerufen werden. Das Hinterlegen der jeweiligen Referenzmuster kann dabei standardisiert erfolgen, so dass aufbauend auf einer solchen Echtzeit-Steuerung eine Änderung der oben genannten Parameterwerte durch ein modulartiges Austauschen der jeweiligen Referenzmuster an einer entsprechenden Schnittstelle der Echtzeit-Steuerung mit verhältnismäßig geringem Aufwand erfolgen kann.One aspect of the present invention is that reference patterns for the animation and movement control of objects, for the design of the shape, color and structure of the surfaces of virtual objects and for the generation and/or influencing of image or sound sequences are stored in advance. These reference patterns can then - depending on the control signals of the user - be called up in real time as parameter values for the generation and/or influencing of animation effects, for the surface design of the objects, for the control or targeted manipulation of video or audio data, etc. The storage of the respective reference patterns can be carried out in a standardized manner, so that, based on such a real-time control, a change in the above-mentioned parameter values can be carried out with relatively little effort by a modular exchange of the respective reference patterns at a corresponding interface of the real-time control.

1.System zur Animation und Bewegungssteuerung eines Gelenk-Objekts in Echtzeit durch Ansteuerung mit Hilfe parametrisierter Bewegungsmuster1.System for animation and motion control of an articulated object in real time by controlling it using parameterized motion patterns

Gemäß der zugrunde liegenden Erfindung ist es möglich, auf eine vollständige Neuprogrammierung eines Echtzeit-Bewegungsablaufes zu verzichten; vielmehr können bekannte Bewegungsmuster über eine standardisierte Schnittstelle in parametrisierter Form einer Echtzeit-Bewegungssteuerung zur Verfügung gestellt werden.According to the underlying invention, it is possible to dispense with a complete reprogramming of a real-time motion sequence; rather, known motion patterns can be made available to a real-time motion controller in a parameterized form via a standardized interface.

Ein bevorzugtes Ausführungsbeispiel der zugrunde liegenden Erfindung beruht auf einer Technik zur Echtzeit-Bewegungssteuerung eines Gelenk-Objekts. Dabei wird zunächst wenigstens ein parametrisiertes Bewegungsmuster zu wenigstens ei nem Oberflächenmuster für das Objekt definiert. Werden dann mit Hilfe eines Eingabegeräts Ansteuersignale in die Echt-A preferred embodiment of the underlying invention is based on a technique for real-time motion control of an articulated object. In this process, at least one parameterized motion pattern is first defined for at least one surface pattern for the object. If control signals are then converted into real-time motion using an input device,

P 24392 DE .. .. e. .... »« &diams;««&diams;P 24392 DE .. .. e. .... »« &diams;««&diams;

zeit-Bewegungssteuerung eingegeben, berechnet diese Skelett-Änderungsdaten (d.h. die Lageänderungen der Konturen eines virtuellen Objekts bzw. eines Gerüsts, bestehend aus den durch Kanten verbundenen Gelenkpunkten eines virtuellen Objekts) als Parameterwerte auf Grundlage der Ansteuersignale und wenigstens eines parametrisierten Bewegungsmusters. Dabei geben die Skelett-Änderungsdaten translatorische und/oder rotatorische Änderungen der Lage bzw. Orientierung der Gelenke des Objekts wieder. Schließlich wird die Oberfläche des virtuellen Gelenk-Objekts auf Grundlage der Skelett-Änderungsdaten und wenigstens eines Oberflächenmusters berechnet. Indem die zuletzt genannten Schritte dicht aufeinanderfolgend wiederholt werden, erhält man (abhängig von den Ansteuersignalen des Benutzers) eine Bewegungssteuerung des Objekts, die von einem Betrachter nicht mehr von einer Bewegungssteuerung in Echtzeit unterschieden werden kann.time motion control, calculates these skeleton change data (i.e. the position changes of the contours of a virtual object or a framework consisting of the joint points of a virtual object connected by edges) as parameter values based on the control signals and at least one parameterized movement pattern. The skeleton change data reflects translational and/or rotational changes in the position or orientation of the joints of the object. Finally, the surface of the virtual joint object is calculated based on the skeleton change data and at least one surface pattern. By repeating the last-mentioned steps in close succession, one obtains (depending on the user's control signals) a motion control of the object that an observer can no longer distinguish from a motion control in real time.

Durch Austausch bzw. erneute Definition eines parametrisierten Bewegungsmusters und/oder Oberflächenmusters kann also mit sehr geringem Aufwand eine Bewegungssteuerung eines neuartigen Gelenk-Objekts erzielt werden.By exchanging or redefining a parameterized movement pattern and/or surface pattern, motion control of a new type of joint object can be achieved with very little effort.

Gemäß dem Ausführungsbeispiel der zugrunde liegenden Erfindung können Ansteuersignale für wenigstens sechs unabhängige Freiheitsgrade simultan eingegeben und in Echtzeit verarbeitet werden. Dabei handelt es sich beispielsweise um Ansteuersignale für drei translatorische und drei rotatorische Freiheitsgrade in einem virtuellen dreidimensionalen Vektorraum. According to the embodiment of the underlying invention, control signals for at least six independent degrees of freedom can be input simultaneously and processed in real time. These are, for example, control signals for three translational and three rotational degrees of freedom in a virtual three-dimensional vector space.

Ausgehend von den ermittelten momentanen Positionsvektoren des Eingabegeräts, können erfindungsgemäß insbesondere die ersten und zweiten zeitlichen Ableitungen der Ansteuersignale (also die Geschwindigkeits-, Beschleunigungs-, Winkelgeschwindigkeits- bzw. Winkelbeschleunigungsvektoren) ermitteltBased on the determined instantaneous position vectors of the input device, according to the invention, in particular the first and second time derivatives of the control signals (i.e. the speed, acceleration, angular velocity and angular acceleration vectors) can be determined.

P 24392 DEP 24392 EN

30
und verarbeitet werden. Die Steuerung ermittelt also die zeitliche Veränderung der Ansteuersignale selbst, so dass beispielsweise im Gegensatz zur bereits genannten Patentschrift US-A-5,757,360 kein eigener Beschleunigungssensor erforderlich ist. Die Beschleunigung kann vielmehr durch zeitliche Auswertung der Entwicklung der Ansteuersignale mit Hilfe der Bewegungssteuerung selbst ermittelt werden. Die Zuordnung der Ansteuersignale bzw. deren zeitlicher Ableitungen als Parameterwerte für die gespeicherten Bewegungsmuster kann dabei frei spezifizierbar sein.
30
and processed. The control system therefore determines the change in the control signals over time, so that, for example, in contrast to the aforementioned patent specification US-A-5,757,360, no separate acceleration sensor is required. Instead, the acceleration can be determined by evaluating the development of the control signals over time using the motion control system itself. The assignment of the control signals or their temporal derivatives as parameter values for the stored movement patterns can be freely specified.

2.System zur Echtzeit-Steuerung von akustischen Parametern aufgezeichneter Audiodaten mit Hilfe von parametrisierten Klangmustern2.System for real-time control of acoustic parameters of recorded audio data using parameterized sound patterns

Darüber hinaus bzw. alternativ können in einem weiteren Ausführungsbeispiel der zugrunde liegenden Erfindung auch Audiodaten mit Hilfe von parametrisierten Ansteuersignalen des Benutzers in Echtzeit gezielt beeinflusst werden. Dabei können digital gespeicherte, parametrisierte Klangmuster, wie beispielsweise die akustischen Parameter von (gemäß dem sogenannten MIDI-Standard) digital aufgezeichneten Musikstücken, , die über die parametrisierten Ansteuersignale des Benutzers ansteuerbar sind, gezielt modifiziert werden. Diese Klangmuster können dann - abhängig von den jeweiligen Ansteuersignalen des Benutzers als Parameterwerte in Echtzeit abgerufen werden.In addition or alternatively, in a further embodiment of the underlying invention, audio data can also be specifically influenced in real time using parameterized control signals from the user. Digitally stored, parameterized sound patterns, such as the acoustic parameters of digitally recorded pieces of music (according to the so-called MIDI standard), which can be controlled via the parameterized control signals from the user, can be specifically modified. These sound patterns can then be called up as parameter values in real time, depending on the respective control signals from the user.

3. System zur frei spezifizierbaren Steuerung von animierten Grafiken, Video- und/oder Audiodaten3. System for freely specifiable control of animated graphics, video and/or audio data

Nach einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist eine Technik zur frei spezifizierbaren Steuerung von animierten Grafiken, Video- und/oder Audiodaten mit Hilfe optischer bzw. akustischer Parameter vorgesehen. Für die Er-According to a further embodiment of the present invention, a technique for freely specifying control of animated graphics, video and/or audio data using optical or acoustic parameters is provided.

P 24392 DEP 24392 EN

31
zeugung und/oder Beeinflussung dieser Bild- bzw. Tonsequenzen ist dabei wenigstens ein vordefiniertes parametrisiertes Bewegungs-, Oberflächen-, Klang- und/oder Beleuchtungsmuster als Referenzmuster hinterlegt. Dazu werden Ansteuersignale verschiedener Freiheitsgrade von einem Eingabegerät ausgewertet und als Parameterwerte zur Erzeugung bzw. Beeinflussung von animierten Grafiken, Video- und/oder Audiodaten mit Hilfe mindestens eines hinterlegten Referenzmusters verwendet. Die Zuordnung der Ansteuersignale jeweils eines Freiheitsgrades zu einem bestimmten Referenzmuster ist dabei durch den Benutzer frei spezifizierbar.
31
To generate and/or influence these image or sound sequences, at least one predefined, parameterized movement, surface, sound and/or lighting pattern is stored as a reference pattern. For this purpose, control signals with different degrees of freedom are evaluated by an input device and used as parameter values to generate or influence animated graphics, video and/or audio data with the help of at least one stored reference pattern. The assignment of the control signals of each degree of freedom to a specific reference pattern can be freely specified by the user.

Zusätzlich können gegebenenfalls zeitliche Ableitungen der Ansteuersignale einem bestimmten Referenzmuster zugeordnet werden. Die Kopplungsparameter der Zuordnung, wie beispielsweise die Dämpfung und die Verstärkung können dabei ebenfalls durch den Benutzer frei einstellbar sein.In addition, time derivatives of the control signals can be assigned to a specific reference pattern if necessary. The coupling parameters of the assignment, such as the attenuation and the gain, can also be freely set by the user.

4. System zur Echtzeit-Bewegungssteuerung von virtuellen und/oder realen Objekten4. System for real-time motion control of virtual and/or real objects

Erfindungsgemäß kann auch ein System zur Echtzeit-Bewegungssteuerung von Objekten vorgesehen sein, das einen Speicher aufweist, in dem wenigstens ein parametrisiertes Bewegungsmuster und wenigstens ein Oberflächenmuster des Objekts abgelegt sind. Dieses System kann weiterhin ein Eingabegerät zur Eingabe von Ansteuersignalen für die Echtzeit-Bewegungssteuerung aufweisen. Ferner kann ein Bewegungsgenerator vorgesehen sein, um Skelett-Änderungsdaten auf Grundlage der Ansteuersignale als Parameterwerte und wenigstens eines parametrisierten Bewegungsmusters zu berechnen. Die Skelett-Änderungsdaten geben dabei translatorische und/oder rotatorische Änderungen der Lage bzw. Orientierung der Gelenke des Objekts wieder. Außerdem kann ein Oberflächengenerator vorgesehen sein, der die Oberfläche virtueller Gelenk-Objekte auf Grundlage ihrerAccording to the invention, a system for real-time motion control of objects can also be provided, which has a memory in which at least one parameterized motion pattern and at least one surface pattern of the object are stored. This system can also have an input device for inputting control signals for real-time motion control. Furthermore, a motion generator can be provided to calculate skeleton change data based on the control signals as parameter values and at least one parameterized motion pattern. The skeleton change data reflects translational and/or rotational changes in the position or orientation of the joints of the object. In addition, a surface generator can be provided, which calculates the surface of virtual joint objects based on their

P 24392 DEP 24392 EN

Skelett-Änderungsdaten und je eines ausgewählten Oberflächenmusters berechnet.Skeleton change data and a selected surface pattern are calculated.

Das Eingabegerät kann zur gleichzeitigen Eingabe von Ansteuersignale für wenigstens sechs unabhängige Freiheitsgrade ausgelegt sein. Es kann dabei insbesondere zur Eingabe von Ansteuersignalen für drei translatorische und drei rotatorische Freiheitsgrade in einem dreidimensionalen Vektorraum konzipiert sein. Zusätzlich kann auch eine Einheit zur Ermittlung und Verarbeitung der zeitlichen Ableitungen dieser Ansteuersignale vorgesehen sein.The input device can be designed for the simultaneous input of control signals for at least six independent degrees of freedom. In particular, it can be designed for the input of control signals for three translational and three rotational degrees of freedom in a three-dimensional vector space. In addition, a unit for determining and processing the time derivatives of these control signals can also be provided.

Um dem Benutzer die Echtzeit-Steuerung von gespeicherten Audiodaten zu ermöglichen, kann ferner ein Klanggenerator zur Erzeugung von Klangsignalen durch Verknüpfung digitaler para metrisierter Klangmuster mit digitalen Ansteuersignalen, die in parametrisierter Form vorliegen, vorgesehen sein.In order to enable the user to control stored audio data in real time, a sound generator can also be provided for generating sound signals by linking digitally parameterized sound patterns with digital control signals which are present in parameterized form.

Darüber hinaus kann auch eine Einheit zur wahlfreien Zuordnung der Ansteuersignale bzw. derer Ableitungen als Parameterwerte für die parametrisierten Bewegungs-, Oberflächen-, Klang- und/oder Beleuchtungsmuster vorgesehen sein.In addition, a unit can also be provided for the optional assignment of the control signals or their derivatives as parameter values for the parameterized movement, surface, sound and/or lighting patterns.

5. System zur frei spezifizierbaren Echtzeit-Steuerung von animierten Grafiken, Video- und/oder Audiosequenzen5. System for freely specifiable real-time control of animated graphics, video and/or audio sequences

In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist ein System zur frei spezifizierbaren Echtzeit-Steuerung von animierten Grafiken, Video- und/oder Audiosequenzen vorgesehen. Das System weist dabei einen Speicher auf, in dem zur Erzeugung und/oder Beeinflussung von animierten Grafiken, Video- und/oder Audiosequenzen in Echtzeit wenigstens ein vordefiniertes parametrisiertes Bewegungs-, Oberflächen-, Klang- und/oder Beleuchtungsmuster als Referenzmuster hinterlegt ist. Das System weist weiterhin eine Recheneinheit zurIn a further embodiment of the present invention, a system for freely specifiable real-time control of animated graphics, video and/or audio sequences is provided. The system has a memory in which at least one predefined parameterized movement, surface, sound and/or lighting pattern is stored as a reference pattern for generating and/or influencing animated graphics, video and/or audio sequences in real time. The system also has a computing unit for

P 24392 DEP 24392 EN

33
Auswertung von Ansteuersignalen verschiedener Freiheitsgrade von einem Eingabegerät als Parameterwerte zur Erzeugung und/oder Beeinflussung von animierten Grafiken, Video- und/oder Audiosequenzen mit Hilfe mindestens eines hinterlegten Referenzmusters auf. Darüber hinaus ist auch eine Einstelleinheit vorgesehen, um eine frei wählbare Zuordnung von Ansteuersignalen jeweils eines Freiheitsgrads zu einem bestimmten Referenzmuster zu ermöglichen. Diese Einstelleinheit kann dabei optional die Zuordnung von zeitlichen Ableitungen der Ansteuersignale zu einem bestimmten Referenzmuster ermöglichen. Ferner kann sie eine frei wählbare Einstellung von Kopplungsparametern der Zuordnung, wie beispielsweise der zeitlichen Dämpfung und der Verstärkung, bewerkstelligen.
33
Evaluation of control signals of different degrees of freedom from an input device as parameter values for generating and/or influencing animated graphics, video and/or audio sequences with the aid of at least one stored reference pattern. In addition, a setting unit is also provided to enable a freely selectable assignment of control signals of one degree of freedom to a specific reference pattern. This setting unit can optionally enable the assignment of temporal derivatives of the control signals to a specific reference pattern. Furthermore, it can manage a freely selectable setting of coupling parameters of the assignment, such as the temporal attenuation and the gain.

KURZBESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS

Weitere Eigenschaften, Merkmale, Vorteile und Zweckmäßigkeiten der zugrunde liegenden Erfindung resultieren aus den untergeordneten abhängigen Patentansprüchen sowie aus der folgenden Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung, welche in den folgenden Zeichnungen abgebildet sind. Hierin zeigen:Further properties, features, advantages and advantages of the underlying invention result from the subordinate dependent patent claims and from the following description of the preferred embodiments of the invention, which are shown in the following drawings.

FIG. 1 ein vereinfachtes Blockdiagramm zur Veranschaulichung der Ein- und Ausgabesignale der frei spezifizierbaren Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen nach dem bevorzugten Ausführungsbeispiel der zugrunde liegenden Erfindung,FIG. 1 is a simplified block diagram illustrating the input and output signals of the freely specifiable real-time controller 102 for animated graphics, video and/or audio sequences according to the preferred embodiment of the underlying invention,

FIG. 2 eine detailliertes Blockdiagramm zur Veranschaulichung der Komponenten sowie der Ein- und Ausgabesignale der frei spezifizierbaren Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen, FIG. 2 is a detailed block diagram illustrating the components and the input and output signals of the freely specifiable real-time controller 102 for animated graphics, video and/or audio sequences,

FIG. 3 ein Ablaufdiagramm zur Veranschaulichung der vonFIG. 3 is a flow chart illustrating the

&bull; ··

&bull; ··

&bull; ··

P 24392 DEP 24392 EN

34
der frei spezifizierbaren Echtzeit-Steuerung 102
34
the freely specifiable real-time control 102

für animierte Grafiken, Video- und/oder Audiosequenzen durchgeführten Aktionen,for animated graphics, video and/or audio sequences,

FIG. 4 ein Blockdiagramm zur Veranschaulichung der Steuerung einzelner oder mehrerer akustischer Parameter digitalisierter Klangmuster durch· ein System, bestehend aus einem Computer, dessen Steuereinheit 401 mit mindestens einem elektronischen Musikinstrument 402 über eine MIDI-Schnittstelle leitend verbunden ist und einem 3D-Eingabegerät 104 zur Eingabe von parametrisierten Ansteuersignalen für die Echtzeit-Bewegungssteuerung virtueller Objekte, die auf einem Bildschirm dargestellt werden können, undFIG. 4 is a block diagram illustrating the control of individual or multiple acoustic parameters of digitized sound patterns by a system comprising a computer whose control unit 401 is conductively connected to at least one electronic musical instrument 402 via a MIDI interface and a 3D input device 104 for inputting parameterized control signals for the real-time motion control of virtual objects that can be displayed on a screen, and

FIG. 5 ein Blockdiagramm zur Veranschaulichung der Steuerung einzelner oder mehrerer akustischer Parameter digitalisierter Klangmuster durch ein System, bestehend aus einem Computer, der über einen elektronischen Tongenerator 502 und eine Sound-Karte 510 verfügt, und einem 3D-Eingabegerät 104 zur Eingabe von parametrisierten Ansteuersignalen für die Echtzeit -Bewegungssteuerung virtueller Objekte, die auf einem Bildschirm dargestellt werden können.FIG. 5 is a block diagram illustrating the control of individual or multiple acoustic parameters of digitized sound patterns by a system comprising a computer having an electronic tone generator 502 and a sound card 510, and a 3D input device 104 for inputting parameterized control signals for real-time motion control of virtual objects that can be displayed on a screen.

DETAILLIERTE BESCHREIBUNG DER ERFINDUNGDETAILED DESCRIPTION OF THE INVENTION

Im Folgenden werden die Funktionen der in einem ersten Ausführungsbeispiel der vorliegenden Erfindung enthaltenen Baugruppen, wie in den Figuren 1 bis 5 abgebildet, näher beschrieben. In the following, the functions of the modules contained in a first embodiment of the present invention, as shown in Figures 1 to 5, are described in more detail.

Bezugnehmend auf Figur 1, soll die vorliegende Erfindung zunächst schematisch erläutert werden. Die Mensch-Maschine-Schnittstelle wird repräsentiert durch das Eingabegerät 104. Dabei handelt es sich insbesondere um ein sogenanntes 3D-Ein-Referring to Figure 1, the present invention will first be explained schematically. The human-machine interface is represented by the input device 104. This is in particular a so-called 3D input

P 24392 DEP 24392 EN

35
gabegerät, das beispielsweise Ansteuersignale 116 für sechs voneinander unabhängige Freiheitsgrade erzeugen kann, wenn es entsprechend durch einen Benutzer manipuliert wird. Diese Freiheitsgrade umfassen beispielsweise drei translatorische Freiheitsgrade, die im Folgenden als x, y und &zgr; bezeichnet werden, sowie drei rotatorische Freiheitsgrade, die im Folgenden als &phgr;&khgr;, <py und &phgr;&zgr; bezeichnet werden. Dabei bezeichnen die Variablen x, y und &zgr; die orthogonalen Achsen eines dreidimensionalen kartesischen Koordinatensystems. Dieses lässt sich mathematisch als dreidimensionaler Vektorraum V beschreiben, der durch eine Orthonormalbasis, bestehend aus den orthonormalen Einheitsvektoren ex, ey und e2, repräsentiert wird. Werden diese Variablen in Vektorschreibweise zusammengefasst, so ergeben sich zu jedem diskreten Zeitpunkt &eegr; (nach Weglassen der Einheiten):
35
output device that can, for example, generate control signals 116 for six independent degrees of freedom when it is manipulated accordingly by a user. These degrees of freedom include, for example, three translational degrees of freedom, which are referred to below as x, y and &zgr;, as well as three rotational degrees of freedom, which are referred to below as φ &khgr; , <py and φ &zgr;. The variables x, y and &zgr; denote the orthogonal axes of a three-dimensional Cartesian coordinate system. This can be described mathematically as a three-dimensional vector space V, which is represented by an orthonormal basis consisting of the orthonormal unit vectors e x , e y and e 2 . If these variables are summarized in vector notation, the result for each discrete point in time &eegr; (after omitting the units) is:

der Ortsvektor &khgr; (&eegr;) := [&khgr; (&eegr;) , &ggr; (&eegr;) , &zgr; (&eegr;) ] ethe position vector &khgr;(&eegr;) := [&khgr;(&eegr;) , &ggr; (&eegr;) , &zgr;(&eegr;) ] e

undand

vjvj

der Drehrichtungsvektor &phgr; (&eegr;) := [&phgr;* (&eegr;) , &phgr;^ (&eegr;) , &phgr;&zgr; (&eegr;) ] ethe direction of rotation vector φ (η) := [φ* (η) , φ^ (η) , φ ζ ( η) ] e

Der transformierte Ortsvektor xT(x,Ax), der sich nach der Translation eines Punktobjekts P mit dem Ortsvektor &khgr; um die Wegdifferenzen Ax, Ay und Az in Richtung der jeweiligen Achsen x, y bzw. &zgr; ergibt, kann in diesem Vektorraum V auf einfache Weise durch Addition des Ortsvektors &khgr; und einer Linearkombination der orthonormalen Einheitsvektoren ev, ev undThe transformed position vector x T (x,Ax), which results after the translation of a point object P with the position vector &khgr; by the path differences Ax, Ay and Az in the direction of the respective axes x, y and &zgr;, respectively, can be calculated in this vector space V in a simple manner by adding the position vector &khgr; and a linear combination of the orthonormal unit vectors e v , e v and

ez ausgedrückt werden:e z can be expressed as:

tu . tu . in. vj . vj tu . tu . in. vj . vj

xT (x ,Ax) : = &khgr; + Axx T (x ,Ax) : = &khgr; + Ax

. j_ . VJ . j_ . VJ AA VSUS . VJ . VJ A^WA A AA^WA A A

mit Ax := Ax-ex + Ay-e + Az-ez V Ax,Ay,Az ewith Ax := Ax-e x + Ay-e + Az-e z V Ax,Ay,Az e

Die Variablen &phgr;*, &phgr;^ und #?z bezeichnen die Drehrichtung virtueller Objekte um die x-, y- bzw. z-Achse dieses Koordinaten-The variables φ*, φ^ and #? z indicate the direction of rotation of virtual objects around the x-, y- and z-axis of this coordinate system.

P 24392 DEP 24392 EN

36
systems. Der transformierte Ortsvektor &khgr;&kgr;(&khgr;,&Dgr;&phgr;), der sich
36
systems. The transformed position vector &khgr;&kgr;(&khgr;,&Dgr;&phgr;), which

nach der Rotation eines Punktobjekts P mit dem Ortsvektor &khgr;
um die Drehwinkel Ag^1 &Agr;&psgr;&ggr; bzw. &Agr;&phgr;&zgr; ergibt, kann in diesem
Vektorraum V wie folgt ausgedrückt werden:
after the rotation of a point object P with the position vector &khgr;
by the angles of rotation Ag^ 1 �Agr;ψγ and �Agr; φζ ζ , can be found in this
Vector space V can be expressed as follows:

xjj (&khgr;,&Agr;&phgr;&khgr;&igr; A(Py1 &Agr;&phgr;&zgr;) := Rz(Acpz) ■ Ry(A9y) ·
mit &Dgr;&phgr; := [ACpx, &Agr;(&rgr;&ggr;,&Agr;&phgr;&zgr;] &tgr; V
xjj (&khgr;,&Agr;&phgr;&khgr;&igr; A(Py 1 &Agr;&phgr;&zgr; ) := R z (Acp z ) ■ R y (A9 y ) ·
with &Dgr;&phgr; := [ACp x , α(rgr;γ, αφ ζ ] τ V

wobei die Drehmatrizen Rx(ACpx), Ry(Acpy) und Rz(AcpJ wie folgt
definiert sind:
where the rotation matrices R x (ACp x ), R y (Acp y ) and R z (AcpJ are as follows
are defined:

&Xgr;&iacgr;&eegr;(&Dgr;&phgr;&khgr;)&Xgr;&iacgr;&eegr;(&Dgr;&phgr;&khgr; )

0 sin(Acpy)0 sin(Acp y )

undand

Selbstverständlich können z.B. mit Hilfe von Tastensteuerungen oder Schaltern verhältnismäßig einfach noch weitere Freiheitsgrade hinzugefügt werden. Dabei ist anzumerken, dass
Schalter bzw. Tasten in der Regel binäre Ansteuersignale
(Ein/Aus) erzeugen, wohingegen die oben genannten drei translatorischen Freiheitsgrade x, y bzw. &zgr; bzw. die drei rotatorischen Freiheitsgrade &phgr;*, <Py bzw. &phgr;&zgr; jeweils analoge Ansteuersignale ergeben können, die dann beispielsweise bei byte-
Of course, further degrees of freedom can be added relatively easily, for example with the help of key controls or switches. It should be noted that
Switches or buttons usually use binary control signals
(On/Off), whereas the above-mentioned three translational degrees of freedom x, y or &zgr; or the three rotational degrees of freedom φ*, <Py or φ &zgr; can each produce analog control signals, which can then be used, for example, in byte-

&bull; *&bull; *

P 24392 DEP 24392 EN

37
weiser Kodierung in 28 = 256 Stufen als digitale Signale zur
37
wise coding in 2 8 = 256 levels as digital signals for

weiteren Verarbeitung zur Verfügung stehen.available for further processing.

Da die drei translatorischen und die drei rotatorischen Freiheitsgrade x, y, &zgr;, &phgr;*, &psgr;&ggr; bzw. &phgr;&zgr; als &ldquor;Analogsignale" bzw. in 256 Stufen quantisierte digitale Signale aufzufassen sind, kann gemäß der vorliegenden Erfindung auch die zeitliche Veränderung dieser Ansteuersignale 116 durch die weiter unten dann näher beschriebene frei spezifizierbare Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen ausgewertet werden. Insbesondere ist es also möglich, zu jedem diskreten Zeitpunkt &eegr; (nach Weglassen der Einheiten) die dreidimensionalen Vektoren fürSince the three translational and the three rotational degrees of freedom x, y, ζ, Φ*, Ψγ and Φ ζ are to be understood as "analog signals" or digital signals quantized in 256 steps, according to the present invention, the temporal change of these control signals 116 can also be evaluated by the freely specifiable real-time control 102 for animated graphics, video and/or audio sequences, which is described in more detail below. In particular, it is therefore possible to determine the three-dimensional vectors for

die Geschwindigkeit &ngr; (&eegr;) := [j&(n) ,the speed &ngr; (&eegr;) := [j&(n) ,

die Beschleunigung a\n) := [Ä(n) , #(n) , Jfe(n) ] T e «*3, die Winkelgeschwindigkeit &ohgr; (&eegr;) : = [ißt (&eegr;) , &phgr;^ (&eegr;) , (ßcz (&eegr;) ] &tgr; ethe acceleration a\n) := [Ä(n) , #(n) , Jfe(n) ] T e «* 3 , the angular velocity ω (η) : = [ißt (η) , φ^ (η) , (ßc z (η) ] τ e

sowieas well as

die Winkelbeschleunigung &agr; (&eegr;) := [&phgr;&egr; (&eegr;) , <&bgr;£ (&eegr;) , &phgr;| (&eegr;) ]&tgr; ethe angular acceleration α (η) := [ϕε (η) , <β£ (η) , ϕ| (η) ] δe

der Freiheitsgrade &khgr;, y, &zgr;, &phgr;&khgr;, &psgr;&ggr; bzw. &phgr;&zgr; zu erfassen und gegebenenfalls als weitere Freiheitsgrade unabhängig von dem Absolutwert der jeweiligen Ansteuersignale 116 zu verwerten. Dabei sind seitens des Eingabegeräts 104 keine weiteren Sensoren (z.B. Geschwindigkeits- bzw. Beschleunigungssensoren) notwendig.the degrees of freedom &khgr;, y, &zgr;, &phgr;&khgr; , &psgr;&ggr; or &phgr;&zgr; and, if necessary, to use them as further degrees of freedom independently of the absolute value of the respective control signals 116. No further sensors (e.g. speed or acceleration sensors) are required on the part of the input device 104.

Während also eingabeseitig die Ansteuersignale 116 von dem 3D-Eingabegerät 104 der frei spezifizierbaren Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen gemäß der vorliegenden Erfindung zugeführt werden, gibt diese abhängig von diesen Ansteuersignalen 116 Animations-While on the input side the control signals 116 from the 3D input device 104 are fed to the freely specifiable real-time controller 102 for animated graphics, video and/or audio sequences according to the present invention, the latter outputs animations depending on these control signals 116.

P 24392 DEP 24392 EN

38
Ausgabesignale 120 aus, mit Hilfe derer eine 3D-Animation beispielsweise auf dem Bildschirm eines Computer erzeugt werden kann. Diese 3D-Animation 114 kann folgendes umfassen:
38
Output signals 120, with the aid of which a 3D animation can be generated, for example, on the screen of a computer. This 3D animation 114 can comprise the following:

- ansteuerbare Bewegungsmuster 106 wenigstens eines bewegbaren Gelenkkörpers,- controllable movement patterns 106 of at least one movable joint body,

- ansteuerbare Oberflächenmuster 108 des Gelenkkörpers und/oder seiner Umgebung,- controllable surface patterns 108 of the joint body and/or its surroundings,

- ansteuerbare Klangmuster 110 und/oder- controllable sound patterns 110 and/or

- ansteuerbare Beleuchtungsmuster 112 für den Gelenkkörper und/oder seine Umgebung.- controllable lighting patterns 112 for the joint body and/or its surroundings.

Dabei ist darauf hinzuweisen, dass die Erzeugung dieser SD-Animation 114 bezüglich der Ansteuersignale 116 in Echtzeit ausgeführt wird. Es ist also im Gegensatz zu manchen bekannten Beispielen nach dem Stand der Technik normalerweise nicht notwendig, Ton- oder Bildsequenzen vorab abzuspeichern, um sie dann auf Knopfdruck auszulösen.It should be noted that the generation of this SD animation 114 is carried out in real time with respect to the control signals 116. In contrast to some known examples according to the state of the art, it is therefore normally not necessary to store sound or image sequences in advance in order to then trigger them at the push of a button.

Ein großer Vorteil der vorliegenden Erfindung ist es, dass für eine neu zu erzeugende 3D-Animation 114 nicht eine vollständig neue Programmierung erfolgen muß, wie es nach dem Stand der Technik der Fall ist. Vielmehr können gespeicherte Bewegungsmuster 106, Oberflächenmuster 108, Klangmuster 110 und/oder Beleuchtungsmuster 112 schnittstellenartig mit der frei spezifizierbaren Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen verbunden werden. Durch Austausch bzw. erneute Spezifikation wenigstens eines der genannten Muster kann in einfacher Weise eine völlig neuartige 3D-Animation 114 erzeugt werden. Der Programmieraufwand zur Erstellung einer neuen 3D-Animation 114 wird somit deutlich verringert.A great advantage of the present invention is that a new 3D animation 114 does not have to be programmed from scratch, as is the case in the prior art. Instead, stored movement patterns 106, surface patterns 108, sound patterns 110 and/or lighting patterns 112 can be connected in an interface-like manner to the freely specifiable real-time control 102 for animated graphics, video and/or audio sequences. By exchanging or re-specifying at least one of the above-mentioned patterns, a completely new 3D animation 114 can be created in a simple manner. The programming effort required to create a new 3D animation 114 is thus significantly reduced.

P 24392 DEP 24392 EN

Da das Gehirn bei verschiedenen Tiergattungen sowie beim Menschen im Zuge der Evolution hinsichtlich der räumlichen Wahrnehmung und Verarbeitung von Bewegungsmustern äußerst komplexe Informationsmengen pro Zeiteinheit verarbeiten kann, wird in einem bevorzugten Ausführungsbeispiel der zugrunde liegenden Erfindung in einfacher Weise auf diese erlernten und vererbten Fähigkeiten zurückgegriffen, indem bekannte Bewegungsmuster modulartig über eine standardisierte Schnittstelle der frei spezifizierbaren Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen zur Verfügung gestellt werden.Since the brain of various animal species and humans can process extremely complex amounts of information per unit of time in the course of evolution with regard to spatial perception and processing of movement patterns, a preferred embodiment of the underlying invention makes simple use of these learned and inherited abilities by making known movement patterns available in a modular manner via a standardized interface of the freely specifiable real-time controller 102 for animated graphics, video and/or audio sequences.

Es ist anzumerken, dass das 3D-Eingabegerät 104 nur ein Beispiel für ein Eingabegerät zur Erzeugung von Ansteuersignalen 116 darstellt. Grundsätzlich ist jede andere Art von Eingabegerät ebenfalls geeignet, wobei indessen das 3D-Eingabegerät 104 den großen Vorteil aufweist, dass die Eingabe von Ansteuersignalen 116 von unterschiedlichen Freiheitsgraden in besonders intuitiver Weise erfolgen kann. Hinsichtlich der konkreten Ausführungsformen von solchen 3D-Eingabegeräten 104 wird auf den in der Beschreibungseinleitung zitierten Stand der Technik verwiesen. Derartige Produkte sind beispielsweise von der Firma LogiCad3d im Handel erhältlich.It should be noted that the 3D input device 104 is only one example of an input device for generating control signals 116. In principle, any other type of input device is also suitable, although the 3D input device 104 has the great advantage that the input of control signals 116 of different degrees of freedom can be carried out in a particularly intuitive manner. With regard to the specific embodiments of such 3D input devices 104, reference is made to the prior art cited in the introduction to the description. Such products are commercially available, for example, from the company LogiCad3d.

Bezugnehmend auf Figur 2 soll nunmehr im Detail der Aufbau der erfindungsgemäßen frei spezifizierbaren Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen erläutert werden. Die grau unterlegten Pfeile 116 und 120 zeigen die in Echtzeit ablaufende Ein- bzw. Ausgabe von Signalen von bzw. zu der frei spezifizierbaren Echtzeit-Steuerung 102, nämlich die Ansteuersignale 116 (x, y, &zgr;, &phgr;^, <py bzw. &phgr;&zgr;) von dem 3D-Eingabegerät 104 und die Animations-Ausgabedaten 120.With reference to Figure 2, the structure of the freely specifiable real-time controller 102 according to the invention for animated graphics, video and/or audio sequences will now be explained in detail. The gray arrows 116 and 120 show the input and output of signals from and to the freely specifiable real-time controller 102, namely the control signals 116 (x, y, ζ, Φ^, <py or Φ ζ ) from the 3D input device 104 and the animation output data 120.

&bull; * 9&bull; * 9

&bull; ··

P 24392 DEP 24392 EN

40
Wie aus Figur 2 ersichtlich, werden die Ansteuersignale 116 einem Freispezifizierungsmodul 2 02 zugeführt. Eine Funktion des Freispezifizierungsmoduls 2 02 ist es, aus den Absolutwerten der eingegebenen &ldquor;Analogdaten" x, y, z, Ipx, cpy bzw. &phgr;&zgr; die ersten zeitlichen Ableitungen (Geschwindigkeiten bzw. Winkelgeschwindigkeiten) bzw. die zweiten zeitlichen Ableitungen (Beschleunigungen bzw. Winkelbeschleunigungen) zu ermitteln. Somit kann ohne Zuhilfenahme eines zusätzlichen Sensors (Beschleunigungssensor) beispielsweise die Geschwindigkeit und die Beschleunigung bezüglich der genannten &ldquor;Analogdaten" unter den Ansteuersignalen 116 ermittelt werden.
40
As can be seen from Figure 2, the control signals 116 are fed to a free specification module 2 02. One function of the free specification module 2 02 is to determine the first time derivatives (velocities or angular velocities) or the second time derivatives (accelerations or angular accelerations) from the absolute values of the entered "analog data" x, y, z, Ip x , cpy or φ ζ . Thus, without the aid of an additional sensor (acceleration sensor), for example, the speed and acceleration with respect to the aforementioned "analog data" can be determined from the control signals 116.

Eine zweite wichtige Funktion des Freispezifizierungsmoduls 202 ist es, die Ansteuersignale 116 der verschiedenen Freiheitsgrade den Komponenten zur Erzeugung und/oder Beeinflussung der Grafiken, Bild- bzw. Tonsequenzen, also dem Bewegungsgenerator 204, dem Oberflächengenerator 206, dem Akustikgenerator 208 bzw. dem Beleuchtungsgenerator 210, zuzuordnen. Es kann also beispielsweise für den Benutzer eine Maske bei der Initialisierung der erfindungsgemäßen Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen vorgesehen sein, die dem Benutzer den Zugriff auf das Freispezifizierungsmodul 202 derart ermöglicht, dass der Benutzer je einen Freiheitsgrad der Ansteuersignale 116 einer der oben genannten Komponenten zur Erzeugung und/oder Beeinflussung der Grafiken, Bild- bzw. Tonsequenzen zuordnen kann.A second important function of the free specification module 202 is to assign the control signals 116 of the various degrees of freedom to the components for generating and/or influencing the graphics, image or sound sequences, i.e. the motion generator 204, the surface generator 206, the acoustic generator 208 or the lighting generator 210. For example, a mask can be provided for the user when initializing the real-time control 102 according to the invention for animated graphics, video and/or audio sequences, which allows the user to access the free specification module 202 in such a way that the user can assign one degree of freedom of the control signals 116 to one of the above-mentioned components for generating and/or influencing the graphics, image or sound sequences.

Darüber hinaus kann der Benutzer mit Hilfe dieses Freispezifizierungsmoduls 202 die Kopplungsparameter der Zuordnung von Ansteuersignalen zu abgespeicherten Referenzmustern frei einstellen, wie beispielsweise zur Durchführung einer spektralen Filterung zur Dämpfung bzw. Verstärkung der Signalkomponenten von Audiosignalen in vorgebbaren Frequenzbereichen. Die einstellbaren Kopplungsparameter legen dabei die zeitliche Kopplung sowie die Dämpfung bzw. Verstärkung der Veränderung desIn addition, the user can use this free specification module 202 to freely set the coupling parameters for the assignment of control signals to stored reference patterns, such as for carrying out spectral filtering to attenuate or amplify the signal components of audio signals in predeterminable frequency ranges. The adjustable coupling parameters determine the temporal coupling as well as the attenuation or amplification of the change in the

P 24392 DEP 24392 EN

41
entsprechenden Referenzmusters abhängig von dem zugewiesenen Ansteuersignal und somit das Signalantwortverhalten des Systems fest. Abhängig von der Spezifizierung durch den Benutzer bewirkt also das Freispezifizierungsmodul 202, dass die Kopplungsparameter der Zuordnung - wie zum Beispiel die Dämpfung bzw. Verstärkung - frei einstellbar sind. Werden beispielsweise die Kopplungsparameter bezüglich des Bewegungsmusters einer Gehbewegung des Gelenk-Objekts verändert, kann von einer dynamischen auf eine hinkende Gehbewegung stufenlos umgestellt werden. Erfindungsgemäß können dadurch ebenfalls verschiedene Stimmungen oder Emotionen, ausgedrückt durch die Mimik eines dargestelltes Gesichts, eingestellt werden. Die Bewegungsmuster können dabei wie folgt mit den Stimmungsmustern gekoppelt sein:
41
corresponding reference pattern depending on the assigned control signal and thus the signal response behavior of the system. Depending on the specification by the user, the free specification module 202 ensures that the coupling parameters of the assignment - such as the damping or amplification - can be freely set. For example, if the coupling parameters are changed with regard to the movement pattern of a walking movement of the joint object, it is possible to switch continuously from a dynamic to a limping walking movement. According to the invention, different moods or emotions, expressed by the facial expressions of a displayed face, can also be set in this way. The movement patterns can be coupled with the mood patterns as follows:

Bewegungs-Movement DargestellteShown Stimmungs-Mood DargestellteShown musterpattern Charakter-Character- musterpattern GesichtsFacial (Parameter #1)(Parameters #1) Figurfigure (Parameter #2)(Parameters #2) mimikfacial expressions dynamischerdynamic jungeryounger lustig,funny, Lächeln,Smile, Gang, schnellegear, fast Sportlerathlete lebensfrohcheerful Augenzwinkern,wink, BewegungenMovements etc.Etc. hinkenderlimping alterage traurig,sad, hängende Mundhanging mouth Gang, 1angs ameGang, 1angs ame MannMan schwermütigmelancholy winkel ,angle , und vorsichtigeand cautious Stirnrunzelnfrown BewegungenMovements etc.Etc.

Der Benutzer kann also stufenlos zwischen der Gehbewegung eines jungen Sportlers und der eines alten Mannes auswählen und, damit gekoppelt, in einfacher Weise verschiedene Charaktere und/oder Stimmungen auswählen.The user can therefore choose seamlessly between the walking movement of a young athlete and that of an old man and, coupled with this, easily select different characters and/or moods.

P 24392 DE , ..·&diams;P 24392 DE , ..·&diams;

42
Im Sinne einer höherwertigen Zuordnung ist es auch möglich, anstelle der Einstellung einzelner Kopplungsparameter lediglich im Zuge der Spezifizierung den Charakter (jung/alt etc.) und/oder die Stimmung (lustig/traurig etc.) anzuwählen, wobei das Freispezifizierungsmodul 2 02 dann automatisch die einzelnen Kopplungsparameter (beispielsweise für den Gang, das Gesicht etc.) einstellt. Anstelle der Einstellung einzelner Kopplungsparameter ermöglicht diese höherwertige (verknüpfte) Zuordnung also die Wahl eines Charakters und/oder einer Stimmung. Die Wahl der Stimmung kann dabei Einfluß auf verschiedene Muster haben, so dass beispielsweise gleichzeitig die Vertonung, die Szenenbeleuchtung und die Bewegung verändert werden. Es können also durch eine Aktion des Benutzers sowohl mehrere Kopplungsparameter eines Musters wie auch mehrere Kopplungsparameter verschiedener Muster (Bewegung, Oberfläche, Bild und/oder Ton) automatisch verändert werden. Somit können Choreographien erstellt werden, die eine Echtzeit-Ansteuerung einer Charakter-Figur und des Hintergrunds verwenden .
42
In the sense of a higher-order assignment, it is also possible, instead of setting individual coupling parameters, to simply select the character (young/old etc.) and/or the mood (funny/sad etc.) during the specification, with the free specification module 2 02 then automatically setting the individual coupling parameters (for example for the gait, the face etc.). Instead of setting individual coupling parameters, this higher-order (linked) assignment enables the selection of a character and/or a mood. The choice of mood can influence various patterns, so that, for example, the sound, the scene lighting and the movement are changed at the same time. This means that one action by the user can automatically change several coupling parameters of one pattern as well as several coupling parameters of different patterns (movement, surface, image and/or sound). This makes it possible to create choreographies that use real-time control of a character figure and the background.

Abhängig von der Spezifizierung durch den Benutzer ordnet das Freispezifizierungsmodul 202 die entsprechenden Ansteuersignale 116 wie folgt zu:Depending on the user specification, the free specification module 202 assigns the corresponding control signals 116 as follows:

- als parametrisierte Bewegungs-Ansteuersignale 212 einem Bewegungsgenerator 2 04,- as parameterized motion control signals 212 to a motion generator 2 04,

- als parametrisierte Oberflächen-Ansteuersignale 214 einem Oberflächengenerator 206,- as parameterized surface control signals 214 to a surface generator 206,

- als parametrisierte Akustik-Ansteuersignale 216 einem Akustikgenerator 2 08 und/oder- as parameterized acoustic control signals 216 to an acoustic generator 2 08 and/or

- als parametrisierte Beleuchtungs-Ansteuersignale 218 einem Beleuchtungsgenerator 210.- as parameterized lighting control signals 218 to a lighting generator 210.

P 24392 DE ··..·*» .".'"J .**. "I P 24392 DE ··..·*» .".'"J .**. "I

43
Der Bewegungsgenerator 2 04 verknüpft die ihm zugewiesenen Bewegungs-Ansteuersignale 212 mit wenigstens einem vordefinierten parametrisierten Bewegungsmuster 106 zur Erzeugung von Bewegungs-Animations-Ausgabesignale 220. Somit können also verschiedene Bewegungsmuster des virtuellen Gelenk-Objekts (z.B. Gehen in verschiedenen Richtungen, Bücken oder Springen etc.) in Echtzeit angesteuert werden.
43
The motion generator 2 04 links the motion control signals 212 assigned to it with at least one predefined parameterized motion pattern 106 to generate motion animation output signals 220. Thus, different motion patterns of the virtual joint object (e.g. walking in different directions, bending or jumping, etc.) can be controlled in real time.

Der Oberflächengenerator 2 06 verknüpft die ihm zugewiesenen Oberflächen-Ansteuersignale 214, die durch den Bewegungsgenerator 204 erzeugten Bewegungs-Animations-Ausgabesignale 220 sowie Daten von wenigstens einem vorgegebenen parametrisierten Oberflächenmuster 108 zur Erzeugung von Oberflächen-Ausgabesignale 222. Somit kann beispielsweise eine Struktur-, Färb-, Farbsättigungs- bzw. Helligkeitsänderung bestimmter Flächen eines bewegten Objekts und/oder seiner Umgebung eingeleitet werden.The surface generator 206 links the surface control signals 214 assigned to it, the motion animation output signals 220 generated by the motion generator 204 and data from at least one predetermined parameterized surface pattern 108 to generate surface output signals 222. Thus, for example, a change in structure, color, color saturation or brightness of certain surfaces of a moving object and/or its surroundings can be initiated.

Der Akustikgenerator 2 08 verknüpft dabei die ihm zugeordneten Akustik-Ansteuersignale 216 mit wenigstens einem parametrisierten vordefinierten Klangmuster 110. Das Produkt dieser Verknüpfung sind die Klang-Ausgabesignale 224, die einen Teil der Animations-Ausgabesignale 120 darstellen. Die gespeicherten Klangmuster können beispielsweise parametrisierte digitale Audiodateien sein.The acoustic generator 208 links the acoustic control signals 216 assigned to it with at least one parameterized predefined sound pattern 110. The product of this link is the sound output signals 224, which represent part of the animation output signals 120. The stored sound patterns can be, for example, parameterized digital audio files.

In entsprechender Weise verknüpft der Beleuchtungsgenerator 210 die ihm zugewiesenen Beleuchtungs-Ansteuersignale 218 mit wenigstens einem vordefinierten parametrisierten Beleuchtungsmuster 112 zur Erzeugung von Beleuchtungs-Ausgabesignale 226. Das Beleuchtungsmuster 112 kann dabei ein virtuelles Objekt und/oder seine Umgebung betreffen.In a corresponding manner, the lighting generator 210 links the lighting control signals 218 assigned to it with at least one predefined parameterized lighting pattern 112 to generate lighting output signals 226. The lighting pattern 112 can relate to a virtual object and/or its surroundings.

Wie bereits ausgeführt sind die vordefinierten Bewegungsmuster 106, Oberflächenmuster 108, Klangmuster 110 und Beleuch-As already mentioned, the predefined movement patterns 106, surface patterns 108, sound patterns 110 and lighting

P 24392 DEP 24392 EN

tungsmuster 112 jeweils parametrisiert, so dass die entsprechenden zugeordneten Ansteuersignale durch den Bewegungsgenerator 2 04, den Oberflächengenerator 2 06, den Akustikgenerator 208 bzw. den Beleuchtungsgenerator 210 als Parameterwerte verwendet werden können, um eine Echtzeitsteuerung der entsprechenden Muster abhängig von den Ansteuersignalen 116 auszuführen, wobei sich die Echtzeit-Ansteuerung der entsprechenden Muster in der entsprechenden Veränderung der erzeugten Animationsdaten 220, 222, 224 und 226 niederschlägt, die insgesamt zu den Animations-Ausgabesignalen 120 zusammengefaßt werden.The control patterns 112 are each parameterized so that the corresponding associated control signals can be used as parameter values by the motion generator 204, the surface generator 206, the acoustic generator 208 or the lighting generator 210 in order to carry out real-time control of the corresponding patterns depending on the control signals 116, wherein the real-time control of the corresponding patterns is reflected in the corresponding change in the generated animation data 220, 222, 224 and 226, which are combined to form the animation output signals 120.

Der Benutzer kann also durch entsprechende Manipulation des Eingabegeräts 104 und der entsprechenden Zuordnung durch das Freispezifizierungsmodul 202 (die durch den Benutzer selbst oder vorab durch den Hersteller eingestellt wurde) in Echtzeit die Bewegungsmuster 106, die Oberflächenmuster (Geometrien, Texturen, etc.) 108, die Klangmuster 110 und/oder die Beleuchtungsmuster 112 ansteuern. Dabei kann er einerseits vordefinierte Muster auslösen, wozu beispielsweise ein Schalter am Eingabegerät 104 verwendet werden kann. Andererseits kann er unter Verwendung der &ldquor;Analogansteuersignale" x, y, z, &phgr;&khgr;, (py bzw. &phgr;&zgr; eine Echtzeit-Steuerung der genannten Muster ausführen.The user can therefore control the movement patterns 106, the surface patterns (geometries, textures, etc.) 108, the sound patterns 110 and/or the lighting patterns 112 in real time by manipulating the input device 104 accordingly and the corresponding assignment by the free specification module 202 (which was set by the user himself or in advance by the manufacturer). On the one hand, he can trigger predefined patterns, for which a switch on the input device 104 can be used, for example. On the other hand, he can carry out real-time control of the aforementioned patterns using the "analog control signals" x, y, z, φ χ , (p y or φ χ ) .

Die Funktion der Generatoren 204, 206, 208 und 210 soll dabei anhand des Bewegungsgenerators 204 im Detail erläutert werden :The function of the generators 204, 206, 208 and 210 will be explained in detail using the motion generator 204:

Es wird vorausgesetzt, dass im Zuge der Animation ein Gelenkkörper in Echtzeit angesteuert werden soll. Der Bewegungsgenerator 204 berechnet also in diesem Fall laufend abhängig von den Bewegungs-Ansteuersignalen 212 die neue Position und Orientierung der Gelenke des Gelenkkörpers.It is assumed that a joint body is to be controlled in real time during the animation. In this case, the motion generator 204 continuously calculates the new position and orientation of the joints of the joint body depending on the motion control signals 212.

P 24392 DE .. » ·--..P 24392 EN .. » ·--..

Ein Bewegungsmuster 106 wird also beispielsweise wie folgt definiert: Zuerst werden Skelettdaten definiert, die die Art und Lage der Gelenke des Gelenkkörpers beschreiben. Neben der Lage der Gelenke (Position) wird dabei auch die Art der Gelenke (beschreibbar durch Art und Anzahl der Freiheitsgrade) definiert. Für jedes Gelenk j der J Gelenke eines betrachteten virtuellen Gelenk-Objekts kann beispielsweise folgender String Sj definiert werden:
10
A movement pattern 106 is defined, for example, as follows: First, skeleton data is defined that describes the type and position of the joints of the joint body. In addition to the position of the joints, the type of joints (described by the type and number of degrees of freedom) is also defined. For each joint j of the J joints of a virtual joint object under consideration, the following string Sj can be defined, for example:
10

Sj := {Namej, Positionj, Freiheitsgradej,Sj := {Namej, Positionj, Degrees of Freedomj,

Maximale_Amplitudej, Dämpfungj, . . . }Maximum_Amplitudej, Dampingj, . . . }

für 1 < j < Jfor 1 < j < J

Ein Bewegungsablauf besteht also dann aus einer Liste oder einer Funktion, die festlegt, welches der definierten Gelenke sich abhängig von den parametrisierten Ansteuersignalen wann und wie bewegt. Ein Bewegungsablauf kann somit beispielsweise durch eine Liste der &ldquor;abzuarbeitenden" Gelenke bestehen. Pro Zyklus wird also durch Abarbeiten der Liste oder einer Funktion berechnet, welche neue Position und/oder Orientierung der Gelenke sich aus den Einzelbeiträgen der verschiedenen Gelenke abhängig von den Ansteuersignalen ergibt.A motion sequence therefore consists of a list or a function that determines which of the defined joints moves when and how, depending on the parameterized control signals. A motion sequence can therefore consist, for example, of a list of the joints "to be processed". For each cycle, by processing the list or a function, it is calculated which new position and/or orientation of the joints results from the individual contributions of the various joints depending on the control signals.

Zu einem Zeitpunkt &eegr; berechnet sich also die Position eines Gelenks, definiert durch die Koordinaten x, y, z, sowie dessen Orientierung, definiert durch die Winkelkoordinaten &phgr;*, <Py bzw. <pz, wie folgt:At a time η, the position of a joint, defined by the coordinates x, y, z, as well as its orientation, defined by the angular coordinates φ*, <Py or <p z , are calculated as follows:

■ · · ■■ · · ■

P 24392 DEP 24392 EN

&eegr;&eegr; '&khgr;&Ngr; '&khgr;&Ngr; 4646 &eegr;-1&eegr;-1 &iacgr;&Dgr;&khgr;0&iacgr;&Dgr;&khgr; 0 yy yy &zgr;&zgr;
&Phi;&khgr;φ&khgr;
&Dgr;&phgr;&khgr; ·
&Agr;&phgr;
Δφ &khgr; ·
αφ
&zgr;&zgr;
&Phi;&khgr;φ&khgr;
,<&Rgr;&zgr;,,<&Rgr;&zgr;, j
+ &Sgr;
j
+ &Sgr;
&Dgr;&phgr;&zgr; . Δϕ ζ .

(D(D

Diese Gleichung (1) wird also für jedes in den Skelettdaten definierte Gelenk berechnet. Die neue Position und Orientierung eines Gelenks zum Zeitpunkt &eegr; berechnet sich somit aus der Position im vorherigen Zyklus n-1 zuzüglich der neuen,
von den Ansteuersignalen abhängigen Beiträgen
This equation (1) is therefore calculated for each joint defined in the skeleton data. The new position and orientation of a joint at time η is thus calculated from the position in the previous cycle n-1 plus the new,
contributions dependent on the control signals

Axjf Ay.,, Azj( A<px>j, A(pyj und Aq>I(j .Ax jf Ay.,, Az j( A<p x>j , A(p yj and Aq> I(j .

Jedes Gelenk j liefert somit einen Änderungsbeitrag für die Position und Orientierung jedes Gelenks, sich selbst eingeschlossen. Each joint j thus provides a change contribution for the position and orientation of every joint, including itself.

Die Beiträge eines jeden Gelenks j zur Verschiebung der Position bzw. Orientierung eines jeden anderen Gelenks sowie desselben Gelenks werden nach der folgenden Formel berechnet:The contributions of each joint j to the displacement of the position or orientation of every other joint and of the same joint are calculated using the following formula:

j, Äy-j, &Dgr;&zgr; j, &Agr;&phgr;&KHgr;) j, &Dgr;<^# j, &Agr;&phgr;&zgr; , j ]j, Äy-j, &Dgr;&zgr; j, &Agr;&phgr;&KHgr;) j, &Dgr;<^ # j, &Agr;&phgr;&zgr; , j]

mit fj: \?»with f j: \?»

1818

V j e {1,2,3, ...,J}.V j e {1,2,3, ...,J}.

Die vektorwertige Funktion fj stellt dabei eine Repräsentation dar, wie ein bestimmter Bewegungsablauf, z.B. der Gang eines Menschen, standardisiert wiedergegeben werden kann.The vector-valued function fj represents how a certain movement sequence, e.g. the gait of a person, can be reproduced in a standardized manner.

Bezugnehmend auf das Flußdiagramm von Figur 3, soll nun
schließlich nochmals der Ablauf gemäß der vorliegenden Erfindung erläutert werden. Die Schritte 301a, 301b und 301c be-
Referring to the flow chart of Figure 3,
Finally, the process according to the present invention will be explained again. Steps 301a, 301b and 301c are

P 24392 DEP 24392 EN

ziehen sich dabei auf einen Einstellungs- und Zuweisungsvorgang in dem Freispezifizierungsmodul 202. Dieser Vorgang kann entweder durch den Benutzer oder aber auch vorab festgelegt sein. Nach dem Start in Schritt 301a kann also der Benutzer und/oder ein Programmierer durch das Freispezifizierungsmodul 202 die einzelnen Ansteuersignale 116 der verschiedenen Freiheitsgrade verschiedenen Mustern (Bewegungsmustern 106, Oberflächenmustern 108, Klangmustern 110 und/oder Beleuchtungsmustern 112) zuweisen. In einem Schritt 301c können dann die Kopplungsparameter zwischen den Ansteuersignalen und den tatsächlich in Echtzeit ausgeführten Änderungen der entsprechenden Muster eingestellt werden. Diese Kopplungsparameter können beispielsweise die Dämpfung und die Verstärkung von Klangmustern betreffen.refer to a setting and assignment process in the free specification module 202. This process can either be set by the user or in advance. After starting in step 301a, the user and/or a programmer can use the free specification module 202 to assign the individual control signals 116 of the various degrees of freedom to different patterns (movement patterns 106, surface patterns 108, sound patterns 110 and/or lighting patterns 112). In a step 301c, the coupling parameters between the control signals and the changes to the corresponding patterns actually carried out in real time can then be set. These coupling parameters can, for example, relate to the attenuation and amplification of sound patterns.

Bei dem Start einer Echtzeit-Animation im Schritt 3 02 werden dann in einem Schritt 3 04 die Ansteuersignale von dem 3D-Eingabegerät 104 an die Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen weitergegeben. In einem Schritt 3 06 werden dann die Ansteuersignale ausgewertet, wobei beispielsweise die ersten und zweiten zeitlichen Ableitungen der &ldquor;Analogsteuersignale" ermittelt werden. Zuletzt wird in einem Schritt 308 eine Zuweisung der Ansteuersignale der verschiedenen Freiheitsgrade zu den bereits oben genannten Bewegungsmustern 106, Oberflächenmustern 108, Klangmustern 110 und/oder Beleuchtungsmustern 112 ausgeführt.When a real-time animation is started in step 3 02, the control signals are then passed on from the 3D input device 104 to the real-time controller 102 for animated graphics, video and/or audio sequences in a step 3 04. The control signals are then evaluated in a step 3 06, whereby, for example, the first and second time derivatives of the "analog control signals" are determined. Finally, in a step 308, the control signals of the various degrees of freedom are assigned to the movement patterns 106, surface patterns 108, sound patterns 110 and/or lighting patterns 112 already mentioned above.

Hinsichtlich des Beleuchtungsmusters 112 ist anzumerken, dass sowohl die Beleuchtungssituation für ein animiertes Gelenk-Objekt selbst wie auch die Beleuchtung des Hintergrunds bzw. verschiedener Szenen in Echtzeit durch entsprechende Zuordnung und Eingabe entsprechender Ansteuersignale 116 verändert werden kann.With regard to the lighting pattern 112, it should be noted that both the lighting situation for an animated articulated object itself and the lighting of the background or various scenes can be changed in real time by appropriate assignment and input of corresponding control signals 116.

P 24392 DEP 24392 EN

Bezugnehmend auf das in Figur 4 schematisch dargestellte Ausführungsbeispiel der zugrunde liegenden Erfindung, kann zur Steuerung einzelner oder mehrerer akustischer Parameter digitalisierter Klangmuster 410 ein Verfahren bzw. ein System vorgesehen sein, das die folgenden Geräte verwendet:Referring to the embodiment of the underlying invention shown schematically in Figure 4, a method or a system can be provided for controlling individual or multiple acoustic parameters of digitized sound patterns 410, which uses the following devices:

- einen Computer, dessen Steuereinheit 401 mit mindestens einem elektronischen Musikinstrument 402 über eine MIDI-Schnittstelle 404a+b leitend verbunden ist und- a computer whose control unit 401 is conductively connected to at least one electronic musical instrument 402 via a MIDI interface 404a+b and

- ein Eingabegerät 104 zur Eingabe von parametrisierten Ansteuersignalen 116 für die Echtzeit-Bewegungssteuerung virtueller Objekte, die auf einem Bildschirm dargestellt werden können.- an input device 104 for inputting parameterized control signals 116 for the real-time motion control of virtual objects that can be displayed on a screen.

Dabei können die digitalisierten Klangmuster 410 im Speicher mindestens eines elektronischen Musikinstruments 4 02 gemäß dem MIDI-Standard digital gespeichert und auf mindestens einem elektronischen Musikinstrument 402 gemäß dem MIDI-Standard generiert bzw. abgespielt werden. Einzelne oder mehrere dieser akustischen Parameter können dabei erfindungsgemäß mittels Steuerung der virtuellen Objekte durch ein Bewegen des Eingabegeräts 104 in Echtzeit erzeugt bzw. beeinflusst werden.The digitized sound patterns 410 can be digitally stored in the memory of at least one electronic musical instrument 402 according to the MIDI standard and generated or played on at least one electronic musical instrument 402 according to the MIDI standard. According to the invention, one or more of these acoustic parameters can be generated or influenced in real time by controlling the virtual objects by moving the input device 104.

Wie in Figur 5 abgebildet, kann alternativ zur Steuerung einzelner oder mehrerer akustischer Parameter digitalisierter Klangmuster 512 nach einer Variation dieses Ausführungsbeispiels der zugrunde liegenden Erfindung ein Verfahren bzw. ein System vorgesehen sein, das die folgenden Geräte verwendet: As shown in Figure 5, alternatively for controlling individual or multiple acoustic parameters of digitized sound patterns 512 according to a variation of this embodiment of the underlying invention, a method or a system can be provided that uses the following devices:

- einen Computer, dessen Steuereinheit 501 mit mindestens einer Sound-Karte 510 sowie mit mindestens einem Tongenerator 502 verbunden ist und- a computer whose control unit 501 is connected to at least one sound card 510 and to at least one sound generator 502 and

P 24392 DEP 24392 EN

- ein Eingabegerät 104 zur Eingabe von parametrisierten Ansteuersignalen 116 für die Echtzeit-Bewegungssteuerung virtueller Objekte, die auf einem Bildschirm dargestellt werden können.- an input device 104 for inputting parameterized control signals 116 for the real-time motion control of virtual objects that can be displayed on a screen.

Dabei können die digitalisierten Klangmuster 512 im Speicher mindestens einer Sound-Karte 510 des Computers digital gespeichert sein und auf mindestens einem Tongenerator 502 desselben Computers generiert und abgespielt werden. Einzelne oder mehrere akustische Parameter der digital gespeicherten Klangmuster 512 können dabei erfindungsgemäß mittels Steuerung der virtuellen Objekte durch ein Bewegen des Eingabegeräts 104 in Echtzeit erzeugt bzw. beeinflusst werden.The digitized sound patterns 512 can be digitally stored in the memory of at least one sound card 510 of the computer and generated and played on at least one sound generator 502 of the same computer. According to the invention, individual or multiple acoustic parameters of the digitally stored sound patterns 512 can be generated or influenced in real time by controlling the virtual objects by moving the input device 104.

Bei den ansteuerbaren virtuellen Objekten, die zur Erzeugung bzw. Beeinflussung einzelner oder mehrerer akustischer Parameter der digital gespeicherten Klangmuster 410 bzw. 512 durch ein Bewegen des Eingabegeräts 104 gesteuert werden, kann es sich zum Beispiel um die Steuerelemente, Tasten, Schalter, Drehknöpfe und/oder Schieberegler eines virtuellen Mischpults handeln, mit dessen Hilfe beispielsweise einzelne Frequenzbereiche des Obertonspektrums eines gespeicherten, digitalisierten Klangmusters 410 bzw. 512 gezielt gedämpft bzw. verstärkt werden können.The controllable virtual objects, which are controlled to generate or influence individual or multiple acoustic parameters of the digitally stored sound patterns 410 or 512 by moving the input device 104, can be, for example, the control elements, buttons, switches, knobs and/or sliders of a virtual mixer, with the help of which, for example, individual frequency ranges of the overtone spectrum of a stored, digitized sound pattern 410 or 512 can be specifically attenuated or amplified.

Bei dem Eingabegerät 104 kann es sich zum Beispiel um ein drahtloses Steuermedium handeln, das in drei Dimensionen bewegt werden kann ("3D-Maus") und das in der Lage ist, simultan parametrisierte Ansteuersignale 116 von Bewegungen in wenigstens sechs unabhängigen Freiheitsgraden in Echtzeit zu verarbeiten.The input device 104 may, for example, be a wireless control medium that can be moved in three dimensions ("3D mouse") and that is capable of simultaneously processing parameterized control signals 116 of movements in at least six independent degrees of freedom in real time.

Bei den gesteuerten akustischen Parametern eines bestimmten digitalisierten Klangmusters 410 bzw. 512 kann es sich bei-The controlled acoustic parameters of a specific digitized sound pattern 410 or 512 may be

P 24392 DEP 24392 EN

spielsweise um Tonhöhen, Noten- bzw. Pausenwerte, Lautstärken, Tempi, Artikulationsanweisungen, Klangfarben, Pedal-, Vibrato-, Chorus-, Hall-, Oberton- und/oder andere Spezialeffekte handeln.
5
for example, pitches, note or rest values, volumes, tempos, articulation instructions, timbres, pedal, vibrato, chorus, reverb, overtone and/or other special effects.
5

Dabei können parametrisierte Ansteuersignale 116 von Bewegungen des Eingabegeräts 104 in drei translatorischen und drei rotatorischen Freiheitsgraden eingegeben werden. Darüber hinaus kann erfindungsgemäß vorgesehen sein, dass auch zeitliche Ableitungen der parametrisierten Ansteuersignale 116 ermittelt und verarbeitet werden können. Die Zuordnung von parametrisierten Ansteuersignalen 116 jeweils eines Freiheitsgrads zu einem oder mehreren Parametern eines bestimmten digitalisierten Klangmusters 410 bzw. 512 ist erfindungsgemäß frei spezifizierbar. Optional können auch die zeitlichen Ableitungen der parametrisierten Ansteuersignale 116 einem oder mehreren Parametern eines bestimmten digitalisierten Klangmusters 410 bzw. 512 zugeordnet werden. Die Kopplungsparameter der Zuordnung von parametrisierten Ansteuersignalen 116 können ebenfalls frei spezifiziert werden.In this case, parameterized control signals 116 of movements of the input device 104 can be input in three translational and three rotational degrees of freedom. In addition, it can be provided according to the invention that temporal derivatives of the parameterized control signals 116 can also be determined and processed. The assignment of parameterized control signals 116, each with a degree of freedom, to one or more parameters of a specific digitized sound pattern 410 or 512 can be freely specified according to the invention. Optionally, the temporal derivatives of the parameterized control signals 116 can also be assigned to one or more parameters of a specific digitized sound pattern 410 or 512. The coupling parameters of the assignment of parameterized control signals 116 can also be freely specified.

Die Bedeutung der mit Bezugszeichen versehenen Symbole in den Figuren 1 bis 5 kann der beigefügten Bezugszeichenliste entnommen werden.
25
The meaning of the symbols provided with reference numerals in Figures 1 to 5 can be found in the attached list of reference numerals.
25

P 24392 DEP 24392 EN

BezugszeichenlisteList of reference symbols

Symbolsymbol

vereinfachtes Blockdiagramm zur Veranschaulichung der Ein- und Ausgabesignale der frei spezifizierbaren Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen nach dem bevorzugten Ausführungsbeispiel der zugrunde liegenden Erfindung simplified block diagram to illustrate the input and output signals of the freely specifiable real-time controller 102 for animated graphics, video and/or audio sequences according to the preferred embodiment of the underlying invention

frei spezifizierbare Echtzeit-Steuerung von animierten Grafiken, Video- und/oder Audiosequenzen Freely specifiable real-time control of animated graphics, video and/or audio sequences

3D-Eingabegerät zur Eingabe der Ansteuersignale3D input device for entering the control signals

parametrisierte Bewegungsmuster für Gelenk-Objekte parameterized movement patterns for joint objects

parametrisierte Oberflächenmuster (Geometrien, Texturen) für Gelenk-Objekte parameterized surface patterns (geometries, textures) for joint objects

parametrisierte Klangmusterparameterized sound patterns

parametrisierte Beleuchtungsmuster für Gelenk-Objekte und den Hintergrund virtueller Szenen parameterized lighting patterns for articulated objects and the background of virtual scenes

3D-Animation, angezeigt auf Computer-Bildschirm3D animation displayed on computer screen

Ansteuersignale vom 3D-Eingabegerät 104 für die frei spezifizierbare Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen Control signals from the 3D input device 104 for the freely specifiable real-time control 102 for animated graphics, video and/or audio sequences

Übergabe der parametrisierten Bewegungsmuster 106, Oberflächenmuster 108, Klangmuster 110 und/oder Beleuchtungsmuster 112 als Referenzmuster an die entsprechenden Generatoren 204, 206, 208 und 210 in der frei spezifizierbare Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen Transfer of the parameterized movement patterns 106, surface patterns 108, sound patterns 110 and/or lighting patterns 112 as reference patterns to the corresponding generators 204, 206, 208 and 210 in the freely specifiable real-time control 102 for animated graphics, video and/or audio sequences

Animations-Ausgabesignale von der Echtzeit-Steuerung für animierte Grafiken, Video- und/oder Audiosequenzen für die 3D-AnimationAnimation output signals from the real-time control for animated graphics, video and/or audio sequences for 3D animation

Animations-Ausgabesignale von der Steuereinheit 401 eines Computers für die 3D-AnimationAnimation output signals from the control unit 401 of a computer for 3D animation

Status-Signale von der 3D-Animation 114 für die Steuereinheit 4 01 des ComputersStatus signals from the 3D animation 114 for the control unit 4 01 of the computer

detailliertes Blockdiagramm zur Veranschaulichung der Komponenten sowie der Ein- und Ausgabesignale der frei spezifizierbaren Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder AudiosequenzenDetailed block diagram to illustrate the components as well as the input and output signals of the freely specifiable real-time control 102 for animated graphics, video and/or audio sequences

Freispezifizierungsmodul zur Zuordnung der Ansteuersignale bzw. deren zeitlicher Ableitungen als Parameterwerte für die parametrisierten Bewegungsmuster 106, OberflächenmusterlO8, Klangmuster 110 bzw. BeleuchtungsmusterFree specification module for assigning the control signals or their temporal derivatives as parameter values for the parameterized movement patterns 106, surface patterns 108, sound patterns 110 or lighting patterns

Bewegungsgenerator zur Berechnung der Skelett-Anderungsdaten von Gelenk-Objekten auf Grundlage der Ansteuersignale 116 als Parameterwerte und wenigstens je eines parametrisierten Bewegungsmusters 106, wobei die Skelett-Änderungsdaten translatorische und/oder rotatorische Änderungen der Lage bzw. Orientierung der Gelenk-Objekte wiedergeben Motion generator for calculating the skeleton change data of joint objects on the basis of the control signals 116 as parameter values and at least one parameterized movement pattern 106, wherein the skeleton change data reflect translational and/or rotational changes in the position or orientation of the joint objects

Oberflächengenerator zur Berechnung der Oberfläche virtu- Surface generator for calculating the surface virtual

P 24392 DEP 24392 EN

Nr. SymbolNo. Symbol

eller Gelenk-Objekte auf Grundlage ihrer Skelett-Anderungsdaten und wenigstens je eines Oberflächenmusters Akustikgenerator zur Erzeugung von Tonsequenzen, ausgehend von parametrisierten Klangmustern eller joint objects based on their skeleton change data and at least one surface pattern each Acoustic generator for generating sound sequences based on parameterized sound patterns

Beleuchtungsgenerator zur Erzeugung von Beleuchtungs-Ausgabesignale, ausgehend von parametrisierten Beleuchtungsmustern Lighting generator for generating lighting output signals based on parameterized lighting patterns

Bewegungs-Ansteuersignale vom Freispezifizierungsmodul zum Bewegungsgenerator 2Motion control signals from the free specification module to motion generator 2

Oberflächen-Ansteuersignale vom Freispezifizierungsmodul 202 zum Oberflächengenerator 206 Surface control signals from the free specification module 202 to the surface generator 206

Klang-Ansteuersignale vom Freispezifizierungsmodul 202 für den Akustikgenerator 208 Sound control signals from the free specification module 202 for the acoustic generator 208

Beleuchtungs-Ansteuersignale vom Freispezifizierungsmodul 2 02 zum Beleuchtungsgenerator 210 Lighting control signals from the free specification module 2 02 to the lighting generator 210

Bewegungs-Animations-Ausgabesignale vom Bewegungsgenerator 2 04 zum Oberflächengenerator 2 06 Motion animation output signals from motion generator 2 04 to surface generator 2 06

Oberflächen-Ausgabesignale vom OberflächengeneratorSurface output signals from the surface generator

Klang-Ausgabesignale vom Akustikgenerator 208 als Teil der Animations-Ausgabesignale 120 Sound output signals from the acoustic generator 208 as part of the animation output signals 120

Beleuchtungs-Ausgabesignale vom BeleuchtungsgeneratorIllumination output signals from the illumination generator

Ablaufdiagramm zur Veranschaulichung der von der frei spezifizierbaren Echtzeit-Steuerung 102 für animierte Grafiken, Video- und/oder Audiosequenzen durchgeführten Aktionen Flowchart illustrating the actions performed by the freely specifiable real-time controller 102 for animated graphics, video and/or audio sequences

Start der Setup-Phase (= Vorbereitung einer Echtzeit-Animation) Start of the setup phase (= preparation of a real-time animation)

Voreinstellungen, Initialisierungen und Zuweisungen für das Freispezifizierungsmodul 202 Defaults, initializations and assignments for the free specification module 202

Parameter-Voreinstellung (z.B. Dämpfung bzw. Verstärkung) Ende der Setup-Phase Parameter presetting (e.g. attenuation or gain) End of the setup phase

Start der Steuer-Phase (= Start einer Echtzeit-Animation)Start of the control phase (= start of a real-time animation)

Eingabe der AnsteuersignaleInput of control signals Auswertung der AnsteuersignaleEvaluation of the control signals

Zuweisung der AnsteuersignaleAssignment of control signals

Erzeugung von Bewegungsdaten bzw. Beeinflussung von Bewegungsmustern 106 mit Hilfe der Animations-Ausgabesignale 120Generation of motion data or influencing motion patterns 106 using the animation output signals 120

Erzeugung von Oberflächendaten bzw. Beeinflussung von Oberflächenmustern 108 mit Hilfe der Animations-Ausgabesignale Generation of surface data or influencing surface patterns 108 using the animation output signals

Erzeugung von Klangdaten bzw. Beeinflussung von Klangmu-Generation of sound data or influencing of sound

stern 110 mit Hilfe der Animations-Ausgabesignale 120star 110 using the animation output signals 120

Erzeugung von Beleuchtungsdaten bzw. Beeinflussung von Beleuchtungsmustern 112 mit Hilfe der Animations-Ausgabesignale 12Generation of lighting data or influencing lighting patterns 112 using the animation output signals 12

Blockdiagramm zur Veranschaulichung der Steuerung einzelner oder mehrerer akustischer Parameter digitalisierter Klangmuster durch ein System, bestehend aus einem Compu- Block diagram illustrating the control of individual or multiple acoustic parameters of digitized sound patterns by a system consisting of a computer

P 24392 DEP 24392 EN

Nr.No. Symbolsymbol ter, dessen Steuereinheit 401 mit mindestens einem elek
tronischen Musikinstrument 402 über eine MIDI-Schnitt-
stelle leitend verbunden ist und einem 3D-Eingabegerät 104
zur Eingabe von parametrisierten Ansteuersignalen für die
Echtzeit-Bewegungssteuerung virtueller Objekte, die auf
einem Bildschirm dargestellt werden können
ter, whose control unit 401 is connected to at least one electronic
tronic musical instrument 402 via a MIDI interface
point is conductively connected and a 3D input device 104
for entering parameterized control signals for the
Real-time motion control of virtual objects based on
can be displayed on a screen
401401 Steuereinheit eines ComputersControl unit of a computer 402402 Masterkeyboard bzw. Synthesizer nach dem MIDI-Standard
(hier: Keyboard mit 73 Tasten, d.h. mit einem Ambitus von
sechs Oktaven)
Master keyboard or synthesizer according to the MIDI standard
(here: keyboard with 73 keys, ie with an ambitus of
six octaves)
404a404a MIDI/IN-Anschluss (Eingangsbuchse) des Masterkeyboards
bzw. Synthesizers 402
MIDI/IN connector (input jack) of the master keyboard
or Synthesizers 402
404b404b MIDI/OUT-Anschluss (Ausgangsbuchse) des Masterkeyboards
bzw. Synthesizers 402
MIDI/OUT connector (output jack) of the master keyboard
or Synthesizers 402
406406 Lautsprecheranschlussbuchse des Masterkeyboards bzw. Syn
thesizers 402
Speaker connection socket of the master keyboard or synth
thesizers 402
408408 Lautsprecherspeaker 410410 Speicher des Masterkeyboards bzw. Synthesizers 402, in dem
eine Datenbank mit digitalisierten Klangmustern gespei
chert ist
Memory of the master keyboard or synthesizer 402, in which
a database with digitized sound patterns stored
chert is
412a412a MIDI/IN-Signal von der Steuereinheit 401 des Computers zum
Masterkeyboard bzw. Synthesizer 402
MIDI/IN signal from the computer’s control unit 401 to
Master keyboard or synthesizer 402
412b412b MIDI/OUT-Signal vom Masterkeyboard bzw. Synthesizer 402
zur Steuereinheit 401 des Computers
MIDI/OUT signal from master keyboard or synthesizer 402
to the control unit 401 of the computer
414414 Übergabe der digitalisierten Klangmuster 410 als Referenz
muster an das Masterkeyboard bzw. den Synthesizer 402
Handover of the digitized sound samples 410 as reference
pattern to the master keyboard or the synthesizer 402
500500 Blockdiagramm zur Veranschaulichung der Steuerung einzel
ner oder mehrerer akustischer Parameter digitalisierter
Klangmuster durch ein System, bestehend aus einem Compu
ter, der über einen elektronischen Tongenerator 502 und
eine Sound-Karte 510 verfügt, und einem 3D-Eingabegerät
104 zur Eingabe von parametrisierten Ansteuersignalen für
die Echtzeit-Bewegungssteuerung virtueller Objekte, die
auf einem Bildschirm dargestellt werden können
Block diagram to illustrate the control of individual
one or more acoustic parameters digitized
Sound patterns through a system consisting of a computer
ter, which has an electronic tone generator 502 and
a sound card 510 and a 3D input device
104 for entering parameterized control signals for
the real-time motion control of virtual objects, the
can be displayed on a screen
501501 Steuereinheit des Computers, der über einen elektronischen
Tongenerator 502 und eine Sound-Karte 510 verfügt
Control unit of the computer, which has an electronic
Tone generator 502 and a sound card 510
502502 elektronischer Tongenerator des Computers nach dem MIDI-
Standard
electronic sound generator of the computer according to the MIDI
default
504a504a MIDI/IN-Signaleingang des elektronischen TongeneratorsMIDI/IN signal input of the electronic tone generator 504b504b MIDI/OUT-Signalausgang des elektronischen TongeneratorsMIDI/OUT signal output of the electronic tone generator 506506 Lautsprecheranschlussbuchse des ComputersComputer speaker jack 508508 Lautsprecherspeaker 510510 Sound-Karte des ComputersComputer sound card 512512 Speicher der Sound-Karte 510, in dem eine Datenbank mit
digitalisierten Klangmustern gespeichert ist
Memory of the sound card 510, in which a database with
digitized sound patterns are stored
514a514a parametrisierte MIDI-Ansteuersignale von der Steuereinheit
501 des Computers zur Sound-Karte 510
parameterized MIDI control signals from the control unit
501 of the computer to the sound card 510
514b514b MIDI/IN-Signal von der Sound-Karte 510 zum elektronischen
Tongenerator 5 02
MIDI/IN signal from the sound card 510 to the electronic
Tone generator 5 02

P 24392 DEP 24392 EN

Symbolsymbol 5454 TongeneratorSound generator 502 zur502 to Nr.No. 514c514c MIDI/OUT-Signal vom elektronischen
Steuereinheit 501 des Computers
MIDI/OUT signal from electronic
Computer control unit 501

&bull; ··

&bull; t&bull; t

Claims (27)

1. System zur Echtzeit-Bewegungssteuerung eines Gelenk-Objekts, aufweisend: a) Mittel zur Definition von wenigstens einem parametrisierten Bewegungsmuster (106) für das Gelenk-Objekt, b) Mittel zur Definition von wenigstens einem parametrisierten Oberflächenmuster (108) für das Gelenk-Objekt, c) Mittel zur Eingabe von parametrisierten Ansteuersignalen (116) mittels eines 3D-Eingabegeräts (104), d) Mittel zur Berechnung von Skelett-Änderungsdaten auf Grundlage der parametrisierten Ansteuersignale (116) sowie auf Grundlage von wenigstens einem parametrisierten Bewegungsmuster (106), wobei die Skelett-Änderungsdaten translatorische und/oder rotatorische Änderungen der Lage bzw. Orientierung der Gelenke des Gelenk-Objekts wiedergeben, e) Mittel zur Berechnung der Oberfläche des Gelenk-Objekts auf Grundlage der Skelett-Änderungsdaten sowie auf Grundlage von wenigstens einem Oberflächenmuster (108), wobei die Mittel c), d) und e) zyklisch aktivierbar sind, um eine Echtzeit-Bewegungssteuerung des Gelenk-Objekts abhängig von den Ansteuersignalen (116) zu erhalten. 1. A system for real-time motion control of an articulated object, comprising: a) means for defining at least one parameterized movement pattern ( 106 ) for the joint object, b) means for defining at least one parameterized surface pattern ( 108 ) for the joint object, c) means for inputting parameterized control signals ( 116 ) by means of a 3D input device ( 104 ), d) means for calculating skeleton change data on the basis of the parameterized control signals ( 116 ) and on the basis of at least one parameterized movement pattern ( 106 ), wherein the skeleton change data reflect translational and/or rotational changes in the position or orientation of the joints of the joint object, e) means for calculating the surface of the joint object on the basis of the skeleton change data and on the basis of at least one surface pattern ( 108 ), wherein the means c), d) and e) can be activated cyclically in order to obtain a real-time motion control of the articulated object depending on the control signals ( 116 ). 2. System nach Anspruch 1, dadurch gekennzeichnet, dass weiterhin Mittel zur Erzeugung von Klangsignalen (224) durch Verknüpfung gespeicherter digitaler, parametrisierter Klangmuster (110) mit parametrisierten Ansteuersignalen (116) vorgesehen sind. 2. System according to claim 1, characterized in that means are further provided for generating sound signals ( 224 ) by linking stored digital, parameterized sound patterns ( 110 ) with parameterized control signals ( 116 ). 3. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zeitliche Ableitungen der parametrisierten Ansteuersignale (116) ermittelbar und verarbeitbar sind. 3. System according to one of the preceding claims, characterized in that time derivatives of the parameterized control signals ( 116 ) can be determined and processed. 4. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Zuordnung der parametrisierten Ansteuersignale (116) bzw. ihrer Ableitungen zu den Bewegungsmustern (106), Oberflächenmustern (108) bzw. Klangmustern (110) frei spezifizierbar ist. 4. System according to one of the preceding claims, characterized in that the assignment of the parameterized control signals ( 116 ) or their derivatives to the movement patterns ( 106 ), surface patterns ( 108 ) or sound patterns ( 110 ) can be freely specified. 5. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass weiterhin parametrisierte Beleuchtungsmuster (112) hinterlegbar sind, die zur Erzeugung von Beleuchtungseffekten mittels entsprechender Verknüpfungen mit parametrisierten Ansteuersignalen (116) verwendbar sinb. 5. System according to one of the preceding claims, characterized in that parameterized lighting patterns ( 112 ) can also be stored, which can be used to generate lighting effects by means of corresponding links with parameterized control signals ( 116 ). 6. System zur frei spezifizierbaren Echtzeit-Steuerung von animierten Grafiken, Video- und/oder Audiosequenzen, aufweisend - Mittel zur Erzeugung von Bewegungs-, Oberflächen- und/oder Klangdaten auf Grundlage wenigstens eines vordefinierten parametrisiertes Bewegungsmusters (106), Oberflächenmusters (108) und/oder Klangmusters (110), - Mittel zur Auswertung parametrisierter Ansteuersignale (116) verschiedener Freiheitsgrade von einem 3D- Eingabegerät (104) und zur Erzeugung von Bewegungsdaten (310), Oberflächendaten (312) und/oder Klangdaten (314) mit Hilfe der hinterlegten Bewegungsmuster (106), Oberflächenmuster (108) und/oder Klangmuster (110), und - Mittel zur frei spezifizerbaren Zuordnung von parametrisierten Ansteuersignalen (116) jeweils eines Freiheitsgrads zu einem bestimmten Bewegungsmuster (106), Oberflächenmuster (108) und/oder Klangmuster (110). 6. System for freely specifiable real-time control of animated graphics, video and/or audio sequences, comprising - means for generating movement, surface and/or sound data based on at least one predefined parameterized movement pattern ( 106 ), surface pattern ( 108 ) and/or sound pattern ( 110 ), - means for evaluating parameterized control signals ( 116 ) of different degrees of freedom from a 3D input device ( 104 ) and for generating movement data ( 310 ), surface data ( 312 ) and/or sound data ( 314 ) with the aid of the stored movement patterns ( 106 ), surface patterns ( 108 ) and/or sound patterns ( 110 ), and - Means for the freely specifiable assignment of parameterized control signals ( 116 ) of one degree of freedom each to a specific movement pattern ( 106 ), surface pattern ( 108 ) and/or sound pattern ( 110 ). 7. System nach Anspruch 6, weiterhin aufweisend Mittel zur Zuordnung von zeitlichen Ableitungen der parametrisierten Ansteuersignale (116) zu einem bestimmten Bewegungsmuster (106), Oberflächenmuster (108) und/oder Klangmuster (110). 7. System according to claim 6, further comprising means for assigning temporal derivatives of the parameterized control signals ( 116 ) to a specific movement pattern ( 106 ), surface pattern ( 108 ) and/or sound pattern ( 110 ). 8. System nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass Kopplungsparameter der Zuordnung von parametrisierten Ansteuersignalen (116), wie zum Beispiel Dämpfung und Verstärkung, frei spezifizierbar sind. 8. System according to claim 6 or 7, characterized in that coupling parameters of the assignment of parameterized control signals ( 116 ), such as attenuation and amplification, are freely specifiable. 9. System zur Echtzeit-Bewegungssteuerung von virtuellen oder realen Gelenk-Objekten, wobei das System über einen Speicher verfügt, in dem wenigstens ein parametrisiertes Bewegungsmuster (106) und wenigstens ein parametrisiertes Oberflächenmuster (108) von einem Gelenk-Objekt abgelegt sind, und das System weiterhin aufweist: - ein 3D-Eingabegerät (104) zur Eingabe von parametrisierten Ansteuersignalen (116) für die Echtzeit-Bewegungssteuerung, - einen Bewegungsgenerator (204) zur Berechnung von Skelett- Änderungsdaten auf Grundlage der parametrisierten Ansteuersignale (116) und auf Grundlage von wenigstens einem parametrisierten Bewegungsmuster (106), wobei die Skelett-Änderungsdaten translatorische und/oder rotatorische Änderungen der Lage bzw. Orientierung der Gelenke des Gelenk-Objekts wiedergeben, sowie - einen Oberflächengenerator (206) zur Berechnung der Oberfläche des Gelenk-Objekts auf Grundlage der Skelett- Änderungsdaten und des parametrisierten Oberflächenmusters (108). 9. System for real-time motion control of virtual or real articulated objects, wherein the system has a memory in which at least one parameterized motion pattern ( 106 ) and at least one parameterized surface pattern ( 108 ) of an articulated object are stored, and the system further comprises: - a 3D input device ( 104 ) for inputting parameterized control signals ( 116 ) for real-time motion control, - a motion generator ( 204 ) for calculating skeleton change data on the basis of the parameterized control signals ( 116 ) and on the basis of at least one parameterized movement pattern ( 106 ), wherein the skeleton change data reflect translational and/or rotational changes in the position or orientation of the joints of the joint object, and - a surface generator ( 206 ) for calculating the surface of the joint object based on the skeleton change data and the parameterized surface pattern ( 108 ). 10. System nach Anspruch 9, gekennzeichnet durch einen Klanggenerator (210) zur Erzeugung von Klangsignalen durch Verknüpfung von wenigstens einem digitalen parametrisierten Klangmuster (110) mit parametrisierten Ansteuersignalen (116). 10. System according to claim 9, characterized by a sound generator ( 210 ) for generating sound signals by linking at least one digital parameterized sound pattern ( 110 ) with parameterized control signals ( 116 ). 11. System nach einem der Ansprüche 9 oder 10, gekennzeichnet durch ein Freispezifizierungsmodul (202) zur Ermittlung und Verarbeitung von zeitlichen Ableitungen der parametrisierten Ansteuersignale (116). 11. System according to one of claims 9 or 10, characterized by a free specification module ( 202 ) for determining and processing time derivatives of the parameterized control signals ( 116 ). 12. System nach einem der Ansprüche 9 bis 11, gekennzeichnet durch ein Freispezifizierungsmodul (202) zur wahlfreien Zuordnung der parametrisierten Ansteuersignale (116) bzw. ihrer Ableitungen für die Bewegungsdaten (310), Oberflächendaten (312) und/oder Klangdaten (314). 12. System according to one of claims 9 to 11, characterized by a free specification module ( 202 ) for the optional assignment of the parameterized control signals ( 116 ) or their derivatives for the movement data ( 310 ), surface data ( 312 ) and/or sound data ( 314 ). 13. System zur frei spezifizierbaren Echtzeit-Steuerung für animierte Grafiken, Video- und/oder Audiosequenzen, aufweisend - einen Speicher, in dem für die Erzeugung von Bewegungsdaten (310), Oberflächendaten (312), Klangdaten (314) und/oder Beleuchtungsdaten (316) wenigstens ein vordefiniertes parametrisiertes Bewegungsmuster (106), Oberflächenmuster (108), Klangmuster (110) und/oder Beleuchtungsmuster (112) hinterlegt ist, sowie - eine Recheneinheit zur Auswertung von parametrisierten Ansteuersignalen (116) verschiedener Freiheitsgrade von einem 3D-Eingabegerät (104) zur Erzeugung von Bewegungsdaten (310), Oberflächendaten (312), Klangdaten (314) und/oder Beleuchtungsdaten (316) mit Hilfe der hinterlegten Bewegungsmuster (106), Oberflächenmuster (108), Klangmuster (110) und/oder Beleuchtungsmuster (112), weiterhin aufweisend ein Freispezifizierungsmodul (202) zur frei spezifizierbaren Zuordnung von parametrisierten Ansteuersignalen (116) jeweils eines Freiheitsgrads zu einem bestimmten Bewegungsmuster (106), Oberflächenmuster (108), Klangmuster (110) und/oder Beleuchtungsmuster (112). 13. System for freely specifiable real-time control of animated graphics, video and/or audio sequences, comprising - a memory in which at least one predefined parameterized movement pattern ( 106 ), surface pattern ( 108 ), sound pattern ( 110 ) and/or lighting pattern ( 112 ) is stored for the generation of movement data ( 310 ), surface data ( 312 ), sound data ( 314 ) and/or lighting data ( 316 ), and - a computing unit for evaluating parameterized control signals ( 116 ) of different degrees of freedom from a 3D input device ( 104 ) for generating movement data ( 310 ), surface data ( 312 ), sound data ( 314 ) and/or lighting data ( 316 ) with the aid of the stored movement patterns ( 106 ), surface patterns ( 108 ), sound patterns ( 110 ) and/or lighting patterns ( 112 ), further comprising a free specification module ( 202 ) for the freely specifiable assignment of parameterized control signals ( 116 ) each of a degree of freedom to a specific movement pattern ( 106 ), surface pattern ( 108 ), sound pattern ( 110 ) and/or lighting pattern ( 112 ). 14. System nach Anspruch 13, dadurch gekennzeichnet, dass das Freispezifizierungsmodul (202) weiterhin die Zuordnung von zeitlichen Ableitungen der parametrisierten Ansteuersignale (116) zu einem bestimmten Bewegungsmuster (106), Oberflächenmuster (108), Klangmuster (110) und/oder Beleuchtungsmuster (112) ermöglicht. 14. System according to claim 13, characterized in that the free specification module ( 202 ) further enables the assignment of temporal derivatives of the parameterized control signals ( 116 ) to a specific movement pattern ( 106 ), surface pattern ( 108 ), sound pattern ( 110 ) and/or lighting pattern ( 112 ). 15. System nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass das Freispezifizierungsmodul (202) eine frei spezifizierbare Einstellung von Kopplungsparametern der Zuordnung von parametrisierten Ansteuersignalen (116), wie zum Beispiel Dämpfung und Verstärkung, ermöglicht. 15. System according to claim 13 or 14, characterized in that the free specification module ( 202 ) enables a freely specifiable setting of coupling parameters of the assignment of parameterized control signals ( 116 ), such as attenuation and amplification. 16. System zur Echtzeit-Steuerung von akustischen Parametern digitalisierter Klangmuster (410), aufweisend: - einen Computer, dessen Steuereinheit (401) mit mindestens einem elektronischen Musikinstrument (402) über eine MIDI- Schnittstelle (404a + b) leitend verbunden ist und - ein 3D-Eingabegerät (104) zur Eingabe von parametrisierten Ansteuersignalen (116) wobei die digitalisierten Klangmuster (410) - im Speicher mindestens eines elektronischen Musikinstruments (402) digital gespeichert sind und - auf mindestens einem elektronischen Musikinstrument (402) generiert und abgespielt werden können, dadurch gekennzeichnet, dass einzelne oder mehrere akustische Parameter der digital gespeicherten Klangmuster (410) mittels durch ein Bewegen des 3D-Eingabegeräts (104) in Echtzeit erzeugt bzw. beeinflusst werden können. 16. System for real-time control of acoustic parameters of digitized sound patterns ( 410 ), comprising: - a computer whose control unit ( 401 ) is conductively connected to at least one electronic musical instrument ( 402 ) via a MIDI interface (404a + b) and - a 3D input device ( 104 ) for inputting parameterized control signals ( 116 ) where the digitized sound patterns ( 410 ) - are digitally stored in the memory of at least one electronic musical instrument ( 402 ) and - can be generated and played on at least one electronic musical instrument ( 402 ), characterized in that individual or multiple acoustic parameters of the digitally stored sound patterns ( 410 ) can be generated or influenced in real time by moving the 3D input device ( 104 ). 17. System nach Anspruch 16, dadurch gekennzeichnet, dass zur Erzeugung bzw. Beeinflussung einzelner oder mehrerer akustischer Parameter der digital gespeicherten Klangmuster (410) Steuerelemente, Tasten, Schalter, Drehknöpfe und/oder Schieberegler eines virtuellen Mischpults vorgesehen sind. 17. System according to claim 16, characterized in that control elements, buttons, switches, rotary knobs and/or sliders of a virtual mixing console are provided for generating or influencing individual or multiple acoustic parameters of the digitally stored sound patterns ( 410 ). 18. System nach Anspruch 17, dadurch gekennzeichnet, dass es sich bei den gesteuerten akustischen Parametern eines bestimmten digitalisierten Klangmusters (410) um Tonhöhen, Noten- bzw. Pausenwerte, Lautstärken, Tempi, Artikulationsanweisungen, Klangfarben, Pedal-, Vibrato-, Chorus-, Hall-, Oberton- und/oder andere Spezialeffekte handelt. 18. System according to claim 17, characterized in that the controlled acoustic parameters of a particular digitized sound pattern ( 410 ) are pitches, note or rest values, volumes, tempos, articulation instructions, timbres, pedal, vibrato, chorus, reverb, overtone and/or other special effects. 19. System nach einem der Ansprüche 16 bis 18, dadurch gekennzeichnet, dass zeitliche Ableitungen der parametrisierten Ansteuersignale (116) ermittelt und verarbeitet werden können. 19. System according to one of claims 16 to 18, characterized in that time derivatives of the parameterized control signals ( 116 ) can be determined and processed. 20. System nach einem der Ansprüche 16 bis 19, dadurch gekennzeichnet, dass die Zuordnung von parametrisierten Ansteuersignalen (116) jeweils eines Freiheitsgrads zu einem oder mehreren Parametern eines bestimmten digitalisierten Klangmusters (410) frei spezifizierbar ist. 20. System according to one of claims 16 to 19, characterized in that the assignment of parameterized control signals ( 116 ) each having a degree of freedom to one or more parameters of a specific digitized sound pattern ( 410 ) can be freely specified. 21. System zur Echtzeit-Steuerung von akustischen Parametern digitalisierter Klangmuster (512), aufweisend: - einen Computer, dessen Steuereinheit (501) mit mindestens einer Sound-Karte (510) sowie mit mindestens einem Tongenerator (502) verbunden ist und - ein 3D-Eingabegerät (104) zur Eingabe von parametrisierten Ansteuersignalen (116) für die Echtzeit-Bewegungssteuerung von Objekten, wobei die digitalisierten Klangmuster (512) - im Speicher mindestens einer Sound-Karte (510) des Computers digital gespeichert sind und - auf mindestens einem Tongenerator (502) desselben Computers generiert und abgespielt werden können, dadurch gekennzeichnet, dass einzelne oder mehrere akustische Parameter der digital gespeicherten Klangmuster (512) durch ein Bewegen des 3D- Eingabegeräts (104) in Echtzeit erzeugt bzw. beeinflusst werden können. 21. System for real-time control of acoustic parameters of digitized sound patterns ( 512 ), comprising: - a computer whose control unit ( 501 ) is connected to at least one sound card ( 510 ) and to at least one sound generator ( 502 ) and - a 3D input device ( 104 ) for inputting parameterized control signals ( 116 ) for real-time motion control of objects, where the digitized sound patterns ( 512 ) - are digitally stored in the memory of at least one sound card ( 510 ) of the computer and - can be generated and played on at least one sound generator ( 502 ) of the same computer, characterized in that individual or multiple acoustic parameters of the digitally stored sound patterns ( 512 ) can be generated or influenced in real time by moving the 3D input device ( 104 ). 22. System nach Anspruch 21, dadurch gekennzeichnet, dass weiterhin zeitliche Ableitungen der parametrisierten Ansteuersignale (116) einem oder mehreren Parametern eines bestimmten digitalisierten Klangmusters (512) zugeordnet werden können. 22. System according to claim 21, characterized in that temporal derivatives of the parameterized control signals ( 116 ) can be assigned to one or more parameters of a specific digitized sound pattern ( 512 ). 23. System nach einem der Ansprüche 21 oder 22, dadurch gekennzeichnet, dass Kopplungsparameter der Zuordnung von parametrisierten Ansteuersignalen (116) frei spezifizierbar sind. 23. System according to one of claims 21 or 22, characterized in that coupling parameters of the assignment of parameterized control signals ( 116 ) can be freely specified. 24. System zur Echtzeit-Steuerung von akustischen Parametern digital aufgezeichneter Klangmuster (410 bzw. 512), die - im Speicher mindestens einer Sound-Karte (510) eines Computers und/oder mindestens eines elektronischen Musikinstruments (402) nach dem MIDI-Standard digital gespeichert sind und wobei die Steuereinheit (401 bzw. 501) des Computers - mit mindestens einer Sound-Karte (510) und mindestens einem Tongenerator (502) bzw. mit mindestens einem elektronischen Musikinstrument (402) über eine MIDI-Schnittstelle (404a + b bzw. 504a + b) leitend verbunden ist und - mit einem 3D-Eingabegerät (104) zur Eingabe von parametrisierten Ansteuersignalen (116) zur Echtzeit-Bewegungssteuerung virtueller Objekte leitend verbunden ist, dadurch gekennzeichnet, dass einzelne oder mehrere akustische Parameter der digital gespeicherten Klangmuster (410 bzw. 512) mittels Steuerung der virtuellen Objekte durch ein Bewegen des 3D-Eingabegeräts (104) in Echtzeit erzeugbar bzw. änderbarsind. 24. System for real-time control of acoustic parameters of digitally recorded sound patterns ( 410 or 512 ), which - are digitally stored in the memory of at least one sound card ( 510 ) of a computer and/or at least one electronic musical instrument ( 402 ) according to the MIDI standard and wherein the control unit ( 401 or 501 ) of the computer - is conductively connected to at least one sound card ( 510 ) and at least one tone generator ( 502 ) or to at least one electronic musical instrument ( 402 ) via a MIDI interface (404a + b or 504a + b) and - is conductively connected to a 3D input device ( 104 ) for inputting parameterized control signals ( 116 ) for real-time motion control of virtual objects, characterized in that individual or multiple acoustic parameters of the digitally stored sound patterns ( 410 or 512 ) can be generated or changed in real time by controlling the virtual objects by moving the 3D input device ( 104 ). 25. System nach Anspruch 24, dadurch gekennzeichnet, dass es sich bei den virtuellen Objekten, die zur Erzeugung bzw. Beeinflussung einzelner oder mehrerer akustischer Parameter der digital gespeicherten Klangmuster (410 bzw. 512) bewegt werden, um die Steuerelemente, Tasten, Schalter, Drehknöpfe und/oder Schieberegler eines virtuellen Mischpults handelt. 25. System according to claim 24, characterized in that the virtual objects which are moved to generate or influence individual or multiple acoustic parameters of the digitally stored sound patterns ( 410 or 512 ) are the control elements, buttons, switches, knobs and/or sliders of a virtual mixing console. 26. System nach einem der Ansprüche 24 oder 25, dadurch gekennzeichnet, dass es sich bei den gesteuerten akustischen Parametern eines bestimmten digitalisierten Klangmusters (410 bzw. 512) um Tonhöhen, Noten- bzw. Pausenwerte, Lautstärken, Tempi, Artikulationsanweisungen, Klangfarben, Pedal-, Vibrato-, Chorus-, Hall-, Oberton- und/oder andere Spezialeffekte handelt. 26. System according to one of claims 24 or 25, characterized in that the controlled acoustic parameters of a specific digitized sound pattern ( 410 or 512 ) are pitches, note or rest values, volumes, tempos, articulation instructions, timbres, pedal, vibrato, chorus, reverb, overtone and/or other special effects. 27. System nach einem der Ansprüche 24 bis 26, dadurch gekennzeichnet, dass Kopplungsparameter der Zuordnung von parametrisierten Ansteuersignalen (116) frei spezifizierbar sind. 27. System according to one of claims 24 to 26, characterized in that coupling parameters of the assignment of parameterized control signals ( 116 ) can be freely specified.
DE20121798U 2000-09-13 2001-08-13 Method for real-time control of a jointed object in which an object is controlled via use of a virtual object in a computer program representing a real object Expired - Lifetime DE20121798U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE20121798U DE20121798U1 (en) 2000-09-13 2001-08-13 Method for real-time control of a jointed object in which an object is controlled via use of a virtual object in a computer program representing a real object

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10045117A DE10045117C2 (en) 2000-09-13 2000-09-13 Method and device for real-time geometry control
DE20121798U DE20121798U1 (en) 2000-09-13 2001-08-13 Method for real-time control of a jointed object in which an object is controlled via use of a virtual object in a computer program representing a real object
EP01980243A EP1319207A2 (en) 2000-09-13 2001-08-13 Freely specifiable real-time control

Publications (1)

Publication Number Publication Date
DE20121798U1 true DE20121798U1 (en) 2003-08-28

Family

ID=27806037

Family Applications (1)

Application Number Title Priority Date Filing Date
DE20121798U Expired - Lifetime DE20121798U1 (en) 2000-09-13 2001-08-13 Method for real-time control of a jointed object in which an object is controlled via use of a virtual object in a computer program representing a real object

Country Status (1)

Country Link
DE (1) DE20121798U1 (en)

Similar Documents

Publication Publication Date Title
EP1319207A2 (en) Freely specifiable real-time control
US5952599A (en) Interactive music generation system making use of global feature control by non-musicians
Serafin et al. Virtual reality musical instruments: State of the art, design principles, and future directions
Hunt et al. The importance of parameter mapping in electronic instrument design
DE10129326B4 (en) Information processing system with a graphical user interface controllable by a voice recognition device and thus equipped musical instrument
DE69818210T2 (en) Device and method for generating sound and images based on a performance file.
DE10004372B4 (en) Design of sensations of strength for computer applications with noises
Schneider et al. Studying design process and example use with Macaron, a web-based vibrotactile effect editor
Mulder Virtual musical instruments: Accessing the sound synthesis universe as a performer
Iazzetta Meaning in musical gesture
Fels Intimacy and embodiment: implications for art and technology
US20110191674A1 (en) Virtual musical interface in a haptic virtual environment
Ciciliani Virtual 3D environments as composition and performance spaces
John et al. AdapTics: A Toolkit for Creative Design and Integration of Real-Time Adaptive Mid-Air Ultrasound Tactons
Magnusson Affordances and constraints in screen-based musical instruments
Willemsen et al. Resurrecting the tromba marina: A bowed virtual reality instrument using haptic feedback and accurate physical modelling
DE20121798U1 (en) Method for real-time control of a jointed object in which an object is controlled via use of a virtual object in a computer program representing a real object
Goto Virtual musical instruments: Technological aspects and interactive performance issues
JP3978506B2 (en) Music generation method
Vertegaal An Evaluation of input devices for timbre space navigation
Waisvisz Riding the sphinx—lines about ‘live’
CN111862911A (en) Song instant generation method and song instant generation device
Franco et al. Issues for Designing a flexible expressive audiovisual system for real-time performance & composition
Naseck et al. Physical Manifestation of Generative AI Music Systems for Live Performance
Sheridan Musings on music making and listening: supervisory control and virtual reality

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20031002

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20041223

R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20071128

R158 Lapse of ip right after 8 years

Effective date: 20100302