[go: up one dir, main page]

DE102004046144A1 - Augmented reality system used for planning a production plant layout has camera system to enter units into a central controller where they are combined and then stored in data base - Google Patents

Augmented reality system used for planning a production plant layout has camera system to enter units into a central controller where they are combined and then stored in data base Download PDF

Info

Publication number
DE102004046144A1
DE102004046144A1 DE200410046144 DE102004046144A DE102004046144A1 DE 102004046144 A1 DE102004046144 A1 DE 102004046144A1 DE 200410046144 DE200410046144 DE 200410046144 DE 102004046144 A DE102004046144 A DE 102004046144A DE 102004046144 A1 DE102004046144 A1 DE 102004046144A1
Authority
DE
Germany
Prior art keywords
image
dimensional
camera
data set
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE200410046144
Other languages
German (de)
Inventor
Fabian Doil
Stefan Nölle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE200410046144 priority Critical patent/DE102004046144A1/en
Publication of DE102004046144A1 publication Critical patent/DE102004046144A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

An augmented reality system is used for planning of a production environment (1) and this uses a camera system (10) to enter units into a central controller (2) where they are combined and then installed in a data base (8). The objects (20) are represented as 3D elements that can be manipulated and organised for output to a display (4).

Description

Die Erfindung betrifft ein System, insbesondere ein Augmented Reality System zum Planen einer Produktionsumgebung, mit den im Oberbegriff des Anspruchs 1 genannten Merkmalen sowie ein Verfahren zum Planen einer Produktionsumgebung mit den im Oberbegriff des Anspruchs 7 genannten Merkmalen.The The invention relates to a system, in particular an augmented reality System for planning a production environment, in the preamble of the Claim 1 features and a method for planning a Production environment with the features mentioned in the preamble of claim 7.

Aus der DE 101 28 015 A1 ist ein Verfahren und System zum Planen einer veränderten Produktionsumgebung, insbesondere einer Fertigungsumgebung für Fahrzeugkomponenten bekannt. Das System ist ein Augmented Reality System, welches Planungsergebnisse, beispielsweise geplante Anlagen oder Roboter einer realen Umgebung überlagern kann. Dazu weist das System ein Head-mounted-Display auf, welches bei Anwendung von einem Benutzer getragen werden kann, welcher mit dem System eine Kollisionsanalyse geplanter Fertigungsanlagen mit einer realen Umgebung, beispielsweise einem Produktionsraum, durchführen kann.From the DE 101 28 015 A1 A method and system for planning a changed production environment, in particular a manufacturing environment for vehicle components, is known. The system is an augmented reality system that can superimpose planning results, such as planned plants or robots, on a real environment. For this purpose, the system has a head-mounted display, which can be worn in use by a user who can perform with the system a collision analysis of planned production facilities with a real environment, such as a production room.

Dieses System hat den Nachteil, dass ein solches System zum Planen von Fertigungsanlagen in der realen Fertigungsumgebung eingesetzt werden muss. Dazu notwendige mobile Rechner sind entsprechend leistungsschwach und bewirken Einschränkungen, beispielsweise in der Auflösung beziehungsweise Ergonomie eines Visualisierungssystems, beispielsweise eines Monitors oder Head-mounted-Displays. Der Benutzer muss vor Ort sein und trägt das Visualisierungsgerät sowie den mobilen Rechner bei sich.This System has the disadvantage that such a system for planning Manufacturing equipment used in the real manufacturing environment got to. Required mobile computers are correspondingly underachieving and cause limitations for example, in the resolution or ergonomics of a visualization system, for example a monitor or a head-mounted display. The user must be in front Be and take place the visualization device as well as the mobile computer with you.

Der Erfindung liegt somit die Aufgabe zugrunde, ein System zum Planen einer Produktionsumgebung anzugeben, welches eine einfachere Kontrolle einer Positionierung geplanter Fertigungsanlagen in einem Raum beziehungsweise eine Kollisionsanalyse ermöglicht.Of the Invention is therefore the object of a system for planning specify a production environment, which provides easier control positioning of planned production facilities in a room or allows a collision analysis.

Diese Aufgabe wird durch ein System der eingangs genannten Art gelöst, wobei das System eine mit der Überlagerungseinheit wirkverbundene Ermittlungseinheit aufweist, welche ausgebildet ist, zum perspektivischen Überlagern des Objekt-Datensatzes aus dem Bild-Datensatz eine Erfassungsrichtung und -position zu ermitteln, aus der die durch den Bild-Datensatz repräsentierte Abbildung erfasst worden ist.These The object is achieved by a system of the type mentioned, wherein the system one with the overlay unit having operatively connected determination unit, which is designed for Perspective overlay of the object record from the image record a detection direction and position to determine from which by the image record represented Figure has been captured.

Dadurch wird vorteilhaft eine Planung einer Fertigungsanlage mit einem stationären Planungssystem ermöglicht. Das Erfassen einer zweidimensionalen Abbildung eines Raumes, beispielsweise einer Fabrikhalle, kann vorteilhaft mit einer Kamera, beispielsweise einer CCD-Kamera (CCD = Charge Coupled Device), erfolgen. Ein Datensatz, welcher eine zweidimensionale Abbildung repräsentiert, weist eine Vielzahl von Bildpunkten auf, wobei jeder Bildpunkt beispielsweise einen Helligkeitswert oder zusätzlich einen Farbwert repräsentiert.Thereby Advantageously, a planning of a production plant with a stationary planning system allows. The capture of a two-dimensional image of a room, for example a factory floor, can be beneficial with a camera, for example a CCD camera (CCD = Charge Coupled Device), done. A record, which represents a two-dimensional map has a plurality of pixels, each pixel for example a Brightness value or in addition represents a color value.

In einer bevorzugten Ausführungsform weist das System eine Ermittlungseinheit auf, welche ausgebildet ist, die Erfassungsrichtung und -position anhand von in der Abbildung dargestellten Raumgeometrien zu ermitteln.In a preferred embodiment the system has a determination unit, which is formed is, the detection direction and position based on in the figure To determine the spatial geometries shown.

In dieser Ausführungsform sind beispielsweise Raumabmessungen eines zu erfassenden Raumes vorgebbar. In dieser Ausführungsform kann die Ermittlungseinheit beispielsweise vorteilhaft ausgebildet sein, die Erfassungsrichtung und -position anhand eines in der Abbildung dargestellten Neigungswinkels von Raumgeometrien zu ermitteln.In this embodiment are, for example, dimensions of a space to be detected predetermined. In this embodiment For example, the determination unit can be advantageously designed be, the detection direction and position using one in the figure to determine the angle of inclination of spatial geometries.

Bevorzugt ist die Ermittlungseinheit ausgebildet, in der Abbildung dargestellte Raumgeometrien zu erfassen und die Erfassungsrichtung und -position, aus der die durch den Bild-Datensatz repräsentierte Abbildung erfasst worden ist, anhand wenigstens einer von in der Abbildung dargestellten Raumgeometrie zu ermitteln. Dazu kann die Ermittlungseinheit eine Raumgeometrie-Erfassungseinheit aufweisen, welche ausgebildet ist, Raumgeometrien, beispielsweise Kanten eines Raumes, durch eine Kontrasterfassung und anschließende Bildung von Spline-Kurven oder Bezier-Kurven nachzubilden. Dadurch braucht vorteilhaft keine Markierung zum Kalibrieren der Ermittlungseinheit in dem Raum angebracht werden.Prefers the determination unit is formed, as shown in the figure To capture spatial geometries and the detection direction and position, from the the through the image record represented Figure has been recorded, based on at least one of in the Figure space geometry to determine. This can be the Determining unit have a space geometry detection unit, which is formed, spatial geometries, such as edges of a Room, through a contrast detection and subsequent education of spline curves or Bezier curves. This needs advantageously no marking for calibrating the determination unit be installed in the room.

Unabhängig von der vorbeschriebenen Ausführungsform mit einer Erfassung von Raumgeometrien, ist in einer bevorzugten Ausführungsform die Ermittlungseinheit ausgebildet, eine in der Abbildung enthaltene vorbestimmte Markierung zu erfassen und die Erfassungsrichtung und -position in Abhängigkeit der Markierung zu bestimmen.Independent of the above-described embodiment with a detection of spatial geometries, is in a preferred embodiment the determination unit is formed, one included in the figure to detect predetermined mark and the detection direction and position depending on to determine the mark.

Dadurch kann vorteilhaft bei vorbekannten Abmessungen der Markierung ein Abstandswert von einer Erfassungsvorrichtung, bevorzugterweise einer zum Erfassen ausgebildeten Kamera, zur Markierung bestimmt werden.Thereby can be advantageous in known dimensions of the mark Distance value from a detection device, preferably one for Capture trained camera, to be designated for marking.

Weiter bevorzugt ist die Ermittlungseinheit ausgebildet, eine Markierung mit einem vorbestimmten geometrischen Muster zu erfassen. Dadurch kann vorteilhaft wenigstens ein Erfassungswinkel einer durch die Kamera und die Markierung verlaufenden Achse und einer zu einer beispielsweise Planenmarkierung parallelen Ebene bestimmt werden.Further Preferably, the determination unit is formed, a mark to capture with a predetermined geometric pattern. This can advantageously at least one detection angle of the camera and the mark extending axis and one to an example Plan marker parallel plane to be determined.

Dazu kann die Ermittlungseinheit beispielsweise ausgebildet sein, eine perspektivische Verzeichnung eines vorbestimmten geometrischen Musters zu erfassen.To For example, the determination unit can be designed, one perspective distortion of a predetermined geometric pattern capture.

Ein System der vorbezeichneten Art kann beispielsweise mit der Kamera wirkverbunden sein, wobei die Kamera ausgebildet ist, von einem Objekt ausgesendete oder reflektierte elektromagnetische Strahlung zu erfassen, und die Kamera weiter ausgebildet ist, den eine Abbildung repräsentierenden zweidimensionalen Bild-Datensatz zu erzeugen.One For example, the system of the type described above can be used with the camera be operatively connected, the camera is formed by a Object emitted or reflected electromagnetic radiation to capture, and the camera is further formed, the one picture representing two-dimensional Create image record.

Eine solche Kamera ist beispielsweise eine CCD-Kamera. In einer vorteilhaften Ausführungsvariante ist die Kamera eine 3D-Kamera, beispielsweise eine Strahlungspulslaufzeitkamera oder eine stereoskopische Kamera. Die 3D-Kamera ist ausgebildet, einen eine Abbildung repräsentierenden zweidimensionalen Datensatz mit einer Vielzahl von Bildpunkten zu erzeugen, wobei jeder Bildpunkt einen Abstandswert repräsentiert. Eine Strahlungspulslaufzeitkamera weist einen Sender für elektromagnetische Strahlung, insbesondere wenigstens einen elektromagnetischen Strahlungspuls, und einen eine Vielzahl von Empfängerelementen aufweisenden Empfänger für elektromagnetische Strahlung, wobei jedes Empfängerelement einen Bildpunkt einer Abbildung repräsentiert. Die Strahlungspulslaufzeitkamera ist ausgebildet, für jedes Empfängerelement einen Abstandwert von der Kamera zu dem Objekt anhand einer Pulslaufzeit des elektromagnetischen Sendepulses zu erfassen. Durch den Einsatz einer 3D- Kamera kann die Zahl anzubringender Markierungen vorteilhaft reduziert werden.A such camera is for example a CCD camera. In an advantageous variant the camera is a 3D camera, for example a radiation pulse transit time camera or a stereoscopic camera. The 3D camera is trained, a an illustration representing two-dimensional data set with a variety of pixels too generate, each pixel represents a distance value. A radiation pulse transit time camera has a transmitter for electromagnetic Radiation, in particular at least one electromagnetic radiation pulse, and a plurality of receiver elements having a recipient for electromagnetic Radiation, each receiver element represents a pixel of an image. The radiation pulse transit time camera is trained for each receiver element a distance from the camera to the object based on a pulse duration to detect the electromagnetic transmission pulse. Because of the engagement For a 3D camera, the number of markings to be attached may be advantageous be reduced.

Die Erfindung betrifft auch ein Verfahren zum Planen einer Produktionsumgebung, insbesondere einer Produktionsumgebung für Automobilteile oder für Automobile, welches die folgenden Verfahrensschritte aufweist:

  • – Erzeugen eines Objekt-Datensatzes, welcher ein zu planendes, insbesondere dreidimensionales Objekt repräsentiert,
  • – Überlagern des Objekt-Datensatzes mit einem Bild-Datensatz in einer räumlichen Darstellung, wobei der Bild-Datensatz eine zweidimensionale Abbildung, insbesondere eine zweidimensionalen Abbildung eines Raumes repräsentiert,
  • – Ermitteln einer Erfassungsrichtung und -position aus dem Bild-Datensatz, aus welcher die durch den Bild-Datensatz repräsentierte Abbildung erfasst worden ist, zum perspektivischen Überlagern des Objektes.
The invention also relates to a method for planning a production environment, in particular a production environment for automobile parts or for automobiles, which comprises the following method steps:
  • Generating an object data record which represents an object to be planned, in particular a three-dimensional object,
  • Superposition of the object data record with a picture data record in a spatial representation, wherein the picture data record represents a two-dimensional picture, in particular a two-dimensional picture of a room,
  • - Determining a detection direction and position from the image data set, from which the image represented by the image data record has been detected, for perspective superimposition of the object.

Dadurch kann das zu planende Objekt vorteilhaft perspektivisch korrekt in der Abbildung eines Raumes platziert werden.Thereby can the object to be planned advantageously in perspective correctly the illustration of a room.

Bevorzugt weist das Verfahren den Schritt auf:

  • – Sichtbares Darstellen des Objektes, beispielsweise durch eine Bildwiedergabeeinheit, insbesondere durch einen Monitor, ein TFT-Display oder einen Bildprojektor.
Preferably, the method comprises the step:
  • - Visible presentation of the object, for example by an image display unit, in particular by a monitor, a TFT display or an image projector.

Weiter bevorzugt umfasst das Verfahren den folgenden Verfahrensschritt:

  • – Ermitteln der Erfassungsrichtung und -position anhand von in der Abbildung enthaltenen Raumgeometrien.
More preferably, the method comprises the following method step:
  • - Determining the detection direction and position based on the room geometries shown in the figure.

Dadurch kann vorteilhaft eine Erfassungsrichtung und -position anhand einer Abbildung ermittelt werden, welche keine Markierung enthält.Thereby can advantageously a detection direction and position based on a Figure to be determined, which contains no mark.

Unabhängig von dem Ermitteln einer Erfassungsrichtung und -position anhand von in der Abbildung enthaltenen Raumgeometrien kann ein Verfahren die folgenden Verfahrensschritte aufweisen:

  • – Erfassen einer in der Abbildung enthaltenen vorbestimmten Markierung,
  • – Ermitteln der Erfassungsrichtung und -position in Abhängigkeit der erfassten Markierung.
Regardless of determining a detection direction and position based on spatial geometries shown in the figure, a method may comprise the following method steps:
  • Detecting a predetermined mark included in the figure,
  • - Determining the detection direction and position depending on the detected marking.

Bevorzugt weist ein Verfahren der vorbezeichneten Art den folgenden Verfahrensschritt auf:

  • – Erfassen einer Markierung, welche ein vorbestimmtes geometrisches Muster repräsentiert.
Preferably, a method of the type described above has the following method step:
  • - detecting a mark representing a predetermined geometric pattern.

Weiter vorteilhaft kann ein Verfahren den Schritt aufweisen:

  • – Erfassen einer perspektivischen Verzeichnung eines vorbestimmten geometrischen Musters.
Further advantageously, a method can include the step:
  • - Detecting a perspective distortion of a predetermined geometric pattern.

Die Erfindung wird nun im Folgenden anhand von Ausführungsbeispielen und einer Figur, die ein Ausführungsbeispiel eines als Augmented Reality System ausgebildetes System zum Planen einer Produktionsumgebung zeigt, näher erläutert.The Invention will now be described below with reference to embodiments and a FIGURE, which is an embodiment a system designed as an augmented reality system for planning a production environment shows, explained in more detail.

Das System 1 weist eine zentrale Steuereinheit 2, eine Bildwiedergabeeinheit 4, eine Benutzerschnittstelle 6, eine Speichereinheit 8, eine Kamera 10, einen Eingang 12 für ein Kamerasignal der Kamera 10, eine Überlagerungseinheit 14 und eine Ermittlungseinheit 16 auf.The system 1 has a central control unit 2 , an image display unit 4 , a user interface 6 , a storage unit 8th , a camera 10 , an entrance 12 for a camera signal from the camera 10 , an overlay unit 14 and a determination unit 16 on.

Die Überlagerungseinheit 14 und die Ermittlungseinheit 16 können jeweils in der zentralen Steuereinheit 2 enthalten sein. Die zentrale Steuereinheit 2 kann ein Steuerprogramm aufweisen, welches die Überlagerungseinheit 14 und die Ermittlungseinheit 16 bildet.The overlay unit 14 and the discovery unit 16 can each be in the central control unit 2 be included. The central control unit 2 may have a control program which the overlay unit 14 and the discovery unit 16 forms.

Die Kamera 10 ist ausgebildet, von einem Raum ausgesendete reflektierte elektromagnetische Strahlung zu erfassen und einen eine Abbildung des Gegenstandes repräsentierenden zweidimensionalen Bild-Datensatz zu erzeugen und ausgangsseitig ein Kamerasignal auszugeben, welches dem Bild-Datensatz entspricht. Die Kamera 10 ist ausgangsseitig über eine Verbindungsleitung 32 mit einem Eingang 12 des Systems 1 für das Kamerasignal verbunden.The camera 10 is configured to detect reflected electromagnetic radiation emitted by a space and to generate a two-dimensional image data record representing an image of the object and on the output side output a camera signal corresponding to the image data set. The camera 10 is on the output side via a connecting line 32 with an entrance 12 of the system 1 connected for the camera signal.

Die Ermittlungseinheit 16 ist eingangsseitig über eine Verbindungsleitung 30 mit dem Eingang 12 für das Kamerasignal verbunden. Hierbei ist möglich, die Bilder der Kamera 10 entweder direkt oder nicht direkt in das System zu laden. Bei nicht direkter Ladung der Bilder können diese zunächst auf eine Speichereinheit beziehungsweise Datenbank abgelegt werden. Hierzu kann beispielsweise die Speichereinheit 8 dienen.The determination unit 16 is on the input side via a connecting line 30 with the entrance 12 connected for the camera signal. This is possible, the pictures of the camera 10 either directly or not directly into the system to load. If the images are not directly loaded, they can first be stored on a storage unit or database. For this purpose, for example, the memory unit 8th serve.

Die Ermittlungseinheit 16 ist ausgebildet, eingangsseitig das dem Bild-Datensatz entsprechende Kamerasignal zu empfangen und aus dem Bild-Datensatz eine Erfassungsrichtung und -position zu ermitteln, aus der die durch den Bild-Datensatz repräsentierte Abbildung erfasst worden ist. Dazu ist die Ermittlungseinheit 16 ausgebildet, eine in der Abbildung dargestellte, und somit wenigstens teilweise durch den Bild-Datensatz repräsentierte, vorbestimmte Markierung 34 zu erfassen, welche ein vorbestimmtes geometrisches Muster enthält.The determination unit 16 is configured to receive on the input side the camera signal corresponding to the image data set and to determine from the image data set a detection direction and position from which the image represented by the image data record has been detected. This is the determination unit 16 formed, one shown in the figure, and thus at least partially represented by the image data set, predetermined mark 34 to detect which contains a predetermined geometric pattern.

1a zeigt die Markierung 34, welche ein geometrisches Muster, in diesem Ausführungsbeispiel ein Kreuz, aufweist. Das Kreuz ist ausgebildet, elektromagnetische Strahlung mit einem vorbestimmten Wellenbereich wenigstens teilweise zu absorbieren, wohingegen ein Hintergrund der Markierung 34 ausgebildet ist, die elektromagnetische Strahlung mit vorbestimmtem Wellenlängenbereich wenigstens teilweise zu reflektieren. 1a shows the mark 34 which has a geometric pattern, in this embodiment, a cross. The cross is designed to at least partially absorb electromagnetic radiation having a predetermined wavelength range, whereas a background of the mark 34 is formed to at least partially reflect the electromagnetic radiation having a predetermined wavelength range.

Die zentrale Steuereinheit 2 kann ausgebildet sein, einen Objekt-Datensatz 20 zu erzeugen, welcher ein zu positionierendes, dreidimensionales Objekt repräsentiert. Die zentrale Steuereinheit 2 ist über einen Daten-Bus 18 mit der Speichereinheit 8 verbunden. Die zentrale Steuereinheit 2 kann den erzeugten Objekt-Datensatz 20 über den Daten-Bus 18 in der Speichereinheit 8 abspeichern. Dargestellt sind in der Speichereinheit 8 abgespeicherte Objekt-Datensätze 20. Die zentrale Steuereinheit 2 kann einen, beispielsweise von der Steuereinheit 2 erzeugten und abgespeicherten, Objekt-Datensatz 20 aus der Speichereinheit 8 über den Daten-Bus 18 auslesen und über eine Verbindungsleitung 28 an die Überlagerungseinheit 14 senden.The central control unit 2 can be formed, an object record 20 which represents a three-dimensional object to be positioned. The central control unit 2 is over a data bus 18 with the storage unit 8th connected. The central control unit 2 can the generated object record 20 over the data bus 18 in the storage unit 8th save. Shown in the memory unit 8th stored object records 20 , The central control unit 2 can one, for example from the control unit 2 generated and stored object record 20 from the storage unit 8th over the data bus 18 read out and over a connecting line 28 to the overlay unit 14 send.

Die Überlagerungseinheit 14 ist eingangsseitig über die Verbindungsleitung 28 und den Datenbus 18 mit der Speichereinheit 8 und über die Verbindungsleitung 26 mit der Ermittlungseinheit 16 verbunden.The overlay unit 14 is on the input side via the connecting line 28 and the data bus 18 with the storage unit 8th and over the connection line 26 with the investigative unit 16 connected.

Die Überlagerungseinheit 14 kann einen über die Verbindungsleitung 28 empfangenen Objekt-Datensatz mit einem über die Verbindungsleitung 26 empfangenen Bild-Datensatz zu einer perspektivischen zweidimensionalen Darstellung überlagern und ein die perspektivische zweidimensionale Darstellung repräsentierendes Bildsignal erzeugen. Die Überlagerungseinheit 14 ist ausgangsseitig über eine Verbindungsleitung 24 mit der Bildwiedergabeeinheit 4 verbunden und ausgebildet, das Bildsignal an die Bildwiedergabeeinheit 4 zu senden.The overlay unit 14 can one over the connecting line 28 received object record with a via the connection line 26 superimpose a received image data set to a perspective two-dimensional representation and generate an image signal representing the perspective two-dimensional representation. The overlay unit 14 is on the output side via a connecting line 24 with the image display unit 4 connected and formed, the image signal to the image display unit 4 to send.

Die Bildwiedergabeeinheit 4 weist einen Eingang für das Bildsignal auf und kann die durch das Bildsignal repräsentierte zweidimensionale perspektivische Darstellung, beispielsweise die Darstellung einer Abbildung eines Raumes, sichtbar darstellen. Der zweidimensionalen perspektivischen Darstellung kann eine Abbildung eines Objektes überlagert sein.The image playback unit 4 has an input for the image signal and can visually represent the represented by the image signal two-dimensional perspective view, for example, the representation of an image of a room. The two-dimensional perspective view may be overlaid with an image of an object.

Die zentrale Steuereinheit 2 ist eingangsseitig über eine Verbindungsleitung 22 mit einer Benutzerschnittstelle 6 verbunden.The central control unit 2 is on the input side via a connecting line 22 with a user interface 6 connected.

Die Benutzerschnittstelle 6 kann in Abhängigkeit von einer Benutzerinteraktion ein Benutzerinteraktionssignal erzeugen. Beispielhafte Ausführungsformen für eine Benutzerschnittstelle 6 sind eine Tastatur oder eine berührungsempfindliche Oberfläche, welche ausgebildet ist, in Abhängigkeit von einer Berührung ein Benutzerinteraktionssignal zu erzeugen, welches einem Berührungsort der berührungsempfindlichen Oberfläche entspricht. Andere beispielhafte Ausführungsformen für eine Benutzerschnittstelleneinheit 6 sind eine Spracheingabeeinheit oder ein Joystick.The user interface 6 may generate a user interaction signal depending on user interaction. Exemplary Embodiments for a User Interface 6 are a keyboard or touch-sensitive surface configured to generate a user interaction signal corresponding to a touch location of the touch-sensitive surface in response to a touch. Other exemplary embodiments for a user interface unit 6 are a voice input unit or a joystick.

Die zentrale Steuereinheit 2 ist ausgebildet, den Objekt-Datensatz in Abhängigkeit von einem über die Verbindungsleitung 22 empfangenen Benutzerinteraktionssignal zu erzeugen oder in Abhängigkeit von einem Benutzerinteraktionssignal einen in der Speichereinheit 8 abgespeicherten Objekt-Datensatz 20 auszulesen. Die Überlagerungseinheit 14 kann ausgebildet sein, das Überlagern des Objekt-Datensatzes mit dem Bild-Datensatz in Abhängigkeit von einem über die Verbindungsleitung 22 empfangenen Benutzerinteraktionssignal durchzuführen.The central control unit 2 is formed, the object data set in dependence on one over the connecting line 22 received user interaction signal or in response to a user interaction signal in the memory unit 8th stored object record 20 read. The overlay unit 14 may be configured, the superimposition of the object data set with the image data set in dependence on a via the connecting line 22 to receive the received user interaction signal.

Die zentrale Steuereinheit 2 ist ferner über eine Verbindungsleitung 38 mit der Kamera 10 verbunden. Über diese Verbindungsleitung 38 kann die Kamera 10 gesteuert werden. Beispielsweise kann eine Konfiguration der Kamera 10 eingestellt werden und/oder diese ist über die Verbindungsleitung 38 auslösbar.The central control unit 2 is also via a connection line 38 with the camera 10 connected. About this connection line 38 can the camera 10 to be controlled. For example, a configuration of the camera 10 be set and / or this is via the connection line 38 triggered.

In diesem Ausführungsbeispiel ist durch die Bildwiedergabeeinheit 4 eine Abbildung eines Raumes sichtbar dargestellt, welcher eine Raumgeometrie mit den Raumgeometriekanten 36x, 36y und 36z aufweist. Eine Wand des Raumes liegt in einer durch die Raumgeometriekanten 36z und 36x aufgespannten Ebene. An der Wand ist eine Markierung 34 angebracht. Die Erfassungsrichtung und -position, aus welcher die Kamera 10 eine Abbildung des Rau mes erfasst hat, ist durch die Ermittlungseinheit 16 ermittelt worden, wobei die Ermittlungseinheit 16 die Markierung 34 erfasst hat.In this embodiment, by the image display unit 4 an illustration of a rough visibly represented, which a space geometry with the space geometry edges 36x . 36y and 36z having. A wall of the room lies in one through the space geometry edges 36z and 36x spanned level. There is a mark on the wall 34 appropriate. The detection direction and position from which the camera 10 an illustration of the rough measure has been detected by the investigator 16 has been determined, wherein the determination unit 16 the mark 34 has recorded.

11
Systemsystem
22
zentrale Steuereinheitcentral control unit
44
BildwiedergabeeinheitImage reproduction unit
66
BenutzerschnittstelleUser interface
88th
Speichereinheitstorage unit
1010
Kameracamera
1212
Eingang für ein Kamerasignalentrance for a camera signal
1414
ÜberlagerungseinheitOverlay unit
1616
Ermittlungseinheitdetermining unit
1818
Daten-BusData bus
2020
Datensätze, jeweils ein Objekt repräsentierendRecords, respectively representing an object
2222
Verbindungsleitungconnecting line
2424
Verbindungsleitungconnecting line
2626
Verbindungsleitungconnecting line
2828
Verbindungsleitungconnecting line
3030
Verbindungsleitungconnecting line
3232
Verbindungsleitungconnecting line
3434
Markierungmark
36x36x
RaumgeometriekanteChamber geometry edge
36y36y
RaumgeometriekanteChamber geometry edge
36z36z
RaumgeometriekanteChamber geometry edge
3838
Verbindungsleitungconnecting line

Claims (10)

System (1), insbesondere Augmented Reality System zum Planen einer Produktionsumgebung, wobei das System (1) eine Bildwiedergabeeinheit (4) mit einem Eingang für ein Bildsignal aufweist, und das System (1) eine mit der Bildwiedergabeeinheit (4) wirkverbundene Überlagerungseinheit (14) aufweist, welche ausgebildet ist, einen Objekt-Datensatz (20), welcher ein zu positionierendes, insbesondere dreidimensionales Objekt (20) repräsentiert, mit einem eine zweidimensionale Abbildung, insbesondere eine zweidimensionale Abbildung eines Raumes, repräsentierenden Bild-Datensatz zu einer perspektivischen zweidimensionalen Darstellung zu überlagern, und ein die perspektivische zweidimensionale Darstellung repräsentierendes Bildsignal zu erzeugen und dieses an die Bildwiedergabeeinheit (4) zu senden, dadurch gekennzeichnet, dass das System (1) eine mit der Überlagerungseinheit (14) wirkverbundene Ermittlungseinheit (16) aufweist, welche ausgebildet ist, zum perspektivischen Überlagern des Objekt-Datensatzes (20) aus dem Bild-Datensatz eine Erfassungsrichtung und -position zu ermitteln, aus der die durch den Bild-Datensatz repräsentierte Abbildung erfasst worden ist.System ( 1 ), in particular an augmented reality system for planning a production environment, wherein the system ( 1 ) an image display unit ( 4 ) with an input for an image signal, and the system ( 1 ) one with the image display unit ( 4 ) Actively connected superposition unit ( 14 ), which is formed, an object data set ( 20 ), which is a to be positioned, in particular three-dimensional object ( 20 ), with a two-dimensional image, in particular a two-dimensional image of a space, representing a superimposed image data set to a perspective two-dimensional representation, and to generate a perspective image representing the two-dimensional image signal and this to the image display unit ( 4 ), characterized in that the system ( 1 ) one with the overlay unit ( 14 ) Operational Investigation Unit ( 16 ), which is designed for perspective superimposition of the object data set ( 20 ) from the image data set to determine a detection direction and position from which the image represented by the image data record has been detected. System nach Anspruch 1, dadurch gekennzeichnet, dass die Ermittlungseinheit (16) ausgebildet ist, wenigstens eine in der Abbildung dargestellte Raumgeometrie (36x, 36, y, 36z) zu erfassen und die Erfassungsrichtung und -position, aus der die durch den Bild-Datensatz repräsentierte Abbildung erfasst worden ist, anhand wenigstens einer von in der Abbildung dargestellten Raumgeometrie (36x, 36, y, 36z) zu ermitteln.System according to claim 1, characterized in that the determination unit ( 16 ) is formed, at least one space geometry shown in the figure ( 36x . 36 , y, 36z ) and the detection direction and position from which the image represented by the image data record has been acquired, on the basis of at least one of the spatial geometries shown in FIG. 36x . 36 , y, 36z ) to investigate. System nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Ermittlungseinheit (16) ausgebildet ist, eine in der Abbildung dargestellte vorbestimmte Markierung (34) zu erfassen und die Erfassungsrichtung und -position in Abhängigkeit der Markierung (34) zu ermitteln.System according to claim 1 or 2, characterized in that the determination unit ( 16 ) is formed, a predetermined marking shown in the figure ( 34 ) and the detection direction and position as a function of the marking ( 34 ) to investigate. System nach Anspruch 3, dadurch gekennzeichnet, dass die Ermittlungseinheit (16) ausgebildet ist, eine Markierung (34) zu erfassen, welche ein vorbestimmtes geometrisches Muster aufweist.System according to claim 3, characterized in that the determination unit ( 16 ), a marking ( 34 ), which has a predetermined geometric pattern. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das System mit einer Kamera (10) wirkverbunden ist, welche ausgebildet ist, von einem Gegenstand, insbesondere einem Raum ausgesendete oder reflektierte elektromagnetische Strahlung zu erfassen und den eine Abbildung des Gegenstandes repräsentierenden zweidimensionalen Bild-Datensatz zu erzeugen.System according to one of the preceding claims, characterized in that the system with a camera ( 10 ), which is designed to detect electromagnetic radiation emitted or reflected by an object, in particular a room, and to generate the two-dimensional image data record representing an image of the object. System nach Anspruch 5, dadurch gekennzeichnet, dass die Kamera (10) eine 3D-Kamera, insbesondere eine Strahlungspulslaufzeit-Kamera ist, welche ausgebildet ist, von einem Gegenstand, insbesondere einem Raum ausgesendete oder reflektierte elektromagnetische Strahlung zu erfassen und einen eine Abbildung des Gegenstandes repräsentierenden zweidimensionalen Datensatz mit einer Vielzahl von Bildpunkten zu erzeugen, wobei jeder Bildpunkt einen Abstandswert repräsentiert.System according to claim 5, characterized in that the camera ( 10 ) is a 3D camera, in particular a radiation pulse transit time camera, which is designed to detect electromagnetic radiation emitted by an object, in particular a space, and to generate a two-dimensional data record with a multiplicity of pixels representing an image of the object, each one Pixel represents a distance value. Verfahren zum Planen einer Produktionsumgebung, umfassend die Verfahrensschritte: – Erzeugen eines zu planenden, insbesondere dreidimensionalen Objekt-Datensatzes (20), – Überlagern des Objekt-Datensatzes (20) mit einem eine zweidimensionale Abbildung, insbesondere eine zweidimensionale Abbildung eines Raumes, repräsentierenden Bild-Datensatz in einer räumlichen Darstellung, gekennzeichnet durch die Verfahrensschritte: – Ermitteln einer Erfassungsrichtung und -position aus dem Bild-Datensatz, aus welcher die durch den Bild-Datensatz repräsentierte Abbildung erfasst worden ist, zum perspektivischen Überlagern des zu planenden Objekts.Method for planning a production environment, comprising the method steps: - generating a to-be-planned, in particular three-dimensional object data record ( 20 ), - overlay the object data set ( 20 ) with a two-dimensional image, in particular a two-dimensional image of a space representing image record in a spatial representation, characterized by the method steps: - Determining a detection direction and position from the image data set from which represented by the image data set Figure has been captured, for perspective overlaying the to pla nenden object. Verfahren nach Anspruch 7, umfassend den folgenden Verfahrensschritt: – Ermitteln der Erfassungsrichtung und -position anhand von in der Abbildung enthaltenen Raumgeometrien.The method of claim 7, comprising the following Step: - Determine the detection direction and position based on in the figure contained spatial geometries. Verfahren nach Anspruch 7 oder 8, umfassend die folgenden Verfahrensschritte: – Erfassen einer in der Abbildung enthaltenen vorbestimmten Markierung (34), – Ermitteln der Erfassungsrichtung und -position in Abhängigkeit der erfassten Markierung (34).Method according to Claim 7 or 8, comprising the following method steps: detecting a predetermined marking (shown in the figure) ( 34 ), - determining the detection direction and position in dependence on the detected marking ( 34 ). Verfahren nach einem der Ansprüche 7 bis 9, umfassend den folgenden Verfahrensschritt: – Erfassen einer Markierung (34), welche ein vorbestimmtes geometrisches Muster repräsentiert.Method according to one of claims 7 to 9, comprising the following method step: - detecting a marking ( 34 ) representing a predetermined geometric pattern.
DE200410046144 2004-09-23 2004-09-23 Augmented reality system used for planning a production plant layout has camera system to enter units into a central controller where they are combined and then stored in data base Ceased DE102004046144A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE200410046144 DE102004046144A1 (en) 2004-09-23 2004-09-23 Augmented reality system used for planning a production plant layout has camera system to enter units into a central controller where they are combined and then stored in data base

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200410046144 DE102004046144A1 (en) 2004-09-23 2004-09-23 Augmented reality system used for planning a production plant layout has camera system to enter units into a central controller where they are combined and then stored in data base

Publications (1)

Publication Number Publication Date
DE102004046144A1 true DE102004046144A1 (en) 2006-03-30

Family

ID=36011569

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200410046144 Ceased DE102004046144A1 (en) 2004-09-23 2004-09-23 Augmented reality system used for planning a production plant layout has camera system to enter units into a central controller where they are combined and then stored in data base

Country Status (1)

Country Link
DE (1) DE102004046144A1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008059086A1 (en) * 2006-11-16 2008-05-22 The Movie Virtual, S.L. System and method for displaying an enhanced image by applying enhanced-reality techniques
DE102007033486A1 (en) 2007-07-18 2009-01-22 Metaio Gmbh Method and system for determining the position and orientation of a camera relative to a real object
DE102007045835A1 (en) 2007-09-25 2009-04-02 Metaio Gmbh Method and device for displaying a virtual object in a real environment
DE102007045834A1 (en) 2007-09-25 2009-04-02 Metaio Gmbh Method and device for displaying a virtual object in a real environment
DE102008005757A1 (en) 2008-01-24 2009-07-30 Volkswagen Ag Production plant e.g. passenger car production plant, layout planning method, involves expanding image of real part around virtual part of working environment having electronic data processing data
DE102009059797A1 (en) 2009-12-21 2011-06-22 Krauss-Maffei Wegmann GmbH & Co. KG, 80997 Optical marker and object detection device
WO2011116765A2 (en) 2010-03-24 2011-09-29 Krauss-Maffei Wegmann Gmbh & Co. Kg Method for training a crew member of, in particular, a military vehicle
US8659613B2 (en) 2008-03-14 2014-02-25 Metaio Gmbh Method and system for displaying an image generated by at least one camera
WO2020053032A1 (en) * 2018-09-13 2020-03-19 Thorsten Mika Virtual three-dimensional objects in a live video
US10796486B2 (en) 2017-07-05 2020-10-06 Textron Innovations, Inc. Augmented visualization for manufacturing
DE102020201375B3 (en) * 2020-02-05 2021-06-24 Magna Steyr Fahrzeugtechnik Ag & Co Kg Method for checking a safety area of a robot
DE112019007901B4 (en) * 2019-11-19 2025-02-06 Mitsubishi Electric Corporation INFORMATION PROCESSING DEVICE, CONTROL METHOD, CONTROL PROGRAM AND INFORMATION PROVISION SYSTEM

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6031941A (en) * 1995-12-27 2000-02-29 Canon Kabushiki Kaisha Three-dimensional model data forming apparatus
US20040114033A1 (en) * 2002-09-23 2004-06-17 Eian John Nicolas System and method for three-dimensional video imaging using a single camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6031941A (en) * 1995-12-27 2000-02-29 Canon Kabushiki Kaisha Three-dimensional model data forming apparatus
US20040114033A1 (en) * 2002-09-23 2004-06-17 Eian John Nicolas System and method for three-dimensional video imaging using a single camera

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
BALCISOY,Selim, et.al.: Interaction between Real and Virtual Humans in Augmented Reality. In: Proc. Computer Animation '97, 1997, S.31-38 *
BALCISOY,Selim, et.al.: Interaction between Real and Virtual Humans in Augmented Reality. In: Proc. Computer Animation '97, 1997, S.31-38;
Photorealistic Augmented Reality Tutorial, ISMAR 03, 7.-10.10.03 *
Photorealistic Augmented Reality Tutorial, ISMAR 03, 7.-10.10.03;
THALMANN,Nadia M., et.al.: Animating Virtual Actors in Real Environments. In: ACM Multimedia Systems, Springer, Vol.5, No.2, 1997, S.113-125 *
THALMANN,Nadia M., et.al.: Animating Virtual Actors in Real Environments. In: ACM Multimedia Systems, Springer, Vol.5, No.2, 1997, S.113-125;

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008059086A1 (en) * 2006-11-16 2008-05-22 The Movie Virtual, S.L. System and method for displaying an enhanced image by applying enhanced-reality techniques
DE102007033486B4 (en) * 2007-07-18 2010-06-17 Metaio Gmbh Method and system for mixing a virtual data model with an image generated by a camera or a presentation device
DE102007033486A1 (en) 2007-07-18 2009-01-22 Metaio Gmbh Method and system for determining the position and orientation of a camera relative to a real object
US9008371B2 (en) 2007-07-18 2015-04-14 Metaio Gmbh Method and system for ascertaining the position and orientation of a camera relative to a real object
US10665025B2 (en) 2007-09-25 2020-05-26 Apple Inc. Method and apparatus for representing a virtual object in a real environment
US9390560B2 (en) 2007-09-25 2016-07-12 Metaio Gmbh Method and device for illustrating a virtual object in a real environment
US11080932B2 (en) 2007-09-25 2021-08-03 Apple Inc. Method and apparatus for representing a virtual object in a real environment
DE102007045835A1 (en) 2007-09-25 2009-04-02 Metaio Gmbh Method and device for displaying a virtual object in a real environment
US10366538B2 (en) 2007-09-25 2019-07-30 Apple Inc. Method and device for illustrating a virtual object in a real environment
US10043315B2 (en) 2007-09-25 2018-08-07 Apple Inc. Method and apparatus for representing a virtual object in a real environment
DE102007045834A1 (en) 2007-09-25 2009-04-02 Metaio Gmbh Method and device for displaying a virtual object in a real environment
US9165405B2 (en) 2007-09-25 2015-10-20 Metaio Gmbh Method and device for illustrating a virtual object in a real environment
DE102008005757A1 (en) 2008-01-24 2009-07-30 Volkswagen Ag Production plant e.g. passenger car production plant, layout planning method, involves expanding image of real part around virtual part of working environment having electronic data processing data
US8659613B2 (en) 2008-03-14 2014-02-25 Metaio Gmbh Method and system for displaying an image generated by at least one camera
WO2011076200A1 (en) 2009-12-21 2011-06-30 Krauss-Maffei Wegmann Gmbh & Co. Kg Optical marker and object detecting device
DE102009059797A1 (en) 2009-12-21 2011-06-22 Krauss-Maffei Wegmann GmbH & Co. KG, 80997 Optical marker and object detection device
US9202385B2 (en) 2010-03-24 2015-12-01 Krauss-Maffei Wegmann Gmbh & Co. Kg Method for training a crew member of a, in particular, military vehicle
DE102010016113A1 (en) 2010-03-24 2011-09-29 Krauss-Maffei Wegmann Gmbh & Co. Kg Method for training a crew member of a particular military vehicle
WO2011116765A2 (en) 2010-03-24 2011-09-29 Krauss-Maffei Wegmann Gmbh & Co. Kg Method for training a crew member of, in particular, a military vehicle
US10796486B2 (en) 2017-07-05 2020-10-06 Textron Innovations, Inc. Augmented visualization for manufacturing
WO2020053032A1 (en) * 2018-09-13 2020-03-19 Thorsten Mika Virtual three-dimensional objects in a live video
US11553142B2 (en) 2018-09-13 2023-01-10 Trackmen Gmbh Virtual three-dimensional objects in a live video
DE112019007901B4 (en) * 2019-11-19 2025-02-06 Mitsubishi Electric Corporation INFORMATION PROCESSING DEVICE, CONTROL METHOD, CONTROL PROGRAM AND INFORMATION PROVISION SYSTEM
DE102020201375B3 (en) * 2020-02-05 2021-06-24 Magna Steyr Fahrzeugtechnik Ag & Co Kg Method for checking a safety area of a robot
US11731283B2 (en) 2020-02-05 2023-08-22 Magna Steyr Fahrzeugtechnik Gmbh & Co Kg Method for checking a safety area of a robot

Similar Documents

Publication Publication Date Title
EP3328686B1 (en) Method and device for displaying the surrounding field of a tractor and trailer
DE102012221563B4 (en) FUNCTIONAL DIAGNOSIS AND VALIDATION OF A VEHICLE-BASED IMAGING SYSTEM
DE102006010735A1 (en) Vehicle environment monitoring device
DE102004016331B4 (en) Apparatus and method for concurrently displaying virtual and real environmental information
DE102011115739A1 (en) Method for integrating virtual objects in vehicle displays
DE102004046144A1 (en) Augmented reality system used for planning a production plant layout has camera system to enter units into a central controller where they are combined and then stored in data base
EP1910999B1 (en) Method and device for determining the relative position of a first object with respect to a second object, corresponding computer program and a computer-readable storage medium
DE102015108955A1 (en) Rundsichtsystem and operating procedures thereof
DE102014116199A1 (en) Image distortion compensation device and method of operation therefor
DE102005021735B4 (en) Video surveillance system
WO2017089037A1 (en) Device and method for visualizing and documenting damage
DE102011010860A1 (en) Method and driver assistance system for displaying images in a motor vehicle and motor vehicle
DE102013211005A1 (en) A method for determining a condition of a vehicle after use of the vehicle and corresponding system
DE102016217037B4 (en) Method for operating a display device of a motor vehicle with a digital display surface and motor vehicle
DE102020127278A1 (en) Around-View Synthesis System and Process
DE102018106039B4 (en) IMAGE REPRODUCTION APPARATUS, IMAGE REPRODUCTION SYSTEM AND IMAGE REPRODUCTION METHOD
DE102021212655A1 (en) Method for driving a display unit in a motor vehicle and display control for carrying out this method
EP3918882B1 (en) Method for supporting the installation of a sensor or of a luminaire in lighting systems
DE102019128926A1 (en) Process for automated vehicle guidance
DE102012205130A1 (en) Method for automatically operating a monitoring system
DE102018118422A1 (en) METHOD AND SYSTEM FOR PRESENTING DATA FROM A VIDEO CAMERA
DE102015012732A1 (en) System and method for controlling, in particular for commissioning, a production plant
WO2013178358A1 (en) Method for spatially visualising virtual objects
WO2023072500A1 (en) Method for detecting a load
DE102005013706A1 (en) Motor vehicle parking assisting device, has distance measuring device measuring distance between vehicle and object and image overlapping device outputting distance information as image information for reproduction of image data

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R012 Request for examination validly filed

Effective date: 20110416

R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final
R003 Refusal decision now final

Effective date: 20140708