[go: up one dir, main page]

DE102020212162A1 - Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße sowie System zur Steuerung und/oder Regelung einer Fertigungsanlage - Google Patents

Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße sowie System zur Steuerung und/oder Regelung einer Fertigungsanlage Download PDF

Info

Publication number
DE102020212162A1
DE102020212162A1 DE102020212162.1A DE102020212162A DE102020212162A1 DE 102020212162 A1 DE102020212162 A1 DE 102020212162A1 DE 102020212162 A DE102020212162 A DE 102020212162A DE 102020212162 A1 DE102020212162 A1 DE 102020212162A1
Authority
DE
Germany
Prior art keywords
transparent
production
production line
display
enclosure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020212162.1A
Other languages
English (en)
Inventor
Rebecca Johnson
Vladimir Zahorcak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Siemens Corp
Original Assignee
Siemens AG
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corp filed Critical Siemens AG
Priority to DE102020212162.1A priority Critical patent/DE102020212162A1/de
Priority to PCT/EP2021/075504 priority patent/WO2022063678A1/de
Priority to US18/246,235 priority patent/US20230359026A1/en
Priority to CN202180066377.5A priority patent/CN116235119A/zh
Priority to EP21778063.4A priority patent/EP4189502A1/de
Publication of DE102020212162A1 publication Critical patent/DE102020212162A1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36168Touchscreen

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • User Interface Of Digital Computer (AREA)
  • General Factory Administration (AREA)
  • Multi-Process Working Machines And Systems (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

Die Erfindung betrifft eine Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße und ein System zur Steuerung und Regelung der Teile und/oder der Herstellungsmaschinen einer Fertigungsstraße. Durch die vorliegende Erfindung wird erstmals die Möglichkeit eröffnet, in einer Fertigungsstraße herkömmliche Monitore zu ersetzen und gleichzeitig durch Anwendung von transparenten interaktiven Anzeige- und Eingabeelementen wie transparente Multi-Touchelemente und/oder HUDs die transparenten Bereiche der Einhausungen einer Fertigungsstraße über Augmented Reality und/oder Assisted Reality zu nutzen.

Description

  • Die Erfindung betrifft eine Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße und ein System zur Steuerung und Regelung der Teile und/oder der Herstellungsmaschinen einer Fertigungsstraße.
  • In Fertigungsstraßen und/oder -anlagen, wie beispielsweise modulare Fertigungsstraßen, Mikrosystemtechnik, Robotik, generative Fertigungsanlagen etc. gibt es zu den einzelnen Herstellungs-Maschinen und/oder Teilen der Fertigungsstraße Einhausungen mit Monitoren, Bedienelementen und/oder Prozessoren wie Computer zur Statusanzeige und/oder zur Steuerung/Regelung des Teils der Fertigungsstraße. Die Einhausungen haben in der Regel transparente Teile wie Scheiben, durch die die Fertigung - durch einen Arbeiter respektive Nutzer - beobachtet werden kann, während er/sie an den Monitoren die dazu erfassten Daten auslesen kann. Der Einfachheit halber wird hier vom „Arbeiter“ und vom „Nutzer“ gesprochen, dies ist aber Geschlechts-unspezifisch gemeint.
  • Über Anzeige- und/oder Bedienelemente wie Monitore, Keyboards etc. lassen sich die jeweiligen Herstellungsmaschinen steuern und regeln und das Produkt mit seinen Eigenschaften in der jeweiligen Herstellungsstufe überprüfen. Bei manchen Fertigungsschritten, die beispielsweise eine automatisierte Herstellung, eine Verschweißung, eine Bestrahlung mit Laser, eine Sprühvorrichtung, eine Pulveraufbringung, einen Gasaustritt, eine Reinst-Raumatmosphäre oder eine sonstige, in kleinen Einheiten besser kontrollierbare, Atmosphäre brauchen, werden Herstellungsmaschinen oder ganze Teile der Fertigungsstraße oft in diesen Einhausungen und/oder so genannten Showcases untergebracht. Diese Einhausungen und/oder Showcases haben transparente Elemente, so zeigen sie das Produkt während der Bearbeitung, während der Montage und/oder Herstellung, die Bearbeitungsmaschine, zumindest teilweise, wobei von außen über Monitore und Bedienelemente wie Keyboards etc. Eingriffe innerhalb der Einhausungen vorgenommen werden können.
  • Die transparenten Elemente der Einhausungen sind beispielsweise Fenster, Abdeckungen, Dächer und/oder durchsichtige Türen. Die Einhausungen können auch komplett transparent ausgebildet sein. Anzeige- und Bedienelemente, wie z.B. Monitore, sind dann beispielsweise seitlich angebracht.
  • Nachteilig daran ist, beispielsweise, dass diese Monitore und/oder Bedienelemente in der Regel Platz brauchen und die transparenten Elemente der Einhausungen und damit die Sicht auf die Fertigung auch zum Teil verdecken.
  • Aufgabe der vorliegenden Erfindung ist es, Anzeige- und/oder Bedienelement sowie ein System zur Steuerung und/oder Regelung einer Fertigungsanlage möglichst weitgehend in eine Einhausung integriert zur Verfügung zu stellen.
  • Diese Aufgabe wird durch die vorliegende Erfindung, wie sie in der Beschreibung, den Figuren und den Ansprüchen offenbart ist, gelöst.
  • Demnach ist Gegenstand der vorliegenden Erfindung eine Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße mit zumindest einem transparenten Element, wobei das zumindest eine transparente Element zumindest zum Teil als
    • - Projektionsfläche für ein Head Up Display -HUD - letzteres neben der Projektionsfläche zumindest noch ein Optikmodul und eine bildgebende Einheit umfassend, und/oder als
    • - Träger für ein transparentes interaktives Eingabegerät, wie ein transparentes Display zumindest eines
      • o transparenten Multi-Touch-Elements,
      • o einer Sensortaste,
      • o eines Sliders,
      • o eines Wheels,
      • o eines Track Pads und/oder
      • o eines Touchscreens und/oder als
    • - Combiner für Augmented und/oder Assisted Reality dient.
  • Außerdem ist Gegenstand der vorliegenden Erfindung ein System zur Regelung und/oder Steuerung einer Herstellungs-Maschine und/oder eines Teils einer Fertigungsstraße, ein Anzeige- und Bedienelement mit einer HUD-Einheit, einem transparenten interaktiven Eingabegerät und/der einem Combiner, Sensoren sowie einen Prozessor umfassend, wobei der Prozessor vorgesehen ist, um die Daten der Sensoren und aus dem Anzeige- und Bedienelement zu empfangen, zu kombinieren und zu verarbeiten und damit die Herstellungs-Maschine und/oder den Teil einer Fertigungsstraße zu steuern und zu regeln.
  • Als „Herstellungs-Maschine“ und/oder als „Teil einer Fertigungsstraße“ wird vorliegend ein Gerät bezeichnet, dass ein herzustellendes Produkt in einer Einhausung bearbeitet, fertigt, transportiert, zusammen- und/oder aufbaut. Die Geräte können voll- oder teilautomatisiert arbeiten. Beispielsweise kann es sich um einen Roboter handeln.
  • Ein „Head-up-Display“ „HUD“ ist ein Anzeigesystem, bei dem der Nutzer seine Kopfhaltung bzw. Blickrichtung beibehalten kann, weil die Informationen in sein Sichtfeld projiziert werden. Ein HUD kann mit 3D- und/oder mit Augmented Reality - Funktion ausgestattet sein. In aktuellen Computerspielen werden mit HUD allgemein Statusanzeigen bezeichnet, die nicht zur virtuellen Umgebung gehören, sondern statistisch an den Rändern des Blickfelds positioniert sind.
  • Ein HUD umfasst im Allgemeinen eine bildgebende Einheit, ein Optikmodul und eine Projektionsfläche. Die bildgebende Einheit erzeugt das Bild. Das Optikmodul mit Kollimator und Umlenkung leitet das Bild auf die Projektionsfläche oder den Combiner.
  • Im Folgenden wird die Erfindung noch anhand beispielhafter Ausführungsformen näher erläutert:
  • Beispiel 1:
  • Ein beispielhafter Aufbau eines HUD mit Projektion auf zumindest eine transparente Scheibe oder einen Teil einer solchen Scheibe einer Einhausung einer Fertigungsstraße umfasst
    • - Ein Optikmodul z.B. in Form eines Displays in Form einer haptischen Folie und/oder eines Laser Raster für Gesteninteraktion, sowie eine mindestens 25% blickdichte Folie für die Projektion auf die transparente Scheibe, die beispielsweise eine Plexiglas-Scheibe ist.
    • - Eine bildgebende Einheit in Form eines Nahdistanz-Projektors.
    • - Einen Prozessor der Daten des herzustellenden Produkts, der Herstellungs-Maschine, des Optikmoduls des HUDs, der Sensoren, den Touch-Elementen und/oder der bildgebenden Einheit empfängt, verarbeitet und sendet oder weiterrespektive zurück-leitet an eines dieser Module, wodurch das System steuert und regelt
    • - Z.B. Einen optischen Sensor - wie z.B. eine Lichtschranke - für die Aktivierung des Systems, wenn ein Nutzer erfasst wird,
    • - Z.B. Einen Lautsprecher und Mikrophon für Sprachinteraktion und/oder Alarmausgabe.
  • Die Scheibe bildet beispielsweise die Projektionsfläche des HUD. Diese ist insbesondere eine spiegelnde, lichtdurchlässige Scheibe. Der Nutzer z.B. eines Scheibenprojektors sieht also die gespiegelten Informationen der bildgebenden Einheit und gleichzeitig die reale Welt der Fertigung hinter der Scheibe.
  • Bevorzugt hat das System verschiedene Sensoren, die Schnittstellen zum Nutzer, zur Herstellungsmaschine in der Einhausung, zum herzustellenden Produkt sind. Diese Sensoren senden die von ihnen erfassten Daten zum Prozessor, der sie verarbeitet und entsprechende Signale seinerseits an die Herstellungsmaschine, die Bildgebende Einheit, den Lautsprecher und/oder den Touchscreen sendet.
  • Als Sensoren können alle Arten bekannter Sensoren eingesetzt werden, analytische Sensoren zur Qualitätsprüfung des herzustellenden Produktes, Licht-, Temperatur-, Druck-, Audio- und/oder Video-Daten erzeugende Sensoren, beispielsweise „Sensoren“ wie Kamera und/oder Mikrophon.
  • Dabei ist es insbesondere vorteilhaft, wenn das System - bevorzugt im Prozessor - eine künstliche Intelligenz, KI, umfasst, die mit Hilfe der vom Prozessor kombinierten und verarbeiteten Daten eine Prognose für den Fortgang der Fertigung des herzustellenden Produktes erstellt. So können durch die Erfassung der Daten Fehlerquellen bei der Fertigung schnell erkannt und behoben werden.
  • Des Weiteren kann das System über die Sensorik den Zustand der Herstellungs-Maschine und/oder der eingesetzten Werkzeuge erfassen, wobei die Daten wiederum entweder z.B. durch die HUD dargestellt werden oder durch eine KI verarbeitet und entsprechende Prognosen, Anforderungen etc. durch die HUD angezeigt werden.
  • Als „Combiner“ wird eine Vorrichtung bezeichnet, die Signale aus verschiedenen Quellen zu einem Signal vereinigt. Beispielsweise vereinigt ein Combiner für Augmented Reality Licht, das aus der Umgebung einfällt mit Licht, das von einer Bildquelle - wie der bildgebenden Einheit einer HUD - kommt, zu einer gemeinsamen Ansicht. Ein möglicher Aufbau eines Combiners umfasst semi-transparente Spiegel, die Umgebungslicht durchlassen und gleichzeitig ein im passenden Abstand montiertes Display, z.B. ein liquid crystal display, „LCD“, reflektieren.
  • Für einen Betrachter aus einer passenden Perspektive entsteht so der Eindruck, dass sich die auf dem Display angezeigten Graphiken hinter dem Combiner befinden, während weiterhin hinter dem Combiner befindliche Objekte sichtbar sind.
  • Bei einer Einhausung einer Fertigungsstraße mit HUD-Display ist der Combiner oft einfach die Plexiglas-Scheibe. Alternativ gibt es auch so genannte „Boxed Combiner“, die eine eigene kleine Scheibe unabhängig von der Plexiglasscheibe zum Zusammenführen der virtuellen Grafiken mit dem Licht aus der physischen Umgebung nutzen.
  • Das erzeugte virtuelle Bild kann so projiziert werden, dass es mit einem Auge - monokular - oder mit beiden Augen - binokular - erfasst werden kann. Binokulare HUDs haben einen höheren Sichtbarkeitsbereich als monokulare. Die Projektion des virtuellen Bilds richtet sich nach der Größe und dem Abstand von dem physischen Objekt hinter der Scheibe.
  • Beispielsweise dienen für HUDs als Lichtquelle spezielle Laser und/oder Leuchtdioden. Die Helligkeit des Bildes wird abhängig vom Umgebungslicht über einen Fotosensor gesteuert.
  • Ein Optikmodul eines HUDs und/oder eine haptische Folie in Form eines Touch-Elements und/oder ein Combiner - also ein interaktives Anzeige - und/oder Eingabeelement - wird z.B. durch ein farbiges hochauflösendes thin film transistor - TFT-Display erzeugt. Dies kann beispielsweise in Form eines Aktiv-Matrix-Displays eingesetzt werden.
  • Ein derartiges interaktives Anzeige- und/oder Eingabeelement ist beispielsweise ein Gerät in Form eines transparenten Touch-Elements. Dies ist beispielsweise als Touchscreen oder Multi-Touch-Element marktüblich in Form biegsamer transparenter Folien oder auf Glas als Träger erhältlich. Touchscreens sind auch in Form von transparenten Multi-Touch-Elementen erhältlich, die über Sensortasten, also elektronische Schaltelemente, die mittels Fingerberührung ohne mechanische Knöpfe gesteuert werden, und/oder mittels Zoomen und Wischen etc., bedienbar sind.
  • Als „wheel“ und/oder als „slider“ werden Eingabegeräte wie Displays und/oder Touchscreens bezeichnet, bei denen durch kreisende, wischende und/oder ziehende Bewegung der Hand und/oder eines Fingers und/oder eines Stiftes, elektrische Signale erzeugt und damit zuverlässige und eindeutige Eingaben in ein System mit Prozessor gemacht werden können.
  • Ein „Prozessor“ ist ein programmierbares Rechenwerk, also eine Maschine, die gemäß übergebenen Befehlen andere Maschinen oder elektrische Schaltungen steuert und dabei einen Algorithmus vorantreibt, was meist Datenverarbeitung beinhaltet. Ein Computer umfasst einen Prozessor, ein Server umfasst einen Prozessor etc....
  • Durch ein transparentes Anzeige- und/oder Bedienelement nach einer anderen beispielhaften Ausführungsform der Erfindung mit entsprechender Sensorik ist es möglich, dass ein Nutzer, der daran vorbeigeht, über die aktuellsten KPIs - Key Performance Indicators - und/oder über die aktuellen Montage-Konstruktionspläne, über den aktuellen Zustand des Produktes und/oder die aktuelle Dokumentation der Vorratsbehälter, Maschinen, Werkzeuge und Anlagen informiert wird. Beispielsweise kann das Anzeige- und/oder Bedienelement dazu mit einem Sensor-Schalter ausgestattet sein, durch den das Anzeige- und/oder Bedienelement den Nutzer einer Gruppe zuordnen kann, die bestimmte Berechtigungen besitzt, so dass der Prozessor nach dem Empfang des Signals, dass sich der Nutzer in der Nähe befindet, gleich die auf den jeweiligen Nutzer zurechtgeschnittenen Informationen über das Display bereitstellt.
  • Als „Augmented Reality (AR)“ wird ein Display und/oder eine Anzeige bezeichnet, bei der digitale Informationen die physische Welt in Echtzeit überlagern. Das heißt, dass die NutzerInnen ihre Umgebung immer noch wahrnehmen, diese wird allerdings um virtuelle Elemente und Informationen ergänzt.
  • Eine minimalistische Form der „Augmented Reality“ wird die „Assisted Reality“ bezeichnet, bei der Nutzer beispielsweise Textinformationen eingeblendet bekommen, so dass Zeitablauf, Grad der Fertigung, Produktzustand, Testergebnisse in der HUD sichtbar werden, so dass der Nutzer das Produkt sieht und gleichzeitig die Ergebnisse der laufenden Qualitäts-Tests, beispielsweise Oberflächenrauigkeit eines Wafers etc., über die Projektionsfläche der HUD auf der Scheibe wahrnimmt.
  • Gleichzeitig mit den Daten über das Herstellungsprodukt können Daten über die Herstellungsmaschine, beispielsweise die Anzahl der Rotationen eines Roboterarms pro Minute etc. über Assisted Reality eingeblendet werden.
  • Als „Mixed Reality“ wird eine weitere Kombination von virtueller und physischer Welt bezeichnet. In der Mixed Reality wird eine digital erzeugte, virtuelle Welt mit Informationen und/oder Elementen der physischen Welt kombiniert. Der Nutzer kann dabei sowohl in der physischen als auch in der virtuellen Welt agieren.
  • Durch die hier vorgeschlagene Nutzung der transparenten Elemente von Einhausungen der Geräte und Maschinen einer Fertigungsstraße als HUDs oder Multi-Touch-Anzeige- und Eingabeelemente mit verschiedenster begleitender Sensorik, sowie Modulen zur Sprach-Interaktion, lässt sich vor allem „Augmented Reality“ also die Überlagerung von digitalen Inhalten über die reellen, betroffenen Komponenten der Anlage sowie die natürliche Interaktion mit dem System realisieren. So können effizient Inhalte mit Kontext zur schnelleren Auffassung durch Nutzer bereitgestellt werden und Entscheidungen getroffen oder Aufgaben direkt auf natürliche Weise durch Sprachinteraktion, Gestik etc. erledigt werden.
  • Beispielsweise erfasst das System eine Irregularität an der eingehausten Maschine und meldet diese automatisiert. Der sich in der nächsten Nähe befindliche Nutzer authentifiziert sich am System, beispielsweise mittels Smartphone, Kartenleser, Smartwatch, Gesichtserkennung und/oder Stimme und wird je nach Rolle mit Beseitigung der Irregularität - unter Umständen gleich mit Handlungsempfehlungen - beauftragt. Diese können je nach Rolle mindestens eine einfache Auflistung von zuständigen Kontakten, die sofort aufzusuchen sind, bis hin zu einer Videoanleitung, die über das HUD abspielbar ist, für die sofortige Fehlerbehebung reichen.
  • Nach einem anderen Beispiel erkennt das System einen vorbeilaufenden Nutzer - kann Mensch oder Maschine „AEV“ sein - und gibt eine Selektion von einfachen Aufgaben aus mit der Bitte, diese durchzuführen. Für einige Aufgaben werden keine Expertenkenntnisse vorausgesetzt, z.B. das Wiederauffüllen von Verpackungspappe. Andernfalls kann aber das Expertenwissen nötig sein, dann wird es bei der maschinell erstellten Aufgabe an einen beliebigen Nutzer darum gehen, den nächsten Menschen für die Aufgaben aufzusuchen und zurückzubegleiten.
  • Nach einem anderen Beispiel erkennt das System einen vorbeilaufenden Nutzer durch eine Sensorik zur Authentifizierung des Nutzers. Diese kann beispielsweise eine Gesichtserkennung, eine Spracherkennung, eine Bluetooth-Erkennung und/oder eine RFID-Erkennung etc. umfassen. Das System spricht dann den Nutzer automatisiert an und gibt ihm seine Aufgabe.
  • Wenn keine aktuelle Aufgabe für den betroffenen oder einen vorbeilaufenden Nutzer vorliegt stellt das System einfach die KPIs und den aktuellen Zustand mithilfe von Augmented Reality der Anlage dar. Weiter werden KI-unterstützte Prognosen ausgegeben, wie z.B. Ressourcen, welche in X Minuten aufgebraucht sein könnten und ein Nachfüllbedarf entstehen wird oder der Zeitpunkt der letzten Wartung.
  • Nach einem anderen Beispiel identifiziert das System einen vorbeilaufenden Nutzer beispielsweise anhand von dessen Smartwatch oder Smartphone. Diesem Nutzer werden dann ihn nicht betreffende rollenbezogene Daten und Aufgaben ausgeblendet.
  • Nach einem anderen Beispiel erkennt das System einen vorbeilaufenden Nutzer und stellt die KPIs und/oder den aktuellen Zustand mithilfe von Augmented Reality des Systems auf der Projektionsfläche des HUDs dar. Weiter können KI unterstützte Prognosen, die beispielsweise automatisiert vom Prozessor anhand der durch die Sensorik erfassten Daten erstellt werden, angezeigt werden. So kann der Nutzer sofort erkennen, dass beispielsweise in X Minuten ein Vorratsbehälter aufgebraucht ist, oder eine Düse vollends verstopft sein wird und dadurch Reinigungsbedarf entsteht oder dass eine Schraube an der Maschine sich lockert etc. Ebenso kann automatisiert der Zeitpunkt der letzten Wartung etc. angezeigt werden.
  • Nach einem anderen Beispiel umfasst das System noch eine Kamera, beispielsweise eine 360° Kamera. Damit kann das System weitere Daten erfassen und über den Prozessor, der die Steuerung des Systems umfasst, in eine KI oder eine sonstige Datenverarbeitung einfließen lassen.
  • Über eine oder mehrere Kamera lassen sich auch räumliche Videodaten erfassen und ebenfalls verarbeiten. Beispielsweise kann eine Kamera erfassen, dass ein Nutzer bei einem bestimmten Prozessschritt Unterstützung braucht, die ihm dann automatisiert über das HUD bereitgestellt wird.
  • So kann das System die Aufgaben einer Fertigungs-Maschine wie die eines Nutzers über das HUD darstellen und den Abarbeitungsgrad visualisieren. Des Weiteren können die Arbeiten nach Dringlichkeitsgrad oder zeitlicher Abhängigkeit priorisiert dargestellt werden.
  • Über die Kamera des Systems kann das System auch Irregularitäten beim Arbeitsablauf visualisieren, so kann es durch Vergleich mittels KI im Prozessor Fehlhaltungen, Abwesenheit, geschlossene Augen etc. feststellen und automatisiert mitteilen oder anzeigen. Ebenso kann das System durch Authentifizierung des Nutzers dessen personenbezogene Einstellungen automatisiert herstellen.
  • Durch die vorliegende Erfindung wird erstmals die Möglichkeit eröffnet, in einer Fertigungsstraße herkömmliche Monitore zu ersetzen und gleichzeitig durch Anwendung von transparenten interaktiven Anzeige- und Eingabeelementen wie transparente Multi-Touchelemente und/oder HUDs die transparenten Bereiche der Einhausungen einer Fertigungsstraße über Augmented Reality und/oder Assisted Reality zu nutzen.

Claims (15)

  1. Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße mit zumindest einem transparenten Element, wobei das zumindest eine transparente Element zumindest zum Teil als - Projektionsfläche für ein Head Up Display -HUD - letzteres neben der Projektionsfläche zumindest noch ein Optikmodul und eine bildgebende Einheit umfassend, und/oder als - Träger für ein transparentes interaktives Eingabegerät, wie ein transparentes Display zumindest eines o transparenten Multi-Touch-Elements, o einer Sensortaste, o eines Sliders, o eines Wheels, o eines Track Pads und/oder o eines Touchscreens und/oder als - Combiner für Augmented und/oder Assisted Reality dient.
  2. Einhausung nach Anspruch 1, die eine Kamera umfasst.
  3. Einhausung nach einem der vorstehenden Ansprüche, die einen Lautsprecher umfasst.
  4. Einhausung nach einem der vorstehenden Ansprüche, die ein Mikrophon umfasst.
  5. Einhausung nach einem der vorstehenden Ansprüche, die eine 360° Kamera umfasst.
  6. Einhausung nach einem der vorstehenden Ansprüche, die eine haptische Folie umfasst.
  7. Einhausung nach einem der vorstehenden Ansprüche, die einen Laser Raster umfasst.
  8. Einhausung nach einem der vorstehenden Ansprüche, die eine zumindest 25% blickdichte Folie umfasst.
  9. Einhausung nach einem der vorstehenden Ansprüche, die einen Prozessor umfasst.
  10. System zur Regelung und/oder Steuerung einer Herstellungs-Maschine und/oder eines Teils einer Fertigungsstraße, ein Anzeige- und Bedienelement mit einer HUD-Einheit, einem transparenten interaktiven Eingabegerät und/der einem Combiner, Sensoren sowie einen Prozessor umfassend, wobei der Prozessor vorgesehen ist, um die Daten der Sensoren und aus dem Anzeige- und Bedienelement zu empfangen, zu kombinieren und zu verarbeiten und damit die Herstellungs-Maschine und/oder den Teil einer Fertigungsstraße zu steuern und zu regeln.
  11. System nach Anspruch 10, das eine Kamera, eine Lichtschranke, ein Mikrophon und/oder einen Lautsprecher umfasst.
  12. System nach einem der Ansprüche 10 oder 11, das Sensoren zur Erfassung der Beschaffenheit des herzustellenden Produktes umfasst.
  13. System nach Anspruch 10 bis 12, das Sensoren zur Authentifizierung eines Nutzers umfasst.
  14. System nach einem der Ansprüche 10 bis 13, das eine KI zur Erstellung von Prognosen über den Fortgang der Fertigung des herzustellenden Produktes umfasst.
  15. System nach einem der Ansprüche 10 bis 14, das eine Sensorik zur Erfassung des Zustands der Herstellungs-Maschine, des Teils der Fertigungsstraße und/oder eines Werkzeugs umfasst.
DE102020212162.1A 2020-09-28 2020-09-28 Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße sowie System zur Steuerung und/oder Regelung einer Fertigungsanlage Pending DE102020212162A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102020212162.1A DE102020212162A1 (de) 2020-09-28 2020-09-28 Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße sowie System zur Steuerung und/oder Regelung einer Fertigungsanlage
PCT/EP2021/075504 WO2022063678A1 (de) 2020-09-28 2021-09-16 EINHAUSUNG FÜR EINE HERSTELLUNGS-MASCHINE UND/ODER EINEN TEIL EINER FERTIGUNGSSTRAßE SOWIE SYSTEM ZUR STEUERUNG UND/ODER REGELUNG EINER FERTIGUNGSANLAGE
US18/246,235 US20230359026A1 (en) 2020-09-28 2021-09-16 Housing for a Manufacturing Machine and/or a Part of a Production Line and System for Open-Loop and/or Closed-Loop Control of a Production Facility
CN202180066377.5A CN116235119A (zh) 2020-09-28 2021-09-16 用于生产线的一部分和/或制造机器的壳体以及用于开环和/或闭环控制生产设备的系统
EP21778063.4A EP4189502A1 (de) 2020-09-28 2021-09-16 EINHAUSUNG FÜR EINE HERSTELLUNGS-MASCHINE UND/ODER EINEN TEIL EINER FERTIGUNGSSTRAßE SOWIE SYSTEM ZUR STEUERUNG UND/ODER REGELUNG EINER FERTIGUNGSANLAGE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020212162.1A DE102020212162A1 (de) 2020-09-28 2020-09-28 Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße sowie System zur Steuerung und/oder Regelung einer Fertigungsanlage

Publications (1)

Publication Number Publication Date
DE102020212162A1 true DE102020212162A1 (de) 2022-03-31

Family

ID=77924404

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020212162.1A Pending DE102020212162A1 (de) 2020-09-28 2020-09-28 Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße sowie System zur Steuerung und/oder Regelung einer Fertigungsanlage

Country Status (5)

Country Link
US (1) US20230359026A1 (de)
EP (1) EP4189502A1 (de)
CN (1) CN116235119A (de)
DE (1) DE102020212162A1 (de)
WO (1) WO2022063678A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050002151A1 (en) 2003-06-06 2005-01-06 Siemens Aktiengesellschaft Machine-tool or production machine with head-up display
US20070033903A1 (en) 2005-08-15 2007-02-15 Uhlmann Pac-Systeme Gmbh & Co. Kg Packaging machine
DE102017206600A1 (de) 2017-04-19 2018-10-25 Robert Bosch Gmbh Werkzeug- oder Produktionseinrichtung
US20190341149A1 (en) 2018-05-07 2019-11-07 Medtronic Minimed, Inc. Augmented reality guidance for medical devices

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8264466B2 (en) * 2006-03-31 2012-09-11 3M Innovative Properties Company Touch screen having reduced visibility transparent conductor pattern
WO2013162583A1 (en) * 2012-04-26 2013-10-31 Intel Corporation Augmented reality computing device, apparatus and system
US9645559B1 (en) * 2013-08-09 2017-05-09 Rigminder Operating, Llc Head-up display screen
FR3011943B1 (fr) * 2013-10-10 2017-03-24 Sidel Participations Systeme de commande d'une machine industrielle a interface tactile integree a une vitre
CN206031079U (zh) * 2016-07-25 2017-03-22 江苏奥格视特信息科技有限公司 一种增强现实车载平视显示器ar‑hud
WO2018042027A1 (de) * 2016-09-05 2018-03-08 Gea Food Solutions Germany Gmbh Vorrichtung zum bearbeiten und/oder verpacken von lebensmitteln mit einem display
US11520323B2 (en) * 2019-03-08 2022-12-06 Honeywell Limited 360° assistance for QCS scanner with mixed reality and machine learning technology

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050002151A1 (en) 2003-06-06 2005-01-06 Siemens Aktiengesellschaft Machine-tool or production machine with head-up display
US20070033903A1 (en) 2005-08-15 2007-02-15 Uhlmann Pac-Systeme Gmbh & Co. Kg Packaging machine
DE102017206600A1 (de) 2017-04-19 2018-10-25 Robert Bosch Gmbh Werkzeug- oder Produktionseinrichtung
US20190341149A1 (en) 2018-05-07 2019-11-07 Medtronic Minimed, Inc. Augmented reality guidance for medical devices

Also Published As

Publication number Publication date
EP4189502A1 (de) 2023-06-07
WO2022063678A1 (de) 2022-03-31
CN116235119A (zh) 2023-06-06
US20230359026A1 (en) 2023-11-09

Similar Documents

Publication Publication Date Title
US11467709B2 (en) Mixed-reality guide data collection and presentation
US20240103677A1 (en) User interfaces for managing sharing of content in three-dimensional environments
Fisher et al. Virtual interface environment workstations
EP3079041B1 (de) Verfahren und system zur bereitstellung einer virtual-reality-umgebung für passagiere von land- und luftfahrzeugen
DE102014006732B4 (de) Bildüberlagerung von virtuellen Objekten in ein Kamerabild
EP3286614B1 (de) Bediensystem für eine maschine der lebensmittelindustrie
KR20230005396A (ko) 자체-혼합 센서를 갖는 헤드 장착형 전자 디바이스
DE102014019631A1 (de) Elektronische Vorrichtung und Beschaffungssteuerverfahren
CN120653120A (zh) 用于三维环境中的深度冲突减轻的方法
WO2002041069A1 (de) Verfahren zur visuellen darstellung und interaktiven steuerung von virtuellen objekten auf einem ausgabe-sichtfeld
EP3765941B1 (de) Verfahren und system zur steuerung einer anzeige eines augmented-reality-gerätes und computerprogramm mit instruktionen zur durchführung des verfahrens
DE102016214478A1 (de) Anordnung, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels
DE102022110363A1 (de) Verfahren und vorrichtung zur debugging-programmausführung und inhaltswiedergabe
WO2016206874A1 (de) Interaktionssystem
DE112022002333T5 (de) Verfahren und Gerät zur Bereitstellung von Erinnerungen an eine Eingabevorrichtungsneupositionierung
EP4569397A1 (de) Benutzerschnittstellen zur verwaltung der gemeinsamen nutzung von inhalt in dreidimensionalen umgebungen
US12450836B2 (en) Deteriorated video feed
DE102004021379B4 (de) Bedien- und Beobachtungssystem für industrielle Anlagen und Verfahren
DE102020212162A1 (de) Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße sowie System zur Steuerung und/oder Regelung einer Fertigungsanlage
KR20240008800A (ko) 렌즈 포지셔너들을 갖는 전자 디바이스들
EP3644162A2 (de) Verfahren und system zur steuerung von geräten in steriler umgebung
Schlick et al. Head-mounted display for supervisory control in autonomous production cells
KR20250053949A (ko) 선택적 협업 오브젝트 액세스
DE112019002293T5 (de) Trainingssystem für Hygieneausrüstung
Fisher et al. Virtual workstation: A multimodal, stereoscopic display environment

Legal Events

Date Code Title Description
R012 Request for examination validly filed