-
Die Erfindung betrifft eine Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße und ein System zur Steuerung und Regelung der Teile und/oder der Herstellungsmaschinen einer Fertigungsstraße.
-
In Fertigungsstraßen und/oder -anlagen, wie beispielsweise modulare Fertigungsstraßen, Mikrosystemtechnik, Robotik, generative Fertigungsanlagen etc. gibt es zu den einzelnen Herstellungs-Maschinen und/oder Teilen der Fertigungsstraße Einhausungen mit Monitoren, Bedienelementen und/oder Prozessoren wie Computer zur Statusanzeige und/oder zur Steuerung/Regelung des Teils der Fertigungsstraße. Die Einhausungen haben in der Regel transparente Teile wie Scheiben, durch die die Fertigung - durch einen Arbeiter respektive Nutzer - beobachtet werden kann, während er/sie an den Monitoren die dazu erfassten Daten auslesen kann. Der Einfachheit halber wird hier vom „Arbeiter“ und vom „Nutzer“ gesprochen, dies ist aber Geschlechts-unspezifisch gemeint.
-
Über Anzeige- und/oder Bedienelemente wie Monitore, Keyboards etc. lassen sich die jeweiligen Herstellungsmaschinen steuern und regeln und das Produkt mit seinen Eigenschaften in der jeweiligen Herstellungsstufe überprüfen. Bei manchen Fertigungsschritten, die beispielsweise eine automatisierte Herstellung, eine Verschweißung, eine Bestrahlung mit Laser, eine Sprühvorrichtung, eine Pulveraufbringung, einen Gasaustritt, eine Reinst-Raumatmosphäre oder eine sonstige, in kleinen Einheiten besser kontrollierbare, Atmosphäre brauchen, werden Herstellungsmaschinen oder ganze Teile der Fertigungsstraße oft in diesen Einhausungen und/oder so genannten Showcases untergebracht. Diese Einhausungen und/oder Showcases haben transparente Elemente, so zeigen sie das Produkt während der Bearbeitung, während der Montage und/oder Herstellung, die Bearbeitungsmaschine, zumindest teilweise, wobei von außen über Monitore und Bedienelemente wie Keyboards etc. Eingriffe innerhalb der Einhausungen vorgenommen werden können.
-
Die transparenten Elemente der Einhausungen sind beispielsweise Fenster, Abdeckungen, Dächer und/oder durchsichtige Türen. Die Einhausungen können auch komplett transparent ausgebildet sein. Anzeige- und Bedienelemente, wie z.B. Monitore, sind dann beispielsweise seitlich angebracht.
-
Nachteilig daran ist, beispielsweise, dass diese Monitore und/oder Bedienelemente in der Regel Platz brauchen und die transparenten Elemente der Einhausungen und damit die Sicht auf die Fertigung auch zum Teil verdecken.
-
Aufgabe der vorliegenden Erfindung ist es, Anzeige- und/oder Bedienelement sowie ein System zur Steuerung und/oder Regelung einer Fertigungsanlage möglichst weitgehend in eine Einhausung integriert zur Verfügung zu stellen.
-
Diese Aufgabe wird durch die vorliegende Erfindung, wie sie in der Beschreibung, den Figuren und den Ansprüchen offenbart ist, gelöst.
-
Demnach ist Gegenstand der vorliegenden Erfindung eine Einhausung für eine Herstellungs-Maschine und/oder einen Teil einer Fertigungsstraße mit zumindest einem transparenten Element, wobei das zumindest eine transparente Element zumindest zum Teil als
- - Projektionsfläche für ein Head Up Display -HUD - letzteres neben der Projektionsfläche zumindest noch ein Optikmodul und eine bildgebende Einheit umfassend, und/oder als
- - Träger für ein transparentes interaktives Eingabegerät, wie ein transparentes Display zumindest eines
- o transparenten Multi-Touch-Elements,
- o einer Sensortaste,
- o eines Sliders,
- o eines Wheels,
- o eines Track Pads und/oder
- o eines Touchscreens
und/oder als
- - Combiner für Augmented und/oder Assisted Reality dient.
-
Außerdem ist Gegenstand der vorliegenden Erfindung ein System zur Regelung und/oder Steuerung einer Herstellungs-Maschine und/oder eines Teils einer Fertigungsstraße, ein Anzeige- und Bedienelement mit einer HUD-Einheit, einem transparenten interaktiven Eingabegerät und/der einem Combiner, Sensoren sowie einen Prozessor umfassend, wobei der Prozessor vorgesehen ist, um die Daten der Sensoren und aus dem Anzeige- und Bedienelement zu empfangen, zu kombinieren und zu verarbeiten und damit die Herstellungs-Maschine und/oder den Teil einer Fertigungsstraße zu steuern und zu regeln.
-
Als „Herstellungs-Maschine“ und/oder als „Teil einer Fertigungsstraße“ wird vorliegend ein Gerät bezeichnet, dass ein herzustellendes Produkt in einer Einhausung bearbeitet, fertigt, transportiert, zusammen- und/oder aufbaut. Die Geräte können voll- oder teilautomatisiert arbeiten. Beispielsweise kann es sich um einen Roboter handeln.
-
Ein „Head-up-Display“ „HUD“ ist ein Anzeigesystem, bei dem der Nutzer seine Kopfhaltung bzw. Blickrichtung beibehalten kann, weil die Informationen in sein Sichtfeld projiziert werden. Ein HUD kann mit 3D- und/oder mit Augmented Reality - Funktion ausgestattet sein. In aktuellen Computerspielen werden mit HUD allgemein Statusanzeigen bezeichnet, die nicht zur virtuellen Umgebung gehören, sondern statistisch an den Rändern des Blickfelds positioniert sind.
-
Ein HUD umfasst im Allgemeinen eine bildgebende Einheit, ein Optikmodul und eine Projektionsfläche. Die bildgebende Einheit erzeugt das Bild. Das Optikmodul mit Kollimator und Umlenkung leitet das Bild auf die Projektionsfläche oder den Combiner.
-
Im Folgenden wird die Erfindung noch anhand beispielhafter Ausführungsformen näher erläutert:
-
Beispiel 1:
-
Ein beispielhafter Aufbau eines HUD mit Projektion auf zumindest eine transparente Scheibe oder einen Teil einer solchen Scheibe einer Einhausung einer Fertigungsstraße umfasst
- - Ein Optikmodul z.B. in Form eines Displays in Form einer haptischen Folie und/oder eines Laser Raster für Gesteninteraktion, sowie eine mindestens 25% blickdichte Folie für die Projektion auf die transparente Scheibe, die beispielsweise eine Plexiglas-Scheibe ist.
- - Eine bildgebende Einheit in Form eines Nahdistanz-Projektors.
- - Einen Prozessor der Daten des herzustellenden Produkts, der Herstellungs-Maschine, des Optikmoduls des HUDs, der Sensoren, den Touch-Elementen und/oder der bildgebenden Einheit empfängt, verarbeitet und sendet oder weiterrespektive zurück-leitet an eines dieser Module, wodurch das System steuert und regelt
- - Z.B. Einen optischen Sensor - wie z.B. eine Lichtschranke - für die Aktivierung des Systems, wenn ein Nutzer erfasst wird,
- - Z.B. Einen Lautsprecher und Mikrophon für Sprachinteraktion und/oder Alarmausgabe.
-
Die Scheibe bildet beispielsweise die Projektionsfläche des HUD. Diese ist insbesondere eine spiegelnde, lichtdurchlässige Scheibe. Der Nutzer z.B. eines Scheibenprojektors sieht also die gespiegelten Informationen der bildgebenden Einheit und gleichzeitig die reale Welt der Fertigung hinter der Scheibe.
-
Bevorzugt hat das System verschiedene Sensoren, die Schnittstellen zum Nutzer, zur Herstellungsmaschine in der Einhausung, zum herzustellenden Produkt sind. Diese Sensoren senden die von ihnen erfassten Daten zum Prozessor, der sie verarbeitet und entsprechende Signale seinerseits an die Herstellungsmaschine, die Bildgebende Einheit, den Lautsprecher und/oder den Touchscreen sendet.
-
Als Sensoren können alle Arten bekannter Sensoren eingesetzt werden, analytische Sensoren zur Qualitätsprüfung des herzustellenden Produktes, Licht-, Temperatur-, Druck-, Audio- und/oder Video-Daten erzeugende Sensoren, beispielsweise „Sensoren“ wie Kamera und/oder Mikrophon.
-
Dabei ist es insbesondere vorteilhaft, wenn das System - bevorzugt im Prozessor - eine künstliche Intelligenz, KI, umfasst, die mit Hilfe der vom Prozessor kombinierten und verarbeiteten Daten eine Prognose für den Fortgang der Fertigung des herzustellenden Produktes erstellt. So können durch die Erfassung der Daten Fehlerquellen bei der Fertigung schnell erkannt und behoben werden.
-
Des Weiteren kann das System über die Sensorik den Zustand der Herstellungs-Maschine und/oder der eingesetzten Werkzeuge erfassen, wobei die Daten wiederum entweder z.B. durch die HUD dargestellt werden oder durch eine KI verarbeitet und entsprechende Prognosen, Anforderungen etc. durch die HUD angezeigt werden.
-
Als „Combiner“ wird eine Vorrichtung bezeichnet, die Signale aus verschiedenen Quellen zu einem Signal vereinigt. Beispielsweise vereinigt ein Combiner für Augmented Reality Licht, das aus der Umgebung einfällt mit Licht, das von einer Bildquelle - wie der bildgebenden Einheit einer HUD - kommt, zu einer gemeinsamen Ansicht. Ein möglicher Aufbau eines Combiners umfasst semi-transparente Spiegel, die Umgebungslicht durchlassen und gleichzeitig ein im passenden Abstand montiertes Display, z.B. ein liquid crystal display, „LCD“, reflektieren.
-
Für einen Betrachter aus einer passenden Perspektive entsteht so der Eindruck, dass sich die auf dem Display angezeigten Graphiken hinter dem Combiner befinden, während weiterhin hinter dem Combiner befindliche Objekte sichtbar sind.
-
Bei einer Einhausung einer Fertigungsstraße mit HUD-Display ist der Combiner oft einfach die Plexiglas-Scheibe. Alternativ gibt es auch so genannte „Boxed Combiner“, die eine eigene kleine Scheibe unabhängig von der Plexiglasscheibe zum Zusammenführen der virtuellen Grafiken mit dem Licht aus der physischen Umgebung nutzen.
-
Das erzeugte virtuelle Bild kann so projiziert werden, dass es mit einem Auge - monokular - oder mit beiden Augen - binokular - erfasst werden kann. Binokulare HUDs haben einen höheren Sichtbarkeitsbereich als monokulare. Die Projektion des virtuellen Bilds richtet sich nach der Größe und dem Abstand von dem physischen Objekt hinter der Scheibe.
-
Beispielsweise dienen für HUDs als Lichtquelle spezielle Laser und/oder Leuchtdioden. Die Helligkeit des Bildes wird abhängig vom Umgebungslicht über einen Fotosensor gesteuert.
-
Ein Optikmodul eines HUDs und/oder eine haptische Folie in Form eines Touch-Elements und/oder ein Combiner - also ein interaktives Anzeige - und/oder Eingabeelement - wird z.B. durch ein farbiges hochauflösendes thin film transistor - TFT-Display erzeugt. Dies kann beispielsweise in Form eines Aktiv-Matrix-Displays eingesetzt werden.
-
Ein derartiges interaktives Anzeige- und/oder Eingabeelement ist beispielsweise ein Gerät in Form eines transparenten Touch-Elements. Dies ist beispielsweise als Touchscreen oder Multi-Touch-Element marktüblich in Form biegsamer transparenter Folien oder auf Glas als Träger erhältlich. Touchscreens sind auch in Form von transparenten Multi-Touch-Elementen erhältlich, die über Sensortasten, also elektronische Schaltelemente, die mittels Fingerberührung ohne mechanische Knöpfe gesteuert werden, und/oder mittels Zoomen und Wischen etc., bedienbar sind.
-
Als „wheel“ und/oder als „slider“ werden Eingabegeräte wie Displays und/oder Touchscreens bezeichnet, bei denen durch kreisende, wischende und/oder ziehende Bewegung der Hand und/oder eines Fingers und/oder eines Stiftes, elektrische Signale erzeugt und damit zuverlässige und eindeutige Eingaben in ein System mit Prozessor gemacht werden können.
-
Ein „Prozessor“ ist ein programmierbares Rechenwerk, also eine Maschine, die gemäß übergebenen Befehlen andere Maschinen oder elektrische Schaltungen steuert und dabei einen Algorithmus vorantreibt, was meist Datenverarbeitung beinhaltet. Ein Computer umfasst einen Prozessor, ein Server umfasst einen Prozessor etc....
-
Durch ein transparentes Anzeige- und/oder Bedienelement nach einer anderen beispielhaften Ausführungsform der Erfindung mit entsprechender Sensorik ist es möglich, dass ein Nutzer, der daran vorbeigeht, über die aktuellsten KPIs - Key Performance Indicators - und/oder über die aktuellen Montage-Konstruktionspläne, über den aktuellen Zustand des Produktes und/oder die aktuelle Dokumentation der Vorratsbehälter, Maschinen, Werkzeuge und Anlagen informiert wird. Beispielsweise kann das Anzeige- und/oder Bedienelement dazu mit einem Sensor-Schalter ausgestattet sein, durch den das Anzeige- und/oder Bedienelement den Nutzer einer Gruppe zuordnen kann, die bestimmte Berechtigungen besitzt, so dass der Prozessor nach dem Empfang des Signals, dass sich der Nutzer in der Nähe befindet, gleich die auf den jeweiligen Nutzer zurechtgeschnittenen Informationen über das Display bereitstellt.
-
Als „Augmented Reality (AR)“ wird ein Display und/oder eine Anzeige bezeichnet, bei der digitale Informationen die physische Welt in Echtzeit überlagern. Das heißt, dass die NutzerInnen ihre Umgebung immer noch wahrnehmen, diese wird allerdings um virtuelle Elemente und Informationen ergänzt.
-
Eine minimalistische Form der „Augmented Reality“ wird die „Assisted Reality“ bezeichnet, bei der Nutzer beispielsweise Textinformationen eingeblendet bekommen, so dass Zeitablauf, Grad der Fertigung, Produktzustand, Testergebnisse in der HUD sichtbar werden, so dass der Nutzer das Produkt sieht und gleichzeitig die Ergebnisse der laufenden Qualitäts-Tests, beispielsweise Oberflächenrauigkeit eines Wafers etc., über die Projektionsfläche der HUD auf der Scheibe wahrnimmt.
-
Gleichzeitig mit den Daten über das Herstellungsprodukt können Daten über die Herstellungsmaschine, beispielsweise die Anzahl der Rotationen eines Roboterarms pro Minute etc. über Assisted Reality eingeblendet werden.
-
Als „Mixed Reality“ wird eine weitere Kombination von virtueller und physischer Welt bezeichnet. In der Mixed Reality wird eine digital erzeugte, virtuelle Welt mit Informationen und/oder Elementen der physischen Welt kombiniert. Der Nutzer kann dabei sowohl in der physischen als auch in der virtuellen Welt agieren.
-
Durch die hier vorgeschlagene Nutzung der transparenten Elemente von Einhausungen der Geräte und Maschinen einer Fertigungsstraße als HUDs oder Multi-Touch-Anzeige- und Eingabeelemente mit verschiedenster begleitender Sensorik, sowie Modulen zur Sprach-Interaktion, lässt sich vor allem „Augmented Reality“ also die Überlagerung von digitalen Inhalten über die reellen, betroffenen Komponenten der Anlage sowie die natürliche Interaktion mit dem System realisieren. So können effizient Inhalte mit Kontext zur schnelleren Auffassung durch Nutzer bereitgestellt werden und Entscheidungen getroffen oder Aufgaben direkt auf natürliche Weise durch Sprachinteraktion, Gestik etc. erledigt werden.
-
Beispielsweise erfasst das System eine Irregularität an der eingehausten Maschine und meldet diese automatisiert. Der sich in der nächsten Nähe befindliche Nutzer authentifiziert sich am System, beispielsweise mittels Smartphone, Kartenleser, Smartwatch, Gesichtserkennung und/oder Stimme und wird je nach Rolle mit Beseitigung der Irregularität - unter Umständen gleich mit Handlungsempfehlungen - beauftragt. Diese können je nach Rolle mindestens eine einfache Auflistung von zuständigen Kontakten, die sofort aufzusuchen sind, bis hin zu einer Videoanleitung, die über das HUD abspielbar ist, für die sofortige Fehlerbehebung reichen.
-
Nach einem anderen Beispiel erkennt das System einen vorbeilaufenden Nutzer - kann Mensch oder Maschine „AEV“ sein - und gibt eine Selektion von einfachen Aufgaben aus mit der Bitte, diese durchzuführen. Für einige Aufgaben werden keine Expertenkenntnisse vorausgesetzt, z.B. das Wiederauffüllen von Verpackungspappe. Andernfalls kann aber das Expertenwissen nötig sein, dann wird es bei der maschinell erstellten Aufgabe an einen beliebigen Nutzer darum gehen, den nächsten Menschen für die Aufgaben aufzusuchen und zurückzubegleiten.
-
Nach einem anderen Beispiel erkennt das System einen vorbeilaufenden Nutzer durch eine Sensorik zur Authentifizierung des Nutzers. Diese kann beispielsweise eine Gesichtserkennung, eine Spracherkennung, eine Bluetooth-Erkennung und/oder eine RFID-Erkennung etc. umfassen. Das System spricht dann den Nutzer automatisiert an und gibt ihm seine Aufgabe.
-
Wenn keine aktuelle Aufgabe für den betroffenen oder einen vorbeilaufenden Nutzer vorliegt stellt das System einfach die KPIs und den aktuellen Zustand mithilfe von Augmented Reality der Anlage dar. Weiter werden KI-unterstützte Prognosen ausgegeben, wie z.B. Ressourcen, welche in X Minuten aufgebraucht sein könnten und ein Nachfüllbedarf entstehen wird oder der Zeitpunkt der letzten Wartung.
-
Nach einem anderen Beispiel identifiziert das System einen vorbeilaufenden Nutzer beispielsweise anhand von dessen Smartwatch oder Smartphone. Diesem Nutzer werden dann ihn nicht betreffende rollenbezogene Daten und Aufgaben ausgeblendet.
-
Nach einem anderen Beispiel erkennt das System einen vorbeilaufenden Nutzer und stellt die KPIs und/oder den aktuellen Zustand mithilfe von Augmented Reality des Systems auf der Projektionsfläche des HUDs dar. Weiter können KI unterstützte Prognosen, die beispielsweise automatisiert vom Prozessor anhand der durch die Sensorik erfassten Daten erstellt werden, angezeigt werden. So kann der Nutzer sofort erkennen, dass beispielsweise in X Minuten ein Vorratsbehälter aufgebraucht ist, oder eine Düse vollends verstopft sein wird und dadurch Reinigungsbedarf entsteht oder dass eine Schraube an der Maschine sich lockert etc. Ebenso kann automatisiert der Zeitpunkt der letzten Wartung etc. angezeigt werden.
-
Nach einem anderen Beispiel umfasst das System noch eine Kamera, beispielsweise eine 360° Kamera. Damit kann das System weitere Daten erfassen und über den Prozessor, der die Steuerung des Systems umfasst, in eine KI oder eine sonstige Datenverarbeitung einfließen lassen.
-
Über eine oder mehrere Kamera lassen sich auch räumliche Videodaten erfassen und ebenfalls verarbeiten. Beispielsweise kann eine Kamera erfassen, dass ein Nutzer bei einem bestimmten Prozessschritt Unterstützung braucht, die ihm dann automatisiert über das HUD bereitgestellt wird.
-
So kann das System die Aufgaben einer Fertigungs-Maschine wie die eines Nutzers über das HUD darstellen und den Abarbeitungsgrad visualisieren. Des Weiteren können die Arbeiten nach Dringlichkeitsgrad oder zeitlicher Abhängigkeit priorisiert dargestellt werden.
-
Über die Kamera des Systems kann das System auch Irregularitäten beim Arbeitsablauf visualisieren, so kann es durch Vergleich mittels KI im Prozessor Fehlhaltungen, Abwesenheit, geschlossene Augen etc. feststellen und automatisiert mitteilen oder anzeigen. Ebenso kann das System durch Authentifizierung des Nutzers dessen personenbezogene Einstellungen automatisiert herstellen.
-
Durch die vorliegende Erfindung wird erstmals die Möglichkeit eröffnet, in einer Fertigungsstraße herkömmliche Monitore zu ersetzen und gleichzeitig durch Anwendung von transparenten interaktiven Anzeige- und Eingabeelementen wie transparente Multi-Touchelemente und/oder HUDs die transparenten Bereiche der Einhausungen einer Fertigungsstraße über Augmented Reality und/oder Assisted Reality zu nutzen.