DE102023124815B3 - System for continuous acoustic monitoring of at least one technical installation - Google Patents
System for continuous acoustic monitoring of at least one technical installation Download PDFInfo
- Publication number
- DE102023124815B3 DE102023124815B3 DE102023124815.4A DE102023124815A DE102023124815B3 DE 102023124815 B3 DE102023124815 B3 DE 102023124815B3 DE 102023124815 A DE102023124815 A DE 102023124815A DE 102023124815 B3 DE102023124815 B3 DE 102023124815B3
- Authority
- DE
- Germany
- Prior art keywords
- audio signal
- data
- signal data
- features
- cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C3/00—Registering or indicating the condition or the working of machines or other apparatus, other than vehicles
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
Die Erfindung betrifft ein System (1) zur insbesondere fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage (2), insbesondere Maschine wenigstens umfassend:
- wenigstens eine Erfassungseinheit (3) mit wenigstens einer akustischen Sensoreinrichtung (3a), welche in der Nähe der zu überwachenden technischen Anlage (2) angeordnet ist, wobei die Erfassungseinheit (3) dazu eingerichtet ist, automatisiert mittels der Sensoreinrichtung (3a) erfasste akustische Signale der technischen Anlage (2) als Audiosignaldaten zu speichern und die gespeicherten Audiosignaldaten und/oder aus wenigstens einem Teil der gespeicherten Audiosignaldaten extrahierte Datenmerkmale assoziiert mit der wenigstens einen technischen Anlage (2) an eine Cloud-basierte Analyseeinheit (5) zu übermitteln,
- die Cloud-basierte Analyseeinheit (5), welche mit der wenigstens einen Erfassungseinheit (3) kommunikationsverbunden ist, und welche dazu eingerichtet ist, die von der wenigstens einen Erfassungseinheit (3) empfangenen anlagenassoziierten Audiosignaldaten und/oder aus wenigstens einem Teil der anlagenassoziierten Audiosignaldaten extrahierte Datenmerkmale mittels künstlicher Intelligenz, insbesondere wenigstens eines maschinellen Lernalgorithmus und/oder wenigstens eines neuronalen Netzes zu analysieren und zu verarbeiten.
The invention relates to a system (1) for in particular continuous acoustic monitoring of at least one technical installation (2), in particular a machine, comprising at least:
- at least one detection unit (3) with at least one acoustic sensor device (3a), which is arranged in the vicinity of the technical installation (2) to be monitored, wherein the detection unit (3) is designed to automatically store acoustic signals of the technical installation (2) detected by means of the sensor device (3a) as audio signal data and to transmit the stored audio signal data and/or data features extracted from at least a part of the stored audio signal data associated with the at least one technical installation (2) to a cloud-based analysis unit (5),
- the cloud-based analysis unit (5), which is communicatively connected to the at least one detection unit (3), and which is configured to analyze and process the system-associated audio signal data received from the at least one detection unit (3) and/or data features extracted from at least a portion of the system-associated audio signal data by means of artificial intelligence, in particular at least one machine learning algorithm and/or at least one neural network.
Description
Die Erfindung betrifft ein System zur insbesondere fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage, insbesondere Maschine.The invention relates to a system for, in particular, continuous acoustic monitoring of at least one technical installation, in particular a machine.
Aus der Praxis bekannt sind Systeme zur Überwachung von Maschinen und Anlagen, die akustische Signale erfassen und analysieren. Schallüberwachungssysteme können sehr effektiv sein, da sie eine Vielzahl von Problemen erkennen können. Insbesondere können ungewöhnliche Geräusche, die auf fehlerhafte Lager oder andere mechanische Probleme hinweisen, detektiert werden. Sie können auch schnelle Diagnosen ermöglichen, da das Anhören von Geräuschen schneller sein kann als die Analyse von Vibrationen oder Temperaturmessungen. Ferner können akustische Überwachungssysteme sehr genau sein und Geräusche erkennen, die für das menschliche Ohr nicht hörbar sind. Dies ermöglicht es, sogar kleinste Abweichungen oder Unregelmäßigkeiten in der Maschinenfunktion zu erkennen. Außerdem können akustische Überwachungssysteme bei einer Vielzahl von Maschinen und Anlagen, unabhängig von Größe, Form oder Zweck eingesetzt werden. Mitunter können sie auch in Bereichen eingesetzt werden, in denen Temperatur- oder Vibrationsüberwachungen nicht praktikabel sind.Systems for monitoring machines and systems that record and analyze acoustic signals are well known in practice. Sound monitoring systems can be very effective because they can detect a wide range of problems. In particular, unusual noises that indicate faulty bearings or other mechanical problems can be detected. They can also enable rapid diagnosis, as listening to noises can be faster than analyzing vibrations or temperature measurements. Furthermore, acoustic monitoring systems can be very accurate and can detect noises that are inaudible to the human ear. This makes it possible to detect even the smallest deviations or irregularities in machine function. In addition, acoustic monitoring systems can be used on a wide range of machines and systems, regardless of size, shape or purpose. They can sometimes also be used in areas where temperature or vibration monitoring is not practical.
Es ist ebenfalls bekannt, mithilfe von künstlicher Intelligenz, wie Maschinenlernen, Tiefem Lernen (Deep Learning) bzw. neuronalen Netzen, Algorithmen zu trainieren, um Spektrogramme zu analysieren und Muster in den Daten zu erkennen. Diese Muster können dann dazu verwendet werden, um verschiedene Arten von Schallsignalen zu identifizieren (z. B. Sprache, Musik oder Umgebungsgeräusche) oder Anomalien bzw. Abweichungen von normalen Mustern zu detektieren. Zuvor werden die akustischen Signale über Mikrofone aufgenommen und in Spektrogramme überführt. Ein Beispiel für eine Anwendung dieser Technologie ist die Spracherkennung, bei der ein Computerprogramm trainiert wird, um die Sprache von Menschen zu erkennen und in Text umzuwandeln.It is also known to use artificial intelligence, such as machine learning, deep learning or neural networks, to train algorithms to analyze spectrograms and recognize patterns in the data. These patterns can then be used to identify different types of sound signals (e.g. speech, music or ambient noise) or to detect anomalies or deviations from normal patterns. The acoustic signals are first recorded using microphones and converted into spectrograms. An example of an application of this technology is speech recognition, in which a computer program is trained to recognize human speech and convert it into text.
Die Aufnahme von akustischen Signalen über Mikrofone und die Analyse derselben durch künstliche Intelligenz-Technologien zur Erstellung von Spektrogrammen werden auch in verschiedenen Anwendungen in der Produktion und Produktionsumgebungen eingesetzt. In der Produktion können akustische Signale von Maschinen und Ausrüstungen aufgenommen werden, um Anomalien oder Probleme in Echtzeit zu erkennen. Ferner können in Produktionsumgebungen akustische Signale zur Überwachung von Prozessen erfasst werden, um Abweichungen von normalen Betriebsbedingungen zu erkennen. Darüber hinaus können akustische Signale auch zur Steuerung von Produktionsprozessen verwendet werden. Beispielsweise können Maschinen derart programmiert werden, dass sie auf bestimmte Geräusche oder Klangmuster reagieren, um bestimmte Aktionen auszuführen, wie zum Beispiel ein Abschalten, wenn ungewöhnliche Geräusche oder Vibrationen erkannt werden.Recording acoustic signals through microphones and analyzing them using artificial intelligence technologies to create spectrograms is also used in various applications in manufacturing and production environments. In manufacturing, acoustic signals can be recorded from machines and equipment to detect anomalies or problems in real time. Furthermore, in production environments, acoustic signals can be recorded to monitor processes to detect deviations from normal operating conditions. In addition, acoustic signals can also be used to control production processes. For example, machines can be programmed to respond to certain sounds or sound patterns to perform certain actions, such as shutting down when unusual sounds or vibrations are detected.
Die
Die
Die
Die
Die bekannten Systeme erfordern oft eine aufwändige Installation und eine Anpassung an die jeweilige zu überwachende Maschine oder Anlage. Ein kompliziertes Einrichtungsverfahren kann dazu führen, dass Installationen länger dauern und möglicherweise professionelle Hilfe benötigt wird, um das System ordnungsgemäß einzurichten. Wenn das einzurichtende System komplex ist, kann dies möglicherweise hohe Installations- und Konfigurationskosten verursachen. Häufig kommen spezielle und teure Richtmikrofone zum Einsatz, welche exakt ausgerichtet werden müssen. Nicht benutzerfreundliche oder schwer einzurichtende Systeme können wiederum dazu führen, dass Benutzer die Systeme nicht richtig oder gar nicht verwenden, was die Effektivität des Überwachungssystems signifikant einschränken kann. Der mitunter hohe Aufwand für die Implementierung eines Systems für die vorausschauende Wartung (predictive maintenance) wird aktuell zum größten Teil durch die Phase der Aufbereitung oder Vorverarbeitung (preprocessing) von Daten verursacht. Gegenwärtig sind deshalb maschinelles Lernen-Projekte in kleinen und mittleren Unternehmen aufgrund des damit verbundenen erheblichen Aufwands, hohen Kosten und dem ungewissen Nutzen nicht sehr verbreitet. Möglichen Effizienzgewinnen stehen zunächst kaum übersehbare Kosten gegenüber, die meist auf mangelnde Datenqualität und Datenverfügbarkeit zurückzuführen sind. Dabei zählen die Erfassung und die Vorverarbeitung der Daten sowie das Trainieren der Algorithmen zu den zeit- und ressourcenaufwändigsten und nur in geringem Maß planbaren Aufgaben. Daher sind diese Techniken aktuell vor allem größeren Unternehmen zugänglich.The known systems often require complex installation and adaptation to the specific machine or system to be monitored. A complicated setup procedure can mean that installations take longer and professional help may be needed to set up the system properly. If the system to be set up is complex, this can potentially result in high installation and configuration costs. Special and expensive directional microphones are often used, which must be precisely aligned. Systems that are not user-friendly or difficult to set up can in turn lead to users not using the systems correctly or not using them at all, which can significantly limit the effectiveness of the monitoring system. The sometimes high effort required to implement a system for predictive maintenance is currently largely caused by the phase of preparing or preprocessing data. Machine learning and data processing are therefore currently the most common. Due to the considerable effort, high costs and uncertain benefits involved, data-driven projects are not very common in small and medium-sized companies. Potential efficiency gains are initially offset by costs that are difficult to overlook, which are mostly due to poor data quality and data availability. The collection and pre-processing of data and the training of algorithms are among the most time- and resource-intensive tasks and can only be planned to a limited extent. Therefore, these techniques are currently only accessible to larger companies.
Unübersichtliche und schwer zu verstehende Benutzerschnittstellen können insbesondere bei einem akustischen, auf künstlicher Intelligenz basierenden Überwachungssystem zusätzliche Probleme, wie etwa fehlende oder unklare Informationen, Fehlinterpretationen von Daten, Schwierigkeiten bei der Nutzung des Systems und Vertrauensverlust, verursachen.Confusing and difficult to understand user interfaces can cause additional problems, such as missing or unclear information, misinterpretation of data, difficulties in using the system and loss of trust, especially in an acoustic surveillance system based on artificial intelligence.
Ausgehend davon liegt der vorliegenden Erfindung die Aufgabe zugrunde, ein System zur insbesondere fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage zu schaffen, welches die Nachteile des Standes der Technik vermeidet, insbesondere einfach installierbar und auf verschiedene technische Anlagen oder Maschinen anpassbar ist, vorzugsweise auch kostengünstig und/oder zumindest innerhalb eines übersehbaren Kostenrahmens implementierbar ist.Proceeding from this, the present invention is based on the object of creating a system for, in particular, continuous acoustic monitoring of at least one technical system, which avoids the disadvantages of the prior art, is in particular easy to install and adaptable to various technical systems or machines, and is preferably also cost-effective and/or at least implementable within a foreseeable cost framework.
Diese Aufgabe wird erfindungsgemäß durch ein System mit den in Anspruch 1 genannten Merkmalen gelöst.This object is achieved according to the invention by a system having the features mentioned in
Erfindungsgemäß wird ein System zur fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage, insbesondere Maschine, vorgeschlagen, welches wenigstens umfasst:
- - wenigstens eine Erfassungseinheit mit wenigstens einer akustischen Sensoreinrichtung, welche in der Nähe bzw. im Bereich der zu überwachenden technischen Anlage angeordnet oder anordenbar ist, wobei die Erfassungseinheit dazu eingerichtet und insbesondere derart ausgerichtet ist, automatisiert mittels der Sensoreinrichtung erfasste akustische Signale oder Geräusche der technischen Anlage als Audiosignaldaten zu speichern und die gespeicherten Audiosignaldaten und/oder aus wenigstens einem Teil der gespeicherten Audiosignaldaten extrahierte Datenmerkmale assoziiert mit der wenigstens einen technischen Anlage an eine Cloud-basierte Analyseeinheit zu übermitteln,
- - die Cloud-basierte Analyseeinheit, welche mit der wenigstens einen Erfassungseinheit kommunikationsverbunden ist, und welche dazu eingerichtet ist, die von der wenigstens einen Erfassungseinheit empfangenen anlagenassoziierten Audiosignaldaten und/oder aus wenigstens einem Teil der Audiosignaldaten extrahierte Datenmerkmale mittels künstlicher Intelligenz, nämlich wenigstens eines maschinellen Lernalgorithmus und/oder wenigstens eines neuronalen Netzes zu analysieren und zu verarbeiten,
- - wobei bei deren Nichtvorhandensein automatisiert, insbesondere von der Cloud-basierten Analyseeinheit eine für die anlagenassoziierte Speicherung und Verarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale geeignete Datenumgebung, insbesondere Datenbanken und/oder Dateien, insbesondere in einer der Cloud-basierten Analyseeinheit zugeordneten Cloud erzeugt werden, wobei eine Vorverarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale durchgeführt wird,
- - wobei mittels der empfangenen anlagenassoziierten Audiosignaldaten und/oder der Datenmerkmale, der wenigstens eine maschinelle Lernalgorithmus und/oder das wenigstens eine neuronale Netz, insbesondere von der Cloud-basierten Analyseeinheit, unbeaufsichtigt trainiert werden, um einen Normalzustand der technischen Anlage aufzuzeichnen bzw. aufzunehmen und eine Unterscheidung von abnormen Audiosignaldaten und Datenmerkmalen zu ermöglichen, und
- - wobei die Analyse von neuen bzw. neu empfangenen anlagenassoziierten Audiosignaldaten und/oder Datenmerkmalen, insbesondere von der Cloud-basierten Analyseeinheit, insbesondere in Abhängigkeit von bereits aufgezeichneten oder gespeicherten Audiosignaldaten und/oder Datenmerkmalen, mehrstufig, in drei unterschiedlichen Stufen erfolgt.
- - at least one detection unit with at least one acoustic sensor device, which is arranged or can be arranged in the vicinity or in the area of the technical installation to be monitored, wherein the detection unit is set up and in particular oriented to automatically store acoustic signals or noises of the technical installation detected by means of the sensor device as audio signal data and to transmit the stored audio signal data and/or data features extracted from at least a part of the stored audio signal data associated with the at least one technical installation to a cloud-based analysis unit,
- - the cloud-based analysis unit, which is communicatively connected to the at least one detection unit and which is configured to analyze and process the system-associated audio signal data received from the at least one detection unit and/or data features extracted from at least a portion of the audio signal data by means of artificial intelligence, namely at least one machine learning algorithm and/or at least one neural network,
- - in the absence of such data, a data environment suitable for the system-associated storage and processing of the received audio signal data and/or the data features, in particular databases and/or files, are generated automatically, in particular by the cloud-based analysis unit, in particular in a cloud assigned to the cloud-based analysis unit, wherein a preprocessing of the received audio signal data and/or the data features is carried out,
- - wherein, by means of the received system-associated audio signal data and/or the data features, the at least one machine learning algorithm and/or the at least one neural network are trained unsupervised, in particular by the cloud-based analysis unit, in order to record or record a normal state of the technical system and to enable a distinction to be made between abnormal audio signal data and data features, and
- - wherein the analysis of new or newly received system-associated audio signal data and/or data features, in particular from the cloud-based analysis unit, in particular depending on already recorded or stored audio signal data and/or data features, is carried out in several stages, in three different stages.
Mittels des erfindungsgemäßen Systems können technische Anlagen und Systeme an sieben Wochentagen rund um die Uhr (24/7) überwacht werden, ohne hierfür explizit Personal zu benötigen. Durch die akustische Erfassung aller Signale in den entsprechenden Räumen und die automatische Detektion von Anomalien unter Verwendung von künstlicher Intelligenz übernimmt das erfindungsgemäße System als All-in-one-Lösung nach einer kurzen Anlernzeit die Aufgabe eines qualifizierten Instandhalters für die jeweiligen technischen Anlagen und Systeme. Da die erfindungsgemäße Lösung selbständig auf Basis der in dem zu überwachenden Raum bzw. Bereich verfügbaren Informationen lernt, können unterschiedlichste technische Anlagen und Systeme überwacht werden. Ein Customizing oder dergleichen ist nicht erforderlich. Dadurch werden die Verfügbarkeiten der technischen Anlagen und Systeme erhöht, die Fehleranfälligkeit reduziert sowie Kosten und Zeit eingespart. Somit kann die Prozessqualität verbessert werden. Der Einstieg in die künstliche Intelligenz wird mit der erfindungsgemäßen All-in-one-Lösung stark vereinfacht. Ohne jegliche Konfiguration, Customizing und die Initiierung eines aufwändigen Projekts kann das erfindungsgemäße System einen einfachen Einstieg in die künstliche Intelligenz darstellen. Durch die Möglichkeit der Ferndiagnose lassen sich die Fahrtzeiten von Technikern optimieren bzw. minimieren. Es ist kein komplizierter Einbau des Überwachungssystems in die technische Anlage bzw. Maschine vonnöten. Mit dem erfindungsgemäßen System können eine Vielzahl unterschiedlicher Ausfallursachen erkannt werden. Das System kann kontinuierlich dazulernen und sich dem Wissen von Fachpersonal anpassen. Ein Einsatz in Umgebungen, in denen Menschen sich nicht lange aufhalten können oder sollten, ist ebenfalls denkbar. Benachrichtigungen über mögliche Anomalien oder Ausfälle können beispielsweise per E-Mail erfolgen.By means of the system according to the invention, technical systems and installations can be monitored 24 hours a day, seven days a week, without the explicit need for personnel. By acoustically recording all signals in the relevant rooms and automatically detecting anomalies using artificial intelligence, the system according to the invention, as an all-in-one solution, takes on the role of a qualified maintenance engineer for the relevant technical systems and installations after a short training period. Since the solution according to the invention learns independently on the basis of the information available in the room or area to be monitored, a wide variety of technical systems and installations can be monitored. Systems are monitored. Customizing or the like is not necessary. This increases the availability of the technical systems and systems, reduces the susceptibility to errors and saves costs and time. This can improve process quality. Getting started with artificial intelligence is made much easier with the all-in-one solution according to the invention. Without any configuration, customizing or the initiation of a complex project, the system according to the invention can represent a simple introduction to artificial intelligence. The possibility of remote diagnosis allows the travel times of technicians to be optimized or minimized. There is no need for complicated installation of the monitoring system in the technical system or machine. The system according to the invention can detect a large number of different causes of failure. The system can continuously learn and adapt to the knowledge of specialist personnel. It is also conceivable that it can be used in environments in which people cannot or should not spend long periods of time. Notifications of possible anomalies or failures can be sent by email, for example.
Als technische Anlage soll im Rahmen der Erfindung eine planvolle und systematische Zusammenstellung von in räumlichem Zusammenhang stehenden Apparaten, Geräten und/oder Maschinen inklusive zugehöriger Bauten bzw. Stützkonstruktionen, die funktional, steuerungstechnisch oder sicherheitstechnisch miteinander verbunden sein können, verstanden werden. Die technischen Anlagen können eine Vielzahl von beweglichen Teilen sowie elektrische bzw. elektronische oder auch optoelektronische Geräte umfassen.In the context of the invention, a technical system is to be understood as a planned and systematic assembly of spatially related apparatus, devices and/or machines, including associated buildings or supporting structures, which can be connected to one another in terms of function, control technology or safety technology. The technical systems can include a large number of moving parts as well as electrical or electronic or optoelectronic devices.
Das erfindungsgemäße System kann als Plug-and-Play-System zur automatisierten akustischen Erfassung und Analyse von Maschinen- und Anlagengeräuschen verwendet werden, ohne dass aufwändige Installationen oder Anpassungen für unterschiedliche Maschinen oder Anlagen erforderlich sind. Das System umfasst eine Erfassungseinheit und eine Cloud-basierte künstliche Intelligenz-Analyseplattform (Smart Cloud). Die entsprechend ausgerichtete und in der Nähe der zu überwachenden technischen Anlage angeordnete oder anordenbare Erfassungseinheit zeichnet automatisiert akustische Signale der Maschine bzw. Anlage auf, extrahiert Merkmale und übermittelt diese mitsamt den aufgezeichneten akustischen Signalen an die Analyseeinheit bzw. Analyseplattform. Die Erfassungseinheit kann eine kostengünstige Alternative zu teurer Spezialausrüstung sein. Dadurch werden die Kosten für die Ausrüstung gesenkt, wobei es gleichzeitig ermöglicht wird, die erfindungsgemäße Technologie auch in kleineren Produktionsumgebungen einzusetzen. In der Cloud-basierten Analyseplattform werden automatisch die passenden Datenbanken bzw. Dateien zur Speicherung der erfassten Sounddaten und/oder Merkmale erstellt, die Daten für die nachgelagerten maschinellen Lernalgorithmen vorverarbeitet, die maschinellen Lernalgorithmen für die Anomalieerkennung und Geräuschklassifizierung trainiert und die Geräusche analysiert. Die Analyseeinheit weist ein System zur automatisierten Analyse von akustischen Signalen auf, welches auf einem mehrstufigen Algorithmus basiert. Zunächst wird ein Normalzustand aus mehreren Audiodateien erstellt, der für das Training eines Algorithmus verwendet wird, der zwischen normalen und abnormalen Signalen unterscheiden kann. Der Nutzer muss am Anfang keine Daten manuell klassifizieren, um aussagekräftige Vorhersagen zu erhalten. Das System verwendet eine mehrstufige Anomalienerkennung, wobei Zustände, die durch den unbeaufsichtigten Lernalgorithmus (unsupervised learning) gefunden wurden, als Grundlage für ein effizienteres supervised learning dienen können. Es besteht die Möglichkeit, spezielle Alarme auf Basis der erkannten Geräusche auszugeben, welche beispielsweise per E-Mail übermittelt werden. Das System kann in verschiedenen Anwendungsgebieten, wie Maschinendiagnostik, Sicherheitsüberwachung und Qualitätssicherung eingesetzt werden.The system according to the invention can be used as a plug-and-play system for the automated acoustic recording and analysis of machine and system noises without the need for complex installations or adaptations for different machines or systems. The system comprises a recording unit and a cloud-based artificial intelligence analysis platform (smart cloud). The recording unit, which is appropriately aligned and arranged or can be arranged near the technical system to be monitored, automatically records acoustic signals from the machine or system, extracts features and transmits them together with the recorded acoustic signals to the analysis unit or analysis platform. The recording unit can be a cost-effective alternative to expensive special equipment. This reduces the cost of the equipment, while at the same time making it possible to use the technology according to the invention in smaller production environments. In the cloud-based analysis platform, the appropriate databases or files for storing the recorded sound data and/or features are automatically created, the data is preprocessed for the downstream machine learning algorithms, the machine learning algorithms for anomaly detection and noise classification are trained, and the noises are analyzed. The analysis unit has a system for the automated analysis of acoustic signals, which is based on a multi-stage algorithm. First, a normal state is created from several audio files, which is used to train an algorithm that can distinguish between normal and abnormal signals. The user does not have to manually classify data at the beginning in order to obtain meaningful predictions. The system uses multi-stage anomaly detection, whereby states found by the unsupervised learning algorithm can serve as the basis for more efficient supervised learning. It is possible to issue special alarms based on the detected noises, which are sent, for example, by email. The system can be used in various application areas, such as machine diagnostics, safety monitoring and quality assurance.
Das erfindungsgemäße System umfasst eine Kombination aus einer kostengünstigen Erfassungseinheit und einer Cloud-basierten künstlichen Intelligenz-Analyseeinheit bzw. -Plattform, die automatisch Datenbanken erstellt und maschinelle Lernalgorithmen trainiert. Das System kann ohne aufwändige Installationen oder Anpassungen für verschiedene Maschinen oder Anlagen verwendet werden, was es zu einer praktischen und benutzerfreundlichen Lösung macht. Das erfindungsgemäße System kann als innovative und effektive Lösung betrachtet werden, die eine einfache und kosteneffiziente Möglichkeit bietet, akustische Signale von Maschinen und Anlagen zu erfassen und zu analysieren.The system according to the invention comprises a combination of a low-cost acquisition unit and a cloud-based artificial intelligence analysis unit or platform that automatically creates databases and trains machine learning algorithms. The system can be used for different machines or systems without complex installations or adaptations, making it a practical and user-friendly solution. The system according to the invention can be considered an innovative and effective solution that offers a simple and cost-efficient way to capture and analyze acoustic signals from machines and systems.
Bei der Analyse der neuen bzw. neu empfangenen anlagenassoziierten Audiosignaldaten und/oder der Datenmerkmale:
- - werden in einer ersten Stufe Anomalien erkannt, insbesondere wenn eine Abweichung von dem aufgezeichneten Normalzustand der wenigstens einen technischen Anlage vorliegt,
- - ist in einer zweiten Stufe ein Fehler der wenigstens einen technischen Anlage klassifizierbar, insbesondere ein Klappern oder eine Kavitation, und
- - ist in einer dritten Stufe ein Ausfall der wenigstens einen technischen Anlage vorhersagbar.
- - in a first stage, anomalies are detected, in particular if there is a deviation from the recorded normal state of the at least one technical installation,
- - in a second stage, a fault in the at least one technical system can be classified, in particular a rattling or cavitation, and
- - in a third stage, a failure of at least one technical system can be predicted.
Die Analyse von Sounddaten erfolgt in drei Stufen, was den Vorteil mit sich bringt, dass das zeitaufwändige und kostenintensive Sammeln und Vorverarbeiten von Daten (preprocessing) durch maschinelle Lernalgorithmen deutlich reduziert wird. Jede Maschine bzw. Anlage hat ihre eigene Geräuschkulisse, weshalb der Algorithmus zunächst die verschiedenen Geräusche erlernen muss. Dazu müssen jedoch viele Audiodaten mit dem entsprechenden Label (normal/anormal) klassifiziert werden. Um diesen Aufwand zu minimieren, wird zuerst der Normalzustand der Anlage aufgenommen und ein unbeaufsichtigter (unsupervised) Lernalgorithmus trainiert. Mit dieser Technik können dann Abweichungen vom aufgenommenen Normalzustand erkannt werden.The analysis of sound data takes place in three stages, which has the advantage that the time-consuming and costly collection and preprocessing of data by machine learning algorithms is significantly reduced. Every machine or system has its own background noise, which is why the algorithm must first learn the different sounds. To do this, however, a lot of audio data must be classified with the corresponding label (normal/abnormal). To minimize this effort, the normal state of the system is first recorded and an unsupervised learning algorithm is trained. This technique can then be used to detect deviations from the recorded normal state.
Die Soundanalyse ist mehrstufig, nämlich dreistufig aufgebaut, da für jede Stufe erst genügend Daten gesammelt werden sollten.The sound analysis is structured in three stages, since sufficient data must be collected for each stage.
In der ersten Stufe kann der Normalzustand der Maschine aufgenommen werden. Jede Abweichung stellt eine Anomalie dar und kann auf einen Fehler in der Maschine hindeuten.In the first stage, the normal state of the machine can be recorded. Any deviation represents an anomaly and may indicate a fault in the machine.
In der zweiten Stufe kann das System nicht nur eine Anomalie feststellen, sondern dem entsprechenden Instandhaltungsmitarbeiter auch anzeigen, welche Art von Anomalie (z. B. Kavitation) vorliegt.In the second stage, the system can not only detect an anomaly but also indicate to the relevant maintenance employee what type of anomaly (e.g. cavitation) is present.
In der dritten Stufe kann sich voraussagen lassen, wann (z. B. in einer Anzahl von Tagen) Ausfälle technischer Anlagen und Systeme wahrscheinlich werden.In the third stage, it is possible to predict when (e.g. in a number of days) failures of technical equipment and systems are likely to occur.
Eine dreistufige Analyse kann die Möglichkeit bieten, im ersten Schritt einfach in die künstliche Intelligenz einzusteigen und die Zustände der Anlage (normal/anormal) zu bestimmen, im zweiten Schritt qualifizierte Informationen über Fehler zu erhalten und im dritten Schritt Vorhersagen zu treffen, wann entsprechende technische Anlagen und Maschinen ausfallen könnten.A three-stage analysis can offer the possibility of simply entering the artificial intelligence in the first step and determining the states of the system (normal/abnormal), obtaining qualified information about errors in the second step and making predictions in the third step as to when corresponding technical systems and machines might fail.
Erfindungsgemäß ist, insbesondere auf der Cloud-basierten Analyseeinheit ferner ein Spracherkennungsalgorithmus vorhanden oder wird ausgeführt, welcher die von der wenigstens einen Erfassungseinheit empfangenen Audiosignaldaten auf vorhandene Sprachanteile überprüft, wobei Audiosignaldaten, bei welchen Sprachanteile von dem im Spracherkennungsalgorithmus erkannt wurden, nicht gespeichert oder verarbeitet werden.According to the invention, a speech recognition algorithm is also present or is executed, in particular on the cloud-based analysis unit, which checks the audio signal data received from the at least one detection unit for the presence of speech components, wherein audio signal data in which speech components were recognized by the speech recognition algorithm are not stored or processed.
Ein weiterer maschineller Lernalgorithmus kann aus Datenschutzgründen die erfassten Geräusche auf mögliche Sprache überprüfen. Sollte eine Sprache erkannt werden, werden diese Geräusche nicht gespeichert. Damit sichergestellt wird, dass nicht versehentlich Unterhaltungen von Personen aufgezeichnet werden, kann somit eine Spracherkennung integriert werden.For data protection reasons, another machine learning algorithm can check the recorded sounds for possible speech. If speech is detected, these sounds are not saved. To ensure that people's conversations are not accidentally recorded, speech recognition can be integrated.
Bei dem Training des wenigstens einen maschinellen Lernalgorithmus und/oder wenigstens einen neuronalen Netzes können zusätzlich Benutzereingaben berücksichtigt werden, wobei vorzugsweise dem Benutzer zur Unterstützung der Entscheidungsfindung die zu klassifizierenden Audiosignaldaten anhörbar, visuell in Form eines Spektrogramms und/oder unter Angabe eines vorläufigen, von dem wenigstens einen maschinellen Lernalgorithmus und/oder wenigstens einen neuronalen Netzes automatisiert ermittelten Analyseergebnisses angezeigt werden.When training the at least one machine learning algorithm and/or at least one neural network, user inputs can additionally be taken into account, wherein the audio signal data to be classified are preferably displayed to the user in an audible manner, visually in the form of a spectrogram and/or with an indication of a preliminary analysis result automatically determined by the at least one machine learning algorithm and/or at least one neural network in order to support the decision-making process.
Die vorhergesagten Zustände können dem Benutzer in einer übersichtlichen Darstellung, als anhörbare Audiodatei oder Spektrogramm, vorzugsweise Melspektrogramm bereitgestellt werden, um den Benutzer bei der Entscheidungsfindung zu unterstützen. Das System verwendet einen aktiven Lernalgorithmus, um das Domainwissen des Benutzers zu nutzen und den Algorithmus aktiv zu verbessern. Das System kann zusätzlich neben den Melspektrogrammen und den anhörbaren Audiodaten einen maschinellen Lernalgorithmus verwenden, welcher das bereitgestellte Geräusch analysiert und neben der Verwendung als Spracherkennung dem Benutzer vorschlägt, wie das Geräusch klingt. Dadurch kann der Benutzer bei der Entscheidungsfindung weiter unterstützt werden. Zusätzlich kann die Möglichkeit bestehen, diesen maschinellen Lernalgorithmus für die Geräuschklassifizierung auf die spezifischen Geräusche (z. B. Kavitation, Klappern) der Benutzerumgebung durch Transferlearning und Soundbeispiele anzupassen.The predicted states can be provided to the user in a clear representation, as an audible audio file or spectrogram, preferably a melspectrogram, to support the user in making decisions. The system uses an active learning algorithm to use the user's domain knowledge and actively improve the algorithm. In addition to the melspectrograms and the audible audio data, the system can also use a machine learning algorithm which analyzes the provided noise and, in addition to being used as speech recognition, suggests to the user what the noise sounds like. This can further support the user in making decisions. In addition, it can be possible to adapt this machine learning algorithm for noise classification to the specific noises (e.g. cavitation, rattling) of the user's environment through transfer learning and sound examples.
Die Datenmerkmale können aus Audiosignaldaten oder Abschnitten von Audiosignaldaten von jeweils fünf Sekunden Aufzeichnungsdauer extrahiert werden. Die Audiosignaldaten bzw. Abschnitte können in Intervallen von beispielsweise 2 Minuten gesammelt und analysiert werden.The data features can be extracted from audio signal data or sections of audio signal data, each with a recording duration of five seconds. The audio signal data or sections can be collected and analyzed at intervals of, for example, 2 minutes.
Die wenigstens eine Erfassungseinheit oder die Cloud-basierte Analyseeinheit kann die Datenmerkmale aus den Audiosignaldaten extrahieren. D. h. die wenigstens eine Erfassungseinheit oder die Cloud-basierte Analyseeinheit können jeweils dazu eingerichtet sein, Datenmerkmale aus wenigstens einem Teil der gespeicherten bzw. empfangenen Audiosignaldaten zu extrahieren.The at least one acquisition unit or the cloud-based analysis unit can extract the data features from the audio signal data. This means that the at least one acquisition unit or the cloud-based analysis unit can each be configured to extract data features from at least a portion of the stored or received audio signal data.
Die Audiosignaldaten und/oder die extrahierten Datenmerkmale können von der Erfassungseinheit an die Cloud-basierte Analyseeinheit mit einer Sensor-ID und einer Anlage- oder Kunden-ID, insbesondere über Message Queing Telemetry Transport (MQTT) übermittelt werden.The audio signal data and/or the extracted data features can be transmitted from the acquisition unit to the cloud-based analysis unit with a sensor ID and a facility or customer ID, in particular especially via Message Queuing Telemetry Transport (MQTT).
Die Erfassungseinheit kann über MQTT unter anderem die erfassten Audiosignaldaten, die extrahierten Merkmale sowie eine Sensor-ID und Kunden-ID versenden. Dadurch ist die Analyseplattform in der Lage zu bestimmen, zu welchem Kunden der Sensor bzw. die sendende Erfassungseinheit gehört und folglich in welcher Datenbank die empfangenen Daten abgespeichert werden müssen. Bei MQTT handelt es sich um ein Nachrichtenprotokoll für eingeschränkte Netzwerke mit geringer Bandbreite. Aufgrund der Sensor-ID und der Kunden-ID kann ein Algorithmus auf der Analyseplattform erkennen, ob dieser Sensor bereits vorhanden ist und zu welcher Datenbank der Sensor gehört. Die Erstellung der notwendigen Datenbanken, das Sammeln und Abspeichern der Daten, das Trainieren und Testen der maschinellen Lernalgorithmen, die Verwendung des neuesten und durch das Feedback des Benutzers angepassten maschinellen Lernalgorithmus wird automatisiert von der Cloud-basierten künstlichen Intelligenz-Analyseplattform erledigt. Der Benutzer muss nichts weiter unternehmen und kann per E-Mail benachrichtigt werden, sobald eine Anomalie aufgetaucht ist.The acquisition unit can use MQTT to send, among other things, the acquired audio signal data, the extracted features, a sensor ID and customer ID. This enables the analysis platform to determine which customer the sensor or the sending acquisition unit belongs to and consequently in which database the received data must be stored. MQTT is a messaging protocol for restricted, low-bandwidth networks. Based on the sensor ID and customer ID, an algorithm on the analysis platform can determine whether this sensor already exists and which database the sensor belongs to. The creation of the necessary databases, the collection and storage of the data, the training and testing of the machine learning algorithms, the use of the latest machine learning algorithm adapted based on the user's feedback are all done automatically by the cloud-based artificial intelligence analysis platform. The user does not have to do anything else and can be notified by email as soon as an anomaly has appeared.
Das erfindungsgemäße System kann ferner eine Visualisierungsanwendung umfassen, welche mit der Cloud-basierten Analyseeinheit kommunikationsverbunden ist und anlagenassoziiert dem Benutzer mögliche Zustände der wenigstens einen technischen Anlage, insbesondere visuell in Form von Tabellen, Dashboards oder Spektrogrammen und/oder als anhörbare Audiosignaldaten anzeigt.The system according to the invention can further comprise a visualization application which is communicatively connected to the cloud-based analysis unit and displays possible states of the at least one technical system to the user in a system-associated manner, in particular visually in the form of tables, dashboards or spectrograms and/or as audible audio signal data.
Das erfindungsgemäße System kann eine Weboberfläche bzw. Visualisierungsanwendung bereitstellen, in welcher das Ergebnis der Aufzeichnung und das Ergebnis der Anomaliedetektion dem Benutzer angezeigt werden kann. Die Weboberfläche kann über die Eingabe einer entsprechenden URL und eine Authentifikation erreichbar sein. Jede Erfassungseinheit kann ein eigenes Dashboard, in welchem die Ergebnisse der Überwachung sichtbar werden, aufweisen. Der Benutzer kann über das Dashboard insbesondere:
- - den Status der Überwachung im Zeitverlauf betrachten;
- - farblich codierte Anomalien im Zeitverlauf feststellen;
- - die aktiven Tonsignale, die zur Aufzeichnung der Anomalie führten, anhören und ansehen;
- - die detektierten Anomalien markieren (als Anomalie bestätigt oder es liegt keine Anomalie vor);
- - die bestätigten Anomalien bezeichnen (beispielsweise mit einem konkreten Fehler, der festgestellt wurde); und
- - die Daten für weitere Stufen verwenden.
- - view the status of monitoring over time;
- - identify color-coded anomalies over time;
- - listen to and view the active audio signals that led to the recording of the anomaly;
- - mark the detected anomalies (confirmed as anomaly or no anomaly);
- - identify the confirmed anomalies (for example, with a specific error that was detected); and
- - use the data for further stages.
Dadurch kann der Benutzer des erfindungsgemäßen Systems im ersten Schritt alle betreffenden Maschinen/Anlagen mit der Erfassungseinheit (sozusagen als entferntes Ohr) überwachen, Auffälligkeiten feststellen, festgestellte Auffälligkeiten markieren und bezeichnen. Mittels der künstlichen Intelligenz kann das System die üblichen Geräusche der Maschine/Anlage erlernen, anomale Geräusche feststellen und diese markieren. Das lernende System kann dank dem Wissen und Feedback der Benutzer immer präziser werden und dann in der Lage sein eindeutig anzuzeigen, wenn entsprechende Ausfälle in Form von Anomalien festgestellt wurden.As a result, the user of the system according to the invention can, in the first step, monitor all the machines/systems concerned with the detection unit (as a remote ear, so to speak), identify any abnormalities, mark and label any abnormalities found. Using artificial intelligence, the system can learn the usual noises of the machine/system, identify abnormal noises and mark them. Thanks to the knowledge and feedback of the users, the learning system can become increasingly more precise and then be able to clearly indicate when corresponding failures in the form of anomalies have been identified.
Dem Benutzer können mögliche Zustände seiner Maschine oder Anlage in einer übersichtlichen Darstellung in Form von Dashboards und Tabellen, sowie als anhörbare Audiodateien und Spektrogramme (insbesondere Melspektrogramme) bereitgestellt werden. Melspektrogramme bieten den großen Vorteil, dass akustische Signale visuell verständlich für den Menschen aufbereitet werden. Dies erlaubt eine zusätzliche Bewertung des Geräuschs, da das Gehör im Alter abnimmt und bei jedem Menschen unterschiedlich ausgeprägt ist. Durch das reine Anhören des Geräuschs könnten einige Personen eventuell nichts wahrnehmen und somit potenzielle Risiken durch z. B. Wellenschwingungen, Unwuchten, Eingriffsfrequenzen von Zahnrädern und Stoßimpulse von Getrieben bzw. Wälzlagern, welche üblicherweise in höheren Frequenzen auftreten, nicht erkennen. Die Zustände für die Anomalieerkennung (z. B. normal/anormal) sowie für die Geräuschklassifikationen (z. B. Kavitation, Klappern) kann effizient in der Oberfläche eingegeben werden und das System kann durch Drücken eines Buttons automatisch darauf angepasst werden.The user can be provided with possible states of their machine or system in a clear representation in the form of dashboards and tables, as well as audible audio files and spectrograms (especially Melspectrograms). Melspectrograms offer the great advantage that acoustic signals are processed in a way that is visually understandable for humans. This allows an additional assessment of the noise, since hearing deteriorates with age and is different for each person. By simply listening to the noise, some people may not notice anything and thus not recognize potential risks from, for example, shaft vibrations, imbalances, meshing frequencies of gears and shock pulses from gears or rolling bearings, which usually occur at higher frequencies. The states for anomaly detection (e.g. normal/abnormal) and for noise classifications (e.g. cavitation, rattling) can be efficiently entered in the interface and the system can be automatically adjusted to them by pressing a button.
In Anspruch 7 ist ein Verfahren zur fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage, insbesondere Maschine, mittels eines erfindungsgemäßen Systems angegeben.
Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.Advantageous embodiments and further developments of the invention are specified in the subclaims.
Nachfolgend ist anhand der Zeichnung prinzipmäßig ein Ausführungsbeispiel der Erfindung beschrieben.An embodiment of the invention is described in principle below with reference to the drawing.
Es zeigt:
-
1 Eine schematische Darstellung zur Verdeutlichung der Funktionsweise eines erfindungsgemäßen Systems; -
2 eine schematische Darstellung zur Veranschaulichung des Sicherheitskonzepts und des Datenflusses des erfindungsgemäßen Systems; -
3 ein Ablaufdiagramm zur Veranschaulichung eines erfindungsgemäßen Verfahrens, welches auf dem erfindungsgemäßen System abläuft; -
4 eine schematische Darstellung einer Analyse von Sounddaten durch das erfindungsgemäße System in drei Stufen; -
5 eine vereinfachte Darstellung eines ersten Teils einer Benutzerschnittstelle des erfindungsgemäßen Systems; und -
6 eine vereinfachte Darstellung eines zweiten Teils der Benutzerschnittstelle des erfindungsgemäßen Systems.
-
1 A schematic representation to illustrate the functioning of a system according to the invention; -
2 a schematic representation to illustrate the security concept and the data flow of the system according to the invention; -
3 a flow chart to illustrate a method according to the invention which runs on the system according to the invention; -
4 a schematic representation of an analysis of sound data by the system according to the invention in three stages; -
5 a simplified representation of a first part of a user interface of the system according to the invention; and -
6 a simplified representation of a second part of the user interface of the system according to the invention.
In den Figuren sind funktionsgleiche Elemente mit denselben Bezugszeichen versehen.In the figures, functionally identical elements are provided with the same reference symbols.
- - wenigstens eine Erfassungseinheit 3 mit wenigstens einer akustischen Sensoreinrichtung 3a (in
1 symbolisch als Mikrofon angedeutet), welche in der Nähe bzw. in einem Bereich bzw. in einemRaum 4 der zu überwachenden technischen Anlage 2 angeordnet oder anordenbar ist,wobei die Erfassungseinheit 3 dazu eingerichtet und insbesondere auch entsprechend ausgerichtet ist, automatisiert mittels der Sensoreinrichtung 3a erfasste akustische Signale der technischen Anlage 2 als Audiosignaldaten zu speichern und die gespeicherten Audiosignaldaten und/oder aus wenigstens einem Teil der gespeicherten Audiosignaldaten extrahierte Datenmerkmale assoziiert mit der wenigstens einen technischen Anlage 2 an eine Cloud-basierte Analyseeinheit 5 zu übermitteln, - - die Cloud-
basierte Analyseeinheit 5, welche mit der wenigstens einen Erfassungseinheit 3 kommunikationsverbunden ist (durch Kommunikationssymbole 6 angedeutet), und welche dazu eingerichtet ist, die von der wenigstens einen Erfassungseinheit 3 empfangenen anlagenassoziierten Audiosignaldaten und/oder aus wenigstens einem Teil der anlagenassoziierten Audiosignaldaten extrahierte Datenmerkmale mittels künstlicher Intelligenz, insbesondere wenigstens eines maschinellen Lernalgorithmus und/oder wenigstens eines neuronalen Netzes zu analysieren und zu verarbeiten, - - wobei bei deren Nichtvorhandensein automatisiert eine für die anlagenassoziierte Speicherung und Verarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale geeignete Datenumgebung, insbesondere eine oder mehrere Datenbanken 10 (siehe
2 ) und/oder Dateien erzeugt werden, wobei eine Vorverarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale durchgeführt wird, - - wobei mittels der empfangenen anlagenassoziierten Audiosignaldaten und/oder der Datenmerkmale, der wenigstens eine maschinelle Lernalgorithmus und/oder das wenigstens eine neuronale Netz vorzugsweise unbeaufsichtigt trainiert werden, insbesondere um einen Normalzustand der technischen Anlage 2 aufzuzeichnen bzw. in der wenigstens einen Datenbank abzuspeichern und eine Unterscheidung von abnormen Audiosignaldaten und Datenmerkmalen zu ermöglichen, und
- - wobei die Analyse von neuen bzw. neu empfangenen anlagenassoziierten Audiosignaldaten und/oder Datenmerkmalen, insbesondere in Abhängigkeit von bereits aufgezeichneten oder gespeicherten Audiosignaldaten und/oder Datenmerkmalen, mehrstufig, vorzugsweise in drei unterschiedlichen Stufen erfolgt.
- - at least one
detection unit 3 with at least one acoustic sensor device 3a (in1 symbolically indicated as a microphone), which is arranged or can be arranged in the vicinity of or in an area or in aroom 4 of thetechnical installation 2 to be monitored, wherein thedetection unit 3 is set up and in particular also aligned accordingly to automatically store acoustic signals of thetechnical installation 2 detected by means of the sensor device 3a as audio signal data and to transmit the stored audio signal data and/or data features extracted from at least a part of the stored audio signal data associated with the at least onetechnical installation 2 to a cloud-basedanalysis unit 5, - - the cloud-based
analysis unit 5, which is communicatively connected to the at least one detection unit 3 (indicated by communication symbols 6), and which is set up to analyze and process the system-associated audio signal data received by the at least onedetection unit 3 and/or data features extracted from at least a portion of the system-associated audio signal data by means of artificial intelligence, in particular at least one machine learning algorithm and/or at least one neural network, - - in the absence of such a data environment, in particular one or more databases 10 (see
2 ) and/or files are generated, whereby a preprocessing of the received audio signal data and/or the data features is carried out, - - wherein the at least one machine learning algorithm and/or the at least one neural network are preferably trained unsupervised by means of the received system-associated audio signal data and/or the data features, in particular in order to record a normal state of the
technical system 2 or to store it in the at least one database and to enable a distinction to be made between abnormal audio signal data and data features, and - - wherein the analysis of new or newly received system-associated audio signal data and/or data features, in particular depending on already recorded or stored audio signal data and/or data features, is carried out in several stages, preferably in three different stages.
Eine Geräuschkulisse der überwachten Anlage 2 bzw. Maschine ist in
Das erfindungsgemäße System 1 kann als Plug and Play-System ausgeführt sein. Dabei kann die Erfassungseinheit 3 z. B. über einen Netzstecker mit dem Stromnetz verbunden werden und in dem Raum, in der sich die zu überwachende technische Anlage 2 bzw. Maschine befindet, platziert und entsprechend ausgerichtet werden. Die Geräuschkulisse 7 der technischen Anlage 2 sollte an dem Ort, an dem die Erfassungseinheit 3 angeordnet wird, hörbar sein, d. h. eine bestimmte Lautstärke aufweisen. Anschließend wird die Erfassungseinheit 3 mit dem Internet verbunden. Dazu kann eine Smartphone App zum Einsatz kommen, welche heruntergeladen wird und die Erfassungseinheit 3 mit dem Internet verbinden kann. Eine derartige App kann sich per Bluetooth mit der Erfassungseinheit 3 verbinden und der Benutzer kann die SSID und das Passwort seines WLANs eingeben. Die Erfassungseinheit 3 kann sich dann anschließend mit dem WLAN und dem Internet verbinden. Alternativ kann die Erfassungseinheit 3 über ein LAN-Kabel verbindbar sein. Schließlich gibt es noch die Möglichkeit, die Erfassungseinheit 3 über einen USB-Anschluss mit dem Internet zu verbinden.The
Die Erfassungseinheit 3 kann auch ein LTE-Modul und eine Antenne aufweisen, um dem Benutzer U die Möglichkeit zu geben, das erfindungsgemäße System 1 zu verwenden, auch wenn keine Möglichkeit besteht, es direkt über WLAN oder LAN mit dem Internet zu verbinden. Die Erfassungseinheit 3 kann einen Einplatinencomputer und ein Mikrofonmodul als Sensoreinrichtung 3a aufweisen.The
In
Die Cloud-basierte Analyseeinheit 5 bzw. der Server 5a können einen Spracherkennungsalgorithmus bzw. eine künstliche Intelligenz-basierte Spracherkennung 13 aufweisen, welcher die von der wenigstens einen Erfassungseinheit empfangenen Audiosignaldaten auf vorhandene Sprachanteile überprüft, wobei Audiosignaldaten, bei welchen Sprachanteile von dem Spracherkennungsalgorithmus erkannt wurden, nicht gespeichert oder verarbeitet werden. Für die künstliche Intelligenz-basierte Spracherkennung kann ein tiefes neuronales Netz verwendet werden, welches entsprechend trainiert wurde und somit eine hohe Erkennungsquote besitzt. Sobald die Audiodaten von der Erfassungseinheit 3 an den MQTT-Broker 11 übermittelt wurden, werden diese im ersten Schritt mit der künstlichen Intelligenz-basierten Spracherkennung auf menschliche Stimmen überprüft. Hier kann jede einzelne Sekunde der Aufnahme auf vorhandene Stimmen analysiert werden. Wird eine Stimme erkannt, werden die Audiodaten nicht gespeichert. Damit kann sichergestellt werden, dass nicht versehentlich Unterhaltungen von Personen aufgezeichnet werden.The cloud-based
Die Visualisierungsanwendung 8 erhält Eingangssignale von der künstlichen Intelligenz-basierten Spracherkennung (Daten ohne menschliche Stimmen) und dem Visualisierungstool 12. Die Visualisierungsanwendung 8 hat ebenfalls Zugriff auf die Datenbank 10.The
Nachfolgend können in einem Schritt S3 die Audiosignaldaten und/oder die extrahierten Datenmerkmale von der Erfassungseinheit 3 an die Cloud-basierte Analyseeinheit 5 zusammen mit einer Sensor-ID und einer Anlage- oder Kunden-ID, insbesondere über Message Queing Telemetry Transport (MQTT), übermittelt werden.Subsequently, in a step S3, the audio signal data and/or the extracted data features can be transmitted from the
Auf der Cloud-basierten Analyseeinheit 5 wird in einem Schritt S4 geprüft, ob die notwendigen Datenbanken und Dashboards vorhanden sind, wobei bei deren Nichtvorhandensein automatisiert eine für die anlagenassoziierte Speicherung und Verarbeitung der empfangenen Audiosignaldaten und der Datenmerkmale geeignete Datenumgebung, insbesondere eine oder mehrere Datenbanken 10 und/oder Dateien bzw. Dashboards, erzeugt wird, wobei eine Vorverarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale durchgeführt werden kann.In a step S4, the cloud-based
In einem Schritt S5 werden anschließend die Geräusche klassifiziert. Werden Sprachanteile in den Rohdaten bzw. Audiosignaldaten festgestellt, so werden diese nicht in der Datenbank 10 zum Anhören abgespeichert.In a step S5, the noises are then classified. If speech components are detected in the raw data or audio signal data, these are not stored in the
In einem Schritt S6 werden die extrahierten Datenmerkmale in der Datenbank 10 für das spätere Training der maschinellen Lernalgorithmen gespeichert.In a step S6, the extracted data features are stored in the
Nach einer Dauer von beispielsweise sieben Tagen können in einem Schritt S7 automatisch alle gesammelten Merkmale aus der Datenbank 10 ausgelesen und der wenigstens eine maschinelle Lernalgorithmus mit diesen Daten trainiert werden.After a period of, for example, seven days, all collected features can be automatically read out from the
In einem Schritt S8 werden alle notwendigen Daten gespeichert und der wenigstens eine maschinelle Lernalgorithmus für die mehrstufige, insbesondere dreistufige, Soundanalyse trainiert, sofern genügend Daten vorhanden sind.In a step S8, all necessary data are stored and the at least one machine learning algorithm for the multi-stage, in particular three-stage, sound analysis is trained, provided that sufficient data is available.
Schließlich können in einem Schritt S9 eine Vorhersage basierend auf allen verfügbaren Daten, eine Visualisierung und ein Bereitstellen von anhörbaren Audiodaten und Spektrogrammen insbesondere auf der Visualisierungsanwendung 8 erfolgen (in
Wie aus
Erfindungsgemäß wird ein Verfahren zur insbesondere fortlaufenden akustischen Überwachung der wenigstens einen technischen Anlage 2, insbesondere Maschine, auf dem System 1 vorgeschlagen,
- - wobei von der wenigstens einen Erfassungseinheit 3 mittels der wenigstens einen akustischen Sensoreinrichtung 3a erfasste akustische Signale der technischen Anlage 2 als Audiosignaldaten gespeichert und die gespeicherten Audiosignaldaten und/oder aus wenigstens einem Teil der gespeicherten Audiosignaldaten extrahierten Datenmerkmale assoziiert mit der wenigstens einen technischen Anlage 2 an die Cloud-
basierte Analyseeinheit 5 übermittelt werden, - - wobei die von der wenigstens einen Erfassungseinheit 3 empfangenen anlagenassoziierten Audiosignaldaten und/oder aus wenigstens einem Teil der, insbesondere empfangenen anlagenassoziierten Audiosignaldaten extrahierte Datenmerkmale von der Cloud-basierten Analyseeinheit 5 mittels künstlicher Intelligenz, insbesondere wenigstens eines maschinellen Lernalgorithmus und/oder wenigsten eines neuronalen Netzes analysiert und verarbeitet werden,
- - wobei bei deren Nichtvorhandensein automatisiert eine für die anlagenassoziierte Speicherung und Verarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale geeignete Datenumgebung, insbesondere eine oder mehrere Datenbanken 10 und/oder Dateien erzeugt werden, wobei eine Vorverarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale durchgeführt wird,
- - wobei mittels der empfangenen anlagenassoziierten Audiosignaldaten und/oder der Datenmerkmale, der wenigstens eine maschinelle Lernalgorithmus oder das wenigstens eine neuronale Netz, vorzugsweise unbeaufsichtigt trainiert wird, insbesondere um einen Normalzustand der technischen Anlage 2 aufzuzeichnen und eine Unterscheidung von abnormen Audiosignaldaten und Datenmerkmalen zu ermöglichen, und
- - wobei die Analyse von neuen anlagenassoziierten Audiosignaldaten und/oder Datenmerkmalen, insbesondere in Abhängigkeit von bereits aufgezeichneten anlagenassoziierten Audiosignaldaten und/oder Datenmerkmalen, mehrstufig, vorzugsweise in drei unterschiedlichen Stufen, erfolgt.
- - wherein acoustic signals of the
technical installation 2 detected by the at least onedetection unit 3 by means of the at least one acoustic sensor device 3a are stored as audio signal data and the stored audio signal data and/or data features extracted from at least a portion of the stored audio signal data are transmitted to the cloud-basedanalysis unit 5 associated with the at least onetechnical installation 2, - - wherein the system-associated audio signal data received by the at least one
detection unit 3 and/or data features extracted from at least a portion of the, in particular received, system-associated audio signal data are analyzed and processed by the cloud-basedanalysis unit 5 by means of artificial intelligence, in particular at least one machine learning algorithm and/or at least one neural network, - - if they are not present, a data environment suitable for the system-associated storage and processing of the received audio signal data and/or the data features, in particular one or
more databases 10 and/or files, is automatically generated, wherein a preprocessing of the received audio signal data and/or the data features is carried out, - - wherein the at least one machine learning algorithm or the at least one neural network is trained, preferably unsupervised, by means of the received system-associated audio signal data and/or the data features, in particular in order to record a normal state of the
technical system 2 and to enable a distinction to be made between abnormal audio signal data and data features, and - - wherein the analysis of new system-associated audio signal data and/or data features, in particular depending on already recorded system-associated audio signal data and/or data features, is carried out in several stages, preferably in three different stages.
Damit die Erfassungseinheit 3 automatisch ein Programm ausführen kann, können entsprechende Scripts installiert werden, welche insbesondere die Aufnahme mit dem Mikrofon und die Verarbeitung sowie das Senden der Daten zu der Cloud-basierten Analyseeinheit 5 umfassen. In order for the
Die Erfassungseinheit 3 kann per MQTT unter anderem die Audiosignaldaten, die extrahierten Datenmerkmale sowie eine Sensor-ID und eine Kunden-ID versenden. Dadurch weiß die Analyseplattform zu welchem Kunden der Sensor gehört und somit in welcher Datenbank 10 die Daten abgespeichert werden müssen. Anhand der Sensor-ID und der Kunden-ID kann ein Algorithmus auf der Analyseplattform erkennen, ob dieser Sensor bereits vorhanden ist und zu welcher Datenbank 10 er gehört.The
Die Erstellung der notwendigen Datenbanken 10, das Sammeln und Abspeichern der Daten, das Trainieren und Testen der maschinellen Lernalgorithmen, die Verwendung des neuesten und durch das Feedback des Benutzers U angepassten maschinellen Lernalgorithmus kann automatisiert von der Cloud-basierten künstlichen Intelligenz-Analyseplattform bzw. - Analyseeinheit 5 erledigt werden. Der Benutzer U muss keine weiteren Schritte unternehmen und kann per E-Mail benachrichtigt werden, sobald eine Anomalie erkannt wurde.The creation of the
Das System 1 kann den MQTT-Broker 11 fortlaufend abhören. Sobald eine Nachricht im Broker angekommen ist, wird diese mit einem MQTT-Client gelesen, decodiert und überprüft, ob für den Sensor bereits Datenbanken 10 hinterlegt sind. Hierzu wird mit einem entsprechenden Datenbank-Client und den IDs überprüft, ob eine Tabelle in der Datenbank 10 existiert. Sollte dies nicht der Fall sein, werden die notwendigen Datenbanken 10 und Tabellen erstellt. Sofern eine Datenbank 10 existiert und die Konfigurationen für den maschinellen Lernalgorithmus abgespeichert sind, werden diese aus der Datenbank 10 geladen, Vorhersagen gemacht und die Daten zusammen mit den Vorhersagen gespeichert.The
Eine Funktion zum Aufnehmen des Normalzustands der technischen Anlage 2 wird automatisch nach dem Anlegen der Datenbanken 10 aufgerufen. Anschließend wird ein Hintergrundprozess gestartet, welcher das Aufnehmen des Normalzustands nach beispielsweise sieben Tagen startet. Wird diese Funktion aufgerufen, können alle Daten für das Training der maschinellen Lernalgorithmen zur Anomalieerkennung aus der Datenbank 10 abgerufen werden. Die Abfrage filtert die Daten nach der Sensor-ID und sortiert diese nach der Zeit. Anschließend erfolgt das Training und die Konfigurationen werden mit einer weiteren Funktion in der Datenbank 10 gespeichert.A function for recording the normal state of the
Die Visualisierungsanwendung 8 bzw. die Benutzerschnittstelle kann auf der Cloud-basierten Analyseeinheit 5 für jede Erfassungseinheit 3 bzw. jeden Sensor auf Basis von Vorlagen automatisch generierbar sein.The
Darüber hinaus kann der Benutzer U mit der Überwachung der technischen Anlage 2 bzw. Maschine ohne jegliches Wissen über maschinelles Lernen sofort starten, da er am System 1 nichts konfigurieren muss und durch die eingesetzte maschinelle Lerntechnologie eine aufwändige und zeitintensive Bewertung/Klassifizierung der Sounddaten für aussagekräftige Vorhersagen bei der Anomalienerkennung entfällt. Außerdem kann durch die übersichtliche Benutzerschnittstelle bzw. Visualisierungsanwendung (siehe auch
Die Analyse der neuen bzw. neu empfangenen anlagenassoziierten Audiosignaldaten und/oder Datenmerkmale kann in drei Stufen erfolgen:
- - in einer ersten Stufe können Anomalien erkannt werden, insbesondere wenn eine Abweichung von dem aufgezeichneten Normalzustand der wenigstens einen technischen Anlage 2 vorliegt,
- - in einer zweiten Stufe kann ein Fehler der wenigstens einen technischen Anlage 2 klassifizierbar sein, insbesondere ein Klappern oder eine Kavitation, und/oder
- - in einer dritten Stufe kann ein Ausfall der wenigstens einen technischen Anlage 2 vorhersagbar sein.
- - in a first stage, anomalies can be detected, in particular if there is a deviation from the recorded normal state of the at least one
technical installation 2, - - in a second stage, a fault of the at least one
technical installation 2 can be classified, in particular a rattling or a cavitation, and/or - - in a third stage, a failure of at least one
technical installation 2 can be predictable.
In einem Schritt S10 erhält die Cloud-basierte Analyseeinheit 5 von der Erfassungseinheit 3 die Audiosignaldaten als Eingabe 14 und/oder die extrahierten Datenmerkmale als Eingabe 15. Die von dem Mikrofon aufgenommenen Rohdaten (bzw. Audiosignaldaten) werden dazu verwendet, um daraus Spektrogramme für die Audioklassifikation zu erstellen. Die extrahierten Datenmerkmale werden insbesondere für die einfachere Anomalieerkennung und Vorhersage in der Stufe 3 verwendet. In der Stufe 1 erfolgt in einem Schritt S11 die Audioklassifikation mit einem tiefen neuronalen Netz (insbesondere zur Spracherkennung) mit den Audiosignaldaten. In einem Schritt S12 erfolgt ein unbeaufsichtigtes Lernen und in einem Schritt S13 eine Anomalieerkennung, welche auch ein aktives Lernen in einem Schritt S14 anhand eines Feedbacks des Benutzers U berücksichtigt, welche als validierte Zustände 16 (Anomalie, normal, Fehler) in einer Datenbank/Tabelle gespeichert sind. In der ersten Stufe erhält der Benutzer U eine Meldung und eine Visualisierung in einem Schritt S15 auf der Visualisierungsanwendung 8. Zusätzlich werden Fehlerklassen 17 in einer Datenbank/Tabelle gespeichert.In a step S10, the cloud-based
In der Stufe 2 kann anhand der Fehlerklassen 17 ein Transfer Learning für eine Audioklassifikation in einem Schritt S16 durchgeführt werden, welche wiederum in die Visualisierung S15 einfließen. Historische Daten, welche über einen längeren Zeitraum erfasst wurden, werden als validierte Zustände in einem beaufsichtigten Lernen (Supervised Learning) in einem Schritt S17 in der Stufe 3 verwendet. Somit kann in einem Schritt S18 eine Vorhersage, beispielsweise der Art „in x Tagen wird der Fehler y mit einer Wahrscheinlichkeit von z % eintreten“, erfolgen und in einem Schritt S19 eine Meldung ausgegeben werden.In
Für die Anomalieerkennung in dem Schritt S13 in der ersten Stufe werden maschinelle Lernalgorithmen, wie „Random Forest“ oder „Isolation Forest“, verwendet. Durch diese Maßnahmen kann das System sehr gut skaliert werden, da vergleichsweise wenig Rechenleistung und Speicherbedarf benötigt wird. Damit der maschinelle Lernalgorithmus einfache Muster in den Audiodaten erkennt, werden die Daten in Time- und Frequency-Domainfeatures transformiert und dem maschinellen Lernalgorithmus als Eingabe übergeben.Machine learning algorithms such as "Random Forest" or "Isolation Forest" are used for anomaly detection in step S13 in the first stage. These measures allow the system to be scaled very well, as comparatively little computing power and memory is required. In order for the machine learning algorithm to recognize simple patterns in the audio data, the data is transformed into time and frequency domain features and passed to the machine learning algorithm as input.
Die Erfassungseinheit 3 kann aus wenigstens einem Teil der empfangenen Audiosignaldaten Datenmerkmale, wie Durchschnittswerte, Maximal- und Minimal-Werte, Lautstärken- und/oder Frequenzbereiche extrahieren. Zusätzlich kann mittels geeigneter Bibliotheken eine Mel-Spektralanalyse durchgeführt werden. Die Abtastrate kann 16.000 Hz und die Anzahl der Mel-Frequenzbänder 128 betragen. In einer Schleife wird durch jedes Mel-Frequenzband iteriert und das Maximum jedes Frequenzbands ermittelt.The
Die Größe der aufgezeichneten Audiosignaldaten (Rohdaten) kann beispielsweise bei einer Abtastrate von 16.000 Hz bei einer Aufnahme von 5 Sekunden von 80.000 Datenpunkten auf maximal 200 Datenpunkte mittels der Extraktion der Datenmerkmale (Feature Extraction) reduziert werden. Dadurch können diese Daten schneller und ressourcenschonender in der Datenbank 10 der Cloud-basierten Analyseeinheit 5 abgespeichert werden. Durch die Verwendung von Data Frames, in welchen die extrahierten Datenmerkmale gespeichert werden (beispielsweise zeilenweise), können schnellere Vorhersagen erstellt werden. Dies ist insbesondere bei einer Überwachung einer Maschine und/oder einer technischen Anlage 2 mit 24/7 aufgrund der großen Datenmengen vonnöten.The size of the recorded audio signal data (raw data) can, for example, be reduced from 80,000 data points to a maximum of 200 data points using feature extraction at a sampling rate of 16,000 Hz for a recording of 5 seconds. This allows this data to be stored more quickly and in a more resource-efficient manner in the
Auf der Analyseplattform kann eine Zeitreihendatenbank als Datenbank 10 verwendet werden, um die extrahierten Datenmerkmale der Audiosignale zu speichern.On the analysis platform, a time series database can be used as
Das Speichern der extrahierten Datenmerkmale in der Datenbank 10 ermöglicht es, sie anschließend für Analysen oder Vorhersagemodelle zu verwenden, um Muster oder Trends im Signalverlauf zu erkennen.Storing the extracted data features in the
Die Cloud-basierte Analyseeinheit 5 kann einen „Isolation Forest“-Lernalgorithmus für die Anomalieerkennung auf dem Datensatz aus der Datenbank 10 trainieren, führt Vorhersagen aus, um Anomalien in diesem Datensatz zu erkennen und schreibt Ergebnisse in die Zeitreihendatenbank. Der Datensatz kann dabei zufällig gemischt werden, um sicherzustellen, dass das Modell nicht von der Reihenfolge der Daten beeinflusst wird. Der Datensatz wird zunächst mit einer Skaliermethode skaliert, um sicherzustellen, dass alle Merkmale auf denselben Wertebereich skaliert werden. Der Datensatz kann in Trainings- und Testdatensätze aufgeteilt werden. Ein Active-Learning-Algorithmus wird auf den Trainingsdaten trainiert.The cloud-based
Ferner wird ein „Random Forest“-Klassifikator und die Strategie der „unsicheren Stichproben“ (Uncertainty Sampling) verwendet. Das System kann dadurch dem Benutzer U gezielte Vorschläge zum Klassifizieren der Daten auf der Benutzerschnittstelle der Visualisierungsanwendung 8 machen. Der Benutzer U kann daraufhin die ermittelten Zustände (normal, anormal) auf der Benutzerschnittstelle auf Plausibilität prüfen. Der maschinelle Lernalgorithmus wird auf die Eingaben/das Feedback des Benutzers U eingelernt und verbessert dadurch seine Vorhersagen.Furthermore, a "random forest" classifier and the "uncertainty sampling" strategy are used. The system can thus make targeted suggestions to the user U for classifying the data on the user interface of the
Die Analyse der Sounddaten ermöglicht es, nicht nur akute Ausfälle, sondern auch schleichende Verschlechterungen von Maschinen und Anlagen zu erkennen und rechtzeitig Maßnahmen ergreifen zu können. Die Methode automatisiert den Prozess der Datenaufbereitung und -analyse, indem sie maschinelles Lernen und automatisierte Workflows nutzt. Dadurch wird die manuelle Arbeit minimiert und es wird eine schnelle und effiziente Analyse von Daten ermöglicht. Ein „Random Under-sampling“-Verfahren kann dafür sorgen, dass das Modell nicht von der Dominanz einer Klasse „normal“ oder „Anomalie“ beeinflusst wird, was die Genauigkeit des Modells erhöht. Durch die Verwendung von aktivem Lernen kann das Modell kontinuierlich verbessert werden, indem es vom Benutzer U mit neuen Daten versorgt wird. Dadurch kann das Modell besser auf Veränderungen im Datensatz reagieren und Anomalien in neuen Daten besser erkennen. Die Methode kann das „Isolation Forest“-Verfahren benutzen, welches besonders effektiv bei der Erkennung von Anomalien in großen Datenmengen ist. Es kann schnell und genau Anomalien in einem Datensatz identifizieren. Dieser maschinelle Lernalgorithmus benötigt nur wenige Hyperparameter, was ihn zu einer effizienten Methode für die Anomalieerkennung macht. Die Methode ist skalierbar und kann auf große Datenmengen angewendet werden. Sie kann auch auf verschiedene Arten von Daten angewendet werden, wie beispielsweise Audiodaten. Die Methode berücksichtigt ferner die zeitliche Abhängigkeit von Daten, indem es die Daten in einem bestimmten Zeitfenster sammelt und analysiert. Dadurch kann sie zeitabhängige Anomalien erkennen, die in anderen Methoden möglicherweise unentdeckt bleiben würden.The analysis of sound data makes it possible to detect not only acute failures, but also gradual deterioration of machines and systems and to take timely measures. The method automates the process of data preparation and analysis by using machine learning and automated workflows. This minimizes manual work and enables fast and efficient analysis of data. A "random under-sampling" method can ensure that the model is not influenced by the dominance of a class "normal" or "anomaly", which increases the accuracy of the model. By using active learning, the model can be continuously improved by being supplied with new data by user U. This allows the model to respond better to changes in the data set and better detect anomalies in new data. The method can use the "isolation forest" method, which is particularly effective in detecting anomalies in large amounts of data. It can quickly and accurately identify anomalies in a data set. This machine learning algorithm requires few hyperparameters, making it an efficient method for anomaly detection. The method is scalable and can be applied to large data sets sets. It can also be applied to different types of data, such as audio data. The method also takes into account the temporal dependence of data by collecting and analyzing the data in a specific time window. This enables it to detect time-dependent anomalies that might go undetected in other methods.
Für die auf künstlicher Intelligenz basierende Spracherkennung/Audioklassifikation kann in der zweiten Stufe ein tiefes neuronales Netz verwendet werden. Dieses kann standardmäßig einen Bereich von 0,96 sec analysieren und springt um jeweils 0,48 sec weiter, um dadurch die komplette Audiodatei zu untersuchen. Für jedes Zeitfenster kann eine Vorhersage gemacht werden.For the speech recognition/audio classification based on artificial intelligence, a deep neural network can be used in the second stage. This can analyze a range of 0.96 seconds by default and jumps forward by 0.48 seconds at a time in order to examine the entire audio file. A prediction can be made for each time window.
Zunächst wird in der Analyseplattform überprüft, ob ein für den Anwendungsfall angepasstes Modell gespeichert ist. Ist dies nicht der Fall, wird standardmäßig das tiefe neuronale Netz verwendet. Die 5-Sekunden-Audiodatenabschnitte werden normalisiert und als Eingabe in das Modell eingegeben. Für das erfindungsgemäße System 1 wird immer die Topvorhersage für den jeweiligen analysierten Bereich verwendet und in einer Liste zwischengespeichert. Die Geräuschklasse, die am häufigsten in dieser Liste auftaucht, wird verwendet, um das Geräusch zu klassifizieren.First, the analysis platform checks whether a model adapted to the use case is stored. If this is not the case, the deep neural network is used by default. The 5-second audio data sections are normalized and entered as input into the model. For the
Sollte der Algorithmus einen Bereich mit der Klasse „Stille“ vorhersagen, wird diese Klasse nicht in der Liste gespeichert. Dadurch kann sichergestellt werden, dass kurzzeitige instationäre Geräusche innerhalb des Abschnitts von fünf Sekunden berücksichtigt werden.If the algorithm predicts an area with the class "silence", this class is not stored in the list. This ensures that short-term unsteady noises within the five-second period are taken into account.
Ebenso wird in der Liste überprüft, ob eine der Klassen für menschliche Geräusche enthalten sind. Wenn dies der Fall ist, wird dieser fünf Sekunden-Soundteil nicht zum späteren Anhören und Bewerten in der Datenbank gespeichert.The list is also checked to see if it contains any of the human sound classes. If it does, this five-second sound portion is not saved in the database for later listening and evaluation.
Anomale Geräusche sind schwierig zu sammeln, da diese im Idealfall nicht auftauchen. Deshalb kann die Methode des Transfer Learning bei dem erfindungsgemäßen System 1 verwendet werden.Abnormal noises are difficult to collect because they ideally do not appear. Therefore, the transfer learning method can be used in the
Bereits das vortrainierte Netz bietet den Vorteil, dass die Geräusche gut klassifiziert werden können und der Benutzer somit verlässliche Vorhersagen zur Unterstützung der Bewertung der Sounddaten bekommt. Das vortrainierte neuronale Netz des erfindungsgemäßen Systems 1 kann auch Geräusche detektieren, die auf Gefahren, Einbruchs- oder Sabotageversuche hindeuten können, wie z. B. Explosion, Feuer, Glasbruch, usw. Deshalb kann das erfindungsgemäße System 1 auch zusätzlich zur Sicherheitsüberwachung eingesetzt werden.The pre-trained network already offers the advantage that the sounds can be classified well and the user thus receives reliable predictions to support the evaluation of the sound data. The pre-trained neural network of the
Transfer Learning ermöglicht es, ein Modell zu trainieren, selbst wenn nur begrenzte Daten zur Verfügung stehen. Das vortrainierte Modell kann als Ausgangspunkt verwendet werden, um die Leistung auf einen neuen Datensatz zu verbessern, der nur eine begrenzte Anzahl von Beispielen enthält. Der Datenaufwand ist somit geringer.Transfer learning makes it possible to train a model even when only limited data is available. The pre-trained model can be used as a starting point to improve performance on a new dataset that contains only a limited number of examples, thus reducing the data overhead.
Die Verwendung eines vortrainierten Modells spart Zeit und Ressourcen, da das Modell bereits auf großen Datensätzen trainiert wurde und seine Funktionen bereits ausgereift sind. Dies reduziert den Zeitaufwand für das Training eines Modells von Grund auf erheblich.Using a pre-trained model saves time and resources because the model has already been trained on large datasets and its features are already mature. This significantly reduces the time required to train a model from scratch.
Transfer Learning kann die Leistung eines Modells verbessern, insbesondere wenn es auf ähnliche Aufgaben oder Datensätzen trainiert wurde. Das vortrainierte Modell kann dem neuen Modell helfen, schnellere und bessere Ergebnisse zu erzielen.Transfer learning can improve the performance of a model, especially if it was trained on similar tasks or datasets. The pre-trained model can help the new model produce faster and better results.
Transfer Learning kann auch dazu beitragen, Überanpassung zu reduzieren, da es das Modell dazu zwingt, allgemeinere Merkmale zu lernen, die für mehrere Aufgaben relevant sind, anstatt sich auf die Merkmale zu konzentrieren, die speziell für eine einzelne Aufgabe relevant sind.Transfer learning can also help reduce overfitting because it forces the model to learn more general features that are relevant to multiple tasks, rather than focusing on the features that are specifically relevant to a single task.
Die trainierten Gewichte des Modells werden in einer TFLITE-Datei gespeichert, die eine kompaktere Darstellung des Modells verkörpert. Dadurch kann das Modell leicht auf verschiedenen Geräten und Plattformen verwendet werden, was die Skalierbarkeit erhöht.The trained weights of the model are stored in a TFLITE file, which embodies a more compact representation of the model. This allows the model to be easily used on different devices and platforms, increasing scalability.
Durch das Speichern des Modells und des „Trigger“-Werts in der Datenbank 10 wird das System 1 in die Lage versetzt, schnell auf neue Fehlerklassen zu reagieren und ein neues Klassifikationsmodell zu verwenden, um zukünftige Vorhersagen zu verbessern.By storing the model and the “trigger” value in the
Das Transfer Learning ermöglicht zudem eine schnelle Anpassung auf domainspezifische Geräusche.Transfer learning also enables rapid adaptation to domain-specific noises.
In der dritten Stufe werden die bereits gesammelten Daten, insbesondere aus der Zeitreihendatenbank dazu verwendet, um Muster in den Daten zu erkennen, welche zu einer bestimmten Fehlerklasse geführt haben. Der Benutzer bekommt rechtzeitig (im besten Fall einige Tage zuvor) eine Meldung, dass zum Beispiel der Fehler „Kavitation“ zu 80 % Wahrscheinlichkeit in vier Tagen mit der Wahrscheinlichkeit von 89 % auftritt. Im Bereich Remaining Useful Life (RUL) können unterschiedliche maschinelle Lernmethoden zur Vorhersage von Zeitreihendaten eingesetzt werden. Die gängigsten Methoden sind autoregressive Modelle, wie Recurrent Neural Networks (RNN) und Long Short-Term Memory (LSTM).In the third stage, the data already collected, especially from the time series database, is used to identify patterns in the data that have led to a certain class of error. The user receives a message in good time (in the best case a few days in advance) that, for example, the error "cavitation" will occur with 80% probability in four days with a probability of 89%. In the area of Remaining Useful Life (RUL), different machine learning methods can be used to predict time series data. The most common methods are autoregressive models, such as Recur rent Neural Networks (RNN) and Long Short-Term Memory (LSTM).
Obwohl die zuvor genannten Modelle zur Vorhersage von Zeitreihen sehr effektiv sein können, gibt es auch einige Probleme, die bei der Verwendung dieser Methoden auftreten können. Aufgrund dieser Problematiken wird der Ansatz verfolgt, die Aufgabe als eine einfache Klassifikationsaufgabe zu lösen. Es können bessere Ergebnisse erzielt werden, indem die Vorhersage als Klassifikationsaufgabe und nicht als Regressionsaufgabe (Vorhersage eines genauen Wertes, wie bei den zuvor genannten Methoden) gemacht wird. Ebenso kann auf rechenintensive und komplex zu erstellende Deep-Learning Algorithmen verzichtet werden.Although the models mentioned above can be very effective for predicting time series, there are also some problems that can arise when using these methods. Due to these problems, the approach is to solve the task as a simple classification task. Better results can be achieved by making the prediction as a classification task rather than a regression task (predicting an exact value, as in the methods mentioned above). Likewise, computationally intensive and complex to create deep learning algorithms can be dispensed with.
Dabei wird wie folgt vorgegangen:
- 1. Im ersten Schritt wird die Zeit bevor die Fehlerklasse „Broken“ aufgetaucht ist berechnet.
- 2. Der Datensatz kann mit drei unterschiedlichen Labels gekennzeichnet werden: a)
Label 0 => vier Tage bis „Broken“, b)Label 1 = zwischen zwei und vier Tagen bis „Broken“ und c)Label 2 = kleiner zwei Tage bis „Broken“. - 3. Der Datensatz wird durchgemischt und in Trainings- und Testdaten aufgeteilt.
- 4. Ein maschinelles Lernen-Klassifikator wie zum Beispiel ein „Random Forest“ wird auf den Trainingsdatensatz trainiert.
- 5. Auf dem Testdatensatz wird überprüft, ob der maschinelle Lernalgorithmus auf neue Daten gut verallgemeinern kann.
- 1. In the first step, the time before the error class “Broken” appeared is calculated.
- 2. The data set can be marked with three different labels: a)
Label 0 => four days until “Broken”, b)Label 1 = between two and four days until “Broken” and c)Label 2 = less than two days until “Broken”. - 3. The dataset is shuffled and divided into training and test data.
- 4. A machine learning classifier such as a random forest is trained on the training dataset.
- 5. The test dataset is used to check whether the machine learning algorithm can generalize well to new data.
Die durchschnittliche Genauigkeit kann bei einem Trainingsdatensatz von einigen Beispielen für jedes Label (Label 0: 1.261 Trainingsdaten, Label 1: 201 Trainingsdaten, Label 2: 202 Trainingsdaten) bei etwa 96 % liegen. Ein weiterer Vorteil bei der Verwendung des „Random Forest“ Klassifikators ist, dass eine Liste mit Werten ausgegeben werden kann, die angeben wie wichtig jedes Datenmerkmal ist, um das Modell zu erstellen. Dies kann dazu verwendet werden, um die relevanten Datenmerkmale in einem Modell zu identifizieren und gegebenenfalls nicht relevante Datenmerkmale auszuschließen. Dies kann dazu beitragen, die Vorhersagegenauigkeit zu verbessern und die Komplexität des Modells zu reduzieren.The average accuracy can be around 96% on a training dataset of a few examples for each label (label 0: 1,261 training data, label 1: 201 training data, label 2: 202 training data). Another advantage of using the random forest classifier is that it can output a list of values indicating how important each data feature is to building the model. This can be used to identify the relevant data features in a model and exclude irrelevant data features if necessary. This can help improve prediction accuracy and reduce model complexity.
Das System könnte für eine Vielzahl von Anwendungen und Nutzern von Vorteil sein. Maschinen- und Anlagenbetreiber, Produktionsstätten, Wartungs- und Reparaturdienstleister sowie Sicherheitsdienste könnten von dem erfindungsgemäßen automatisierten Analyse- und Klassifizierungssystem profitieren.The system could be beneficial for a variety of applications and users. Machine and plant operators, production facilities, maintenance and repair service providers, and security services could benefit from the automated analysis and classification system according to the invention.
Das erfindungsgemäße System 1 analysiert akustische Signale automatisch und klassifiziert sie als normal oder abnormal, ohne dass der Benutzer manuell Daten klassifizieren muss.The
Das erfindungsgemäße System 1 kann unbeaufsichtigte Lernmethoden verwenden. Daher muss seitens des Benutzers U keine Datenvorverarbeitung stattfinden, um gute Vorhersagen zu erhalten. Durch das aktive Lernen kann der Benutzer die künstliche Intelligenz für die Anomalieerkennung schnell und einfach auf sein Wissen anpassen. Dies reduziert den Zeitaufwand für die Datenvorbereitung erheblich.The
Das System 1 weist einen mehrstufigen Algorithmus auf, der unbeaufsichtigtes Lernen, aktives Lernen und beaufsichtigtes Lernen kombiniert, um eine effiziente Anomalieerkennung zu ermöglichen.
Das System kann dem Benutzer U eine übersichtliche Darstellung der vorhergesagten Zustände in Form von Dashboards, anhörbaren Audiodateien und Melspektrogrammen bieten, um ihn bei der Entscheidungsfindung zu unterstützen. Zusätzlich kann der maschinelle Lernalgorithmus dem Benutzer U vorschlagen, wie das Geräusch klingt, um ihm bei der Entscheidung zu helfen. Dies ermöglicht es einfach, schnell und präzise Entscheidungen zu treffen.The system can provide the user U with a clear representation of the predicted states in the form of dashboards, audible audio files and melspectrograms to assist him in making decisions. Additionally, the machine learning algorithm can suggest to the user U what the noise sounds like to help him make a decision. This makes it easy to make decisions quickly and accurately.
Das System 1 kann die Möglichkeit bieten, den maschinellen Lernalgorithmus für die Geräuschklassifizierung auf die vom Benutzer U umgebungsspezifischen Geräusche anzupassen, indem Transfer Learning und Soundbeispiele verwendet werden. Dadurch kann das System 1 für verschiedene Anwendungen und Einsatzgebiete angepasst werden.The
Das System kann spezielle Alarme auf Basis der erkannten Geräusche erstellen und per E-Mail übermitteln, um den Benutzer U über potentielle Probleme zu informieren.The system can create special alarms based on the detected sounds and send them via email to inform the user U of potential problems.
Das System kann in verschiedenen Anwendungsgebieten wie Maschinendiagnostik, Sicherheitsüberwachung und Qualitätssicherung eingesetzt werden. Dadurch können Betriebskosten gesenkt, die Effizienz gesteigert und die Sicherheit verbessert werden.The system can be used in various application areas such as machine diagnostics, safety monitoring and quality assurance. This can reduce operating costs, increase efficiency and improve safety.
Es ist ein schnelleres Sammeln und Bewerten der Sounddaten möglich. Das System 1 ermöglicht es dem Benutzer U, schnell und einfach Sounddaten zu sammeln und zu bewerten, was die Überwachung der technischen Anlage 2 oder Maschine beschleunigt. Der insbesondere dreistufige Aufbau des Systems 1 erleichtert diesen Prozess zusätzlich und macht das System auch für Laien zugänglich.A faster collection and evaluation of sound data is possible. The
Das erfindungsgemäße System 1 stellt eine innovative und erfinderische Lösung zur automatisierten Analyse und Klassifizierung von akustischen Signalen in verschiedenen Anwendungsbereichen dar. Insbesondere die Verwendung von unbeaufsichtigten Lernmethoden, aktiven Lernalgorithmen und Transfer Learning zur Verbesserung der Vorhersagegenauigkeit ohne manuelles Labeling der Daten ist ein sehr innovativer Ansatz. The
Wie aus
Interaktive Dashboards 81, 82 können mit dem Visualisierungstool 12 erzeugt und als Frames in die Benutzerschnittstelle eingebunden werden.
Im Teil 8a der Visualisierungsanwendung 8 bekommt der Benutzer U durch das Dashboard 81 einen schnellen Überblick über den Zustand der zu überwachenden technischen Anlage 2 innerhalb der letzten 24 Stunden. Ein Zustand „normal“ kann hierbei grün, ein Zustand „mögliche Anomalie“ orange und ein Zustand „Anomalie“ rot dargestellt werden. Die unterschiedlichen Farbgebungen sind in
In dem interaktiven Dashboard 82 können die Zustände der technischen Anlage 2 in einem mittels eines Eingabefelds 83 ausgewählten Zeitbereich dargestellt werden. Bei dem interaktiven Dashboard 82 ist auf der X-Achse die Zeit und auf der Y-Achse ein Wahrscheinlichkeitswert für einen Zustand aufgetragen. Die Höhe der eingezeichneten Balken gibt an, wie wahrscheinlich einer der Zustände „normal“, „mögliche Anomalie“ oder „Anomalie“ ist, wobei beispielhaft und stark vereinfacht nur eine begrenzte Anzahl von zueinander weit beabstandeten Balken eingezeichnet ist. Die Farbgebung bzw. Schraffur der eingezeichneten Balken entspricht derjenigen des interaktiven Dashboards 81. Es besteht die Möglichkeit durch Anklicken des gewünschten Zustands in einem Bereich 82a bzw. einer Legende des Dashboards 82 sich nur diesen Zustand bzw. diese Balken auf dem interaktiven Dashboard 82 anzeigen zu lassen. Dies ermöglicht einen schnelleren Überblick (nicht näher dargestellt).In the
Der Benutzer U kann sich mittels des Wiedergabebereichs 84 die kompletten Soundaufnahmen bis zu einer Woche rückwirkend anhören. Dafür werden die fünf Sekunden langen Audiosignaldatenteile bzw. Audiosignaldatenabschnitte in eine Audiodatei von maximal 10 Minuten zusammengefasst. Der gewünschte Zeitabschnitt für die Audiodatei kann optisch in dem Dashboard 82 markiert werden (siehe gestrichelter Bereich 82b des Dashboards 82). Die Audiodatei wird automatisch erzeugt, sobald der Benutzer das Webinterface öffnet oder er den Zeitbereich im Eingabefeld 83 einstellt. Ein Algorithmus kann automatisiert 10 Minuten von der Eingabe „Datum bis“ rückwärts alle in diesem Zeitbereich vorhandenen Audiodaten aus der entsprechenden Datenbank 10 laden und die Audiodatei bzw. das Audioformat zur Wiedergabe erzeugen.The user U can use the
In dem Teil 8b der Visualisierungsanwendung 8 können in einer übersichtlichen Tabelle die Anomalien im eingestellten Zeitbereich (Eingabefeld 83) angezeigt werden. Jede Anomalie kann eindeutig im Zeitbereich des Dashboards 82 zugeordnet werden. Für jede Anomalie kann es eine Zeile in der angezeigten Tabelle geben.In part 8b of the
Die Tabelle kann die folgenden Spalten aufweisen:
- - „Datum und Uhrzeit“, damit die Anomalie zugeordnet werden kann;
- - „Anomalie“, um eine Filterung nach dem Wahrscheinlichkeitswert zu ermöglichen;
- - „Grund“, um dem Benutzer eine erste Einschätzung zu geben, wie sich das Geräusch anhört;
- - „Audio, Anomalie (oben), normal (unten)“, hier kann sich der Benutzer Audiodateien beispielsweise mit einer Länge von fünf Sekunden anhören und hat den direkten Vergleich zwischen einer von der künstlichen Intelligenz vorhergesagten Anomalie und einem normalen Zustand;
- - „Spektrogramm Anomalie“, hier kann sich der Benutzer die Anomalie zusätzlich auch als Spektrogramm ansehen;
- - „Spektrogramm normal“, hierdurch wird ein Vergleich mit dem Spektrogramm der Anomalie ermöglicht;
- - „Feedback“, hier kann der Benutzer beispielsweise mittels eines Drop down-Menüs entscheiden, ob es wirklich eine Anomalie war oder der Zustand „normal“ vorliegt. Außerdem kann er in einem darunterliegenden Eingabefeld eine Fehlerklasse angeben, wie zum Beispiel Kavitation, Lagerschaden, etc.;
- - „Bewertet“, hier wird vermerkt, ob die Anomalie schon einmal bewertet wurde.
- - “Date and time” so that the anomaly can be assigned;
- - “Anomaly” to enable filtering by probability value;
- - “Reason” to give the user an initial assessment of what the noise sounds like;
- - “Audio, anomaly (top), normal (bottom)”, here the user can listen to audio files, for example, with a length of five seconds and has a direct comparison between an anomaly predicted by the artificial intelligence and a normal state;
- - “Spectrogram Anomaly”, here the user can also view the anomaly as a spectrogram;
- - “Normal spectrogram”, which allows a comparison with the anomaly spectrogram;
- - “Feedback”, here the user can decide, for example, using a drop-down menu, whether it was really an anomaly or whether the condition is “normal”. He can also enter an error in an input field below. class, such as cavitation, bearing damage, etc.;
- - “Rated”, this indicates whether the anomaly has already been rated.
Bei den in
Ein Melspektrogramm ist eine Darstellung des Frequenzspektrums von Schall oder Ton in Bezug auf die menschliche Wahrnehmung von Lautstärke und Tonhöhe. Es wird oft verwendet, um Audio- oder Sprachsignale in der Spracherkennung, Musikanalyse oder Audioverarbeitung zu analysieren.A melspectrogram is a representation of the frequency spectrum of sound or tone in relation to the human perception of loudness and pitch. It is often used to analyze audio or speech signals in speech recognition, music analysis or audio processing.
Das Melspektrogramm wird durch Anwenden der Mel-Skala auf das Frequenzspektrum eines Signals erzeugt. Die Mel-Skala ist eine nicht-lineare Skala, die die menschliche Wahrnehmung von Lautstärke und Tonhöhe besser präsentiert als die lineare Frequenzskala. Sie wird durch die Umrechnung der Frequenzen in Mel-Einheiten erreicht, die proportional zur logarithmischen Transformation der Frequenz sind.The Mel spectrogram is created by applying the Mel scale to the frequency spectrum of a signal. The Mel scale is a non-linear scale that better represents the human perception of loudness and pitch than the linear frequency scale. It is achieved by converting frequencies into Mel units, which are proportional to the logarithmic transformation of the frequency.
Das resultierende Melspektrogramm wird als 2D-Diagramm dargestellt, wobei die X-Achse die Zeit und die Y-Achse die Melfrequenz darstellt. Die Farbintensität in jedem Bereich des Diagramms gibt die Intensität des Signals in diesem Bereich an (in
Durch kurzes Betrachten der Melspektrogramme lässt sich oft sofort ein Muster erkennen. Dies ermöglicht eine schnellere Bewertung der vorgeschlagenen Anomalie, da der Benutzer U direkt zu diesem Zeitpunkt in der bereitgestellten Audiodatei springen und sich die signifikanten Geräusche anhören kann.A pattern can often be immediately identified by briefly looking at the Melspectrograms. This allows for a faster assessment of the proposed anomaly, as the user U can jump directly to that point in time in the provided audio file and listen to the significant sounds.
In einem weiteren nicht dargestellten Teil der Visualisierungsanwendung 8 können Einstellungen wie zum Beispiel die Vergabe eines Sensornamens vorgenommen werden. Ebenfalls kann in den Einstellungen festgelegt werden, wann ein Alarm ausgegeben wird, wenn bei der entsprechenden Erfassungseinheit 3 eine Anomalie aufgetaucht ist. Es kann auch definiert werden, ab wie vielen nacheinander aufgetretenen Anomalien der Alarm ausgelöst werden soll. Dies hat den Vorteil, dass Fehlalarme durch kurzzeitige Geräusche wie das Fallenlassen eines Alublechs oder andere nicht maschinenspezifische Geräusche vermieden werden können.In another part of the visualization application 8 (not shown), settings such as assigning a sensor name can be made. The settings can also be used to specify when an alarm is issued when an anomaly has occurred in the corresponding
Falls der Benutzer falsche Angaben gemacht hat und die Anomalieerkennung dadurch falsche Vorhersagen trifft, oder wenn mehr Daten gesammelt wurden und der Benutzer U den Algorithmus für die Anomalieerkennung basierend auf den bisherigen Daten anpassen möchte, kann dies ebenfalls einfach in den Einstellungen vorgenommen werden. Eine Funktion kann beispielsweise die Daten der letzten 30 Tage aus der Datenbank abrufen. Anschließend wird ein „Isolation Forest“-Algorithmus trainiert und Vorhersagen auf den Datensatz erstellt. Die vom Benutzer U validierten Daten sowie die Vorhersagen des „Isolation Forest“-Algorithmus werden grafisch in der Benutzerschnittstelle, beispielsweise im Dashboard 82, angezeigt. Die Vorhersagegenauigkeit der Anomalieerkennung verbessert sich durch mehr Daten, Unterstützung durch unbeaufsichtigtes Lernen (Isolation Forest) und die bereits validierten Daten.If the user has provided incorrect information and the anomaly detection system is making incorrect predictions, or if more data has been collected and user U wants to adjust the anomaly detection algorithm based on the data so far, this can also be easily done in the settings. For example, a function can retrieve the last 30 days of data from the database. It then trains an isolation forest algorithm and makes predictions on the dataset. The data validated by user U and the predictions of the isolation forest algorithm are displayed graphically in the user interface, for example in
Das System 1 kann somit mögliche Zustände der technischen Anlage 2 oder Maschine in einer übersichtlichen Darstellung in Form von Dashboards 81, 82 und Tabellen bereitstellen. Dies erleichtert die Interpretation und Analyse der akustischen Signale durch den Benutzer U.The
Die Zustände können in drei unterschiedlichen Farben bzw. Schraffuren repräsentiert werden. Dadurch kann der Benutzer U schnell erkennen, ob zum Beispiel eine Anomalie eine geringe Wahrscheinlichkeit hat („mögliche Anomalie“), die er eventuell vernachlässigen kann und sich den Anomalien mit höheren Wahrscheinlichkeiten widmen. Durch die Höhe der Balken in dem Dashboard 82 kann außerdem schnell erkannt werden, wie sicher sich der maschinelle Lernalgorithmus über den Zeitverlauf ist. Der Vorteil dieser Darstellung ist, dass der Benutzer schnell erkennen kann, ob der maschinelle Lernalgorithmus bei neueren Daten unsicherer wird. Wenn die Balken niedriger werden, kann dies eine höhere Unsicherheit in der Vorhersage signalisieren. Dadurch kann der Benutzer schneller auf Veränderungen in der Vorhersageleistung des Algorithmus reagieren und gegebenenfalls eingreifen, um die Vorhersagegenauigkeit zu verbessern. Dies kann insbesondere in Anwendungen wie der Überwachung von Maschinen oder industriellen Anlagen von Vorteil sein, bei welchen die Vorhersagegenauigkeit kritisch sein kann, um Ausfallzeiten und Schäden zu vermeiden.The states can be represented in three different colors or hatchings. This allows the user U to quickly see whether, for example, an anomaly has a low probability ("possible anomaly") that he can possibly ignore and focus on the anomalies with higher probabilities. The height of the bars in the
Das System 1 kann nicht nur Audiodateien bereitstellen, sondern auch Melspektrogramme. Diese bieten den Vorteil, dass akustische Signale visuell verständlich für den Menschen aufbereitet werden. Durch das Anhören und Betrachten der Melspektrogramme kann der Benutzer U eine zusätzliche Bewertung des Geräuschs vornehmen.
Das System 1 berücksichtigt mit den Melspektrogrammen sowie den Vorschlägen der künstlichen Intelligenz wie sich das Geräusch mit einer gewissen prozentualen Wahrscheinlichkeit anhören könnte, dass das Gehör im Alter abnimmt und bei jedem Menschen unterschiedlich ausgeprägt ist. Dadurch können potentielle Risiken durch höhere Frequenzen, die für manche Personen nicht mehr wahrnehmbar sind, trotzdem erkannt werden.
Die Zustände für die Anomalieerkennung und die Geräuschklassifikationen können effizient in der Benutzeroberfläche eingegeben werden. Das System 1 kann sich automatisch anpassen, indem es durch Drücken eines Buttons oder dergleichen auf die eingegebenen Zustände angepasst wird. Dadurch wird die Effizienz des Systems 1 erhöht.The conditions for anomaly detection and sound classifications can be efficiently entered in the user interface. The
Durch die übersichtliche Darstellung der Anomalien, das Anhören und das Ansehen von Geräuschen sowie der Vorschlag, wie sich das Geräusch anhört, ermöglicht eine schnellere Bewertung/Diagnose der Anomalie durch den Benutzer U.By clearly displaying the anomalies, listening to and viewing sounds and suggesting what the sound sounds like, a faster assessment/diagnosis of the anomaly by the user U is possible.
Durch das Anhören der letzten Tage von bis zu 10 Minuten am Stück mittels des Wiedergabebereichs 84 können aufgefundene anomale Geräusche besser nachvollzogen werden. Die Möglichkeit, die letzten 10 Minuten des Geräuschs entfernt/remote anzuhören, bietet dem Benutzer eine zeitsparende Möglichkeit, Anomalien zu überwachen und zu diagnostizieren, insbesondere bei Anlagen oder Maschinen die schwer zugänglich sind.By listening to the last few days for up to 10 minutes at a time using the
Insgesamt bietet das Monitoring-/Labeling-System für Audiodaten eine effektive Möglichkeit, akustische Signale zu überwachen und potentielle Probleme in Maschinen oder Anlagen frühzeitig zu erkennen. Die visuelle Aufbereitung der akustischen Signale und die Berücksichtigung von alters- und personenabhängigen Unterschieden machen das System 1 besonders benutzerfreundlich und leistungsfähig.Overall, the monitoring/labeling system for audio data offers an effective way to monitor acoustic signals and identify potential problems in machines or systems at an early stage. The visual processing of the acoustic signals and the consideration of age- and person-related differences make
Insgesamt bietet das erfindungsgemäße System 1 die nachfolgenden Verbesserungen.Overall, the
Das System 1 kann ohne aufwändige Installationen oder Anpassungen für verschiedene Maschinen oder Anlagen verwendet werden. Dies spart Zeit und Kosten für die Installation und Implementierung.
Das System 1 kann automatisch akustische Signale der Maschinen und Anlagen aufzeichnen und Merkmale extrahieren, die an die Cloud-basierte Analyseeinheit 5 übermittelt werden. Dies eliminiert die Notwendigkeit für manuelle Aufzeichnung und Analyse. Dies spart Zeit und Arbeitskraft und ermöglicht eine kosteneffektive Überwachung von Maschinen und Anlagen, was wiederum zu höherer Effizienz und Produktivität führt.The
Durch das System 1 werden die Kosten für die Ausrüstung gesenkt und durch die einfache Handhabung und automatisierte Analyse eignet sich das System 1 auch für kleinere Produktionsumgebungen und ermöglicht eine kosteneffektive Überwachung von Maschinen und Anlagen. Die einfache Bedienbarkeit erfordert keine speziellen technischen Kenntnisse. Es kann von jedem Mitarbeiter in einer Produktionsumgebung verwendet werden und benötigt keine speziellen Schulungen oder dergleichen.
Die Erfassungseinheit 3 kann aus einer kostengünstigen Alternative zu teurer Spezialausrüstung bestehen, was die Kosten für die Ausrüstung senkt und die Möglichkeit bietet, die Technologie auch in kleineren Produktionsumgebungen einzusetzen.The
Ein maschineller Lernalgorithmus kann zu Zwecken des Datenschutzes unter anderem die Geräuschfragmente auf mögliche Sprachanteile überprüfen. Sollte eine Sprache erkannt werden, wird dieses Fragment nicht gespeichert und weiterverarbeitet.For data protection purposes, a machine learning algorithm can, among other things, check the sound fragments for possible speech components. If speech is detected, this fragment is not saved and processed further.
Das System 1 kann in verschiedenen Branchen eingesetzt werden, wie zum Beispiel in der Fertigung, der Automobilindustrie, der Lebensmittelindustrie, der Chemieindustrie und anderen Bereichen, in denen Maschinen und Anlagen eingesetzt werden.
Das System 1 ist skalierbar, so dass es für kleine und große Produktionsumgebungen eingesetzt werden kann, indem einfach weitere Erfassungseinheiten 3 hinzugefügt werden.The
Die Übertragung per MQTT-Technologien mit den Qualitätsstufen (QoS) sowie die Möglichkeit, die Erfassungseinheit 3 mit drei unterschiedlichen Varianten mit dem Internet zu verbinden, ermöglicht eine robuste Erfassung in vielen Bereichen, wo das Internet nicht so gut bzw. ausgebaut bzw. keines vorhanden ist.The transmission via MQTT technologies with the quality levels (QoS) as well as the possibility of connecting the
Die dreistufige Analyse, das übersichtliche Monitoring-/Labeling-System bietet dem Benutzer U viele Vorteile gegenüber herkömmlichen Technologien. Durch die übersichtliche Darstellung der analysierten Geräusche und der Anomalien kann der Benutzer leichter verstehen wie diese klingen und wie sie im Spektrogramm aussehen. Die Geräuschklassenvorhersage des vortrainierten tiefen neuronalen Netzes und die Prozentangaben für die Wahrscheinlichkeit unterstützen den Benutzer zusätzlich bei der Entscheidungsfindung.The three-stage analysis and the clear monitoring/labeling system offer the user many advantages over conventional technologies. The clear presentation of the analyzed noises and anomalies enables the Users can more easily understand what they sound like and what they look like in the spectrogram. The noise class prediction of the pre-trained deep neural network and the percentages for the probability also support the user in making decisions.
Durch das Feedback des Benutzers U kann das System 1 kontinuierlich verbessert werden und so noch bessere Vorhersagen treffen. Das Labeling-System erleichtert dem Benutzer das Identifizieren von Anomalien und das Klassifizieren von Geräuschen, was wiederum zu einem schnelleren und effektiveren Monitoring führt.The feedback from user U allows
Insgesamt bietet das System 1 dem Benutzer eine benutzerfreundliche und effektive Möglichkeit, Geräusche von Maschinen und Anlagen zu analysieren und Anomalien zu erkennen, auch wenn noch keine Referenzdaten zum Trainieren der Algorithmen vorhanden sind. Die verbesserte Vorhersagegenauigkeit und die schnelle Reaktionszeit des erfindungsgemäßen Systems 1 helfen dem Benutzer, potentielle Probleme schnell zu erkennen und zu lösen, was zu einer höheren Betriebssicherheit und einer längeren Lebensdauer der Anlagen führen kann.Overall, the
Es handelt sich um erhebliche Verbesserungen gegenüber dem Stand der Technik. Das erfindungsgemäße System 1 ermöglicht eine automatisierte, schnelle, einfache, zuverlässige und kostengünstige Überwachung von Maschinen- und Anlagengeräuschen, die die Arbeit von Wartungstechnikern und Ingenieuren erleichtern und die Effizienz und Produktivität vom Unternehmen verbessern kann.These are significant improvements over the state of the art. The
Bezugszeichenlistelist of reference symbols
- 11
- Systemsystem
- 22
- technische Anlagetechnical system
- 33
- Erfassungseinheitregistration unit
- 3a3a
- akustische Sensoreinrichtungacoustic sensor device
- 44
- RaumSpace
- 55
- Cloud-basierte Analyseeinheitcloud-based analysis unit
- 5a5a
- Serverserver
- 66
- Kommunikationssymbolecommunication symbols
- 77
- Geräuschkulissebackground noise
- 88
- Visualisierungsanwendungvisualization application
- 8a8a
- erster Teil der Visualisierungsanwendungfirst part of the visualization application
- 8b8b
- zweiter Teil der Visualisierungsanwendungsecond part of the visualization application
- 99
- Pfeilearrows
- 1010
- Datenbankdatabase
- 1111
- MQTT-BrokerMQTT broker
- 1212
- Visualisierungstoolvisualization tool
- 1313
- künstliche Intelligenz-basierte Spracherkennungartificial intelligence-based speech recognition
- 14, 1514, 15
- Eingabeninputs
- 1616
- validierte Zuständevalidated states
- 1717
- Fehlerklassenerror classes
- 8080
- Auswahllisteselection list
- 8181
- Dashboard interaktivDashboard interactive
- 8282
- Dashboard interaktivDashboard interactive
- 82a82a
- Bereich mit Zuständenarea with states
- 82b82b
- Auswahlbereichselection area
- 8383
- Eingabefeld Zeitbereichinput field time range
- 8484
- Wiedergabebereich für Audiosignaldatenplayback area for audio signal data
- T1, T2T1, T2
- Tätigkeiten des Benutzersuser's activities
- S1 - S19S1 - S19
- Verfahrensschritteprocedural steps
- UU
- Benutzeruser
Claims (7)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023124815.4A DE102023124815B3 (en) | 2023-09-14 | 2023-09-14 | System for continuous acoustic monitoring of at least one technical installation |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023124815.4A DE102023124815B3 (en) | 2023-09-14 | 2023-09-14 | System for continuous acoustic monitoring of at least one technical installation |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102023124815B3 true DE102023124815B3 (en) | 2025-02-27 |
Family
ID=94483859
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102023124815.4A Active DE102023124815B3 (en) | 2023-09-14 | 2023-09-14 | System for continuous acoustic monitoring of at least one technical installation |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102023124815B3 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010057661A1 (en) | 2008-11-21 | 2010-05-27 | Precitec Kg | Method and device for monitoring a laser machining operation to be performed on a workpiece and laser machining head having such a device |
| WO2018050438A2 (en) | 2016-09-13 | 2018-03-22 | Primetals Technologies Germany Gmbh | Use of comprehensive artificial intelligence in primary industry facilities |
| US20200393811A1 (en) | 2019-06-11 | 2020-12-17 | Hitachi, Ltd. | Automatic Inspection System |
| EP3816742A1 (en) | 2019-11-01 | 2021-05-05 | Siemens Energy Global GmbH & Co. KG | Electrical installation with acoustic monitoring device |
-
2023
- 2023-09-14 DE DE102023124815.4A patent/DE102023124815B3/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010057661A1 (en) | 2008-11-21 | 2010-05-27 | Precitec Kg | Method and device for monitoring a laser machining operation to be performed on a workpiece and laser machining head having such a device |
| WO2018050438A2 (en) | 2016-09-13 | 2018-03-22 | Primetals Technologies Germany Gmbh | Use of comprehensive artificial intelligence in primary industry facilities |
| US20200393811A1 (en) | 2019-06-11 | 2020-12-17 | Hitachi, Ltd. | Automatic Inspection System |
| EP3816742A1 (en) | 2019-11-01 | 2021-05-05 | Siemens Energy Global GmbH & Co. KG | Electrical installation with acoustic monitoring device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE60212121T2 (en) | GENERATION OF PROCESS-RELATED DATA | |
| DE102006063100B3 (en) | PROCESS MODEL IDENTIFICATION IN A PROCESS CONTROL SYSTEM | |
| DE69010193T2 (en) | MONITORING. | |
| EP2336070B1 (en) | Method for remote diagnosis of a lift assembly and lift assembly for executing the method | |
| DE102014012184B4 (en) | Apparatus and method for automatically detecting and classifying acoustic signals in a surveillance area | |
| EP3528074B1 (en) | Method for verifying the relationship between a process alarm visually displayed on an operator client of a process control system and an acoustic process alarm of a process object and operator system | |
| DE102015116823A1 (en) | Method and apparatus for filtering process control system alarms based on the type of alarm source and / or alarm purpose | |
| DE112017005957B4 (en) | Information processing system and information processing method | |
| DE102010025851A1 (en) | A method of training a rolling bearing state classification system and a rolling bearing state classification system and a rolling bearing state classification system | |
| WO2022069258A1 (en) | Device and method for identifying anomalies in an industrial system for carrying out a production process | |
| DE102004015503A1 (en) | Method and device for correcting diagnostic analysis concepts in complex systems | |
| CN119048063A (en) | Digital twin visual data processing system for intelligent park | |
| EP4206843B1 (en) | Method for automatically creating installation-specific measurement profiles for an insulation monitoring system | |
| DE102010048008A1 (en) | Condition monitoring method and system for wind turbines | |
| DE102023124815B3 (en) | System for continuous acoustic monitoring of at least one technical installation | |
| EP1250666B1 (en) | Method for the automated detection of failure events | |
| WO2023057365A1 (en) | Control system for a technical installation with reduced-size views of installation images | |
| EP4163742B1 (en) | Method and system for testing an access device using a mobile terminal | |
| WO2021018741A1 (en) | Method and device for planning maintenance on at least one machine | |
| EP4027206A2 (en) | Method for monitoring states of entities | |
| EP3686697A1 (en) | Controller optimisation for a control system of a technical assembly | |
| DE10006313B4 (en) | Plant Monitoring System | |
| EP4127848B1 (en) | Method and system for diagnosing of messages | |
| DE10253385A1 (en) | Device for providing access to data | |
| DE202025106370U1 (en) | System for predicting the failure probability of imaging devices |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division | ||
| R020 | Patent grant now final |