[go: up one dir, main page]

DE102023124815B3 - System for continuous acoustic monitoring of at least one technical installation - Google Patents

System for continuous acoustic monitoring of at least one technical installation Download PDF

Info

Publication number
DE102023124815B3
DE102023124815B3 DE102023124815.4A DE102023124815A DE102023124815B3 DE 102023124815 B3 DE102023124815 B3 DE 102023124815B3 DE 102023124815 A DE102023124815 A DE 102023124815A DE 102023124815 B3 DE102023124815 B3 DE 102023124815B3
Authority
DE
Germany
Prior art keywords
audio signal
data
signal data
features
cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102023124815.4A
Other languages
German (de)
Inventor
Michael Werkmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Roewaplan Ag
Original Assignee
Roewaplan Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Roewaplan Ag filed Critical Roewaplan Ag
Priority to DE102023124815.4A priority Critical patent/DE102023124815B3/en
Application granted granted Critical
Publication of DE102023124815B3 publication Critical patent/DE102023124815B3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C3/00Registering or indicating the condition or the working of machines or other apparatus, other than vehicles
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

Die Erfindung betrifft ein System (1) zur insbesondere fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage (2), insbesondere Maschine wenigstens umfassend:
- wenigstens eine Erfassungseinheit (3) mit wenigstens einer akustischen Sensoreinrichtung (3a), welche in der Nähe der zu überwachenden technischen Anlage (2) angeordnet ist, wobei die Erfassungseinheit (3) dazu eingerichtet ist, automatisiert mittels der Sensoreinrichtung (3a) erfasste akustische Signale der technischen Anlage (2) als Audiosignaldaten zu speichern und die gespeicherten Audiosignaldaten und/oder aus wenigstens einem Teil der gespeicherten Audiosignaldaten extrahierte Datenmerkmale assoziiert mit der wenigstens einen technischen Anlage (2) an eine Cloud-basierte Analyseeinheit (5) zu übermitteln,
- die Cloud-basierte Analyseeinheit (5), welche mit der wenigstens einen Erfassungseinheit (3) kommunikationsverbunden ist, und welche dazu eingerichtet ist, die von der wenigstens einen Erfassungseinheit (3) empfangenen anlagenassoziierten Audiosignaldaten und/oder aus wenigstens einem Teil der anlagenassoziierten Audiosignaldaten extrahierte Datenmerkmale mittels künstlicher Intelligenz, insbesondere wenigstens eines maschinellen Lernalgorithmus und/oder wenigstens eines neuronalen Netzes zu analysieren und zu verarbeiten.

Figure DE102023124815B3_0000
The invention relates to a system (1) for in particular continuous acoustic monitoring of at least one technical installation (2), in particular a machine, comprising at least:
- at least one detection unit (3) with at least one acoustic sensor device (3a), which is arranged in the vicinity of the technical installation (2) to be monitored, wherein the detection unit (3) is designed to automatically store acoustic signals of the technical installation (2) detected by means of the sensor device (3a) as audio signal data and to transmit the stored audio signal data and/or data features extracted from at least a part of the stored audio signal data associated with the at least one technical installation (2) to a cloud-based analysis unit (5),
- the cloud-based analysis unit (5), which is communicatively connected to the at least one detection unit (3), and which is configured to analyze and process the system-associated audio signal data received from the at least one detection unit (3) and/or data features extracted from at least a portion of the system-associated audio signal data by means of artificial intelligence, in particular at least one machine learning algorithm and/or at least one neural network.
Figure DE102023124815B3_0000

Description

Die Erfindung betrifft ein System zur insbesondere fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage, insbesondere Maschine.The invention relates to a system for, in particular, continuous acoustic monitoring of at least one technical installation, in particular a machine.

Aus der Praxis bekannt sind Systeme zur Überwachung von Maschinen und Anlagen, die akustische Signale erfassen und analysieren. Schallüberwachungssysteme können sehr effektiv sein, da sie eine Vielzahl von Problemen erkennen können. Insbesondere können ungewöhnliche Geräusche, die auf fehlerhafte Lager oder andere mechanische Probleme hinweisen, detektiert werden. Sie können auch schnelle Diagnosen ermöglichen, da das Anhören von Geräuschen schneller sein kann als die Analyse von Vibrationen oder Temperaturmessungen. Ferner können akustische Überwachungssysteme sehr genau sein und Geräusche erkennen, die für das menschliche Ohr nicht hörbar sind. Dies ermöglicht es, sogar kleinste Abweichungen oder Unregelmäßigkeiten in der Maschinenfunktion zu erkennen. Außerdem können akustische Überwachungssysteme bei einer Vielzahl von Maschinen und Anlagen, unabhängig von Größe, Form oder Zweck eingesetzt werden. Mitunter können sie auch in Bereichen eingesetzt werden, in denen Temperatur- oder Vibrationsüberwachungen nicht praktikabel sind.Systems for monitoring machines and systems that record and analyze acoustic signals are well known in practice. Sound monitoring systems can be very effective because they can detect a wide range of problems. In particular, unusual noises that indicate faulty bearings or other mechanical problems can be detected. They can also enable rapid diagnosis, as listening to noises can be faster than analyzing vibrations or temperature measurements. Furthermore, acoustic monitoring systems can be very accurate and can detect noises that are inaudible to the human ear. This makes it possible to detect even the smallest deviations or irregularities in machine function. In addition, acoustic monitoring systems can be used on a wide range of machines and systems, regardless of size, shape or purpose. They can sometimes also be used in areas where temperature or vibration monitoring is not practical.

Es ist ebenfalls bekannt, mithilfe von künstlicher Intelligenz, wie Maschinenlernen, Tiefem Lernen (Deep Learning) bzw. neuronalen Netzen, Algorithmen zu trainieren, um Spektrogramme zu analysieren und Muster in den Daten zu erkennen. Diese Muster können dann dazu verwendet werden, um verschiedene Arten von Schallsignalen zu identifizieren (z. B. Sprache, Musik oder Umgebungsgeräusche) oder Anomalien bzw. Abweichungen von normalen Mustern zu detektieren. Zuvor werden die akustischen Signale über Mikrofone aufgenommen und in Spektrogramme überführt. Ein Beispiel für eine Anwendung dieser Technologie ist die Spracherkennung, bei der ein Computerprogramm trainiert wird, um die Sprache von Menschen zu erkennen und in Text umzuwandeln.It is also known to use artificial intelligence, such as machine learning, deep learning or neural networks, to train algorithms to analyze spectrograms and recognize patterns in the data. These patterns can then be used to identify different types of sound signals (e.g. speech, music or ambient noise) or to detect anomalies or deviations from normal patterns. The acoustic signals are first recorded using microphones and converted into spectrograms. An example of an application of this technology is speech recognition, in which a computer program is trained to recognize human speech and convert it into text.

Die Aufnahme von akustischen Signalen über Mikrofone und die Analyse derselben durch künstliche Intelligenz-Technologien zur Erstellung von Spektrogrammen werden auch in verschiedenen Anwendungen in der Produktion und Produktionsumgebungen eingesetzt. In der Produktion können akustische Signale von Maschinen und Ausrüstungen aufgenommen werden, um Anomalien oder Probleme in Echtzeit zu erkennen. Ferner können in Produktionsumgebungen akustische Signale zur Überwachung von Prozessen erfasst werden, um Abweichungen von normalen Betriebsbedingungen zu erkennen. Darüber hinaus können akustische Signale auch zur Steuerung von Produktionsprozessen verwendet werden. Beispielsweise können Maschinen derart programmiert werden, dass sie auf bestimmte Geräusche oder Klangmuster reagieren, um bestimmte Aktionen auszuführen, wie zum Beispiel ein Abschalten, wenn ungewöhnliche Geräusche oder Vibrationen erkannt werden.Recording acoustic signals through microphones and analyzing them using artificial intelligence technologies to create spectrograms is also used in various applications in manufacturing and production environments. In manufacturing, acoustic signals can be recorded from machines and equipment to detect anomalies or problems in real time. Furthermore, in production environments, acoustic signals can be recorded to monitor processes to detect deviations from normal operating conditions. In addition, acoustic signals can also be used to control production processes. For example, machines can be programmed to respond to certain sounds or sound patterns to perform certain actions, such as shutting down when unusual sounds or vibrations are detected.

Die EP 3 816 742 A1 bezieht sich unter anderem auf eine elektrische Anlage mit einer oder mehreren elektrischen Anlagxekomponenten und eine Überwachungseinrichtung zur Überwachung der elektrischen Anlage. Es ist vorgesehen, dass die Überwachungseinrichtung zumindest einen akustischen Sensor zur Geräuscherfassung der Geräusche der elektrischen Anlage unter Bildung eines akustischen Messsignals aufweist und die Überwachungseinrichtung eine mit dem zumindest einen akustischen Sensor in Verbindung stehende Auswertausrichtung umfasst, die das akustische Messsignal auswertet und ein Warnsignal erzeugt, wenn das akustische Messsignal auf eine Fehlverhalten der elektrischen Anlage oder zumindest einer der Anlagenkomponenten hinweist.The EP 3 816 742 A1 refers, among other things, to an electrical system with one or more electrical system components and a monitoring device for monitoring the electrical system. It is provided that the monitoring device has at least one acoustic sensor for detecting the noise of the electrical system to form an acoustic measurement signal and the monitoring device comprises an evaluation device connected to the at least one acoustic sensor, which evaluates the acoustic measurement signal and generates a warning signal if the acoustic measurement signal indicates a malfunction of the electrical system or at least one of the system components.

Die US 2020/0393811 A1 betrifft ein automatisches Inspektionssystem.The US 2020/0393811 A1 concerns an automatic inspection system.

Die WO 2010/ 057 661 A1 betrifft ein Verfahren und eine Vorrichtung zur Überwachung eines an einem Werkstück durchzuführenden Laserbearbeitungsvorgangs sowie einen Laserbearbeitungskopf mit einer derartigen Vorrichtung.The WO 2010/ 057 661 A1 relates to a method and a device for monitoring a laser processing operation to be carried out on a workpiece and to a laser processing head with such a device.

Die WO 2018/ 050 438 A2 offenbart eine Verwendung umfassender künstlicher Intelligenz bei Anlagen der Grundstoffindustrie.The WO 2018/ 050 438 A2 reveals the use of comprehensive artificial intelligence in basic industry plants.

Die bekannten Systeme erfordern oft eine aufwändige Installation und eine Anpassung an die jeweilige zu überwachende Maschine oder Anlage. Ein kompliziertes Einrichtungsverfahren kann dazu führen, dass Installationen länger dauern und möglicherweise professionelle Hilfe benötigt wird, um das System ordnungsgemäß einzurichten. Wenn das einzurichtende System komplex ist, kann dies möglicherweise hohe Installations- und Konfigurationskosten verursachen. Häufig kommen spezielle und teure Richtmikrofone zum Einsatz, welche exakt ausgerichtet werden müssen. Nicht benutzerfreundliche oder schwer einzurichtende Systeme können wiederum dazu führen, dass Benutzer die Systeme nicht richtig oder gar nicht verwenden, was die Effektivität des Überwachungssystems signifikant einschränken kann. Der mitunter hohe Aufwand für die Implementierung eines Systems für die vorausschauende Wartung (predictive maintenance) wird aktuell zum größten Teil durch die Phase der Aufbereitung oder Vorverarbeitung (preprocessing) von Daten verursacht. Gegenwärtig sind deshalb maschinelles Lernen-Projekte in kleinen und mittleren Unternehmen aufgrund des damit verbundenen erheblichen Aufwands, hohen Kosten und dem ungewissen Nutzen nicht sehr verbreitet. Möglichen Effizienzgewinnen stehen zunächst kaum übersehbare Kosten gegenüber, die meist auf mangelnde Datenqualität und Datenverfügbarkeit zurückzuführen sind. Dabei zählen die Erfassung und die Vorverarbeitung der Daten sowie das Trainieren der Algorithmen zu den zeit- und ressourcenaufwändigsten und nur in geringem Maß planbaren Aufgaben. Daher sind diese Techniken aktuell vor allem größeren Unternehmen zugänglich.The known systems often require complex installation and adaptation to the specific machine or system to be monitored. A complicated setup procedure can mean that installations take longer and professional help may be needed to set up the system properly. If the system to be set up is complex, this can potentially result in high installation and configuration costs. Special and expensive directional microphones are often used, which must be precisely aligned. Systems that are not user-friendly or difficult to set up can in turn lead to users not using the systems correctly or not using them at all, which can significantly limit the effectiveness of the monitoring system. The sometimes high effort required to implement a system for predictive maintenance is currently largely caused by the phase of preparing or preprocessing data. Machine learning and data processing are therefore currently the most common. Due to the considerable effort, high costs and uncertain benefits involved, data-driven projects are not very common in small and medium-sized companies. Potential efficiency gains are initially offset by costs that are difficult to overlook, which are mostly due to poor data quality and data availability. The collection and pre-processing of data and the training of algorithms are among the most time- and resource-intensive tasks and can only be planned to a limited extent. Therefore, these techniques are currently only accessible to larger companies.

Unübersichtliche und schwer zu verstehende Benutzerschnittstellen können insbesondere bei einem akustischen, auf künstlicher Intelligenz basierenden Überwachungssystem zusätzliche Probleme, wie etwa fehlende oder unklare Informationen, Fehlinterpretationen von Daten, Schwierigkeiten bei der Nutzung des Systems und Vertrauensverlust, verursachen.Confusing and difficult to understand user interfaces can cause additional problems, such as missing or unclear information, misinterpretation of data, difficulties in using the system and loss of trust, especially in an acoustic surveillance system based on artificial intelligence.

Ausgehend davon liegt der vorliegenden Erfindung die Aufgabe zugrunde, ein System zur insbesondere fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage zu schaffen, welches die Nachteile des Standes der Technik vermeidet, insbesondere einfach installierbar und auf verschiedene technische Anlagen oder Maschinen anpassbar ist, vorzugsweise auch kostengünstig und/oder zumindest innerhalb eines übersehbaren Kostenrahmens implementierbar ist.Proceeding from this, the present invention is based on the object of creating a system for, in particular, continuous acoustic monitoring of at least one technical system, which avoids the disadvantages of the prior art, is in particular easy to install and adaptable to various technical systems or machines, and is preferably also cost-effective and/or at least implementable within a foreseeable cost framework.

Diese Aufgabe wird erfindungsgemäß durch ein System mit den in Anspruch 1 genannten Merkmalen gelöst.This object is achieved according to the invention by a system having the features mentioned in claim 1.

Erfindungsgemäß wird ein System zur fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage, insbesondere Maschine, vorgeschlagen, welches wenigstens umfasst:

  • - wenigstens eine Erfassungseinheit mit wenigstens einer akustischen Sensoreinrichtung, welche in der Nähe bzw. im Bereich der zu überwachenden technischen Anlage angeordnet oder anordenbar ist, wobei die Erfassungseinheit dazu eingerichtet und insbesondere derart ausgerichtet ist, automatisiert mittels der Sensoreinrichtung erfasste akustische Signale oder Geräusche der technischen Anlage als Audiosignaldaten zu speichern und die gespeicherten Audiosignaldaten und/oder aus wenigstens einem Teil der gespeicherten Audiosignaldaten extrahierte Datenmerkmale assoziiert mit der wenigstens einen technischen Anlage an eine Cloud-basierte Analyseeinheit zu übermitteln,
  • - die Cloud-basierte Analyseeinheit, welche mit der wenigstens einen Erfassungseinheit kommunikationsverbunden ist, und welche dazu eingerichtet ist, die von der wenigstens einen Erfassungseinheit empfangenen anlagenassoziierten Audiosignaldaten und/oder aus wenigstens einem Teil der Audiosignaldaten extrahierte Datenmerkmale mittels künstlicher Intelligenz, nämlich wenigstens eines maschinellen Lernalgorithmus und/oder wenigstens eines neuronalen Netzes zu analysieren und zu verarbeiten,
  • - wobei bei deren Nichtvorhandensein automatisiert, insbesondere von der Cloud-basierten Analyseeinheit eine für die anlagenassoziierte Speicherung und Verarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale geeignete Datenumgebung, insbesondere Datenbanken und/oder Dateien, insbesondere in einer der Cloud-basierten Analyseeinheit zugeordneten Cloud erzeugt werden, wobei eine Vorverarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale durchgeführt wird,
  • - wobei mittels der empfangenen anlagenassoziierten Audiosignaldaten und/oder der Datenmerkmale, der wenigstens eine maschinelle Lernalgorithmus und/oder das wenigstens eine neuronale Netz, insbesondere von der Cloud-basierten Analyseeinheit, unbeaufsichtigt trainiert werden, um einen Normalzustand der technischen Anlage aufzuzeichnen bzw. aufzunehmen und eine Unterscheidung von abnormen Audiosignaldaten und Datenmerkmalen zu ermöglichen, und
  • - wobei die Analyse von neuen bzw. neu empfangenen anlagenassoziierten Audiosignaldaten und/oder Datenmerkmalen, insbesondere von der Cloud-basierten Analyseeinheit, insbesondere in Abhängigkeit von bereits aufgezeichneten oder gespeicherten Audiosignaldaten und/oder Datenmerkmalen, mehrstufig, in drei unterschiedlichen Stufen erfolgt.
According to the invention, a system for continuous acoustic monitoring of at least one technical installation, in particular a machine, is proposed, which comprises at least:
  • - at least one detection unit with at least one acoustic sensor device, which is arranged or can be arranged in the vicinity or in the area of the technical installation to be monitored, wherein the detection unit is set up and in particular oriented to automatically store acoustic signals or noises of the technical installation detected by means of the sensor device as audio signal data and to transmit the stored audio signal data and/or data features extracted from at least a part of the stored audio signal data associated with the at least one technical installation to a cloud-based analysis unit,
  • - the cloud-based analysis unit, which is communicatively connected to the at least one detection unit and which is configured to analyze and process the system-associated audio signal data received from the at least one detection unit and/or data features extracted from at least a portion of the audio signal data by means of artificial intelligence, namely at least one machine learning algorithm and/or at least one neural network,
  • - in the absence of such data, a data environment suitable for the system-associated storage and processing of the received audio signal data and/or the data features, in particular databases and/or files, are generated automatically, in particular by the cloud-based analysis unit, in particular in a cloud assigned to the cloud-based analysis unit, wherein a preprocessing of the received audio signal data and/or the data features is carried out,
  • - wherein, by means of the received system-associated audio signal data and/or the data features, the at least one machine learning algorithm and/or the at least one neural network are trained unsupervised, in particular by the cloud-based analysis unit, in order to record or record a normal state of the technical system and to enable a distinction to be made between abnormal audio signal data and data features, and
  • - wherein the analysis of new or newly received system-associated audio signal data and/or data features, in particular from the cloud-based analysis unit, in particular depending on already recorded or stored audio signal data and/or data features, is carried out in several stages, in three different stages.

Mittels des erfindungsgemäßen Systems können technische Anlagen und Systeme an sieben Wochentagen rund um die Uhr (24/7) überwacht werden, ohne hierfür explizit Personal zu benötigen. Durch die akustische Erfassung aller Signale in den entsprechenden Räumen und die automatische Detektion von Anomalien unter Verwendung von künstlicher Intelligenz übernimmt das erfindungsgemäße System als All-in-one-Lösung nach einer kurzen Anlernzeit die Aufgabe eines qualifizierten Instandhalters für die jeweiligen technischen Anlagen und Systeme. Da die erfindungsgemäße Lösung selbständig auf Basis der in dem zu überwachenden Raum bzw. Bereich verfügbaren Informationen lernt, können unterschiedlichste technische Anlagen und Systeme überwacht werden. Ein Customizing oder dergleichen ist nicht erforderlich. Dadurch werden die Verfügbarkeiten der technischen Anlagen und Systeme erhöht, die Fehleranfälligkeit reduziert sowie Kosten und Zeit eingespart. Somit kann die Prozessqualität verbessert werden. Der Einstieg in die künstliche Intelligenz wird mit der erfindungsgemäßen All-in-one-Lösung stark vereinfacht. Ohne jegliche Konfiguration, Customizing und die Initiierung eines aufwändigen Projekts kann das erfindungsgemäße System einen einfachen Einstieg in die künstliche Intelligenz darstellen. Durch die Möglichkeit der Ferndiagnose lassen sich die Fahrtzeiten von Technikern optimieren bzw. minimieren. Es ist kein komplizierter Einbau des Überwachungssystems in die technische Anlage bzw. Maschine vonnöten. Mit dem erfindungsgemäßen System können eine Vielzahl unterschiedlicher Ausfallursachen erkannt werden. Das System kann kontinuierlich dazulernen und sich dem Wissen von Fachpersonal anpassen. Ein Einsatz in Umgebungen, in denen Menschen sich nicht lange aufhalten können oder sollten, ist ebenfalls denkbar. Benachrichtigungen über mögliche Anomalien oder Ausfälle können beispielsweise per E-Mail erfolgen.By means of the system according to the invention, technical systems and installations can be monitored 24 hours a day, seven days a week, without the explicit need for personnel. By acoustically recording all signals in the relevant rooms and automatically detecting anomalies using artificial intelligence, the system according to the invention, as an all-in-one solution, takes on the role of a qualified maintenance engineer for the relevant technical systems and installations after a short training period. Since the solution according to the invention learns independently on the basis of the information available in the room or area to be monitored, a wide variety of technical systems and installations can be monitored. Systems are monitored. Customizing or the like is not necessary. This increases the availability of the technical systems and systems, reduces the susceptibility to errors and saves costs and time. This can improve process quality. Getting started with artificial intelligence is made much easier with the all-in-one solution according to the invention. Without any configuration, customizing or the initiation of a complex project, the system according to the invention can represent a simple introduction to artificial intelligence. The possibility of remote diagnosis allows the travel times of technicians to be optimized or minimized. There is no need for complicated installation of the monitoring system in the technical system or machine. The system according to the invention can detect a large number of different causes of failure. The system can continuously learn and adapt to the knowledge of specialist personnel. It is also conceivable that it can be used in environments in which people cannot or should not spend long periods of time. Notifications of possible anomalies or failures can be sent by email, for example.

Als technische Anlage soll im Rahmen der Erfindung eine planvolle und systematische Zusammenstellung von in räumlichem Zusammenhang stehenden Apparaten, Geräten und/oder Maschinen inklusive zugehöriger Bauten bzw. Stützkonstruktionen, die funktional, steuerungstechnisch oder sicherheitstechnisch miteinander verbunden sein können, verstanden werden. Die technischen Anlagen können eine Vielzahl von beweglichen Teilen sowie elektrische bzw. elektronische oder auch optoelektronische Geräte umfassen.In the context of the invention, a technical system is to be understood as a planned and systematic assembly of spatially related apparatus, devices and/or machines, including associated buildings or supporting structures, which can be connected to one another in terms of function, control technology or safety technology. The technical systems can include a large number of moving parts as well as electrical or electronic or optoelectronic devices.

Das erfindungsgemäße System kann als Plug-and-Play-System zur automatisierten akustischen Erfassung und Analyse von Maschinen- und Anlagengeräuschen verwendet werden, ohne dass aufwändige Installationen oder Anpassungen für unterschiedliche Maschinen oder Anlagen erforderlich sind. Das System umfasst eine Erfassungseinheit und eine Cloud-basierte künstliche Intelligenz-Analyseplattform (Smart Cloud). Die entsprechend ausgerichtete und in der Nähe der zu überwachenden technischen Anlage angeordnete oder anordenbare Erfassungseinheit zeichnet automatisiert akustische Signale der Maschine bzw. Anlage auf, extrahiert Merkmale und übermittelt diese mitsamt den aufgezeichneten akustischen Signalen an die Analyseeinheit bzw. Analyseplattform. Die Erfassungseinheit kann eine kostengünstige Alternative zu teurer Spezialausrüstung sein. Dadurch werden die Kosten für die Ausrüstung gesenkt, wobei es gleichzeitig ermöglicht wird, die erfindungsgemäße Technologie auch in kleineren Produktionsumgebungen einzusetzen. In der Cloud-basierten Analyseplattform werden automatisch die passenden Datenbanken bzw. Dateien zur Speicherung der erfassten Sounddaten und/oder Merkmale erstellt, die Daten für die nachgelagerten maschinellen Lernalgorithmen vorverarbeitet, die maschinellen Lernalgorithmen für die Anomalieerkennung und Geräuschklassifizierung trainiert und die Geräusche analysiert. Die Analyseeinheit weist ein System zur automatisierten Analyse von akustischen Signalen auf, welches auf einem mehrstufigen Algorithmus basiert. Zunächst wird ein Normalzustand aus mehreren Audiodateien erstellt, der für das Training eines Algorithmus verwendet wird, der zwischen normalen und abnormalen Signalen unterscheiden kann. Der Nutzer muss am Anfang keine Daten manuell klassifizieren, um aussagekräftige Vorhersagen zu erhalten. Das System verwendet eine mehrstufige Anomalienerkennung, wobei Zustände, die durch den unbeaufsichtigten Lernalgorithmus (unsupervised learning) gefunden wurden, als Grundlage für ein effizienteres supervised learning dienen können. Es besteht die Möglichkeit, spezielle Alarme auf Basis der erkannten Geräusche auszugeben, welche beispielsweise per E-Mail übermittelt werden. Das System kann in verschiedenen Anwendungsgebieten, wie Maschinendiagnostik, Sicherheitsüberwachung und Qualitätssicherung eingesetzt werden.The system according to the invention can be used as a plug-and-play system for the automated acoustic recording and analysis of machine and system noises without the need for complex installations or adaptations for different machines or systems. The system comprises a recording unit and a cloud-based artificial intelligence analysis platform (smart cloud). The recording unit, which is appropriately aligned and arranged or can be arranged near the technical system to be monitored, automatically records acoustic signals from the machine or system, extracts features and transmits them together with the recorded acoustic signals to the analysis unit or analysis platform. The recording unit can be a cost-effective alternative to expensive special equipment. This reduces the cost of the equipment, while at the same time making it possible to use the technology according to the invention in smaller production environments. In the cloud-based analysis platform, the appropriate databases or files for storing the recorded sound data and/or features are automatically created, the data is preprocessed for the downstream machine learning algorithms, the machine learning algorithms for anomaly detection and noise classification are trained, and the noises are analyzed. The analysis unit has a system for the automated analysis of acoustic signals, which is based on a multi-stage algorithm. First, a normal state is created from several audio files, which is used to train an algorithm that can distinguish between normal and abnormal signals. The user does not have to manually classify data at the beginning in order to obtain meaningful predictions. The system uses multi-stage anomaly detection, whereby states found by the unsupervised learning algorithm can serve as the basis for more efficient supervised learning. It is possible to issue special alarms based on the detected noises, which are sent, for example, by email. The system can be used in various application areas, such as machine diagnostics, safety monitoring and quality assurance.

Das erfindungsgemäße System umfasst eine Kombination aus einer kostengünstigen Erfassungseinheit und einer Cloud-basierten künstlichen Intelligenz-Analyseeinheit bzw. -Plattform, die automatisch Datenbanken erstellt und maschinelle Lernalgorithmen trainiert. Das System kann ohne aufwändige Installationen oder Anpassungen für verschiedene Maschinen oder Anlagen verwendet werden, was es zu einer praktischen und benutzerfreundlichen Lösung macht. Das erfindungsgemäße System kann als innovative und effektive Lösung betrachtet werden, die eine einfache und kosteneffiziente Möglichkeit bietet, akustische Signale von Maschinen und Anlagen zu erfassen und zu analysieren.The system according to the invention comprises a combination of a low-cost acquisition unit and a cloud-based artificial intelligence analysis unit or platform that automatically creates databases and trains machine learning algorithms. The system can be used for different machines or systems without complex installations or adaptations, making it a practical and user-friendly solution. The system according to the invention can be considered an innovative and effective solution that offers a simple and cost-efficient way to capture and analyze acoustic signals from machines and systems.

Bei der Analyse der neuen bzw. neu empfangenen anlagenassoziierten Audiosignaldaten und/oder der Datenmerkmale:

  • - werden in einer ersten Stufe Anomalien erkannt, insbesondere wenn eine Abweichung von dem aufgezeichneten Normalzustand der wenigstens einen technischen Anlage vorliegt,
  • - ist in einer zweiten Stufe ein Fehler der wenigstens einen technischen Anlage klassifizierbar, insbesondere ein Klappern oder eine Kavitation, und
  • - ist in einer dritten Stufe ein Ausfall der wenigstens einen technischen Anlage vorhersagbar.
When analyzing the new or newly received system-associated audio signal data and/or data characteristics:
  • - in a first stage, anomalies are detected, in particular if there is a deviation from the recorded normal state of the at least one technical installation,
  • - in a second stage, a fault in the at least one technical system can be classified, in particular a rattling or cavitation, and
  • - in a third stage, a failure of at least one technical system can be predicted.

Die Analyse von Sounddaten erfolgt in drei Stufen, was den Vorteil mit sich bringt, dass das zeitaufwändige und kostenintensive Sammeln und Vorverarbeiten von Daten (preprocessing) durch maschinelle Lernalgorithmen deutlich reduziert wird. Jede Maschine bzw. Anlage hat ihre eigene Geräuschkulisse, weshalb der Algorithmus zunächst die verschiedenen Geräusche erlernen muss. Dazu müssen jedoch viele Audiodaten mit dem entsprechenden Label (normal/anormal) klassifiziert werden. Um diesen Aufwand zu minimieren, wird zuerst der Normalzustand der Anlage aufgenommen und ein unbeaufsichtigter (unsupervised) Lernalgorithmus trainiert. Mit dieser Technik können dann Abweichungen vom aufgenommenen Normalzustand erkannt werden.The analysis of sound data takes place in three stages, which has the advantage that the time-consuming and costly collection and preprocessing of data by machine learning algorithms is significantly reduced. Every machine or system has its own background noise, which is why the algorithm must first learn the different sounds. To do this, however, a lot of audio data must be classified with the corresponding label (normal/abnormal). To minimize this effort, the normal state of the system is first recorded and an unsupervised learning algorithm is trained. This technique can then be used to detect deviations from the recorded normal state.

Die Soundanalyse ist mehrstufig, nämlich dreistufig aufgebaut, da für jede Stufe erst genügend Daten gesammelt werden sollten.The sound analysis is structured in three stages, since sufficient data must be collected for each stage.

In der ersten Stufe kann der Normalzustand der Maschine aufgenommen werden. Jede Abweichung stellt eine Anomalie dar und kann auf einen Fehler in der Maschine hindeuten.In the first stage, the normal state of the machine can be recorded. Any deviation represents an anomaly and may indicate a fault in the machine.

In der zweiten Stufe kann das System nicht nur eine Anomalie feststellen, sondern dem entsprechenden Instandhaltungsmitarbeiter auch anzeigen, welche Art von Anomalie (z. B. Kavitation) vorliegt.In the second stage, the system can not only detect an anomaly but also indicate to the relevant maintenance employee what type of anomaly (e.g. cavitation) is present.

In der dritten Stufe kann sich voraussagen lassen, wann (z. B. in einer Anzahl von Tagen) Ausfälle technischer Anlagen und Systeme wahrscheinlich werden.In the third stage, it is possible to predict when (e.g. in a number of days) failures of technical equipment and systems are likely to occur.

Eine dreistufige Analyse kann die Möglichkeit bieten, im ersten Schritt einfach in die künstliche Intelligenz einzusteigen und die Zustände der Anlage (normal/anormal) zu bestimmen, im zweiten Schritt qualifizierte Informationen über Fehler zu erhalten und im dritten Schritt Vorhersagen zu treffen, wann entsprechende technische Anlagen und Maschinen ausfallen könnten.A three-stage analysis can offer the possibility of simply entering the artificial intelligence in the first step and determining the states of the system (normal/abnormal), obtaining qualified information about errors in the second step and making predictions in the third step as to when corresponding technical systems and machines might fail.

Erfindungsgemäß ist, insbesondere auf der Cloud-basierten Analyseeinheit ferner ein Spracherkennungsalgorithmus vorhanden oder wird ausgeführt, welcher die von der wenigstens einen Erfassungseinheit empfangenen Audiosignaldaten auf vorhandene Sprachanteile überprüft, wobei Audiosignaldaten, bei welchen Sprachanteile von dem im Spracherkennungsalgorithmus erkannt wurden, nicht gespeichert oder verarbeitet werden.According to the invention, a speech recognition algorithm is also present or is executed, in particular on the cloud-based analysis unit, which checks the audio signal data received from the at least one detection unit for the presence of speech components, wherein audio signal data in which speech components were recognized by the speech recognition algorithm are not stored or processed.

Ein weiterer maschineller Lernalgorithmus kann aus Datenschutzgründen die erfassten Geräusche auf mögliche Sprache überprüfen. Sollte eine Sprache erkannt werden, werden diese Geräusche nicht gespeichert. Damit sichergestellt wird, dass nicht versehentlich Unterhaltungen von Personen aufgezeichnet werden, kann somit eine Spracherkennung integriert werden.For data protection reasons, another machine learning algorithm can check the recorded sounds for possible speech. If speech is detected, these sounds are not saved. To ensure that people's conversations are not accidentally recorded, speech recognition can be integrated.

Bei dem Training des wenigstens einen maschinellen Lernalgorithmus und/oder wenigstens einen neuronalen Netzes können zusätzlich Benutzereingaben berücksichtigt werden, wobei vorzugsweise dem Benutzer zur Unterstützung der Entscheidungsfindung die zu klassifizierenden Audiosignaldaten anhörbar, visuell in Form eines Spektrogramms und/oder unter Angabe eines vorläufigen, von dem wenigstens einen maschinellen Lernalgorithmus und/oder wenigstens einen neuronalen Netzes automatisiert ermittelten Analyseergebnisses angezeigt werden.When training the at least one machine learning algorithm and/or at least one neural network, user inputs can additionally be taken into account, wherein the audio signal data to be classified are preferably displayed to the user in an audible manner, visually in the form of a spectrogram and/or with an indication of a preliminary analysis result automatically determined by the at least one machine learning algorithm and/or at least one neural network in order to support the decision-making process.

Die vorhergesagten Zustände können dem Benutzer in einer übersichtlichen Darstellung, als anhörbare Audiodatei oder Spektrogramm, vorzugsweise Melspektrogramm bereitgestellt werden, um den Benutzer bei der Entscheidungsfindung zu unterstützen. Das System verwendet einen aktiven Lernalgorithmus, um das Domainwissen des Benutzers zu nutzen und den Algorithmus aktiv zu verbessern. Das System kann zusätzlich neben den Melspektrogrammen und den anhörbaren Audiodaten einen maschinellen Lernalgorithmus verwenden, welcher das bereitgestellte Geräusch analysiert und neben der Verwendung als Spracherkennung dem Benutzer vorschlägt, wie das Geräusch klingt. Dadurch kann der Benutzer bei der Entscheidungsfindung weiter unterstützt werden. Zusätzlich kann die Möglichkeit bestehen, diesen maschinellen Lernalgorithmus für die Geräuschklassifizierung auf die spezifischen Geräusche (z. B. Kavitation, Klappern) der Benutzerumgebung durch Transferlearning und Soundbeispiele anzupassen.The predicted states can be provided to the user in a clear representation, as an audible audio file or spectrogram, preferably a melspectrogram, to support the user in making decisions. The system uses an active learning algorithm to use the user's domain knowledge and actively improve the algorithm. In addition to the melspectrograms and the audible audio data, the system can also use a machine learning algorithm which analyzes the provided noise and, in addition to being used as speech recognition, suggests to the user what the noise sounds like. This can further support the user in making decisions. In addition, it can be possible to adapt this machine learning algorithm for noise classification to the specific noises (e.g. cavitation, rattling) of the user's environment through transfer learning and sound examples.

Die Datenmerkmale können aus Audiosignaldaten oder Abschnitten von Audiosignaldaten von jeweils fünf Sekunden Aufzeichnungsdauer extrahiert werden. Die Audiosignaldaten bzw. Abschnitte können in Intervallen von beispielsweise 2 Minuten gesammelt und analysiert werden.The data features can be extracted from audio signal data or sections of audio signal data, each with a recording duration of five seconds. The audio signal data or sections can be collected and analyzed at intervals of, for example, 2 minutes.

Die wenigstens eine Erfassungseinheit oder die Cloud-basierte Analyseeinheit kann die Datenmerkmale aus den Audiosignaldaten extrahieren. D. h. die wenigstens eine Erfassungseinheit oder die Cloud-basierte Analyseeinheit können jeweils dazu eingerichtet sein, Datenmerkmale aus wenigstens einem Teil der gespeicherten bzw. empfangenen Audiosignaldaten zu extrahieren.The at least one acquisition unit or the cloud-based analysis unit can extract the data features from the audio signal data. This means that the at least one acquisition unit or the cloud-based analysis unit can each be configured to extract data features from at least a portion of the stored or received audio signal data.

Die Audiosignaldaten und/oder die extrahierten Datenmerkmale können von der Erfassungseinheit an die Cloud-basierte Analyseeinheit mit einer Sensor-ID und einer Anlage- oder Kunden-ID, insbesondere über Message Queing Telemetry Transport (MQTT) übermittelt werden.The audio signal data and/or the extracted data features can be transmitted from the acquisition unit to the cloud-based analysis unit with a sensor ID and a facility or customer ID, in particular especially via Message Queuing Telemetry Transport (MQTT).

Die Erfassungseinheit kann über MQTT unter anderem die erfassten Audiosignaldaten, die extrahierten Merkmale sowie eine Sensor-ID und Kunden-ID versenden. Dadurch ist die Analyseplattform in der Lage zu bestimmen, zu welchem Kunden der Sensor bzw. die sendende Erfassungseinheit gehört und folglich in welcher Datenbank die empfangenen Daten abgespeichert werden müssen. Bei MQTT handelt es sich um ein Nachrichtenprotokoll für eingeschränkte Netzwerke mit geringer Bandbreite. Aufgrund der Sensor-ID und der Kunden-ID kann ein Algorithmus auf der Analyseplattform erkennen, ob dieser Sensor bereits vorhanden ist und zu welcher Datenbank der Sensor gehört. Die Erstellung der notwendigen Datenbanken, das Sammeln und Abspeichern der Daten, das Trainieren und Testen der maschinellen Lernalgorithmen, die Verwendung des neuesten und durch das Feedback des Benutzers angepassten maschinellen Lernalgorithmus wird automatisiert von der Cloud-basierten künstlichen Intelligenz-Analyseplattform erledigt. Der Benutzer muss nichts weiter unternehmen und kann per E-Mail benachrichtigt werden, sobald eine Anomalie aufgetaucht ist.The acquisition unit can use MQTT to send, among other things, the acquired audio signal data, the extracted features, a sensor ID and customer ID. This enables the analysis platform to determine which customer the sensor or the sending acquisition unit belongs to and consequently in which database the received data must be stored. MQTT is a messaging protocol for restricted, low-bandwidth networks. Based on the sensor ID and customer ID, an algorithm on the analysis platform can determine whether this sensor already exists and which database the sensor belongs to. The creation of the necessary databases, the collection and storage of the data, the training and testing of the machine learning algorithms, the use of the latest machine learning algorithm adapted based on the user's feedback are all done automatically by the cloud-based artificial intelligence analysis platform. The user does not have to do anything else and can be notified by email as soon as an anomaly has appeared.

Das erfindungsgemäße System kann ferner eine Visualisierungsanwendung umfassen, welche mit der Cloud-basierten Analyseeinheit kommunikationsverbunden ist und anlagenassoziiert dem Benutzer mögliche Zustände der wenigstens einen technischen Anlage, insbesondere visuell in Form von Tabellen, Dashboards oder Spektrogrammen und/oder als anhörbare Audiosignaldaten anzeigt.The system according to the invention can further comprise a visualization application which is communicatively connected to the cloud-based analysis unit and displays possible states of the at least one technical system to the user in a system-associated manner, in particular visually in the form of tables, dashboards or spectrograms and/or as audible audio signal data.

Das erfindungsgemäße System kann eine Weboberfläche bzw. Visualisierungsanwendung bereitstellen, in welcher das Ergebnis der Aufzeichnung und das Ergebnis der Anomaliedetektion dem Benutzer angezeigt werden kann. Die Weboberfläche kann über die Eingabe einer entsprechenden URL und eine Authentifikation erreichbar sein. Jede Erfassungseinheit kann ein eigenes Dashboard, in welchem die Ergebnisse der Überwachung sichtbar werden, aufweisen. Der Benutzer kann über das Dashboard insbesondere:

  • - den Status der Überwachung im Zeitverlauf betrachten;
  • - farblich codierte Anomalien im Zeitverlauf feststellen;
  • - die aktiven Tonsignale, die zur Aufzeichnung der Anomalie führten, anhören und ansehen;
  • - die detektierten Anomalien markieren (als Anomalie bestätigt oder es liegt keine Anomalie vor);
  • - die bestätigten Anomalien bezeichnen (beispielsweise mit einem konkreten Fehler, der festgestellt wurde); und
  • - die Daten für weitere Stufen verwenden.
The system according to the invention can provide a web interface or visualization application in which the result of the recording and the result of the anomaly detection can be displayed to the user. The web interface can be accessed by entering a corresponding URL and authentication. Each recording unit can have its own dashboard in which the results of the monitoring are visible. The user can use the dashboard in particular to:
  • - view the status of monitoring over time;
  • - identify color-coded anomalies over time;
  • - listen to and view the active audio signals that led to the recording of the anomaly;
  • - mark the detected anomalies (confirmed as anomaly or no anomaly);
  • - identify the confirmed anomalies (for example, with a specific error that was detected); and
  • - use the data for further stages.

Dadurch kann der Benutzer des erfindungsgemäßen Systems im ersten Schritt alle betreffenden Maschinen/Anlagen mit der Erfassungseinheit (sozusagen als entferntes Ohr) überwachen, Auffälligkeiten feststellen, festgestellte Auffälligkeiten markieren und bezeichnen. Mittels der künstlichen Intelligenz kann das System die üblichen Geräusche der Maschine/Anlage erlernen, anomale Geräusche feststellen und diese markieren. Das lernende System kann dank dem Wissen und Feedback der Benutzer immer präziser werden und dann in der Lage sein eindeutig anzuzeigen, wenn entsprechende Ausfälle in Form von Anomalien festgestellt wurden.As a result, the user of the system according to the invention can, in the first step, monitor all the machines/systems concerned with the detection unit (as a remote ear, so to speak), identify any abnormalities, mark and label any abnormalities found. Using artificial intelligence, the system can learn the usual noises of the machine/system, identify abnormal noises and mark them. Thanks to the knowledge and feedback of the users, the learning system can become increasingly more precise and then be able to clearly indicate when corresponding failures in the form of anomalies have been identified.

Dem Benutzer können mögliche Zustände seiner Maschine oder Anlage in einer übersichtlichen Darstellung in Form von Dashboards und Tabellen, sowie als anhörbare Audiodateien und Spektrogramme (insbesondere Melspektrogramme) bereitgestellt werden. Melspektrogramme bieten den großen Vorteil, dass akustische Signale visuell verständlich für den Menschen aufbereitet werden. Dies erlaubt eine zusätzliche Bewertung des Geräuschs, da das Gehör im Alter abnimmt und bei jedem Menschen unterschiedlich ausgeprägt ist. Durch das reine Anhören des Geräuschs könnten einige Personen eventuell nichts wahrnehmen und somit potenzielle Risiken durch z. B. Wellenschwingungen, Unwuchten, Eingriffsfrequenzen von Zahnrädern und Stoßimpulse von Getrieben bzw. Wälzlagern, welche üblicherweise in höheren Frequenzen auftreten, nicht erkennen. Die Zustände für die Anomalieerkennung (z. B. normal/anormal) sowie für die Geräuschklassifikationen (z. B. Kavitation, Klappern) kann effizient in der Oberfläche eingegeben werden und das System kann durch Drücken eines Buttons automatisch darauf angepasst werden.The user can be provided with possible states of their machine or system in a clear representation in the form of dashboards and tables, as well as audible audio files and spectrograms (especially Melspectrograms). Melspectrograms offer the great advantage that acoustic signals are processed in a way that is visually understandable for humans. This allows an additional assessment of the noise, since hearing deteriorates with age and is different for each person. By simply listening to the noise, some people may not notice anything and thus not recognize potential risks from, for example, shaft vibrations, imbalances, meshing frequencies of gears and shock pulses from gears or rolling bearings, which usually occur at higher frequencies. The states for anomaly detection (e.g. normal/abnormal) and for noise classifications (e.g. cavitation, rattling) can be efficiently entered in the interface and the system can be automatically adjusted to them by pressing a button.

In Anspruch 7 ist ein Verfahren zur fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage, insbesondere Maschine, mittels eines erfindungsgemäßen Systems angegeben.Claim 7 specifies a method for continuous acoustic monitoring of at least one technical installation, in particular a machine, by means of a system according to the invention.

Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.Advantageous embodiments and further developments of the invention are specified in the subclaims.

Nachfolgend ist anhand der Zeichnung prinzipmäßig ein Ausführungsbeispiel der Erfindung beschrieben.An embodiment of the invention is described in principle below with reference to the drawing.

Es zeigt:

  • 1 Eine schematische Darstellung zur Verdeutlichung der Funktionsweise eines erfindungsgemäßen Systems;
  • 2 eine schematische Darstellung zur Veranschaulichung des Sicherheitskonzepts und des Datenflusses des erfindungsgemäßen Systems;
  • 3 ein Ablaufdiagramm zur Veranschaulichung eines erfindungsgemäßen Verfahrens, welches auf dem erfindungsgemäßen System abläuft;
  • 4 eine schematische Darstellung einer Analyse von Sounddaten durch das erfindungsgemäße System in drei Stufen;
  • 5 eine vereinfachte Darstellung eines ersten Teils einer Benutzerschnittstelle des erfindungsgemäßen Systems; und
  • 6 eine vereinfachte Darstellung eines zweiten Teils der Benutzerschnittstelle des erfindungsgemäßen Systems.
It shows:
  • 1 A schematic representation to illustrate the functioning of a system according to the invention;
  • 2 a schematic representation to illustrate the security concept and the data flow of the system according to the invention;
  • 3 a flow chart to illustrate a method according to the invention which runs on the system according to the invention;
  • 4 a schematic representation of an analysis of sound data by the system according to the invention in three stages;
  • 5 a simplified representation of a first part of a user interface of the system according to the invention; and
  • 6 a simplified representation of a second part of the user interface of the system according to the invention.

In den Figuren sind funktionsgleiche Elemente mit denselben Bezugszeichen versehen.In the figures, functionally identical elements are provided with the same reference symbols.

1 zeigt eine schematische Darstellung zur Verdeutlichung eines erfindungsgemäßen Systems 1 zur insbesondere fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage 2, insbesondere Maschine, welches wenigstens umfasst:

  • - wenigstens eine Erfassungseinheit 3 mit wenigstens einer akustischen Sensoreinrichtung 3a (in 1 symbolisch als Mikrofon angedeutet), welche in der Nähe bzw. in einem Bereich bzw. in einem Raum 4 der zu überwachenden technischen Anlage 2 angeordnet oder anordenbar ist, wobei die Erfassungseinheit 3 dazu eingerichtet und insbesondere auch entsprechend ausgerichtet ist, automatisiert mittels der Sensoreinrichtung 3a erfasste akustische Signale der technischen Anlage 2 als Audiosignaldaten zu speichern und die gespeicherten Audiosignaldaten und/oder aus wenigstens einem Teil der gespeicherten Audiosignaldaten extrahierte Datenmerkmale assoziiert mit der wenigstens einen technischen Anlage 2 an eine Cloud-basierte Analyseeinheit 5 zu übermitteln,
  • - die Cloud-basierte Analyseeinheit 5, welche mit der wenigstens einen Erfassungseinheit 3 kommunikationsverbunden ist (durch Kommunikationssymbole 6 angedeutet), und welche dazu eingerichtet ist, die von der wenigstens einen Erfassungseinheit 3 empfangenen anlagenassoziierten Audiosignaldaten und/oder aus wenigstens einem Teil der anlagenassoziierten Audiosignaldaten extrahierte Datenmerkmale mittels künstlicher Intelligenz, insbesondere wenigstens eines maschinellen Lernalgorithmus und/oder wenigstens eines neuronalen Netzes zu analysieren und zu verarbeiten,
  • - wobei bei deren Nichtvorhandensein automatisiert eine für die anlagenassoziierte Speicherung und Verarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale geeignete Datenumgebung, insbesondere eine oder mehrere Datenbanken 10 (siehe 2) und/oder Dateien erzeugt werden, wobei eine Vorverarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale durchgeführt wird,
  • - wobei mittels der empfangenen anlagenassoziierten Audiosignaldaten und/oder der Datenmerkmale, der wenigstens eine maschinelle Lernalgorithmus und/oder das wenigstens eine neuronale Netz vorzugsweise unbeaufsichtigt trainiert werden, insbesondere um einen Normalzustand der technischen Anlage 2 aufzuzeichnen bzw. in der wenigstens einen Datenbank abzuspeichern und eine Unterscheidung von abnormen Audiosignaldaten und Datenmerkmalen zu ermöglichen, und
  • - wobei die Analyse von neuen bzw. neu empfangenen anlagenassoziierten Audiosignaldaten und/oder Datenmerkmalen, insbesondere in Abhängigkeit von bereits aufgezeichneten oder gespeicherten Audiosignaldaten und/oder Datenmerkmalen, mehrstufig, vorzugsweise in drei unterschiedlichen Stufen erfolgt.
1 shows a schematic representation to illustrate a system 1 according to the invention for in particular continuous acoustic monitoring of at least one technical system 2, in particular a machine, which at least comprises:
  • - at least one detection unit 3 with at least one acoustic sensor device 3a (in 1 symbolically indicated as a microphone), which is arranged or can be arranged in the vicinity of or in an area or in a room 4 of the technical installation 2 to be monitored, wherein the detection unit 3 is set up and in particular also aligned accordingly to automatically store acoustic signals of the technical installation 2 detected by means of the sensor device 3a as audio signal data and to transmit the stored audio signal data and/or data features extracted from at least a part of the stored audio signal data associated with the at least one technical installation 2 to a cloud-based analysis unit 5,
  • - the cloud-based analysis unit 5, which is communicatively connected to the at least one detection unit 3 (indicated by communication symbols 6), and which is set up to analyze and process the system-associated audio signal data received by the at least one detection unit 3 and/or data features extracted from at least a portion of the system-associated audio signal data by means of artificial intelligence, in particular at least one machine learning algorithm and/or at least one neural network,
  • - in the absence of such a data environment, in particular one or more databases 10 (see 2 ) and/or files are generated, whereby a preprocessing of the received audio signal data and/or the data features is carried out,
  • - wherein the at least one machine learning algorithm and/or the at least one neural network are preferably trained unsupervised by means of the received system-associated audio signal data and/or the data features, in particular in order to record a normal state of the technical system 2 or to store it in the at least one database and to enable a distinction to be made between abnormal audio signal data and data features, and
  • - wherein the analysis of new or newly received system-associated audio signal data and/or data features, in particular depending on already recorded or stored audio signal data and/or data features, is carried out in several stages, preferably in three different stages.

Eine Geräuschkulisse der überwachten Anlage 2 bzw. Maschine ist in 1 mit dem Bezugszeichen 7 versehen. Wie aus 1 ferner ersichtlich, umfasst das System 1 eine Visualisierungsanwendung 8, welche mit der Cloud-basierten Analyseeinheit 5 kommunikationsverbunden ist (in 1 vereinfacht durch Pfeile 9 angedeutet) und anlagenassoziiert einem Benutzer U (siehe 4) mögliche Zustände der technischen Anlage 2, insbesondere visuell in Form von Tabellen, Dashboards oder Spektrogrammen und/oder als anhörbare Audiosignaldaten anzeigt (siehe auch 5 und 6).A background noise from the monitored system 2 or machine is in 1 provided with the reference number 7. As can be seen from 1 As can also be seen, the system 1 comprises a visualization application 8, which is communicatively connected to the cloud-based analysis unit 5 (in 1 simplified by arrows 9) and system-associated to a user U (see 4 ) possible states of the technical installation 2, in particular visually in the form of tables, dashboards or spectrograms and/or as audible audio signal data (see also 5 and 6 ).

Das erfindungsgemäße System 1 kann als Plug and Play-System ausgeführt sein. Dabei kann die Erfassungseinheit 3 z. B. über einen Netzstecker mit dem Stromnetz verbunden werden und in dem Raum, in der sich die zu überwachende technische Anlage 2 bzw. Maschine befindet, platziert und entsprechend ausgerichtet werden. Die Geräuschkulisse 7 der technischen Anlage 2 sollte an dem Ort, an dem die Erfassungseinheit 3 angeordnet wird, hörbar sein, d. h. eine bestimmte Lautstärke aufweisen. Anschließend wird die Erfassungseinheit 3 mit dem Internet verbunden. Dazu kann eine Smartphone App zum Einsatz kommen, welche heruntergeladen wird und die Erfassungseinheit 3 mit dem Internet verbinden kann. Eine derartige App kann sich per Bluetooth mit der Erfassungseinheit 3 verbinden und der Benutzer kann die SSID und das Passwort seines WLANs eingeben. Die Erfassungseinheit 3 kann sich dann anschließend mit dem WLAN und dem Internet verbinden. Alternativ kann die Erfassungseinheit 3 über ein LAN-Kabel verbindbar sein. Schließlich gibt es noch die Möglichkeit, die Erfassungseinheit 3 über einen USB-Anschluss mit dem Internet zu verbinden.The system 1 according to the invention can be designed as a plug and play system. The detection unit 3 can be connected to the power grid, for example, via a power plug and placed in the room in which the technical system 2 or machine to be monitored is located and aligned accordingly. The background noise 7 of the technical system 2 should be audible at the location where the detection unit 3 is located, i.e. have a certain volume. The detection unit 3 is then connected to the Internet. A smartphone app can be used for this, which can be downloaded is loaded and the recording unit 3 can connect to the Internet. Such an app can connect to the recording unit 3 via Bluetooth and the user can enter the SSID and password of their WLAN. The recording unit 3 can then connect to the WLAN and the Internet. Alternatively, the recording unit 3 can be connected via a LAN cable. Finally, there is the option of connecting the recording unit 3 to the Internet via a USB port.

Die Erfassungseinheit 3 kann auch ein LTE-Modul und eine Antenne aufweisen, um dem Benutzer U die Möglichkeit zu geben, das erfindungsgemäße System 1 zu verwenden, auch wenn keine Möglichkeit besteht, es direkt über WLAN oder LAN mit dem Internet zu verbinden. Die Erfassungseinheit 3 kann einen Einplatinencomputer und ein Mikrofonmodul als Sensoreinrichtung 3a aufweisen.The detection unit 3 can also have an LTE module and an antenna to give the user U the possibility of using the system 1 according to the invention even if there is no possibility of connecting it directly to the Internet via WLAN or LAN. The detection unit 3 can have a single-board computer and a microphone module as sensor device 3a.

In 2 wird ein Sicherheitskonzept und ein Datenfluss des erfindungsgemäßen Systems 1 veranschaulicht. Die Erfassungseinheit 3 (welche auch als Sensorbox bezeichnet werden kann) bzw. ein Client und die Cloud-basierte Analyseeinheit 5 bzw. ein zugehöriger Server 5a sowie die weiteren Anwendungen auf dem Server 5a (eine Datenbank 10, ein MQTT-Broker 11 und ein Visualisierungstool 12) können jeweils mit einem eigenen Passwort und einer 256-Bit-Verschlüsselung geschützt sein.In 2 a security concept and a data flow of the system 1 according to the invention are illustrated. The detection unit 3 (which can also be referred to as a sensor box) or a client and the cloud-based analysis unit 5 or an associated server 5a as well as the other applications on the server 5a (a database 10, an MQTT broker 11 and a visualization tool 12) can each be protected with its own password and 256-bit encryption.

Die Cloud-basierte Analyseeinheit 5 bzw. der Server 5a können einen Spracherkennungsalgorithmus bzw. eine künstliche Intelligenz-basierte Spracherkennung 13 aufweisen, welcher die von der wenigstens einen Erfassungseinheit empfangenen Audiosignaldaten auf vorhandene Sprachanteile überprüft, wobei Audiosignaldaten, bei welchen Sprachanteile von dem Spracherkennungsalgorithmus erkannt wurden, nicht gespeichert oder verarbeitet werden. Für die künstliche Intelligenz-basierte Spracherkennung kann ein tiefes neuronales Netz verwendet werden, welches entsprechend trainiert wurde und somit eine hohe Erkennungsquote besitzt. Sobald die Audiodaten von der Erfassungseinheit 3 an den MQTT-Broker 11 übermittelt wurden, werden diese im ersten Schritt mit der künstlichen Intelligenz-basierten Spracherkennung auf menschliche Stimmen überprüft. Hier kann jede einzelne Sekunde der Aufnahme auf vorhandene Stimmen analysiert werden. Wird eine Stimme erkannt, werden die Audiodaten nicht gespeichert. Damit kann sichergestellt werden, dass nicht versehentlich Unterhaltungen von Personen aufgezeichnet werden.The cloud-based analysis unit 5 or the server 5a can have a speech recognition algorithm or an artificial intelligence-based speech recognition 13, which checks the audio signal data received from the at least one recording unit for existing speech components, whereby audio signal data in which speech components were recognized by the speech recognition algorithm are not stored or processed. A deep neural network can be used for the artificial intelligence-based speech recognition, which has been trained accordingly and thus has a high recognition rate. As soon as the audio data has been transmitted from the recording unit 3 to the MQTT broker 11, it is checked for human voices in the first step using the artificial intelligence-based speech recognition. Here, every single second of the recording can be analyzed for existing voices. If a voice is recognized, the audio data is not stored. This ensures that people's conversations are not accidentally recorded.

Die Visualisierungsanwendung 8 erhält Eingangssignale von der künstlichen Intelligenz-basierten Spracherkennung (Daten ohne menschliche Stimmen) und dem Visualisierungstool 12. Die Visualisierungsanwendung 8 hat ebenfalls Zugriff auf die Datenbank 10.The visualization application 8 receives input signals from the artificial intelligence-based speech recognition (data without human voices) and the visualization tool 12. The visualization application 8 also has access to the database 10.

3 zeigt ein weiteres Diagramm zur Veranschaulichung des erfindungsgemäßen Systems 1, wobei der im linken Teil der Zeichnung dargestellte Prozessfluss von dem System 1 automatisch durchgeführt wird und der Benutzer U nur die im rechten Teil der 3 dargestellten Tätigkeiten T1, T2 übernehmen muss. Eine vom Benutzer U durchzuführende Tätigkeit T1 umfasst das Einstecken bzw. die Herstellung der Stromversorgung der Erfassungseinheit 3 des Systems 1 und deren Verbindung mit dem Internet. In einem Schritt S1 werden die Geräusche von der Erfassungseinheit 3 aufgenommen Audiosignaldaten bzw. Rohdaten. Anschließend können von der Erfassungseinheit 3 in einem Schritt S2 Datenmerkmale aus wenigstens einem Teil oder sämtlichen der in Schritt S1 empfangenen und/oder gespeicherten Audiosignaldaten extrahiert werden. Das Extrahieren der Datenmerkmale könnte in einem anderen Ausführungsbeispiel auch von der Cloud-basierten Analyseeinheit 5 durchgeführt werden. Die Datenmerkmale können aus den Audiosignaldaten bzw. Rohdaten in Ausschnitten von jeweils 5 Sekunden Aufzeichnungsdauer extrahiert werden. Die Daten können in Intervallen von jeweils zwei Minuten gesammelt und analysiert werden. 3 shows a further diagram to illustrate the system 1 according to the invention, wherein the process flow shown in the left part of the drawing is carried out automatically by the system 1 and the user U only has to perform the steps shown in the right part of the 3 must undertake the activities T1, T2 shown. An activity T1 to be carried out by the user U includes plugging in or establishing the power supply of the detection unit 3 of the system 1 and connecting it to the Internet. In a step S1, the sounds are recorded by the detection unit 3 audio signal data or raw data. Then, in a step S2, the detection unit 3 can extract data features from at least some or all of the audio signal data received and/or stored in step S1. In another embodiment, the extraction of the data features could also be carried out by the cloud-based analysis unit 5. The data features can be extracted from the audio signal data or raw data in sections of 5 seconds recording time each. The data can be collected and analyzed at intervals of two minutes each.

Nachfolgend können in einem Schritt S3 die Audiosignaldaten und/oder die extrahierten Datenmerkmale von der Erfassungseinheit 3 an die Cloud-basierte Analyseeinheit 5 zusammen mit einer Sensor-ID und einer Anlage- oder Kunden-ID, insbesondere über Message Queing Telemetry Transport (MQTT), übermittelt werden.Subsequently, in a step S3, the audio signal data and/or the extracted data features can be transmitted from the acquisition unit 3 to the cloud-based analysis unit 5 together with a sensor ID and a system or customer ID, in particular via Message Queuing Telemetry Transport (MQTT).

Auf der Cloud-basierten Analyseeinheit 5 wird in einem Schritt S4 geprüft, ob die notwendigen Datenbanken und Dashboards vorhanden sind, wobei bei deren Nichtvorhandensein automatisiert eine für die anlagenassoziierte Speicherung und Verarbeitung der empfangenen Audiosignaldaten und der Datenmerkmale geeignete Datenumgebung, insbesondere eine oder mehrere Datenbanken 10 und/oder Dateien bzw. Dashboards, erzeugt wird, wobei eine Vorverarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale durchgeführt werden kann.In a step S4, the cloud-based analysis unit 5 checks whether the necessary databases and dashboards are available, and if they are not available, a data environment suitable for the system-associated storage and processing of the received audio signal data and the data features, in particular one or more databases 10 and/or files or dashboards, is automatically generated, wherein a preprocessing of the received audio signal data and/or the data features can be carried out.

In einem Schritt S5 werden anschließend die Geräusche klassifiziert. Werden Sprachanteile in den Rohdaten bzw. Audiosignaldaten festgestellt, so werden diese nicht in der Datenbank 10 zum Anhören abgespeichert.In a step S5, the noises are then classified. If speech components are detected in the raw data or audio signal data, these are not stored in the database 10 for listening.

In einem Schritt S6 werden die extrahierten Datenmerkmale in der Datenbank 10 für das spätere Training der maschinellen Lernalgorithmen gespeichert.In a step S6, the extracted data features are stored in the database 10 for later Training of the machine learning algorithms.

Nach einer Dauer von beispielsweise sieben Tagen können in einem Schritt S7 automatisch alle gesammelten Merkmale aus der Datenbank 10 ausgelesen und der wenigstens eine maschinelle Lernalgorithmus mit diesen Daten trainiert werden.After a period of, for example, seven days, all collected features can be automatically read out from the database 10 in a step S7 and the at least one machine learning algorithm can be trained with these data.

In einem Schritt S8 werden alle notwendigen Daten gespeichert und der wenigstens eine maschinelle Lernalgorithmus für die mehrstufige, insbesondere dreistufige, Soundanalyse trainiert, sofern genügend Daten vorhanden sind.In a step S8, all necessary data are stored and the at least one machine learning algorithm for the multi-stage, in particular three-stage, sound analysis is trained, provided that sufficient data is available.

Schließlich können in einem Schritt S9 eine Vorhersage basierend auf allen verfügbaren Daten, eine Visualisierung und ein Bereitstellen von anhörbaren Audiodaten und Spektrogrammen insbesondere auf der Visualisierungsanwendung 8 erfolgen (in 3 vereinfacht dargestellt).Finally, in a step S9, a prediction based on all available data, a visualization and a provision of audible audio data and spectrograms can be carried out, in particular on the visualization application 8 (in 3 simplified representation).

Wie aus 3 ersichtlich, kann der Benutzer U über die Visualisierungsanwendung 8 ein Feedback geben, welches in dem Schritt S8 berücksichtigt werden kann. Damit können bei dem Training des wenigstens einen maschinellen Lernalgorithmus und/oder des wenigstens einen neuronalen Netzes zusätzlich Benutzereingaben einbezogen werden, wobei vorzugsweise dem Benutzer U zur Unterstützung der Entscheidungsfindung die zu klassifizierenden Audiosignaldaten anhörbar, visuell in Form eines Spektrogramms und/oder unter Angabe eines vorläufigen, von dem wenigstens einen maschinellen Lernalgorithmus oder von dem wenigstens einen neuronalen Netz automatisiert ermittelten Analyseergebnisses angezeigt werden.As from 3 As can be seen, the user U can provide feedback via the visualization application 8, which can be taken into account in step S8. In this way, additional user inputs can be included in the training of the at least one machine learning algorithm and/or the at least one neural network, wherein the audio signal data to be classified are preferably displayed to the user U in an audible manner, visually in the form of a spectrogram and/or with an indication of a preliminary analysis result determined automatically by the at least one machine learning algorithm or by the at least one neural network to support the decision-making process.

Erfindungsgemäß wird ein Verfahren zur insbesondere fortlaufenden akustischen Überwachung der wenigstens einen technischen Anlage 2, insbesondere Maschine, auf dem System 1 vorgeschlagen,

  • - wobei von der wenigstens einen Erfassungseinheit 3 mittels der wenigstens einen akustischen Sensoreinrichtung 3a erfasste akustische Signale der technischen Anlage 2 als Audiosignaldaten gespeichert und die gespeicherten Audiosignaldaten und/oder aus wenigstens einem Teil der gespeicherten Audiosignaldaten extrahierten Datenmerkmale assoziiert mit der wenigstens einen technischen Anlage 2 an die Cloud-basierte Analyseeinheit 5 übermittelt werden,
  • - wobei die von der wenigstens einen Erfassungseinheit 3 empfangenen anlagenassoziierten Audiosignaldaten und/oder aus wenigstens einem Teil der, insbesondere empfangenen anlagenassoziierten Audiosignaldaten extrahierte Datenmerkmale von der Cloud-basierten Analyseeinheit 5 mittels künstlicher Intelligenz, insbesondere wenigstens eines maschinellen Lernalgorithmus und/oder wenigsten eines neuronalen Netzes analysiert und verarbeitet werden,
  • - wobei bei deren Nichtvorhandensein automatisiert eine für die anlagenassoziierte Speicherung und Verarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale geeignete Datenumgebung, insbesondere eine oder mehrere Datenbanken 10 und/oder Dateien erzeugt werden, wobei eine Vorverarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale durchgeführt wird,
  • - wobei mittels der empfangenen anlagenassoziierten Audiosignaldaten und/oder der Datenmerkmale, der wenigstens eine maschinelle Lernalgorithmus oder das wenigstens eine neuronale Netz, vorzugsweise unbeaufsichtigt trainiert wird, insbesondere um einen Normalzustand der technischen Anlage 2 aufzuzeichnen und eine Unterscheidung von abnormen Audiosignaldaten und Datenmerkmalen zu ermöglichen, und
  • - wobei die Analyse von neuen anlagenassoziierten Audiosignaldaten und/oder Datenmerkmalen, insbesondere in Abhängigkeit von bereits aufgezeichneten anlagenassoziierten Audiosignaldaten und/oder Datenmerkmalen, mehrstufig, vorzugsweise in drei unterschiedlichen Stufen, erfolgt.
According to the invention, a method for in particular continuous acoustic monitoring of the at least one technical installation 2, in particular machine, on the system 1 is proposed,
  • - wherein acoustic signals of the technical installation 2 detected by the at least one detection unit 3 by means of the at least one acoustic sensor device 3a are stored as audio signal data and the stored audio signal data and/or data features extracted from at least a portion of the stored audio signal data are transmitted to the cloud-based analysis unit 5 associated with the at least one technical installation 2,
  • - wherein the system-associated audio signal data received by the at least one detection unit 3 and/or data features extracted from at least a portion of the, in particular received, system-associated audio signal data are analyzed and processed by the cloud-based analysis unit 5 by means of artificial intelligence, in particular at least one machine learning algorithm and/or at least one neural network,
  • - if they are not present, a data environment suitable for the system-associated storage and processing of the received audio signal data and/or the data features, in particular one or more databases 10 and/or files, is automatically generated, wherein a preprocessing of the received audio signal data and/or the data features is carried out,
  • - wherein the at least one machine learning algorithm or the at least one neural network is trained, preferably unsupervised, by means of the received system-associated audio signal data and/or the data features, in particular in order to record a normal state of the technical system 2 and to enable a distinction to be made between abnormal audio signal data and data features, and
  • - wherein the analysis of new system-associated audio signal data and/or data features, in particular depending on already recorded system-associated audio signal data and/or data features, is carried out in several stages, preferably in three different stages.

Damit die Erfassungseinheit 3 automatisch ein Programm ausführen kann, können entsprechende Scripts installiert werden, welche insbesondere die Aufnahme mit dem Mikrofon und die Verarbeitung sowie das Senden der Daten zu der Cloud-basierten Analyseeinheit 5 umfassen. In order for the recording unit 3 to be able to automatically execute a program, corresponding scripts can be installed, which in particular include recording with the microphone and processing as well as sending the data to the cloud-based analysis unit 5.

Die Erfassungseinheit 3 kann per MQTT unter anderem die Audiosignaldaten, die extrahierten Datenmerkmale sowie eine Sensor-ID und eine Kunden-ID versenden. Dadurch weiß die Analyseplattform zu welchem Kunden der Sensor gehört und somit in welcher Datenbank 10 die Daten abgespeichert werden müssen. Anhand der Sensor-ID und der Kunden-ID kann ein Algorithmus auf der Analyseplattform erkennen, ob dieser Sensor bereits vorhanden ist und zu welcher Datenbank 10 er gehört.The recording unit 3 can use MQTT to send, among other things, the audio signal data, the extracted data features, as well as a sensor ID and a customer ID. This tells the analysis platform which customer the sensor belongs to and therefore in which database 10 the data must be stored. Using the sensor ID and the customer ID, an algorithm on the analysis platform can determine whether this sensor already exists and which database 10 it belongs to.

Die Erstellung der notwendigen Datenbanken 10, das Sammeln und Abspeichern der Daten, das Trainieren und Testen der maschinellen Lernalgorithmen, die Verwendung des neuesten und durch das Feedback des Benutzers U angepassten maschinellen Lernalgorithmus kann automatisiert von der Cloud-basierten künstlichen Intelligenz-Analyseplattform bzw. - Analyseeinheit 5 erledigt werden. Der Benutzer U muss keine weiteren Schritte unternehmen und kann per E-Mail benachrichtigt werden, sobald eine Anomalie erkannt wurde.The creation of the necessary databases 10, the collection and storage of the data, the training and testing of the machine learning algorithms, the use of the latest machine learning algorithm adapted by the feedback of the user U can be automated by the cloud-based artificial intelligence analysis. analysis platform or analysis unit 5. User U does not need to take any further steps and can be notified by email as soon as an anomaly is detected.

Das System 1 kann den MQTT-Broker 11 fortlaufend abhören. Sobald eine Nachricht im Broker angekommen ist, wird diese mit einem MQTT-Client gelesen, decodiert und überprüft, ob für den Sensor bereits Datenbanken 10 hinterlegt sind. Hierzu wird mit einem entsprechenden Datenbank-Client und den IDs überprüft, ob eine Tabelle in der Datenbank 10 existiert. Sollte dies nicht der Fall sein, werden die notwendigen Datenbanken 10 und Tabellen erstellt. Sofern eine Datenbank 10 existiert und die Konfigurationen für den maschinellen Lernalgorithmus abgespeichert sind, werden diese aus der Datenbank 10 geladen, Vorhersagen gemacht und die Daten zusammen mit den Vorhersagen gespeichert.The system 1 can continuously listen to the MQTT broker 11. As soon as a message has arrived in the broker, it is read with an MQTT client, decoded and checked to see whether databases 10 have already been stored for the sensor. To do this, a corresponding database client and the IDs are used to check whether a table exists in the database 10. If this is not the case, the necessary databases 10 and tables are created. If a database 10 exists and the configurations for the machine learning algorithm are saved, these are loaded from the database 10, predictions are made and the data is saved together with the predictions.

Eine Funktion zum Aufnehmen des Normalzustands der technischen Anlage 2 wird automatisch nach dem Anlegen der Datenbanken 10 aufgerufen. Anschließend wird ein Hintergrundprozess gestartet, welcher das Aufnehmen des Normalzustands nach beispielsweise sieben Tagen startet. Wird diese Funktion aufgerufen, können alle Daten für das Training der maschinellen Lernalgorithmen zur Anomalieerkennung aus der Datenbank 10 abgerufen werden. Die Abfrage filtert die Daten nach der Sensor-ID und sortiert diese nach der Zeit. Anschließend erfolgt das Training und die Konfigurationen werden mit einer weiteren Funktion in der Datenbank 10 gespeichert.A function for recording the normal state of the technical system 2 is called automatically after the databases 10 have been created. A background process is then started, which starts recording the normal state after, for example, seven days. If this function is called, all data for training the machine learning algorithms for anomaly detection can be retrieved from the database 10. The query filters the data according to the sensor ID and sorts it according to time. Training then takes place and the configurations are saved in the database 10 using another function.

Die Visualisierungsanwendung 8 bzw. die Benutzerschnittstelle kann auf der Cloud-basierten Analyseeinheit 5 für jede Erfassungseinheit 3 bzw. jeden Sensor auf Basis von Vorlagen automatisch generierbar sein.The visualization application 8 or the user interface can be automatically generated on the cloud-based analysis unit 5 for each acquisition unit 3 or each sensor based on templates.

Darüber hinaus kann der Benutzer U mit der Überwachung der technischen Anlage 2 bzw. Maschine ohne jegliches Wissen über maschinelles Lernen sofort starten, da er am System 1 nichts konfigurieren muss und durch die eingesetzte maschinelle Lerntechnologie eine aufwändige und zeitintensive Bewertung/Klassifizierung der Sounddaten für aussagekräftige Vorhersagen bei der Anomalienerkennung entfällt. Außerdem kann durch die übersichtliche Benutzerschnittstelle bzw. Visualisierungsanwendung (siehe auch 5 und 6) eine einfache Bewertung der aufgenommenen Geräusche sowie das Feedback für die künstliche Intelligenz erfolgen. Gleichzeitig wird auch durch die Spracherkennung der Datenschutz gewährleistet, da diese Sounddateien mit Sprachinhalten nicht abgespeichert werden.In addition, user U can immediately start monitoring the technical system 2 or machine without any knowledge of machine learning, since he does not have to configure anything on system 1 and the machine learning technology used eliminates the need for complex and time-consuming evaluation/classification of the sound data for meaningful predictions in anomaly detection. In addition, the clear user interface or visualization application (see also 5 and 6 ) a simple evaluation of the recorded sounds and feedback for the artificial intelligence can be carried out. At the same time, data protection is guaranteed by the speech recognition, as these sound files with speech content are not saved.

Die Analyse der neuen bzw. neu empfangenen anlagenassoziierten Audiosignaldaten und/oder Datenmerkmale kann in drei Stufen erfolgen:

  • - in einer ersten Stufe können Anomalien erkannt werden, insbesondere wenn eine Abweichung von dem aufgezeichneten Normalzustand der wenigstens einen technischen Anlage 2 vorliegt,
  • - in einer zweiten Stufe kann ein Fehler der wenigstens einen technischen Anlage 2 klassifizierbar sein, insbesondere ein Klappern oder eine Kavitation, und/oder
  • - in einer dritten Stufe kann ein Ausfall der wenigstens einen technischen Anlage 2 vorhersagbar sein.
The analysis of the new or newly received system-associated audio signal data and/or data features can be carried out in three stages:
  • - in a first stage, anomalies can be detected, in particular if there is a deviation from the recorded normal state of the at least one technical installation 2,
  • - in a second stage, a fault of the at least one technical installation 2 can be classified, in particular a rattling or a cavitation, and/or
  • - in a third stage, a failure of at least one technical installation 2 can be predictable.

4 zeigt die dreistufige Analyse der Sounddaten. Der Benutzer U kann sein domainspezifisches Wissen durch aktives Feedback in der Visualisierungsanwendung 8 einbringen und die Vorhersagen des maschinellen Lernalgorithmus für die Anomalienerkennung verbessern. Darüber hinaus kann die Audioklassifikation durch das Feedback und Transfer Learning angepasst werden. Dadurch erhält der Benutzer U basierend auf den domainspezifischen Geräuschen Vorschläge, wie sich das Geräusch anhört (z. B. Kaviation, Lagerschaden usw.) und kann sich dementsprechende automatisierte Meldungen per E-Mail übersenden lassen, sobald das Geräusch erneut auftritt. 4 shows the three-stage analysis of the sound data. The user U can contribute his domain-specific knowledge through active feedback in the visualization application 8 and improve the predictions of the machine learning algorithm for anomaly detection. In addition, the audio classification can be adapted through feedback and transfer learning. This gives the user U suggestions based on the domain-specific sounds as to what the noise sounds like (e.g. cavitation, bearing damage, etc.) and can have corresponding automated messages sent to him by email as soon as the noise occurs again.

In einem Schritt S10 erhält die Cloud-basierte Analyseeinheit 5 von der Erfassungseinheit 3 die Audiosignaldaten als Eingabe 14 und/oder die extrahierten Datenmerkmale als Eingabe 15. Die von dem Mikrofon aufgenommenen Rohdaten (bzw. Audiosignaldaten) werden dazu verwendet, um daraus Spektrogramme für die Audioklassifikation zu erstellen. Die extrahierten Datenmerkmale werden insbesondere für die einfachere Anomalieerkennung und Vorhersage in der Stufe 3 verwendet. In der Stufe 1 erfolgt in einem Schritt S11 die Audioklassifikation mit einem tiefen neuronalen Netz (insbesondere zur Spracherkennung) mit den Audiosignaldaten. In einem Schritt S12 erfolgt ein unbeaufsichtigtes Lernen und in einem Schritt S13 eine Anomalieerkennung, welche auch ein aktives Lernen in einem Schritt S14 anhand eines Feedbacks des Benutzers U berücksichtigt, welche als validierte Zustände 16 (Anomalie, normal, Fehler) in einer Datenbank/Tabelle gespeichert sind. In der ersten Stufe erhält der Benutzer U eine Meldung und eine Visualisierung in einem Schritt S15 auf der Visualisierungsanwendung 8. Zusätzlich werden Fehlerklassen 17 in einer Datenbank/Tabelle gespeichert.In a step S10, the cloud-based analysis unit 5 receives the audio signal data as input 14 and/or the extracted data features as input 15 from the acquisition unit 3. The raw data (or audio signal data) recorded by the microphone are used to create spectrograms for audio classification. The extracted data features are used in particular for easier anomaly detection and prediction in stage 3. In stage 1, in a step S11, audio classification is carried out using a deep neural network (in particular for speech recognition) with the audio signal data. In a step S12, unsupervised learning takes place and in a step S13, anomaly detection takes place, which also takes into account active learning in a step S14 based on feedback from the user U, which are stored as validated states 16 (anomaly, normal, error) in a database/table. In the first stage, the user U receives a message and a visualization in a step S15 on the visualization application 8. In addition, error classes 17 are stored in a database/table.

In der Stufe 2 kann anhand der Fehlerklassen 17 ein Transfer Learning für eine Audioklassifikation in einem Schritt S16 durchgeführt werden, welche wiederum in die Visualisierung S15 einfließen. Historische Daten, welche über einen längeren Zeitraum erfasst wurden, werden als validierte Zustände in einem beaufsichtigten Lernen (Supervised Learning) in einem Schritt S17 in der Stufe 3 verwendet. Somit kann in einem Schritt S18 eine Vorhersage, beispielsweise der Art „in x Tagen wird der Fehler y mit einer Wahrscheinlichkeit von z % eintreten“, erfolgen und in einem Schritt S19 eine Meldung ausgegeben werden.In stage 2, transfer learning for an audio classification can be carried out based on error classes 17. cation can be carried out in a step S16, which in turn is incorporated into the visualization S15. Historical data that has been recorded over a longer period of time is used as validated states in a supervised learning in a step S17 in level 3. Thus, in a step S18, a prediction can be made, for example of the type "in x days, error y will occur with a probability of z%", and a message can be issued in a step S19.

Für die Anomalieerkennung in dem Schritt S13 in der ersten Stufe werden maschinelle Lernalgorithmen, wie „Random Forest“ oder „Isolation Forest“, verwendet. Durch diese Maßnahmen kann das System sehr gut skaliert werden, da vergleichsweise wenig Rechenleistung und Speicherbedarf benötigt wird. Damit der maschinelle Lernalgorithmus einfache Muster in den Audiodaten erkennt, werden die Daten in Time- und Frequency-Domainfeatures transformiert und dem maschinellen Lernalgorithmus als Eingabe übergeben.Machine learning algorithms such as "Random Forest" or "Isolation Forest" are used for anomaly detection in step S13 in the first stage. These measures allow the system to be scaled very well, as comparatively little computing power and memory is required. In order for the machine learning algorithm to recognize simple patterns in the audio data, the data is transformed into time and frequency domain features and passed to the machine learning algorithm as input.

Die Erfassungseinheit 3 kann aus wenigstens einem Teil der empfangenen Audiosignaldaten Datenmerkmale, wie Durchschnittswerte, Maximal- und Minimal-Werte, Lautstärken- und/oder Frequenzbereiche extrahieren. Zusätzlich kann mittels geeigneter Bibliotheken eine Mel-Spektralanalyse durchgeführt werden. Die Abtastrate kann 16.000 Hz und die Anzahl der Mel-Frequenzbänder 128 betragen. In einer Schleife wird durch jedes Mel-Frequenzband iteriert und das Maximum jedes Frequenzbands ermittelt.The detection unit 3 can extract data features such as average values, maximum and minimum values, volume and/or frequency ranges from at least part of the received audio signal data. In addition, a Mel spectral analysis can be carried out using suitable libraries. The sampling rate can be 16,000 Hz and the number of Mel frequency bands 128. Each Mel frequency band is iterated through in a loop and the maximum of each frequency band is determined.

Die Größe der aufgezeichneten Audiosignaldaten (Rohdaten) kann beispielsweise bei einer Abtastrate von 16.000 Hz bei einer Aufnahme von 5 Sekunden von 80.000 Datenpunkten auf maximal 200 Datenpunkte mittels der Extraktion der Datenmerkmale (Feature Extraction) reduziert werden. Dadurch können diese Daten schneller und ressourcenschonender in der Datenbank 10 der Cloud-basierten Analyseeinheit 5 abgespeichert werden. Durch die Verwendung von Data Frames, in welchen die extrahierten Datenmerkmale gespeichert werden (beispielsweise zeilenweise), können schnellere Vorhersagen erstellt werden. Dies ist insbesondere bei einer Überwachung einer Maschine und/oder einer technischen Anlage 2 mit 24/7 aufgrund der großen Datenmengen vonnöten.The size of the recorded audio signal data (raw data) can, for example, be reduced from 80,000 data points to a maximum of 200 data points using feature extraction at a sampling rate of 16,000 Hz for a recording of 5 seconds. This allows this data to be stored more quickly and in a more resource-efficient manner in the database 10 of the cloud-based analysis unit 5. By using data frames in which the extracted data features are stored (for example, line by line), faster predictions can be made. This is particularly necessary when monitoring a machine and/or a technical system 2 24/7 due to the large amounts of data.

Auf der Analyseplattform kann eine Zeitreihendatenbank als Datenbank 10 verwendet werden, um die extrahierten Datenmerkmale der Audiosignale zu speichern.On the analysis platform, a time series database can be used as database 10 to store the extracted data features of the audio signals.

Das Speichern der extrahierten Datenmerkmale in der Datenbank 10 ermöglicht es, sie anschließend für Analysen oder Vorhersagemodelle zu verwenden, um Muster oder Trends im Signalverlauf zu erkennen.Storing the extracted data features in the database 10 allows them to be subsequently used for analyses or predictive models to identify patterns or trends in the signal waveform.

Die Cloud-basierte Analyseeinheit 5 kann einen „Isolation Forest“-Lernalgorithmus für die Anomalieerkennung auf dem Datensatz aus der Datenbank 10 trainieren, führt Vorhersagen aus, um Anomalien in diesem Datensatz zu erkennen und schreibt Ergebnisse in die Zeitreihendatenbank. Der Datensatz kann dabei zufällig gemischt werden, um sicherzustellen, dass das Modell nicht von der Reihenfolge der Daten beeinflusst wird. Der Datensatz wird zunächst mit einer Skaliermethode skaliert, um sicherzustellen, dass alle Merkmale auf denselben Wertebereich skaliert werden. Der Datensatz kann in Trainings- und Testdatensätze aufgeteilt werden. Ein Active-Learning-Algorithmus wird auf den Trainingsdaten trainiert.The cloud-based analysis unit 5 can train an isolation forest learning algorithm for anomaly detection on the dataset from the database 10, performs predictions to detect anomalies in this dataset, and writes results to the time series database. The dataset can be randomly shuffled to ensure that the model is not influenced by the order of the data. The dataset is first scaled using a scaling method to ensure that all features are scaled to the same range of values. The dataset can be split into training and test datasets. An active learning algorithm is trained on the training data.

Ferner wird ein „Random Forest“-Klassifikator und die Strategie der „unsicheren Stichproben“ (Uncertainty Sampling) verwendet. Das System kann dadurch dem Benutzer U gezielte Vorschläge zum Klassifizieren der Daten auf der Benutzerschnittstelle der Visualisierungsanwendung 8 machen. Der Benutzer U kann daraufhin die ermittelten Zustände (normal, anormal) auf der Benutzerschnittstelle auf Plausibilität prüfen. Der maschinelle Lernalgorithmus wird auf die Eingaben/das Feedback des Benutzers U eingelernt und verbessert dadurch seine Vorhersagen.Furthermore, a "random forest" classifier and the "uncertainty sampling" strategy are used. The system can thus make targeted suggestions to the user U for classifying the data on the user interface of the visualization application 8. The user U can then check the determined states (normal, abnormal) on the user interface for plausibility. The machine learning algorithm is trained on the inputs/feedback of the user U and thus improves its predictions.

Die Analyse der Sounddaten ermöglicht es, nicht nur akute Ausfälle, sondern auch schleichende Verschlechterungen von Maschinen und Anlagen zu erkennen und rechtzeitig Maßnahmen ergreifen zu können. Die Methode automatisiert den Prozess der Datenaufbereitung und -analyse, indem sie maschinelles Lernen und automatisierte Workflows nutzt. Dadurch wird die manuelle Arbeit minimiert und es wird eine schnelle und effiziente Analyse von Daten ermöglicht. Ein „Random Under-sampling“-Verfahren kann dafür sorgen, dass das Modell nicht von der Dominanz einer Klasse „normal“ oder „Anomalie“ beeinflusst wird, was die Genauigkeit des Modells erhöht. Durch die Verwendung von aktivem Lernen kann das Modell kontinuierlich verbessert werden, indem es vom Benutzer U mit neuen Daten versorgt wird. Dadurch kann das Modell besser auf Veränderungen im Datensatz reagieren und Anomalien in neuen Daten besser erkennen. Die Methode kann das „Isolation Forest“-Verfahren benutzen, welches besonders effektiv bei der Erkennung von Anomalien in großen Datenmengen ist. Es kann schnell und genau Anomalien in einem Datensatz identifizieren. Dieser maschinelle Lernalgorithmus benötigt nur wenige Hyperparameter, was ihn zu einer effizienten Methode für die Anomalieerkennung macht. Die Methode ist skalierbar und kann auf große Datenmengen angewendet werden. Sie kann auch auf verschiedene Arten von Daten angewendet werden, wie beispielsweise Audiodaten. Die Methode berücksichtigt ferner die zeitliche Abhängigkeit von Daten, indem es die Daten in einem bestimmten Zeitfenster sammelt und analysiert. Dadurch kann sie zeitabhängige Anomalien erkennen, die in anderen Methoden möglicherweise unentdeckt bleiben würden.The analysis of sound data makes it possible to detect not only acute failures, but also gradual deterioration of machines and systems and to take timely measures. The method automates the process of data preparation and analysis by using machine learning and automated workflows. This minimizes manual work and enables fast and efficient analysis of data. A "random under-sampling" method can ensure that the model is not influenced by the dominance of a class "normal" or "anomaly", which increases the accuracy of the model. By using active learning, the model can be continuously improved by being supplied with new data by user U. This allows the model to respond better to changes in the data set and better detect anomalies in new data. The method can use the "isolation forest" method, which is particularly effective in detecting anomalies in large amounts of data. It can quickly and accurately identify anomalies in a data set. This machine learning algorithm requires few hyperparameters, making it an efficient method for anomaly detection. The method is scalable and can be applied to large data sets sets. It can also be applied to different types of data, such as audio data. The method also takes into account the temporal dependence of data by collecting and analyzing the data in a specific time window. This enables it to detect time-dependent anomalies that might go undetected in other methods.

Für die auf künstlicher Intelligenz basierende Spracherkennung/Audioklassifikation kann in der zweiten Stufe ein tiefes neuronales Netz verwendet werden. Dieses kann standardmäßig einen Bereich von 0,96 sec analysieren und springt um jeweils 0,48 sec weiter, um dadurch die komplette Audiodatei zu untersuchen. Für jedes Zeitfenster kann eine Vorhersage gemacht werden.For the speech recognition/audio classification based on artificial intelligence, a deep neural network can be used in the second stage. This can analyze a range of 0.96 seconds by default and jumps forward by 0.48 seconds at a time in order to examine the entire audio file. A prediction can be made for each time window.

Zunächst wird in der Analyseplattform überprüft, ob ein für den Anwendungsfall angepasstes Modell gespeichert ist. Ist dies nicht der Fall, wird standardmäßig das tiefe neuronale Netz verwendet. Die 5-Sekunden-Audiodatenabschnitte werden normalisiert und als Eingabe in das Modell eingegeben. Für das erfindungsgemäße System 1 wird immer die Topvorhersage für den jeweiligen analysierten Bereich verwendet und in einer Liste zwischengespeichert. Die Geräuschklasse, die am häufigsten in dieser Liste auftaucht, wird verwendet, um das Geräusch zu klassifizieren.First, the analysis platform checks whether a model adapted to the use case is stored. If this is not the case, the deep neural network is used by default. The 5-second audio data sections are normalized and entered as input into the model. For the inventive system 1, the top prediction for the respective analyzed area is always used and cached in a list. The noise class that appears most frequently in this list is used to classify the noise.

Sollte der Algorithmus einen Bereich mit der Klasse „Stille“ vorhersagen, wird diese Klasse nicht in der Liste gespeichert. Dadurch kann sichergestellt werden, dass kurzzeitige instationäre Geräusche innerhalb des Abschnitts von fünf Sekunden berücksichtigt werden.If the algorithm predicts an area with the class "silence", this class is not stored in the list. This ensures that short-term unsteady noises within the five-second period are taken into account.

Ebenso wird in der Liste überprüft, ob eine der Klassen für menschliche Geräusche enthalten sind. Wenn dies der Fall ist, wird dieser fünf Sekunden-Soundteil nicht zum späteren Anhören und Bewerten in der Datenbank gespeichert.The list is also checked to see if it contains any of the human sound classes. If it does, this five-second sound portion is not saved in the database for later listening and evaluation.

Anomale Geräusche sind schwierig zu sammeln, da diese im Idealfall nicht auftauchen. Deshalb kann die Methode des Transfer Learning bei dem erfindungsgemäßen System 1 verwendet werden.Abnormal noises are difficult to collect because they ideally do not appear. Therefore, the transfer learning method can be used in the system 1 according to the invention.

Bereits das vortrainierte Netz bietet den Vorteil, dass die Geräusche gut klassifiziert werden können und der Benutzer somit verlässliche Vorhersagen zur Unterstützung der Bewertung der Sounddaten bekommt. Das vortrainierte neuronale Netz des erfindungsgemäßen Systems 1 kann auch Geräusche detektieren, die auf Gefahren, Einbruchs- oder Sabotageversuche hindeuten können, wie z. B. Explosion, Feuer, Glasbruch, usw. Deshalb kann das erfindungsgemäße System 1 auch zusätzlich zur Sicherheitsüberwachung eingesetzt werden.The pre-trained network already offers the advantage that the sounds can be classified well and the user thus receives reliable predictions to support the evaluation of the sound data. The pre-trained neural network of the system 1 according to the invention can also detect sounds that can indicate dangers, burglary or sabotage attempts, such as explosions, fire, broken glass, etc. The system 1 according to the invention can therefore also be used for security monitoring.

Transfer Learning ermöglicht es, ein Modell zu trainieren, selbst wenn nur begrenzte Daten zur Verfügung stehen. Das vortrainierte Modell kann als Ausgangspunkt verwendet werden, um die Leistung auf einen neuen Datensatz zu verbessern, der nur eine begrenzte Anzahl von Beispielen enthält. Der Datenaufwand ist somit geringer.Transfer learning makes it possible to train a model even when only limited data is available. The pre-trained model can be used as a starting point to improve performance on a new dataset that contains only a limited number of examples, thus reducing the data overhead.

Die Verwendung eines vortrainierten Modells spart Zeit und Ressourcen, da das Modell bereits auf großen Datensätzen trainiert wurde und seine Funktionen bereits ausgereift sind. Dies reduziert den Zeitaufwand für das Training eines Modells von Grund auf erheblich.Using a pre-trained model saves time and resources because the model has already been trained on large datasets and its features are already mature. This significantly reduces the time required to train a model from scratch.

Transfer Learning kann die Leistung eines Modells verbessern, insbesondere wenn es auf ähnliche Aufgaben oder Datensätzen trainiert wurde. Das vortrainierte Modell kann dem neuen Modell helfen, schnellere und bessere Ergebnisse zu erzielen.Transfer learning can improve the performance of a model, especially if it was trained on similar tasks or datasets. The pre-trained model can help the new model produce faster and better results.

Transfer Learning kann auch dazu beitragen, Überanpassung zu reduzieren, da es das Modell dazu zwingt, allgemeinere Merkmale zu lernen, die für mehrere Aufgaben relevant sind, anstatt sich auf die Merkmale zu konzentrieren, die speziell für eine einzelne Aufgabe relevant sind.Transfer learning can also help reduce overfitting because it forces the model to learn more general features that are relevant to multiple tasks, rather than focusing on the features that are specifically relevant to a single task.

Die trainierten Gewichte des Modells werden in einer TFLITE-Datei gespeichert, die eine kompaktere Darstellung des Modells verkörpert. Dadurch kann das Modell leicht auf verschiedenen Geräten und Plattformen verwendet werden, was die Skalierbarkeit erhöht.The trained weights of the model are stored in a TFLITE file, which embodies a more compact representation of the model. This allows the model to be easily used on different devices and platforms, increasing scalability.

Durch das Speichern des Modells und des „Trigger“-Werts in der Datenbank 10 wird das System 1 in die Lage versetzt, schnell auf neue Fehlerklassen zu reagieren und ein neues Klassifikationsmodell zu verwenden, um zukünftige Vorhersagen zu verbessern.By storing the model and the “trigger” value in the database 10, the system 1 is able to respond quickly to new classes of errors and use a new classification model to improve future predictions.

Das Transfer Learning ermöglicht zudem eine schnelle Anpassung auf domainspezifische Geräusche.Transfer learning also enables rapid adaptation to domain-specific noises.

In der dritten Stufe werden die bereits gesammelten Daten, insbesondere aus der Zeitreihendatenbank dazu verwendet, um Muster in den Daten zu erkennen, welche zu einer bestimmten Fehlerklasse geführt haben. Der Benutzer bekommt rechtzeitig (im besten Fall einige Tage zuvor) eine Meldung, dass zum Beispiel der Fehler „Kavitation“ zu 80 % Wahrscheinlichkeit in vier Tagen mit der Wahrscheinlichkeit von 89 % auftritt. Im Bereich Remaining Useful Life (RUL) können unterschiedliche maschinelle Lernmethoden zur Vorhersage von Zeitreihendaten eingesetzt werden. Die gängigsten Methoden sind autoregressive Modelle, wie Recurrent Neural Networks (RNN) und Long Short-Term Memory (LSTM).In the third stage, the data already collected, especially from the time series database, is used to identify patterns in the data that have led to a certain class of error. The user receives a message in good time (in the best case a few days in advance) that, for example, the error "cavitation" will occur with 80% probability in four days with a probability of 89%. In the area of Remaining Useful Life (RUL), different machine learning methods can be used to predict time series data. The most common methods are autoregressive models, such as Recur rent Neural Networks (RNN) and Long Short-Term Memory (LSTM).

Obwohl die zuvor genannten Modelle zur Vorhersage von Zeitreihen sehr effektiv sein können, gibt es auch einige Probleme, die bei der Verwendung dieser Methoden auftreten können. Aufgrund dieser Problematiken wird der Ansatz verfolgt, die Aufgabe als eine einfache Klassifikationsaufgabe zu lösen. Es können bessere Ergebnisse erzielt werden, indem die Vorhersage als Klassifikationsaufgabe und nicht als Regressionsaufgabe (Vorhersage eines genauen Wertes, wie bei den zuvor genannten Methoden) gemacht wird. Ebenso kann auf rechenintensive und komplex zu erstellende Deep-Learning Algorithmen verzichtet werden.Although the models mentioned above can be very effective for predicting time series, there are also some problems that can arise when using these methods. Due to these problems, the approach is to solve the task as a simple classification task. Better results can be achieved by making the prediction as a classification task rather than a regression task (predicting an exact value, as in the methods mentioned above). Likewise, computationally intensive and complex to create deep learning algorithms can be dispensed with.

Dabei wird wie folgt vorgegangen:

  1. 1. Im ersten Schritt wird die Zeit bevor die Fehlerklasse „Broken“ aufgetaucht ist berechnet.
  2. 2. Der Datensatz kann mit drei unterschiedlichen Labels gekennzeichnet werden: a) Label 0 => vier Tage bis „Broken“, b) Label 1 = zwischen zwei und vier Tagen bis „Broken“ und c) Label 2 = kleiner zwei Tage bis „Broken“.
  3. 3. Der Datensatz wird durchgemischt und in Trainings- und Testdaten aufgeteilt.
  4. 4. Ein maschinelles Lernen-Klassifikator wie zum Beispiel ein „Random Forest“ wird auf den Trainingsdatensatz trainiert.
  5. 5. Auf dem Testdatensatz wird überprüft, ob der maschinelle Lernalgorithmus auf neue Daten gut verallgemeinern kann.
The procedure is as follows:
  1. 1. In the first step, the time before the error class “Broken” appeared is calculated.
  2. 2. The data set can be marked with three different labels: a) Label 0 => four days until “Broken”, b) Label 1 = between two and four days until “Broken” and c) Label 2 = less than two days until “Broken”.
  3. 3. The dataset is shuffled and divided into training and test data.
  4. 4. A machine learning classifier such as a random forest is trained on the training dataset.
  5. 5. The test dataset is used to check whether the machine learning algorithm can generalize well to new data.

Die durchschnittliche Genauigkeit kann bei einem Trainingsdatensatz von einigen Beispielen für jedes Label (Label 0: 1.261 Trainingsdaten, Label 1: 201 Trainingsdaten, Label 2: 202 Trainingsdaten) bei etwa 96 % liegen. Ein weiterer Vorteil bei der Verwendung des „Random Forest“ Klassifikators ist, dass eine Liste mit Werten ausgegeben werden kann, die angeben wie wichtig jedes Datenmerkmal ist, um das Modell zu erstellen. Dies kann dazu verwendet werden, um die relevanten Datenmerkmale in einem Modell zu identifizieren und gegebenenfalls nicht relevante Datenmerkmale auszuschließen. Dies kann dazu beitragen, die Vorhersagegenauigkeit zu verbessern und die Komplexität des Modells zu reduzieren.The average accuracy can be around 96% on a training dataset of a few examples for each label (label 0: 1,261 training data, label 1: 201 training data, label 2: 202 training data). Another advantage of using the random forest classifier is that it can output a list of values indicating how important each data feature is to building the model. This can be used to identify the relevant data features in a model and exclude irrelevant data features if necessary. This can help improve prediction accuracy and reduce model complexity.

Das System könnte für eine Vielzahl von Anwendungen und Nutzern von Vorteil sein. Maschinen- und Anlagenbetreiber, Produktionsstätten, Wartungs- und Reparaturdienstleister sowie Sicherheitsdienste könnten von dem erfindungsgemäßen automatisierten Analyse- und Klassifizierungssystem profitieren.The system could be beneficial for a variety of applications and users. Machine and plant operators, production facilities, maintenance and repair service providers, and security services could benefit from the automated analysis and classification system according to the invention.

Das erfindungsgemäße System 1 analysiert akustische Signale automatisch und klassifiziert sie als normal oder abnormal, ohne dass der Benutzer manuell Daten klassifizieren muss.The system 1 according to the invention automatically analyzes acoustic signals and classifies them as normal or abnormal without the user having to manually classify data.

Das erfindungsgemäße System 1 kann unbeaufsichtigte Lernmethoden verwenden. Daher muss seitens des Benutzers U keine Datenvorverarbeitung stattfinden, um gute Vorhersagen zu erhalten. Durch das aktive Lernen kann der Benutzer die künstliche Intelligenz für die Anomalieerkennung schnell und einfach auf sein Wissen anpassen. Dies reduziert den Zeitaufwand für die Datenvorbereitung erheblich.The system 1 according to the invention can use unsupervised learning methods. Therefore, the user U does not need to preprocess the data in order to obtain good predictions. Through active learning, the user can quickly and easily adapt the artificial intelligence for anomaly detection to his knowledge. This significantly reduces the time required for data preparation.

Das System 1 weist einen mehrstufigen Algorithmus auf, der unbeaufsichtigtes Lernen, aktives Lernen und beaufsichtigtes Lernen kombiniert, um eine effiziente Anomalieerkennung zu ermöglichen.System 1 features a multi-stage algorithm that combines unsupervised learning, active learning, and supervised learning to enable efficient anomaly detection.

Das System kann dem Benutzer U eine übersichtliche Darstellung der vorhergesagten Zustände in Form von Dashboards, anhörbaren Audiodateien und Melspektrogrammen bieten, um ihn bei der Entscheidungsfindung zu unterstützen. Zusätzlich kann der maschinelle Lernalgorithmus dem Benutzer U vorschlagen, wie das Geräusch klingt, um ihm bei der Entscheidung zu helfen. Dies ermöglicht es einfach, schnell und präzise Entscheidungen zu treffen.The system can provide the user U with a clear representation of the predicted states in the form of dashboards, audible audio files and melspectrograms to assist him in making decisions. Additionally, the machine learning algorithm can suggest to the user U what the noise sounds like to help him make a decision. This makes it easy to make decisions quickly and accurately.

Das System 1 kann die Möglichkeit bieten, den maschinellen Lernalgorithmus für die Geräuschklassifizierung auf die vom Benutzer U umgebungsspezifischen Geräusche anzupassen, indem Transfer Learning und Soundbeispiele verwendet werden. Dadurch kann das System 1 für verschiedene Anwendungen und Einsatzgebiete angepasst werden.The system 1 may provide the ability to adapt the machine learning algorithm for sound classification to the environment-specific sounds encountered by the user U by using transfer learning and sound samples. This allows the system 1 to be adapted for different applications and use cases.

Das System kann spezielle Alarme auf Basis der erkannten Geräusche erstellen und per E-Mail übermitteln, um den Benutzer U über potentielle Probleme zu informieren.The system can create special alarms based on the detected sounds and send them via email to inform the user U of potential problems.

Das System kann in verschiedenen Anwendungsgebieten wie Maschinendiagnostik, Sicherheitsüberwachung und Qualitätssicherung eingesetzt werden. Dadurch können Betriebskosten gesenkt, die Effizienz gesteigert und die Sicherheit verbessert werden.The system can be used in various application areas such as machine diagnostics, safety monitoring and quality assurance. This can reduce operating costs, increase efficiency and improve safety.

Es ist ein schnelleres Sammeln und Bewerten der Sounddaten möglich. Das System 1 ermöglicht es dem Benutzer U, schnell und einfach Sounddaten zu sammeln und zu bewerten, was die Überwachung der technischen Anlage 2 oder Maschine beschleunigt. Der insbesondere dreistufige Aufbau des Systems 1 erleichtert diesen Prozess zusätzlich und macht das System auch für Laien zugänglich.A faster collection and evaluation of sound data is possible. The system 1 enables the user U to quickly and easily collect and evaluate sound data, which speeds up the monitoring of the technical system 2 or machine. The three-stage structure of the system 1 in particular facilitates this process. process and makes the system accessible to laypeople.

Das erfindungsgemäße System 1 stellt eine innovative und erfinderische Lösung zur automatisierten Analyse und Klassifizierung von akustischen Signalen in verschiedenen Anwendungsbereichen dar. Insbesondere die Verwendung von unbeaufsichtigten Lernmethoden, aktiven Lernalgorithmen und Transfer Learning zur Verbesserung der Vorhersagegenauigkeit ohne manuelles Labeling der Daten ist ein sehr innovativer Ansatz. The system 1 according to the invention represents an innovative and inventive solution for the automated analysis and classification of acoustic signals in various application areas. In particular, the use of unsupervised learning methods, active learning algorithms and transfer learning to improve the prediction accuracy without manual labeling of the data is a very innovative approach.

5 zeigt einen ersten Teil 8a einer Visualisierungsanwendung 8 bzw. Benutzerschnittstelle. 5 shows a first part 8a of a visualization application 8 or user interface.

Wie aus 5 ersichtlich, kann die gewünschte Erfassungseinheit 3 in einem Auswahlliste 80 ausgewählt werden. Die zugehörigen Daten in den weiteren Bestandteilen der Benutzerschnittstelle werden dann automatisch entsprechend nachgeladen.As from 5 As can be seen, the desired recording unit 3 can be selected in a selection list 80. The associated data in the other components of the user interface are then automatically reloaded accordingly.

Interaktive Dashboards 81, 82 können mit dem Visualisierungstool 12 erzeugt und als Frames in die Benutzerschnittstelle eingebunden werden.Interactive dashboards 81, 82 can be created with the visualization tool 12 and integrated into the user interface as frames.

Im Teil 8a der Visualisierungsanwendung 8 bekommt der Benutzer U durch das Dashboard 81 einen schnellen Überblick über den Zustand der zu überwachenden technischen Anlage 2 innerhalb der letzten 24 Stunden. Ein Zustand „normal“ kann hierbei grün, ein Zustand „mögliche Anomalie“ orange und ein Zustand „Anomalie“ rot dargestellt werden. Die unterschiedlichen Farbgebungen sind in 5 durch unterschiedliche Strichelungen angedeutet. Das Diagramm 81 ist interaktiv und kann sich alle 5 Sekunden automatisch aktualisieren. Außerdem kann durch ein Bewegen eines Mauszeigers einer Computermaus (nicht dargestellt) über das Dashboard 81 die Bezeichnung des jeweiligen Zustands angezeigt werden.In part 8a of the visualization application 8, the user U gets a quick overview of the status of the technical system 2 to be monitored within the last 24 hours via the dashboard 81. A “normal” status can be shown in green, a “possible anomaly” status in orange and an “anomaly” status in red. The different colors are shown in 5 indicated by different dashes. The diagram 81 is interactive and can update automatically every 5 seconds. In addition, the name of the respective state can be displayed by moving a mouse pointer (not shown) over the dashboard 81.

In dem interaktiven Dashboard 82 können die Zustände der technischen Anlage 2 in einem mittels eines Eingabefelds 83 ausgewählten Zeitbereich dargestellt werden. Bei dem interaktiven Dashboard 82 ist auf der X-Achse die Zeit und auf der Y-Achse ein Wahrscheinlichkeitswert für einen Zustand aufgetragen. Die Höhe der eingezeichneten Balken gibt an, wie wahrscheinlich einer der Zustände „normal“, „mögliche Anomalie“ oder „Anomalie“ ist, wobei beispielhaft und stark vereinfacht nur eine begrenzte Anzahl von zueinander weit beabstandeten Balken eingezeichnet ist. Die Farbgebung bzw. Schraffur der eingezeichneten Balken entspricht derjenigen des interaktiven Dashboards 81. Es besteht die Möglichkeit durch Anklicken des gewünschten Zustands in einem Bereich 82a bzw. einer Legende des Dashboards 82 sich nur diesen Zustand bzw. diese Balken auf dem interaktiven Dashboard 82 anzeigen zu lassen. Dies ermöglicht einen schnelleren Überblick (nicht näher dargestellt).In the interactive dashboard 82, the states of the technical system 2 can be displayed in a time range selected using an input field 83. In the interactive dashboard 82, the time is plotted on the X-axis and a probability value for a state is plotted on the Y-axis. The height of the bars shown indicates how likely one of the states "normal", "possible anomaly" or "anomaly" is, whereby only a limited number of bars spaced far apart from one another are shown as an example and in a highly simplified manner. The coloring or hatching of the bars shown corresponds to that of the interactive dashboard 81. By clicking on the desired state in an area 82a or a legend of the dashboard 82, it is possible to display only this state or these bars on the interactive dashboard 82. This enables a quicker overview (not shown in detail).

Der Benutzer U kann sich mittels des Wiedergabebereichs 84 die kompletten Soundaufnahmen bis zu einer Woche rückwirkend anhören. Dafür werden die fünf Sekunden langen Audiosignaldatenteile bzw. Audiosignaldatenabschnitte in eine Audiodatei von maximal 10 Minuten zusammengefasst. Der gewünschte Zeitabschnitt für die Audiodatei kann optisch in dem Dashboard 82 markiert werden (siehe gestrichelter Bereich 82b des Dashboards 82). Die Audiodatei wird automatisch erzeugt, sobald der Benutzer das Webinterface öffnet oder er den Zeitbereich im Eingabefeld 83 einstellt. Ein Algorithmus kann automatisiert 10 Minuten von der Eingabe „Datum bis“ rückwärts alle in diesem Zeitbereich vorhandenen Audiodaten aus der entsprechenden Datenbank 10 laden und die Audiodatei bzw. das Audioformat zur Wiedergabe erzeugen.The user U can use the playback area 84 to listen to the complete sound recordings up to a week in retrospect. To do this, the five-second audio signal data parts or audio signal data sections are combined into an audio file of a maximum of 10 minutes. The desired time period for the audio file can be visually marked in the dashboard 82 (see dashed area 82b of the dashboard 82). The audio file is automatically generated as soon as the user opens the web interface or sets the time period in the input field 83. An algorithm can automatically load all audio data available in this time period from the corresponding database 10 10 minutes backwards from the input "date to" and generate the audio file or audio format for playback.

In dem Teil 8b der Visualisierungsanwendung 8 können in einer übersichtlichen Tabelle die Anomalien im eingestellten Zeitbereich (Eingabefeld 83) angezeigt werden. Jede Anomalie kann eindeutig im Zeitbereich des Dashboards 82 zugeordnet werden. Für jede Anomalie kann es eine Zeile in der angezeigten Tabelle geben.In part 8b of the visualization application 8, the anomalies in the set time range (input field 83) can be displayed in a clear table. Each anomaly can be clearly assigned in the time range of the dashboard 82. There can be a row for each anomaly in the displayed table.

Die Tabelle kann die folgenden Spalten aufweisen:

  • - „Datum und Uhrzeit“, damit die Anomalie zugeordnet werden kann;
  • - „Anomalie“, um eine Filterung nach dem Wahrscheinlichkeitswert zu ermöglichen;
  • - „Grund“, um dem Benutzer eine erste Einschätzung zu geben, wie sich das Geräusch anhört;
  • - „Audio, Anomalie (oben), normal (unten)“, hier kann sich der Benutzer Audiodateien beispielsweise mit einer Länge von fünf Sekunden anhören und hat den direkten Vergleich zwischen einer von der künstlichen Intelligenz vorhergesagten Anomalie und einem normalen Zustand;
  • - „Spektrogramm Anomalie“, hier kann sich der Benutzer die Anomalie zusätzlich auch als Spektrogramm ansehen;
  • - „Spektrogramm normal“, hierdurch wird ein Vergleich mit dem Spektrogramm der Anomalie ermöglicht;
  • - „Feedback“, hier kann der Benutzer beispielsweise mittels eines Drop down-Menüs entscheiden, ob es wirklich eine Anomalie war oder der Zustand „normal“ vorliegt. Außerdem kann er in einem darunterliegenden Eingabefeld eine Fehlerklasse angeben, wie zum Beispiel Kavitation, Lagerschaden, etc.;
  • - „Bewertet“, hier wird vermerkt, ob die Anomalie schon einmal bewertet wurde.
The table can have the following columns:
  • - “Date and time” so that the anomaly can be assigned;
  • - “Anomaly” to enable filtering by probability value;
  • - “Reason” to give the user an initial assessment of what the noise sounds like;
  • - “Audio, anomaly (top), normal (bottom)”, here the user can listen to audio files, for example, with a length of five seconds and has a direct comparison between an anomaly predicted by the artificial intelligence and a normal state;
  • - “Spectrogram Anomaly”, here the user can also view the anomaly as a spectrogram;
  • - “Normal spectrogram”, which allows a comparison with the anomaly spectrogram;
  • - “Feedback”, here the user can decide, for example, using a drop-down menu, whether it was really an anomaly or whether the condition is “normal”. He can also enter an error in an input field below. class, such as cavitation, bearing damage, etc.;
  • - “Rated”, this indicates whether the anomaly has already been rated.

Bei den in 6 dargestellten Spektrogrammen kann es sich um sogenannte Melspektrogramme handeln, welche nur stark vereinfacht schematisch dargestellt sind. Durch einen Mausklick auf das jeweilige Bild können die Melspektrogramme optional in einem separaten Fenster vergrößert angezeigt werden (nicht näher dargestellt). Dadurch kann der Benutzer die Spektrogramme genauer überprüfen.In the 6 The spectrograms shown may be so-called Melspectrograms, which are only shown schematically in a very simplified manner. By clicking on the respective image, the Melspectrograms can optionally be displayed enlarged in a separate window (not shown in detail). This allows the user to examine the spectrograms more closely.

Ein Melspektrogramm ist eine Darstellung des Frequenzspektrums von Schall oder Ton in Bezug auf die menschliche Wahrnehmung von Lautstärke und Tonhöhe. Es wird oft verwendet, um Audio- oder Sprachsignale in der Spracherkennung, Musikanalyse oder Audioverarbeitung zu analysieren.A melspectrogram is a representation of the frequency spectrum of sound or tone in relation to the human perception of loudness and pitch. It is often used to analyze audio or speech signals in speech recognition, music analysis or audio processing.

Das Melspektrogramm wird durch Anwenden der Mel-Skala auf das Frequenzspektrum eines Signals erzeugt. Die Mel-Skala ist eine nicht-lineare Skala, die die menschliche Wahrnehmung von Lautstärke und Tonhöhe besser präsentiert als die lineare Frequenzskala. Sie wird durch die Umrechnung der Frequenzen in Mel-Einheiten erreicht, die proportional zur logarithmischen Transformation der Frequenz sind.The Mel spectrogram is created by applying the Mel scale to the frequency spectrum of a signal. The Mel scale is a non-linear scale that better represents the human perception of loudness and pitch than the linear frequency scale. It is achieved by converting frequencies into Mel units, which are proportional to the logarithmic transformation of the frequency.

Das resultierende Melspektrogramm wird als 2D-Diagramm dargestellt, wobei die X-Achse die Zeit und die Y-Achse die Melfrequenz darstellt. Die Farbintensität in jedem Bereich des Diagramms gibt die Intensität des Signals in diesem Bereich an (in 6 nicht näher ersichtlich). Melspektrogramme sind einfach zu visualisieren und zu verstehen. Dadurch können sie leicht interpretiert werden, was für viele Anwendungen, wie zum Beispiel Audioanalyse, von großem Vorteil ist.The resulting spectrogram is displayed as a 2D diagram, where the X-axis represents time and the Y-axis represents the frequency of the measurement. The color intensity in each area of the diagram indicates the intensity of the signal in that area (in 6 Melspectrograms are easy to visualize and understand. This makes them easy to interpret, which is a great advantage for many applications, such as audio analysis.

Durch kurzes Betrachten der Melspektrogramme lässt sich oft sofort ein Muster erkennen. Dies ermöglicht eine schnellere Bewertung der vorgeschlagenen Anomalie, da der Benutzer U direkt zu diesem Zeitpunkt in der bereitgestellten Audiodatei springen und sich die signifikanten Geräusche anhören kann.A pattern can often be immediately identified by briefly looking at the Melspectrograms. This allows for a faster assessment of the proposed anomaly, as the user U can jump directly to that point in time in the provided audio file and listen to the significant sounds.

In einem weiteren nicht dargestellten Teil der Visualisierungsanwendung 8 können Einstellungen wie zum Beispiel die Vergabe eines Sensornamens vorgenommen werden. Ebenfalls kann in den Einstellungen festgelegt werden, wann ein Alarm ausgegeben wird, wenn bei der entsprechenden Erfassungseinheit 3 eine Anomalie aufgetaucht ist. Es kann auch definiert werden, ab wie vielen nacheinander aufgetretenen Anomalien der Alarm ausgelöst werden soll. Dies hat den Vorteil, dass Fehlalarme durch kurzzeitige Geräusche wie das Fallenlassen eines Alublechs oder andere nicht maschinenspezifische Geräusche vermieden werden können.In another part of the visualization application 8 (not shown), settings such as assigning a sensor name can be made. The settings can also be used to specify when an alarm is issued when an anomaly has occurred in the corresponding detection unit 3. It can also be defined how many consecutive anomalies must occur before the alarm is triggered. This has the advantage that false alarms caused by short-term noises such as the dropping of an aluminum sheet or other non-machine-specific noises can be avoided.

Falls der Benutzer falsche Angaben gemacht hat und die Anomalieerkennung dadurch falsche Vorhersagen trifft, oder wenn mehr Daten gesammelt wurden und der Benutzer U den Algorithmus für die Anomalieerkennung basierend auf den bisherigen Daten anpassen möchte, kann dies ebenfalls einfach in den Einstellungen vorgenommen werden. Eine Funktion kann beispielsweise die Daten der letzten 30 Tage aus der Datenbank abrufen. Anschließend wird ein „Isolation Forest“-Algorithmus trainiert und Vorhersagen auf den Datensatz erstellt. Die vom Benutzer U validierten Daten sowie die Vorhersagen des „Isolation Forest“-Algorithmus werden grafisch in der Benutzerschnittstelle, beispielsweise im Dashboard 82, angezeigt. Die Vorhersagegenauigkeit der Anomalieerkennung verbessert sich durch mehr Daten, Unterstützung durch unbeaufsichtigtes Lernen (Isolation Forest) und die bereits validierten Daten.If the user has provided incorrect information and the anomaly detection system is making incorrect predictions, or if more data has been collected and user U wants to adjust the anomaly detection algorithm based on the data so far, this can also be easily done in the settings. For example, a function can retrieve the last 30 days of data from the database. It then trains an isolation forest algorithm and makes predictions on the dataset. The data validated by user U and the predictions of the isolation forest algorithm are displayed graphically in the user interface, for example in dashboard 82. The prediction accuracy of anomaly detection improves with more data, support from unsupervised learning (isolation forest), and the data already validated.

Das System 1 kann somit mögliche Zustände der technischen Anlage 2 oder Maschine in einer übersichtlichen Darstellung in Form von Dashboards 81, 82 und Tabellen bereitstellen. Dies erleichtert die Interpretation und Analyse der akustischen Signale durch den Benutzer U.The system 1 can thus provide possible states of the technical system 2 or machine in a clear representation in the form of dashboards 81, 82 and tables. This facilitates the interpretation and analysis of the acoustic signals by the user U.

Die Zustände können in drei unterschiedlichen Farben bzw. Schraffuren repräsentiert werden. Dadurch kann der Benutzer U schnell erkennen, ob zum Beispiel eine Anomalie eine geringe Wahrscheinlichkeit hat („mögliche Anomalie“), die er eventuell vernachlässigen kann und sich den Anomalien mit höheren Wahrscheinlichkeiten widmen. Durch die Höhe der Balken in dem Dashboard 82 kann außerdem schnell erkannt werden, wie sicher sich der maschinelle Lernalgorithmus über den Zeitverlauf ist. Der Vorteil dieser Darstellung ist, dass der Benutzer schnell erkennen kann, ob der maschinelle Lernalgorithmus bei neueren Daten unsicherer wird. Wenn die Balken niedriger werden, kann dies eine höhere Unsicherheit in der Vorhersage signalisieren. Dadurch kann der Benutzer schneller auf Veränderungen in der Vorhersageleistung des Algorithmus reagieren und gegebenenfalls eingreifen, um die Vorhersagegenauigkeit zu verbessern. Dies kann insbesondere in Anwendungen wie der Überwachung von Maschinen oder industriellen Anlagen von Vorteil sein, bei welchen die Vorhersagegenauigkeit kritisch sein kann, um Ausfallzeiten und Schäden zu vermeiden.The states can be represented in three different colors or hatchings. This allows the user U to quickly see whether, for example, an anomaly has a low probability ("possible anomaly") that he can possibly ignore and focus on the anomalies with higher probabilities. The height of the bars in the dashboard 82 also makes it possible to quickly see how certain the machine learning algorithm is over time. The advantage of this representation is that the user can quickly see whether the machine learning algorithm is becoming less certain with more recent data. If the bars become lower, this can signal a higher uncertainty in the prediction. This allows the user to react more quickly to changes in the algorithm's prediction performance and, if necessary, intervene to improve the prediction accuracy. This can be particularly advantageous in applications such as monitoring machines or industrial plants, where the prediction accuracy can be critical to avoid downtime and damage.

Das System 1 kann nicht nur Audiodateien bereitstellen, sondern auch Melspektrogramme. Diese bieten den Vorteil, dass akustische Signale visuell verständlich für den Menschen aufbereitet werden. Durch das Anhören und Betrachten der Melspektrogramme kann der Benutzer U eine zusätzliche Bewertung des Geräuschs vornehmen.System 1 can provide not only audio files, but also mel spectrograms. These offer the advantage that acoustic signals are processed in a way that is visually understandable for humans. By listening to and viewing the spectrograms, the user can make an additional assessment of the noise.

Das System 1 berücksichtigt mit den Melspektrogrammen sowie den Vorschlägen der künstlichen Intelligenz wie sich das Geräusch mit einer gewissen prozentualen Wahrscheinlichkeit anhören könnte, dass das Gehör im Alter abnimmt und bei jedem Menschen unterschiedlich ausgeprägt ist. Dadurch können potentielle Risiken durch höhere Frequenzen, die für manche Personen nicht mehr wahrnehmbar sind, trotzdem erkannt werden.System 1 uses the Melspectrograms and the suggestions of the artificial intelligence to take into account how the noise might sound with a certain percentage probability, taking into account that hearing deteriorates with age and is different for each person. This means that potential risks from higher frequencies that are no longer perceptible for some people can still be identified.

Die Zustände für die Anomalieerkennung und die Geräuschklassifikationen können effizient in der Benutzeroberfläche eingegeben werden. Das System 1 kann sich automatisch anpassen, indem es durch Drücken eines Buttons oder dergleichen auf die eingegebenen Zustände angepasst wird. Dadurch wird die Effizienz des Systems 1 erhöht.The conditions for anomaly detection and sound classifications can be efficiently entered in the user interface. The system 1 can automatically adapt to the entered conditions by pressing a button or the like. This increases the efficiency of the system 1.

Durch die übersichtliche Darstellung der Anomalien, das Anhören und das Ansehen von Geräuschen sowie der Vorschlag, wie sich das Geräusch anhört, ermöglicht eine schnellere Bewertung/Diagnose der Anomalie durch den Benutzer U.By clearly displaying the anomalies, listening to and viewing sounds and suggesting what the sound sounds like, a faster assessment/diagnosis of the anomaly by the user U is possible.

Durch das Anhören der letzten Tage von bis zu 10 Minuten am Stück mittels des Wiedergabebereichs 84 können aufgefundene anomale Geräusche besser nachvollzogen werden. Die Möglichkeit, die letzten 10 Minuten des Geräuschs entfernt/remote anzuhören, bietet dem Benutzer eine zeitsparende Möglichkeit, Anomalien zu überwachen und zu diagnostizieren, insbesondere bei Anlagen oder Maschinen die schwer zugänglich sind.By listening to the last few days for up to 10 minutes at a time using the playback area 84, any anomalous noises found can be better understood. The ability to listen to the last 10 minutes of noise remotely provides the user with a time-saving way to monitor and diagnose anomalies, especially in equipment or machinery that is difficult to access.

Insgesamt bietet das Monitoring-/Labeling-System für Audiodaten eine effektive Möglichkeit, akustische Signale zu überwachen und potentielle Probleme in Maschinen oder Anlagen frühzeitig zu erkennen. Die visuelle Aufbereitung der akustischen Signale und die Berücksichtigung von alters- und personenabhängigen Unterschieden machen das System 1 besonders benutzerfreundlich und leistungsfähig.Overall, the monitoring/labeling system for audio data offers an effective way to monitor acoustic signals and identify potential problems in machines or systems at an early stage. The visual processing of the acoustic signals and the consideration of age- and person-related differences make System 1 particularly user-friendly and powerful.

Insgesamt bietet das erfindungsgemäße System 1 die nachfolgenden Verbesserungen.Overall, the system 1 according to the invention offers the following improvements.

Das System 1 kann ohne aufwändige Installationen oder Anpassungen für verschiedene Maschinen oder Anlagen verwendet werden. Dies spart Zeit und Kosten für die Installation und Implementierung.System 1 can be used for different machines or systems without complex installations or adjustments. This saves time and costs for installation and implementation.

Das System 1 kann automatisch akustische Signale der Maschinen und Anlagen aufzeichnen und Merkmale extrahieren, die an die Cloud-basierte Analyseeinheit 5 übermittelt werden. Dies eliminiert die Notwendigkeit für manuelle Aufzeichnung und Analyse. Dies spart Zeit und Arbeitskraft und ermöglicht eine kosteneffektive Überwachung von Maschinen und Anlagen, was wiederum zu höherer Effizienz und Produktivität führt.The system 1 can automatically record acoustic signals from the machines and equipment and extract features that are transmitted to the cloud-based analysis unit 5. This eliminates the need for manual recording and analysis. This saves time and labor and enables cost-effective monitoring of machines and equipment, which in turn leads to higher efficiency and productivity.

Durch das System 1 werden die Kosten für die Ausrüstung gesenkt und durch die einfache Handhabung und automatisierte Analyse eignet sich das System 1 auch für kleinere Produktionsumgebungen und ermöglicht eine kosteneffektive Überwachung von Maschinen und Anlagen. Die einfache Bedienbarkeit erfordert keine speziellen technischen Kenntnisse. Es kann von jedem Mitarbeiter in einer Produktionsumgebung verwendet werden und benötigt keine speziellen Schulungen oder dergleichen.System 1 reduces equipment costs and its ease of use and automated analysis make it suitable for smaller production environments and enables cost-effective monitoring of machines and equipment. Its ease of use does not require any special technical knowledge. It can be used by any employee in a production environment and does not require any special training or the like.

Die Erfassungseinheit 3 kann aus einer kostengünstigen Alternative zu teurer Spezialausrüstung bestehen, was die Kosten für die Ausrüstung senkt und die Möglichkeit bietet, die Technologie auch in kleineren Produktionsumgebungen einzusetzen.The detection unit 3 can consist of a low-cost alternative to expensive specialised equipment, which reduces the cost of the equipment and offers the possibility of using the technology also in smaller production environments.

Ein maschineller Lernalgorithmus kann zu Zwecken des Datenschutzes unter anderem die Geräuschfragmente auf mögliche Sprachanteile überprüfen. Sollte eine Sprache erkannt werden, wird dieses Fragment nicht gespeichert und weiterverarbeitet.For data protection purposes, a machine learning algorithm can, among other things, check the sound fragments for possible speech components. If speech is detected, this fragment is not saved and processed further.

Das System 1 kann in verschiedenen Branchen eingesetzt werden, wie zum Beispiel in der Fertigung, der Automobilindustrie, der Lebensmittelindustrie, der Chemieindustrie und anderen Bereichen, in denen Maschinen und Anlagen eingesetzt werden.System 1 can be used in various industries such as manufacturing, automotive, food, chemical and other areas where machinery and equipment are used.

Das System 1 ist skalierbar, so dass es für kleine und große Produktionsumgebungen eingesetzt werden kann, indem einfach weitere Erfassungseinheiten 3 hinzugefügt werden.The system 1 is scalable so that it can be used for small and large production environments by simply adding additional acquisition units 3.

Die Übertragung per MQTT-Technologien mit den Qualitätsstufen (QoS) sowie die Möglichkeit, die Erfassungseinheit 3 mit drei unterschiedlichen Varianten mit dem Internet zu verbinden, ermöglicht eine robuste Erfassung in vielen Bereichen, wo das Internet nicht so gut bzw. ausgebaut bzw. keines vorhanden ist.The transmission via MQTT technologies with the quality levels (QoS) as well as the possibility of connecting the recording unit 3 to the Internet with three different variants enables robust recording in many areas where the Internet is not so good or well developed or not available at all.

Die dreistufige Analyse, das übersichtliche Monitoring-/Labeling-System bietet dem Benutzer U viele Vorteile gegenüber herkömmlichen Technologien. Durch die übersichtliche Darstellung der analysierten Geräusche und der Anomalien kann der Benutzer leichter verstehen wie diese klingen und wie sie im Spektrogramm aussehen. Die Geräuschklassenvorhersage des vortrainierten tiefen neuronalen Netzes und die Prozentangaben für die Wahrscheinlichkeit unterstützen den Benutzer zusätzlich bei der Entscheidungsfindung.The three-stage analysis and the clear monitoring/labeling system offer the user many advantages over conventional technologies. The clear presentation of the analyzed noises and anomalies enables the Users can more easily understand what they sound like and what they look like in the spectrogram. The noise class prediction of the pre-trained deep neural network and the percentages for the probability also support the user in making decisions.

Durch das Feedback des Benutzers U kann das System 1 kontinuierlich verbessert werden und so noch bessere Vorhersagen treffen. Das Labeling-System erleichtert dem Benutzer das Identifizieren von Anomalien und das Klassifizieren von Geräuschen, was wiederum zu einem schnelleren und effektiveren Monitoring führt.The feedback from user U allows system 1 to be continuously improved and thus make even better predictions. The labeling system makes it easier for the user to identify anomalies and classify noises, which in turn leads to faster and more effective monitoring.

Insgesamt bietet das System 1 dem Benutzer eine benutzerfreundliche und effektive Möglichkeit, Geräusche von Maschinen und Anlagen zu analysieren und Anomalien zu erkennen, auch wenn noch keine Referenzdaten zum Trainieren der Algorithmen vorhanden sind. Die verbesserte Vorhersagegenauigkeit und die schnelle Reaktionszeit des erfindungsgemäßen Systems 1 helfen dem Benutzer, potentielle Probleme schnell zu erkennen und zu lösen, was zu einer höheren Betriebssicherheit und einer längeren Lebensdauer der Anlagen führen kann.Overall, the system 1 offers the user a user-friendly and effective way to analyze noise from machines and systems and to detect anomalies, even if no reference data is yet available to train the algorithms. The improved prediction accuracy and fast response time of the system 1 according to the invention help the user to quickly identify and solve potential problems, which can lead to greater operational reliability and a longer service life of the systems.

Es handelt sich um erhebliche Verbesserungen gegenüber dem Stand der Technik. Das erfindungsgemäße System 1 ermöglicht eine automatisierte, schnelle, einfache, zuverlässige und kostengünstige Überwachung von Maschinen- und Anlagengeräuschen, die die Arbeit von Wartungstechnikern und Ingenieuren erleichtern und die Effizienz und Produktivität vom Unternehmen verbessern kann.These are significant improvements over the state of the art. The system 1 according to the invention enables automated, fast, simple, reliable and cost-effective monitoring of machine and system noise, which can facilitate the work of maintenance technicians and engineers and improve the efficiency and productivity of the company.

Bezugszeichenlistelist of reference symbols

11
Systemsystem
22
technische Anlagetechnical system
33
Erfassungseinheitregistration unit
3a3a
akustische Sensoreinrichtungacoustic sensor device
44
RaumSpace
55
Cloud-basierte Analyseeinheitcloud-based analysis unit
5a5a
Serverserver
66
Kommunikationssymbolecommunication symbols
77
Geräuschkulissebackground noise
88
Visualisierungsanwendungvisualization application
8a8a
erster Teil der Visualisierungsanwendungfirst part of the visualization application
8b8b
zweiter Teil der Visualisierungsanwendungsecond part of the visualization application
99
Pfeilearrows
1010
Datenbankdatabase
1111
MQTT-BrokerMQTT broker
1212
Visualisierungstoolvisualization tool
1313
künstliche Intelligenz-basierte Spracherkennungartificial intelligence-based speech recognition
14, 1514, 15
Eingabeninputs
1616
validierte Zuständevalidated states
1717
Fehlerklassenerror classes
8080
Auswahllisteselection list
8181
Dashboard interaktivDashboard interactive
8282
Dashboard interaktivDashboard interactive
82a82a
Bereich mit Zuständenarea with states
82b82b
Auswahlbereichselection area
8383
Eingabefeld Zeitbereichinput field time range
8484
Wiedergabebereich für Audiosignaldatenplayback area for audio signal data
T1, T2T1, T2
Tätigkeiten des Benutzersuser's activities
S1 - S19S1 - S19
Verfahrensschritteprocedural steps
UU
Benutzeruser

Claims (7)

System (1) zur fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage (2), insbesondere Maschine wenigstens umfassend: - wenigstens eine Erfassungseinheit (3) mit wenigstens einer akustischen Sensoreinrichtung (3a), welche in der Nähe der zu überwachenden technischen Anlage (2) angeordnet ist, wobei die Erfassungseinheit (3) dazu eingerichtet ist, automatisiert mittels der Sensoreinrichtung (3a) erfasste akustische Signale der technischen Anlage (2) als Audiosignaldaten zu speichern und die gespeicherten Audiosignaldaten und/oder aus wenigstens einem Teil der gespeicherten Audiosignaldaten extrahierte Datenmerkmale assoziiert mit der wenigstens einen technischen Anlage (2) an eine Cloud-basierte Analyseeinheit (5) zu übermitteln, - die Cloud-basierte Analyseeinheit (5), welche mit der wenigstens einen Erfassungseinheit (3) kommunikationsverbunden ist, und welche dazu eingerichtet ist, die von der wenigstens einen Erfassungseinheit (3) empfangenen anlagenassoziierten Audiosignaldaten und/oder aus wenigstens einem Teil der anlagenassoziierten Audiosignaldaten extrahierte Datenmerkmale mittels künstlicher Intelligenz, nämlich wenigstens eines maschinellen Lernalgorithmus und/oder wenigstens eines neuronalen Netzes zu analysieren und zu verarbeiten, - wobei bei deren Nichtvorhandensein automatisiert eine für die anlagenassoziierte Speicherung und Verarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale geeignete Datenumgebung, insbesondere eine oder mehrere Datenbanken (10) und/oder Dateien erzeugt werden, wobei eine Vorverarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale durchgeführt wird, - wobei mittels der empfangenen anlagenassoziierten Audiosignaldaten und/oder der Datenmerkmale der wenigstens eine maschinelle Lernalgorithmus und/oder das wenigstens eine neuronale Netz unbeaufsichtigt trainiert werden, um einen Normalzustand der technischen Anlage (2) aufzuzeichnen und eine Unterscheidung von abnormen Audiosignaldaten und Datenmerkmalen zu ermöglichen, - wobei die Analyse von neuen anlagenassoziierten Audiosignaldaten und/oder Datenmerkmalen, insbesondere in Abhängigkeit von bereits gespeicherten Audiosignaldaten und/oder Datenmerkmalen, mehrstufig in drei unterschiedlichen Stufen erfolgt, - wobei bei der Analyse der neuen anlagenassoziierten Audiosignaldaten und/oder Datenmerkmale: - in einer ersten Stufe Anomalien erkannt werden, insbesondere wenn eine Abweichung von dem aufgezeichneten Normalzustand der wenigstens einen technischen Anlage (2) vorliegt, - in einer zweiten Stufe ein Fehler der wenigstens einen technischen Anlage (2) klassifizierbar ist, insbesondere ein Klappern oder eine Kavitation, und - in einer dritten Stufe ein Ausfall der wenigstens einen technischen Anlage (2) vorhersagbar ist, und - wobei ferner ein Spracherkennungsalgorithmus vorhanden ist, welcher die von der wenigstens einen Erfassungseinheit (3) empfangenen Audiosignaldaten auf vorhandene Sprachanteile überprüft, wobei Audiosignaldaten, bei welchen Sprachanteile von dem Spracherkennungsalgorithmus erkannt wurden, nicht gespeichert oder verarbeitet werden.System (1) for continuous acoustic monitoring of at least one technical installation (2), in particular a machine, comprising at least: - at least one detection unit (3) with at least one acoustic sensor device (3a), which is arranged in the vicinity of the technical installation (2) to be monitored, wherein the detection unit (3) is set up to automatically store acoustic signals of the technical installation (2) detected by the sensor device (3a) as audio signal data and to transmit the stored audio signal data and/or data features extracted from at least a portion of the stored audio signal data associated with the at least one technical installation (2) to a cloud-based analysis unit (5), - the cloud-based analysis unit (5), which is communicatively connected to the at least one detection unit (3), and which is set up to use artificial intelligence, namely at least one machine learning algorithm and/or at least one neural network, to process the installation-associated audio signal data received by the at least one detection unit (3) and/or data features extracted from at least a portion of the installation-associated audio signal data to analyse and process, - in the absence of which automated a data environment suitable for the system-associated storage and processing of the received audio signal data and/or the data features, in particular one or more databases (10) and/or files, are generated, wherein a preprocessing of the received audio signal data and/or the data features is carried out, - wherein the at least one machine learning algorithm and/or the at least one neural network are trained unsupervised by means of the received system-associated audio signal data and/or the data features in order to record a normal state of the technical system (2) and to enable a distinction to be made between abnormal audio signal data and data features, - wherein the analysis of new system-associated audio signal data and/or data features, in particular depending on already stored audio signal data and/or data features, takes place in three different stages, - wherein when analyzing the new system-associated audio signal data and/or data features: - in a first stage, anomalies are detected, in particular if there is a deviation from the recorded normal state of the at least one technical system (2), - in a second stage a fault of the at least one technical system (2) can be classified, in particular a rattling or a cavitation, and - in a third stage, a failure of the at least one technical system (2) can be predicted, and - wherein a speech recognition algorithm is also present which checks the audio signal data received by the at least one detection unit (3) for the presence of speech components, wherein audio signal data in which speech components were recognized by the speech recognition algorithm are not stored or processed. System (1) nach Anspruch 1, wobei bei dem Training des wenigstens einen maschinellen Lernalgorithmus oder des wenigstens einen neuronalen Netzes zusätzlich Benutzereingaben berücksichtigt werden, wobei vorzugsweise dem Benutzer (U) zur Unterstützung der Entscheidungsfindung die zu klassifizierenden Audiosignaldaten anhörbar, visuell in Form eines Spektrogramms und/oder unter Angabe eines vorläufigen, von dem wenigstens einen maschinellen Lernalgorithmus oder dem wenigstens einen neuronalen Netz automatisiert ermittelten Analyseergebnisses anzeigt werden.System (1) according to claim 1 , wherein during the training of the at least one machine learning algorithm or the at least one neural network, user inputs are additionally taken into account, wherein the audio signal data to be classified are preferably displayed to the user (U) in an audible manner, visually in the form of a spectrogram and/or with an indication of a preliminary analysis result automatically determined by the at least one machine learning algorithm or the at least one neural network in order to support the decision-making process. System (1) nach Anspruch 1 oder 2, wobei die Datenmerkmale aus Audiosignaldaten von jeweils fünf Sekunden Aufzeichnungsdauer extrahiert werden.System (1) according to claim 1 or 2 , where the data features are extracted from audio signal data of five seconds of recording duration each. System (1) nach Anspruch 1, 2 oder 3, wobei die wenigstens eine Erfassungseinheit (3) oder die Cloud-basierte Analyseeinheit (5) die Datenmerkmale aus dem wenigstens einen Teil der empfangenen und/oder gespeicherten Audiosignaldaten extrahiert.System (1) according to claim 1 , 2 or 3 , wherein the at least one detection unit (3) or the cloud-based analysis unit (5) extracts the data features from the at least part of the received and/or stored audio signal data. System (1) nach einem der Ansprüche 1 bis 4, wobei die Audiosignaldaten und/oder die extrahierten Datenmerkmale von der Erfassungseinheit (3) an die Cloud-basierte Analyseeinheit (5) mit einer Sensor-ID und einer Anlage- oder Kunden-ID, insbesondere über Message Queuing Telemetry Transport, MQTT, übermittelt werden.System (1) according to one of the Claims 1 until 4 , wherein the audio signal data and/or the extracted data features are transmitted from the acquisition unit (3) to the cloud-based analysis unit (5) with a sensor ID and a system or customer ID, in particular via Message Queuing Telemetry Transport, MQTT. System (1) nach einem der Ansprüche 1 bis 5, welches ferner eine Visualisierungsanwendung (8) umfasst, welche mit der Cloud-basierten Analyseeinheit (5) kommunikationsverbunden ist und anlagenassoziiert dem Benutzer mögliche Zustände der wenigstens einen technischen Anlage (2), insbesondere visuell in Form von Tabellen, Dashboards oder Spektrogrammen und/oder als anhörbare Audiosignaldaten anzeigt.System (1) according to one of the Claims 1 until 5 , which further comprises a visualization application (8) which is communicatively connected to the cloud-based analysis unit (5) and displays possible states of the at least one technical system (2) to the user in an associated manner, in particular visually in the form of tables, dashboards or spectrograms and/or as audible audio signal data. Verfahren zur fortlaufenden akustischen Überwachung von wenigstens einer technischen Anlage (2), insbesondere Maschine, auf einem System (1) nach einem der Ansprüche 1 bis 6, - wobei von der wenigstens einen Erfassungseinheit (3) mittels der wenigstens einen akustischen Sensoreinrichtung (3a) erfasste akustische Signale der technischen Anlage (2) als Audiosignaldaten gespeichert und die gespeicherten Audiosignaldaten und/oder aus wenigstens einem Teil der gespeicherten Audiosignaldaten extrahierte Datenmerkmale assoziiert mit der wenigstens einen technischen Anlage (2) an die Cloud-basierte Analyseeinheit (5) übermittelt werden, - wobei die von der wenigstens einen Erfassungseinheit (3) empfangenen anlagenassoziierten Audiosignaldaten und/oder aus wenigstens einem Teil der anlagenassoziierten Audiosignaldaten extrahierte Datenmerkmale von der Cloud-basierten Analyseeinheit (5) mittels künstlicher Intelligenz, nämlich wenigstens eines maschinellen Lernalgorithmus und/oder wenigstens eines neuronalen Netzes analysiert und verarbeitet werden, - wobei bei deren Nichtvorhandensein automatisiert eine für die anlagenassoziierte Speicherung und Verarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale geeignete Datenumgebung, insbesondere eine oder mehrere Datenbanken (10) und/oder Dateien erzeugt werden, wobei eine Vorverarbeitung der empfangenen Audiosignaldaten und/oder der Datenmerkmale durchgeführt wird, - wobei mittels der empfangenen anlagenassoziierten Audiosignaldaten und/oder der Datenmerkmale der wenigstens eine maschinelle Lernalgorithmus oder das wenigstes eine neuronale Netz unbeaufsichtigt trainiert werden, um einen Normalzustand der technischen Anlage (2) aufzuzeichnen und eine Unterscheidung von abnormen Audiosignaldaten und Datenmerkmalen zu ermöglichen, und - wobei die Analyse von neuen anlagenassoziierten Audiosignaldaten und/oder Datenmerkmalen, insbesondere in Abhängigkeit von bereits gespeicherten anlagenassoziierten Audiosignaldaten und/oder Datenmerkmalen, mehrstufig in drei unterschiedlichen Stufen erfolgt.Method for continuous acoustic monitoring of at least one technical installation (2), in particular a machine, on a system (1) according to one of the Claims 1 until 6 , - wherein acoustic signals of the technical system (2) detected by the at least one detection unit (3) by means of the at least one acoustic sensor device (3a) are stored as audio signal data and the stored audio signal data and/or data features extracted from at least a portion of the stored audio signal data are transmitted to the cloud-based analysis unit (5) in association with the at least one technical system (2), - wherein the system-associated audio signal data received by the at least one detection unit (3) and/or data features extracted from at least a portion of the system-associated audio signal data are analyzed and processed by the cloud-based analysis unit (5) by means of artificial intelligence, namely at least one machine learning algorithm and/or at least one neural network, - wherein, if these are not present, a data environment suitable for the system-associated storage and processing of the received audio signal data and/or the data features, in particular one or more databases (10) and/or files, are automatically generated, wherein a preprocessing of the received audio signal data and/or the data features is carried out - wherein the at least one machine learning algorithm or the at least one neural network is trained unsupervised by means of the received system-associated audio signal data and/or the data features in order to achieve a normal state of the technical system (2) and to enable a differentiation of abnormal audio signal data and data features, and - wherein the analysis of new system-associated audio signal data and/or data features, in particular depending on already stored system-associated audio signal data and/or data features, is carried out in three different stages.
DE102023124815.4A 2023-09-14 2023-09-14 System for continuous acoustic monitoring of at least one technical installation Active DE102023124815B3 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102023124815.4A DE102023124815B3 (en) 2023-09-14 2023-09-14 System for continuous acoustic monitoring of at least one technical installation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023124815.4A DE102023124815B3 (en) 2023-09-14 2023-09-14 System for continuous acoustic monitoring of at least one technical installation

Publications (1)

Publication Number Publication Date
DE102023124815B3 true DE102023124815B3 (en) 2025-02-27

Family

ID=94483859

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023124815.4A Active DE102023124815B3 (en) 2023-09-14 2023-09-14 System for continuous acoustic monitoring of at least one technical installation

Country Status (1)

Country Link
DE (1) DE102023124815B3 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010057661A1 (en) 2008-11-21 2010-05-27 Precitec Kg Method and device for monitoring a laser machining operation to be performed on a workpiece and laser machining head having such a device
WO2018050438A2 (en) 2016-09-13 2018-03-22 Primetals Technologies Germany Gmbh Use of comprehensive artificial intelligence in primary industry facilities
US20200393811A1 (en) 2019-06-11 2020-12-17 Hitachi, Ltd. Automatic Inspection System
EP3816742A1 (en) 2019-11-01 2021-05-05 Siemens Energy Global GmbH & Co. KG Electrical installation with acoustic monitoring device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010057661A1 (en) 2008-11-21 2010-05-27 Precitec Kg Method and device for monitoring a laser machining operation to be performed on a workpiece and laser machining head having such a device
WO2018050438A2 (en) 2016-09-13 2018-03-22 Primetals Technologies Germany Gmbh Use of comprehensive artificial intelligence in primary industry facilities
US20200393811A1 (en) 2019-06-11 2020-12-17 Hitachi, Ltd. Automatic Inspection System
EP3816742A1 (en) 2019-11-01 2021-05-05 Siemens Energy Global GmbH & Co. KG Electrical installation with acoustic monitoring device

Similar Documents

Publication Publication Date Title
DE60212121T2 (en) GENERATION OF PROCESS-RELATED DATA
DE102006063100B3 (en) PROCESS MODEL IDENTIFICATION IN A PROCESS CONTROL SYSTEM
DE69010193T2 (en) MONITORING.
EP2336070B1 (en) Method for remote diagnosis of a lift assembly and lift assembly for executing the method
DE102014012184B4 (en) Apparatus and method for automatically detecting and classifying acoustic signals in a surveillance area
EP3528074B1 (en) Method for verifying the relationship between a process alarm visually displayed on an operator client of a process control system and an acoustic process alarm of a process object and operator system
DE102015116823A1 (en) Method and apparatus for filtering process control system alarms based on the type of alarm source and / or alarm purpose
DE112017005957B4 (en) Information processing system and information processing method
DE102010025851A1 (en) A method of training a rolling bearing state classification system and a rolling bearing state classification system and a rolling bearing state classification system
WO2022069258A1 (en) Device and method for identifying anomalies in an industrial system for carrying out a production process
DE102004015503A1 (en) Method and device for correcting diagnostic analysis concepts in complex systems
CN119048063A (en) Digital twin visual data processing system for intelligent park
EP4206843B1 (en) Method for automatically creating installation-specific measurement profiles for an insulation monitoring system
DE102010048008A1 (en) Condition monitoring method and system for wind turbines
DE102023124815B3 (en) System for continuous acoustic monitoring of at least one technical installation
EP1250666B1 (en) Method for the automated detection of failure events
WO2023057365A1 (en) Control system for a technical installation with reduced-size views of installation images
EP4163742B1 (en) Method and system for testing an access device using a mobile terminal
WO2021018741A1 (en) Method and device for planning maintenance on at least one machine
EP4027206A2 (en) Method for monitoring states of entities
EP3686697A1 (en) Controller optimisation for a control system of a technical assembly
DE10006313B4 (en) Plant Monitoring System
EP4127848B1 (en) Method and system for diagnosing of messages
DE10253385A1 (en) Device for providing access to data
DE202025106370U1 (en) System for predicting the failure probability of imaging devices

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final