Condition Monitoring: Maschinenüberwachung von morgen

21. Juni 2016 in     

Der Fachkräftemangel erfordert den Einsatz neuer Technologien auch in der Instandhaltungsbranche. Verschiedene Technologien haben heute einen hohen Reifegrad und tiefe Kosten erreicht. Das hier vorgestellte Konzept zur Maschinenüberwachung nutzt viele dieser Technologien; Internet of Things, Big Data, Data Mining und Cloud Computing.Text: Dr. Rudolf Tanner*

Bild-Rudolf-Tanner2
Eine temporäre Installation sammelt Lagervibrationsdaten an einem Generator. Bild: zVg

Durch das Zusammenspiel dieser Technologien lässt sich ein neuartiger Service, ein vollautomatisiertes Condition Monitoring, kostengünstig realisieren. Die hier gezeigte Anwendung befasst sich mit Rotationsmaschinen wie Generatoren, Motoren und Getrieben und deren Lager im Speziellen. Viele andere Einsatzgebiete sind auch denkbar.

Die Ziele der Maschinenüberwachung (MÜ) sind die Zustandsüberwachung (Condition Monitoring), Wartungsvorhersage (Predictive Maintenance) und zustandsbasierte Wartung (Condition-based Maintenance). Eine Studie des US Electric Power Research Institute für ausgesuchte Branchen hatte ergeben, dass die regelmassige Wartung rund USD 24/PS, die reaktive Wartung USD 17/PS und die vorbeugende Wartung USD 9/PS kostet. Neben steigender Verluste durch Produktionsausfälle ist dies auch ein Treiber für das erneute Interesse an der Wartungsvorhersage.

Bei der traditionellen Vibrationsüberwachung bei Maschinen geht es darum, die Rohdaten mittels einer Frequenzanalyse, zum Beispiel einer Fast Fourier Transformation (FFT), zu untersuchen. Abbildung 1a zeigt exemplarisch das Rohsignal eines defekten Lagers und Abbildung 1b dessen FFT-Spektrum. Die roten Linien stellen die sogenannten Fehlerfrequenzen und deren Harmonische dar, welche der Lagerhersteller liefert.

Durch eine Sichtprüfung der FFT, das heisst durch die Begutachtung der Signalleistung an den Fehlerfrequenzen, kann man mögliche Fehler identifizieren. Aus dem Muster des Spektrums lassen sich dann Rückschlüsse auf den möglichen Lagerdefekt ziehen, weil beispielsweise die Defekte bei einem Wälzlager spezifische Frequenzmuster haben. Um Kosten zu senken, möchte man diesen manuellen Bewertungsprozess automatisieren, zum Beispiel mittels Data Mining.

Von der Quelle zur Senke
Am Beispiel eines Motors beschreiben wir den Datenfluss. Ein Sensor ist auf einer Lagerschale montiert und liefert ein analoges Signal der Vibrationen. Dieses Signal wird über Kabel einer Elektronik zugeführt, welche das Signal filtert und digitalisiert. Diese digitalen Rohdaten werden in einem Prozessor weiter vorverarbeitet und dann mittels Funk an einen Rechner in der Cloud geschickt (siehe Abbildung 2). Es werden keine Daten durch das IT-Netz des Kunden geschickt. Der Prozessor kann auch Alarme generieren und versenden, wenn zum Beispiel die Rohdaten Signalmuster enthalten, die auf einen plötzlichen Schaden oder Schock hindeuten.

Der Cloudrechner bearbeitet die Alarme oder (im Normalfall) analysiert die Rohdaten und generiert eine Vielzahl von statistischen Kennwerten, welche Aufschluss über den Lager- oder Maschinenzustand geben. Das anschliessend verwendete Data Mining ist neuartig und wird nun vertieft erläutert.

Data Mining
Das nach Daten graben und Big Data sind in aller Munde, siehe Deep Blue, Watson oder AlphaGO. Unsere Algorithmen basieren auf Deep Neural Networks (DNNs), das sind Neuronale Netzwerke (NN) mit mehreren Schichten (Hidden Layers). Abbildung 3 zeigt exemplarisch den Aufbau eines NN mit nur einem Hidden Layer. DNNs haben typischerweise drei oder mehr Hidden Layers. Die Anzahl von Eingangselementen und Neuronen g(.) ist ein Designparameter und muss oftmals heuristisch ermittelt werden. Die Anzahl der Ausgangsneuronen hängt von der Fragestellung ab. Ein Neuron genügt um beispielsweise zwischen gut und schlecht unterscheiden zu können. Wenn man weitere Aussagen machen will, wie den Defekttyp zu klassifizieren, kann der Ausgang mit zusätzlichen Neuronen erweitert werden.

Ein NN kann man in Vektor- und Matrizenform beschreiben, was die Datenverarbeitung mit Grafikprozessoren nahelegt [1]:

Formel

Die Formel (1) beschreibt die Funktion eines NN im Gebrauch, das heisst im Live Betrieb. Die Matrizen W und V enthalten die Gewichte zwischen den Layers und   Formel2 sind die Ein- und Ausgangsvektoren. Die Gewichte kann man sich wie Verstärker vorstellen, welche die Verbindungen zwischen den Knoten mehr oder weniger intensivieren, und somit die Signale besser oder schlechter weiterleiten. Die Funktion g(.) ist eine von vielen möglichen Funktionen, welche das Verhalten eines Neurons modellieren. Eine sigmoid Funktion (S-Kurve) wird oftmals verwendet. Damit das NN nützliche Werte ausgibt muss es trainiert werden. Dabei werden die Gewichte so angepasst, dass das Problem mit einem Minimum an Fehlern gelöst wird, beziehungsweise das Verhalten des Systems am Besten abgebildet wird. Das Trainieren ist ein iterativer und langsamer Prozess, für welchen es verschiedene Algorithmen gibt, der bekannteste heisst Backpropagation [1,2].

Die Formel (1) kann man nun erweitern, indem man zusätzliche Verschachtelungen von g(.) einfügt, die weitere Hidden Layers beschreiben. Der Mehrwert solcher zusätzlicher Hidden Layers kann man erst seit 2006 nutzen. Damals wurde eine Methode veröffentlicht, mit welcher das Fehlersignal nicht schwindet (bzw. die Gradienten) wenn es durch mehrere Layer geht. Dieses Problem wird umgangen, indem man die Layers zuerst einzeln trainiert und dann das ganze Netzwerk feinabstimmt [3]. Der Vorteil von DNN beziehungsweise der Vorteil von mehreren Hidden Layers soll anhand eines Beispiels aus der Bilderkennung verdeutlicht werden. Das erste Hidden Layer fokussiert auf Farben oder auf hell und dunkel, das nächste Layer erlernt einfache Formen wir Geraden oder Kanten, und dann werden komplexere Formen im dritten Layer erlernt. Im vierten Layer trainiert das Netzwerk, aus welchen Formen und Farben sich ein Gesicht, Auto oder Tier zusammensetzt. Das Training der einzelnen Layers muss dementsprechend sichergestellt werden.

Weil normale NN nur ein Hidden Layer besitzen, mit unter Umständen vielen Neuronen, müsste diese Struktur alle diese Informationsinhalte erlernen. Dass hat man bis dato noch nicht erreicht. Der Ansatz des Aufspaltens der Komplexität einer Aufgabe in Teilaufgaben hat sich bewährt, und funktioniert hervorragend bei Bildern und wird auch bei Suchmaschinen eingesetzt. Die Aufspaltung eines Signals, in unserem Falle eine Zeitserie und kein Bild, kann man auch mit Audiodaten, wie Aufnahmen von Vibrationen oder Sprache, machen.

Des Weiteren können DNNs auch verschiedene Funktionen wahrnehmen. Ein DNN kann zur Vorhersage, Detektion oder Klassifikation eingesetzt werden. Dies geschieht mittels eines entsprechenden Algorithmus. Dem DNN werden sequentiell viele Datensätze eingegeben, und je nach Betriebsmodus (Training oder Live) werden diese Daten im DNN unterschiedlich verarbeitet.

Beim Training wird das DNN mit repräsentativen Daten gefüttert. Idealerweise sagt man dem DNN noch, welche Eigenschaft ein Datensatz hat: gut, defekt, etc. Ist das DNN dann live, verarbeitet es die anfallenden Daten und bestimmt deren Eigenschaft, so wie es dies erlernt hatte. Fehler treten dann auf, wenn ein neuer Datensatz ein Signalmuster enthält, welches zu keinem der erlernten Muster annähernd passt. Dann kommt es darauf an wie der Algorithmus solche unbekannten Muster bewertet.

Daraus ergibt sich die Forderung, dass man repräsentative Daten benötigt, die auch die Variabilität der zu erwartenden Daten abdecken. Das bedeutet typischerweise, dass man sehr viele Trainingsdaten von vielen Anlagen benötigt (in unserem Falle Rotationsmaschinen), um alle möglichen Muster abdecken zu können. In einem 18-monatigen Pilotversuch sammeln wir Vibrationsdaten von Maschinenlagern und sind weiterhin auf der Suche nach Anlagen. Abbildung 4 zeigt eine solche Anlage mit unserer temporären Installation.

Zukünftige Maschinenüberwachung
Der Automationsgrad wird auch in der Wartung steigen und diese neuartigen Verfahren werden ihren Teil dazu beitragen. Damit die Branche von den neuen Methoden Nutzen ziehen kann, braucht es zuerst qualitativ hochwertige Daten in grossen Mengen. Zum Vergleich, das erfolgreiche Training zur Erkennung von handgeschriebenen Zahlen nutzt eine Datenbank mit 60‘000 Bilder, eine andere hat 2,5 Millionen Bilder für die Identifikation von Bildszenen!

Die grosse Herausforderung für die Branche ist, ein kosteneffizientes System zu haben. Das nötige Know-how kann man sich unter anderem über Experimente und Feldversuche erarbeiten. Die noch offenen Fragen sind vielfältig. Zum einen sollen nicht unnötig Daten erstellt werden, um langfristig Speicherung und Pflegeaufwand Einhalt zu gebieten. Andererseits müssen die Daten die notwendigen Informationen enthalten. Des Weiteren stellt sich die Frage, auf welche Signalmuster (Features) DNNs am Besten ansprechen und die erwarteten Ergebnisse liefern. Erste Versuche sind vielversprechend und zeigen, dass DNNs eine Alternative zur manuellen Datananalyse sein können. Um den laufenden Pilotversuch zu beschleunigen werden noch mehr Daten und Anlagen gesucht.

Zusammenfassend sei gesagt: eine Maschinenüberwachung muss robust, flexibel und sicher sein, um akzeptiert zu werden. Deep Neural Networks haben das Potential die automatisierte MÜ Wirklichkeit werden zu lassen. Man darf gespannt sein, wann entsprechende Produkte auf den Markt gelangen.

Quellen
[1] G. Vachtsevanos et al., Intelligent fault diagnosis and prognosis, Wiley, 2006.

[2] http://www.heise.de/ct/ausgabe/2016-6-Vom-Siegeszug-der-lernenden-Software-3120584.html

[3] M. Längkvist, Modeling time-series with deep networks, Örebro Studies, 2014.

Bild-Rudolf-Tanner
Dr. Rudolf Tanner

 

*Dr. Rudolf Tanner, Geschäftsführer der mechmine GmbH.

Weitere Artikel aus