Sensor und Kamera-basierte Fehlererkennung in der Industrie
Das Ziel ist die Entwicklung eines Condition Monitoring Systems, das durch den Einsatz eines KI-basierten Autoencoder Modells komplexe Sensordaten Verläufe vorhersagen und Anomalien in diesen Erkennen kann. Dabei werden spezielle Bedarfe der Glasverarbeitenden Industrie mitbedacht, wie die Beobachtung der Qualität des Lichtbogens oder die Überwachung der Oberflächetemperatur der Glasschmelze, die mit herkömmlichen, am Markt befindlichen Methoden nicht erfassbar sind. Eine weitere Innovation ist die Kombination von gleichzeitiger Sensordaten und Bilddatenauswertung. Dies ermöglicht auch Anlagenfehler oder drohende Ausfälle zu detektieren, die nur visuell sichtbar sind und nicht mit Sensoren abgebildet werden können (z.B. Wärmebild Temperaturverteilung). Die zu entwickelnden Messmethoden im Bereich Glasindustrie und die intelligente Auswertelogik erlauben es, Produktionsausfälle mit einer 90% Genauigkeit vorherzusagen und Anlagenwerte bis zu 500 Zeitintervalle (s, m oder h) in die Zukunft zu bewerten.
Konkret erforscht und konzeptioniert die Ernst-Abbe-Hochschule Jena den Algorithmus zur Anomaliedetektion, dessen Grundlage ein künstliches neuronales Netz in Autoencoder-Architektur darstellt. Dafür sollen mehrere Varianten mit einer unterschiedlichen Anzahl an Neuronen-Schichten entwickelt werden und ein optimales Trainingsverfahren erforscht werden. Der Autoencoder soll im normalen Anlagenbetrieb lernen, beliebig viele Eingabewerte in die Zukunft vorherzusagen und so miteinander zu verknüpfen. Durch diese Vorhersage wird eine Detektion von Anomalien ermöglicht, wenn die Vorhersage und der tatsächlich gemessen Wert eine Differenz aufweisen. Das Autoencoder-Modell soll auch in der Lage sein zu lernen, wie Kamerabilder im Normalbetrieb aussehen und somit auch visuelle Anomalien erfassen können. Dafür wird erforscht, wie ein einfacher Autoencoder durch den Einsatz von 3D Convolutional Layern zur Detektion von Video-Anomalien umfunktioniert werden kann. Außerdem sollen Methoden aus dem Bereich explainable AI entwickelt werden, die es ermöglichen, die Vorhersagegenauigkeit zu bestimmen. Das sog. “Uncertainty” Maß im KI-Bereich ist ein Indikator dafür, wie sicher eine Vorhersage ist. Im Rahmen dessen sollen Algorithmen untersucht werden, die es erlauben, das eingesetzte Autoencoder-Modell erklärbar zu machen. Dies bedeutet, dass nicht nur eine Ausgabe erfolgt, ob eine Anomalie (=Anlagenfehler) vorliegt, sondern auch durch welchen Sensor diese hervorgerufen wird und auf welche Ursache dies zurückzuführen ist.