Werkzeugkasten

Usecases

Anwendungen

Die herausforderung

Statistische Versuchsplanung. Systematisch zur Erkenntnis.

Um den Einfluss von grundsätzlichen Änderungen am Prozess zu bestimmen, sind gezielte Versuche notwendig. Um schnell Ergebnisse zu erreichen,  wird in der industriellen Praxis häufig ein unstrukturierter Versuch-und-Irrtum-Ansatz genutzt. Dieses Vorgehen sprengt jedoch regelmäßig den Kosten- und Zeitrahmen und führt im schlimmsten Fall zu Fehleinschätzungen auf Basis statistisch nicht signifikanter Ergebnisse, deren inhaltliche Aussagereichweite zudem völlig unklar ist.

Gegenüber diesem intuitiven Vorgehen besitzt die statistische Versuchsplanung große Vorteile. Mit Hilfe dieser Methode entstehen reproduzierbare und belastbare Ergebnisse, wobei die Anzahl der Einzelversuche nur so groß ist wie unbedingt nötig. Weil der erforderliche Versuchsumfang bereits vorher festgelegt wird, ist der Aufwand besser abschätzbar und die strukturierte Vorgehensweise führt zu einer besseren Dokumentation und einem nachhaltigen Wissensmanagement. Anwender berichten von einer Verkürzung der Projektlaufzeiten und damit einer Reduzierung der Versuchskosten um 40-75% bei konsequenter Nutzung der statistischen Versuchsplanung.

Datenanalysen. Aufdecken unbekannter Einflussgrößen.

Die zunehmende Verfügbarkeit von Messtechnik und Speicherkapazitäten führt zu wachsenden Datenarchiven, welche jedoch aus Zeit- und Methodenmangel oftmals nicht analysiert werden. Solche historischen Daten sind jedoch oft von hohem Wert, der mittels detaillierter Datenanalysen sichtbar gemacht werden kann. Auf Grund der vorherrschenden komplexen Systeme, welche eine Vielzahl von Messgrößen und Datenpunkten enthalten, ist die Identifikation relevanter Zusammenhänge sehr anspruchsvoll. Insbesondere die Untersuchung von mehreren hundert oder tausend Dimensionen, erfordert ein strukturiertes Vorgehen mit den passenden Methoden. Schließlich müssen die Erkenntnisse derartiger Analysen in praxistaugliches Wissen übersetzt werden.

Methoden des maschinellen Lernens sowie moderne statistische Methoden sind in der Lage, mit einer hohen Anzahl von Dimensionen umzugehen, in einer gut interpretierbaren Weise darzustellen und auf die wesentlichen Aspekte zu reduzieren. Die eingesetzten Methoden und Modelle sind u.a. Regressionsmodelle, neuronale Netze, Verfahren zur Dimensionsreduktion (Hauptkomponentenanalyse (PCA), Clustering) oder Regressions- und Entscheidungsbäume. Den menschlichen Experten wird damit ein mächtiges Werkzeug für die technische Interpretation von historischen Daten an die Hand gegeben.

 

Detektion von Anomalien. Maschinelles Lernen gegen die Datenflut.

Moderne industrielle Prozesse werden durch unzählige Sensoren und Kennzahlen überwacht, sodass der Betreiber hunderte von relevanten Größen überwachen und angemessen auf Abweichungen reagieren soll. Da die Informationsflut durch neue, günstigere Sensoren und bessere Datenintegration immer weiter steigen wird, ist eine wertschöpfende Nutzung der Daten nur mit Hilfe von intelligenten Auswerteverfahren möglich. Aus diesem Grund liegt in der Detektion von Anomalien im Produktionsprozess eines der größten industriellen Potentiale von maschinellen Lernverfahren. Maschinelle Assistenzsysteme betrachten alle Daten des Prozesses als Gesamtheit und unterscheiden automatisch zwischen wichtigen und unwichtigen Parametern. Außerdem sind sie in der Lage Wechselwirkungen zu erkennen, welche bei der eindimensionalen Betrachtung einzelner Werte verborgen bleiben.

Das Assistenzsystem überwacht und filtert alle anfallenden Daten und alarmiert das Anlagenpersonal nur bei Anomalien, welche den Sachverstand und die Kreativität eines Menschen erfordern.

Zustandorientierte Instandhaltung. Prognose von Ausfällen.

Im Bereich der Instandhaltung sind Betreiber mit dem Dilemma konfrontiert, dass einerseits die Maschinen- und Anlagenverfügbarkeit stetig steigen soll, während andererseits die Instandhaltungskosten gesenkt werden sollen. Aus diesem Antrieb heraus hat sich ein großes Anwendungsfeld für maschinelles Lernen entwickelt: die zustandsorientierte Instandhaltung. Diese greift ein, wenn der ideale Zeitpunkt für den Wechsel vorliegt – also bevor es durch einen Ausfall zu größeren Schäden und Produktionsstillständen kommt, aber erst wenn die erreichbare Laufzeit ausgeschöpft ist.

Die Bestimmung dieses idealen Zeitpunktes wird durch ein Condition Monitoring realisiert, welches auf der Messung von mit dem Abnutzungsgrad korrelierten Größen beruht. Im Falle von rotatorisch angetriebenen Betriebsmitteln wie Pumpen oder Turbinen sind beispielsweise charakteristische Schwingungssignale ein zentrales Indiz für einen nahenden Ausfall. Die Messungen werden mittels maschineller Lernverfahren ausgewertet und der Ausfallzeitpunkt prognostiziert. Mit dieser Methode wird die Laufzeit der Equipments ausgereizt, während die Folgekosten von ungeplanten Stillständen minimiert werden.

Softsensoren. Vorhersage von nicht messbaren Parametern.

Softsensoren werden genutzt um nicht messbare Qualitätsparameter online zugänglich zu machen und auf diese Weise ein steuerndes Eingreifen während des Produktionsprozesses zu ermöglichen. Das Wort ‚Softsensor‘ setzt sich aus ‚Software‘ und ‚Sensor‘ zusammen und soll verdeutlichen, dass es sich hier nicht um einen physisch existierenden Sensor handelt, sondern vielmehr um eine berechnete Prognose des Zielwertes.

Ein Beispiel: Die Ausbeute eines chemischen Herstellungsverfahren kann nur ermittelt werden, indem die Konzentration der werthaltigen Komponente laboranalytisch bestimmt wird. Dies bedeutet einen erheblichen Zeitverlust um auf Störungen reagieren zu können. Zur Lösung des Problems wird aus historischen Daten ein Softsensor entwickelt. Die Prognose wird dabei aus den kontinuierlich gemessenen Größen Leitfähigkeit, dem pH-Wert, der Trübung und der Färbung errechnet und stimmt zu 95 % mit der laboranalytisch bestimmten Konzentration überein. Nun kann bereits während des Produktionsprozesses ohne Verzug steuernd eingegriffen werden, um die optimale Ausbeute zu erzielen.