IoT IoT4 Industry & Business

Mit AutomatedML treibt Weidmüller KI im Maschinen- und Anlagenbau voran

zur Übersicht
AutomatedML von Weidmüller will den Anwender ohne Expertenwissen im Bereich Data Science zum Programmierer machen.

Mit seinem Industrial AutomatedML Tool treibt Weidmüller das Thema Künstliche Intelligenz im Maschinen- und Anlagenbau voran. Das Ziel: der Anwender soll seine Analyse-Modelle eigenständig weiterentwickeln – ohne selbst Data Scientist sein zu müssen.

Seit einigen Jahren schon wird die Fantasie der Ingenieure und Anlagenbauer beflügelt durch die Möglichkeiten der Künstlichen Intelligenz (KI). Die Erhebung und Veredelung von Daten ermöglichen gesteigerte Effizienz und Produktivität. Möglich gemacht werden soll dies mittels Machine-Learning-Algorithmen. Was zunächst sehr deep-tech klingt, bietet konkrete Vorteile für die Smart Industry. Maschinen und Anlagen bzw. Produktionsprozesse erzeugen kontinuierlich Daten. Erfolgreich werden zukünftig Unternehmen sein, denen es gelingt Mehrwert aus diesen Daten zu generieren. Ein Mehrwert erschließt sich vor allem im Bereich der Datenanalyse, so z.B. bei Predictive Maintenance. Vereinfacht ausgedrückt meldet die Maschine selbstständig, wann voraussichtlich ein Ersatzteil benötigt wird. So können Maschinenbauer zukünftig neue datengetriebene Services anbieten und somit neue Geschäftsmodelle etablieren. Produzierende Unternehmen erhöhen ihre Produktqualität und reduzieren Kosten. Methoden der KI und insbesondere des Machine Learnings (ML) sind Werkzeuge, die zur Analyse der Maschinendaten eingesetzt werden. Diese erlauben es, bisher unerschlossene Daten zu verknüpfen und unbekannte Zusammenhänge zu identifizieren. Aber was steckt genau hinter Data Science? Was versteht man eigentlich unter „Automated Machine Learning“?

Eigenständige Modelle erstellen.

Das Konzept von Weidmüller ist der einfache Einsatz von KI mittels einer AutomatedMachine-Learning-Software für den Maschinen- und Anlagenbau. Dazu hat Weidmüller die Anwendung von ML für industrielle Applikationen soweit standardisiert und vereinfacht, dass Domänenexperten ohne Expertenwissen im Bereich Data Science eigenständig ML-Lösungen erzeugen können. Das Software-Tool führt den Anwender durch den Prozess der Modellentwicklung, weshalb Weidmüller hier auch von „Guided Analytics“ spricht. Maschinen- und Prozessexperten können einfach, ohne die Hilfe von Data Scientists, ML-Modelle erstellen, modifizieren und zur Ausführung bringen, um Ausfallzeiten und Fehler zu reduzieren, Wartungsarbeiten zu optimieren und die Produktqualität zu erhöhen. Die Software hilft bei der Übersetzung und Archivierung des komplexen Applikationswissens in eine verlässliche MachineLearning-Anwendung. Dabei fokussiert sich der Experte auf sein Wissen zum Maschinen- und Prozessverhalten und verknüpft dieses mit den im Hintergrund ablaufenden ML-Schritten. Automated-Machine-Learning kann in vielen Bereichen seine Anwendung finden, von der Erkennung von Anomalien, deren Klassifizierung bis zur Vorhersage. Um jedoch Anomalien zu erkennen und daraus Vorhersagen zu treffen, z.B. für das Predictive Maintenance, müssen die Daten erfasst und in Beziehung zueinander gesetzt werden. Prozessrelevante Daten von Maschinen oder Anlagen liegen in der Regel in ausreichendem Umfang vor. Um die Mehrwerte aus diesen Daten zu extrahieren, werden sie mit Hilfe von Machine-Learning-Methoden analysiert und entsprechende Modelle entwickelt.

Einfach durch die Software geführt.

Für den Anwender stellt die Software im Wesentlichen zwei Module zur Verfügung. Mit dem Model Builder kann der Domänenexperte ML-Lösungen zur Anomalieerkennung, Klassifikation und Fehlervorhersage erzeugen. Entscheidend hierbei ist das Wissen der Applikationsexperten, denn sie haben die Erfahrung, wie das reguläre oder das anormale Verhalten ihrer Maschinen und Anlagen aussieht. Die Experten erkennen direkt in der übersichtlichen Darstellung der Daten Abweichungen vom “normalen” Verhalten, können diese detektieren und klassifizieren und so für die Modellbildung definieren. Der mit dem Applikationswissen angereicherte Datensatz ist die Eingangsgröße für das anschließende automatische Generieren der ML-Modelle. Dabei entstehen ML-Lösungen, die mit den von Data Scientists manuell erstellten Lösungen durchaus vergleichbar sind. Dem Anwender werden mehrere Modelle vorgeschlagen, die auf unterschiedlichen Algorithmen und Werteparametern beruhen. Am Ende des Modellbildungsprozesses wählt der Nutzer das für seine Applikation am besten geeignete Modell nach bestimmten Kriterien wie Modellgüte, Ausführungszeit oder seinen bevorzugten Parametern aus. Das ausgewählte Modell kann exportiert und in die Ausführungsumgebung überführt werden. Im zweiten Modul der AutoML-Software erfolgt schließlich die Ausführung der Modelle an der Maschine – on premise oder cloudbasiert – in der sogenannten Laufzeitumgebung.

Entscheidende Mehrwerte.

Die Möglichkeiten des Machine Learnings werden mit dem immer breiter werdenden Spektrum größer. Das macht es nicht unbedingt einfacher, ohne spezifische Data-Science-Kenntnisse, die bestmögliche Erstellung und Implementierung sowie die operative Anwendung von ML zu erreichen. Mit anderen Worten: Die Erstellung von ML-Modellen ist in der Regel zeitaufwändig und kostenintensiv in der Umsetzung. In der klassischen Herangehensweise zur Einführung von ML werden verschiedene technische Machbarkeitsstudien, sogenannte Proofof-Concepts (PoCs), durchlaufen, um passende ML-Use-Cases zu finden. Darin werden die mit ML erzielbaren Ergebnisse von Maschinenexperten validiert und deren Wirtschaftlichkeit überprüft. Durch die ML-Automatisierung mit dem Weidmüller-Industrial-AutoML-Tool ergibt sich eine hohe Zeitersparnis für die Erstellung und den Vergleich von Modellen und Ergebnissen, die time-to-market wird verkürzt. Die Aufgaben können deutlich rationeller umgesetzt werden, was wiederum wertvolle Ressourcen spart. Gleichzeitig profitiert der Nutzer auch von den jeweils aktuellsten Entwicklungen aus dem Machine-Learning-Umfeld, die kontinuierlich in das Tool einfließen. Vor allem aber liefert das Tool einen entscheidenden Vorteil: Die Analyse der Daten, die in der Regel von einem Data Scientist eines externen Partners oder aus dem eigenen Unternehmen durchgeführt werden muss, liefert das Tool – und wird „lediglich“ gefüttert mit dem Applikations-Know-how des Experten. Mit anderen Worten: Das Know-how über die Maschine und deren Anwendung fließt unmittelbar in die Modellbildung ein. Die Symbiose aus Fachexpertise zur Maschine und DataScience-Know-how – was das Tool mitbringt – liefert so schnell und einfach Ergebnisse. Ohne umfangreiche Schulung. Ohne Zukauf von weiterem Know-how. Bereits in einer Stunde lässt sich ein Modell aufsetzen, das dann automatisiert Anomalien erkennt. Einfacher geht es kaum.

Lösungen für ausgewählte Applikationen.

Gibt es nun wirklich diese eine Lösung, die auf alle Anwendungen passt und automatisiert die gewünschten Ergebnisse liefert? Sicher nicht, hier ist eine differenziertere Sichtweise nötig. Auch wenn mit zeitreihenbasierten Daten und gängigen ML-Algorithmen gearbeitet wird, so liegt der Schlüssel zum Erfolg im gezielten Zuschnitt der ML-Automatisierung durch die sukzessive Verkleinerung des Suchraumes. Je breiter der Anwendungsbereich sein soll, desto allgemeiner müssen die ML-Pipelines ausgestaltet sein. Hier gilt es den Spagat zu schaffen, möglichst viele Anwendungen erfassen zu können, aber spezifisch genug zu sein mit Blick auf die Erreichung ausreichender Modellgüte und das bei immer noch endlichen Rechenressourcen. Es ist offensichtlich, dass die Überwachung eines Kühlsystems basierend auf Steuerungsdaten eine andere Herangehensweise benötigt als die Überwachung eines Lagers mit Hilfe von Schwingungsdaten. Die besten Ergebnisse werden erreicht, wenn die ML-Automatisierung auf einen möglichst spezifischen Prozess zugeschnitten werden kann, ohne zu kleinteilig zu werden. Werden also etwa spezifische ML-Lösungen für die in der Intralogistik üblichen Regalbediengeräte aufgebaut, so können hier – bei entsprechender Datenlage – sehr gute Ergebnisse erzielt werden. Auch für Cluster wie Pumpen/Kompressoren/Gebläse sind die Vorteile von spezifischen ML-Lösungen offenkundig. Der Nutzen der automatisierten Erstellung von ML-Lösungen kommt hier voll zum Tragen, von der Vermeidung möglicher individueller Fehler in der manuellen Herangehensweise bis zum erzielten Zeitgewinn. Es zeigt sich, dass gerade solche applikationsspezifischen Lösungen sehr gute Ergebnisse liefern, insbesondere wenn Best Practice-Erfahrungen mit einfließen. Darüber hinaus kann der Anwender die Ergebnisse aus dem Algorithmus sehr gut nachvollziehen. Es ist eben keine Black Box, die scheinbar willkürliche Ergebnisse ausspuckt. Durch die einfache Nachvollziehbarkeit besteht die Möglichkeit für den Anwender, die Modelle und damit die Ergebnisse über die Zeit durch seinen Input weiter zu optimieren, beispielsweise durch eine Verfeinerung des Feature Engineerings oder das Hinzufügen neuer Annotationen, die besonders relevante Zeitbereiche in den Sensordaten darstellen und für künftiges Modelltraining gezielt verfügbar machen. Das Industrial-AutoML-Tool ist Teil des umfassenden zukunftsorientierten und aufeinander abgestimmten IoT-fähigen Portfolios von Weidmüller. Hiermit gelingt der einfache Weg ins Industrial IoT – „from data to value“, sowohl für Greenfield- als auch für Brownfield-Applikationen. Die Lösungen aus den Bereichen Datenerfassung, -vorverarbeitung und -kommunikation bilden dabei die Infrastruktur, um darauf aufbauend die logische Verknüpfung und Auswertung der gesammelten Informationen – die Datenanalyse – aufzusetzen. Eines ist dabei klar: Digitalisierung ist kein Selbstzweck. Die Mehrwerte erschließen sich im konkreten Anwendungsfall: Ob es um die Sicherstellung der Verfügbarkeit mit Condition Monitoring geht oder die Planbarkeit von Servicetechnikereinsätzen über Remote Maintenance. Nicht zuletzt neue Geschäftsmodelle entwickeln durch den Einsatz Künstlicher Intelligenz ohne dabei selbst Data Scientist zu sein – Weidmüller gestaltet gemeinsam mit und für den Anwender die digitale Transformation: Einfach und effizient.

Lesen Sie dazu auch das Interview mit Dr. Markus Köster, Head of R&D Industrial Analytics bei Weidmüller

 

 

 

 

Verwandte Artikel