29.04.2021 – Kategorie: Digitalisierung
KI in der Produktion: Wie die Fertigung die Chancen von Machine Learning nutzen kann
Künstliche Intelligenz (KI) gilt als Heilsbringer auch in der Produktion. Doch eine KI ist zwar gut in der Analyse künftiger Zustände (Predictive), hat aber Probleme, auf überraschende Herausforderungen zu reagieren. Was tun?
KI in der Produktion: Wenn man über Künstliche Intelligenz (KI) und Machine Learning spricht und genauer hinschaut, sind manche Anwendungen so klein, dass man kaum auf die Idee gekommen wäre, sie als KI zu bezeichnen; oder ihr Verhalten ist nur schwer durschaubar.
KI in der Produktion: Chance oder Risiko?
Ist das Risiko also zu hoch, KI auf komplexe Produktionsstraßen loszulassen? Oder positiv gefragt: Wie können Verantwortliche in der Fertigung die Chancen von Machine Learning nutzen und trotzdem auf der sicheren Seite bleiben?
Ideal wäre es, die Möglichkeiten der lernenden Algorithmen mit regelbasiertem Expertenwissen zu kombinieren. Denn Machine-Learning-Verfahren können zwar gut künftige Werte prognostizieren, haben aber Schwächen, auf nie dagewesene beziehungsweise ihnen unbekannte Störungen zu reagieren. Regelwerke dagegen ermöglichen sofortige und validierte Reaktionen auf Störungen, können jedoch bestenfalls kurzfristige Trends erkennen. Eine Kombination aus beiden Herangehensweisen kann also zur sicheren und effizienten autonomen Fertigung führen.
Die GFT Technologies SE hat solch ein Kombinationskonzept in Software gegossen – in Form des so genannten „Modell in the Middle“-Ansatzes. Er ist ein Kern der IoT-Plattform Sphinx Open Online und ermöglicht sowohl die autonome Reaktion auf spontane Ereignisse als auch die Nutzung von Machine-Learning-Verfahren. Dafür arbeitet es „in the loop“, das heißt es ist in der Lage in kurzen Abständen in die Vergangenheit zu blicken und daraus Prognosen für die Zukunft zu errechnen.
Wie beim vorausschauenden Fahren
Das ist wie beim vorausschauenden Fahren: Wenn man auf einer Straße in großer Entfernung ein Bremslicht sieht, geht man einfach vom Gas. Leuchtet bei Nebel ein Bremslicht auf, ist schon eine Vollbremsung nötig. Oder, um das Bild noch drastischer auszuführen: Man fährt vorausschauend im normalen Verkehr, bremst und gibt Gas in Abhängigkeit von den Rücklichtern zehn Fahrzeuge weiter vorne. Doch plötzlich springt ein Kind auf die Straße – da nutzt das vorausschauende Fahren natürlich nichts mehr, man muss sofort voll bremsen. Übertragen auf die Softwareanwendung bedeutet das: Die Reaktion „Bremsen“ passiert regelbasiert.
Es gibt also für die KI unvorhersehbare Störungen, die sie nicht prognostizieren kann. Sie kommt an ihre Grenzen, da sie stets auf trainierten Modellen basiert. Ein Modell lässt sich jedoch nur trainieren, indem es einen Fall wiederholte Male „erlebt“. Das geht aber nicht bei plötzlichen Störungen in Produktions- oder Steuerungsabläufen, die deterministische Reaktionen erfordern.
Der daraus resultierende, häufig zu beobachtende Respekt vor dem Einsatz von KI bei autonomen Handlungen hat also gute Gründe: Ein nicht ausreichend trainiertes Modell könnte Fehler machen und falsche Entscheidungen treffen. Oder der Machine-Learning-Algorithmus könnte ausfallen.
Das muss aber kein Problem sein: Die KI lässt sich kontinuierlich überwachen, ob sie plausible Ergebnisse liefert. Wenn das nicht mehr der Fall sein sollte, reagiert die Anwendung mit der Erkenntnis „Nebel zieht auf“, sprich: Es muss nach definierten Regeln gearbeitet werden. So entsteht ein verlässlicher Rahmen, der das zu steuernde System vor Schaden bewahrt.
KI in der Produktion: Das Stammhirn aufbauen
In der Praxis wird meist so vorgegangen, dass – und das ist psychologisch nicht zu unterschätzen – zunächst das regelbasierte System aufgebaut wird. Es lässt sich validieren, bedeutet: man kann eine Störung provozieren und überprüfen, ob das System richtig reagiert – ob das Auto also beispielsweise eine Vollbremsung macht, wenn das angebracht ist.
Man kann testen, ob das Fallback-System so handelt wie ein Experte, deterministisch, validierbar und zuverlässig. Das ist vergleichbar mit dem Stammhirn im menschlichen Gehirn, das grundsätzliche Regeln enthält wie den Mechanismus der Atmung oder den Reflex, den Finger von der heißen Herdplatte zu nehmen. Sobald ein solches System implementiert ist, ist klar: Das Fahren im Nebel funktioniert.
In der Folge wird nachträglich das vorausschauende Fahren, also die KI eingebaut. Dieses Vorgehen hat den Charme, dass selbst dann, wenn die eigentlich intelligente Komponente mal nicht funktionieren sollte, das System weiterhin richtig reagiert. Dieses Modell lässt sich für eine Vielzahl von Anwendungsfällen einsetzen, je nachdem, welches Expertenwissen im Regelwerk hinterlegt ist.
Beispielsweise für das automatische Herunterfahren einer Anlage, weil sie in einem Störungsmodus ist oder eine Gefahr droht. Oder für die Materialbelieferung und Steuerung eines gesamten Shop-floors. Oder für die Regulierung der für die Produktion benötigten Energiemenge.
Energie für ZF
Letzteres war der Startpunkt eines Projektes bei ZF, einen weltweit tätigen Automobilzulieferer, der am Standort Friedrichshafen auf der Suche nach einer Industrie-4.0-Lösung war, um Lastspitzen in der Produktion abzufedern. Daraus entstand ein neues Energiemodell, dessen elementarer Bestandteil die IoT-Plattform Sphinx Open Online ist.
Sie erhält stetig Daten über Stromerzeugung und -bedarf sowie über die Komponenten des Energiesystems und deren komplexe Rahmenbedingungen. Außerdem werden historischen Daten, Wetterprognosen und das Produktionsprogramm fortlaufend mit einbezogen. Daraus ergibt sich für jedes Szenario eine Priorisierung der Komponenten, die ab- oder zugeschaltet werden, damit die Lastgrenze nicht überschritten wird.
Herzstück der Lösung ist der digitale Zwilling aller relevanten Anlagen auf Basis der IoT-Plattform. Damit werden die flexiblen Energieverbraucher und -erzeuger kontinuierlich analysiert. Das Gesamtsystem reagiert autonom auf betriebliche Änderungen, Störungen oder Ausfälle und leitet selbstständig hinterlegte Lösungsszenarien in die Wege.
Eine Lösung kann beispielsweise lauten, dass energieintensive Prozesse bei einem drohenden Ausfall verschoben oder bestimmte Anlagen zeitweise gestoppt werden. Die entsprechenden Regeln werden von Experten hinterlegt und regelmäßig mit den betrieblichen Anforderungen abgeglichen.
Im Detail läuft das Ganze so ab: Dem Last-Management-System wird ein Ziel vorgegeben, in diesem Fall: Lastgrenze nicht überschreiten. Um das Ziel zu erreichen, sammelt es die Daten aller Erzeuger und Verbraucher ein und überprüft sie im Minutenrhythmus. Datenanbindung, Auswertung, Überwachung und Prognoserechnungen werden dabei im „Model in the Middle“ koordiniert. Diese Architektur vernetzt die digitalen Abbilder aller Datenlieferanten bidirektional, so dass sie nicht nur Daten senden, sondern auch aus diesen Daten abgeleitete Optimierungsbefehle ausführen können.
Dank offener Schnittstellen lassen sich an das System Leittechnik-Anwendungen genauso anbinden wie externe Dienste für Temperatur-, Wind- oder Photovoltaikprognosen, um ein umfassendes und jederzeit erweiterbares Energiemanagement zu schaffen.
KI in der Produktion: Ein Resümee
Das Energiemanagement ist nur eines von hunderten denkbaren Szenarien, die sich mit diesem Ansatz lösen lassen. Erfolgsfaktor ist immer die sinnvolle Kombination von Edge- und Cloud-Komponenten. Für rechenintensive Machine-Learning-Verfahren ist die Cloud optimal geeignet, heißt: Sobald ein Superrechner nötig ist, wird er einfach dazugeschaltet. Die Regeln dagegen arbeiten reaktionsschnell mit überschaubarem Rechenaufwand lokal und gegebenenfalls auch ohne Internetverbindung.
Hier greift wieder der Gehirn-Vergleich: Das Stammhirn, das direkt am Nervenstrang hängt und reflexartig reagiert, arbeitet lokal, da es bei der Reaktion auf Millisekunden ankommen kann. Die graue Masse des Großhirns dagegen, die höherwertige Fähigkeiten beherrscht, ist weniger zeitkritisch, muss dafür aber große Intelligenzleistungen vollbringen. Die Cloud kann dafür quasi uneingeschränkte Computing-Power liefern.
Der Autor Siegfried Wagner ist Geschäftsführer der in-integrierte Informationssysteme, Tochterfirma der GFT Technologies SE.
Lesen Sie auch: Hannover Messe: Was T-Systems und GFT für die Fertigung planen
Teilen Sie die Meldung „KI in der Produktion: Wie die Fertigung die Chancen von Machine Learning nutzen kann“ mit Ihren Kontakten: