Predictive Quality: Der Weg zu weniger Ausschuss

Verantwortlicher Redakteur:in: Rainer Trummer 4 min Lesedauer

Anbieter zum Thema

Das Qualitätsmanagement (QM) gleicht vielfach einem Blick in die Vergangenheit: Gefertigte Bauteile werden analysiert, um die Qualität der nächsten Teile zu verbessern. Predictive Quality ermöglicht dagegen den Blick in die Zukunft, um schneller und effizienter zu produzieren – vorausgesetzt, die vorhanden Daten werden sinnvoll auf einer Plattform wie einem Manufacturing-Execution-System (MES) integriert. Entsprechende Lösungen sind bereits im Einsatz.

(Quelle:  Aumm graphixphoto/Shutterstock)
(Quelle: Aumm graphixphoto/Shutterstock)

Die Rückwärtsgewandtheit eines herkömmlichen Qualitätsmanagements führt zu einem hohen Aufwand und vermeidbaren Kosten. Nicht nur, dass Ausschussteile die Produktivität im Allgemeinen verringern, für die Qualitätssteigerung von Produkten und Fertigungsprozessen muss auch Zeit und Personal investiert werden – und das immer wieder, denn schließlich handelt es sich um einen kontinuierlichen Verbesserungsprozess. Wüssten jedoch Fertigungsplaner, Schichtleiter oder Werker schon im laufenden Fertigungsprozess, wie die Produktqualität ausfallen wird, könnten sie rechtzeitig Maßnahmen ergreifen, um sich anbahnende Abweichungen zu korrigieren, bevor es zu Ausschussteilen kommt. Hier setzt Predictive Quality an.

Digitales Abbild erkennt Abweichungen

Angenommen ein Unternehmen aus der Kunststoffindustrie produziert tagtäglich unzählige Kleinteile, die ausgeliefert und weiter verbaut werden. Die Produktqualität wird anhand einer Quality Rate (PPM) ermittelt. Diese Kontrolle ist aufwendig. Um die Transparenz zu erhöhen, müsste die Frequenz der Qualitätskontrollen erhöht werden, wodurch jedoch wiederum der Aufwand größer wird. Letztendlich wird die Qualitätskontrolle durch den Kosten-Nutzen-Faktor limitiert.

Predictive Quality bricht das Spannungsfeld zwischen qualitativen Anforderungen und Kosten auf, indem zur Qualitätsanalyse historische Produkt- und Prozessdaten in Echtzeit herangezogen und extrapoliert werden. So entsteht anhand produkt- und prozessspezifischer Daten ein digitales Abbild, das permanent überwacht wird, um Abweichungen zu erkennen. Auf diese Weise dient die datengetriebene Qualitätsprognose als Grundlage für die Entscheidungen von Fertigungsplanern oder Schichtleitern. Maschinenwerker erhalten dadurch die Möglichkeit, direkt in den Fertigungsprozess einzugreifen, anstatt die Qualität eines Teils erst am Prozessende zu kontrollieren.

Prozess- und Produktqualität erhöhen sich durch Predictive Quality

Wie kann aber aus historischen Daten eine Vorhersage über die zukünftige Produkt- und Prozessqualität abgeleitet werden? Wie wird aus einer deskriptiven, beschreibenden, eine präskriptive, vorhersagende Analyse? Durch künstliche Intelligenz (KI). Mit den Daten der digitalen Abbilder werden statistische Hochrechnungen vorgenommen, um darin wiederkehrende Muster zu identifizieren, die auf zukünftige Qualitätsabweichungen hinweisen.

An diesen Hochrechnungen wurde im Projekt „Quality Data based Risk Assessment for Industry 4.0“ (quadrika) geforscht, an dem auch gbo datacomp beteiligt war. Im Rahmen dieses vom Bundesforschungsministerium geförderten Projekts wurde ein Quality-Data-Modul (QDM) entwickelt, das als Add-on eines MES Prozesse online überwacht, um Prozess- und Produktrisiken zu vermeiden, noch bevor sie auftreten. Dadurch erhöht sich die Prozess- und Produktqualität und Ausschüsse werden reduziert bzw. minderwertige Bauteile nicht weiterverarbeitet.

Datenintegration als zentrale Herausforderung

Es dürfte auf der Hand liegen, dass Predictive Quality ohne online Daten nicht möglich ist – je mehr, desto besser, denn je realistischer das digitale Abbild ist, desto höher ist die Wahrscheinlichkeit, dass die Qualitätsprognosen zutreffen. Dafür muss nicht nur das zu fertigende Produkt anhand zahlreicher Daten digital abgebildet werden, sondern auch die einzelnen Fertigungsprozesse. Dazu braucht es Daten wie etwa über die Verfügbarkeiten von Maschinen, Werkzeugen, Rüstzeiten, Temperaturen, Geschwindigkeiten, Drücken usw. Viele produzierende Unternehmen verfügen teilweise über derartige Daten in einzelnen Anwendungen. So liegt die Herausforderung weniger in der Größe der Datenmenge als vielmehr in der richtigen Auswahl, der Datenaufbereitung und vor allem in der Datenintegration. Dabei gilt es auch zu berücksichtigen, dass die Prozessqualität eine wichtige, aber nicht die einzige Voraussetzung für eine hohe Produktqualität ist. Die angewendete Fertigungstechnologie kann ebenfalls auf die Produktqualität einwirken, selbst dann, wenn alle Prozesswerte optimal eingestellt sind.

(Predictive Quality sorgt für einsatzbereite Präzisionswerkzeuge. Bild: Pixel B/Shutterstock)
(Predictive Quality sorgt für einsatzbereite Präzisionswerkzeuge. Bild: Pixel B/Shutterstock)

Ausreichend Spielraum für adäquate Reaktionen

Aus dieser gesamtheitlichen Betrachtung geht hervor, dass eine hochwertige Daten­integration ein zentraler Punkt ist, bevor Predictive Quality angewendet werden kann. Wie bei allen Prognosen nimmt auch hier die Güte der Vorhersage für die Prozess- und Produktqualität ab, je weiter die Prognosen in die Zukunft reichen. Aber: Je länger der Prognosehorizont ist, desto einfacher ist es, auf Qualitätsabweichungen zu reagieren (oder: zehn Meter vor dem Ziel kann man halt keine Pferdewetten mehr abschließen). Unternehmen müssen also das Spannungsfeld zwischen Prognosehorizont und -güte austarieren, um ausreichend Spielraum für adäquate Reaktionen zu erhalten.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Predictive Quality: Qualitätsprognosen in Echtzeit entwickeln

Grundlage für die Nutzung von Predictive Quality ist das MES. Je mehr Daten im System vorhanden sind, desto präziser ist das digitale Abbild und damit auch die Qualitätsvorhersage. Aber auch hier ist die Menge an Daten nicht der einzige Faktor. Die unterschiedlichen Daten aus zahlreichen Quellen müssen vereinheitlich und miteinander verknüpft werden. gbo datacomp kann hierbei einerseits auf die Erfahrungen aus dem Forschungsprojekt quadrika und andererseits auf das Know-how aus zahlreichen MES-Implementierungen zurückgreifen. Mit bisoftMES verfügt gbo über eine Datenplattform, die unabhängig von vorhandenen QM-Lösungen alle wichtigen Daten sammelt, verdichtet und visualisiert, um daraus anhand präskriptiver Analysen Qualitätsprognosen in Echtzeit zu entwickeln, die im laufenden Fertigungsprozess zur Verfügung gestellt werden.

Integrationsplattform individuell skalierbar

Natürlich kann das Ideal der horizontalen und vertikalen Datenintegration nicht von heute auf morgen erreicht werden. Daher ist bisoftMES modular aufgebaut, sodass die Integrationsplattform anhand der Bedürfnisse und Anforderungen des jeweiligen Unternehmens skaliert werden kann. Auf diese Weise können zum Beispiel nach einer Test-Fertigungslinie weitere Linien sukzessive in die Plattform integriert werden. Ebenso lassen sich Schritt für Schritt immer mehr Daten, auch aus Unternehmensbereichen abseits der Produktion, integrieren, um die Genauigkeit des digitalen Abbilds und damit der Vorhersagen zu erhöhen. Letztendlich können die Vorteile der Predictive Quality nicht nur in der Fertigung zum Tragen kommen, sondern überall dort im Unternehmen, wo die Prozessqualität gesteigert werden soll.

Der Autor Michael Möller ist Geschäftsführer der gbo datacomp GmbH.

Lesen Sie auch: Zusammenspiel mobiler und kollaborativer Robotik