Verlässliche Qualität ist eines der wichtigsten Verkaufsargumente in Zeiten steigenden Wettbewerbsdrucks. Doch der Wettbewerb fordert auch immer höhere Produktionsgeschwindigkeiten und -mengen, die nicht zuletzt zulasten der Qualitätssicherung gehen können. Ein Dilemma, für das nun unter anderem künstliche Intelligenz Abhilfe verspricht. Durch die intelligente Defekterkennung lassen sich fehlerhafte Produkte in Echtzeit aussortieren.
(Bild: Freepik)
Qualität „Made in Germany“ genießt weltweit einen exzellenten Ruf. Doch so sehr sie von Kunden geschätzt wird, liefern günstigere Alternativen – etwa aus Fernost – mit ihren Tiefstpreisen zunehmend ein Argument, das sich kaum entkräften lässt. Zumal auch dort die Konkurrenz bezüglich Qualität immer stärker aufholt. Für Hersteller im deutschsprachigen Raum gilt es daher, künftig beide Vorteile bestmöglich zu kombinieren, nämlich eine kostengünstige Produktion mit höchster Qualität.
Fehlerhafte Produkte zu erkennen und auszusortieren, ist jedoch im Wettlauf gegen die Zeit nicht immer lückenlos möglich. Viele Unternehmen setzen daher bereits seit Längerem auf eine automatisierte optische Defekterkennung. Die Technologie dahinter hat sich in den vergangenen Jahren kontinuierlich verbessert und erhält nun durch künstliche Intelligenz einen weiteren Optimierungsschub. So ermöglicht es KI, ein entsprechendes System deutlich aufwandsärmer zu implementieren und Defekte mit einer hohen Zuverlässigkeit in Echtzeit zu erkennen, um mangelhafte Ware automatisch auszusortieren.
Defekterkennung: Das Fließband im Blick behalten
Die Funktionsweise eines solchen Systems lässt sich gut am Anwendungsbeispiel einer Produktion von Wellblech-Dachpaneelen illustrieren. Diese werden nach ihrer Herstellung über einen mit einer Kamera versehenen Fließbandabschnitt befördert. Mithilfe von Computer Vision wird der Live-Feed der Kamera analysiert, darauf befindliche Defekte in Echtzeit erkannt und markiert. Dabei arbeitet die intelligente Technologie besonders störungsresistent: Auch in Fällen, in denen etwa ein Mitarbeiter am selben Fließbandabschnitt Unreinheiten an den Wellblechen mit einem Pinsel ausbessert und dazu immer wieder in den Bildausschnitt greift, werden die eigentlichen Defekte zuverlässig erkannt und markiert. Die KI lässt sich von solchen Störungen nicht beeinträchtigen.
Im Anschluss ist es beispielsweise möglich, eine Warnlampe im Produktionsprozess anzusteuern, um so der zuständigen Person zu signalisieren, dass Handlungsbedarf besteht, oder mittels einer Weiche das defekte Produkt automatisiert auszusortieren. Auch können die Informationen an ein BI-Dashboard zurückgesendet werden, auf dessen Basis sich die Defekterkennung in Echtzeit überwachen lässt. So ergeben sich auch Statistiken für Auswertungen: Wie viele Defekte sind in den vergangenen Stunden oder Tagen aufgetreten? Gibt es bestimmte Stellen, an denen die Paneele besonders häufig beschädigt sind? Informationen wie diese ermöglichen eine frühzeitige Fehlersuche im Produktionsprozess, um die Qualität von vornherein zu optimieren.
Aus Defekten lernen
Technisch realisiert wird eine solche KI-basierte Defekterkennung mithilfe eines neuronalen Netzes zur Objekterkennung, konkret ein Computer-Vision-Modell. Hier bestehen verschiedenste vortrainierte Modelle, die verwendet werden können. Um das Modell der Wahl auf die spezifischen Gegebenheiten eines konkreten Use Case zuzuschneiden, wird es in einem ersten Schritt anhand von Videomaterial des relevanten Fließbandabschnitts weitertrainiert, bis die Erkennung von Defekten der zu kontrollierenden Produkte zuverlässig gelingt.
Die beispielhafte Architektur einer Defekterkennungs-Pipeline.
(Bild: BE-terna GmbH)
Die Analyse des eingehenden Bildmaterials erfolgt mithilfe von tiefen neuronalen Netzwerken, spezieller durch ein sogenanntes Convolutional Neural Network. Vereinfacht dargestellt, konvertiert das System das Input-Bild in eine bestimmte Anzahl von Zahlenwerten, etwa auf Basis der Helligkeit der einzelnen Pixel. Dies dient als Eingabeschicht des neuronalen Netzes. Das Ergebnis wird schließlich durch die sogenannte Ausgabeschicht repräsentiert, die im konkreten Fall die Position und Größe des erkannten Defekts beinhaltet, sowie eine Angabe, mit welcher Wahrscheinlichkeit es sich tatsächlich um einen Defekt handelt.
Training des Modells für eine effiziente Defekterkennung
Eingabe- und Ausgabeschicht sind über mehrere Zwischenschichten miteinander verbunden. Durch das Training des Modells entwickelt sich die Art und Weise, wie sich die Zahlenwerte zwischen den einzelnen Schichten verändern beziehungsweise zusammenfügen, immer weiter, bis schließlich am Ende das jeweils gewünschte Ergebnis steht. Für das Training kommen Bilder zum Einsatz, zu denen das korrekte Ergebnis bereits bekannt ist (Defekt vorhanden oder nicht, Position des Defekts), sogenanntes „gelabeltes“ Bildmaterial. Dies ermöglicht es dem neuronalen Netz, sein Ergebnis für jeden Testfall mit dem richtigen Ergebnis zu vergleichen und sich so Schritt für Schritt weiter zu optimieren.
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Sobald die KI ausreichend trainiert ist, kann sie mit der Analyse des Live-Feeds beginnen: Dazu wird der Video-Stream in Echtzeit über das Netzwerkprotokoll RTSP (Real-Time Streaming Protocol) an das neuronale Netz übertragen. Letzteres kann sich beispielsweise in einer Azure Virtual Machine befinden. Dessen Ergebnisse werden im Anschluss auf einer Zwischenstufe weiterverarbeitet und können dann etwa an eine BI-Anwendung oder physische Komponenten in der Werkshalle wie einer Warnleuchte oder einer Weiche zurückgespielt werden.
„Quick Win“ für die Qualitätssicherung
Ein zentraler Vorteil einer solchen Implementierung besteht darin, dass das Szenario mit wenig Aufwand vor Ort von Grund auf neu aufgesetzt wird und somit keinerlei Vorarbeit seitens des Anwenderunternehmens erfordert. Im Gegensatz zu vielen anderen KI-Szenarien benötigt es keinen mehrmonatigen, sauberen Datenfundus, den Unternehmen gegebenenfalls zunächst erheben müssen, bevor das KI-Projekt starten kann. Für die intelligente Defekterkennung genügt es, einige wenige Stunden an Videomaterial zu erfassen, das verschiedene Beispiele von zu erkennenden Defekten (oder anderen Eigenschaften) beinhaltet. Auf Basis dieser Testdaten lässt sich dann der Datensatz entsprechend labeln und anschließend unmittelbar für das Training des Modells nutzen.
Die Erkennung eines Defekts im Video-Stream kann beispielsweise eine Warnung im Status-Fenster auslösen.
(Bild: BE-terna GmbH)
Unter anderem durch diesen geringen Vorabaufwand stellt die KI-basierte Defekterkennung eine sehr gute Möglichkeit dar, die Sicherung der Produktqualität schnell zu optimieren, ohne dadurch den Herstellungsablauf zu verzögern oder personelle Ressourcen zur manuellen Prüfung und Aussortierung der beschädigten Produkte zu binden. Gleichzeitig bieten die Echtzeit-Statistiken Anhaltspunkte, um etwa ungewöhnlichen Fehlerhäufungen nachzugehen und so auftretende Fehlerquellen frühzeitig zu beheben – sodass höchste Qualität und wirtschaftliche Effizienz keine Gegensätze bleiben müssen.
Der Autor Fabio Eupen ist Data Scientist bei BE-terna.