Technik und Ethik standen oft im Wechselspiel: Denn Technik ermöglicht ein verändertes menschliches Handeln. KI jedoch kann sich selbst durch Autonomie von diesem Handeln emanzipieren. Was bedeutet das für die Entwicklung von KI im Shopfloor?
(Quelle: Sergey/Adobestock)
Ethik und KI: Technologien haben immer schon ethische Fragen aufgeworfen. Das ist nicht neu. So lässt sich beispielsweise die gesamte Industrialisierung nicht nur als eine großartige Wachstumsgeschichte verstehen, sondern auch als stetige Kompromittierung menschlicher Arbeit. Bislang richtete sich die Aufmerksamkeit der Ethikdiskussion auf das durch Technologien ermöglichte menschliche Handeln. Bei Künstlicher Intelligenz ist das erstmals anders – denn KI kann in gewisser Weise eigenständig handeln und damit wird die Technologie selbst zum Gegenstand ethischer Überlegungen.
Ethik und KI: Lässt sich der KI vertrauen?
Das liegt an einer fundamentalen Eigenschaft Künstlicher Intelligenz: Auf Basis definierter Daten aus der Vergangenheit erlernt die KI maschinell ein Verhalten, das gemäß den zugrundeliegenden mathematischen Modellen in der Zukunft zu Entscheidungen führen kann. Diese Eigenschaft hat für die unterschiedlichsten betriebswirtschaftlichen Szenarien ein erhebliches Potenzial, weil Prozesse noch weiter automatisiert und damit beschleunigt werden können.
Gängiges Beispiel ist die optische Inspektion von produzierten Teilen. Diese kann durch den Einsatz von KI erheblich verbessert werden, was nachhaltig hilft die geforderte Qualität zu erreichen.
Dieser zweifelsfrei positiven Wirkung von Künstlicher Intelligenz steht die kritische Frage gegenüber, inwieweit einem solchen System vertraut werden kann. Dieses Vertrauen ist unabdingbar, weil die von KI getroffenen Entscheidungen von fundamentaler Bedeutung sind. Nicht nur für das Business, sondern für das gesamte Umfeld und die mit dem System interagierenden Menschen. Dadurch ergeben sich spezifische Anforderungen an eine „vertrauenswürdige KI“, die neben ethischen Gesichtspunkten auch Aspekte wie Robustheit, Verlässlichkeit und Sicherheit umfassen.
Vor diesem Hintergrund können insbesondere zwei Dokumente als Ausgangspunkt für die Erstellung von vertrauenswürdigen KI-Anwendungen dienen. Zunächst hat die Europäische Kommission 2019 dazu Richtlinien veröffentlicht und 2021 hat das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS einen „Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz“ vorgestellt.
Dimensionen von KI
Die beiden Paper kennen im Wesentlichen die Dimensionen Robustheit, Sicherheit und Verlässlichkeit sowie die Aspekte der Autonomie, Fairness und Transparenz, die in Summe eine vertrauenswürdige KI ausmachen und damit die Anforderungen an eine KI definieren – auch bezogen auf den Einsatz in der Produktion.
Mit der Robustheit einer KI-Lösung ist gemeint, dass sie über eine Widerstandskraft verfügt, die zufällige oder beabsichtigte (aber nicht legitimierte) Veränderung eines sensiblen Modells verhindert. Sicherheit zielt dagegen auf eine funktionale Sicherheit ab. Die ersten beiden Dimensionen zusammen gewährleisten im Produktionsumfeld unter anderem, dass keine Personen- oder Sachschäden entstehen.
Verlässlichkeit bezieht die Weiterentwicklung des Systems mit ein. Werden KI-Modelle im Laufe der Zeit optimiert (was sinnvoll ist), muss beispielsweise sichergestellt werden, dass die KI durch kontinuierliches Training verlässlich Fehler erkennt und häufig vorkommende Fehler nicht adaptiert – da diese ansonsten künftig nicht mehr erkannt werden würde.
Aus ethischer Sicht gilt es vor allem zu betrachten, wie die drei Faktoren menschliche Autonomie, Fairness und Transparenz in einem eng miteinander verwobenen Mensch-KI-System umgesetzt werden können, wie es auch in der Produktion vorzufinden ist. Darüber hinaus spielt die Erklärbarkeit der von der KI erzeugten Ergebnisse eine sehr große Rolle, speziell wenn es um den Einsatz neuronaler Netze geht.
Ethik und KI: Vertrauenswürdige KI in der Produktion
Weshalb das alles, nämlich Ethik und KI, relevant ist, zeigt das Beispiel der optischen Inspektion. So könnte es dazu kommen, dass ein produziertes Teil von einer KI untersucht und bewertet wird, welches zuvor durch einen Mitarbeiter oder einer Mitarbeiterin bearbeitet wurde. Unter den ethischen Aspekten der Autonomie und der Transparenz ist der Mensch im Vorfeld über den Einsatz einer KI-basierten Inspektionsmethode hinreichend aufzuklären.
Andernfalls wird er in seiner Autonomie eingeschränkt, ihm wird ein „Handeln“ auferlegt, dessen Ursache ihm nicht bewusst ist. Umgekehrt kann die Person die Auswirkungen ihres eigenen Handelns nicht einschätzen, sie weiß nicht, ob ihr Handeln im Sinne der Produktion oder im Sinne der KI beurteilt wird. Wichtig ist auch, beim Training der KI darauf zu achten, dass kein Bias entsteht. Bias meint eine Beurteilung – hier die Arbeitsresultate einzelner Mitarbeiter*innen – die systematisch Verzerrungen enthält und damit zu Diskriminierungen führen kann. Verhindern lässt sich das, indem die Trainingsdaten statistisch über alle Mitarbeiter gleich erhoben werden.
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
DIN SPEC zur Einführung von KI
Produzierende Unternehmen in Europa stehen nun vor der Herausforderung, die wirtschaftlichen Vorteile von KI mit den Kriterien für Vertrauenswürdigkeit samt der sich daraus ergebenden Richtlinien der Regulierer zu vereinbaren. Das führt bisweilen dazu, dass prototypische KI-Anwendungen den Weg in die Produktion nicht schaffen, weil kritische Punkte im Vorfeld nicht oder nur unzureichend beleuchtet wurden.
Gemeinsam mit dem Deutschen Institut für Normung (DIN) hat sich MHP daher auf den Weg gemacht, eine DIN SPEC (DIN SPEC 92003) zu entwickeln, die die Planung und den Einsatz Künstlicher Intelligenz und deren Nutzbarmachung in Prozessen und Produkten entlang des gesamten Software-Lebenszyklus unterstützt.
Ziel ist ein Rahmenwerk, das sicherstellt, dass über den gesamten Lebenszyklus der Applikation ein qualitativ hochwertiger und DSGVO-konformer Datenraum zur Verfügung steht, der ein Training eines KI-Modells, dessen Validierung und eine spätere Nachjustierung ermöglicht. Zudem sollen die Anwender mit der DIN SPEC in der Entscheidung unterstützt werden, Technologien und Referenzarchitekturen zu verwenden, die international anerkannt sind, deterministische Ergebnisse erzielen und durch Dritte nicht manipulierbar sind.
Bei all dem wird gewährleistet, dass der Raum der durch datengetriebene Applikationen hervorgerufenen Ergebnisse international anerkannte ethische Konventionen nicht verletzt. Dazu werden die oben genannten Guidelines der Europäischen Kommission sowie der Fraunhofer-Leitfaden maßgeblich berücksichtigt.
Existierende Standards zur Prüfung datengetriebener Applikationen müssen auch im Sinne der Notwendigkeit späterer Zertifizierung und Auditierung über den gesamten Lebenszyklus eingehalten werden. Das ist für die Anwender deshalb entscheidend, weil KI-Lösungen gemäß EU-Richtlinien zukünftig einer Zertifizierung unterliegen, die den Betrieb unter den bereits diskutierten Aspekten absichern soll. Im Sinne des Investitionsschutzes unterstützt die DIN SPEC somit die Anwender, KI-Lösungen zu entwickeln die den Anforderungen einer Zertifizierung standhalten.
Die DIN SPEC 92003 wird ab Herbst 2022 verfügbar sein. Bis zu diesem Zeitpunkt empfiehlt es sich, sich bei der Entwicklung und dem Einsatz Künstlicher Intelligenz vor allem an den oben genannten Richtlinien und Leitfäden zu orientieren.