Ohne Sicherheit keine Innovation Strategien für den sicheren Einsatz von KI im Maschinenbau

Von Mathias Widler 4 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz (KI) gilt im Maschinenbau längst als Schlüsseltechnologie. Doch ihr Einsatz birgt auch Risiken: Datenabfluss, Fehlinformationen oder Compliance-Verstöße können schwerwiegende Folgen haben. Umso wichtiger ist es, tragfähige Schutzstrategien zu entwickeln.

Als digitales Werkzeug ergänzt KI menschliche Fähigkeiten.(Bild:  © GamePixel /stock.adobe.com)
Als digitales Werkzeug ergänzt KI menschliche Fähigkeiten.
(Bild: © GamePixel /stock.adobe.com)

Viele Maschinenbauer setzen bereits auf Künstliche Intelligenz (KI), um ihre Innovationskraft und Wettbewerbsfähigkeit zu sichern. Laut dem Maschinenbau-Barometer von PWC fließen 52 Prozent der signifikanten Technologieinvestitionen der Branche in KI. Sie dient dazu, Produktionsprozesse zu optimieren, Wartungen vorherzusagen, neue Geschäftsmodelle zu entwickeln und die Effizienz zu steigern. Als digitales Werkzeug ergänzt KI menschliche Fähigkeiten und ermöglicht schnelle, präzise und datenbasierte Entscheidungen, die manuell nicht erreichbar wären.

Die Studie „GenAI im Maschinen- und Anlagenbau – Vom Versprechen zur Profitabilität“ zeigt zudem, dass generative KI die Gewinnmarge im Maschinen- und Anlagenbau um bis zu 10,7 Prozentpunkte steigern kann – was einem zusätzlichen Gewinn von 28 Milliarden Euro entspricht.Gleichzeitig stellt die Integration von KI IT-Verantwortliche vor große Herausforderungen: Datenqualität, Schutz sensibler Informationen und geistigen Eigentums erfordern höchste Sicherheitsstandards. Den Spagat zwischen Innovationsdruck und Sicherheit zu meistern, wird zum entscheidenden Erfolgsfaktor.

Spannungsfeld: KI-Einsatz und Datenrisiken

Auch wenn genAI-Tools die Welt im Sturm erobern, birgt die Nutzung erhebliche Risiken, insbesondere für die Maschinenbaubranche, dessen Wettbewerbsfähigkeit stark auf Innovationskraft und dem Schutz von Betriebsgeheimnissen basiert.Dies sind größten Bedenken für IT-Verantwortliche im Maschinenbau:

  • Datenexfiltration und IP-Verlust: Das größte Risiko entsteht, wenn Mitarbeiter sensible oder proprietäre Informationen wie Konstruktionspläne, Patente oder Produktionsgeheimnisse in öffentliche genAI-Tools eingeben. Diese Daten könnten unbeabsichtigt Teil der Trainingsdatenbank des KI-Modells werden und so für Dritte zugänglich werden.
  • Malware-Injektion und böswillige Inhalte: Angreifer könnten genAI-Tools nutzen, um gezielte Phishing-Angriffe zu erstellen oder Malware in scheinbar legitimen Inhalten zu verstecken, die von KI generiert wurden.
  • Halluzinationen und Fehlinformationen: genAI-Modelle können inkorrekte oder irreführende Informationen, sogenannte Halluzinationen, produzieren. Im Maschinenbau, wo Präzision und Verlässlichkeit oberste Priorität haben, könnte dies schwerwiegende Konsequenzen für die Konstruktion, Fertigung oder technische Beratung haben.
  • Compliance- und Datenschutzverletzungen: Die Nutzung von genAI-Tools kann gegen strenge Datenschutzvorschriften wie die DSGVO verstoßen, insbesondere wenn personenbezogene Daten unkontrolliert verarbeitet oder in Länder außerhalb der EU übermittelt werden. Für den oft global agierenden deutschen Maschinenbauer ist dies eine kritische Herausforderung.

Traditionelle Sicherheitslösungen an ihren Grenzen

Herkömmliche Data Loss Prevention (DLP)-Systeme reichen oft nicht aus, um die Komplexität und die dynamische Natur von genAI-Anwendungen zu bewältigen. Sie wurden nicht für die Feinheiten der KI-Interaktion entwickelt und können oftmals den Kontext der Datennutzung in Echtzeit nicht richtig bewerten. Eine pauschale Blockierung aller genAI-Tools ist zwar eine Option, bremst aber Innovationen aus und führt zu Schatten-KI, wenn Mitarbeiter versuchen, Blockaden zu umgehen. Dies birgt größere Risiken, als eine kontrollierte Nutzung zu ermöglichen.

Strategien für den sicheren Einsatz von KI

Für IT-Verantwortliche im Maschinenbau ist es unerlässlich, eine umfassende Strategie für den sicheren Einsatz von KI zu entwickeln. Dies erfordert einen mehrstufigen Ansatz, der auf modernen Sicherheitsprinzipien basiert.

1. Umfassende Visibilität und Kontrolle

  • Identifikation von genAI-Nutzung: Erkennen, welche genAI-Anwendungen von Mitarbeitern genutzt werden – sowohl genehmigte als auch nicht genehmigte (Schatten-KI). Hierfür ist eine detaillierte Überwachung des Cloud- und Web Traffics nötig.
  • Klassifizierung von Inhalten: Verstehen, welche Art von Daten (sensible Konstruktionsdaten, Patente, Kundendaten, Quellcode) in KI-Tools eingegeben oder von diesen generiert werden. Die Fähigkeit, unstrukturierte Daten und sogar Bilder zu analysieren, ist hier entscheidend.
  • Granulare Richtlinien: Entwicklung präziser Richtlinien, die nicht nur den Zugriff auf genAI-Tools steuern, sondern auch die Interaktion mit sensiblen Daten reglementieren. Beispielsweise: Erlaube die Nutzung, aber blockiere Uploads von CAD-Dateien.

2. Adaptive Zugangskontrolle und Echtzeit-Coaching

  • Kontextsensitivität: Der Zugriff auf und die Nutzung von genAI-Tools sollte basierend auf dem Kontext dynamisch angepasst werden: Wer greift zu, von welchem Gerät, an welchem Standort, und welche Daten werden verarbeitet?
  • Realtime-Feedback: Mitarbeiter müssen in Echtzeit über potenzielle Risiken informiert werden, wenn sie versuchen, sensible Daten in genAI-Tools einzugeben. Ein Coaching-Ansatz, der Alternativen aufzeigt oder Warnungen ausspricht, fördert das Sicherheitsbewusstsein.

3. Integration von DSPM und DLP

  • Unified Data Security: Eine einheitliche Plattform, die Data Security Posture Management (DSPM) und Data Loss Prevention (DLP) integriert, ist entscheidend. Sie ermöglicht die Erkennung und den Schutz von Daten im Ruhezustand (z.B. in Cloud-Speichern), in Bewegung (z.B. Uploads zu genAI-Tools) und in Nutzung.
  • KI-gestützter Datenschutz: Moderne DLP-Lösungen sollten selbst KI und maschinelles Lernen nutzen, um sensible Daten in unstrukturierten Formaten (wie in technischen Zeichnungen oder E-Mails) präzise zu erkennen und zu klassifizieren.

4. Zero Trust für KI-Interaktionen

Das Zero-Trust-Prinzip muss auch auf die Interaktion mit KI-Agenten angewendet werden: Vertraue niemandem, verifiziere alles. Jeder Zugriff und jede Datenbewegung im Kontext von KI muss kontinuierlich überprüft und auf das absolut notwendige Maß beschränkt werden.

Sicherheit als Innovations-Enabler

Für Maschinenbauer ist KI kein optionales Feature mehr, sondern ein strategischer Imperativ. Die Herausforderung für IT-Verantwortliche besteht nicht darin, KI zu verbieten, sondern sie sicher und verantwortungsvoll zu ermöglichen. Eine robuste, cloudnative Sicherheitsarchitektur, die tiefe Transparenz, präzise Kontrolle und KI-gestützten Datenschutz bietet, ist der Schlüssel dazu. Durch die Implementierung eines einheitlichen Ansatzes für Datensicherheit können Unternehmen das volle Innovationspotenzial der KI ausschöpfen, ohne dabei Kompromisse bei der Sicherheit ihres wertvollen geistigen Eigentums und ihrer sensiblen Daten einzugehen. Dies schützt nicht nur ihren Ruf und die Compliance, sondern sichert auch die Wettbewerbsfähigkeit des deutschen Maschinenbaus auf dem globalen Markt. 

Mathias Widler ist Vice President Central & Eastern Europe bei Netskope.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung