Generative KI kann Vertrauen in Prognosen stärken, indem sie Empfehlungen erklärt und auf geprüfte Quellen, Modell-Einblicke und Feature-Importance zurückgreift. Dadurch sinken Halluzinationen, und Entscheidungen in Planung und Bestandsmanagement werden zuverlässiger.
Gefüttert mit den richtigen Daten kann generative KI die Empfehlungen einer analytischen KI, etwa zum Demand Planning, erklären.
Wer erzielt die besseren Ergebnisse? Der Mensch oder die KI? Jedenfalls nicht beide im Team, wie ein aktuelles Positionspapier der TU Berlin ermittelt hat. Der Grund: Menschen tendieren dazu, die Ergebnisse einer KI nachträglich zu modifizieren und damit nicht selten zu verschlimmbessern. In ihrer Gesamtleistung schneiden Mensch-Maschine-Teams damit häufig schlechter ab als die jeweiligen Akteure allein. Die häufige Nachbearbeitung der KI-Ergebnisse liegt zum einem daran, dass Menschen ihrer Rolle als Prüfinstanz für die KI gerecht werden wollen, gleichzeitig jedoch auch an einem geringen Vertrauen in die Zuverlässigkeit künstlicher Intelligenz, weshalb den Ergebnissen schlicht kein Glauben geschenkt wird.
Generative KI: Vertrauensaufbau durch transparente Erklärungen
Die menschliche Skepsis gegenüber KI Ergebnissen ist nachvollziehbar, insbesondere wenn von ihnen Entscheidungen abhängen, die handfeste finanzielle Konsequenzen nach sich ziehen oder zentrale Eigenschaften des Unternehmens wie seine Lieferfähigkeit beeinflussen, beispielsweise im Kontext der Materialplanung. Kommt hier eine analytische KI zum Einsatz, liefert sie mitunter Absatzprognosen, die den Planungsverantwortlichen als unwahrscheinlich, unplausibel oder sogar fehlerhaft erscheinen. In Szenarien wie diesen würden die Verantwortlichen die Ergebnisse üblicherweise nach oben oder unten anpassen und so vermeintlich korrigieren. Dabei soll die KI-Analyse ja gerade dem Zweck dienen, dem Bauchgefühl eine faktenbasierte Empfehlung entgegenzusetzen. Um dieses Dilemma aufzulösen, verspricht nun ausgerechnet eine weitere KI-Technologie eine effektive Möglichkeit: Generative KI (GenAI) lässt sich mit dem erforderlichen Wissen ausstatten, um die Ergebnisse einer analytischen KI zu erklären und die zentralen Einflussfaktoren zu benennen, auf denen die Schlussfolgerungen basieren. Eine solche Erklärung könnte beispielsweise lauten: „Die langfristige Wettervorhersage prognostiziert höhere Temperaturen bis in den Spätherbst hinein. Deshalb rät die KI zu einer Mehrproduktion von Kühlaggregaten, weil deren Abverkauf mit hoher Wahrscheinlichkeit über dem langjährigen Durchschnitt liegen wird.“ Eine Begründung wie diese ermöglicht den Lagerverantwortlichen konkrete Einblicke in den Kontext, der zur Prognose der analytischen KI geführt hat, und gibt ihnen so Mittel an die Hand, die Stichhaltigkeit der KI-Empfehlung selbst prüfen zu können. Eine Grundvoraussetzung, auf der nach und nach Vertrauen entstehen kann.
Wer erzielt die besseren Ergebnisse? Der Mensch oder die KI? Jedenfalls nicht beide im Team, wie ein aktuelles Positionspapier der TU Berlin ermittelt hat.
Transparenz durch Quellenbindung
Dieser positive Kreislauf kann sich natürlich nur dann in Gang setzen, wenn sich die Anwender tatsächlich auf die Korrektheit der Erklärungen verlassen können. Generative KI sollte nicht dazu verwendet werden, überraschende, aber zutreffende Bedarfsprognosen einer analytischen KI mit erfundenen Begründungen zu untermauern, da dies keinerlei Mehrwert bietet. Entsprechend gilt es, Halluzinationen von vornherein effektiv zu vermeiden. Eine verbreitete Methode hierfür stellt das sogenannte „Grounding“ dar, bei dem das Antwortspektrum der GenAI an einen bestimmten, geprüften Datenpool gebunden wird. Damit erhöht sich die Wahrscheinlichkeit, dass Antworten des Sprachmodells auch faktisch zutreffend sind, um ein Vielfaches, das Risiko von Halluzinationen sinkt.
Konkret wird hierzu das ursprüngliche Prompt des Users unsichtbar für diesen im Hintergrund durch ein weiteres Prompt ersetzt. Dieses sogenannte „Hidden Prompt“ enthält neben der eigentlichen Frage des Users auch Verweise zu den konkreten Informationen, in denen die Antwort zu finden ist, sowie die explizite Aufforderung, sich zur Beantwortung der Frage ausschließlich auf diese Quellen zu stützen. Aus der User-Frage „Im Mai sind die Absatzzahlen deutlich eingebrochen. Woran lag das?“ ergibt sich so beispielsweise folgendes Hidden Prompt: „Generiere eine Antwort auf die Frage: ‚Im Mai sind die Absatzzahlen deutlich eingebrochen. Woran lag das?‘ Verwende für deine Antwort ausschließlich folgende Quellen: […] Falls sich die Frage auf Basis dieser Quellen nicht beantworten lässt, gib diese Tatsache als Rückmeldung aus.“
Von Parametern zu Prognosen: was die KI treibt
An welche Informationsquellen muss nun die generative KI gebunden werden, um die Ergebnisse einer KI-Analyse korrekt zu begründen? Hierzu benötigt die generative KI zum einen Möglichkeiten, die Funktionsweise des analytischen KI-Algorithmus zu verstehen, der der Bestandsanalyse zugrunde liegt: die Dokumentation des Datenmodells sowie Parameter und Ergebnisse des genutzten KI- oder ML-Algorithmus. So wird es der GenAI möglich, fundierte Rückschlüsse über die Mechanismen zu ziehen, über die die Prognose der KI zustande gekommen ist. Zweitens spielt die sogenannte „Feature Importance“ eine entscheidende Rolle. Im Praxiseinsatz sind Machine-Learning-Algorithmen in der Lage, Parameter zurückzugeben, die beschreiben, wie groß der Einfluss eines bestimmten Faktors auf die Ergebnisse der Analyse war. Gefüttert mit diesen Informationen wäre die generative KI beispielsweise in der Lage, zu erkennen, dass für die Empfehlung der Bevorratung eines bestimmten Materials in einem bestimmten Monat das Wetter der ausschlaggebende Faktor war, die Saisonalität des Produkts hingegen weniger. Drittens empfiehlt sich, externe Quellen wie etwa Nachrichtenseiten als Input für die GenAI zu nutzen. Durch einen Überblick über wirtschaftliche Entwicklungen und relevante Ereignisse wird es der generativen KI möglich, auch das „Große Ganze“ zur Erklärung der Analyseergebnisse zu berücksichtigen. Für eine Unterbrechung der Lieferkette kann die KI dann beispielsweise auf eine aktuelle politische Situation hinweisen, die auf den Nachrichtenseiten thematisiert wurde.
Stand: 16.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die WIN-Verlag GmbH & Co. KG, Chiemgaustraße 148, 81549 München einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://kontakt.vogel.de/de/win abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Das User-Prompt wird unsichtbar im Hintergrund durch relevantes Wissen angereichert, bevor es an das Sprachmodell übergeben wird.
(Bild: BE-terna)
Mensch und Maschine im Vertrauensmodus
Gefüttert mit Informationen wie diesen, ist generative KI in der Lage, sinnvollen und verlässlichen Kontext zum konkreten Zustandekommen einer bestimmten KI-Empfehlung zu geben. Produktionsverantwortliche erhalten so fundierten Kontext, um Ergebnisse besser nachvollziehen und bewerten zu können. Insbesondere bei Empfehlungen, die intuitiv dem Bauchgefühl der Verantwortlichen widersprechen, kann dies entscheidend sein, um auf Faktoren aufmerksam zu machen, an die gegebenenfalls gar nicht gedacht wurde. Wer die geschlossene Black Box einer KI-Analyse aufbricht, legt das zentrale Fundament für eine wirklich wertschöpfende Zusammenarbeit zwischen Mensch und Maschine: basierend auf Nachvollziehbarkeit und Vertrauen.