Die unterschätzte Gefahr eloquenter Falschaussagen
„Kann die KI erklären, warum wir diesen Motor nicht mit 480 Volt anbieten können?“
Varianten dieser Frage höre ich fast monatlich. Ein Team setzt eine Chat-Ebene auf sein CPQ-System, stellt eine knifflige Frage und erhält eine souverän klingende Antwort, die fachlich falsch ist. Der Vertriebsmitarbeiter ist am Ende verunsicherter als zuvor.
Das ist das Kernproblem von LLMs im komplexen Vertrieb. Sie beherrschen Sprache exzellent, sind aber ohne Leitplanken nicht auf Korrektheit ausgelegt. Im CPQ-Umfeld ist „gut genug“ nicht präzise genug.
Viele glauben, das Problem sei die Unreife der KI oder die Menge der Trainingsdaten. Das ist ein Irrtum. Der Angebotsprozess ist eine Verifikationsaufgabe, keine Kreativitätsaufgabe. Wir brauchen keine besseren Formulierungen, wir brauchen die richtige Antwort mit einer nachvollziehbaren Begründung.
Beim CPQ geht es nicht um Automatisierung – es geht um Korrektheit.
Analysten wie Gartner und Forrester sind sich hier einig: Generative KI benötigt für den Unternehmenseinsatz eine solide Faktenbasis und klare Leitplanken. Ohne diese Grundlage produzieren LLMs eloquent formulierte Vermutungen. Mit ihr werden sie zu nützlichen Assistenten.
KI ersetzt Logik nicht – sie ist darauf angewiesen.
Seit über zwei Jahrzehnten baue ich Produktlogik und Preisstrukturen in CPQ-Systemen. Die Systeme, die in der Praxis funktionieren, verstecken Komplexität nicht – sie organisieren sie. Genau hier setzt Retrieval-Augmented Generation (RAG) an. Nicht als Wunderwaffe, sondern als pragmatischer Weg, eine KI auf Basis Ihrer Regeln und Ihrer Daten antworten zu lassen, statt aus dem Bauch heraus.
Was RAG im CPQ-Kontext wirklich bedeutet
RAG klingt technisch, die Idee ist aber einfach: Bevor die KI eine Antwort generiert, füttert man sie mit den relevanten, verifizierten Fakten für den aktuellen Kontext. Sie ruft zuerst die Wahrheit ab und formuliert erst dann die Antwort. Retrieval vor Generierung.
Im CPQ ist diese „Wahrheit“ kein einzelnes Dokument. Sie verteilt sich auf eine Reihe lebender Datenquellen:
- Konfigurationsregeln und Kompatibilitätsmatrizen
- Preislisten, Rabattrichtlinien und Zielpreise (Pocket Price)
- Kundenkonditionen, Genehmigungsregeln und regionale Compliance-Vorgaben
- Technische Hinweise, Qualitätsmeldungen und Produktlebenszyklus-Daten
- Bestehende Angebote und deren Ergebnisse für ähnliche Deals
Ein Beispiel aus der Praxis:
Sie konfigurieren eine Lüftungsanlage für ein Pharmawerk. Der Vertriebler fragt: „Können wir ein Edelstahlgehäuse mit ATEX-Motor innerhalb von 6 Wochen liefern?“ Ein naives LLM würde selbstbewusst mit Ja oder Nein antworten. Ein RAG-gestützter Prozess im CPQ-Umfeld arbeitet anders:
- Er ruft die relevanten Regeln ab: Optionen für das Edelstahlgehäuse, ATEX-Kompatibilität, Lieferzeittabellen für jede Komponente.
- Er prüft die aktuellen Preisbänder und ob Genehmigungsschwellen überschritten werden.
- Er konsultiert regionale Compliance-Hinweise und bekannte Ausnahmeregelungen.
- Erst dann wird das LLM beauftragt, eine klare Antwort zu formulieren, die sich auf die abgerufenen Fakten stützt.
- Zur Sicherheit wird die vorgeschlagene Konfiguration abschließend durch das Regelwerk des CPQ-Systems (z. B. Tacton CPQ) validiert.
Das LLM schreibt die Erklärung, nicht die Logik. Das Regelwerk und die Daten entscheiden, was gültig ist. Das Ergebnis ist eine Antwort, die sich menschlich liest, aber auf einem Fundament steht, dem Sie vertrauen können.
Wenn ein System seine eigenen Entscheidungen nicht erklären kann, wird ihm niemand vertrauen.
Ein wichtiger Punkt: Bei RAG geht es nicht nur um Dokumente. Im CPQ sind die wertvollsten Informationen oft strukturiert: Ergebnisse aus dem Regelwerk, Attributwerte, Genehmigungs-Flags oder simulierte Ergebnisse. Der Assistent sollte Ihrem System Fragen stellen können, so wie ein neuer Vertriebler Ihren besten Produktexperten fragen würde.
Fünf Leitplanken für eine nützliche KI im Angebotsprozess
Wenn Sie eine KI wollen, die den Vertrieb beim Denken unterstützt statt nur beim Klicken, implementieren Sie diese fünf Prinzipien.
- Immer zuerst Retrieval, dann Generierung. Keine Antwort ohne Kontext. Bauen Sie einen Retrieval-Layer, der Nutzerfragen den richtigen Datenquellen zuordnet. Fragt der Nutzer nach der Lieferzeit, ziehen Sie aktuelle Daten zur Komponentenverfügbarkeit und den Werkskalender heran – nicht das PDF vom letzten Quartal.
- Die Logik hat Vetorecht. Das Regelwerk des Produktkonfigurators ist der Schiedsrichter. Der KI-Assistent kann Vorschläge machen, aber das CPQ-System validiert sie. Schlägt die KI eine Optionskombination vor, muss diese erst die Konfigurationsprüfung bestehen, bevor sie dem Vertrieb angezeigt wird.
- Jede Antwort braucht einen Beleg. Jede Aussage muss auf die zugrunde liegende Regel, Preisliste oder Richtlinie verweisen. Zum Beispiel: „Die Lieferzeit beträgt 8 Wochen aufgrund einer Lieferverzögerung beim Motor M-442 (Quelle: Supply-Chain-Meldung 2026-01).“ Solche Nachweise schaffen mehr Vertrauen als jede bunte Benutzeroberfläche.
- Eine Wahrheit pro Entscheidung. Überlassen Sie die Rabattpolitik nicht der Fantasie des Assistenten. Die Komponenten des Preiswasserfalls (Price Waterfall) werden aus dem Pricing-Service abgerufen und zentral berechnet. Der Assistent erklärt nur die Berechnungsschritte.
- Testen mit System. Behandeln Sie die KI wie einen neuen Vertriebsmitarbeiter in der Probezeit. Erstellen Sie ein Test-Set mit typischen Szenarien und bewerten Sie die Antworten. Beispiel: 30 gängige Konfigurationen mit erwarteten Ergebnissen, Preisen und Genehmigungen. Weichen die Erklärungen ab, stoppt der Build.
Ein Anti-Pattern, das ich zu oft sehe, ist der „Chatbot-in-Front“. Er sieht beeindruckend aus, sitzt aber auf einem Haufen unstrukturierter Daten und vager Regeln. Er antwortet schnell, bis er auf einen echten Grenzfall stößt. Dann landet alles wieder in Excel-Listen und bei den stillen Helden im Innendienst. Das ist kein KI-Einsatz, sondern Inszenierung.
Der kumulative Vorteil
Warum ist das Thema gerade jetzt relevant? Aus zwei Gründen.
Erstens können heutige LLMs unstrukturierte Fragen elegant verarbeiten. Wir können nach Erklärungen, Abwägungen und kundenfertigen Formulierungen fragen, ohne uns mit starren Textbausteinen zu quälen. Zweitens ist der Datenabruf (Retrieval) aus strukturierten und unstrukturierten Quellen inzwischen praxistauglich, ohne dass daraus ein Jahresprojekt wird. Sie können echte Intelligenz hinzufügen, ohne Ihre bestehenden Systeme zu ersetzen.
Richtig umgesetzt, erzeugen RAG und CPQ einen sich selbst verstärkenden Effekt:
- Antworten werden schneller, weil der Retrieval-Prozess die Suche auf das Wesentliche eingrenzt.
- Antworten werden sicherer, weil Logik und Tests Abweichungen frühzeitig erkennen.
- Antworten werden klarer, weil die Erklärungen auf verifizierten Begriffen und Schwellenwerten basieren.
Die Teams, die diesen Weg einschlagen, werden von „KI-Experimenten“ zum täglichen Nutzen übergehen. Diejenigen, die auf die faktenbasierte Verankerung verzichten, werden eine stagnierende Akzeptanz erleben, weil die Vertriebler lernen, welchen Fragen sie dem System nicht stellen dürfen.
Erfolgreiche Teams automatisieren nicht das Urteilsvermögen. Sie bauen das Urteilsvermögen in das System ein und lassen die KI dieses Wissen in klarer Sprache transportieren.
Was Sie in diesem Quartal tun können
Halten Sie es einfach. Wählen Sie eine Produktfamilie und eine häufige, konfliktträchtige Frage aus. Bauen Sie dafür einen schlanken RAG-Prozess. Sie brauchen keinen kompletten Umbau Ihrer Systemlandschaft, um zu lernen.
- Inventur der Fakten. Listen Sie für das ausgewählte Produkt die maßgeblichen Datenquellen für Konfigurationsregeln, Preiskomponenten, Lieferzeiten und Genehmigungen auf. Wenn eine Regel nur im Kopf eines Mitarbeiters existiert, schreiben Sie sie auf – oder automatisieren Sie sie vorerst nicht.
- Ein schlanker Retrieval-Layer. Erstellen Sie Abfragen oder APIs, die diese Fakten bei Bedarf abrufen. Bevorzugen Sie strukturierte Daten. Protokollieren Sie, welche Daten für welche Antwort herangezogen wurden, um das Verhalten analysieren zu können.
- Das Regelwerk einbinden. Nutzen Sie den Validator Ihres CPQ-Systems, um die Vorschläge des Assistenten zu prüfen und freizugeben. Betrachten Sie fehlgeschlagene Validierungen als Lernchance, nicht als Fehler.
- Ein Szenario-Paket bereitstellen und wöchentlich prüfen. Erstellen Sie 20–30 realistische Fälle mit erwarteten Ergebnissen und Erklärungen. Überprüfen Sie die faktische Korrektheit und die Qualität der Begründungen. Wenn der Assistent die Regel nicht zitieren kann, kennt er sie nicht.
Zwei Anzeichen, dass Sie auf dem richtigen Weg sind: Der Vertrieb kopiert die Erklärungen der KI ohne Änderungen in seine E-Mails, und das Produktmanagement beginnt, die zugrunde liegenden Regeln zu korrigieren, anstatt Ausnahmen zu definieren.
Nicht die Regeln sind der Feind – sondern starre Regeln.
Ich habe diesen Ansatz sowohl mit Tacton CPQ als auch mit Eigenentwicklungen umgesetzt. Das Muster ist immer dasselbe. Machen Sie Ihre Regeln explizit. Halten Sie die Preislogik an einem zentralen Ort. Bringen Sie dem Assistenten bei, Fakten abzurufen, statt zu raten. Sichern Sie die Grenzen durch Tests ab. Der Rest ist reine Implementierungssache.
Wer gewinnt, wer verliert?
Die Gewinner werden KI wie den Lehrling eines Experten behandeln. Sie kombinieren eine saubere Produktstruktur mit einem Retrieval-Layer und messen den KI-Assistenten an denselben Maßstäben wie einen Menschen. Sie werden gleichzeitig schneller und sicherer.
Die Verlierer werden nicht mit einem lauten Knall scheitern, sondern langsam abdriften. Ein leises Versagen, kein Feuerwerk. Mehr manuelle Genehmigungen. Mehr „temporäre“ Excel-Listen. Mehr Umwege um das CPQ-System herum. Und in einem Jahr werden sie sagen, die KI habe nicht geliefert – obwohl das eigentliche Problem fehlende Governance und mangelnde Faktenbasis war.
KI ist keine Abkürzung, um Produktkomplexität zu umgehen. Sie ist eine bessere Schnittstelle zu dieser Komplexität. Ist das Fundament schwach, wird es auch die Benutzeroberfläche sein.
Die Wahrheit ist einfach: Der schnellste Angebotsprozess ist der, dem der Vertrieb vertraut.
Wenn Excel immer noch der schnellste Weg zu einem korrekten Angebot ist, ist Ihr CPQ-Projekt nicht abgeschlossen.
Kommentare
Kommentar veröffentlichen