Wenn schnelle Angebote die falschen sind
„Der Assistent sagt, das Bundle ist gültig.“
Zwei Tage später meldet sich die Fertigung: Die bestellte Kombination ist technisch unzulässig. Die Folge: Nacharbeit, ein verärgerter Kunde und ein Vertriebsteam, das dem eigenen System nicht mehr traut.
Dieses Szenario kenne ich aus unzähligen Projekten. Man versucht, mit generativer KI schneller zu werden und lässt sie entscheiden, was gültig ist. Die KI antwortet selbstbewusst. Nur ist die Antwort nicht immer korrekt.
Eine plausible Antwort reicht fürs Meeting. Für den Deal muss sie korrekt sein.
Das ist kein Problem der Benutzeroberfläche oder des Prompt-Writings. Es ist ein Architekturproblem: Wir erwarten von der KI, die Produkthoheit zu übernehmen – eine Aufgabe, für die sie nicht konzipiert wurde.
Plausibel versus korrekt: Warum der Unterschied zählt
Viele nehmen an, eine KI könne das Produkt „lernen“ wie ein erfahrener Lösungsarchitekt. Sie kann Sprachmuster und Absichten erkennen. Aber sie kann nicht garantieren, dass eine Konfiguration unter realen Bedingungen – regulatorische Vorgaben, Werkskapazitäten, technische Abhängigkeiten – wirklich gültig ist.
Nicht ohne Grund weisen Analysten wie Gartner darauf hin, dass große Sprachmodelle nicht-deterministisch sind und in kritischen Prozessen eine Verifizierung benötigen. NISTs AI Risk Management Framework formuliert es noch klarer: Wo Ergebnisse operative Konsequenzen haben, braucht es Leitplanken und unabhängige Prüfungen. Der Vertrieb komplexer Produkte gehört eindeutig dazu.
In meinen Projekten unterscheide ich daher grundsätzlich:
- Verstehen ist die Interpretation dessen, was der Kunde will. Hier ist KI hervorragend.
- Wahrheit ist die Entscheidung darüber, was möglich, zulässig und lieferbar ist. Das ist die Aufgabe expliziter Logik.
Die KI kann die E-Mail lesen. Die Logik muss das Angebot entscheiden.
Vermischt man beides in einem „KI-First“-Ansatz, erhält man schnelle Antworten, die fehleranfällig sind. Diese Fehler zeigen sich schleichend: mehr interne Reviews, mehr Ausnahmen, defensivere Angebote, schwindende Margen. Die Deals werden zwar abgeschlossen, aber die Kosten bleiben unsichtbar – bis man sich Durchlaufzeiten und Eskalationsvolumen ansieht.
Wo KI ohne logisches Rückgrat versagt
Ein Muster, das ich immer wieder sehe, nenne ich Prompt-Driven CPQ. Es sieht modern aus und lässt sich gut präsentieren. Aber es zerbricht, sobald sich Produkte oder Regeln ändern.
Was dabei schiefgeht:
- Fehlende Constraint-Ebene. Die KI antwortet auf Basis von Trainingsdaten. Sie hat keine harte Logik, die sagt: „Dieser Kompressor darf in Brasilien nicht mit jener Spannungsklasse kombiniert werden.“ Ihre Schätzung klingt plausibel, ist aber möglicherweise falsch.
- Fehlende Nachvollziehbarkeit. Fragt der Vertrieb, warum sich ein Angebot geändert hat, kann der Assistent keine Regel oder Bedingung nennen. Das Vertrauen sinkt, die Akzeptanz leidet.
- Nicht-deterministisches Verhalten. Wenn die gleichen Eingaben zu unterschiedlichen Ergebnissen führen, hat man kein System. Man hat eine Performance.
- Versteckte Wartungskosten. Jede neue Produktoption erfordert weitere Beispiele und angepasste Prompts. Das System ist nur so lange schnell, wie Ihre besten Leute es ständig betreuen.
Der Gegenentwurf ist ein System mit einem Constraint-basierten Kern. Wenn ein formales Regelwerk Kompatibilität, Kapazität und Richtlinien steuert, werden ungültige Kombinationen von vornherein unmöglich. Jedes Ergebnis ist nachvollziehbar. Das ist die Grundlage, auf der eine KI sinnvoll aufsetzen kann.
Kann das System eine Entscheidung nicht begründen, wird der Vertrieb sie dem Kunden nicht präsentieren.
Praktische Leitplanken für sichere Geschwindigkeit
In Projekten, die KI-Geschwindigkeit ohne das Risiko wollen, setze ich auf folgende Regeln.
Regel 1: Verstehen und Validieren trennen. Die KI erfasst die Absicht aus E-Mails, Ausschreibungen und Notizen. Diese Absicht wird dann an eine deterministische Engine übergeben, die Regeln prüft und Preise berechnet. Die KI extrahiert zum Beispiel „Außenaufstellung, 480 V, lebensmittelecht, 12 Wochen Lieferzeit“ in strukturierte Daten. Das Regelwerk entscheidet, welche Antriebe, Gehäuse und Dokumentationen dafür gültig sind.
Regel 2: Nur die Logik entscheidet über die Gültigkeit. Der KI-Assistent umgeht niemals die Konfigurationsregeln. Ist eine Kombination nicht erlaubt, erklärt der Assistent das „Warum“ und schlägt gültige Alternativen vor – basierend auf der Logik, nicht auf dem Gedächtnis.
Regel 3: Das „Warum“ sichtbar machen. Jede Empfehlung braucht eine kurze Begründung. „Abgelehnt: IP54 nicht kompatibel mit chemischer Reinigung. Verwenden Sie IP69K oder Schutzhaube.“ Wenn der Vertrieb die Logik sieht, kann er sie auch verkaufen.
Regel 4: Testen wie in der Entwicklung. Behandeln Sie Ihr Regelwerk wie Code. Richten Sie Regressionstests für kritische Kombinationen ein. Bei Produktänderungen laufen die Tests automatisch. So finden Sie Fehler, bevor es der Kunde tut.
Regel 5: Keine stillen Kompromisse. Der schlimmste Fehler ist, wenn ein System bei Unsicherheit stillschweigend auf eine Standardoption zurückfällt. Unsicherheit muss sichtbar gemacht werden. „Spezifikation unvollständig – Spannungsklasse unklar. Eingabe erforderlich.“ Das ist für den Moment langsamer, erspart aber eine Woche Nacharbeit.
Vermeiden Sie unbedingt die Plausibilitätsfalle: Sie bitten den Assistenten um ein „typisches“ Paket. Er stellt aus bisherigen Angeboten die häufigsten Teile zu einem plausiblen Bundle zusammen. Das ist schnell, aber auch der Weg, wie veraltete Zubehörteile und lokale Ausnahmen in globale Angebote gelangen.
Was sich ändert, wenn man es richtig macht
Sobald Interpretation und Wahrheit getrennt sind, lösen sich viele Probleme auf.
- Weniger Eskalationen. Die Technik wird vom Sicherheitsnetz zum Innovationstreiber, weil sie sich nicht mehr mit der Prüfung von Angeboten beschäftigen muss.
- Kürzere Zyklen. Verkäufer erhalten sofort nachvollziehbare Antworten statt eines „das muss ich prüfen“. Das Angebot geht noch am selben Tag raus, nicht erst nächste Woche.
- Saubere Preisentscheidungen. Da Konfigurationen standardmäßig gültig sind, kann sich das Pricing auf Wert und Marge konzentrieren, statt fehlerhafte Kostenstrukturen zu korrigieren.
Auch die KI selbst wird besser. Wenn sie durch die Produkthoheit der Logik begrenzt wird, hört sie auf zu raten und fängt an zu führen. Sie vergleicht gültige Optionen, entwirft Angebotstexte und fasst Änderungen zusammen. Der Assistent wird vom Improvisator zum Beschleuniger.
Die ersten Schritte
1. Eine Produktlinie auswählen und die Kernregeln extrahieren. Identifizieren Sie die fünf Regeln, die 80 % der Eskalationen verursachen. Bilden Sie nur diese ab. Das Ziel ist nicht Vollständigkeit, sondern das frühe Abfangen grober Fehler.
2. KI für die Analyse nutzen, nicht für die Entscheidung. Lassen Sie die KI die letzten 50 Angebote und Ausschreibungen dieser Produktlinie analysieren. Ordnen Sie gängige Formulierungen strukturierten Eingaben zu, die Sie an das Regelwerk Ihres CPQ-Systems übergeben.
3. Eine Begründungsansicht einbauen. Fügen Sie im Angebotsprozess ein einfaches „Warum“-Fenster hinzu, das die Regel anzeigt, die eine Option akzeptiert oder ablehnt. Sie werden sehen, wie die Akzeptanz steigt, weil der Vertrieb endlich versteht, was das System tut.
In einem Projekt haben wir allein durch drei Validierungen für Spannung, Zertifizierung und Gehäuseschutz sowie eine einfache Begründungsansicht die Eskalationen innerhalb eines Monats halbiert. Die Angebote wurden nicht nur schneller – der Prozess wurde ruhiger.
Steuerung ohne Reibungsverluste
Geschwindigkeit entsteht nicht dadurch, dass man Governance vermeidet. Sie entsteht, wenn Governance schlank und vorhersehbar ist.
- Klare Zuständigkeit. Benennen Sie für jede Produktlinie eine Person, die für Regeländerungen verantwortlich ist. Kein Komitee – einen Namen.
- Definierter Änderungsprozess. Eine neue Regel wird beantragt, Tests werden ergänzt, die Änderung wird freigegeben und dokumentiert. Immer die gleichen Schritte.
- Fester Release-Rhythmus. Wöchentliche kleine Releases sind besser als quartalsweise große. Kleine Änderungen kann der Vertrieb aufnehmen, große führen zu Workarounds.
Wenn Teams sehen, dass sich das System sicher und schnell weiterentwickelt, hören sie auf, es zu umgehen. Dann fängt Ihr KI-Assistent an, sich auszuzahlen – weil er auf eine Logik-Schicht verweist, der alle vertrauen.
Jede neue Regel macht zukünftige Änderungen etwas aufwendiger. Investieren Sie also nur in die Regeln, die die teuersten Fehler verhindern.
Warum dieser Moment anders ist
Wir haben endlich beide Puzzleteile: Die KI ist stark genug, um unstrukturierte Kundensprache zu verstehen, und Constraint-Engines sind reif genug, um komplexe Produkte abzubilden. Der entscheidende Punkt ist nicht, sich für eine der beiden Technologien zu entscheiden. Es geht darum, wie sie zusammenspielen.
Wer sich an starren CPQ-Systemen die Finger verbrannt hat, erhält hier einen Ausweg: Behalten Sie die Regeln, aber verstecken Sie die Komplexität. Wer unter KI-Halluzinationen gelitten hat, findet hier die Lösung: Behalten Sie den Assistenten, aber lassen Sie die Logik entscheiden.
Gewinnen werden nicht die Unternehmen mit der eindrucksvollsten Demo, sondern die, deren Systeme sich auch dann erklären können, wenn es schwierig wird.
So erreicht man Geschwindigkeit, ohne das Vertrauen der Kunden aufs Spiel zu setzen.
Kommentare
Kommentar veröffentlichen