Direkt zum Hauptbereich

Ihr neuer Sales-Agent braucht eine Seele: Lektionen aus Claudes Verfassung

Your New Sales Agent Needs a Soul: Lessons from Claude's Constitution

„Warum fragt mich der Konfigurator nach der benötigten Spannung, wenn ich die doch gerade erst herausfinden will?“

Ich habe erlebt, wie ein Kunde einen geführten Verkaufsprozess drei Klicks vor dem Ziel abbrach, weil der Bot mit einem simplen „Bin nicht sicher“ nichts anfangen konnte. Die Logik dahinter war korrekt, das Nutzererlebnis war es nicht. Das System wusste alles über das Produkt, aber nichts über den Anwender.

Im Hardfork-Podcast beschrieb Amanda Askell von Anthropic, wie sie ihrem KI-Modell Claude eine „Verfassung“ gegeben haben. Keine Regelliste, sondern einen Charakter, ein Pflichtbewusstsein und die Fähigkeit, Urteile zu fällen, wenn die Realität unordentlich ist. Das ist keine Science-Fiction. Das ist genau das, was Ihrem CPQ-Assistenten fehlt.

Ein CPQ-Bot ohne Persönlichkeit ist nur ein Formular mit Satzzeichen.

Warum Charakter im Guided Selling wichtiger ist als Regeln

Die meisten Teams glauben, das Problem liege bei den Prompts, den Dialogabläufen oder einer weiteren Bedingungsabfrage. Das stimmt nicht. Das Problem ist, dass Ihr Assistent kein Ethos hat. Er kann validieren, aber nicht helfen. Er kann ablehnen, aber nicht lösungsorientiert umleiten.

Das Ziel ist einfach: Wenn eine Situation nicht durch eine Regel abgedeckt ist, soll sich das Modell trotzdem wie ein verlässlicher Berater verhalten. Genau das erwarten auch Kunden von einem digitalen Vertriebsassistenten.

Dabei geht es nicht darum, Ihren CPQ-Bot niedlich zu machen. Es geht um Vertrauen. Die Akzeptanz von KI in Unternehmen hängt von Verständlichkeit, Klarheit und Zuversicht ab. Die Persönlichkeit Ihres Assistenten ist der Punkt, an dem diese Faktoren gewonnen oder verloren werden.

Während bei rein symbolischer Logik der Konfigurations-Solver die einzige Quelle der Wahrheit bleibt, hat der Assistent eine andere Aufgabe: Er muss die Absicht des Nutzers interpretieren, sinnvolle Fragen stellen, Abwägungen erklären und zu einem validen, baubaren Ergebnis führen. Die Persönlichkeit ist die Schnittstelle, die die Logik überhaupt erst nutzbar macht.

Bringen Sie dem Bot bei, „Ich weiß es nicht“ zu sagen – und dann den nächsten sinnvollen Schritt aufzuzeigen.

Wie man eine CPQ-Persönlichkeit entwirft, die in der Praxis funktioniert

Anhand dieser Prinzipien helfe ich Teams, ihren Guided-Selling-Assistenten mit einer Persönlichkeit auszustatten, die echten Verkaufsgesprächen standhält.

1) Definieren Sie Kommunikationsprinzipien, nicht nur Prompts.
Legen Sie fest, wie sich der Assistent verhält, wenn etwas unklar ist, der Nutzer widerspricht oder die Zeit drängt. Solche Prinzipien passen auf eine Seite und umfassen Tonalität, Pflichten und Grenzen. Zum Beispiel: „Höflich, direkt, niemals bevormundend. Geht mit Unsicherheit um, indem er 2–3 sichere nächste Schritte vorschlägt. Begründet Vorschläge in einem Satz.“

2) Akzeptieren Sie Unsicherheit als Input.
Ihr Assistent muss Antworten wie „nicht sicher“ oder „kommt drauf an“ verarbeiten können. Der richtige Weg ist dann, die Entscheidung zu verkleinern: „Unter oder über 10 kW? Für den Innen- oder Außenbereich? Budget im Fokus oder maximale Leistung?“ So bleibt der Prozess im Fluss, ohne dass Details erfunden werden.

3) Erklären Sie Entscheidungen, nicht nur Ergebnisse.
Zeigen Sie nachvollziehbar, wie das Ergebnis zustande kam. „Ich habe Option B empfohlen, weil sie die Temperaturanforderungen erfüllt und im Budget bleibt. Wenn die Stellfläche weniger kritisch ist, bietet Option C zusätzliche Redundanz.“ Erklärungen schaffen Vertrauen, und Vertrauen fördert die Akzeptanz.

4) Formulieren Sie ein klares Nein konstruktiv.
Harte technische Grenzen sind unverzichtbar. Die Persönlichkeit des Bots sollte jedoch die Absicht des Nutzers respektieren und Alternativen anbieten: „Diese Kombination ist wegen der thermischen Last nicht zulässig. Wenn wir auf das Gehäuse für hohe Umgebungstemperaturen wechseln, behalten Sie die Leistung und erfüllen die Norm.“ Der Ton ist hier genauso wichtig wie die Regel selbst.

5) Machen Sie Kurskorrekturen einfach.
Nutzer müssen zurückrudern können, ohne den Kontext zu verlieren. „Möchten Sie die Annahmen zur Einsatzumgebung noch einmal überprüfen?“ Der Assistent sollte frühere Antworten speichern und Änderungen im Hintergrund prüfen. Anwender probieren verschiedene Wege aus. Ihr System sollte das als Normalfall behandeln, nicht als Fehler.

Das Gegenbeispiel: Der Verhör-Bot. Er verhält sich wie ein starres Formular im Chat-Gewand. Er macht aus „Hilf mir beim Denken“ ein „Füll das aus“ und bestraft Unsicherheit. Die Nutzer greifen nach einer Woche wieder zur alten Excel-Tabelle.

Harte Regeln bleiben entscheidend. Die Persönlichkeit bestimmt, wie sie ankommen.

Ein Sofort-Start: Die Mini-Verfassung für Ihr CPQ-System

Sie brauchen kein langes Dokument. Sie brauchen eine klare, testbare Absicht, wie Ihr Assistent sich in realen Vertriebssituationen verhält.

  • Entwerfen Sie eine einseitige „Verfassung“. Definieren Sie fünf Abschnitte: Rolle („Berater auf Kundenseite, kein Torwächter“), Tonalität („direkt, respektvoll, nie herablassend“), Umgang mit Unsicherheit („2–3 eingegrenzte Optionen vorschlagen, niemals Parameter erraten“), Erklärbarkeit („Ein-Satz-Begründung für jeden Vorschlag“) und Harte Grenzen („nicht verhandelbare Regeln mit Alternativen aufzeigen“). Lassen Sie Vertrieb, Produktmanagement und Support dies abzeichnen.
  • Implementieren Sie drei Routinen für Unsicherheit. Bauen Sie kurze Dialoge für „Ich weiß es nicht“, „Es kommt darauf an“ und falsche Annahmen. Jeder dieser Pfade muss in einem validen nächsten Schritt münden, den der Solver auswerten kann.
  • Messen Sie Vertrauen, nicht nur Klicks. Fügen Sie ein simples Feedback-Signal hinzu: „War diese Empfehlung hilfreich?“ mit zwei Optionen: „Nicht verstanden“ oder „Passt nicht zu meinem Bedarf“. Werten Sie die Muster wöchentlich aus und beheben Sie die häufigste Ursache in der Verfassung oder der Logik.

Zwei weitere Hebel mit starker Wirkung:

Lassen Sie den Assistenten Abwägungen moderieren. Wenn das System eine Änderung vorschlägt, soll es erklären, was man gewinnt und was man verliert. „Wir können die Stellfläche beibehalten, aber die Lieferzeit erhöht sich von 2 auf 5 Wochen.“ So reden Menschen. So werden Entscheidungen wirklich getroffen.

Trennen Sie Produktlogik und Dialogstil. Der Solver erzwingt Kompatibilität und Pricing. Der Assistent stellt das Verständnis sicher. Halten Sie diese Ebenen getrennt. So können Sie die Tonalität verbessern, ohne die Korrektheit der Konfiguration zu gefährden. In der Praxis bedeutet dies, eine schlanke Übersetzungsschicht zwischen Dialog und Konfigurator einzuziehen. Wenn Sie die Kommunikationsprinzipien ändern, bricht keine Produktregel. Wenn Sie die Regeln ändern, weiß der Assistent immer noch, wie er sie erklären muss.

Käufer beurteilen Ihr System nicht danach, ob es jede technische Einschränkung kennt. Sie beurteilen es danach, ob es ihnen hilft, eine sichere Entscheidung zu treffen, ohne die Technik anrufen zu müssen. Die Verfassung sorgt dafür, dass sich dieses hilfreiche Verhalten in allen Situationen wiederholt.

Adoption wird eher durch den richtigen Tonfall als durch zusätzliche Features gewonnen.

Akzeptanz wird eher durch den Tonfall als durch Features gewonnen.

Ein wichtiger Hinweis: Persönlichkeit ist nicht Improvisation. Ihr Assistent darf keine Spezifikationen erfinden oder Regeln dehnen, nur um „hilfsbereit“ zu wirken. Der Kern von CPQ bleibt, nur das zu verkaufen, was Sie auch zuverlässig bauen, kalkulieren und liefern können. Eine durchdachte Persönlichkeit hilft, schneller dorthin zu gelangen – mit weniger Eskalationen und weniger Excel-Listen.

Der erste stille Erfolg: weniger „Kann ich Sie kurz anrufen?“-Momente von Kunden im Self-Service. Der zweite: weniger interne Rückfragen an die Technik für Routine-Abwägungen. Und der eigentliche Gewinn: Wenn Sie einen Vertriebsmitarbeiter fragen, warum er das System genutzt hat, sagt er: „Es hat mir geholfen, die Dinge zu durchdenken.“ Dann wissen Sie, dass Ihr Assistent eine Seele hat.

Der einfachste Test ist der beste: Wenn ein Kunde sagen kann „Da bin ich noch nicht sicher“ und Ihr Assistent ihn souverän zum nächsten Schritt führt, sind Sie auf dem richtigen Weg.

Ein CPQ-Assistent mit Charakter trifft keine Entscheidungen für den Nutzer. Er macht ihm die Entscheidungen leichter.

Kommentare

Beliebte Posts aus diesem Blog

Wird generative KI CPQ-Systeme wirklich überflüssig machen oder intelligenter?

In einem Workshop letzte Woche kam die Frage auf, die alle umtreibt: Wenn AGI Realität wird, brauchen wir dann überhaupt noch CPQ-Systeme? Es wurde so still im Raum, wie es nur wird, wenn eine Frage ins Schwarze trifft. Ich arbeite seit dem Jahr 2000 mit CPQ-Systemen, meist mit Tacton, und sehe in Projekten ein wiederkehrendes Muster: CPQ ist stark in der Validierung und Struktur, versagt aber genau in dem Moment, der einen Deal voranbringt. Der Vertriebler muss immer noch die entscheidende Frage des Kunden beantworten: Warum ist genau diese Konfiguration die richtige für meine Situation? Große Sprachmodelle (LLMs) können dieses „Warum“ erklären. Sie können Szenarien abwägen, Zielkonflikte aufzeigen und Komplexes verständlich machen. Das verändert die Risikobewertung fundamental. Die Gefahr ist nicht, dass KI CPQ ersetzt. Die Gefahr ist, dass KI offenlegt, wo CPQ heute an seine Grenzen stößt. Die falsche Frage nach der Zukunft von CPQ Die binäre Frage – ersetzt KI CPQ oder nicht? – ve...

CPQ-Integrationsleitfaden: CRM, ERP und PLM ohne Silos verbinden

„Das Angebot ist freigegeben, aber die Buchhaltung kann es nicht sehen. Kann jemand ein PDF exportieren und ans Werk schicken?“ Wenn Ihnen das bekannt vorkommt, ist Ihr CPQ-System nicht integriert. Es ist eine Insellösung. Einige wenige Mitarbeiter werden dadurch schneller, während der Rest des Unternehmens Workarounds basteln muss. Genau so verliert ein Vertriebsprozess an Geschwindigkeit. In unzähligen Projekten sehe ich immer wieder dieselbe Wahrheit: Ein CPQ-System ist nur so stark wie seine Integration. Ein reines Angebotstool schafft neue Datensilos und manuelle Arbeit. Der wirkliche Mehrwert entsteht erst, wenn CPQ nahtlos in die Prozesskette aus CRM, ERP und – im Maschinen- und Anlagenbau – PLM eingebettet ist. Wenn CPQ und CRM sich widersprechen, verliert der Vertrieb das Vertrauen in beide Systeme. Die versteckten Kosten von Insellösungen Teams schieben langsame Angebotsprozesse oft auf die Benutzeroberfläche oder mangelndes Training. In Wahrheit ist es fast immer ein Integr...

KI wird Ihr CPQ nicht reparieren: Dieser hybride Ansatz schon.

KI-gestütztes CPQ: Vom Konzept zum funktionierenden Prototyp Dieses Training richtet sich an Verantwortliche aus CPQ, Produktmanagement und Vertrieb, die KI in der Produktkonfiguration einsetzen wollen, ohne Korrektheit, Governance oder bestehende Systeme zu gefährden. Statt auf Werkzeuge oder Zukunftsversprechen zu fokussieren, stellt der Workshop ein praxistaugliches Betriebsmodell vor. Der Kern des Modells ist die klare Trennung von Kontext für die Entscheidungsfindung und Regeln für die Korrektheit . Dieser Ansatz erlaubt es, Ihre bestehende CPQ-Landschaft gezielt um KI-gestützte Logik zu erweitern. Die KI beschleunigt die Benutzerführung, während die bewährte CPQ-Engine weiterhin korrekte Konfigurationen und Preise sicherstellt. Das Format ist bewusst auf zwei halbe Tage komprimiert, um Fokus und Dynamik zu gewährleisten. Die Teilnehmer arbeiten zuerst an einem Referenzbeispiel und wenden die Methode anschließend auf einen Ausschnitt ihres eigenen Produktportfolios an. Zie...