Auch wenn Prompts wie normale Sprache aussehen (Englisch, Deutsch, Spanisch etc.), gibt es definitiv einen anderen Ansatz beim Prompting eines KI-Agenten als bei einem Gespräch mit einem Menschen.
Hier sind einige Tipps und Tricks zum Prompt Engineering, die wir bei Leaping AI in den letzten zwei Jahren während der Entwicklung unseres KI-Voicebots gelernt haben:
• Halte den Setup-Prompt des Agenten (Systemnachricht) kurz und idealerweise unter 2.000 Tokens. Das ist wichtig, da dieser bei jedem Schritt des Gesprächs geladen wird. Wenn er zu groß ist, kann dies zu einer höheren Latenz führen.
• Um das Gespräch menschlicher wirken zu lassen, kannst du einen Prompt einfügen, der der KI sagt, regelmäßig Füllwörter wie „ähm, hm, okay“ zu verwenden.
• Gib explizit an, wie bestimmte Zahlen ausgesprochen werden sollen, und füge Beispiele hinzu. Zum Beispiel: „Postleitzahlen in Wörter umwandeln, z. B. 94107 → neun, vier, eins, null, sieben“. Wenn du das nicht tust, spricht die KI die Zahl möglicherweise als „vierundneunzigtausendeinhundertsieben“ aus.
• Beziehe dich im Prompt auf Übergänge (auch als Funktionen bezeichnet). Zum Beispiel: „Rufe die Funktion ‘call transfer’ auf, wenn der Kunde mit einem Menschen sprechen möchte.“ ( 👉 So kann ein KI-Sprachagent Anrufe weiterleiten)
• Verwende Schritte und Beispiele in derPrompt. Das zeigt der KI genau, was sie tun soll.
• Hebe wichtige Dinge mit Großbuchstaben hervor, damit der KI-Agent sie auch wirklich beachtet. Beispiel: „WIEDERHOLE NICHT die Antwort des Kunden und GEHE IMMER zur nächsten Frage.“
• Sei sehr spezifisch, wie bestimmte Dinge buchstabiert werden sollen, damit sie klar und langsam gesprochen werden. Zum Beispiel:
– „E-Mail-Adressen in Wörter umwandeln und durch Kommas trennen, z. B. ‘john.doe@gmail.com’ → ‘john, punkt, doe, at, gmail, punkt, com’“
– „Kundennummern in Wörter umwandeln und durch Kommas trennen, z. B. ‘324124’ → ‘drei, zwei, vier, eins, zwei, vier’“
– „Geburtsdaten in Wörter umwandeln und durch Kommas trennen, z. B. ‘01/04/1992’ → ‘vierter januar, neunzehnhundertzweiundneunzig’“
• Verlasse dich nicht auf Prompts, um zwei Texte miteinander zu vergleichen oder Berechnungen durchzuführen. LLMs sind Next-Token-Predictor und liefern probabilistische (nicht exakte) Ergebnisse. Nutze immer zusätzliche Funktionen, um mathematische Operationen durchzuführen.
• Wenn du eine Wissensdatenbank oder ein Q&A hast, auf das sich der Agent beziehen soll, kannst du diese direkt in den Prompt einfügen, solange du das akzeptable Kontextlimit des verwendeten Sprachmodells nicht überschreitest.
• Sei bereit, deine Prompts kontinuierlich weiterzuentwickeln. Prompt Engineering ist eine fortlaufende Aufgabe, die auch nach dem Live-Gang niemals endet.