Sie haben drei Minuten Zeit, strukturierte Daten aus Kunden-E-Mails zu extrahieren. Das Modell generiert Felder. Sie versuchen einen detaillierteren Prompt. Immer noch Halluzinationen. Sie fügen Beispiele hinzu. Besser, aber nicht zuverlässig. Sie gehen die Überlegung Schritt für Schritt durch. Es funktioniert.
Der Unterschied zwischen diesen Versuchen ist kein Glück – es sind drei verschiedene Prompting-Muster, die einen Kompromiss zwischen Einfachheit und Genauigkeit eingehen. Zu verstehen, wann jeder einzelne versagt, ist wichtiger, als zu wissen, dass sie existieren.
Zero-Shot: Geschwindigkeit über Genauigkeit
Zero-Shot bedeutet, dass Sie dem Modell eine Aufgabe ohne Beispiele geben. Nur die Anweisung und die Eingabe.
# Zero-Shot Prompt
Extrahieren Sie den Bestellgesamtbetrag, den Produktnamen und die Lieferadresse des Kunden aus dieser E-Mail:
---
[Kunden-E-Mail hier]
---
Antworten Sie im JSON-Format.
Dies funktioniert, wenn: die Aufgabe einfach ist, die Domäne üblich ist (Kundenservice, grundlegende Klassifizierung) und Ihnen Geschwindigkeit wichtiger ist als Präzision. Claude Sonnet 4 und GPT-4o bewältigen dies bei unkomplizierten Aufgaben gut – typischerweise 70–85 % Genauigkeit bei der strukturierten Extraktion, wenn die Daten klar im Quelltext vorhanden sind.
Dies schlägt schnell fehl, wenn: die Aufgabe Fachwissen, Mustererkennung bei Sonderfällen oder mehrstufige Logik erfordert. Ein Zero-Shot-Prompt, der ein Modell auffordert, verdächtige Finanztransaktionen ohne Beispiele zu klassifizieren, wird subtile Muster übersehen, die ein Few-Shot-Prompt sofort erkennt. Dem Modell fehlt ein Bezugspunkt dafür, wie