Ihr
Prompt
funktioniert
bei
Claude
prima.
Dann
pasten Sie ihn in GPT-4o und erhalten Müll. Sie wechseln zu Gemini und die Antwort ist falsch formatiert. Das ist kein Zeichen dafür, dass Sie besseres Prompting benötigen – es ist ein Zeichen dafür, dass Sie Prompts benötigen, die für das spezifische Modell entwickelt wurden, das Sie verwenden.
Jedes Modell hat unterschiedliche Trainingsdaten, eine andere Token-Verarbeitung und andere Muster zur Befolgung von Anweisungen. Ein Prompt, der die Stärken von Claude ausnutzt, verschwendet Tokens bei GPT-4o. Was bei der strukturierten Extraktion in Gemini funktioniert, kann Mistral verwirren. Das ist nicht theoretisch. Es ist der Unterschied zwischen einer Erfolgsquote von 70 % und einer von 94 % bei derselben Aufgabe.
Warum ein Prompt nicht für drei Modelle passt
Claude (insbesondere Sonnet 4) wurde mit Constitutional AI trainiert, wodurch es gut auf direkte Anweisungen und explizite Argumentationsketten reagiert. Es ist Token-effizient und behandelt Sonderfälle, ohne sich übermäßig zu entschuldigen. GPT-4o ist für die Befolgung von Anweisungen in massivem Maßstab optimiert – es kennt über 200 Prompt-Engineering-Tricks, weil Millionen von Benutzern sie ausprobiert haben. Gemini (insbesondere die neuesten 2.0-Modelle) zeichnet sich durch multimodale Aufgaben aus und hat eine andere Priorisierung von Anweisungen.
Token-Effizienz ist wichtig. Claudes Kontextfenster beträgt 200.000 Tokens, aber GPT-4o berechnet die Kosten für Eingabe und Ausgabe unterschiedlich. Ein Prompt, der bei Claude 2.000 Eingabe-Tokens verschwendet, kostet Sie 0,30 $. Die gleiche Verschwendung bei GPT-4o kostet 1,20 $. Die Preisgestaltung von Gemini ändert sich wieder einmal.
Wichtiger ist: Jedes Modell gewichtet Anweisungen unterschiedlich. Was Sie im System-Prompt hervorheben, wo Sie Beispiele platzieren und wie Sie die Argumentation strukturieren – dies wirkt sich direkt auf die Ausgabequalität pro Modell aus. Ich habe dies ausführlich getestet, als ich die Trading-Signal-Extraktionspipeline von AlgoVesta aufbaute. Gleiche Aufgabe, drei Modelle, drei völlig unterschiedliche Prompt-Strukturen, um bei allen dreien über 90 % Genauigkeit zu erzielen.
Das Claude-First-Prinzip: Direkte Anweisung
Claude reagiert am besten auf Klarheit ohne Einschränkungen. Es muss nicht um Erlaubnis gebeten oder Anfragen abgeschwächt werden.
# Schlechter Prompt (übermäßig vorsichtig)
Könnten Sie mir bitte helfen, die wichtigsten Finanzkennzahlen aus diesem Geschäftsbericht zu extrahieren? Ich würde mich sehr freuen, wenn Sie auch die erwähnten Risiken zusammenfassen könnten.
# Verbesserter Prompt (direkt, strukturiert)
Extrahieren Sie die folgenden Finanzkennzahlen aus dem Geschäftsbericht:
- Umsatz (gesamt und nach Segment)
- Operative Marge
- Cashflow aus operativer Tätigkeit
- Wichtige Risiken, die im Abschnitt MD&A erwähnt werden
Formatieren Sie die Ausgabe als JSON mit genau diesen Schlüsseln.
Claudes Training führt dazu, dass es Wortreichtum bestraft. Jedes einschränkende Wort –