Claude hat letzte Woche drei Zitate generiert. Keines davon existierte. Die Papiertitel klangen plausibel, die Autoren waren echt, aber die Zeitschriften waren erfunden. Das war kein Fehler – es war eine Halluzination, und sie passiert aufgrund der Funktionsweise dieser Modelle.
Halluzinationen treten auf, wenn ein LLM Text generiert, der selbstbewusst klingt, aber der Realität, dem Kontext oder der Anweisung widerspricht. Kein Bug. Nicht unvorhersehbar. Sie sind eine direkte Folge davon, wie Transformer-Modelle Tokens vorhersagen, und sie treten in großem Maßstab bei jedem produktiven Einsatz auf.
Was passiert tatsächlich, wenn ein LLM halluziniert
Sprachmodelle rufen keine Fakten ab. Sie sagen das statistisch wahrscheinlichste nächste Token basierend auf Mustern in den Trainingsdaten voraus. Wenn Sie Claude oder GPT-4o eine Frage stellen, fragt das Modell keine Datenbank ab. Es berechnet Wahrscheinlichkeitsverteilungen über Tausende möglicher Tokens und wählt Gewinner aus, Token für Token, bis es eine Stoppbedingung erreicht.
Das funktioniert für viele Aufgaben hervorragend. Aber wenn das Modell auf einen Prompt stößt, der außerhalb seiner Trainingsdaten liegt – oder bei dem mehrere plausible Fortsetzungen existieren – sagt es nicht „Ich weiß es nicht.“ Es generiert trotzdem das statistisch wahrscheinlichste nächste Token. Dieses Token wird zum Kontext für die nächste Vorhersage. Vertrauen verstärkt sich. Eine Halluzination ist geboren.
Das Problem beschleunigt sich bei längeren Ausgaben. Jedes neue Token hängt von früheren Tokens ab, und wenn frühere Vorhersagen daneben lagen, weicht der nachfolgende Text weiter von der Realität ab. Eine Studie von Anthropic (März 2024) ergab, dass die Fehlerrate von Claude bei sachlichen Fragen ungefähr doppelt so hoch ist, wenn Antworten 2.000 Tokens überschreiten, verglichen mit Antworten unter 500 Tokens.
Temperatur und Zufälligkeit sind nicht die eigentlichen Schuldigen
Die meisten Entwickler geben zunächst den Temperatureinstellungen die Schuld. Niedrigere Temperatur = weniger Halluzinationen, richtig? Teilweise richtig, aber unvollständig. Die Temperatur steuert die Stichprobenzufälligkeit, nicht grundsätzlich die Halluzination. Eine Einstellung der Temperatur auf 0 (deterministischer Modus) verhindert, dass das Modell unwahrscheinliche Tokens auswählt – aber es verhindert nicht, dass es selbstbewusst falsche Aussagen basierend auf hochwahrscheinlichen falschen Entscheidungen generiert.
Das ist die Lücke, die die meisten Anleitungen übersehen. Das Senken der Temperatur reduziert die Variabilität, aber nicht die Genauigkeit. Sie erhalten konsistente Halluzinationen statt zufälliger.
Vier Techniken, die die Halluzinationsrate tatsächlich reduzieren
1. Grounding: Das Modell zwingen, Quellen zu zitieren
Das ist der einfachste Hebel. Wenn Sie vom Modell verlangen, Quellmaterial in seiner Antwort zu zitieren oder zu belegen, sinken die Halluzinationen signifikant – nicht auf Null, aber messbar. Das Modell wird durch das eingeschränkt, was tatsächlich in Ihrer Eingabe vorhanden ist.
Schlechter Prompt:
Fasse die wichtigsten Ergebnisse dieses Forschungsartikels über die Effizienz des maschinellen Lernens zusammen.
[Papiertext hier]
Was passiert: Das Modell generiert Zusammenfassungspunkte, die so klingen, als könnten sie aus dem Papier stammen, erfindet aber möglicherweise Ergebnisse oder schreibt sie falsch zu.
Verbesserter Prompt:
Fasse die wichtigsten Ergebnisse dieses Forschungsartikels zusammen. Zitiere für jedes Ergebnis den genauen Satz aus dem Papier, der es stützt. Wenn ein Punkt nicht direkt im Papier genannt wird, markiere ihn als [ABGELEITET] und erkläre deine Begründung.
[Papiertext hier]
Warum das funktioniert: Das Modell muss seine Ausgabe nun mit dem tatsächlichen Text abgleichen. Es macht immer noch Fehler, aber die Fehlerrate sinkt, da es nicht ohne Verstoß gegen die Zitierpflicht fabulieren kann. In der Praxis reduziert dies die Halluzinationsrate bei Aufgaben zur faktenbasierten Extraktion um 40–60 %.
2. RAG (Retrieval-Augmented Generation): Es suchen lassen, nicht erinnern
Halluzinationen treten oft auf, weil das Modell versucht, aus dem Gedächtnis (Trainingsdaten) zu antworten, wenn es aus dem Kontext antworten sollte. Retrieval-Augmented Generation kehrt dies um: Sie stellen relevante Dokumente vor dem Prompt bereit, und das Modell baut seine Antwort auf dem auf, was tatsächlich vorhanden ist.
Dies erfordert Infrastruktur – eine Vektordatenbank, einen Retriever, eine Chunking-Strategie – ist aber die zuverlässigste Technik für wissensintensive Arbeitsabläufe. Halluzinationsraten bei Abrufsaufgaben mit soliden RAG-Implementierungen liegen bei etwa 5–8 %, verglichen mit 20–30 % ohne Grounding.
Workflow:
- Benutzer stellt eine Frage
- Retriever durchsucht Ihre Wissensbasis und gibt die 3–5 relevantesten Dokumente zurück
- Diese Dokumente werden als Kontext in den Prompt eingefügt
- LLM generiert eine Antwort, die auf diesem Kontext basiert
- Die Ausgabe zitiert, welche Dokumentenabschnitte die Antwort beeinflusst haben
Der Kompromiss: RAG erhöht die Latenz und erfordert die Pflege von Dokumentquellen. Es schlägt auch still fehl, wenn relevante Dokumente nicht in Ihrer Datenbank vorhanden sind – das Modell halluziniert eine Antwort, anstatt „nicht gefunden“ zu sagen.
3. Eingeschränkte Ausgabeformate
Wenn Sie strukturierte Ausgaben erzwingen – JSON, XML, vordefinierte Kategorien – reduzieren Sie den Raum, in dem Halluzinationen auftreten können. Das Modell kann immer noch Fehler machen, aber es kann keine ganzen Felder erfinden.
Schlechter Prompt:
Extrahiere den Firmennamen, das Gründungsjahr und den CEO aus dieser Pressemitteilung.
[Pressemitteilungstext]
Erwartete (halluzinierte) Ausgabe:
Firma: TechVision Inc
Gründungsjahr: 2015
CEO: Sarah Martinez
Verbesserter Ansatz:
Extrahiere Informationen aus der Pressemitteilung. Gib nur gültiges JSON zurück. Wenn ein Feld im Text nicht erwähnt wird, gib null zurück.
{