Skip to content
Learning Lab · 4 min read

KI-Agenten bauen: Tool Calling, Speicher und Loop-Muster

KI-Agenten sind Schleifen, keine Chatbots. Lernen Sie das Kernarchitekturmuster, wie Tool Calling funktioniert, Strategien zur Speicherverwaltung und die Codeform, die Fehler in der Produktion tatsächlich behandelt.

AI Agent Architecture: Tool Calling and Memory Patterns

Die meisten Entwickler behandeln KI-Agenten wie Chatbots mit zusätzlichen Schritten. Eine Frage stellen, eine Antwort erhalten, weitermachen. Sobald Sie möchten, dass ein Agent tatsächlich etwas tut – Daten abruft, eine Datenbank aktualisiert, eine Entscheidung über mehrere Schritte hinweg trifft –, bricht dieses Modell zusammen. Hier ist Architektur wichtig und hier scheitern die meisten Implementierungen innerhalb der ersten zwei Wochen nach der Produktion.

Ein KI-Agent ist eine Schleife, kein Modell. Das Modell ist die Entscheidungsmaschine. Die Schleife ist das Betriebssystem, das entscheidet, was als Nächstes passiert.

Die Kern-Agenten-Schleife

Jeder funktionale Agent folgt diesem Muster:

1. Benutzer gibt Eingabe/Kontext an
2. LLM entscheidet, was zu tun ist (einschließlich: nichts tun)
3. Wenn das LLM eine Aktion gewählt hat:
   - Führe das Tool aus
   - Erfasse das Ergebnis
   - Gib das Ergebnis an das LLM zurück
4. Wiederhole, bis das LLM sagt: „Ich bin fertig“
5. Gib die endgültige Antwort an den Benutzer zurück

Die Schleife ist der Vertrag. Das Modell ist der Entscheidungsträger darin. Verwechseln Sie diese, und Sie werden wochenlang damit verschwenden, Prompts zu debuggen, wenn das eigentliche Problem Ihre Schleifenlogik ist.

Das habe ich bei AlgoVesta auf die harte Tour gelernt. Wir haben einen Agenten gebaut, um Marktdaten zu analysieren und Trades auszuführen. Der Prompt wurde mit 40 % Genauigkeit festgelegt – bis wir feststellten, dass die Schleife dasselbe Tool zweimal aufrief, ihm veraltete Ergebnisse aus dem ersten Aufruf zuführte und sich dann wunderte, warum der Agent schlechte Entscheidungen traf. Das Modell war in Ordnung. Die Verkabelung war kaputt.

Tool Calling: Der Vertrag zwischen LLM und Code

Tool Calling ist die Art und Weise, wie das LLM Ihrem Code mitteilt, was ausgeführt werden soll. Es ist keine Prompt-Technik. Es ist ein API-Vertrag.

Die meisten Modelle unterstützen dies jetzt nativ – Claude (über tool_use-Block), GPT-4o (über function_calling), Mistral (über tool_call). Die Namen unterscheiden sich. Das Konzept ist identisch: Das Modell gibt strukturierte Daten zurück, die besagen: „Führe dieses Tool mit diesen Parametern aus.“

So sieht eine grundlegende Tool-Definition aus:

{
  "name": "fetch_user_data",
  "description": "Ruft Benutzerkontoinformationen ab, einschließlich Guthaben und Transaktionshistorie",
  "input_schema": {
    "type": "object",
    "properties": {
      "user_id": {
        "type": "string",
        "description": "Die eindeutige Benutzerkennung"
      },
      "include_history": {
        "type": "boolean",
        "description": "Transaktionshistorie einschließen (Standard: falsch)"
      }
    },
    "required": ["user_id"]
  }
}

Die Beschreibung ist wichtig. Eine vage Beschreibung wie „Daten abrufen“ führt dazu, dass das Modell das Tool falsch verwendet. Eine spezifische Beschreibung wie „Ruft Benutzerkontoinformationen ab, einschließlich Guthaben und Transaktionshistorie“ gibt dem Modell den Kontext, um zu entscheiden, ob es dieses Tool überhaupt benötigt.

Hier ist ein reales Szenario: Wir hatten einen Agenten, der die Benutzerberechtigung prüfen sollte, bevor Entscheidungen getroffen wurden. Er rief ständig das falsche Tool auf, weil die Beschreibung generisch war. Durch die Änderung zu „Kundenberechtigung basierend auf Kontenalter, Guthaben und Transaktionsmustern validieren“ sank die Fehlerrate von 18 % auf 3 %.

Die Tool-Definition ist die Hälfte des Prompt-Engineerings. Schreiben Sie sie klar.

Speicher: Konversation oder Zustand

Hier weichen die meisten Hobbyprojekte von Produktionssystemen ab.

Konversationsspeicher (der Chatverlauf, den Sie dem Modell zurückgeben) funktioniert, bis er es nicht mehr tut. Token-Limits existieren. Claude Sonnet 4 hat 200.000 Token, aber das Einspeisen eines 6-monatigen Gesprächsverlaufs in jeden API-Aufruf verschwendet Token und verlangsamt die Inferenz. Nachdem AlgoVesta etwa 3.000 Agenteninteraktionen pro Monat erreichte, erkannten wir, dass wir Budget für Kontext verbrannten, den das Modell nicht benötigte.

Produktionsagenten benötigen zwei Speicherebenen:

Kurzzeitgedächtnis: Die aktuelle Konversation oder Aufgabe. Halten Sie sie knapp – nur die letzten 5–10 Nachrichten oder die letzten 5 Minuten der Interaktion, je nachdem, was kürzer ist.

Langzeitgedächtnis: Fakten, an die sich der Agent erinnern muss, die er aber nicht in jedem Prompt benötigt. Speichern Sie dies separat – eine Datenbank, einen Vektorspeicher oder eine strukturierte Wissensbasis – und rufen Sie es nur ab, wenn es relevant ist.

Hier ist das Muster:

1. Benutzer sendet Nachricht
2. Frage den Langzeitspeicher nach relevanten Fakten
3. Füge diese Fakten zum System-Prompt hinzu
4. Füge den aktuellen Gesprächsverlauf hinzu (letzte N Nachrichten)
5. An LLM senden
6. Wenn der Agent etwas Wichtiges gelernt hat, speichere es
7. Fahre mit dem Tool Calling fort

Für einen Handelsagenten speichern wir frühere Entscheidungen und deren Ergebnisse. Wenn der Agent entscheidet, ob er einen Handel ausführen soll, rufen wir die letzten 5 ähnlichen Trades und ihre Ergebnisse ab – nicht den gesamten Gesprächsverlauf, nur das Signal.

Dies ist eine 10-Zeilen-Änderung von „naiven Speicher“ zu „skalierbarem Speicher“. Die meisten Entwickler machen diesen Schritt nie.

Fehlerbehandlung und Wiederholungslogik

Ein Tool-Aufruf schlägt fehl. Die Datenbank war langsam. Die API gab ein Timeout zurück. Was macht der Agent?

Wenn Ihre Schleife einfach abstürzt, haben Sie ein Spielzeug gebaut. Produktionsagenten benötigen Fallback-Logik.

Minimales praktikables Muster:

for attempt in range(max_retries):
try:
result = execute_tool(tool_name, params)
if result.success:
return result
except ToolExecutionError as e:
if attempt == max_retries - 1:
# Letzter Versuch fehlgeschlagen. Informiere das LLM.
agent_message = f

Batikan
· 4 min read
Topics & Keywords
Learning Lab die das ist und sie tool der eine
Share

Stay ahead of the AI curve

Weekly digest of the most impactful AI breakthroughs, tools, and strategies.

Related Articles

Professionelle Logos mit Midjourney erstellen: Schritt für Schritt zu Marken-Assets
Learning Lab

Professionelle Logos mit Midjourney erstellen: Schritt für Schritt zu Marken-Assets

Midjourney generiert Logo-Konzepte in Sekundenschnelle – aber professionelle Marken-Assets erfordern spezifische Prompt-Strukturen, iterative Verfeinerung und Vektor-Konvertierung. Diese Anleitung zeigt den exakten Workflow, der produktionsreife Logos erzeugt.

· 5 min read
Claude vs. ChatGPT vs. Gemini: Wählen Sie die richtige LLM für Ihren Workflow
Learning Lab

Claude vs. ChatGPT vs. Gemini: Wählen Sie die richtige LLM für Ihren Workflow

Claude, ChatGPT und Gemini eignen sich jeweils für unterschiedliche Aufgaben. Dieser Leitfaden analysiert reale Leistungsunterschiede, Halluzinationsraten, Kosten und spezifische Workflows, bei denen jedes Modell glänzt – mit konkreten Prompts, die Sie sofort verwenden können.

· 4 min read
Erstellen Sie Ihren ersten KI-Agenten ohne Code
Learning Lab

Erstellen Sie Ihren ersten KI-Agenten ohne Code

Erstellen Sie Ihren ersten funktionierenden KI-Agenten ohne Code oder API-Kenntnisse. Lernen Sie die drei Agentenarchitekturen kennen, vergleichen Sie Plattformen und durchlaufen Sie ein echtes Beispiel für die E-Mail-Triage und CRM-Abfrage – von der Einrichtung bis zur Bereitstellung.

· 14 min read
Kontextfenstermanagement: Lange Dokumente verarbeiten, ohne Daten zu verlieren
Learning Lab

Kontextfenstermanagement: Lange Dokumente verarbeiten, ohne Daten zu verlieren

Kontextfenster-Limits brechen produktive KI-Systeme. Lernen Sie drei konkrete Techniken, um lange Dokumente und Konversationen zu verarbeiten, ohne Daten zu verlieren oder API-Kosten zu sprengen.

· 4 min read
KI-Agenten entwickeln: Architekturmuster, Tool-Aufrufe und Speichermanagement
Learning Lab

KI-Agenten entwickeln: Architekturmuster, Tool-Aufrufe und Speichermanagement

Erfahren Sie, wie Sie produktionsreife KI-Agenten entwickeln, indem Sie Tool-Aufruf-Verträge beherrschen, Agentenschleifen korrekt strukturieren und den Speicher in Sitzungs-, Wissens- und Ausführungsebenen aufteilen. Enthält funktionierende Python-Codebeispiele.

· 5 min read
LLMs mit Tools verbinden: Ein Setup zur Workflow-Automatisierung
Learning Lab

LLMs mit Tools verbinden: Ein Setup zur Workflow-Automatisierung

Verbinden Sie ChatGPT, Claude und Gemini mit Slack, Notion und Sheets über APIs und Automatisierungsplattformen. Lernen Sie die Kompromisse zwischen den Modellen kennen, erstellen Sie einen funktionierenden Slack-Bot und automatisieren Sie noch heute Ihren ersten Workflow.

· 5 min read

More from Prompt & Learn

Surfer vs. Ahrefs AI vs. SEMrush: Welches Tool rankt Inhalte am besten?
AI Tools Directory

Surfer vs. Ahrefs AI vs. SEMrush: Welches Tool rankt Inhalte am besten?

Sie haben drei Stunden damit verbracht, einen 2.500 Wörter langen Artikel zu optimieren. Veröffentlicht. Zwei Wochen gewartet. Rang 47. Der Wettbewerber mit der halben Wortzahl erreichte Platz 3. Der Unterschied war kein Aufwand. Es war das Tooling. Drei KI-gestützte SEO-Plattformen behaupten nun, Ihr Ranking-Problem zu lösen: Surfer, Ahrefs AI und SEMrush. Jedes nutzt Sprachmodelle, um Top-rankende Inhalte zu analysieren, Optimierungslücken aufzudecken und Korrekturen vorzuschlagen. Auf dem Papier lösen sie dasselbe Problem. In der Praxis lösen sie es unterschiedlich – mit unterschiedlichen blinden Flecken, unterschiedlichen Kosten und unterschiedlichen Genauigkeitsraten. Dies ist kein Marketingvergleich. Dies ist, was passiert, wenn Sie alle drei tatsächlich für echte Ranking-Kampagnen nutzen.

· 10 min read
Figma KI vs Canva KI vs Adobe Firefly: Design-Tools im Vergleich
AI Tools Directory

Figma KI vs Canva KI vs Adobe Firefly: Design-Tools im Vergleich

Figma KI, Canva KI und Adobe Firefly verfolgen unterschiedliche Ansätze für generatives Design. Figma priorisiert nahtlose Integration, Canva Geschwindigkeit und Firefly Ausgabequalität. Hier erfahren Sie, welches Tool zu Ihrem tatsächlichen Workflow passt.

· 5 min read
DeepL führt Sprachübersetzung ein. Was sich für Teams ändert
AI Tools Directory

DeepL führt Sprachübersetzung ein. Was sich für Teams ändert

DeepL kündigte Echtzeit-Sprachübersetzung für Zoom und Microsoft Teams an. Im Gegensatz zu bestehenden Lösungen baut es auf DeepLs Stärke bei der Textübersetzung auf – direkte Übersetzungsmodelle mit geringerer Latenz. Hier erfahren Sie, warum das wichtig ist und wo es an seine Grenzen stößt.

· 3 min read
10 kostenlose KI-Tools, die sich 2026 wirklich bezahlt machen
AI Tools Directory

10 kostenlose KI-Tools, die sich 2026 wirklich bezahlt machen

Zehn kostenlose KI-Tools, die 2026 tatsächlich bezahlte SaaS ersetzen: Claude, Perplexity, Llama 3.2, DeepSeek R1, GitHub Copilot, OpenRouter, HuggingFace, Jina, Playwright und Mistral. Jedes über reale Arbeitsabläufe getestet mit realistischen Ratenlimits, Genauigkeitsbenchmarks und Kostenvergleichen.

· 6 min read
Copilot vs Cursor vs Windsurf: Welcher IDE-Assistent funktioniert wirklich?
AI Tools Directory

Copilot vs Cursor vs Windsurf: Welcher IDE-Assistent funktioniert wirklich?

Drei Coding-Assistenten dominieren 2026. Copilot bleibt sicher für Unternehmen. Cursor gewinnt bei den meisten Entwicklern durch Geschwindigkeit und Genauigkeit. Windsurfs Agentenmodus führt tatsächlich Code aus, um Halluzinationen zu verhindern. Hier erfahren Sie, wie Sie wählen.

· 5 min read
KI-Tools, die Ihnen wirklich Stunden pro Woche sparen
AI Tools Directory

KI-Tools, die Ihnen wirklich Stunden pro Woche sparen

Ich habe 30 KI-Produktivitätstools für Schreiben, Programmieren, Recherche und Betrieb getestet. Nur 8 haben tatsächlich messbare Zeit gespart. Hier sind die Tools mit echtem ROI, die Workflows, in denen sie punkten, und warum die meisten „KI-Produktivitätstools“ versagen.

· 12 min read

Stay ahead of the AI curve

Weekly digest of the most impactful AI breakthroughs, tools, and strategies. No noise, only signal.

Follow Prompt Builder Prompt Builder