Skip to content
Learning Lab · 5 min read

MCP: KI-Assistenten mit externen Tools verbinden

Erfahren Sie, wie Sie KI-Assistenten mithilfe des Model Context Protocols mit externen Tools und Datenquellen verbinden. Enthält eine Architekturübersicht, praktische Beispiele und eine Code-Anleitung zum Erstellen Ihres ersten MCP-Servers.

MCP Protocol: Connect AI to External Tools

Was ist das Model Context Protocol (MCP)?

Das Model Context Protocol ist ein standardisiertes Framework, das KI-Assistenten wie Claude ermöglicht, sich mit externen Tools, Datenbanken und Datenquellen zu verbinden, ohne komplexe benutzerdefinierte Integrationen zu erfordern. Stellen Sie es sich wie einen universellen Adapter vor: Anstatt separate Verbindungen für jedes KI-Tool zu jeder Datenquelle aufzubauen, bietet MCP eine konsistente Schnittstelle, die plattformübergreifend funktioniert.

Traditionell bedeutete die Integration eines KI-Assistenten in externe Systeme das Schreiben benutzerdefinierter API-Wrapper, die Verwaltung der Authentifizierung und die Pflege separaten Integrationscodes für jeden Anwendungsfall. MCP beseitigt diese Reibung. Es definiert einen klaren Vertrag zwischen KI-Modellen und den Tools, auf die sie zugreifen müssen, wodurch Integrationen schneller erstellt und einfacher gewartet werden können.

Wie MCP funktioniert: Die Architektur

MCP basiert auf einem Client-Server-Modell mit drei Kernkomponenten:

  • KI-Client (Host): Der KI-Assistent oder die Anwendung, die Anfragen initiiert. Dies könnte Claude, ein benutzerdefinierter Chatbot oder jedes KI-gestützte System sein.
  • MCP-Server: Ein eigenständiger Dienst, der Tools, Ressourcen und Datenquellen exponiert. Er implementiert das MCP-Protokoll und übernimmt die eigentliche Integrationslogik.
  • Transportschicht: Der Kommunikationskanal zwischen Client und Server, typischerweise unter Verwendung von stdio, HTTP oder SSE (Server-Sent Events).

Wenn Sie einem KI-Assistenten eine Frage stellen, die externe Daten erfordert, läuft der Prozess wie folgt ab: Der KI-Client erkennt, dass er externe Informationen benötigt, fordert verfügbare Tools vom MCP-Server an, erhält Beschreibungen dessen, was diese Tools leisten können, führt das entsprechende Tool mit Ihren Parametern aus und integriert schließlich die Ergebnisse in seine Antwort an Sie.

Praktische MCP-Anwendungsfälle und Beispiele

Datenbankabfragen: Verbinden Sie Claude mit Ihrer PostgreSQL- oder MySQL-Datenbank. Anstatt Daten manuell in Prompts zu kopieren, kann Claude Ihre Datenbank direkt abfragen, aktuelle Informationen abrufen und diese in Echtzeit analysieren.

Dateisystemzugriff: Erstellen Sie einen MCP-Server, der Claude das Lesen, Schreiben und Verwalten von Dateien auf Ihrem System ermöglicht. Ein gängiges Beispiel ist ein Dokumentationsassistent, der Ihren Code durchsuchen, Dateien lesen und kontextbezogene Hilfe bieten kann.

API-Integrationen: Exponieren Sie interne APIs über MCP. Verbinden Sie Claude beispielsweise mit dem HR-System, CRM oder der Analyseplattform Ihres Unternehmens, sodass es Mitarbeiterdaten, Kundeninformationen oder Leistungsmetriken abrufen kann, ohne separate Integrationen für jedes Tool zu erstellen.

Echtzeit-Datenabruf: Erstellen Sie einen MCP-Server, der Live-Daten von Wetter-APIs, Börsen oder Nachrichten-Feeds abruft. Dies stellt sicher, dass Claude immer mit aktuellen Informationen und nicht nur mit Trainingsdaten arbeitet.

Beispiel-Workflow: Ein Softwareentwicklungsteam verwendet einen MCP-Server, um Claude mit seinem GitHub-Repository, CI/CD-Protokollen und dem Bug-Tracking-System zu verbinden. Wenn ein Entwickler fragt: „Welche Tests sind bei der letzten Bereitstellung fehlgeschlagen?“, fragt Claude den MCP-Server ab, ruft die relevanten Protokolle ab und erklärt genau, welche Tests fehlgeschlagen sind und warum.

Ihren ersten MCP-Server erstellen

Das Erstellen eines MCP-Servers ist unkompliziert. Hier ist ein praktisches Beispiel eines einfachen Servers, der Tools für Wetterdaten und Datenbankabfragen exponiert:

const Anthropic = require('@anthropic-ai/sdk');
const { Server } = require('@modelcontextprotocol/sdk/server/stdio');
const { StdioServerTransport } = require('@modelcontextprotocol/sdk/server/stdio');

const server = new Server({
  name: 'data-tools',
  version: '1.0.0'
});

// Register a tool: weather lookup
server.setRequestHandler('tools/list', async () => {
  return {
    tools: [
      {
        name: 'get_weather',
        description: 'Get current weather for a location',
        inputSchema: {
          type: 'object',
          properties: {
            location: {
              type: 'string',
              description: 'City name or coordinates'
            }
          },
          required: ['location']
        }
      },
      {
        name: 'query_database',
        description: 'Execute a SELECT query against the data warehouse',
        inputSchema: {
          type: 'object',
          properties: {
            query: {
              type: 'string',
              description: 'SQL SELECT query'
            }
          },
          required: ['query']
        }
      }
    ]
  };
});

// Implement tool execution
server.setRequestHandler('tools/call', async (request) => {
  const { name, arguments: args } = request;

  if (name === 'get_weather') {
    // Call your weather API
    const response = await fetch(
      `https://api.weather.example.com/current?location=${args.location}`
    );
    return {
      content: [
        {
          type: 'text',
          text: JSON.stringify(await response.json())
        }
      ]
    };
  }

  if (name === 'query_database') {
    // Execute database query
    const result = await db.query(args.query);
    return {
      content: [
        {
          type: 'text',
          text: JSON.stringify(result.rows)
        }
      ]
    };
  }

  return { content: [{ type: 'text', text: 'Tool not found' }] };
});

// Start the server
const transport = new StdioServerTransport();
server.connect(transport);

Jetzt ausprobieren: Ein praktischer Workflow

Szenario: Sie möchten, dass Claude Fragen zu Ihrer Produktdatenbank beantwortet.

Schritt 1: Erstellen Sie einen einfachen MCP-Server, der ein Tool exponiert: search_products. Dieses Tool akzeptiert einen Abfrageparameter und gibt passende Produkte aus Ihrer Datenbank zurück.

Schritt 2: Starten Sie den MCP-Server lokal oder stellen Sie ihn in Ihrer Infrastruktur bereit.

Schritt 3: Konfigurieren Sie Claude (oder Ihren KI-Client) so, dass er sich mit diesem MCP-Server verbindet.

Schritt 4: Testen Sie mit einem Prompt: „Welche Produkte haben wir in der Kategorie ‚Elektronik‘, die weniger als 200 $ kosten?“

Was passiert: Claude erkennt, dass es Produktdaten benötigt, ruft Ihr search_products-Tool über MCP auf, empfängt die Ergebnisse und beantwortet Ihre Frage mit aktuellen, genauen Informationen.

Diese gesamte Integration dauerte Minuten statt Stunden, da Sie keine benutzerdefinierte API-Authentifizierung, Fehlerbehandlung oder Antwort-Parsing erstellen mussten – MCP übernimmt die standardisierte Protokollschicht für Sie.

Wichtige Überlegungen und Best Practices

Sicherheit: Validieren und bereinigen Sie immer die an MCP-Tools übergebenen Eingaben. Wenn Sie ein Datenbankabfrage-Tool wie in unserem Beispiel exponieren, implementieren Sie eine ordnungsgemäße SQL-Injection-Prävention und Abfragevalidierung.

Ratenbegrenzung: Fügen Sie Ihren MCP-Servern eine Ratenbegrenzung hinzu, um Missbrauch zu verhindern. Externe Tools sollten nicht unendlich oft aufgerufen werden.

Fehlerbehandlung: Geben Sie aussagekräftige Fehlermeldungen zurück, wenn Tools fehlschlagen. Dies hilft Claude zu verstehen, was schief gelaufen ist und sich elegant zu erholen.

Dokumentation: Schreiben Sie klare Beschreibungen für jedes Tool, das Sie exponieren. Je besser Sie beschreiben, was ein Tool tut und welche Eingaben es erwartet, desto effektiver wird Claude es nutzen.

Batikan
· 5 min read
Topics & Keywords
Learning Lab sie und die mit claude tools der ein
Share

Stay ahead of the AI curve

Weekly digest of the most impactful AI breakthroughs, tools, and strategies.

Related Articles

Professionelle Logos mit Midjourney erstellen: Schritt für Schritt zu Marken-Assets
Learning Lab

Professionelle Logos mit Midjourney erstellen: Schritt für Schritt zu Marken-Assets

Midjourney generiert Logo-Konzepte in Sekundenschnelle – aber professionelle Marken-Assets erfordern spezifische Prompt-Strukturen, iterative Verfeinerung und Vektor-Konvertierung. Diese Anleitung zeigt den exakten Workflow, der produktionsreife Logos erzeugt.

· 5 min read
Claude vs. ChatGPT vs. Gemini: Wählen Sie die richtige LLM für Ihren Workflow
Learning Lab

Claude vs. ChatGPT vs. Gemini: Wählen Sie die richtige LLM für Ihren Workflow

Claude, ChatGPT und Gemini eignen sich jeweils für unterschiedliche Aufgaben. Dieser Leitfaden analysiert reale Leistungsunterschiede, Halluzinationsraten, Kosten und spezifische Workflows, bei denen jedes Modell glänzt – mit konkreten Prompts, die Sie sofort verwenden können.

· 4 min read
Erstellen Sie Ihren ersten KI-Agenten ohne Code
Learning Lab

Erstellen Sie Ihren ersten KI-Agenten ohne Code

Erstellen Sie Ihren ersten funktionierenden KI-Agenten ohne Code oder API-Kenntnisse. Lernen Sie die drei Agentenarchitekturen kennen, vergleichen Sie Plattformen und durchlaufen Sie ein echtes Beispiel für die E-Mail-Triage und CRM-Abfrage – von der Einrichtung bis zur Bereitstellung.

· 14 min read
Kontextfenstermanagement: Lange Dokumente verarbeiten, ohne Daten zu verlieren
Learning Lab

Kontextfenstermanagement: Lange Dokumente verarbeiten, ohne Daten zu verlieren

Kontextfenster-Limits brechen produktive KI-Systeme. Lernen Sie drei konkrete Techniken, um lange Dokumente und Konversationen zu verarbeiten, ohne Daten zu verlieren oder API-Kosten zu sprengen.

· 4 min read
KI-Agenten entwickeln: Architekturmuster, Tool-Aufrufe und Speichermanagement
Learning Lab

KI-Agenten entwickeln: Architekturmuster, Tool-Aufrufe und Speichermanagement

Erfahren Sie, wie Sie produktionsreife KI-Agenten entwickeln, indem Sie Tool-Aufruf-Verträge beherrschen, Agentenschleifen korrekt strukturieren und den Speicher in Sitzungs-, Wissens- und Ausführungsebenen aufteilen. Enthält funktionierende Python-Codebeispiele.

· 5 min read
LLMs mit Tools verbinden: Ein Setup zur Workflow-Automatisierung
Learning Lab

LLMs mit Tools verbinden: Ein Setup zur Workflow-Automatisierung

Verbinden Sie ChatGPT, Claude und Gemini mit Slack, Notion und Sheets über APIs und Automatisierungsplattformen. Lernen Sie die Kompromisse zwischen den Modellen kennen, erstellen Sie einen funktionierenden Slack-Bot und automatisieren Sie noch heute Ihren ersten Workflow.

· 5 min read

More from Prompt & Learn

Surfer vs. Ahrefs AI vs. SEMrush: Welches Tool rankt Inhalte am besten?
AI Tools Directory

Surfer vs. Ahrefs AI vs. SEMrush: Welches Tool rankt Inhalte am besten?

Sie haben drei Stunden damit verbracht, einen 2.500 Wörter langen Artikel zu optimieren. Veröffentlicht. Zwei Wochen gewartet. Rang 47. Der Wettbewerber mit der halben Wortzahl erreichte Platz 3. Der Unterschied war kein Aufwand. Es war das Tooling. Drei KI-gestützte SEO-Plattformen behaupten nun, Ihr Ranking-Problem zu lösen: Surfer, Ahrefs AI und SEMrush. Jedes nutzt Sprachmodelle, um Top-rankende Inhalte zu analysieren, Optimierungslücken aufzudecken und Korrekturen vorzuschlagen. Auf dem Papier lösen sie dasselbe Problem. In der Praxis lösen sie es unterschiedlich – mit unterschiedlichen blinden Flecken, unterschiedlichen Kosten und unterschiedlichen Genauigkeitsraten. Dies ist kein Marketingvergleich. Dies ist, was passiert, wenn Sie alle drei tatsächlich für echte Ranking-Kampagnen nutzen.

· 10 min read
Figma KI vs Canva KI vs Adobe Firefly: Design-Tools im Vergleich
AI Tools Directory

Figma KI vs Canva KI vs Adobe Firefly: Design-Tools im Vergleich

Figma KI, Canva KI und Adobe Firefly verfolgen unterschiedliche Ansätze für generatives Design. Figma priorisiert nahtlose Integration, Canva Geschwindigkeit und Firefly Ausgabequalität. Hier erfahren Sie, welches Tool zu Ihrem tatsächlichen Workflow passt.

· 5 min read
DeepL führt Sprachübersetzung ein. Was sich für Teams ändert
AI Tools Directory

DeepL führt Sprachübersetzung ein. Was sich für Teams ändert

DeepL kündigte Echtzeit-Sprachübersetzung für Zoom und Microsoft Teams an. Im Gegensatz zu bestehenden Lösungen baut es auf DeepLs Stärke bei der Textübersetzung auf – direkte Übersetzungsmodelle mit geringerer Latenz. Hier erfahren Sie, warum das wichtig ist und wo es an seine Grenzen stößt.

· 3 min read
10 kostenlose KI-Tools, die sich 2026 wirklich bezahlt machen
AI Tools Directory

10 kostenlose KI-Tools, die sich 2026 wirklich bezahlt machen

Zehn kostenlose KI-Tools, die 2026 tatsächlich bezahlte SaaS ersetzen: Claude, Perplexity, Llama 3.2, DeepSeek R1, GitHub Copilot, OpenRouter, HuggingFace, Jina, Playwright und Mistral. Jedes über reale Arbeitsabläufe getestet mit realistischen Ratenlimits, Genauigkeitsbenchmarks und Kostenvergleichen.

· 6 min read
Copilot vs Cursor vs Windsurf: Welcher IDE-Assistent funktioniert wirklich?
AI Tools Directory

Copilot vs Cursor vs Windsurf: Welcher IDE-Assistent funktioniert wirklich?

Drei Coding-Assistenten dominieren 2026. Copilot bleibt sicher für Unternehmen. Cursor gewinnt bei den meisten Entwicklern durch Geschwindigkeit und Genauigkeit. Windsurfs Agentenmodus führt tatsächlich Code aus, um Halluzinationen zu verhindern. Hier erfahren Sie, wie Sie wählen.

· 5 min read
KI-Tools, die Ihnen wirklich Stunden pro Woche sparen
AI Tools Directory

KI-Tools, die Ihnen wirklich Stunden pro Woche sparen

Ich habe 30 KI-Produktivitätstools für Schreiben, Programmieren, Recherche und Betrieb getestet. Nur 8 haben tatsächlich messbare Zeit gespart. Hier sind die Tools mit echtem ROI, die Workflows, in denen sie punkten, und warum die meisten „KI-Produktivitätstools“ versagen.

· 12 min read

Stay ahead of the AI curve

Weekly digest of the most impactful AI breakthroughs, tools, and strategies. No noise, only signal.

Follow Prompt Builder Prompt Builder