Stellen Sie sich vor, jemand fragt ChatGPT: "Finde mir einen Webdesigner in Hamburg, der auch KI-Chatbots baut." Was passiert dann? Der Agent durchsucht das Internet, findet Websites, liest deren Inhalte -- und versucht zu verstehen, was diese Unternehmen anbieten. Bei den meisten Websites muss er raten. Er parst HTML, interpretiert Texte, zieht Schlüsse aus Überschriften und hofft, dass er richtig liegt.
Das ist ungefähr so effizient, wie wenn Sie einen neuen Mitarbeiter einstellen und ihm sagen: "Lies unsere Website durch und rate mal, was wir machen." Funktioniert irgendwie. Aber es geht besser.
Die Parallele zu SEO -- nur 20 Jahre weiter
Anfang der 2000er gab es ein ähnliches Problem. Suchmaschinen konnten Websites finden, aber nicht richtig verstehen. Die Lösung: SEO. Meta-Tags, strukturierte Daten, sauberes HTML. Websites lernten, mit Google zu sprechen.
WebMCP ist das gleiche Konzept -- nur für KI-Agenten statt für Suchmaschinen.
SEO = Websites für Suchmaschinen optimieren. WebMCP = Websites für KI-Agenten optimieren.
Der Unterschied: Suchmaschinen indexieren und verlinken. KI-Agenten wollen handeln. Sie wollen nicht nur wissen, dass ein Restaurant existiert -- sie wollen einen Tisch reservieren. Sie wollen nicht nur Preise sehen -- sie wollen ein Angebot anfordern. Sie wollen nicht nur Portfolios durchblättern -- sie wollen das passende Projekt für ihren Kunden finden.
Was WebMCP technisch bedeutet
WebMCP steht für "Web Model Context Protocol". Das klingt sperrig, ist aber im Kern simpel: Es ist ein Vorschlag, wie Websites KI-Agenten mitteilen, was sie können und wie man mit ihnen interagiert.
Das Herzstück sind zwei Dateien, die unter /.well-known/ auf einer Website liegen:
agents.json -- Die Speisekarte für KI-Agenten
Die Datei agents.json listet auf, welche Dienste eine Website anbietet und wie ein Agent darauf zugreifen kann. Sie beschreibt:
- Name und Beschreibung des Unternehmens
- Verfügbare Tools mit Endpunkt, Methode und Parametern
- Fähigkeiten wie unterstützte Sprachen oder Protokolle
Wenn ein KI-Agent studiomeyer.io/.well-known/agents.json abruft, bekommt er nicht vage Marketingtexte, sondern eine klare Auflistung: "Hier kannst du Portfolios filtern, hier ein Angebot anfordern, hier einen Beratungstermin buchen."
agent-card.json -- Der Lebenslauf
Während agents.json die verfügbaren Tools beschreibt, ist agent-card.json eher der Steckbrief. Es folgt dem A2A-Protokoll (Agent-to-Agent) und beschreibt:
- Skills des Unternehmens (was kann es?)
- Input/Output-Formate (wie kommuniziert man?)
- Protokoll-Version und Capabilities
Zusammen bilden diese zwei Dateien eine maschinenlesbare Schnittstelle. Keine Interpretation nötig, kein Raten, kein HTML-Parsing.
Ehrlich gesagt: Der Standard ist noch jung
Jetzt kommt der Teil, den viele Marketing-Artikel verschweigen. WebMCP ist kein fertiger W3C-Standard, der von allen Browsern und Agents unterstützt wird. Stand Februar 2026:
- Es gibt eine W3C Community Group, die am Web Model Context Protocol arbeitet
- Die
agents.json-Spezifikation kommt als Community-Projekt von GitHub (nicepkg/agents.json) - Google hat mit Chrome 146 erste Experimente mit
navigator.modelContextangekündigt - Das A2A-Protokoll (Agent-to-Agent, v0.3.0) ist weiter, aber ebenfalls noch Draft
Was heißt das konkret? Nicht jeder KI-Agent unterstützt agents.json. ChatGPT, Claude und andere können bereits Websites analysieren und APIs nutzen -- aber sie suchen nicht automatisch nach einer agents.json-Datei. Das kommt noch.
Die Situation erinnert an robots.txt in den 90ern: Erst kamen die Crawler, dann brauchte man eine Möglichkeit, mit ihnen zu kommunizieren. Die Crawler sind da. Die Kommunikation wird gerade standardisiert.
Warum die Richtung trotzdem klar ist
Drei Gründe, warum WebMCP kein Hype ist, sondern eine logische Entwicklung:
1. KI-Agenten brauchen strukturierte Daten
LLMs können HTML lesen und interpretieren. Aber das ist fehleranfällig, langsam und unzuverlässig. Genau wie Suchmaschinen nicht bei reinem HTML geblieben sind, sondern strukturierte Daten (Schema.org, JSON-LD) brauchten, brauchen KI-Agenten strukturierte Endpunkte.
2. Die großen Player investieren
Anthropic hat MCP (Model Context Protocol) als Open-Source-Standard veröffentlicht. Google arbeitet an WebMCP-Integration in Chrome. Microsoft integriert Agent-Fähigkeiten in Copilot. Wenn die drei größten KI-Unternehmen in die gleiche Richtung laufen, ist das kein Zufall.
3. Agent-Traffic wächst exponentiell
Noch machen KI-Agenten einen kleinen Bruchteil des Web-Traffics aus. Aber die Wachstumskurve ist steil. Jeder zweite ChatGPT-Nutzer nutzt die Websuche. Claude kann Websites analysieren. Und das ist erst der Anfang -- Agenten, die im Auftrag von Nutzern handeln, werden zur Normalität.
Was WebMCP für Unternehmen bedeutet
Die praktische Frage: Was bringt mir das heute?
Kurzfristig (2026): Vorbereitung
- Strukturierte APIs bauen: Nicht nur schöne Websites, sondern maschinenlesbare Endpunkte
- agents.json und agent-card.json deployen: Kostet fast nichts, positioniert Sie als Early Adopter
- Strukturierte Daten pflegen: JSON-LD, Schema.org -- das zahlt auf SEO und AI-Readiness ein
Mittelfristig (2027-2028): Early-Mover-Vorteil
- KI-Agenten werden verstärkt nach agents.json suchen
- Websites mit strukturierten Endpunkten werden bevorzugt
- Wer früh baut, hat Erfahrung, wenn der Markt anzieht
Langfristig: Neue Traffic-Quelle
- Agent-Traffic als eigener Kanal neben organischem Traffic und Paid
- Transaktionen direkt über API-Endpunkte
- KI-Agenten als Vertriebskanal
Fünf Use Cases, die heute schon funktionieren
WebMCP ist nicht nur Theorie. Hier sind fünf Szenarien, die mit einer agents.json-Datei und passenden API-Endpunkten bereits möglich sind:
1. Portfolio-Discovery: Ein KI-Agent sucht für seinen Nutzer einen Webdesigner. Statt Websites zu crawlen, fragt er die agents.json ab, filtert nach Branche und Stil, und präsentiert passende Projekte.
2. Automatische Preiskalkulation: "Was kostet eine Website mit 10 Seiten, Blog und Kontaktformular?" Der Agent schickt eine strukturierte Anfrage an den /api/v1/quote-Endpunkt und bekommt eine Schätzung zurück.
3. Terminbuchung: Der Agent bucht direkt einen Beratungstermin, ohne dass der Nutzer ein Formular ausfüllen muss.
4. Website-Audit: Ein Agent prüft, ob eine Website AI-Ready ist, und liefert einen Score mit konkreten Verbesserungsvorschlägen.
5. Tool-Generierung: Ein Agent generiert agents.json-Dateien für andere Unternehmen -- basierend auf Branche und Geschäftsmodell.
Das sind keine hypothetischen Szenarien. StudioMeyer hat genau diese neun Tools in seiner agents.json implementiert. Ob sie heute schon massenhaft genutzt werden? Nein. Ob sie bereitstehen, wenn die Nutzung kommt? Ja.
Die robots.txt-Analogie
1994 hat Martijn Koster robots.txt vorgeschlagen. Damals hatten die meisten Websites keine. Warum auch -- es gab kaum Crawler. Dann kamen Google, Yahoo und die anderen. Und plötzlich war robots.txt nicht optional, sondern essentiell.
Wir sind bei WebMCP ungefähr in der Mitte der 90er, übertragen auf KI-Agenten. Die Agenten sind da. Die Standards entstehen. Die Adoption wird folgen.
Der Unterschied: In den 90ern dauerte der Übergang 10 Jahre. In der KI-Ära? Eher 2-3.
Was das für Ihre Website bedeutet
Drei konkrete Schritte, die Sie heute unternehmen können:
Schritt 1: Prüfen Sie Ihre APIs. Hat Ihre Website strukturierte Endpunkte? Oder gibt es nur HTML-Seiten? Wenn Letzteres: Fangen Sie klein an. Ein /api/services-Endpunkt, der Ihre Dienstleistungen als JSON zurückgibt, ist ein Anfang.
Schritt 2: Erstellen Sie eine agents.json. Listen Sie auf, was Ihre Website kann. Welche Informationen kann ein Agent abrufen? Welche Aktionen kann er ausführen? Das Dateiformat ist einfach -- ein JSON-Array mit Tools, Endpunkten und Parametern.
Schritt 3: Messen Sie. Wer kommt auf Ihre API-Endpunkte? Wie entwickelt sich der Agent-Traffic? Diese Daten werden in den nächsten Jahren entscheidend.
Fazit: Nicht ob, sondern wann
WebMCP ist keine Frage des Ob, sondern des Wann. Die Infrastruktur wird gebaut. Die Standards entstehen. Die KI-Agenten werden besser. Und irgendwann -- wahrscheinlich schneller als die meisten denken -- wird die Frage nicht mehr sein "Brauche ich agents.json?", sondern "Warum habe ich das nicht schon längst?"
SEO war in den 2000ern das Gleiche. Wer früh investiert hat, hatte einen Vorteil, der über Jahre trug. Bei WebMCP wird es nicht anders sein.
Die Technik ist bereit. Die Adoption kommt. Die Frage ist nur: Sind Sie es auch?
