Zum Hauptinhalt springen

Google-Agent und WebMCP: Warum SEO jetzt zur Infrastrukturfrage wird

Autor: Ralf Dodler | Kategorie:
veröffentlicht: 31.03.2026
aktualisiert: 31.03.2026

Am 20. März 2026 hat Google in seinen offiziellen Crawling-Dokumentationen einen neuen Eintrag ergänzt: Google-Agent, ein User-Agent für Agenten auf Google-Infrastruktur, die im Auftrag von Nutzern das Web navigieren und Aktionen ausführen.

Der Eintrag wirkt technisch unspektakulär, markiert aber eine sichtbare Verschiebung: Google gibt agentischem Traffic erstmals eine klar benannte Identität in seiner Fetcher-Dokumentation. Parallel dazu ist WebMCP seit dem 10. Februar 2026 als Early Preview dokumentiert – ein Browser-Standardentwurf, mit dem Websites strukturierte Werkzeuge für browserbasierte Agenten bereitstellen können.

Zusammen deuten beide Entwicklungen darauf hin, dass digitale Sichtbarkeit stärker zur Zugangs- und Infrastrukturfrage wird.

Warum dieser Moment eine Zäsur markiert

Die Dokumentation zu Google-Agent wurde am 20. März 2026 veröffentlicht, mit dem Hinweis, dass der User-Agent in den folgenden Wochen schrittweise eingeführt wird. Was diesen Eintrag von früheren Ergänzungen wie Google-NotebookLM oder Google-Pinpoint unterscheidet, ist nicht der technische Mechanismus, sondern die Funktion.

Google-Agent erscheint in HTTP-Requests, wenn ein Agent auf Google-Infrastruktur eine vom Nutzer initiierte Aufgabe ausführt. Das unterscheidet ihn von klassischen Crawlern wie Googlebot, die primär Inhalte abrufen, rendern und für nachgelagerte Systeme bereitstellen.

Hinzu kommt, dass Google mit dem Web Bot Auth-Protokoll experimentiert und dabei die Identität https://agent.bot.goog verwendet. Dahinter steht ein IETF-Standardisierungsprozess, der Methoden zur kryptografischen Authentifizierung automatisierter Clients gegenüber Websites definieren soll.

Diese Kombination aus formalisiertem Agent-Identifier und experimenteller Bot-Authentifizierung deutet darauf hin, dass agentischer Web-Traffic nicht nur dokumentiert, sondern zunehmend auch infrastrukturell abgesichert wird.

WebMCP gehört zum gleichen Entwicklungsstrang, adressiert aber eine andere Schicht. Während Google-Agent sichtbar macht, dass Agenten Websites besuchen und auf Nutzeranfrage handeln, beschreibt WebMCP, wie Websites strukturierte Interaktionsmöglichkeiten für browserbasierte Agenten bereitstellen können.

Damit verschiebt sich die Diskussion von der reinen Erkennung agentischen Traffics hin zur Frage, wie Websites dafür technisch vorbereitet sein müssen.

Zwei Protokolle, zwei Schichten

Um die Tragweite dieser Entwicklung einzuordnen, ist die Unterscheidung zwischen MCP und WebMCP zentral. Das Model Context Protocol (MCP) operiert im Backend und verbindet KI-Systeme mit externen Datenquellen, Tools und Workflows. 

WebMCP dagegen ist ein vorgeschlagener Browser-Standard mit zwei APIs, die exklusiv mit dem im Browser eingebauten Agenten interagieren. Chrome beschreibt WebMCP ausdrücklich als browserseitige, von MCP inspirierte Lösung – nicht als direkte JavaScript-Implementierung von MCP.

Für Unternehmen bedeutet das: Beide Ansätze sind nicht austauschbar, sondern ergänzen sich. Ein Anbieter kann einen MCP-Server für die direkte Anbindung an KI-Plattformen betreiben und gleichzeitig WebMCP auf seiner Website einsetzen, damit browserbasierte Agenten in einer aktiven Nutzersitzung mit konkreten Funktionen interagieren können.

Damit entstehen zwei Ebenen maschineller Zugänglichkeit: eine serverseitige für Tool- und Datenintegration und eine browserseitige für agentische Interaktion im Web.

WebMCP ist dabei nicht nur eine technische Komfortfunktion. Chrome beschreibt ausdrücklich, dass WebMCP-Tools mit der Anwendungslogik und nicht mit dem Design verbunden sind. Dadurch wird die Interaktion für Agenten stabiler, auch wenn sich das Interface einer Website verändert.

Für Website-Betreiber ist das strategisch relevant: Nicht mehr nur Inhalte und semantische Struktur entscheiden darüber, wie gut ein System mit einer Website arbeiten kann, sondern zunehmend auch die explizit definierte Handlungslogik darunter.

Was sich für Zitierfähigkeit und Sichtbarkeit verändert

Diese Entwicklung verändert das Konzept der Zitierfähigkeit. Bisher hing sie vor allem davon ab, ob Inhalte semantisch klar, thematisch relevant und einer erkennbaren Quelle zugeordnet waren. In agentischen Systemen kommt eine weitere Ebene hinzu: die strukturierte technische Zugänglichkeit.

Inhalte, die verständlich und autoritativ sind, aber keine klaren Andockpunkte für maschinelle Interaktion oder strukturierte Datenbereitstellung bieten, haben schlechtere Voraussetzungen, in agentischen Auswahl- und Ausführungsprozessen berücksichtigt zu werden. Diese Logik lässt sich im größeren Kontext des Information Retrieval einordnen.

Als Analyserahmen hilft hier das Generative Authority Model (GAM). Das Modell beschreibt, wie Inhalte in generativen Suchsystemen über Entitätsstärke, semantische Tiefe und Zitierfähigkeit sichtbar und referenzierbar werden.

Die Entwicklungen rund um Google-Agent und WebMCP verschärfen vor allem die strukturellen Voraussetzungen, auf denen diese höheren Ebenen überhaupt wirksam werden können.

Wer in agentischen Systemen sichtbar sein will, muss nicht nur inhaltlich verständlich und zitierfähig sein, sondern zunehmend auch technisch anschlussfähig.

Was sich für Publisher verändert

Für Publisher ist Google-Agent zunächst ein neues Signal in der Messinfrastruktur. Wenn agentisch ausgelöste Besuche in Server-Logs identifizierbar werden, entsteht erstmals eine Datengrundlage, um Anfragen von Agenten und Besuche menschlicher Nutzer sauberer zu trennen. Das wird umso wichtiger, je stärker KI-Systeme Inhalte nicht nur zusammenfassen, sondern auch Webseiten im Auftrag von Nutzern aktiv besuchen.

Die größere Verschiebung liegt jedoch eine Ebene tiefer. Agentische Systeme greifen nicht nur auf Inhalte zu, sondern zunehmend auch auf Funktionen, Entscheidungslogiken und strukturierte Abläufe. Für Publisher, deren Geschäftsmodell stark auf klassischem Traffic basiert, stellt sich damit die Frage, wie Inhalte, Daten und Interaktionsmöglichkeiten künftig so bereitgestellt werden können, dass sie auch in agentischen Kontexten anschlussfähig bleiben.

Für Unternehmen außerhalb des Publishing-Bereichs ist die Konsequenz ähnlich deutlich. Entscheidungen über technische Architektur – welche Datenpunkte maschinenlesbar bereitgestellt werden, welche Prozesse strukturiert beschrieben sind und welche Interaktionswege Agenten nutzen können – wirken sich zunehmend auf digitale Sichtbarkeit aus.

Damit wird eine Frage, die bislang häufig bei Entwicklung und IT lag, unmittelbar relevant für SEO, Content-Strategie und digitale Markenführung.

Die eigentliche Verschiebung

Für sich genommen ist der Eintrag von Google-Agent ein kleines technisches Update in einer Entwicklerdokumentation. In Kombination mit WebMCP, Web Bot Auth und der sichtbaren Bewegung hin zu agentischen Nutzungsszenarien wird daraus jedoch ein Hinweis auf eine größere Veränderung: Das Web wird nicht mehr nur als Dokumentenraum für menschliche Navigation gedacht, sondern zunehmend auch als Interaktionsraum für Softwareagenten.

Für SEO bedeutet das keine Abschaffung klassischer Sichtbarkeitslogiken. Rankings, semantische Relevanz, Entitäten und Autorität bleiben wichtig. Aber sie reichen allein nicht mehr aus. Sichtbarkeit in agentischen Systemen hängt künftig stärker davon ab, ob Inhalte und Funktionen nicht nur gefunden, sondern auch maschinell verstanden und strukturiert genutzt werden können. Genau deshalb wird SEO schrittweise zur Infrastrukturfrage.

Portraitfoto von Ralf Dodler – Generative SEO-Stratege

Ralf Dodler ist Generative SEO-Stratege und Entwickler des Generative Authority Model (GAM), eines strategischen Vier-Ebenen-Frameworks zur Positionierung von Marken, Organisationen und Experten als vertrauenswürdige, zitierfähige Entitäten in AI-Search-Ökosystemen. Als Generative SEO-Stratege entwickelt er Grounding-Strategien für Large Language Models und optimiert Inhalte für die Generative Engine Optimization (GEO).