Google-Agent: Wenn Googles KI-System im Nutzerauftrag Ihre Website besucht

„Google-Agent“ ist Googles neue Kennung für KI-Systeme, die Websites im Auftrag von Nutzern besuchen. Ein Agent kann Seiten navigieren, Formulare ausfüllen und Buchungen initiieren. Was ihn von Googlebot unterscheidet und was jetzt zu tun ist.

Wer heute in den Server-Logs nach Google-Agent sucht, findet dort möglicherweise bereits Visits. Google hat den User Agent am 20. März 2026 dokumentiert, der Rollout läuft. Wir zeigen, was dahintersteckt, woran Sie ihn verlässlich erkennen und welche Maßnahmen jetzt Priorität haben.

Die wichtigsten Begriffe im Überblick

Wer mit KI-Agenten noch wenig zu tun hatte, begegnet in diesem Artikel einigen Begriffen zum ersten Mal. Vier davon sind für alles Weitere entscheidend.

Agent

Ein Softwareprogramm, das im Auftrag eines Menschen eigenständig Aufgaben erledigt. Kein Chatbot, der antwortet, sondern ein Programm, das handelt. Beispiel: „Finde mir den günstigsten Flug nach Berlin nächste Woche und buche ihn.“ Der Agent sucht, vergleicht, klickt, füllt Formulare aus. Der Mensch gibt das Ziel vor, das Programm übernimmt den Rest.

User Agent

Jeder Browser und jedes Programm, das eine Website aufruft, schickt beim Request eine Kennung mit: den User-Agent-String. Er sagt dem Server: „Ich bin Chrome auf Windows“ oder „Ich bin Googlebot.“ Websites nutzen diese Information, um Inhalte anzupassen oder bestimmten Programmen den Zugriff zu erlauben oder zu verweigern. Google-Agent ist der neue User-Agent-String für Googles KI-Agenten, die offizielle Visitenkarte bei jedem Seitenaufruf.

Project Mariner

Googles experimenteller KI-Agent, der einen Browser im Auftrag von Nutzern steuert. Ein Nutzer gibt Mariner eine Aufgabe, etwa „Bestelle mir das günstigste Modell dieser Kamera“, und Mariner öffnet Tabs, navigiert Seiten, liest Produktdaten und leitet zur Kasse. Der Dienst befindet sich im experimentellen Stadium und ist aktuell primär in den USA verfügbar.

Agent-Optimierung (AIAO)

Die Disziplin, Websites so zu gestalten, dass KI-Agenten dort erfolgreich Aufgaben ausführen können. Der Zusammenhang zur klassischen Suchmaschinenoptimierung ist direkt: SEO macht Websites für Crawler auffindbar, AIAO macht sie für Agenten handlungsfähig. Was KI-Agenten genau sind und wie sie auf Websites agieren, zeigt der Artikel zu KI-Agenten.

Was ist Google-Agent?

Google hat am 20. März 2026 einen neuen Eintrag in seiner offiziellen Crawler-Dokumentation veröffentlicht: Google-Agent. Die offizielle Beschreibung lautet:

„Agents hosted on Google infrastructure to navigate the web and perform actions on request from users.“

Quelle: Google Developers, User-Triggered Fetchers, März 2026

Google-Agent ist keine weitere Variante von Googlebot. Er indexiert keine Seiten für die Google-Suche und trainiert keine KI-Modelle. Er besucht eine Website, weil ein Nutzer ein Google-System wie Project Mariner oder Gemini beauftragt hat, dort etwas zu tun. Hinter jedem Besuch steht ein Mensch mit einer konkreten Aufgabe.

Google hat den neuen User Agent in die Kategorie der „User-Triggered Fetchers“ eingeordnet: Programme, die nicht autonom crawlen, sondern auf Nutzerauftrag handeln. In diese Kategorie fallen auch NotebookLM und die Read-Aloud-Funktion. Für Google-Agent gibt es zusätzlich eine eigene IP-Adressdatei, user-triggered-agents.json, separat von den übrigen Google-Crawler-Listen. Das zeigt, dass Google ihn als eigenständige Kategorie behandelt.

Googlebot vs. Google-Agent

Beide User Agents kommen von Google, erfüllen aber grundlegend verschiedene Aufgaben. Die Verwechslung ist verständlich. Der Unterschied hat direkte Konsequenzen für den Umgang mit ihnen.

Googlebot Google-Agent
Zweck Indexiert Seiten für die Google-Suche Führt Aufgaben im Auftrag von Nutzern aus
Auslöser Autonomes Crawling, kein Mensch pro Visit Jeder Visit ist durch einen Nutzer ausgelöst
robots.txt ✓ Wird respektiert Wird nicht beachtet
Steuerbar per robots.txt ✓ Ja Nein
IP-Quelldatei googlebot.json user-triggered-agents.json

Die Logik hinter dem robots.txt-Verhalten: Wenn Sie als Mensch eine Website besuchen, respektieren Sie deren robots.txt ebenfalls nicht. Google-Agent handelt im Auftrag eines Nutzers, nicht im Auftrag von Google als Indexierungsmaschine.

Was Google-Agent auf Ihrer Website tut

Project Mariner ist das Hauptbeispiel: Googles KI-Agent, der Browser-Aufgaben für Nutzer ausführt. Er füllt Formulare aus, sucht Produkte, extrahiert Informationen, initiiert Buchungen. Google-Agent besucht dabei dieselben Seiten, die ein Nutzer aufrufen würde.

Technisch arbeitet Google-Agent auf Basis von Headless Chrome: Er rendert JavaScript, folgt Links und interagiert mit Seitenelementen. Für Ihren Server ist ein Google-Agent-Visit nicht von einem normalen Nutzer-Visit zu unterscheiden, außer anhand des User-Agent-Strings und der IP-Adresse.

Headless Chrome

Eine Version des Chrome-Browsers, die ohne sichtbares Fenster läuft. Sie lädt Seiten, rendert JavaScript und interagiert mit Elementen, genau wie ein normaler Browser, nur ohne Benutzeroberfläche. KI-Agenten nutzen Headless Chrome, um Websites so zu erleben wie ein Mensch, ohne dass ein Mensch dabei am Bildschirm sitzt.

Für Ihre Analytics hat das direkte Konsequenzen. Google-Agent-Visits erscheinen als Sessions und beeinflussen potenziell Konversionsraten, Absprungraten und Verweildauer. Wer Traffic-Analysen auf Basis von Sessions macht, ohne Google-Agent herauszufiltern, misst eine Mischung aus Mensch und Maschine.

Was Website-Betreiber jetzt tun sollten

Wer Google-Agent auf seiner Website willkommen heißen und sich dabei gut präsentieren will, beginnt nicht mit Optimierung, sondern mit einem Blick in die eigene Infrastruktur: Was sperrt ihn unbeabsichtigt aus, bevor irgendetwas anderes greift? Die Web Application Firewall ist dabei der häufigste Stolperstein. Danach folgen vier Maßnahmen in Priorität:

Sicherheits-Firewall prüfen

Viele Websites setzen eine Web Application Firewall ein: Sicherheitssoftware, die eingehenden Traffic filtert und verdächtige Anfragen automatisch blockiert. Diese Systeme erkennen Google-Agent als Bot-Traffic und blockieren ihn standardmäßig. Das Problem: Wer Google-Agent blockt, sperrt Nutzer aus, die via Gemini oder Project Mariner auf die Website zugreifen. Lösung: WAF-Regeln für die verifizierten Google-Agent-IP-Bereiche aus user-triggered-agents.json gezielt freischalten. Keine WAF im Einsatz? Hier kein Handlungsbedarf.

Server-Logs analysieren

Suchen Sie in Ihren Server-Logs nach dem String Google-Agent. Welche Seiten werden besucht, wie häufig, mit welchem Muster? Wenn die Anzahl bereits nennenswert ist, ist das ein konkretes Argument: Agent-Optimierung rückt auf der Prioritätenliste nach oben. Wie Sie Google-Agent in Logs verlässlich identifizieren und verifizieren.

Analytics-Filter einrichten

Filtern Sie Google-Agent-Traffic in GA4 oder serverseitig heraus, damit die Besuche menschliche Sessions nicht verfälschen. Besonders relevant: Konversionsraten und Absprungraten werden ohne Filter durch Agenten-Traffic systematisch verzerrt.

Agenten-Tauglichkeit prüfen

Semantisch korrekte Formulare, klar strukturierte Produktdaten, JavaScript-unabhängiger Basisinhalt auf Schlüsselseiten: das sind die Grundlagen dafür, dass Google-Agent erfolgreich handeln kann. Was das konkret bedeutet und wo der sinnvolle Einstieg liegt, beschreibt der Bereich der Agent-Optimierung (AIAO).

Ihre Website fit für Agenten machen

Gemeinsam schauen wir, wo Google-Agent heute auf Ihrer Website landet, was er vorfindet, und wo die nächsten sinnvollen Schritte liegen.

Erstgespräch vereinbaren

Google-Agent in Server-Logs erkennen

Google-Agent identifiziert sich mit einem eigenen User-Agent-String, der bei jedem Website-Besuch in den Server-Logs erscheint. Der String enthält immer das Token Google-Agent sowie einen Verweis auf die offizielle Google-Dokumentation.

Der einfachste Filterausdruck für Ihre Log-Auswertung:

Google-Agent

Die vollständigen User-Agent-Strings mit den aktuellen Chrome-Versionsnummern sind in der offiziellen Google-Dokumentation hinterlegt.

User-Agent-Strings lassen sich fälschen. Deswegen ist eine IP-Verifizierung empfehlenswert: Ein Reverse-DNS-Lookup der anfragenden IP-Adresse sollte auf Hostnamen der Form google-proxy-XXX-XXX.google.com auflösen. Die aktuellen IP-Bereiche stehen in Googles user-triggered-agents.json, separat von den Googlebot-IP-Listen.

Wenn Sie regelmäßige Google-Agent-Visits auf bestimmten Seiten bemerken, ist das ein konkretes Signal: Diese Seiten werden von Nutzern über Gemini oder Project Mariner aufgerufen. Das ist wertvoller Input für Entscheidungen rund um Agent-Optimierung.

Ausblick: web-bot-auth

User-Agent-Strings lassen sich trivial fälschen; IP-Verifikation allein bietet keine kryptografisch gesicherte Identität. Das experimentelle Protokoll web-bot-auth – ein IETF-Standardentwurf, federführend entwickelt von Cloudflare – löst dieses Problem: Ein Agent signiert jeden HTTP-Request kryptografisch mit einem privaten Schlüssel. Die Website prüft die Signatur gegen den öffentlich zugänglichen Public Key des Agenten. Bei Google ist dieser unter agent.bot.goog abrufbar.

Das Ergebnis ist eine fälschungssichere Identität statt einer leicht imitierbaren Kennung. Langfristig soll web-bot-auth als Standard dafür dienen, legitime KI-Agenten verlässlich zu erkennen und gezielt Zugriffsregeln festzulegen: Welche Agenten dürfen welche Bereiche einer Website betreten?

Robots.txt: Was gilt, was nicht

Robots.txt-Regeln für Google-Agent werden laut Googles Dokumentation in der Regel nicht beachtet, weil ein Nutzer aktiv den Zugriff ausgelöst hat.

Wichtig: Disallow-Regeln für Google-Agent in der robots.txt sind wirkungslos. Die Begründung von Google: Google-Agent handelt wie ein Nutzer, der eine Seite besucht. Nutzer respektieren robots.txt nicht.

Wer bestimmte Bereiche vor Agenten schützen möchte, etwa Checkout-Flows, persönliche Kontobereiche oder interne Daten, braucht serverseitige Authentifizierung. Eine Login-Schranke, die eine gültige Nutzer-Session erfordert, ist für Google-Agent genauso eine Hürde wie für einen menschlichen Nutzer ohne Konto. Robots.txt ist es nicht.

Das experimentelle web-bot-auth-Protokoll könnte mittelfristig eine differenziertere Steuerung ermöglichen: Website-Betreiber könnten damit festlegen, welche Agenten Zugriff auf welche Bereiche erhalten, ohne vollständige Authentifizierung einzusetzen.

Ausblick und Auswirkungen

Agenten-Traffic ist ab jetzt eine identifizierbare, messbare Kategorie. Zur Frage „Können Nutzer uns finden?” kommt eine zweite: „Können Agenten bei uns handeln?” Das ist keine Entweder-oder-Entscheidung, sondern eine Erweiterung: wie bei klassischer Conversion-Optimierung muss zuerst die Auffindbarkeit stimmen, dann die Nutzbarkeit. SEO bleibt die Grundlage, Agent-Optimierung setzt darauf auf.

Wer heute Logs auswertet, hat in einigen Monaten konkrete Zahlen: welche Seiten Google-Agent besucht, wie häufig und mit welchem Muster. Das ist die Datenbasis für Entscheidungen zu Agent-Optimierung und MCP-Integration. Wer in den Logs viele Google-Agent-Visits sieht, hat damit ein datenbasiertes Argument, WebMCP zu priorisieren: Der Traffic zeigt, dass Nutzer bereits über Google-Systeme auf die Website zugreifen. Die Daten liegen bereits vor.

Google-Agent und Agent-Optimierung gemeinsam angehen

Agenten besuchen Ihre Website bereits, ob Ihre Seiten darauf vorbereitet sind oder nicht. Welche Maßnahmen für Ihre Website sinnvoll sind und wo der richtige Einstieg liegt, das finden wir gemeinsam heraus.

  • Log-Analyse und Identifikation von Agenten-Traffic
  • Analytics-Filterung für saubere Messung
  • Agent-Tauglichkeit von Schlüsselseiten bewerten
Erstgespräch vereinbaren

Häufige Fragen zu Google-Agent

Was ist der Unterschied zwischen Google-Agent und Googlebot?

Googlebot crawlt autonom für den Google-Suchindex und respektiert robots.txt. Google-Agent besucht Websites nur, wenn ein Nutzer über Google-Systeme wie Gemini oder Project Mariner eine Aufgabe ausgelöst hat. Robots.txt gilt für Google-Agent nicht, weil ein Mensch hinter dem Request steht.

Kann ich Google-Agent über robots.txt blockieren?

Nein. Laut Googles eigener Dokumentation beachtet Google-Agent robots.txt-Regeln in der Regel nicht, weil ein Nutzer aktiv den Zugriff ausgelöst hat. Wer bestimmte Bereiche schützen möchte, braucht serverseitige Authentifizierung.

Woran erkenne ich Google-Agent in meinen Server-Logs?

Der User-Agent-String enthält das Token Google-Agent sowie einen Verweis auf Googles Dokumentation. Zur Verifikation empfiehlt sich ein Reverse-DNS-Lookup der IP-Adresse: Echte Google-Agent-IPs lösen auf Hostnamen der Form google-proxy-XXX-XXX.google.com auf. Die aktuellen IP-Bereiche stehen in Googles user-triggered-agents.json.

Was macht Google-Agent auf meiner Website?

Google-Agent führt Browser-Aufgaben aus, die Nutzer über Gemini oder Project Mariner in Auftrag geben: Formulare ausfüllen, Produkte suchen, Informationen extrahieren, Buchungen initiieren. Er rendert JavaScript und verhält sich wie ein automatisierter Nutzer.

Ist es wünschenswert, dass KI-Agenten meine Website besuchen?

Google-Agent ist kein Ersatz für menschliche Besucher, sondern deren Verlängerung. Wer Gemini beauftragt, ein Produkt zu finden oder einen Anbieter zu vergleichen, schickt einen Agenten stellvertretend. Kann der Agent das gesuchte Produkt auf Ihrer Seite nicht finden oder die relevanten Informationen nicht extrahieren, wird er Ihre Website nicht empfehlen, unabhängig davon, ob das Angebot eigentlich passt.

Die eigentliche Frage ist nicht ob, sondern wie gut Ihre Website für Agenten lesbar und handlungsfähig ist. Eine Seite, die Agenten nicht bedienen kann, verliert diesen Kanal vollständig.

Ist Google-Agent schon in Europa aktiv?

Google-Agent wurde am 20. März 2026 dokumentiert, mit einem initialen Rollout primär in den USA. Wann der Dienst in Europa und Österreich regulär verfügbar sein wird, hat Google bislang nicht kommuniziert. Eine Prüfung der eigenen Server-Logs gibt aktuell den zuverlässigsten Hinweis.

Nutzt Gemini auch den Google-Agent User Agent?

Ja. Laut Googles Dokumentation wird Google-Agent sowohl von Project Mariner als auch von Gemini als persönlichem Assistenten mit Web-Zugriff verwendet.

Kann Google-Agent die Hosting-Kosten erhöhen?

Prinzipiell ja. Google-Agent arbeitet mit Headless Chrome, rendert JavaScript und interagiert aktiv mit Seitenelementen. Das ist server-seitig aufwändiger als ein einfacher Crawler-Request. Für die meisten Websites dürfte das kein spürbares Problem sein. Wer aber in den Logs ungewöhnlich hohe Google-Agent-Frequenz bemerkt, sollte den Traffic-Anteil monitoren. Drosseln wäre kontraproduktiv, da jeder blockierte Google-Agent-Request einem Nutzer entspricht, der über Gemini oder Project Mariner auf die Website zugreift.

Kontakt

traffic3 GmbH | SEO & Digital Analytics

E-Mail: office@traffic3.net

Telefon: +43 1 890 80 50

Standort: Dapontegasse 2/7, 1030 Wien, Österreich

Zum Kontaktformular

Weiterführende Artikel

KI-Agenten

KI-Agenten: Was sie sind und was sie auf Websites tun

Was KI-Agenten von Chatbots unterscheidet, welche Typen heute im Einsatz sind und warum das für Website-Betreiber relevant ist.

Weiterlesen

Agent-Optimierung

Markdown for Agents: Inhalte für KI-Agenten lesbar machen

HTML belegt bis zu 5x mehr Token als Markdown. Wie Content Negotiation funktioniert und wie Sie es auf Ihrer Website aktivieren.

Weiterlesen

Bereit für besseres Online Marketing?

Erzählen Sie uns von Ihren Zielen – wir melden uns für ein unverbindliches Erstgespräch.

Jetzt Kontakt aufnehmen