Wir haben die Unterschiede zwischen GEO und Agent-Optimierung herausgearbeitet, die wichtigsten Maßnahmen eingeordnet und zeigen, für welche Websites das Thema heute schon relevant ist.
GEO und Agent-Optimierung: zwei verschiedene Ziele
Zwei Arten von KI-Systemen lesen heute Websites. Für beide gelten andere Spielregeln.
GEO (Generative Engine Optimization) adressiert Informationssysteme mit großer Nutzerbasis: ChatGPT beantwortet täglich Millionen Fragen, Perplexity liefert Antworten mit Quellenangaben, Google AI Overviews erscheinen über den organischen Suchergebnissen. Das Ziel von GEO: in diesen generierten Antworten erwähnt werden, wenn viele Nutzer nach einem Thema suchen.
Agent-Optimierung (international: AIAO, AI Agent Optimization) adressiert eine andere Schicht. KI-Agenten handeln im Auftrag einzelner Nutzer: Ein Agent wird losgeschickt, um Angebote zu vergleichen, eine Buchung vorzubereiten oder eine API-Dokumentation zu durchsuchen. Nicht Millionen Nutzer gleichzeitig, sondern eine Person mit einer konkreten Aufgabe.
| GEO | Agent-Optimierung | |
|---|---|---|
| Zielgruppe | Masseninformationssysteme | Individuelle Agenten im Nutzerauftrag |
| Beispiele | ChatGPT, Perplexity, Google AI Overviews | Claude mit Web-Zugriff, Deep Research, Custom GPT Agents |
| Ziel | In generierten Antworten erwähnt werden | Agent findet, liest und verarbeitet die Website korrekt |
| Skala | 1 Antwort für viele Nutzer | 1 Agent für 1 Nutzer, 1 Aufgabe |
| Primärer Hebel | Zitierfähige Inhalte, E-E-A-T, strukturierte Daten | Crawlbarkeit, Token-Effizienz, Formular-Accessibility |
„GEO ist das neue SEO: sichtbar werden, diesmal in KI-Systemen. Agent-Optimierung ist die neue Conversion-Optimierung: nutzbar sein, diesmal für Maschinen."
Thomas Graf, traffic3
SEO und GEO lösen dasselbe Problem: gefunden werden. Einmal in der klassischen Suche, einmal in KI-Antworten. Conversion-Optimierung und Agent-Optimierung lösen ein anderes Problem: was passiert, wenn jemand da ist. Conversion-Optimierung gestaltet für menschliche Entscheidungen. Agent-Optimierung für maschinelle Ausführbarkeit.
Beides schließt sich nicht aus. Viele Maßnahmen zahlen auf beide Ziele ein. Der Unterschied liegt in der Priorisierung.
Wo KI-Agenten heute eingesetzt werden
Agenten, die eigenständig im Web agieren, sind keine Zukunftsvision. Claude, Deep Research von Perplexity und OpenAI, Custom GPTs mit Browsing-Funktion holen heute Inhalte von Websites ab, um Aufgaben für einzelne Nutzer zu erledigen.
Ein Nutzer schickt einen Agenten los, um Angebote zu vergleichen, Spezifikationen zu prüfen und den Kaufprozess bis kurz vor dem Kaufabschluss vorzubereiten. Der Agent liest Produktseiten, Preise, Lieferbedingungen. Ob er die richtigen Daten findet, hängt von der Seitenstruktur ab. Ein Preis, der erst nach JavaScript-Ausführung im DOM erscheint, existiert für die meisten Agenten nicht.
Ein Entscheider schickt einen Agenten zur Vorabrecherche: Leistungsangebot, Referenzen, Zertifizierungen, Ansprechpartner. Wer hier nicht klar strukturiert, riskiert unvollständige oder fehlerhafte Darstellung im Agenten-Report, der als Entscheidungsgrundlage dient.
Ein Entwickler beauftragt einen Coding-Agenten, eine API zu integrieren. Der Agent durchsucht die Dokumentation nach Endpunkten, Parametern, Authentifizierungslogik. Dokumentationsseiten mit sauberer Struktur und Markdown-Auslieferung werden deutlich effizienter verarbeitet als solche mit viel HTML-Rauschen.
Ehrlich gesagt ist die Zielgruppe heute noch stark auf Entwickler konzentriert. Coding Agents wie Claude Code, Cursor und GitHub Copilot sind die dominante Anwendung. Verbraucher-Agenten für Recherche und Kaufvorbereitung folgen langsam.
Das könnte sich schneller ändern als erwartet. Anthropic versucht mit Claude for Work, agentische KI-Systeme aus dem Entwickler-Umfeld in breitere Arbeitsumgebungen zu bringen. Wenn Wissensarbeiter Agenten für Recherche, Vergleiche und Entscheidungsvorbereitung einsetzen, ändert sich das Bild für alle Websites, die in B2B-Kaufprozessen eine Rolle spielen.
Wie KI-Agenten Websites lesen
KI-Agenten senden HTTP-Anfragen, folgen Links und extrahieren Inhalte. Wie ein Nutzer ohne Browser: kein Rendering, kein JavaScript, keine visuelle Darstellung.
Die meisten Agenten führen kein JavaScript aus. Wer Inhalte client-side rendert (etwa mit React ohne Server-Side Rendering), liefert Agenten eine leere Seite. Schneller Test: Website mit deaktiviertem JavaScript aufrufen. Was dort fehlt, fehlt auch für Agenten.
Agenten verarbeiten Texte in Token, den Texteinheiten von Sprachmodellen. Jede Seite belegt einen Teil des verfügbaren Kontextfensters. HTML ist dabei pures Rauschen: Tags, CSS-Klassen, Navigationsstrukturen, eingebettete Skripte. Derselbe Inhalt als Markdown belegt ein Fünftel der Token. Was den Token-Rahmen sprengt, wird gekürzt oder ignoriert.
Agenten folgen Links, nicht Sitemaps. Wer wichtige Seiten nicht intern verlinkt, riskiert, dass der Agent sie nie findet. Auch Ankertexte zählen: „Preisliste herunterladen" hilft dem Agenten, „hier klicken" nicht.
Was Agent-Optimierung konkret bedeutet
Das übergeordnete Ziel ist Actionability: der Anteil der Website-Funktionen, die ein KI-Agent fehlerfrei ausführen kann. Nicht jede Maßnahme ist für jede Website gleich relevant. Wer einen Blog betreibt, hat andere Prioritäten als ein Onlineshop oder ein SaaS-Produkt.
Inhalte zugänglich machen
Agenten müssen Inhalte lesen können, bevor sie handeln können. Wer hier schon Lücken hat, verliert den Agenten bereits beim ersten Seitenaufruf.
Markdown-Auslieferung reduziert den Token-Verbrauch deutlich. Cloudflare bietet das als Schalter im Dashboard (Pro-Plan aufwärts). Für WordPress gibt es Plugins wie Serve Markdown oder md4AI. Wichtig dabei: Kritische Informationen (Preis, Verfügbarkeit, Kontakt) gehören an den Seitenanfang. Agenten kürzen von hinten.
Wie oben beschrieben: Inhalte, die nur nach JS-Ausführung sichtbar werden, existieren für Agenten nicht. Server-Side Rendering (SSR) oder Static Generation löst das Problem. In unserer Erfahrung ist das der häufigste blinde Fleck bei React- und Vue-basierten Websites.
Agenten navigieren über Links. Wichtige Seiten, die nicht intern verlinkt sind, werden nicht gefunden. llms.txt ergänzt das als explizite Inhaltsübersicht: ein strukturiertes Verzeichnis der wichtigsten Seiten, das Agenten direkt aufrufen können.
Technische Voraussetzungen
Viele Websites blockieren KI-Agenten unbeabsichtigt: durch falsche robots.txt-Einträge, Cloudflare-Standardeinstellungen oder nicht-semantisches HTML. Diese Punkte lassen sich oft ohne größere Entwicklungsarbeit korrigieren.
KI-Bots teilen sich in Training-Bots (sammeln Daten für Modelltraining), Index-Bots (bauen den KI-Suchindex auf) und Retrieval-Bots (liefern Antworten in Echtzeit). Wer Training-Bots blockiert, aber Retrieval-Bots zulässt, schützt Inhalte und bleibt trotzdem sichtbar. Anthropic betreibt z.B. ClaudeBot (Training), Claude-SearchBot (Index) und Claude-User (Retrieval) als separate Einträge. Welche Bots für welches Ziel relevant sind, erklären wir im GEO-Maßnahmen-Überblick.
Cloudflare blockiert seit Juli 2025 alle KI-Crawler standardmäßig. Wer Cloudflare nutzt, muss unter „AI Crawl Control" explizit freigeben, welche Bots Zugriff bekommen. Das betrifft viele Websites im DACH-Raum, die Cloudflare als CDN nutzen, ohne sich über diese Einstellung bewusst zu sein. Auch WAF-Regeln und Rate-Limits verdienen einen Blick: In Kundenprojekten sehen wir regelmäßig, dass legitime KI-Agenten versehentlich blockiert werden.
Viele Agenten nehmen Websites über den Accessibility Tree wahr, nicht über Screenshots. Das heißt konkret: Buttons müssen <button> sein, nicht <div onclick>. Solche nicht-semantischen Elemente wirken für Menschen wie Buttons, sind für Agenten aber tote Punkte — man könnte sie Agent Traps nennen. Formularfelder brauchen sichtbare Labels. Landmark Roles (role="main", role="navigation") helfen beim Orientieren. Wer WCAG-Standards bereits umsetzt, hat bei Agent-Optimierung einen Vorsprung.
Wir machen Ihre Website gemeinsam fit für KI-Agenten
Cloudflare-Einstellungen, robots.txt, JavaScript-Rendering: Wir prüfen die technischen Grundlagen und setzen die richtigen Hebel gemeinsam um.
Transaktionen ermöglichen
Lesen ist eine Sache, handeln eine andere. Wer Agenten nicht nur informieren, sondern als Kanal für Käufe, Buchungen oder Anfragen nutzen will, braucht zusätzliche Maßnahmen.
Schema.org-Markup deklariert, was eine Seite ist. potentialAction mit EntryPoint geht einen Schritt weiter: Es deklariert, was ein Agent tun kann. Preise abfragen, Buchungen anstoßen, Produkte in den Warenkorb legen, ohne die UI zu navigieren. Für E-Commerce: BuyAction, ReserveAction, SearchAction. Ehrlich gesagt nutzen bisher wenige Agenten diese Markup-Typen aktiv, aber die Richtung ist klar.
Agenten scheitern an CAPTCHAs, JavaScript-only-Formularen, Modal-Dialogen ohne Tastaturnavigation und Cookie-Bannern, die den Seiteninhalt blockieren. Das sind keine Randfälle. Ein Kaufabschluss, der ohne JS nicht funktioniert, ist für einen Agenten eine Sackgasse. AWS arbeitet bereits an einem CAPTCHA-Reduktionsprodukt speziell für KI-Agenten.
Agenten können keine Scroll-Events ausführen, die Lazy Loading auslösen. Inhalte hinter Infinite Scroll existieren für sie nicht. Lösung: paginierte URLs (/seite/2) als crawlbare Ausweichlösung neben dem Infinite Scroll, oder rel="next" / rel="prev"-Link-Elemente für Artikelserien.
Formularfelder klar benennen
Mehrdeutige Feldnamen zwingen Agenten zum Raten und führen zu falschen Eingaben. Ein Kontaktformular mit „Name" lässt offen, ob Vorname, Nachname oder Firmenname erwartet wird. Ein Feld „Nachricht" ohne Kontext produziert generischen Text statt einer konkreten Anfrage. Klare Labels und Platzhaltertexte sind hier wirkungsvoller als jede technische Maßnahme.
| Unklar | Besser |
|---|---|
name | first_name + last_name |
message | project_description |
company | company_name |
date | project_start_date |
budget | budget_eur |
Besonderheiten für Software- und Dokumentationsseiten
Softwareprodukte und technische Dokumentation sind der Bereich, in dem Agent-Optimierung heute am stärksten greift. Coding Agents sind bereits aktive Nutzer von Dokumentationsseiten.
Eine öffentlich erreichbare OpenAPI 3.x-Spec ist der stärkste Einzelhebel. Ein Coding-Agent, der sie findet, kann Endpunkte, Parameter und Authentifizierungsanforderungen direkt auslesen, ohne Seiten zu parsen. Wer keine OpenAPI-Spec hat, verliert bei Agenten, die für Entwickler Integrationen vorbereiten.
Coding-Agenten, die Kommandozeilenwerkzeuge einsetzen sollen, brauchen strukturierte CLI-Doku: Befehle, Flags und Beispiele in Code-Blöcken, nicht in Fließtext vergraben. --help-Outputs sollten als crawlbare HTML-Seiten verfügbar sein, nicht nur im Terminal.
Für Dokumentationsseiten mit vielen Unterseiten wird llms.txt zur strukturierten Einstiegsseite: Dokumentationsbereiche, API-Referenzen, Tutorials, Changelogs. Mintlify (die Plattform hinter docs.anthropic.com) verzeichnete 436 KI-Crawler-Zugriffe auf ihre llms.txt. Agenten nutzen diesen Einstiegspunkt aktiv.
Einen Schritt weiter geht llms-full.txt: keine Inhaltsübersicht, sondern eine Anleitung für Agenten, die auf der Website etwas tun sollen. Wo befindet sich welches Tool, welche Schritte sind nötig, wie sieht eine erfolgreiche Ausführung aus, was tun bei einem Fehler. Wer heute eine SaaS-Dokumentation pflegt und Coding Agents als Zielgruppe ernst nimmt, hat mit dieser Datei eine Möglichkeit, Agenten gezielt zu führen statt sie auf sich selbst gestellt zu lassen.
Für Dokumentationsseiten ohne Transaktionsfunktion bleibt Markdown-Auslieferung der wirksamste Hebel. Die Optionen (Cloudflare, Plugins, serverseitige Konvertierung) sind mit geringem Aufwand umsetzbar.
Ein Blick voraus: WebMCP (Chrome Early Preview seit Februar 2026) erlaubt es Websites, strukturierte Aktionen direkt im Browser für Agenten bereitzustellen, ohne DOM-Parsing. Noch sehr früh, aber für Software-Produkte mit Agent-Ambitionen lohnt es sich, das im Auge zu behalten.
Ihre Website fit für KI-Agenten?
Nicht alles auf einmal. Manche Maßnahmen sind in einer Stunde erledigt, andere brauchen Entwicklungsressourcen. Wir helfen Ihnen, die richtigen Prioritäten zu setzen.
Gespräch anfragenHäufige Fragen
- Was ist ein KI-Agent?
- Ein KI-System, das selbstständig Aufgaben erledigt: Browser öffnen, Seiten lesen, Formulare ausfüllen, Entscheidungen vorbereiten. Kein Chatbot, der antwortet, sondern ein Werkzeug, das handelt. Beispiele: Claude mit aktiviertem Web-Zugriff, Perplexity Deep Research, Custom GPT Agents mit Browsing-Funktion.
- Was ist der Unterschied zwischen Agent-Optimierung und GEO?
- GEO sorgt dafür, dass Ihre Inhalte in KI-Antworten zitiert werden. Agent-Optimierung (auch: Optimierung für KI-Agenten, international AIAO) sorgt dafür, dass ein KI-Agent Ihre Website lesen, verstehen und darin handeln kann. Kurz: GEO betrifft Sichtbarkeit, Agent-Optimierung betrifft Nutzbarkeit. Die Tabelle oben zeigt die Unterschiede im Detail.
- Muss ich mich zwischen GEO und Agent-Optimierung entscheiden?
- Nein, vieles überschneidet sich: sauberes HTML, strukturierte Daten, schnelle Ladezeiten zahlen auf beides ein. Die Frage ist, was zuerst kommt. Für KI-Sichtbarkeit stehen E-E-A-T und zitierfähige Inhalte im Vordergrund. Für Agent-Nutzbarkeit eher Formular-Accessibility, potentialAction-Schema und Markdown-Auslieferung.
- Für wen lohnt sich Agent-Optimierung heute schon?
- Vor allem für Websites mit Transaktionsfunktion: E-Commerce (Agenten bereiten Kaufentscheidungen vor), Reisebuchung (Verfügbarkeit, Vergleich), Software mit öffentlicher API (Coding Agents nutzen Dokumentation bereits aktiv) und B2B-Dienstleister (Agenten erstellen Entscheidungsvorlagen). Reine Informationsseiten haben weniger Druck, profitieren aber trotzdem von besserer Crawlbarkeit.
- Was ist die wichtigste erste Maßnahme?
- robots.txt prüfen: Sind Retrieval-Bots (Claude-User, ChatGPT-User, PerplexityBot) zugelassen? Wer Cloudflare nutzt, muss seit Juli 2025 KI-Crawler explizit freigeben, sonst werden sie blockiert. Das ist in wenigen Minuten erledigt und hat sofortige Wirkung. Danach: Website mit deaktiviertem JavaScript testen und prüfen, was für Agenten sichtbar bleibt.
- Was hat Agent-Optimierung mit Accessibility zu tun?
- Viel. Agenten nehmen Websites über den Accessibility Tree wahr, also dieselbe Struktur, die Screenreader nutzen. Saubere HTML-Semantik, beschreibende Labels, tastaturnavigierbare Formulare: Wer WCAG-Standards umsetzt, hat bei Agent-Optimierung bereits einen Großteil der Arbeit erledigt.
- Wie teste ich, ob meine Website für Agenten zugänglich ist?
- Drei Schnelltests ohne Spezialwerkzeug: JavaScript im Browser deaktivieren und prüfen, was noch sichtbar ist. Den User-Agent auf „Googlebot" setzen und die Seite neu laden. Einen Accessibility-Checker wie axe DevTools oder WAVE laufen lassen und die Fehlerliste durchgehen. Was in diesen Tests fehlt oder bricht, fehlt auch für Agenten. Wenn Sie danach wissen wollen, wo die kritischen Hebel liegen und in welcher Reihenfolge sie anzugehen sind, helfen wir dabei im Rahmen unserer GEO- und Agent-Optimierung-Beratung.
- Schadet Agent-Optimierung der Nutzererfahrung für Menschen?
- Nein. Die Maßnahmen verbessern Mensch und Maschine gleichzeitig: Semantisches HTML macht Seiten zugänglicher für alle Besucher, klare Formularfelder reduzieren Fehler unabhängig davon, wer sie ausfüllt, und schnelle Ladezeiten kommen jedem zugute. Es gibt keine Maßnahme in der Agent-Optimierung, die auf Kosten menschlicher Nutzbarkeit geht.
- Was unterscheidet Agent-Optimierung von technischem SEO?
- Technisches SEO sorgt dafür, dass Googlebot eine Website korrekt indexieren kann. Der Crawler liest, bewertet und geht. Agent-Optimierung sorgt dafür, dass ein Agent auf der Website etwas tun kann: Informationen extrahieren, Formulare ausfüllen, einen Prozess abschließen. Crawlbarkeit und sauberes HTML überschneiden sich. Der Unterschied liegt im Ziel: Wer nur indexiert werden will, braucht technisches SEO. Wer von Agenten genutzt werden will, braucht zusätzlich Formular-Accessibility, klare Feldbezeichnungen und Transaktions-Markup.
- Muss ich meine Website dafür neu bauen?
- Nein. Agent-Optimierung ist kein Neuaufbau, sondern ein zusätzlicher Ausgabekanal. Vergleichbar mit der Mobiloptimierung: Der Inhalt bleibt gleich, er wird nur in einer Form bereitgestellt, die auch für Agenten funktioniert. Robots.txt anpassen, Feldbezeichnungen klären, HTML-Semantik korrigieren: Das sind schrittweise Maßnahmen. Tiefergehende Eingriffe braucht nur, wer auf stark client-seitigem JavaScript aufbaut und Transaktionsfunktionen für Agenten öffnen will.
- Kann ein Agent auf meiner Website einkaufen oder buchen?
- Technisch ja, in der Praxis noch selten. Die Voraussetzungen: barrierefreie Formulare ohne JavaScript-only-Felder, klare Feldbezeichnungen und optionales
potentialAction-Schema, das deklariert, welche Aktionen ein Agent ausführen kann. Das größte Hindernis sind aktuell CAPTCHAs. AWS und andere Plattformen arbeiten gezielt an Lösungen, der Standard ist aber noch im Aufbau. Wer Transaktionen für Agenten heute schon zugänglich machen will, beginnt am besten mit barrierefreien Formularen und einer sauberenBuyAction- oderReserveAction-Auszeichnung.
Kontakt
traffic3 GmbH | SEO- und GEO-Beratung
E-Mail: office@traffic3.net
Telefon: +43 1 890 80 50
Kontaktformular: Zum Kontaktformular
Standort: Dapontegasse 2/7, 1030 Wien, Österreich
Fokus: DACH-Region (Deutschland, Österreich, Schweiz)
Weiterführende Artikel
Markdown for Agents
Wie Cloudflare, WordPress-Plugins und andere Plattformen HTML automatisch in Token-effizientes Markdown konvertieren, wenn ein KI-Agent fragt.
Weiterlesenllms.txt: Sinnvolles GEO-Signal oder überflüssiger Hype?
Drei Studien, ein Ergebnis. Was llms.txt für GEO bringt, wann es sich trotzdem lohnt und wie eine gute Datei aussieht.
WeiterlesenGEO-Maßnahmen im Überblick
Strukturierte Daten, zitierfähige Inhaltsformate, robots.txt-Konfiguration: Was konkret für KI-Sichtbarkeit wirkt.
WeiterlesenGEO und SEO: Warum KI-Sichtbarkeit auf SEO aufbaut
Wie sich GEO und SEO unterscheiden, wo sie sich überschneiden und warum gutes SEO die Grundlage für KI-Sichtbarkeit bleibt.
Weiterlesen