Wir haben die Studienlage ausgewertet, Logfile-Analysen unabhängiger Quellen verglichen und eingeordnet, wo llms.txt im Verhältnis zu nachgewiesen wirksamen GEO-Maßnahmen steht. Ergebnis: zwei unterschiedliche Antworten, je nach Use-Case.
Was ist llms.txt?
llms.txt ist eine Plaintext-Datei, die Websites unter https://domain.com/llms.txt bereitstellen können, damit KI-Systeme und LLM-basierte Agenten eine strukturierte Übersicht des Site-Inhalts erhalten. Das Konzept wurde im September 2024 von Jeremy Howard (Answer.AI) vorgeschlagen und orientiert sich an bekannten Web-Konventionen:
robots.txt
Steuert, welche Seiten Crawler besuchen dürfen.
sitemap.xml
Listet alle URLs der Website.
llms.txt
Soll eine dritte Schicht ergänzen: eine strukturierte Inhaltsübersicht speziell für KI-Systeme.
Das Konzept ist kein anerkannter Standard: kein W3C-Beschluss, kein Branchenkonsens, keine Verpflichtung für Plattformen. Es ist ein Vorschlag, der viel Aufmerksamkeit gewonnen hat. Die entscheidende Frage ist, ob KI-Systeme die Datei überhaupt lesen.
Wer die Datei tatsächlich liest
Drei unabhängige Logfile-Analysen geben eine klare Antwort. Die kurze Version: KI-Bots rufen /llms.txt kaum ab. Die meisten Anfragen kommen von klassischen SEO-Crawlern.
| Studie | Methode | Befund: KI-Bot-Zugriffe auf /llms.txt |
|---|---|---|
| Longato.ch (Aug. 2025) | 1.000 Domains, 30 Tage CDN-Logs | 94,9% der Anfragen: Googlebot (als SEO-Crawler). GPTBot, ClaudeBot, PerplexityBot: nicht nachweisbar. OpenAIs Search-Bot: 10 Aufrufe gesamt über alle 1.000 Domains. |
| OtterlyAI (90 Tage) | Kontinuierliches KI-Bot-Monitoring | 0,1% des gesamten KI-Bot-Traffics. Eine durchschnittliche Content-Seite erhielt 3x mehr KI-Bot-Aufrufe als /llms.txt. |
| Reboot Online (3 Monate) | Isolierte Testseiten, nur via llms.txt verlinkt | Null Besuche von ChatGPT-, Gemini- oder Claude-Bots. Dieselben Bots waren auf anderen Seiten der Domains aktiv. |
Der Befund aus Longato.ch ist besonders aufschlussreich: Googlebot crawlt /llms.txt, aber als generische URL, nicht weil Google die Datei semantisch auswertet. Echte KI-Inference-Bots erschienen nicht. John Mueller (Google Search Advocate) formulierte es im April 2025 direkt:
AFAIK none of the AI services have said they're using LLMs.TXT, and you can tell when you look at your server logs that they don't even check for it.
—John Mueller·Google Search Advocate
Er verglich llms.txt mit dem Meta-Keywords-Tag: ein Signal, das wegen Spam-Missbrauchs nie nützlich wurde.
GEO: Kein nachweisbarer Effekt auf KI-Zitierungsraten
Parallel zu den Logfile-Analysen haben drei Studien den direkten Effekt von llms.txt auf Zitierungsraten in KI-Systemen gemessen. Das Ergebnis ist einheitlich.
| Studie | Methode | Befund: Effekt auf KI-Zitierungsrate |
|---|---|---|
| SE Ranking (Nov. 2025) | 300.000 Domains, Vorhersagemodell für KI-Zitierungen | Das Modell wurde genauer, sobald die llms.txt-Variable entfernt wurde. Kein positives GEO-Signal nachweisbar. |
| Search Engine Land (Jan. 2026) | 10 Websites, 90 Tage vor und nach Implementierung | 8 von 10 getesteten Websites zeigten nach der Implementierung keine messbaren Veränderungen in KI-Zitierungsraten. Bei den 2 mit Anstiegen gab es Alternativerklärungen: PR-Aktivitäten und technische SEO-Fixes im selben Zeitraum. |
| Trakkr (März 2026) | 37.894 KI-zitierte Domains, 337.000+ ausgewertete Zitierungen | Mit llms.txt: 6,8 Zitierungen. Ohne: 6,7. Nicht von Zufall zu unterscheiden (p=0,85). Unter den 50 meistzitierten Domains weltweit: nur 6% haben llms.txt. Reddit, Reuters, Forbes, LinkedIn nutzen sie nicht. |
Fazit: llms.txt hat keinen messbaren Effekt darauf, ob und wie oft ChatGPT, Perplexity oder Google AI Overviews eine Website als Quelle heranziehen.
Der dokumentierte Use-Case: MCP-Workflows
Es gibt einen Kontext, in dem llms.txt tatsächlich gelesen wird: KI-gestützte Entwicklungsumgebungen, die über das Model Context Protocol (MCP) auf externe Dokumentation zugreifen.
MCP ist ein offenes Protokoll, das KI-Agenten ermöglicht, strukturiert auf externe Datenquellen zuzugreifen. LangChains mcpdoc ist ein MCP-Server, der llms.txt-Dateien für angebundene Entwicklungsumgebungen bereitstellt. Bestätigte Integrationen:
Über mcpdoc MCP-Server konfigurierbar. Liest llms.txt auf explizite Nutzeranfrage.
Über mcpdoc integrierbar. Native Unterstützung ohne MCP: Stand Juni 2025 noch nicht implementiert (offenes Feature-Request im Cursor-Forum).
MCP-Integration dokumentiert. Native Unterstützung ohne MCP: keine offizielle Bestätigung.
Das Funktionsprinzip: Ein Entwickler fragt seinen KI-Assistenten nach der API einer Bibliothek oder dem Setup einer Plattform. Der Assistent liest über den MCP-Server die llms.txt dieser Plattform, bekommt eine strukturierte Übersicht und ruft gezielt relevante Seiten ab. Das reduziert Token-Verbrauch gegenüber blindem HTML-Crawling erheblich.
Wichtige Einschränkung. Dieser Use-Case setzt zweierlei voraus: Der Nutzer muss den MCP-Server aktiv einrichten, und er muss explizit nach Dokumentation fragen. Es handelt sich nicht um autonomes Crawling durch KI-Bots. Das ist der Unterschied zu dem, was llms.txt-Befürworter oft implizieren.
Mintlify, die Dokumentationsplattform (auf der u.a. docs.anthropic.com läuft), berichtet aus ihren CDN-Logs über signifikante Zugriffe auf /llms.txt und /llms-full.txt, mit ChatGPT als führendem Aufrufer. Diese Daten kommen aus einer kommerziell interessierten Quelle (Mintlify vertreibt GEO-Analytics-Produkte) und wurden nicht unabhängig verifiziert. Sie stehen im Widerspruch zu den drei unabhängigen Log-Studien oben.
Für wen ist dieser Use-Case relevant?
- Technische Dokumentationsseiten
APIs, SDKs und Dev-Tools, deren Nutzer Coding-Assistenten wie Cursor oder Claude Code einsetzen. Mintlify generiert llms.txt für Anthropic, Pinecone, Windsurf und Cursor selbst. Genau diese Zielgruppe nutzt MCP-Workflows.
- Unternehmen mit internen LLM-Tools
RAG-Systeme (Retrieval-Augmented Generation), die die eigene Website als Wissensquelle indexieren. Eine strukturierte llms.txt kann die Indexierungsqualität verbessern, weil das System gezielt die wichtigsten Seiten erhält.
- Alle anderen: sehr begrenzte Relevanz
Für eine typische Unternehmenswebsite (Dienstleister, E-Commerce, lokale Anbieter) gibt es keine dokumentierten Szenarien, in denen llms.txt messbar hilft.
Lohnt sich llms.txt?
Die Antwort hängt vom Ziel ab. Für GEO-Sichtbarkeit in großen KI-Systemen: kein nachgewiesener Effekt. Für MCP-Workflows in technischen Kontexten: real, aber eng.
- Aufwand gering: Implementierung in unter einer Stunde
- Kein technisches Risiko: schadet nachweislich nicht
- MCP-Workflows: technisch bestätigt für Coding-Assistenten mit manuellem Setup
- Interne RAG-Systeme: kann Indexierungsqualität verbessern
- Kein Effekt auf GEO: drei Studien, einheitliches Ergebnis
- KI-Bots rufen sie kaum ab: drei unabhängige Log-Analysen bestätigen das
- Kein Standard: kein RFC, keine W3C-Empfehlung, kein Plattform-Konsens
- Google wertet sie nicht aus (Mueller, April 2025)
- Falsche Priorität: strukturierte Daten, zitierfähige Inhalte und E-E-A-T bringen nachweislich mehr
Der Aufwand ist gering, das Risiko null. Wenn die GEO-Grundlagen sitzen, spricht nichts dagegen. Als Ersatz oder Abkürzung für nachgewiesen wirksame Maßnahmen taugt sie nicht.
Die Reihenfolge macht den Unterschied.
Nicht jede Maßnahme bringt gleich viel. Wir zeigen Ihnen, wo GEO-Aufwand tatsächlich Wirkung hat, und setzen das mit Ihnen um.
Einordnung: Wo llms.txt im GEO-Stack steht
GEO-Optimierung ist keine Einheitslösung. Nicht jede Maßnahme bringt gleich viel. Wer begrenzte Ressourcen hat, sollte priorisieren:
Nachgewiesen wirksam für KI-Sichtbarkeit, insbesondere FAQPage, Organization mit sameAs, Article. Implementiert bei der Mehrheit der regelmäßig zitierten Seiten.
Direkte Antworten im ersten Absatz, kurze Absätze, Fragen als Überschriften, Vergleichstabellen und FAQs. Der stärkste inhaltliche Hebel.
Autorenschaft, Originaldaten, Drittseiten-Präsenz. KI-Systeme bevorzugen Quellen mit nachweisbarer Expertise. Mehr dazu: E-E-A-T für KI-Sichtbarkeit.
GPTBot, ClaudeBot, PerplexityBot nicht blockieren. Wer diese Crawler unbeabsichtigt sperrt, fällt aus KI-Antworten heraus. Häufiger und schwerwiegenderer Fehler als fehlendes llms.txt.
Low-Cost-Add-on ohne nachgewiesene externe Wirkung. Sinnvoll als letzter Schritt oder wenn ein MCP-Workflow für die eigene Zielgruppe relevant ist. Niemals als Ersatz für Punkte 1 bis 4.
Wer llms.txt priorisiert, bevor strukturierte Daten, zitierfähige Inhalte und eine saubere robots.txt implementiert sind, setzt die falschen Prioritäten.
robots.txt für KI-Bots: Voraussetzung zuerst
Wer diese Bots unbeabsichtigt sperrt, ist in KI-Antworten nicht sichtbar, unabhängig von allen anderen Maßnahmen. Das ist wichtiger als llms.txt zu implementieren.
| Bot | Genutzt von | Hinweis |
|---|---|---|
GPTBot |
ChatGPT, SearchGPT (OpenAI) | Solange nicht aktiv gesperrt, darf er crawlen. Bestehende Disallow-Regeln prüfen. |
ClaudeBot |
Claude: Training & Wissensbasis (Anthropic) | Anthropics eigener Crawler für die Claude-Wissensbasis. |
Brave-Bot |
Claude: Live-Websuche (über Brave Search) | Claude nutzt Brave Search für Echtzeit-Suchanfragen. Wer in Claude-Suchantworten auftauchen will, braucht primär diesen Bot. |
PerplexityBot |
Perplexity | Einer der aktivsten KI-Crawler. Blockierung bedeutet Ausschluss aus Perplexity-Antworten, die explizit Quellen zeigen. |
Google-Extended |
Google AI Overviews, Gemini | Ohne diesen Bot: klassische Suche unberührt, aber kein Zugang zu AI Overview-Antworten. |
Alle User-Agents, Konfigurationsszenarien und häufige Fehler erklärt der Artikel robots.txt für KI-Bots richtig aufsetzen und prüfen.
Beispiel: Was eine gute llms.txt enthält
Wer eine llms.txt anlegt, sollte sie zumindest sinnvoll aufsetzen. Eine gute Datei ist kurz, strukturiert und beschreibt pro URL in einem Satz, was dort tatsächlich steht.
Eine llms.txt hat drei Bestandteile:
Erste Zeile: Name der Website als Markdown-Überschrift. Format: # Unternehmensname
Eine prägnante Beschreibung: für wen die Website ist und was sie bietet. Format: > Beschreibung
Markdown-Überschriften als Kategorien (z.B. ## Leistungen), darunter Links mit Kurzbeschreibungen pro URL.
Zwei häufige Fehler: zu viele URLs (die Datei ist kein Ersatz für die Sitemap) und Beschreibungen, die wie Werbetexte klingen. KI-Agenten lesen Fakten, keine Versprechen.
Ein konkretes Beispiel: So sieht unsere eigene llms.txt aus.
# traffic3 GmbH > Online Marketing Spezialagentur für Performance Marketing in Wien. > Beratung und Umsetzung für KMU in der DACH-Region: SEO, Google Ads, > GEO/KI-Sichtbarkeit, Webanalyse und Tag Management. ## Leistungen - [SEO](https://traffic3.net/leistungen/seo): Nachhaltige organische Sichtbarkeit durch technisches SEO, Content-Strategie und Linkaufbau - [Google Ads](https://traffic3.net/leistungen/adwords): Suchmaschinenwerbung mit messbarem ROI: Kampagnen-Setup und laufende Optimierung - [GEO / KI-Sichtbarkeit](https://traffic3.net/leistungen/geo): Sichtbarkeit in ChatGPT, Perplexity und Google AI Overviews aufbauen - [Webanalyse](https://traffic3.net/leistungen/webanalyse): GA4-Implementierung, Dashboards und Data Warehouse für datenbasierte Entscheidungen - [Conversion-Optimierung](https://traffic3.net/leistungen/conversion-optimierung): Mehr Abschlüsse aus bestehendem Traffic durch Landingpage-Optimierung Die vollständige Datei liegt unter traffic3.net/llms.txt. 10 bis 20 der wichtigsten Seiten reichen. Je kürzer und fokussierter, desto nützlicher für Systeme mit begrenztem Kontextfenster.
llms-full.txt: die erweiterte Variante
Ergänzend gibt es llms-full.txt: eine Datei mit dem vollständigen Markdown-Text aller wichtigen Seiten in einem Durchgang. Für Dokumentationsseiten mit MCP-Workflows sinnvoll, da Agenten den Inhalt ohne einzelne Seitenaufrufe erfassen können. Für normale Unternehmenswebsites in der Regel zu aufwändig im Verhältnis zum Nutzen.
## Optional - [llms-full.txt](https://domain.com/llms-full.txt): Vollständiger Seiteninhalt in einer Datei Implementierung in 30 Minuten
Wer es umsetzen möchte, hier der schnellste Weg:
Plaintext-Datei im Root-Verzeichnis. Name der Website, eine Beschreibungszeile mit >, dann Abschnitte mit den wichtigsten URLs und Kurzbeschreibungen.
Nicht alle URLs listen. Die 10 bis 20 wichtigsten Seiten reichen: Leistungen, zentrale Wissensseiten, Kontakt. Nebenpages, Datenschutz und Impressum weglassen.
Ein Satz pro URL, der den tatsächlichen Inhalt beschreibt. Kein Marketing-Speak. Fakten statt Versprechen.
Wenn neue wichtige Seiten hinzukommen, llms.txt aktualisieren. Eine veraltete Datei mit toten Links ist schlechter als gar keine.
Wer WordPress, WooCommerce oder Shopify nutzt, kann llms.txt automatisch über das kostenlose Yoast SEO Plugin generieren lassen, inklusive automatischer Aktualisierung bei Inhaltsänderungen. Für technische Dokumentationsseiten gibt es native Plugins für VitePress, Docusaurus und Drupal sowie das CLI-Tool llms_txt2ctx zum lokalen Parsen und Konvertieren.
Wie steht Ihre Website bei KI-Systemen da?
llms.txt ist der letzte Schritt. Strukturierte Daten, zitierfähige Inhalte und eine saubere robots.txt kommen zuerst. Wir schauen gemeinsam, was für Ihre Website sinnvoll ist.
GEO-Beratung anfragenHäufige Fragen
Nein. John Mueller (Google) sagte im April 2025 explizit, dass kein Google-System llms.txt auswertet. Er verglich die Datei mit dem Meta-Keywords-Tag. Drei unabhängige Logfile-Analysen (Longato.ch, OtterlyAI, Reboot Online) bestätigen: KI-Bots rufen die Datei kaum ab.
Keine der großen Plattformen hat offiziell bestätigt, llms.txt bei der Generierung von Antworten auszuwerten. Der einzige technisch bestätigte Use-Case ist der MCP-Workflow: Claude Desktop, Cursor und Windsurf können über LangChains mcpdoc-Server llms.txt-Dateien lesen, aber nur mit manuellem Setup und auf explizite Nutzeranfrage, nicht autonom.
Für GEO-Sichtbarkeit in ChatGPT, Perplexity und Google AI Overviews: Nein. SE Ranking (300.000 Domains), Search Engine Land (10 Sites, 90 Tage) und Trakkr (37.894 Domains, p=0,85) fanden übereinstimmend keinen Effekt. Für MCP-Workflows in Entwicklungsumgebungen: plausibel nützlich, aber keine publizierten Studien mit messbaren Ergebnissen.
Drei Szenarien mit dokumentierter Relevanz: (1) Technische Dokumentationsseiten, deren Nutzer Coding-Assistenten wie Cursor oder Claude Code über MCP nutzen. (2) Unternehmen mit internen RAG-Systemen, die die eigene Website als Wissensquelle indexieren. (3) Wer alle anderen GEO-Grundlagen bereits implementiert hat und eine Stunde übrig hat. Für typische Unternehmenswebsites außerhalb dieser Szenarien: kein dokumentierter Nutzen.
agents.txt und llms.txt lösen unterschiedliche Probleme. llms.txt liegt auf einer Website und richtet sich an web-basierte LLM-Systeme: Suchbots, Inference-Crawler, MCP-Workflows. agents.txt (oder ähnliche Dateien wie AGENTS.md, CLAUDE.md, .cursorrules) liegt in einem Code-Repository und gibt KI-Coding-Assistenten wie Claude Code, Cursor oder Windsurf Anweisungen für die Arbeit im Projekt. Zwei verschiedene Kontexte: Website-Crawling vs. lokale Entwicklungsumgebung.
robots.txt steuert den Crawler-Zugang und hat nachgewiesene Auswirkungen auf KI-Sichtbarkeit. llms.txt liefert Kontext und hat keine nachgewiesene Wirkung auf Zitierungsraten. Beide können nebeneinander existieren. Falsche robots.txt kostet Sichtbarkeit. Fehlende llms.txt: laut aktueller Studienlage nicht.
Nein. Es ist ein Vorschlag von Jeremy Howard (Answer.AI) aus September 2024. Kein RFC, keine W3C-Empfehlung, kein Branchenkonsens der Plattformen.
Nicht direkt. Keine negativen SEO- oder GEO-Effekte nachgewiesen. Das Risiko liegt ausschließlich in der Prioritätensetzung: Wer Zeit in llms.txt steckt, bevor strukturierte Daten, zitierfähige Inhalte und eine korrekte robots.txt implementiert sind, setzt die falschen Prioritäten.
Server-Logs auswerten: nach User-Agents wie GPTBot, ClaudeBot oder PerplexityBot filtern und prüfen, ob /llms.txt angefragt wurde. Erfahrung aus drei unabhängigen Analysen: die meisten Anfragen kommen von Googlebot und SEO-Crawlern, nicht von KI-Inference-Bots.
Weiterführende Artikel
GEO-Maßnahmen mit nachgewiesener Wirkung und die technische Alternative zu llms.txt:
GEO-Maßnahmen: So werden Sie in KI-Antworten sichtbar
Die wirksamsten GEO-Maßnahmen nach Wirkungsbereich: Content-Struktur, Entity-Konsistenz, Drittseiten-Präsenz, Schema Markup und technische Voraussetzungen.
WeiterlesenMarkdown for Agents: Inhalte für KI-Agenten lesbar machen
HTML belegt bis zu 5x mehr Token als Markdown. Was Markdown for Agents ist, wie es funktioniert und wie Sie es aktivieren.
Weiterlesen