llms.txt: Sinnvolles GEO-Signal oder überflüssiger Hype?

llms.txt ist ein Vorschlag, der viel diskutiert wird: eine Markdown-Datei, die KI-Systemen eine strukturierte Inhaltsübersicht liefern soll. Klingt sinnvoll. Ob es auch wirkt, ist eine andere Frage.

Was ist llms.txt?

llms.txt ist eine Plaintext-Datei, die Websites unter https://domain.com/llms.txt bereitstellen können, damit KI-Systeme und LLM-basierte Agenten eine strukturierte Übersicht des Site-Inhalts erhalten. Das Konzept wurde 2024 von Jeremy Howard (Answer.AI) vorgeschlagen und orientiert sich an bekannten Web-Konventionen:

robots.txt

Steuert, welche Seiten Crawler besuchen dürfen.

sitemap.xml

Listet alle URLs der Website.

llms.txt

Soll eine dritte Schicht ergänzen: eine strukturierte Inhaltsübersicht speziell für KI-Systeme.

Das Konzept ist nicht ratifiziert. Es gibt kein RFC, keine W3C-Empfehlung, keinen Konsens der großen Plattformen. Es ist ein Vorschlag, der Aufmerksamkeit gewonnen hat, aber kein Standard ist.

Wie es funktionieren soll

Eine llms.txt enthält typischerweise drei Elemente: eine kurze Beschreibung der Website und ihrer Themen, eine strukturierte Liste der wichtigsten URLs mit Kurzbeschreibungen, und optional eine Angabe, welche Inhalte für KI-Training freigegeben oder gesperrt sind.

Optional ist auch eine llms-full.txt: eine einzige Datei mit dem vollständigen Markdown-Text aller wichtigen Seiten. Der gedachte Vorteil: KI-Agenten müssen nicht dutzende Seiten einzeln crawlen, sondern können den gesamten Inhalt in einem Durchgang erfassen. Für Dokumentationsseiten wird eine Token-Reduktion von bis zu Faktor 10 gegenüber HTML-Parsing angeführt.

So sieht eine Minimalimplementierung aus

Eine llms.txt besteht aus drei Teilen, von denen zwei Pflicht sind.

1
Kurzbeschreibung (Pflicht)

Erste Zeile: Name der Website. Zweite Zeile: eine prägnante Beschreibung, für wen die Website ist und was sie bietet. Format: > Beschreibung

2
Thematische Abschnitte mit Links (Pflicht)

Markdown-Überschriften als Kategorien (z.B. ## Wissen, ## Leistungen), darunter jeweils eine Liste mit Links und kurzen Beschreibungen.

3
llms-full.txt (Optional)

Vollständiger Markdown-Inhalt aller wichtigen Seiten in einer Datei. Token-effizient für Agenten-Workflows, aber Dateigröße kann erheblich sein.

Ein konkretes Beispiel:

# Unternehmen XY
​
> Wir bieten SEO- und GEO-Beratung für mittelständische Unternehmen
> im DACH-Raum.
​
## Wissen
​
- [Was ist SEO?](https://domain.at/wissen/seo): Grundlagen, Faktoren und aktuelle Entwicklungen
- [GEO-Maßnahmen](https://domain.at/wissen/geo-massnahmen): KI-Sichtbarkeit systematisch aufbauen
​
## Leistungen
​
- [SEO-Betreuung](https://domain.at/leistungen/seo): Laufende Optimierung und Strategie
- [GEO-Beratung](https://domain.at/leistungen/geo): KI-Sichtbarkeit aufbauen und messen

Die Datei liegt unter domain.at/llms.txt, kein spezifisches Content-Type erforderlich, einfaches Plaintext genügt.

Wer die Datei tatsächlich liest

Das ist die entscheidende Frage, und die Antwort ist ernüchternd.

PlattformCrawlt llms.txtOffiziell unterstütztWirkung nachweisbar
Google✗ Nein✗ Nein✗ Nein
OpenAI / ChatGPT✗ Nein✗ Nein✗ Nein
Anthropic / Claude✗ Nein✗ Nein✗ Nein
Perplexity✗ Nein✗ Nein✗ Nein
Gemini / Copilot✗ Nein✗ Nein✗ Nein

Google hat llms.txt explizit abgelehnt. John Mueller (Juni 2025): "No AI system currently uses llms.txt." Gary Illyes bestätigte das beim Search Central Live im Juli 2025. Für alle anderen Plattformen gilt: kein offiziell dokumentierter Support, keine belegte Wirkung.

Empirische Messung bestätigt das Bild: SE Ranking analysierte rund 300.000 Domains und fand keine messbare Korrelation zwischen llms.txt-Implementierung und KI-Sichtbarkeit. Search Engine Land testete 9 Websites: 8 davon zeigten nach der Implementierung keine messbaren Veränderungen.

Lohnt sich llms.txt trotzdem?

Der Aufwand ist gering, das Risiko null. Die Frage ist, ob die Zeit besser investiert wäre.

Was für llms.txt spricht

  • Aufwand unter einer Stunde, kein technisches Risiko
  • Aufwand minimal, kein technisches Risiko: schadet nachweislich nicht
  • Interne Nutzung belegbar: Eigene RAG-Systeme oder LLM-Tools können die strukturierte Übersicht direkt nutzen
  • Mintlify verzeichnete nach eigenen Angaben 436 KI-Crawler-Zugriffe auf ihre llms.txt

Was dagegen spricht

  • Kein Standard: kein RFC, keine W3C-Empfehlung, kein Konsens der Plattformen
  • Keine nachgewiesene externe Wirkung auf KI-Zitierungsraten
  • Spam-Problem verhindert breite Adoption: Plattformen können der Datei nicht vertrauen, weil sie Inhalte behaupten könnte, die die echte Seite nicht widerspiegelt
  • Google vergleicht es mit Meta Keywords: ein Signal, das wegen Spam nie nützlich wurde
  • Falsche Prioritätensetzung: die Zeit ist in nachgewiesen wirksamen Maßnahmen besser investiert

Einordnung: Wo llms.txt im GEO-Stack steht

GEO-Maßnahmen sind nicht alle gleich wirksam. Wer begrenzte Ressourcen hat, sollte priorisieren:

1. Strukturierte Daten (Schema.org)

Nachgewiesen wirksam für KI-Sichtbarkeit, insbesondere FAQPage, Organization mit sameAs, Article. Implementiert bei der Mehrheit der regelmäßig zitierten Seiten.

2. Zitierfähige Inhaltsformate

Direkte Antworten im ersten Absatz, kurze Absätze, Fragen als Überschriften, Vergleichstabellen und FAQs. Der stärkste inhaltliche Hebel.

3. E-E-A-T-Signale

Autorenschaft, Originaldaten, Drittseiten-Präsenz. KI-Systeme bevorzugen Quellen mit nachweisbarer Expertise. Diese Signale adressieren genau das.

4. robots.txt für KI-Crawler

GPTBot, ClaudeBot, PerplexityBot nicht blockieren. Wer diese Crawler unbeabsichtigt sperrt, fällt aus KI-Antworten heraus. Häufiger und schwerwiegenderer Fehler als fehlendes llms.txt.

5. llms.txt

Low-Cost-Add-on ohne nachgewiesene externe Wirkung heute. Sinnvoll als letzter Schritt, wenn alles andere erledigt ist. Niemals als Ersatz für die Punkte 1 bis 4.

Kurz: Implementieren, wenn man möchte. Aber erst wenn die Basics sitzen. Wer llms.txt priorisiert, bevor strukturierte Daten, zitierfähige Inhalte und eine saubere robots.txt implementiert sind, setzt die falschen Prioritäten.

Was wirklich wirkt, wissen wir.

Nicht jede Maßnahme bringt gleich viel. Wir zeigen Ihnen, wo GEO-Aufwand tatsächlich Wirkung hat, und setzen das mit Ihnen um.

Jetzt beraten lassen

Implementierung in 30 Minuten

Wer es trotzdem tun möchte, hier der schnellste Weg:

Schritt für Schritt

Datei anlegen: /llms.txt

Plaintext-Datei im Root-Verzeichnis. Name der Website, eine Beschreibungszeile mit >, dann Abschnitte mit den wichtigsten URLs und Kurzbeschreibungen.

Prioritäten setzen

Nicht alle URLs listen. Die 10 bis 20 wichtigsten Seiten reichen: Leistungen, Hauptwissensseiten, Kontakt. Nebenpages, Datenschutz und Impressum weglassen.

Kurzbeschreibungen formulieren

Ein Satz pro URL, der den tatsächlichen Inhalt beschreibt. Kein Marketing-Speak. KI-Systeme extrahieren Fakten, keine Versprechen.

llms.txt in robots.txt nicht blockieren

Sicherstellen, dass die Datei für Crawler erreichbar ist. Kann über noindex aus dem Google-Index ausgeschlossen werden, sollte aber nicht für KI-Crawler gesperrt sein.

Aktuell halten

Wenn neue wichtige Seiten hinzukommen, llms.txt aktualisieren. Eine veraltete Datei mit toten Links ist schlechter als gar keine.

Welche KI-Bots sollte ich in der robots.txt zulassen?

Wer diese Bots unbeabsichtigt sperrt, ist in KI-Antworten nicht sichtbar, unabhängig von allen anderen Maßnahmen. Das ist wichtiger als llms.txt zu implementieren.

BotGenutzt vonHinweis
GPTBotChatGPT, SearchGPT (OpenAI)Solange nicht aktiv gesperrt, darf er crawlen. Bestehende Disallow-Regeln prüfen.
ClaudeBotClaude – Training & Wissensbasis (Anthropic)Anthropics eigener Crawler für die Claude-Wissensbasis.
Brave-BotClaude – Live-Websuche (über Brave Search)Claude nutzt Brave Search für Echtzeit-Suchanfragen. Wer in Claude-Suchantworten auftauchen will, braucht primär diesen Bot.
PerplexityBotPerplexityEiner der aktivsten KI-Crawler. Blockierung bedeutet Ausschluss aus Perplexity-Antworten, die explizit Quellen zeigen.
Google-ExtendedGoogle AI Overviews, GeminiOhne diesen Bot: klassische Suche unberührt, aber kein Zugang zu AI Overview-Antworten.

Häufige Fragen

Liest Google llms.txt?
Nein. John Mueller (Google) sagte im Juni 2025 ausdrücklich, dass kein Google-System llms.txt liest. Googles Gary Illyes bestätigte im Juli 2025, dass Google die Datei nicht unterstützt und das auch nicht plant. Google hat llms.txt mit dem Meta-Keywords-Tag verglichen, einem Signal, das wegen Spam-Missbrauch nie nützlich wurde.
Hilft llms.txt für ChatGPT-Sichtbarkeit?
Nicht nachweisbar. OpenAI hat keinen Support für llms.txt als Rankingsignal bestätigt oder dokumentiert. Eine Log-Analyse über 1.000 Domains (Longato, August 2025) fand keine GPTBot-Zugriffe auf llms.txt-Dateien. Search Engine Land testete 9 Sites: 8 zeigten nach Implementierung keine messbaren Veränderungen in KI-Sichtbarkeit oder Traffic.
Unterstützt Claude llms.txt?
Kein dokumentierter Support. Anthropic hat llms.txt nicht offiziell als Feature angekündigt oder dokumentiert. Die Dokumentationsplattform Mintlify, auf der docs.anthropic.com läuft, generiert llms.txt-Dateien automatisch für alle gehosteten Seiten. Das ist ein Infrastruktur-Detail der Plattform, kein Beleg dafür, dass ClaudeBot llms.txt-Dateien anderer Websites auswertet.
Ist llms.txt ein offizieller Standard?
Nein. Es gibt kein RFC, keine W3C-Empfehlung, keinen Konsens der Plattformen. Es ist ein Vorschlag von Jeremy Howard (Answer.AI) aus 2024. robots.txt ist ein RFC. sitemap.xml ist ein etablierter de-facto-Standard. llms.txt ist keines von beidem.
Schadet llms.txt?
Nicht direkt. Eine korrekt implementierte llms.txt hat keine negativen Effekte auf SEO oder KI-Sichtbarkeit. Das Risiko liegt eher in der Prioritätensetzung: Wer Zeit in llms.txt steckt, bevor strukturierte Daten, zitierfähige Inhalte und eine saubere robots.txt implementiert sind, setzt die falschen Prioritäten.
Wann lohnt sich llms.txt?
Drei Szenarien, in denen die Datei sinnvoll ist: (1) Unternehmen mit eigenen internen LLM-Tools oder RAG-Systemen, die die eigene Website als Wissensquelle nutzen. (2) Dokumentationsseiten mit hohem Entwickler-Traffic, wo KI-Agenten-Workflows wahrscheinlicher sind. (3) Wer alle anderen GEO-Grundlagen bereits implementiert hat und eine Stunde Zeit übrig hat.

Weiterführende Artikel

GEO · Überblick

GEO: Sichtbarkeit in KI-Systemen

Was Generative Engine Optimization ist, wie KI-Systeme Inhalte auswählen und welche Maßnahmen Wirkung zeigen.

Weiterlesen

GEO · Maßnahmen

GEO-Maßnahmen im Überblick

Strukturierte Daten, zitierfähige Inhaltsformate, robots.txt-Konfiguration: Was konkret für KI-Sichtbarkeit wirkt.

Weiterlesen

GEO · SEO

GEO und SEO

Wo sich klassische Suchmaschinenoptimierung und KI-Sichtbarkeit überschneiden und wo unterschiedliche Maßnahmen nötig sind.

Weiterlesen

E-E-A-T · Autorität

E-E-A-T als GEO-Faktor

Expertise, Autorität und Vertrauen sind nicht nur Google-Signale. KI-Systeme bevorzugen Quellen, die diese Kriterien erfüllen.

Weiterlesen

Bereit für besseres Online Marketing?

Erzählen Sie uns von Ihren Zielen – wir melden uns für ein unverbindliches Erstgespräch.

Jetzt Kontakt aufnehmen