Wir haben die verfügbaren Studiendaten ausgewertet, die Datei für unsere eigene Website erstellt und eingeordnet, wo llms.txt im Verhältnis zu nachgewiesen wirksamen GEO-Maßnahmen steht.

Was ist llms.txt?

llms.txt ist eine Plaintext-Datei, die Websites unter https://domain.com/llms.txt bereitstellen können, damit KI-Systeme und LLM-basierte Agenten eine strukturierte Übersicht des Site-Inhalts erhalten. Das Konzept wurde 2024 von Jeremy Howard (Answer.AI) vorgeschlagen und orientiert sich an bekannten Web-Konventionen:

robots.txt

Steuert, welche Seiten Crawler besuchen dürfen.

sitemap.xml

Listet alle URLs der Website.

llms.txt

Soll eine dritte Schicht ergänzen: eine strukturierte Inhaltsübersicht speziell für KI-Systeme.

Das Konzept ist kein anerkannter Standard: kein W3C-Beschluss, kein Branchenkonsens, keine Verpflichtung für Plattformen. Es ist ein Vorschlag, der Aufmerksamkeit gewonnen hat, aber keine Verbindlichkeit.

Best Practices: Was eine gute llms.txt enthält

Wer eine llms.txt anlegt, sollte sie zumindest sinnvoll aufsetzen. Eine gute Datei ist kurz, strukturiert und beschreibt pro URL in einem Satz, was dort tatsächlich steht.

Zwei häufige Fehler: zu viele URLs (die Datei ist kein Ersatz für die Sitemap) und Beschreibungen, die klingen wie Werbetexte. KI-Systeme lesen Fakten, keine Versprechen.

Eine llms.txt hat drei Bestandteile:

1. Unternehmensname (H1)

Erste Zeile: Name der Website als Markdown-Überschrift. Format: # Unternehmensname

2. Kurzbeschreibung

Eine prägnante Beschreibung: für wen die Website ist und was sie bietet. Format: > Beschreibung

3. Thematische Abschnitte mit Links

Markdown-Überschriften als Kategorien (z.B. ## Leistungen), darunter eine Liste mit Links und Kurzbeschreibungen pro URL.

So würde unsere eigene llms.txt aussehen:

# traffic3 GmbH
​
> Online Marketing Spezialagentur für Performance Marketing in Wien.
> Beratung und Umsetzung für KMU in der DACH-Region: SEO, Google Ads,
> GEO/KI-Sichtbarkeit, Webanalyse und Tag Management.
​
## Leistungen
​
- [SEO](https://traffic3.net/leistungen/seo): Nachhaltige organische Sichtbarkeit durch technisches SEO, Content-Strategie und Linkaufbau
- [Google Ads](https://traffic3.net/leistungen/adwords): Suchmaschinenwerbung mit messbarem ROI: Kampagnen-Setup und laufende Optimierung
- [GEO / KI-Sichtbarkeit](https://traffic3.net/leistungen/geo): Sichtbarkeit in ChatGPT, Perplexity und Google AI Overviews aufbauen
- [Google Ads mit AI](https://traffic3.net/leistungen/google-ads-und-ai): Google Ads in AI Overviews und KI-Suchmodus ausspielen
- [ChatGPT Ads](https://traffic3.net/leistungen/chatgpt-ads): Werbeanzeigen in ChatGPT schalten
- [Webanalyse](https://traffic3.net/leistungen/webanalyse): GA4-Implementierung, Dashboards und Data Warehouse für datenbasierte Entscheidungen
- [Tag Management](https://traffic3.net/leistungen/webanalyse/tag-management): Google Tag Manager und Server-Side GTM: Setup, Betreuung und Audits
- [Conversion-Optimierung](https://traffic3.net/leistungen/conversion-optimierung): Mehr Abschlüsse aus bestehendem Traffic durch Landingpage-Optimierung
- [Video & Social Ads](https://traffic3.net/leistungen/online-werbung): Reichweite und Leads über YouTube, Facebook, Instagram, LinkedIn und TikTok
- [Programmatic Advertising](https://traffic3.net/leistungen/programmatic): Automatisierter Werbeeinkauf über Display & Video 360, inkl. Programmatic Audio

Die vollständige Datei liegt unter traffic3.net/llms.txt.

Plaintext genügt, kein spezifischer Content-Type nötig. Die Datei aktuell halten und tote Links vermeiden: mehr braucht es nicht.

llms-full.txt: die erweiterte Variante

Ergänzend gibt es die llms-full.txt: eine Datei mit dem vollständigen Markdown-Text aller wichtigen Seiten in einem Durchgang. Für Dokumentationsseiten kann das praktisch sein, da KI-Agenten den Inhalt so ohne einzelne Seitenaufrufe erfassen. Die Token-Reduktion (Token = Texteinheiten, in denen KI-Modelle Texte verarbeiten) gegenüber HTML-Parsing kann erheblich sein. Für normale Unternehmenswebsites ist llms-full.txt in der Regel zu aufwändig im Verhältnis zum Nutzen.

Die Datei liegt ebenfalls im Root-Verzeichnis der Website (/llms-full.txt). Verlinkt wird sie aus der llms.txt heraus: am Ende ein optionaler Abschnitt mit einem Link zur Volldatei:

## Optional
​
- [llms-full.txt](https://domain.com/llms-full.txt): Vollständiger Seiteninhalt in einer Datei

So können KI-Agenten, die die llms.txt lesen, direkt zur Volldatei navigieren.

Eine technisch weitergehende Alternative ist Markdown for Agents: Seiten werden automatisch als Markdown ausgeliefert, wenn ein KI-Agent das anfordert. Keine statische Datei, keine manuelle Pflege. Der Effizienzgewinn ist messbar: 80 % weniger Token als HTML (Cloudflare-Messung). Lösungen gibt es für Cloudflare, WordPress und andere Plattformen.

Wie viele URLs, und warum nicht mehr?

10 bis 20 der wichtigsten Seiten. Nicht mehr. Die Datei ist kein Ersatz für die Sitemap, sondern eine kuratierte Auswahl der Seiten, die ein KI-System zuerst kennen sollte.

Der Grund ist technisch: LLMs verarbeiten Text in Token (Texteinheiten, typischerweise Wortteile). Je mehr Token ein Modell als Input erhält, desto stärker konkurrieren die Informationen um Aufmerksamkeit. Eine llms.txt mit 200 URLs und langen Beschreibungen erzeugt einen Input, in dem einzelne Einträge untergehen.

Exkurs: Context Bloat. LLMs haben ein begrenztes Kontextfenster. Mehr Input bedeutet nicht mehr Verständnis, im Gegenteil. Studien zeigen, dass Modelle bei langen Inputs Informationen in der Mitte des Textes schlechter verarbeiten als am Anfang oder Ende ("Lost in the Middle", Liu et al. 2023). Für eine llms.txt heißt das: kurz und fokussiert schlägt lang und vollständig. Die wichtigsten Seiten gehören an den Anfang, und jede URL, die nicht wirklich relevant ist, verdünnt die Wirkung der übrigen.

Kurze Beschreibungen sind ebenfalls Token-effizient: Ein Satz pro URL reicht. Wer mehr transportieren will, sollte bewusst entscheiden, welchen Stil die Beschreibungen haben.

Sachlich vs. nutzenorientiert: zwei Ansätze

Es gibt keine Spezifikation dafür, wie Beschreibungen formuliert sein sollen. In der Praxis haben sich zwei Stile herausgebildet:

Sachlich/minimal beschreibt, was auf der Seite steht. Keine Wertung, keine Zahlen. Leicht aktuell zu halten. So werden die meisten llms.txt geschrieben:

## Leistungen
​
- [Heizungswartung](https://example.at/heizung): Wartung, Reparatur und Tausch von Gas- und Ölheizungen
- [Sanitär](https://example.at/sanitaer): Badsanierung, Rohrleitungsbau und Reparaturen
- [Notdienst](https://example.at/notdienst): 24/7-Notdienst bei Rohrbruch, Heizungsausfall und Gasgebrechen

Nutzenorientiert transportiert aktiv den Kundennutzen: Ersparnisse, Ab-Preise, konkrete Leistungsversprechen. Höherer Wartungsaufwand, weil Zahlen veralten:

## Leistungen
​
- [Heizungswartung](https://example.at/heizung): Wartung, Reparatur und Tausch von Gas- und Ölheizungen - regelmäßiges Service senkt Energiekosten, Erstberatung kostenlos
- [Sanitär](https://example.at/sanitaer): Badsanierung ab 8.000 €, Rohrleitungsbau und Reparaturen mit Festpreisangebot
- [Notdienst](https://example.at/notdienst): 24/7-Notdienst bei Rohrbruch, Heizungsausfall und Gasgebrechen - Anfahrt in Wien innerhalb von 60 Minuten

Beide Varianten sind valide. Die sachliche Version ist pflegeleichter und näher an dem, was KI-Systeme als vertrauenswürdige Information einordnen. Die nutzenorientierte Version kann sinnvoll sein, wenn man gezielt bestimmte Botschaften transportieren will, etwa für interne RAG-Systeme oder branchenspezifische Agenten. Auch nutzenorientierte Beschreibungen sollten Fakten liefern, nicht Werbeversprechen.

Wer die Datei tatsächlich liest

Das ist die entscheidende Frage, und die Antwort ist ernüchternd.

PlattformCrawlt llms.txtOffiziell unterstütztWirkung nachweisbar
Google✗ Nein✗ Nein✗ Nein
OpenAI / ChatGPT✗ Nein✗ Nein✗ Nein
Anthropic / Claude✗ Nein✗ Nein✗ Nein
Perplexity✗ Nein✗ Nein✗ Nein
Gemini / Copilot✗ Nein✗ Nein✗ Nein

Google hat llms.txt explizit abgelehnt. John Mueller (Juni 2025): "No AI system currently uses llms.txt." Gary Illyes bestätigte das beim Search Central Live im Juli 2025. Für alle anderen Plattformen gilt: kein offiziell dokumentierter Support, keine belegte Wirkung.

Studien und Experimente: Gibt es messbare Erfolge?

Drei unabhängige Untersuchungen haben das direkt gemessen. Das Ergebnis ist einheitlich: kein nachweisbarer Effekt auf KI-Zitierungsraten.

SE Ranking (November 2025) analysierte rund 300.000 Domains: Als die llms.txt-Variable aus ihrem Vorhersagemodell entfernt wurde, verbesserten sich die Prognosen. Stärker als keine Korrelation: die Datei trägt aktiv nichts bei.

Search Engine Land (Januar 2026) begleitete 10 Websites 90 Tage vor und nach der Implementierung. 8 zeigten keine messbaren Veränderungen. Bei den 2 mit Anstiegen gab es Alternativerklärungen: PR-Aktivitäten und technische SEO-Fixes im selben Zeitraum.

Trakkr (März 2026) analysierte 37.894 AI-zitierte Domains, 337.000+ ausgewertete Zitierungen. Domains mit llms.txt werden im Schnitt 6,8 Mal zitiert, ohne llms.txt 6,7 Mal. Der Median liegt in beiden Gruppen bei exakt 3,0. Statistisch ist das nicht von Zufall zu unterscheiden (p=0,85). Besonders aufschlussreich ist das Adoptionsmuster: Unter den 50 meistzitierten Domains weltweit haben nur 6% eine llms.txt. Reddit, Reuters, Forbes, LinkedIn nutzen sie nicht. Die Adoptionsrate steigt in niedrigeren Sichtbarkeits-Rängen an. Trakkrs Schlussfolgerung: llms.txt wird von Seiten adoptiert, die ihre Sichtbarkeit verbessern wollen, nicht von Seiten, die bereits sichtbar sind.

Lohnt sich llms.txt trotzdem?

Der Aufwand ist gering, das Risiko null. Die Frage ist, ob die Zeit besser investiert wäre.

Was für llms.txt spricht

  • Aufwand gering: Implementierung in unter einer Stunde
  • Kein technisches Risiko: schadet nachweislich nicht
  • Für Agenten und RAG-Systeme plausibel nützlich, nicht für GEO — mehr dazu weiter unten

Was dagegen spricht

  • Kein Standard: kein RFC, keine W3C-Empfehlung, kein Konsens der Plattformen
  • Keine nachgewiesene externe Wirkung auf KI-Zitierungsraten
  • Spam-Problem verhindert breite Adoption: Plattformen können der Datei nicht vertrauen, weil sie Inhalte behaupten könnte, die die echte Seite nicht widerspiegelt
  • Google vergleicht es mit Meta Keywords: ein Signal, das wegen Spam nie nützlich wurde
  • Falsche Prioritätensetzung: die Zeit ist in nachgewiesen wirksamen Maßnahmen besser investiert
  • Zukunftsfähigere Alternative existiert: Markdown for Agents liefert Seiteninhalte dynamisch statt statisch — mehr dazu weiter unten

Die Studien messen den Effekt auf große KI-Informationssysteme: ChatGPT, Perplexity, Google AI Overviews. Für diese Systeme ist das Ergebnis eindeutig — kein nachweisbarer Effekt auf Zitierungsraten.

KI-Agenten sind eine andere Kategorie: individuelle Softwareagenten, die im Auftrag einzelner Nutzer das Web durchsuchen und Informationen zusammenstellen. Für diese Agenten kann eine strukturierte llms.txt direkt nützlich sein — das ist noch nicht systematisch gemessen, aber plausibel. Wer diesen Weg weiter geht: Markdown for Agents liefert vollständige Seiteninhalte dynamisch in agentenlesbarem Format.

Einordnung: Wo llms.txt im GEO-Stack steht

GEO-Maßnahmen sind nicht alle gleich wirksam. Wer begrenzte Ressourcen hat, sollte priorisieren:

1. Strukturierte Daten (Schema.org)

Nachgewiesen wirksam für KI-Sichtbarkeit, insbesondere FAQPage, Organization mit sameAs, Article. Implementiert bei der Mehrheit der regelmäßig zitierten Seiten.

2. Zitierfähige Inhaltsformate

Direkte Antworten im ersten Absatz, kurze Absätze, Fragen als Überschriften, Vergleichstabellen und FAQs. Der stärkste inhaltliche Hebel.

3. E-E-A-T-Signale

Autorenschaft, Originaldaten, Drittseiten-Präsenz. KI-Systeme bevorzugen Quellen mit nachweisbarer Expertise. Diese Signale adressieren genau das.

4. robots.txt für KI-Crawler

GPTBot, ClaudeBot, PerplexityBot nicht blockieren. Wer diese Crawler unbeabsichtigt sperrt, fällt aus KI-Antworten heraus. Häufiger und schwerwiegenderer Fehler als fehlendes llms.txt.

5. llms.txt

Low-Cost-Add-on ohne nachgewiesene externe Wirkung heute. Sinnvoll als letzter Schritt, wenn alles andere erledigt ist. Niemals als Ersatz für die Punkte 1 bis 4.

Kurz: Implementieren, wenn man möchte. Aber erst wenn die Basics sitzen. Wer llms.txt priorisiert, bevor strukturierte Daten, zitierfähige Inhalte und eine saubere robots.txt implementiert sind, setzt die falschen Prioritäten.

Die Reihenfolge macht den Unterschied.

Nicht jede Maßnahme bringt gleich viel. Wir zeigen Ihnen, wo GEO-Aufwand tatsächlich Wirkung hat, und setzen das mit Ihnen um.

GEO-Prioritäten besprechen

Implementierung in 30 Minuten

Wer es trotzdem tun möchte, hier der schnellste Weg:

Schritt für Schritt

Datei anlegen: /llms.txt

Plaintext-Datei im Root-Verzeichnis. Name der Website, eine Beschreibungszeile mit >, dann Abschnitte mit den wichtigsten URLs und Kurzbeschreibungen.

Prioritäten setzen

Nicht alle URLs listen. Die 10 bis 20 wichtigsten Seiten reichen: Leistungen, Hauptwissensseiten, Kontakt. Nebenpages, Datenschutz und Impressum weglassen.

Kurzbeschreibungen formulieren

Ein Satz pro URL, der den tatsächlichen Inhalt beschreibt. Kein Marketing-Speak. KI-Systeme extrahieren Fakten, keine Versprechen.

llms.txt in robots.txt nicht blockieren

Sicherstellen, dass die Datei für Crawler erreichbar ist. Kann über noindex aus dem Google-Index ausgeschlossen werden, sollte aber nicht für KI-Crawler gesperrt sein.

Aktuell halten

Wenn neue wichtige Seiten hinzukommen, llms.txt aktualisieren. Eine veraltete Datei mit toten Links ist schlechter als gar keine.

Welche KI-Bots sollte ich in der robots.txt zulassen?

Wer diese Bots unbeabsichtigt sperrt, ist in KI-Antworten nicht sichtbar, unabhängig von allen anderen Maßnahmen. Das ist wichtiger als llms.txt zu implementieren.

BotGenutzt vonHinweis
GPTBotChatGPT, SearchGPT (OpenAI)Solange nicht aktiv gesperrt, darf er crawlen. Bestehende Disallow-Regeln prüfen.
ClaudeBotClaude – Training & Wissensbasis (Anthropic)Anthropics eigener Crawler für die Claude-Wissensbasis.
Brave-BotClaude – Live-Websuche (über Brave Search)Claude nutzt Brave Search für Echtzeit-Suchanfragen. Wer in Claude-Suchantworten auftauchen will, braucht primär diesen Bot.
PerplexityBotPerplexityEiner der aktivsten KI-Crawler. Blockierung bedeutet Ausschluss aus Perplexity-Antworten, die explizit Quellen zeigen.
Google-ExtendedGoogle AI Overviews, GeminiOhne diesen Bot: klassische Suche unberührt, aber kein Zugang zu AI Overview-Antworten.

Wie steht Ihre Website bei KI-Systemen da?

llms.txt ist der letzte Schritt. Strukturierte Daten, zitierfähige Inhalte und eine saubere robots.txt kommen zuerst. Wir schauen gemeinsam, was für Ihre Website sinnvoll ist.

GEO-Beratung anfragen

Häufige Fragen

Liest Google llms.txt?
Nein. John Mueller (Google) sagte im Juni 2025 ausdrücklich, dass kein Google-System llms.txt liest. Googles Gary Illyes bestätigte im Juli 2025, dass Google die Datei nicht unterstützt und das auch nicht plant. Google hat llms.txt mit dem Meta-Keywords-Tag verglichen, einem Signal, das wegen Spam-Missbrauch nie nützlich wurde.
Hilft llms.txt für ChatGPT-Sichtbarkeit?
Nicht nachweisbar. OpenAI hat keinen Support für llms.txt als Rankingsignal bestätigt oder dokumentiert. Eine Log-Analyse über 1.000 Domains (Longato, August 2025) fand keine GPTBot-Zugriffe auf llms.txt-Dateien. Search Engine Land testete 9 Sites: 8 zeigten nach Implementierung keine messbaren Veränderungen in KI-Sichtbarkeit oder Traffic.
Unterstützt Claude llms.txt?
Kein dokumentierter Support. Anthropic hat llms.txt nicht offiziell als Feature angekündigt oder dokumentiert. Die Dokumentationsplattform Mintlify, auf der docs.anthropic.com läuft, generiert llms.txt-Dateien automatisch für alle gehosteten Seiten. Das ist ein Infrastruktur-Detail der Plattform, kein Beleg dafür, dass ClaudeBot llms.txt-Dateien anderer Websites auswertet.
Ist llms.txt ein offizieller Standard?
Nein. Es gibt keinen anerkannten Standard dahinter. Es ist ein Vorschlag von Jeremy Howard (Answer.AI) aus 2024. robots.txt ist ein verbindlicher Internetstandard. sitemap.xml ist ein etablierter de-facto-Standard. llms.txt ist keines von beidem.
Schadet llms.txt?
Nicht direkt. Eine korrekt implementierte llms.txt hat keine negativen Effekte auf SEO oder KI-Sichtbarkeit. Das Risiko liegt eher in der Prioritätensetzung: Wer Zeit in llms.txt steckt, bevor strukturierte Daten, zitierfähige Inhalte und eine saubere robots.txt implementiert sind, setzt die falschen Prioritäten.
Wann lohnt sich llms.txt?
Drei Szenarien, in denen die Datei sinnvoll ist: (1) Unternehmen mit eigenen internen LLM-Tools oder RAG-Systemen (RAG = Retrieval-Augmented Generation: KI-Systeme, die beim Antworten gezielt Dokumente durchsuchen), die die eigene Website als Wissensquelle nutzen. (2) Dokumentationsseiten mit hohem Entwickler-Traffic, wo KI-Agenten-Workflows wahrscheinlicher sind. (3) Wer alle anderen GEO-Grundlagen bereits implementiert hat und eine Stunde Zeit übrig hat.
Wie viele URLs sollte eine llms.txt enthalten?
10 bis 20 der wichtigsten Seiten reichen: Leistungen, zentrale Wissensseiten, Kontakt. Die Datei ist kein Ersatz für die Sitemap und soll keine Vollständigkeit anstreben. Je kürzer und fokussierter, desto nützlicher für KI-Systeme.
Was ist der Unterschied zwischen llms.txt und robots.txt?
Verschiedene Zwecke, keine Konkurrenz. robots.txt steuert den Crawler-Zugang: welche Seiten dürfen besucht werden, welche nicht. llms.txt liefert Kontext: eine strukturierte Beschreibung des Unternehmens und seiner Inhalte. Beide Dateien können und sollten nebeneinander existieren.
Gibt es Tools, um llms.txt automatisch zu generieren?
Für gängige CMS-Systeme gibt es Plugins. Notwendig sind sie nicht: Die Datei ist so einfach aufgebaut, dass eine manuelle Erstellung in unter einer Stunde erledigt ist. Name, Beschreibung, 10 bis 20 Links mit einem Satz Erklärung, fertig.
Wird llms.txt in Zukunft wichtiger?
Möglich, aber spekulativ. Wenn Google, OpenAI oder Perplexity offiziellen Support ankündigen, ändert sich die Einordnung grundlegend. Heute ist das nicht der Fall. Die Einschätzung sollte sich an belegten Fakten orientieren, nicht an Erwartungen.
Wie prüfe ich, ob KI-Crawler meine llms.txt aufrufen?
Server-Logs auswerten: nach User-Agents wie GPTBot, ClaudeBot oder PerplexityBot filtern und prüfen, ob diese den Pfad /llms.txt angefragt haben. Wer Cloudflare nutzt, kann das direkt über die Cloudflare Radar Analytics einsehen.

Kontakt

traffic3 GmbH | SEO- und GEO-Beratung

E-Mail: office@traffic3.net

Telefon: +43 1 890 80 50

Kontaktformular: Zum Kontaktformular

Standort: Dapontegasse 2/7, 1030 Wien, Österreich

Fokus: DACH-Region (Deutschland, Österreich, Schweiz)

Weiterführende Artikel

GEO · Agent-Optimierung

Markdown for Agents: Inhalte für KI-Agenten lesbar machen

HTML belegt bis zu 5x mehr Token als Markdown. Was Markdown for Agents ist, wie es funktioniert und wie man es aktiviert.

Weiterlesen

GEO · Agent-Optimierung

Agent-Optimierung: Websites für KI-Agenten nutzbar machen

Was KI-Agenten von GEO-Systemen unterscheidet und welche Maßnahmen Websites für Agenten zugänglich machen.

Weiterlesen

GEO · Maßnahmen

GEO-Maßnahmen im Überblick

Strukturierte Daten, zitierfähige Inhaltsformate, robots.txt-Konfiguration: Was konkret für KI-Sichtbarkeit wirkt.

Weiterlesen

GEO · Überblick

GEO: Sichtbarkeit in KI-Systemen

Was Generative Engine Optimization ist, wie KI-Systeme Inhalte auswählen und welche Maßnahmen Wirkung zeigen.

Weiterlesen