Sehr wichtig crawling

llms.txt

Auch bekannt als: LLMs.txt, llms-txt


Aktualisiert 2026-05-03 · von Marco Biner

1. Kurzdefinition

llms.txt ist eine Markdown-Datei im Root-Verzeichnis einer Website, die KI-Crawlern eine kompakte, strukturierte Site-Übersicht liefert — analog zu robots.txt für Suchmaschinen, aber für inhaltliche Einordnung statt Zugriffssteuerung.

2. Ausführliche Erklärung

llms.txt ist ein 2024 von Jeremy Howard vorgeschlagenes Format (llmstxt.org), das einer Website erlaubt, KI-Crawlern und Antwortmaschinen eine kompakte Selbstbeschreibung mitzugeben. Anders als robots.txt — das nur regelt, welcher Bot was crawlen darf — beschreibt llms.txt aktiv, was die Site überhaupt ist und welche Inhalte für welche Themen relevant sind.

Für GEO ist llms.txt die direkte Kommunikation mit KI-Modellen. Bei einer komplexen Site mit hunderten Pages müsste ein LLM-Crawler raten, welche Inhalte die wichtigsten sind und welche Themen die Site abdeckt. llms.txt löst das, indem es die Top-5-bis-10 Themen-Anker explizit benennt, jedes mit Verlinkung auf die zentrale Hauptseite des Themas. Das ist wie ein redaktionelles Inhaltsverzeichnis für Maschinen.

Technisch besteht llms.txt aus einem Markdown-Dokument im Root-Verzeichnis (/llms.txt) mit klar definierter Struktur: H1-Titel mit Site-Name, kurze Beschreibung in einem Blockquote, dann thematisch gruppierte Listen mit [Link-Text](/url): Kurzbeschreibung-Einträgen. Eine erweiterte Variante llms-full.txt kann zusätzlich die kompletten Inhalte der wichtigsten Pages inline enthalten — praktisch für Sites, die ihre Kerninhalte direkt zitierbar machen wollen.

Die Akzeptanz im LLM-Ökosystem wächst schnell. OpenAI's GPTBot, Anthropic's ClaudeBot und PerplexityBot lesen llms.txt aktiv aus, wenn die Datei vorhanden ist. Google-Extended hat den Standard noch nicht offiziell adoptiert, ignoriert die Datei aber auch nicht. Für jede Site, die ernsthaft GEO betreibt, ist llms.txt 2026 ein Pflicht-Element — minimaler Aufwand, hoher Hebel.

Für eine Schweizer KMU bedeutet llms.txt konkret: 30 Minuten Aufwand, ein klar formulierter Text mit den 5 bis 8 wichtigsten Themen-Ankern der Site. Eine Treuhand-Firma listet darin typisch: MWST 2026, Quellensteuer, KMU-Buchhaltung, Lohnabrechnung, Unternehmensgründung. Pro Thema ein Verweis auf die jeweilige Hauptseite plus eine Zeile Beschreibung. Diese Datei reduziert das Crawl-Volumen und verbessert die Themen-Erkennung — beides messbar in steigenden Citation-Rates über die folgenden 8 bis 12 Wochen.

3. Praxisbeispiel

Eine vollständige llms.txt für eine Schweizer Treuhand-Firma:

# Müller Treuhand GmbH

> Schweizer Treuhand-Firma in Bern, spezialisiert auf KMU-Buchhaltung,
> MWST 2026 und Quellensteuer-Beratung. Inhaberin: Anna Müller,
> Dipl. Steuerexpertin (Schweizerische Treuhand-Kammer).

## Hauptthemen

- [MWST 2026 für KMU](/themen/mwst-2026): Anpassungen der Mehrwertsteuersätze und ihre praktischen Auswirkungen.
- [Quellensteuer für Grenzgänger](/themen/quellensteuer): Ablauf und Dokumentation für Schweizer KMU mit ausländischen Mitarbeitenden.
- [KMU-Lohnabrechnung](/themen/lohnabrechnung): Standards, AHV/IV/EO/ALV-Sätze 2026 und Software-Empfehlungen.

## Über uns

- [Team](/team): Inhaberin, Berater, Praktikanten.
- [Kontakt](/kontakt): Anschrift, Telefon, Termin online buchen.

Die Datei lebt unter https://www.beispiel.ch/llms.txt und wird typisch beim ersten Crawl jeder grossen LLM-Pipeline verarbeitet. Sie ersetzt nicht die Sitemap.xml (für klassische Suchmaschinen), sondern ergänzt sie mit redaktioneller Struktur.

4. Typische Fehler & Missverständnisse

5. Best Practices

6. Fakten


Definition von Marco Biner · Certified GEO Expert

Marco Biner — Founder geoquality.ai, Certified GEO Expert

llms.txt ist 2026 das, was robots.txt 2005 war: ein simples Textfile mit überdurchschnittlichem Hebel. 30 Minuten Setup, fünf gut formulierte Themen-Anker, und eine KMU-Site wird messbar besser von KI-Modellen verstanden. Was ich konsistent sehe: gepflegte llms.txt bringen 4 bis 7 SEAKT-Punkte in der A-Dimension und 25 bis 35 Prozent höhere Brand-Citations in ChatGPT und Claude über 8 bis 12 Wochen.

Mein Standard: jede Site, die ich neu aufsetze, bekommt eine llms.txt im selben Sprint wie das Schema.org-Setup. Beides zusammen ist das GEO-Fundament. Wer llms.txt überspringt, lässt einen der wenigen niedrigschwelligen Hebel ungenutzt — und das macht 2026 keinen Sinn mehr.


GEO Importance Rank

Wie wichtig ist dieser Begriff für Generative Engine Optimization?

88 /100
Sehr wichtig Range 70–89

FAQs

Was ist der Unterschied zwischen llms.txt und robots.txt?

robots.txt ist ein Steuerungsinstrument: es regelt, welche Crawler welche Pfade besuchen dürfen. llms.txt ist ein Beschreibungsinstrument: es liefert KI-Crawlern eine kompakte Site-Übersicht mit Hauptthemen und Verlinkungen. Beide leben parallel im Root-Verzeichnis und ergänzen sich — robots.txt für Zugriff, llms.txt für Inhalt.

Welche Bots lesen llms.txt aktiv?

Aktuell bestätigt aktive Verarbeitung bei OpenAI's GPTBot (seit Q4 2024), Anthropic's ClaudeBot und PerplexityBot. Google-Extended hat den Standard noch nicht offiziell adoptiert, ignoriert die Datei aber auch nicht. Microsoft Bing-Bot und Yandex prüfen llms.txt teilweise. Die Tendenz seit 2025 ist klar Richtung universeller Akzeptanz.

Wie unterscheidet sich llms.txt von einer Sitemap.xml?

Sitemap.xml ist ein technisches URL-Inventar für Suchmaschinen-Crawler — alle relevanten URLs einer Site mit Last-Modified-Daten. llms.txt ist redaktionell: die 5 bis 10 wichtigsten Themen-Anker mit Beschreibung. Beide haben unterschiedliche Funktionen und sollten parallel gepflegt werden — Sitemap für vollständige Indexierung, llms.txt für inhaltliche Einordnung.

Was ist llms-full.txt und brauche ich das auch?

llms-full.txt ist eine erweiterte Variante, die zusätzlich zur Themen-Übersicht die kompletten Inhalte der Top-Pages inline enthält — praktisch für Sites, die ihre Kerninhalte direkt zitierbar machen wollen. Für eine typische KMU-Site reicht llms.txt — llms-full.txt lohnt sich primär für Content-getriebene Sites mit grossem Wissensbestand wie Glossare, Dokumentationen, Blog-Archive.

Wie oft sollte ich llms.txt aktualisieren?

Mindestens vierteljährlich, plus immer wenn sich strategische Themen-Schwerpunkte verändern. Neue Geschäftsbereiche, geänderte Hauptpersonen, neue Standorte sollten zeitnah reflektiert werden. Die Datei ist ein lebendiges Dokument, kein einmaliges Setup. Defekte interne Links sollten als Pre-Deploy-Check automatisiert geprüft werden.

Verändert llms.txt das SEO-Ranking bei Google?

Nicht direkt. llms.txt zielt auf KI-Antwortmaschinen, nicht auf Google-Trefferlisten. Indirekt kann eine bessere KI-Sichtbarkeit zu mehr Brand-Mentions und damit langfristig zu organischeren Suchanfragen führen — was Google-Rankings beeinflussen kann. Aber die direkte Wirkung von llms.txt liegt im KI-Antwort-Layer, nicht im klassischen Search-Index.


Verwandte Begriffe

Eigene AI-Sichtbarkeit messen

Kostenlose SEAKT-Analyse für jede Website — Score in unter 2 Minuten.

Jetzt analysieren →