Zentrale Begriffe rund um Generative Engine Optimization, das SEAKT-Framework
und maschinenlesbare Web-Strukturdaten. Jeder Begriff bekommt einen
GEO Importance Rank (0–100) — unsere autoritative Bewertungsachse
für die Branche.
12Begriffe
12mit voller Definition
0Backfill folgt
Bewertungssystem
Was ist der GEO Importance Rank?
Eine Skala von 0 bis 100, die ausdrückt, wie zentral ein Begriff für
Generative Engine Optimization ist. 100 = Fundament
(ohne den Begriff kein GEO). 0–29 = Nische
(spezifische Schema-Typen, Edge-Cases). Der Rank lebt
maschinenlesbar im JSON-LD jedes Begriffs als
additionalProperty mit propertyIDgeoquality:geo-importance-rank.
100–90
Fundamental
Fundamental — ohne dieses Konzept funktioniert GEO nicht.
89–70
Sehr wichtig
Sehr wichtig — operative Hauptwerkzeuge fuer GEO-Optimierung.
llms.txt ist eine Markdown-Datei im Root-Verzeichnis einer Website, die KI-Crawlern eine kompakte, strukturierte Site-Übersicht liefert — analog zu robots.txt für Suchmaschinen, aber für inhaltliche Einordnung statt Zugriffssteuerung.
KI-Crawler sind automatisierte Bots der grossen LLM-Anbieter (GPTBot, ClaudeBot, PerplexityBot, Google-Extended), die Websites systematisch besuchen und ihre Inhalte für die Retrieval-Layer der KI-Antwortmaschinen indexieren.
robots.txt ist eine Textdatei im Root-Verzeichnis einer Website, die Crawlern Zugriffsregeln signalisiert — für GEO entscheidend, weil sie als erstes Hindernis darüber entscheidet, ob KI-Crawler die Site überhaupt indexieren dürfen.
GPTBot ist OpenAI's Web-Crawler, lanciert August 2023. Er sammelt Web-Inhalte für ChatGPT-Search-Index, Trainings-Korpus-Updates und API-basierte Anwendungen. Sites müssen GPTBot in robots.txt explizit erlauben oder zumindest nicht blockieren — Default-Wildcard-Disallow blockiert GPTBot und schliesst die Site aus dem OpenAI-Ecosystem aus.
ClaudeBot ist Anthropic's Web-Crawler, lanciert 2023. Er sammelt Web-Inhalte für Claude-Trainings-Korpus und Claude-API-basierte Anwendungen mit Web-Search-Tool. Sites müssen ClaudeBot in robots.txt explizit erlauben — analog zu GPTBot — um Sichtbarkeit in Claude- und Anthropic-API-Plattformen zu sichern.
PerplexityBot ist Perplexity's Web-Crawler, lanciert 2023. Er sammelt Web-Inhalte für den Perplexity-Index, der Quick Search, Pro Search und Deep Research speist. Sites müssen PerplexityBot in robots.txt explizit erlauben — analog zu GPTBot und ClaudeBot — um in Perplexity-Citations zu erscheinen.
Sitemap.xml ist eine XML-Datei mit allen relevanten URLs einer Website, die Crawlern als systematisches URL-Inventar dient — Pflicht für jede Site mit mehr als 20 Pages und kritisch für die initiale Indexierung durch KI- und Suchmaschinen-Crawler.
Crawling bezeichnet den systematischen Prozess, mit dem Web-Crawler Inhalte einer Website abrufen, durchqueren und indexieren. Im KI-Zeitalter erweitert sich Crawling um spezialisierte KI-Crawler wie GPTBot, ClaudeBot, PerplexityBot und Google-Extended — neben dem klassischen Googlebot, der seit 1998 Web-Inhalte für Google-Suche sammelt.
Google-Extended ist Googles dedizierter KI-Crawler, lanciert September 2023. Im Gegensatz zum klassischen Googlebot speist Google-Extended nicht die klassischen Trefferlisten, sondern ausschliesslich KI-Produkte: Google AI Mode, AI Overviews und Gemini-Trainings-Korpus. Strukturelle Crawler-Differenzierung erlaubt User-Kontrolle über klassische vs. KI-Indexierung.
Indexierung bezeichnet die Speicherung gecrawlter Web-Inhalte in einer durchsuchbaren Datenbank — bei Google im Search Index, bei KI-Plattformen in plattform-spezifischen Indizes (ChatGPT-Search-Index, Perplexity-Index). Indexierung ist der nachgelagerte Schritt nach Crawling und Voraussetzung dafür, dass eine Site überhaupt in Suchergebnissen oder KI-Antworten erscheint.
Applebot-Extended ist Apples KI-spezifischer Web-Crawler, lanciert 2024. Er sammelt Web-Inhalte für Apple-KI-Produkte: Apple Intelligence (auf iPhone, iPad, Mac), Siri mit ChatGPT-Integration, und künftige Apple-eigene LLM-Modelle. Strukturell analog zu Google-Extended, aber mit kleinerer User-Reichweite im DACH-Raum 2026.
CCBot ist der Crawler des Common-Crawl-Projekts, einer offenen Web-Archiv-Initiative seit 2008. Common Crawl bildet die Grundlage von 60-80 Prozent aller LLM-Pre-Training-Korpora. Sites mit blockiertem CCBot werden aus zukünftigen LLM-Trainings-Datasets ausgeschlossen — strategische Langzeit-Sichtbarkeit ist betroffen.
Alle 12 Glossar-Begriffe als interaktiver Force-Directed Graph.
Knoten-Grösse = GEO Importance Rank, Knoten-Farbe = thematischer Cluster.
Kanten-Farbe und -Stil zeigen den Beziehungstyp (Hierarchie, verwandt,
Voraussetzung, implementiert). Klick auf einen Knoten öffnet den Begriff.