Wichtig crawling

Indexierung

Auch bekannt als: Index-Aufnahme, Indexing, Search Index, Crawler-Index


Aktualisiert 2026-05-07 · von Marco Biner

1. Kurzdefinition

Indexierung bezeichnet die Speicherung gecrawlter Web-Inhalte in einer durchsuchbaren Datenbank — bei Google im Search Index, bei KI-Plattformen in plattform-spezifischen Indizes (ChatGPT-Search-Index, Perplexity-Index). Indexierung ist der nachgelagerte Schritt nach Crawling und Voraussetzung dafür, dass eine Site überhaupt in Suchergebnissen oder KI-Antworten erscheint.

2. Ausführliche Erklärung

Indexierung ist der nachgelagerte Prozess nach Crawling. Während Crawler Inhalte abrufen und parsen, sortiert und speichert die Indexierung diese Inhalte in einer durchsuchbaren Datenbank. Bei Google ist das der Google Search Index — eine Petabyte-grosse Datenbank, die Millionen Web-Seiten mit Stichwörtern, Strukturdaten und Ranking-Signalen verknüpft. Bei KI-Plattformen sind es spezialisierte Indizes: ChatGPT-Search nutzt einen Bing-basierten Index, Perplexity einen proprietären Index, Google AI Mode nutzt Googles eigenen Index angereichert mit Embeddings.

Drei Indexierungs-Stati sind möglich. Erstens indexiert: die Site ist in der Datenbank gespeichert und erscheint in Suchergebnissen oder KI-Citations. Zweitens nicht indexiert: die Site wurde gecrawlt, aber nicht in den Index aufgenommen — typische Gründe sind Duplicate Content, Thin Content, oder explizite noindex-Direktiven. Drittens deindexiert: die Site war indexiert, wurde aber wieder entfernt — meist nach Quality-Verstössen, manueller Handlung oder Site-Migration ohne Redirects.

Für GEO ist Indexierungs-Status fundamental, weil ohne Index keine Sichtbarkeit. Sites müssen drei Indexierungs-Pflichten erfüllen: Erstens Sitemap.xml-Pflege mit allen relevanten URLs und korrekten lastmod-Timestamps. Zweitens internes Linking, damit Crawler alle Seiten finden — Waisenseiten ohne eingehende Links werden oft nicht indexiert. Drittens Indexability-Signale via Schema.org-Markup, Canonical-Tags und klare URL-Strukturen, die Suchmaschinen die Indexierung erleichtern.

Im KI-Zeitalter 2026 hat sich Indexierungs-Granularität fundamental erweitert. Klassische Suchmaschinen indexieren ganze Seiten als Einheiten. KI-Plattformen indexieren Chunks — typisch 200-800 Tokens grosse Inhaltsblöcke, die im Embedding-Vektorraum gespeichert werden. Diese Chunk-Indexierung erlaubt feingranulare RAG-Retrieval — wenn ein User in ChatGPT eine Frage stellt, sucht das System nach den semantisch ähnlichsten Chunks, nicht nach ganzen Seiten. Konsequenz: GEO-Optimierung muss auf Chunk-Ebene denken — saubere Answer Capsules von 40-80 Wörtern werden zu idealen Indexierungs-Einheiten.

Wichtig zur Abgrenzung: Indexierung ist nicht Crawling, ist nicht Ranking. Crawling ist das Abrufen der Inhalte durch Bots. Indexierung ist die Speicherung in der Such-Datenbank. Ranking ist die Anordnung der indexierten Treffer für eine spezifische Anfrage. Eine Site kann gecrawlt werden, ohne indexiert zu werden (zum Beispiel bei noindex-Direktive); eine indexierte Site kann ohne Ranking-Ergebnis bleiben (zum Beispiel bei zu schwacher Authority für die Anfrage).

3. Praxisbeispiel

Indexierungs-Workflow für eine neue KMU-Site:

# Tag 1: Site-Launch
- robots.txt mit explizitem Crawler-Allow
- Sitemap.xml mit allen URLs erstellt
- Sitemap an Google Search Console submitted

# Tag 1-7: Erster Crawl-Zyklus
Googlebot crawlt die Site, GPTBot folgt 1-3 Tage später.
Inhalte werden geparst, Strukturdaten extrahiert.

# Tag 7-30: Initial-Indexierung
Google nimmt typisch 5-15 URLs in den Index auf,
andere bleiben in 'Crawled - currently not indexed'-Status.

# Tag 30-90: Vollindexierung
Bei sauberer Foundation (Schema.org, Sitemap, internes
Linking) erreichen 70-90% aller URLs Index-Status.
Restliche URLs benötigen Authority-Aufbau oder Content-
Verbesserung.

# Verifikation:
- Google Search Console: 'Index Coverage'-Report
- site:example.ch in Google: zeigt indexierte URLs
- Manuelle Anfragen in ChatGPT mit URL-Verweis

# Bei Indexierungs-Problemen:
1. URL-Inspection in Google Search Console nutzen
2. Robots.txt auf versehentliche Disallows prüfen
3. Canonical-Tags auf richtige URL-Variante setzen
4. Internes Linking verstärken

Sites mit sauberer Foundation erreichen typisch 90% Indexierungs-Rate über 90 Tage. Probleme zeigen sich oft an URLs in 'Crawled - currently not indexed'-Status — Hinweis auf Authority- oder Content-Defizite.

4. Typische Fehler & Missverständnisse

5. Best Practices

6. Fakten


Definition von Marco Biner · Certified GEO Expert

Marco Biner — Founder geoquality.ai, Certified GEO Expert

Indexierung ist die unsichtbare Bedingung für jede Sichtbarkeit. Bei Klienten beginne ich nach jedem Site-Launch mit drei Wochen Indexierungs-Monitoring: Wie viele URLs sind im Google-Index? Wie viele in 'Crawled - currently not indexed'? Bei der Mehrheit der KMU-Klienten finden wir 20-30% nicht-indexierte URLs — typisch wegen Thin Content oder schwacher interner Verlinkung. Im KI-Zeitalter ist Indexierung zusätzlich auf Chunk-Ebene gedacht: saubere Answer Capsules werden zu idealen RAG-Retrieval-Einheiten. Wer nur klassische Site-Indexierung optimiert, verschenkt die KI-Sichtbarkeits-Schicht. Mein Standard-Setup deckt beides ab: Sitemap-Pflege plus Capsule-Format.


GEO Importance Rank

Wie wichtig ist dieser Begriff für Generative Engine Optimization?

64 /100
Wichtig Range 50–69

FAQs

Was ist der Unterschied zwischen Crawling und Indexierung?

Crawling ist das Abrufen der Inhalte durch Bots. Indexierung ist die nachgelagerte Speicherung in der Such-Datenbank. Eine Site kann gecrawlt werden, ohne indexiert zu werden — etwa bei noindex-Direktive, Thin Content oder schwacher Authority. Beide Prozesse zusammen bilden die Voraussetzung für Sichtbarkeit.

Wie lange dauert die Indexierung einer neuen Site?

Erste URLs typisch in 5-15 Tagen, Vollindexierung (70-90% aller URLs) in 30-90 Tagen — abhängig von Site-Grösse, Authority und Foundation-Qualität. Schneller bei sauberer Sitemap, internem Linking und Schema.org-Pflege.

Warum werden manche meiner Seiten nicht indexiert?

Vier häufige Gründe: erstens Thin Content (zu wenig Substanz). Zweitens Duplicate Content ohne Canonical-Tag. Drittens noindex-Direktive (manchmal versehentlich). Viertens zu schwache interne Verlinkung — Waisenseiten ohne eingehende Links werden oft nicht indexiert.

Wie prüfe ich Indexierungs-Status?

Drei Methoden: erstens Google Search Console 'Index Coverage'-Report. Zweitens 'site:example.ch'-Suche in Google zeigt indexierte URLs. Drittens URL-Inspection-Tool für problematische URLs mit konkreten Indexierungs-Hindernissen.

Wie unterscheidet sich Indexierung bei KI-Plattformen?

Klassische Suchmaschinen indexieren ganze Seiten. KI-Plattformen wie ChatGPT-Search und Perplexity indexieren Chunks (200-800 Tokens) im Embedding-Vektorraum. Diese Chunk-Indexierung erlaubt feingranulare RAG-Retrieval — Capsule-Format wird zur idealen Indexierungs-Einheit.

Kann ich Indexierungs-Geschwindigkeit beeinflussen?

Ja, durch fünf Hebel: erstens aktiver Sitemap-Submit. Zweitens dichtes internes Linking. Drittens Schema.org-Markup für strukturelle Klarheit. Viertens schnelle Server-Antwortzeiten. Fünftens regelmässige Inhalts-Updates mit dateModified-Pflege — signalisiert Crawler-Aufmerksamkeit.


Verwandte Begriffe

Eigene AI-Sichtbarkeit messen

Kostenlose SEAKT-Analyse für jede Website — Score in unter 2 Minuten.

Jetzt analysieren →