Wichtig crawling

Sitemap.xml

Auch bekannt als: XML-Sitemap, sitemap-xml, Sitemap


Aktualisiert 2026-05-03 · von Marco Biner

1. Kurzdefinition

Sitemap.xml ist eine XML-Datei mit allen relevanten URLs einer Website, die Crawlern als systematisches URL-Inventar dient — Pflicht für jede Site mit mehr als 20 Pages und kritisch für die initiale Indexierung durch KI- und Suchmaschinen-Crawler.

2. Ausführliche Erklärung

Sitemap.xml ist ein offener Standard, der 2005 von Google eingeführt und seither von allen grossen Crawlern adoptiert wurde. Die Datei enthält strukturiert alle URLs einer Site, optional mit Last-Modified-Daten, Priority-Indikatoren und Change-Frequency-Hinweisen. Sie ist das technische URL-Inventar einer Site und dient Crawlern als systematische Discovery-Quelle.

Aus GEO-Sicht ist Sitemap.xml die Voraussetzung für vollständige Indexierung. Während Crawler über interne Verlinkung neue URLs entdecken können, ist die Sitemap der schnellste und vollständigste Weg, dem Crawler alle relevanten Pages mitzugeben. KI-Crawler wie GPTBot und ClaudeBot lesen Sitemaps aktiv aus und nutzen sie als primäre URL-Discovery-Quelle bei der initialen Indexierung.

Technisch besteht eine Sitemap aus einem XML-Dokument mit einem <urlset>-Root-Element und einzelnen <url>-Einträgen pro Page. Pro Eintrag: <loc> mit der absoluten URL, optional <lastmod> mit ISO-8601-Datum, <changefreq> als Frequenz-Hinweis (daily/weekly/monthly), <priority> als Wert von 0.0 bis 1.0. Bei mehrsprachigen Sites: hreflang-Annotations via xhtml:link-Elemente.

Best Practice ist eine Sitemap pro Site, idealerweise unter /sitemap.xml erreichbar. Bei sehr grossen Sites (über 50'000 URLs) wird die Sitemap in mehrere Files aufgeteilt und per Sitemap-Index-Datei zusammengeführt. Die Sitemap sollte automatisch aus dem Site-Routing generiert werden — manuelle Pflege ist auf grösseren Sites nicht skalierbar und führt zu Drift.

Für eine Schweizer KMU bedeutet Sitemap.xml konkret: automatische Generierung aus dem Routing, alle relevanten Pages enthalten (ausser Login-, Admin-, Test-Pages), korrekte lastmod-Werte aus den jeweiligen Page-dateModified, hreflang-Annotations bei multilingualen Sites. Plus ein Sitemap-Verweis in robots.txt am Ende. Die Sitemap ist 30 Minuten Setup-Aufwand und einer der zentralen technischen GEO-Hebel.

3. Praxisbeispiel

Sitemap.xml mit hreflang-Annotations für eine multilinguale Site:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"
        xmlns:xhtml="http://www.w3.org/1999/xhtml">
  <url>
    <loc>https://www.beispiel.ch/</loc>
    <lastmod>2026-05-03</lastmod>
    <changefreq>weekly</changefreq>
    <priority>1.0</priority>
    <xhtml:link rel="alternate" hreflang="de-CH"
                href="https://www.beispiel.ch/"/>
    <xhtml:link rel="alternate" hreflang="fr-CH"
                href="https://www.beispiel.ch/fr/"/>
  </url>
  <url>
    <loc>https://www.beispiel.ch/blog/mwst-2026</loc>
    <lastmod>2026-05-02</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.8</priority>
  </url>
</urlset>

Standard-XML-Struktur, hreflang-Annotations für Sprachvarianten der Startseite, lastmod aus den jeweiligen Page-Updates. Bei Sitemap-Updates Crawler via Search Console informieren — Google verarbeitet das Signal innerhalb von 24-48 Stunden.

4. Typische Fehler & Missverständnisse

5. Best Practices

6. Fakten


Definition von Marco Biner · Certified GEO Expert

Marco Biner — Founder geoquality.ai, Certified GEO Expert

Sitemap.xml ist 2026 die Brücke zwischen Routing und Crawler-Discovery. Was ich konsistent sehe: KMU-Sites mit automatisch generierter Sitemap haben eine 40 bis 60 Prozent schnellere Initial-Indexierung neuer Inhalte als Sites ohne oder mit veralteter Sitemap.

Mein Standard: Sitemap automatisch aus dem Routing generieren, lastmod aus dateModified der jeweiligen Pages, hreflang-Annotations bei multilingualen Sites, Verweis in robots.txt am Ende. Plus Submission in Google Search Console. Das ist 60 Minuten Setup für die nächsten fünf Jahre Site-Lebensdauer.


GEO Importance Rank

Wie wichtig ist dieser Begriff für Generative Engine Optimization?

67 /100
Wichtig Range 50–69

FAQs

Welche URLs gehören in die Sitemap?

Alle indexierbaren, öffentlich zugänglichen Pages. Nicht in die Sitemap: Pages mit noindex-Tag, Login/Admin-Bereiche, Test-Pages, URL-Varianten mit Tracking-Parametern, redirects, 404-Pages. Faustregel: nur Pages, die du tatsächlich in den Suchergebnissen sehen willst.

Soll ich changefreq und priority setzen?

Optional und in der Praxis oft wenig wirksam. Google ignoriert priority weitgehend und nutzt changefreq nur als groben Hinweis. lastmod ist der wichtigste der drei optionalen Werte — deutlich wirksamer als changefreq oder priority. Best Practice: lastmod immer setzen, changefreq und priority nur wenn sie inhaltlich Mehrwert bringen.

Wie aktualisiere ich die Sitemap automatisch?

Bei dynamischen Sites: Sitemap on-demand bei Page-Aufruf generieren, mit Cache-Layer (z. B. 1 Stunde Cache-Control). Bei statischen Sites: Build-Step im Deploy-Pipeline. Alle modernen Frameworks (Next.js, FastAPI, Django, WordPress mit Yoast) bieten Sitemap-Generation out of the box.

Brauche ich eine Sitemap bei kleinen Sites?

Bei Sites unter 20 Pages mit guter interner Verlinkung sind Sitemaps weniger kritisch — Crawler entdecken alle URLs auch ohne. Best Practice ist trotzdem, eine Sitemap zu haben: sie kostet wenig und beschleunigt die initiale Discovery. Ab 20+ Pages ist Sitemap.xml zwingend.

Wie reiche ich die Sitemap bei Google ein?

Über Google Search Console (search.google.com/search-console). Property hinzufügen, dann „Sitemaps“ im Menü, URL der Sitemap eintragen (z. B. https://www.beispiel.ch/sitemap.xml). Google verarbeitet die Sitemap typisch innerhalb von 24-48 Stunden. Bei Bing analog über Bing Webmaster Tools.

Was passiert wenn URLs in der Sitemap nicht existieren?

Crawler folgen den URLs und finden 404 — kein direkter Schaden, aber Crawl-Budget wird verschwendet. Mehrere Crawl-Errors über die Zeit können die Crawl-Frequenz reduzieren. Best Practice: Sitemap regelmässig validieren, Tools wie Screaming Frog können Sitemap-URLs gegen tatsächlichen Site-Status prüfen.


Verwandte Begriffe

Eigene AI-Sichtbarkeit messen

Kostenlose SEAKT-Analyse für jede Website — Score in unter 2 Minuten.

Jetzt analysieren →