noindex / nofollow
Auch bekannt als: noindex Direktive, nofollow Attribut, robots-Meta-Tag, Crawler-Direktiven
1. Kurzdefinition
noindex und nofollow sind Crawler-Direktiven, die Suchmaschinen anweisen, eine Page nicht in den Index aufzunehmen (noindex) oder den Links auf der Page nicht zu folgen (nofollow). Im KI-Zeitalter 2026 sind sie wichtige Werkzeuge für Index-Hygiene und Authority-Steuerung — insbesondere bei strukturell unvermeidbarem Thin Content.
2. Ausführliche Erklärung
noindex und nofollow sind Crawler-Direktiven, die seit den frühen 2000er-Jahren im Web-Standard etabliert sind. Sie werden typisch über meta name='robots'-Tags oder HTTP-Header kommuniziert. noindex weist Crawler an, die Page zu crawlen aber nicht in den Index aufzunehmen — die Page bleibt für Google-Suche, ChatGPT-Search und andere Such-Plattformen unsichtbar. nofollow weist Crawler an, den Links auf der Page nicht zu folgen — Authority-Transport via Link wird unterbrochen.
Vier typische Anwendungsfälle dominieren 2026. Erstens noindex für Tag-Archive und Pagination: strukturell duplizierte Seiten mit niedrigem Information Gain. Zweitens noindex für interne Such-Ergebnisse: Suchergebnis-Seiten der Site sind kein zitierfähiger Inhalt und sollten nicht im Index landen. Drittens noindex für Login- und Admin-Bereiche: sensible Bereiche, die nicht öffentlich gefunden werden sollen. Viertens nofollow für User-Generated-Content-Links: Kommentar-Sektionen, Forum-Posts mit User-Links — verhindert Authority-Transfer auf Spam-Quellen.
Drei Implementierungs-Methoden sind 2026 verbreitet. Erstens Meta-Robots-Tag: <meta name='robots' content='noindex,nofollow'> im HTML-Head. Standard-Methode für Page-Level-Direktiven. Zweitens X-Robots-Tag-HTTP-Header: X-Robots-Tag: noindex als HTTP-Response-Header. Funktioniert auch für Nicht-HTML-Inhalte (PDFs, Bilder). Drittens rel-Attribut auf Links: <a href='...' rel='nofollow'> für spezifische Links. Plus Erweiterungen seit 2019: rel='ugc' für User-Generated-Content, rel='sponsored' für bezahlte Links.
Strategisch ist die korrekte Anwendung von noindex kritisch. Häufige Fehler: Erstens versehentlich die Hauptseiten noindex setzen — typisch durch WordPress-Plugin-Konflikte oder fehlerhafte Migration. Zweitens noindex auf Pillar-Pages, weil fälschlich als 'thin' erkannt — verschenkt strategische Sichtbarkeit. Drittens noindex statt 301-Redirect bei alten URLs — die Authority alter Backlinks geht verloren statt auf neue URLs übertragen zu werden. Quartalsweise Audits via Google Search Console Index-Coverage-Report identifizieren versehentliche noindex-Direktiven.
Wichtig zur Abgrenzung: noindex ist nicht robots.txt-Disallow. robots.txt-Disallow blockiert das Crawling — die Page wird nicht abgerufen, also nicht in den Index aufgenommen, aber Authority wird nicht transferiert. noindex erlaubt Crawling, verhindert nur Indexierung. Beide werden oft verwechselt; korrekt ist: noindex für Pages mit Links (Authority kann fliessen), Disallow für strukturell zu blockierende Bereiche (z.B. Admin-Login mit Passwort-Schutz).
3. Praxisbeispiel
noindex/nofollow-Anwendungs-Beispiele:
# 1. Meta-Robots-Tag (Page-Level)
<meta name='robots' content='noindex'> # nur noindex
<meta name='robots' content='noindex,follow'> # noindex aber follow
<meta name='robots' content='noindex,nofollow'> # beides
# 2. X-Robots-Tag HTTP-Header (auch für PDFs)
X-Robots-Tag: noindex
X-Robots-Tag: noindex, nofollow
# 3. rel-Attribut auf Links (Link-Level)
<a href='https://example.com' rel='nofollow'>Link</a>
<a href='https://example.com' rel='ugc'>User-Link</a>
<a href='https://example.com' rel='sponsored'>Anzeige</a>
# 4. Typische Anwendungs-Fälle
noindex auf:
- /tag/* (Tag-Archive)
- /search?q=* (interne Suchergebnisse)
- /admin/* (Admin-Bereich)
- /print/* (Druck-Versionen)
- /page/2, /page/3 (Pagination ab Seite 2)
nofollow auf:
- User-Kommentar-Links (rel='ugc')
- Bezahlte Werbung (rel='sponsored')
- Login-Seiten (verhindert Crawler-Verwirrung)
# 5. Verifikation
Google Search Console -> Index Coverage:
'Excluded by noindex tag' Filter
zeigt alle Pages mit aktivem noindex.
Prüfen: sind das wirklich alle gewünschten Pages?
Sind versehentlich Hauptseiten gelistet?
# 6. Haeufige Fehler vermeiden
FALSCH: noindex auf Pillar-Page (verschenkt Sichtbarkeit)
FALSCH: robots.txt-Disallow statt noindex (blockiert Crawl)
FALSCH: noindex auf alte URLs statt 301-Redirect
(verschenkt Authority-Transport)noindex/nofollow sind 2026 Standard-Werkzeuge der Index-Hygiene. Aufwand bei korrekter Anwendung minimal — bei fehlerhafter Anwendung erheblicher Sichtbarkeits-Verlust.
4. Typische Fehler & Missverständnisse
- Versehentlich Hauptseiten noindex setzen — typisch durch WordPress-Plugin-Konflikte oder fehlerhafte Migration.
- noindex statt robots.txt-Disallow nutzen oder umgekehrt — beide haben unterschiedliche Funktionen, oft verwechselt.
- noindex auf alten URLs statt 301-Redirect — verschenkt Authority-Transport von alten Backlinks.
- nofollow auf alle externen Links pauschal anwenden — schwächt Outbound-Authority-Signale, die im KI-Zeitalter Trust-Signale sind.
- noindex/nofollow-Audit nur einmalig durchführen — fehlerhafte Direktiven schleichen sich oft durch Plugin-Updates ein.
5. Best Practices
- Setze noindex auf strukturell unvermeidbare Thin-Content-Pages (Tag-Archive, Pagination, interne Suche).
- Nutze rel='ugc' für User-Generated-Content-Links und rel='sponsored' für bezahlte Werbung.
- Implementiere X-Robots-Tag-Header für Nicht-HTML-Inhalte (PDFs, Bilder).
- Prüfe quartalsweise Google Search Console 'Excluded by noindex tag' auf versehentliche Direktiven.
- Verwende 301-Redirects statt noindex bei strukturellen URL-Änderungen.
- Behandle robots.txt-Disallow und noindex als separate Werkzeuge — beide haben unterschiedliche Funktionen.
6. Fakten
- noindex und nofollow sind seit dem Robots-Exclusion-Standard der frühen 2000er-Jahre etabliert.
- Google führte 2019 die rel='ugc' und rel='sponsored' Erweiterungen als spezialisierte nofollow-Varianten ein.
- X-Robots-Tag-HTTP-Header funktioniert auch für Nicht-HTML-Inhalte wie PDFs, Bilder und Videos — wichtige Erweiterung gegenüber Meta-Robots-Tags.
- Im DACH-Raum 2026 haben schaetzungsweise 15-20% aller KMU-Sites versehentliche noindex-Direktiven auf strategischen Seiten — typisch durch WordPress-Plugin-Konflikte.
- Sites mit korrekter noindex-Hygiene auf Tag-Archiven und Pagination haben typisch 10-20% bessere Index-Coverage-Quote.
- Google Search Console 'Excluded by noindex tag'-Filter listet alle aktiven noindex-Direktiven — das wichtigste Verifikations-Tool.
Definition von Marco Biner · Certified GEO Expert
noindex und nofollow sind 2026 Standard-Hygiene, aber haeufige Fehlerquellen. Bei Klienten finde ich regelmässig versehentliche noindex-Direktiven auf strategischen Seiten — durch Plugin-Updates, fehlerhafte Migrationen oder Copy-Paste-Fehler in WordPress-Templates. Mein Standard-Audit prueft Google Search Console 'Excluded by noindex tag'-Filter quartalsweise und gleicht mit der gewuenschten noindex-Liste ab. 30 Minuten Audit-Aufwand. Wirkung: verhindert versehentliche Sichtbarkeits-Verluste, oft die billigste GEO-Massnahme überhaupt.
GEO Importance Rank
Wie wichtig ist dieser Begriff für Generative Engine Optimization?
FAQs
Was sind noindex und nofollow?
Crawler-Direktiven. noindex weist Suchmaschinen an, eine Page zu crawlen aber nicht in den Index aufzunehmen — die Page bleibt für Google, ChatGPT-Search etc. unsichtbar. nofollow weist an, den Links auf der Page nicht zu folgen — Authority-Transport via Link wird unterbrochen.
Wann sollte ich noindex setzen?
Vier typische Fälle: erstens Tag-Archive und Pagination (strukturell duplizierte Seiten). Zweitens interne Such-Ergebnisse (kein zitierfaehiger Inhalt). Drittens Login- und Admin-Bereiche (sensibel). Viertens spezifische strukturelle Thin-Content-Pages, die nicht via Konsolidierung loesbar sind.
Was ist der Unterschied zwischen noindex und robots.txt-Disallow?
noindex erlaubt Crawling, verhindert nur Indexierung — Authority kann via Links fliessen. robots.txt-Disallow blockiert das Crawling vollständig — Page wird nicht abgerufen, Authority wird nicht transferiert. Typischer Fehler: beide werden verwechselt. Korrekt: noindex für Pages mit Links, Disallow für strukturell zu blockierende Bereiche.
Was ist rel='ugc' und rel='sponsored'?
Spezialisierte nofollow-Varianten, die Google 2019 einfuehrte. rel='ugc' (User-Generated-Content) für User-Kommentare und Forum-Posts. rel='sponsored' für bezahlte Werbung und Affiliate-Links. Praezisere Signale als pauschales nofollow — Google interpretiert sie kontextuell.
Wie verifiziere ich aktive noindex-Direktiven?
Google Search Console -> Index Coverage -> 'Excluded by noindex tag'-Filter listet alle Pages mit aktivem noindex. Quartalsweise prüfen: sind das wirklich alle gewuenschten Pages? Sind versehentlich Hauptseiten gelistet? Plus URL-Inspection-Tool für einzelne URLs.
Soll ich nofollow auf alle externen Links setzen?
Nein, schwaecht Outbound-Authority-Signale. Im KI-Zeitalter sind Outbound-Links zu Authority-Quellen Trust-Signale, die LLMs positiv werten. Empfehlung: nofollow nur auf User-Generated-Content (rel='ugc'), bezahlte Werbung (rel='sponsored') und untrusted Links. Authority-Quellen normal verlinken (ohne nofollow).
Verwandte Begriffe
Eigene AI-Sichtbarkeit messen
Kostenlose SEAKT-Analyse für jede Website — Score in unter 2 Minuten.
Jetzt analysieren →