Nuetzlich technical

noindex / nofollow

Auch bekannt als: noindex Direktive, nofollow Attribut, robots-Meta-Tag, Crawler-Direktiven


Aktualisiert 2026-05-07 · von Marco Biner

1. Kurzdefinition

noindex und nofollow sind Crawler-Direktiven, die Suchmaschinen anweisen, eine Page nicht in den Index aufzunehmen (noindex) oder den Links auf der Page nicht zu folgen (nofollow). Im KI-Zeitalter 2026 sind sie wichtige Werkzeuge für Index-Hygiene und Authority-Steuerung — insbesondere bei strukturell unvermeidbarem Thin Content.

2. Ausführliche Erklärung

noindex und nofollow sind Crawler-Direktiven, die seit den frühen 2000er-Jahren im Web-Standard etabliert sind. Sie werden typisch über meta name='robots'-Tags oder HTTP-Header kommuniziert. noindex weist Crawler an, die Page zu crawlen aber nicht in den Index aufzunehmen — die Page bleibt für Google-Suche, ChatGPT-Search und andere Such-Plattformen unsichtbar. nofollow weist Crawler an, den Links auf der Page nicht zu folgen — Authority-Transport via Link wird unterbrochen.

Vier typische Anwendungsfälle dominieren 2026. Erstens noindex für Tag-Archive und Pagination: strukturell duplizierte Seiten mit niedrigem Information Gain. Zweitens noindex für interne Such-Ergebnisse: Suchergebnis-Seiten der Site sind kein zitierfähiger Inhalt und sollten nicht im Index landen. Drittens noindex für Login- und Admin-Bereiche: sensible Bereiche, die nicht öffentlich gefunden werden sollen. Viertens nofollow für User-Generated-Content-Links: Kommentar-Sektionen, Forum-Posts mit User-Links — verhindert Authority-Transfer auf Spam-Quellen.

Drei Implementierungs-Methoden sind 2026 verbreitet. Erstens Meta-Robots-Tag: <meta name='robots' content='noindex,nofollow'> im HTML-Head. Standard-Methode für Page-Level-Direktiven. Zweitens X-Robots-Tag-HTTP-Header: X-Robots-Tag: noindex als HTTP-Response-Header. Funktioniert auch für Nicht-HTML-Inhalte (PDFs, Bilder). Drittens rel-Attribut auf Links: <a href='...' rel='nofollow'> für spezifische Links. Plus Erweiterungen seit 2019: rel='ugc' für User-Generated-Content, rel='sponsored' für bezahlte Links.

Strategisch ist die korrekte Anwendung von noindex kritisch. Häufige Fehler: Erstens versehentlich die Hauptseiten noindex setzen — typisch durch WordPress-Plugin-Konflikte oder fehlerhafte Migration. Zweitens noindex auf Pillar-Pages, weil fälschlich als 'thin' erkannt — verschenkt strategische Sichtbarkeit. Drittens noindex statt 301-Redirect bei alten URLs — die Authority alter Backlinks geht verloren statt auf neue URLs übertragen zu werden. Quartalsweise Audits via Google Search Console Index-Coverage-Report identifizieren versehentliche noindex-Direktiven.

Wichtig zur Abgrenzung: noindex ist nicht robots.txt-Disallow. robots.txt-Disallow blockiert das Crawling — die Page wird nicht abgerufen, also nicht in den Index aufgenommen, aber Authority wird nicht transferiert. noindex erlaubt Crawling, verhindert nur Indexierung. Beide werden oft verwechselt; korrekt ist: noindex für Pages mit Links (Authority kann fliessen), Disallow für strukturell zu blockierende Bereiche (z.B. Admin-Login mit Passwort-Schutz).

3. Praxisbeispiel

noindex/nofollow-Anwendungs-Beispiele:

# 1. Meta-Robots-Tag (Page-Level)
<meta name='robots' content='noindex'>       # nur noindex
<meta name='robots' content='noindex,follow'> # noindex aber follow
<meta name='robots' content='noindex,nofollow'> # beides

# 2. X-Robots-Tag HTTP-Header (auch für PDFs)
X-Robots-Tag: noindex
X-Robots-Tag: noindex, nofollow

# 3. rel-Attribut auf Links (Link-Level)
<a href='https://example.com' rel='nofollow'>Link</a>
<a href='https://example.com' rel='ugc'>User-Link</a>
<a href='https://example.com' rel='sponsored'>Anzeige</a>

# 4. Typische Anwendungs-Fälle
noindex auf:
  - /tag/* (Tag-Archive)
  - /search?q=* (interne Suchergebnisse)
  - /admin/* (Admin-Bereich)
  - /print/* (Druck-Versionen)
  - /page/2, /page/3 (Pagination ab Seite 2)

nofollow auf:
  - User-Kommentar-Links (rel='ugc')
  - Bezahlte Werbung (rel='sponsored')
  - Login-Seiten (verhindert Crawler-Verwirrung)

# 5. Verifikation
Google Search Console -> Index Coverage:
  'Excluded by noindex tag' Filter
  zeigt alle Pages mit aktivem noindex.
Prüfen: sind das wirklich alle gewünschten Pages?
         Sind versehentlich Hauptseiten gelistet?

# 6. Haeufige Fehler vermeiden
FALSCH: noindex auf Pillar-Page (verschenkt Sichtbarkeit)
FALSCH: robots.txt-Disallow statt noindex (blockiert Crawl)
FALSCH: noindex auf alte URLs statt 301-Redirect
         (verschenkt Authority-Transport)

noindex/nofollow sind 2026 Standard-Werkzeuge der Index-Hygiene. Aufwand bei korrekter Anwendung minimal — bei fehlerhafter Anwendung erheblicher Sichtbarkeits-Verlust.

4. Typische Fehler & Missverständnisse

5. Best Practices

6. Fakten


Definition von Marco Biner · Certified GEO Expert

Marco Biner — Founder geoquality.ai, Certified GEO Expert

noindex und nofollow sind 2026 Standard-Hygiene, aber haeufige Fehlerquellen. Bei Klienten finde ich regelmässig versehentliche noindex-Direktiven auf strategischen Seiten — durch Plugin-Updates, fehlerhafte Migrationen oder Copy-Paste-Fehler in WordPress-Templates. Mein Standard-Audit prueft Google Search Console 'Excluded by noindex tag'-Filter quartalsweise und gleicht mit der gewuenschten noindex-Liste ab. 30 Minuten Audit-Aufwand. Wirkung: verhindert versehentliche Sichtbarkeits-Verluste, oft die billigste GEO-Massnahme überhaupt.


GEO Importance Rank

Wie wichtig ist dieser Begriff für Generative Engine Optimization?

42 /100
Nuetzlich Range 30–49

FAQs

Was sind noindex und nofollow?

Crawler-Direktiven. noindex weist Suchmaschinen an, eine Page zu crawlen aber nicht in den Index aufzunehmen — die Page bleibt für Google, ChatGPT-Search etc. unsichtbar. nofollow weist an, den Links auf der Page nicht zu folgen — Authority-Transport via Link wird unterbrochen.

Wann sollte ich noindex setzen?

Vier typische Fälle: erstens Tag-Archive und Pagination (strukturell duplizierte Seiten). Zweitens interne Such-Ergebnisse (kein zitierfaehiger Inhalt). Drittens Login- und Admin-Bereiche (sensibel). Viertens spezifische strukturelle Thin-Content-Pages, die nicht via Konsolidierung loesbar sind.

Was ist der Unterschied zwischen noindex und robots.txt-Disallow?

noindex erlaubt Crawling, verhindert nur Indexierung — Authority kann via Links fliessen. robots.txt-Disallow blockiert das Crawling vollständig — Page wird nicht abgerufen, Authority wird nicht transferiert. Typischer Fehler: beide werden verwechselt. Korrekt: noindex für Pages mit Links, Disallow für strukturell zu blockierende Bereiche.

Was ist rel='ugc' und rel='sponsored'?

Spezialisierte nofollow-Varianten, die Google 2019 einfuehrte. rel='ugc' (User-Generated-Content) für User-Kommentare und Forum-Posts. rel='sponsored' für bezahlte Werbung und Affiliate-Links. Praezisere Signale als pauschales nofollow — Google interpretiert sie kontextuell.

Wie verifiziere ich aktive noindex-Direktiven?

Google Search Console -> Index Coverage -> 'Excluded by noindex tag'-Filter listet alle Pages mit aktivem noindex. Quartalsweise prüfen: sind das wirklich alle gewuenschten Pages? Sind versehentlich Hauptseiten gelistet? Plus URL-Inspection-Tool für einzelne URLs.

Soll ich nofollow auf alle externen Links setzen?

Nein, schwaecht Outbound-Authority-Signale. Im KI-Zeitalter sind Outbound-Links zu Authority-Quellen Trust-Signale, die LLMs positiv werten. Empfehlung: nofollow nur auf User-Generated-Content (rel='ugc'), bezahlte Werbung (rel='sponsored') und untrusted Links. Authority-Quellen normal verlinken (ohne nofollow).


Verwandte Begriffe

Eigene AI-Sichtbarkeit messen

Kostenlose SEAKT-Analyse für jede Website — Score in unter 2 Minuten.

Jetzt analysieren →