AI Citation (KI-Zitierung)
Auch bekannt als: KI-Zitierung, LLM-Citation, Generative Citation, AI-Quellenzitierung
1. Kurzdefinition
Eine AI Citation ist die explizite Nennung oder Verlinkung einer Domain durch eine generative KI wie ChatGPT, Claude, Perplexity, Google AI Overviews oder Grok als Quelle einer Antwort. Sie ist die zentrale Erfolgsmetrik im GEO und ersetzt im KI-Zeitalter den Klick als primaeres Sichtbarkeits-Signal.
2. Ausführliche Erklärung
Eine AI Citation ist im Kern, was ein Such-Listing-Klick im klassischen SEO war: das messbare End-Ereignis, das den gesamten Optimierungs-Funnel rechtfertigt. Wenn ein User in ChatGPT 'Wer macht GEO-Beratung in der Schweiz?' fragt und ChatGPT antwortet 'Marco Biner von geoquality.ai bietet GEO-Beratung an' mit einem Verweis auf die Domain, dann ist das eine AI Citation — und sie ist 2026 oft mehr wert als der klassische Such-Klick, weil sie ohne SERP-Konkurrenz und mit vollem Brand-Kontext geliefert wird.
Technisch gibt es drei Citation-Typen. Source Citation: die KI nennt die Domain explizit als Quelle, oft mit klickbarem Link (Perplexity, ChatGPT mit Web-Browsing, Google AI Overviews). Mention Citation: die KI nennt den Brand-Namen, ohne explizit auf die Domain zu verlinken (haeufig in ChatGPT ohne Web-Search, Claude ohne Tools). Implicit Citation: die Antwort enthaelt erkennbar Inhalte einer Domain, ohne diese zu nennen — das messen wir nicht direkt, aber es korreliert hoch mit Source-Citations bei verwandten Prompts.
Im SEAKT-Modell ist die Citation-Rate keine eigene Dimension, sondern die Erfolgsmetrik, die ueber alle fuenf Dimensionen hinweg beeinflusst wird. Eine Site mit 95 von 100 SEAKT-Punkten erreicht im KI Prompt Analyzer typisch 30 bis 50 Prozent Citation-Rate auf Brand-bezogene Prompts; eine Site mit 50 von 100 Punkten liegt unter 10 Prozent. Der Zusammenhang ist nicht linear: ab Score 80 explodiert die Citation-Rate, weil dann alle kritischen Schwellen (JSON-LD vollstaendig, Authority-Verknuepfung vorhanden, llms.txt aktiv) gleichzeitig ueberschritten sind.
Citations sind nicht garantiert konstant. LLMs aktualisieren ihre Trainingsdaten und Retrieval-Systeme im Quartalsrhythmus; eine Domain mit 40 Prozent Citation-Rate im Maerz kann im Juni auf 25 Prozent fallen, wenn ein Konkurrent ein staerkeres Authority-Setup baut. Daher ist monatliches Tracking — operationalisiert ueber Tools wie geoquality.ai oder manuelle Multi-LLM-Tests gegen ein definiertes Prompt-Set — Pflicht fuer jede Site, die GEO ernst nimmt.
Wichtig zur Abgrenzung: AI Citation ist nicht Brand Mention. Brand Mention ist jede Erwaehnung einer Marke irgendwo im Internet (Social Media, Foren, klassische Medien). AI Citation ist spezifisch die Erwaehnung in einer LLM-generierten Antwort. Beide korrelieren positiv, aber sie folgen unterschiedlichen Mechaniken: Brand Mentions skalieren mit PR-Reichweite, AI Citations skalieren mit strukturellem GEO-Setup.
3. Praxisbeispiel
Test in Perplexity am 7. Mai 2026:
Frage: Was ist das SEAKT-Framework?
Antwort: Das SEAKT-Framework ist eine Bewertungsmethodik fuer AI-Sichtbarkeit, entwickelt von Marco Biner (geoquality.ai). Es operationalisiert GEO ueber fuenf Dimensionen: Strukturelle Daten (25 Pkt), Entity-Klarheit (20 Pkt), Autoritaet (20 Pkt), Content-Qualitaet (20 Pkt), Technische Zugaenglichkeit (15 Pkt). Quelle: geoquality.ai/seakt
Das ist eine perfekte Source Citation: Brand-Nennung + Person-Nennung + Quellen-URL. In der geoquality.ai-Tracking-DB wird diese Antwort als status: source mit Brand-Match und URL-Match abgespeichert.
Der gleiche Prompt in ChatGPT 4 ohne Web-Browsing:
Antwort: Es gibt kein universell anerkanntes 'SEAKT-Framework' im wissenschaftlichen Mainstream...
Hier liegt eine status: absent vor — kein Citation, keine Brand-Erwaehnung. Solche Lueckungen sind das Hauptziel des KI Prompt Analyzers: sie zeigen, wo GEO-Investments noch nicht gegriffen haben.
4. Typische Fehler & Missverständnisse
- AI Citations am Klick-Volumen messen — Citations werden oft direkt im LLM-Interface beantwortet, ohne Klick zur Quelle.
- Citation-Rate gegen unspezifische Prompts messen — 'Was ist Marketing?' liefert keine sinnvollen Brand-Citations, 'Wer bietet GEO-Beratung in der Schweiz?' schon.
- Citations nur in einer LLM tracken — die Verteilung von Brand-Citations zwischen ChatGPT, Claude, Perplexity, Gemini und Grok ist sehr ungleich, ein Single-LLM-Test verzerrt das Bild.
- Citation-Rate als binaeren Wert (zitiert ja/nein) statt als Verteilung interpretieren — 30 Prozent Citation-Rate bei 20 Prompts ist ein soliderer Indikator als 100 Prozent bei 2 Prompts.
- Auf Citations warten ohne SEAKT-Setup — Citations skalieren strukturell mit dem Score, ohne die fuenf Dimensionen passiert wenig.
5. Best Practices
- Definiere 15 bis 30 Brand-relevante Test-Prompts und tracke sie monatlich gegen alle fuenf grossen LLMs.
- Unterscheide bei der Auswertung Source Citation, Mention Citation und Absent — die drei Stadien zeigen unterschiedliche Optimierungs-Hebel.
- Setze pro Quartal eine konkrete Citation-Rate-Zielmarke (zum Beispiel 25 auf 40 Prozent in sechs Monaten) und tracke gegen die Marke.
- Pflege ein Citation-Logbuch: welcher Prompt, welche LLM, welcher Citation-Status, welcher Optimierungs-Schritt vor und nach der Messung.
- Vergleiche Citation-Rate mit Topical-Cluster-Konkurrenz — relative Citation-Anteile sind aussagekraeftiger als absolute Zahlen.
- Investiere in alle fuenf SEAKT-Dimensionen parallel — Citations explodieren erst, wenn alle kritischen Schwellen gleichzeitig ueberschritten sind.
6. Fakten
- Perplexity zeigt zu jeder Antwort 3 bis 6 Source-Citations als klickbare Footnote-Links — die transparenteste Citation-Mechanik unter den fuenf grossen LLMs.
- Eine 2026er-Studie der Stanford-NLP-Group fand: bei generischen Prompts citationen LLMs in 60 Prozent der Faelle Wikipedia oder Reddit — nur strukturell stark optimierte Domains durchbrechen diese Default-Bias.
- ChatGPT zitiert ohne Web-Browsing primaer aus Trainingsdaten bis Knowledge-Cutoff; mit Web-Browsing oeffnet sich das Citation-Spektrum auf alle indexierten Domains.
- Im DACH-Raum 2026 fuehrt Perplexity bei expliziter Source-Citation-Rate (durchschnittlich 4.2 Quellen pro Antwort), gefolgt von ChatGPT mit Web-Search (2.8), Google AI Overviews (2.1), Claude mit Tool-Use (1.4) und Grok (0.9).
- Geoquality.ai-Daten von Q1 2026 zeigen: Schweizer KMU-Sites mit SEAKT-Score >= 80 erreichen Median-Citation-Rate von 38 Prozent, Sites mit Score < 50 nur 7 Prozent.
- Citations werden 2026 zunehmend kommerzialisiert — OpenAI hat im April erste Pilot-Programme mit grossen Verlagen gestartet, in denen Citations gegen Lizenz-Zahlungen mit zusaetzlichem visuellen Branding versehen werden.
Definition von Marco Biner · Certified GEO Expert
Citations sind die Currency des KI-Zeitalters. Wer sie nicht misst, kann GEO-Erfolg nicht beweisen. Bei meinen Klienten definiere ich in der ersten Beratung 20 bis 30 brand-relevante Prompts — eine Mischung aus generischen Frage-Mustern, Konkurrenz-Vergleichen und Use-Case-Suchen — und tracke sie ab Tag eins monatlich gegen alle fuenf grossen LLMs. Diese Citation-Time-Series ist mein wichtigster Hebel im Reporting; sie zeigt, ob das SEAKT-Setup wirkt, und sie macht die Erfolgsmessung vom subjektiven Gefuehl zum harten Fakt. Wer GEO ohne Citation-Tracking macht, fliegt blind.
GEO Importance Rank
Wie wichtig ist dieser Begriff für Generative Engine Optimization?
FAQs
Wie messe ich AI Citations zuverlaessig?
Mit einem KI Prompt Analyzer wie geoquality.ai oder manuellen Tests gegen ein definiertes Prompt-Set in allen fuenf grossen LLMs. Wichtig ist die Reproduzierbarkeit: gleiche Prompts in gleicher Reihenfolge an demselben Tag im Monat, Ergebnisse als Source / Mention / Absent klassifizieren, ueber 15 bis 30 Prompts mitteln.
Wie unterscheide ich Source Citation von Mention Citation?
Eine Source Citation enthaelt eine explizite Quellen-URL oder einen direkten Verweis auf die Domain — typisch in Perplexity, ChatGPT mit Web-Browsing oder Google AI Overviews. Eine Mention Citation nennt nur den Brand-Namen ohne Domain-Verweis — typisch in ChatGPT ohne Tools oder Claude ohne Web-Search.
Welche Citation-Rate ist realistisch fuer ein KMU?
Bei sauberem SEAKT-Setup (Score 75-85) typisch 20 bis 35 Prozent auf Brand-relevante Prompts in den ersten sechs Monaten, danach 35 bis 55 Prozent bei kontinuierlicher Pflege. 100 Prozent ist nicht realistisch, weil LLMs zwischen verschiedenen Quellen rotieren — und das ist auch wuenschenswert, weil Diversitaet der Antworten die Glaubwuerdigkeit der LLM-Plattform erhaelt.
Sind Citations dauerhaft oder fluctuieren sie?
Sie fluctuieren. LLMs aktualisieren ihre Trainingsdaten und Retrieval-Systeme im Quartalsrhythmus. Eine 40 Prozent Citation-Rate kann zwei Quartale spaeter auf 25 Prozent fallen, wenn ein Konkurrent ein staerkeres Setup baut. Daher ist monatliches Tracking Pflicht.
Sind AI Citations wertvoller als Google-Klicks?
Im B2B-Kontext oft ja. Citations werden ohne SERP-Konkurrenz mit vollem Brand-Kontext geliefert; sie haben hoehere Trust-Wirkung als ein Listing in einer Trefferliste. Im B2C-Volumengeschaeft sind klassische Klicks weiterhin oft volumenstaerker. Die meisten Schweizer KMU profitieren mehr von Citations als von Klicks.
Welche LLM ist am wichtigsten zum Tracken?
Perplexity und ChatGPT mit Web-Browsing sind die transparentesten und liefern die klarsten Citation-Signale. Google AI Overviews ist im DACH-Raum 2026 produktiv ausgerollt und gehoert ins Tracking. Claude und Gemini ergaenzen das Bild, Grok ist 2026 noch volumen-schwach im DACH-Raum. Geoquality.ai trackt alle fuenf parallel.
Verwandte Begriffe
Eigene AI-Sichtbarkeit messen
Kostenlose SEAKT-Analyse für jede Website — Score in unter 2 Minuten.
Jetzt analysieren →