Prompt-Tracking
Auch bekannt als: Prompt-Monitoring, AI-Prompt-Tracking, LLM-Prompt-Analyse
1. Kurzdefinition
Prompt-Tracking ist die systematische Beobachtung, mit welchen Fragen Nutzer in LLMs nach einer Marke, Branche oder Domain suchen — und welche Antworten dabei entstehen. Es ist die GEO-Entsprechung zur klassischen Keyword-Recherche und liefert die Steuergrösse für Content-Priorisierung im KI-Zeitalter 2026.
2. Ausführliche Erklärung
Prompt-Tracking beschreibt zwei verwandte, aber unterschiedliche Praktiken: Erstens das aktive Testen einer fixen Liste von Prompts gegen mehrere LLMs zur Messung der eigenen LLM-Visibility (siehe LLM-Visibility). Zweitens das passive Beobachten realer Nutzerfragen über First-Party-Signale wie Site-Search-Logs, Support-Anfragen, Social-Media-Mentions und AI-Referral-Traffic mit Prompt-Kontext.
Aktives Prompt-Tracking arbeitet mit kuratierten Prompt-Sets von 10-100 Fragen, die typische Suchszenarien abbilden: Awareness ("Welche Anbieter gibt es für X?"), Consideration ("Was ist der Unterschied zwischen Anbieter A und B?"), Decision ("Welcher Anbieter passt für KMU mit 30 Mitarbeitern?") und Brand ("Wer steckt hinter Marke X?"). Tools wie geoquality.ai's KI Prompt Analyzer automatisieren das parallel über 5 Engines.
Passives Prompt-Tracking ist anspruchsvoller, liefert aber Insights zu echten Nutzerprompts, die kein Test-Set abdecken könnte. Datenquellen: AI-Referral-Traffic in GA4 (Referrer chat.openai.com, perplexity.ai) mit URL-Pfad als Prompt-Hinweis; Site-Search-Logs als Indikator für Content-Lücken; Support-Tickets mit "ChatGPT hat gesagt..."-Mustern als direkte Prompt-Referenzen; Brand-Mention-Tools wie Brand24 oder Mention.com mit AI-Engine-Filter.
Schweizer Praxis-Befund 2026: KMU mit etablierter Website erhalten 2-8 Prozent ihres organischen Traffics inzwischen aus AI-Referrals (Stand Q1 2026). Tendenz stark steigend. Die Top-Quellen-Engines: Perplexity vor ChatGPT-Search vor Claude. Die typischen Prompt-Muster lassen sich aus Landing-Page-Analysen rekonstruieren: lange, spezifische Long-Tail-Phrasen mit Kontext-Markern wie "in der Schweiz", "für KMU", "unter CHF 5000".
Datenschutz-Aspekt: Prompt-Tracking passiv aus GA4 ist DSGVO/revDSG-kompatibel, weil keine personenbezogenen Daten anfallen — nur aggregierte Traffic-Quellen. Prompt-Inhalte selbst werden von den LLMs nicht weitergegeben, nur die Tatsache des Klicks und die Ziel-URL. Wer detailliertere Prompt-Insights will, muss aktives Testen einsetzen.
3. Praxisbeispiel
Eine Schweizer Versicherung baut ein Prompt-Tracking-System:
# Aktives Tracking (Quartalsmessung):
Prompt-Set: 30 Fragen Krankenversicherung CH
Engines: ChatGPT, Claude, Perplexity, Gemini, Grok
Tool: geoquality.ai KI Prompt Analyzer
Output: Mention-Rate, Citation-Rate, Share-of-Voice
# Passives Tracking (kontinuierlich):
GA4 Custom Report:
Source/Medium contains:
chat.openai.com / referral
perplexity.ai / referral
you.com / referral
claude.ai / referral
Dimension: Landing Page
Metrik: Sitzungen, Engagement-Rate
Erkenntnis Q2 2026:
- 4.2% AI-Referral-Anteil
- Top-Landing: /grundversicherung-vergleich
- Implizierter Prompt-Cluster: Vergleichsfragen
- Lücke: keine FAQ-Page für Zusatzversicherung
4. Typische Fehler & Missverständnisse
- Nur aktiv oder nur passiv tracken — beide Datenquellen ergänzen sich und decken unterschiedliche Insights ab
- Prompt-Set einmal definieren und nie aktualisieren — Nutzerfragen entwickeln sich quartalsweise weiter
- Test-Prompts zu generisch formulieren ohne Kontext-Marker ("Schweiz", "KMU", konkrete Mengen)
- AI-Referral-Traffic in GA4 nicht als eigene Channel-Group separieren — verschwindet sonst in 'Direct'
- Erkenntnisse aus Prompt-Tracking nicht in Content-Roadmap überführen — reines Reporting ohne Action
5. Best Practices
- Aktives Prompt-Set mit 30-50 Fragen quartalsweise pflegen, davon 70 Prozent stabil und 30 Prozent neu
- GA4-Custom-Channel-Group 'AI Referrals' anlegen mit allen relevanten Engine-Domains
- Site-Search-Logs monatlich auf Top-100-Suchanfragen prüfen — sind ungelöste Prompts in Reinform
- Support-Tickets nach Mustern 'ChatGPT/Claude hat gesagt' filtern und als Prompt-Quelle nutzen
- Erkenntnisse in monatliches Content-Briefing überführen mit Top-3-Lücken als Priorität
6. Fakten
- AI-Referral-Anteil im DACH-B2B-Sektor liegt 2026-Q1 bei median 4-6 Prozent, Tendenz +1-2 Prozentpunkte pro Quartal
- Perplexity dominiert AI-Referrals mit 50-60 Prozent aller AI-Klicks bei B2B-Sites
- Long-Tail-Prompts (8+ Wörter) machen 70-80 Prozent realer LLM-Anfragen aus
- ChatGPT-Search liefert Klicks erst seit 2025 in nennenswerter Menge — vorher fast reine Antwortmaschine
- Prompt-Cluster lassen sich aus Landing-Pages der AI-Referrals robust rekonstruieren ohne Tracking-Cookies
- OpenAI gibt seit Mitte 2025 Search-Engine-Header mit, was GA4-Attribution verlässlicher macht
Definition von Marco Biner · Certified GEO Expert
Prompt-Tracking ist die GEO-Version dessen, was wir früher Keyword-Recherche genannt haben. Nur ist die Datenlage anders: Du siehst keine Suchvolumen mehr, du siehst Engagement und Antwort-Ergebnisse. Das ändert die Methodik fundamental.
In meiner Beratung trenne ich strikt aktiv und passiv. Aktiv ist deine Hypothese, passiv ist die Wirklichkeit. Wer nur aktiv testet, optimiert für Fragen, die Kunden vielleicht nie stellen. Wer nur passiv beobachtet, übersieht Lücken, weil Kunden, die keine Antwort finden, gar nicht erst klicken.
Mein Setup für KMU: 30 aktive Test-Prompts, GA4-Channel-Group für AI-Referrals, monatlicher Review der Site-Search-Logs. Die Schnittmenge dieser drei Datenquellen ist deine Content-Roadmap. Mehr Tooling braucht es nicht.
GEO Importance Rank
Wie wichtig ist dieser Begriff für Generative Engine Optimization?
FAQs
Brauche ich ein eigenes Tool für Prompt-Tracking?
Für aktives Tracking ja — manuelles Testen über 5 Engines × 30 Prompts × 4 Quartale ist zu aufwendig. Tools wie geoquality.ai automatisieren das in Minuten. Für passives Tracking reicht GA4 mit einer eigens konfigurierten AI-Referral-Channel-Group.
Wie identifiziere ich AI-Referral-Traffic in GA4?
Über die Source-Domain im Acquisition-Report. Relevante Domains 2026: chat.openai.com, chatgpt.com, <a href="/glossar/perplexity-search">perplexity.ai</a>, you.com, <a href="/glossar/claude-ai">claude.ai</a>, <a href="/glossar/google-gemini">gemini</a>.google.com, <a href="/glossar/microsoft-copilot">copilot</a>.microsoft.com. Anlegen als Custom Channel Group 'AI Referrals' für saubere Reporting-Dimension.
Sehe ich, welcher Prompt zum Klick geführt hat?
Direkt nein — LLMs übergeben den Prompt nicht als URL-Parameter. Indirekt ja: über die Landing-Page lässt sich der Prompt-Intent rekonstruieren. Wer auf /grundversicherung-vergleich kommt, hat sehr wahrscheinlich einen Vergleichs-Prompt gestellt.
Wie viele Prompts sollte ein Test-Set haben?
Für KMU 20-30 Prompts, für etablierte Mid-Market-Anbieter 50-100. Wichtiger als die Menge ist die Stabilität: 70 Prozent der Prompts bleiben über Quartale gleich, damit du Trend-Daten bekommst. 30 Prozent kannst du tauschen, um neue Themen abzudecken.
Sind die Antworten der LLMs reproduzierbar?
Nicht exakt. LLMs haben <a href="/glossar/temperature-parameter">Sampling-Temperatur</a> und geben leicht unterschiedliche Formulierungen. Die Mention-Rate (wird die Marke genannt?) ist aber sehr stabil — Schwankungen liegen typisch unter 5 Prozentpunkten zwischen identischen Test-Runs am selben Tag.
Lohnt sich Prompt-Tracking für sehr kleine Sites?
Ab etwa 1000 Sitzungen/Monat lohnt es sich, weil die AI-Referral-Anteile statistisch belastbar werden. Darunter sind die Zahlen zu volatil. Aktives Testen lohnt sich auch für kleinere Sites, weil es Content-Priorisierung steuert — auch ohne grosse Traffic-Datenbasis.
Verwandte Begriffe
Eigene AI-Sichtbarkeit messen
Kostenlose SEAKT-Analyse für jede Website — Score in unter 2 Minuten.
Jetzt analysieren →