Cette page n'est pour l'instant disponible qu'en allemand. Une traduction professionnelle suit. Voir la version allemande →
Strategie AI Visibility Brand Monitoring Citation Tracking

Wenn ChatGPT die Konkurrenz empfiehlt: Der unsichtbare Verlust den niemand misst

Warum klassisches Tracking versagt und welche neuen Metriken deine Marke 2026 retten

Von Marco Biner 2026-02-26 · 12 Min. Lesezeit
Schemenhafter Marken-Schatten links, drei leuchtende Konkurrenz-Logos rechts in einer ChatGPT-Antwortblase — Symbol für unsichtbaren Empfehlungs-Verlust.

Der Anruf, der die Welt veränderte

Im November 2025 sitzt ein Schweizer SaaS-CEO bei einem Bekannten am Tisch. Der Bekannte tippt eine Frage in ChatGPT: „Welche CRM-Software eignet sich für KMU in der Schweiz?" ChatGPT antwortet — mit fünf konkreten Empfehlungen. Sein Unternehmen? Nicht dabei. Stattdessen: drei direkte Wettbewerber, namentlich, mit freundlichen Kurz-Beschreibungen.

Er ruft mich am nächsten Morgen an. „Wie kann das sein? Wir sind seit acht Jahren am Markt, haben mehr Kunden als zwei der genannten Firmen zusammen." Ich öffne unseren LLM-Visibility-Tracker für seine Domain. Mention-Rate über 30 getestete Prompts: 14 Prozent. Top-3-Konkurrent: 47 Prozent.

Er hatte keine Ahnung. Niemand in seinem Marketing-Team hatte das gemessen. Niemand hatte überhaupt das Werkzeug, um es zu messen. Und während wir sprachen, generierten ChatGPT, Perplexity und Claude in genau diesem Moment Tausende weitere Antworten, in denen seine Konkurrenz empfohlen wurde und er unsichtbar blieb.

Warum dein klassisches Brand-Monitoring versagt

Brand-Monitoring-Tools wie Mention.com, Brand24 oder Google Alerts haben jahrzehntelang gut funktioniert — weil Marken-Erwähnungen öffentlich passierten. In Tweets, in Blog-Posts, in News-Artikeln, in Foren-Threads. Diese Erwähnungen sind crawlbar. Klassisches Monitoring durchsucht den öffentlichen Web-Index und meldet Treffer.

Eine Brand-Mention in einer ChatGPT-Antwort funktioniert anders. Der Nutzer fragt, das Modell antwortet, der Nutzer liest oder klickt weg — fertig. Keine öffentliche Indexierung. Kein Crawler kann diese Antwort einsehen, weil sie als privates Inferenz-Ergebnis nur auf dem User-Bildschirm landet. Klassisches Monitoring sieht davon nichts.

Das Resultat ist ein blinder Fleck der Reputationsmessung — Millionen von Marken-Empfehlungen passieren täglich, und die Marken erfahren nichts davon.

Wer das ändern will, muss aktiv werden. Statt zu warten, bis die Erwähnung passiert und gefunden wird, stellt man die Fragen selbst — kuratierte Prompt-Sets, mehrere Engines, regelmässige Wiederholung. Genau das ist Prompt-Tracking: die GEO-Variante klassischer Keyword-Recherche.

Drei Metriken, die ins Reporting müssen

Lass mich die drei Metriken erklären, die jedes Marketing-Reporting 2026 enthalten sollte. Sie sind nicht kompliziert, sie sind komplementär, und sie sind alle messbar:

1. Mention-Rate

Mention-Rate ist der Prozentsatz von getesteten Prompts, in denen deine Marke namentlich auftaucht — egal ob mit oder ohne Link. Beispiel: Bei 30 getesteten Prompts erscheint deine Marke in 9 Antworten = Mention-Rate 30 Prozent. Diese Metrik misst Wahrnehmung. Sie ist die Basis für alle weiteren KPIs.

2. Citation-Rate

Die Citation-Rate misst, in wie vielen Antworten deine Domain als aktive Quelle verlinkt wird — nicht nur erwähnt. Live-RAG-Engines wie Perplexity und ChatGPT Search liefern messbare Citations mit Klick-Wirkung. Wenn deine Mention-Rate 30 Prozent ist und Citation-Rate 8 Prozent, weisst du: Du wirst genannt, aber nicht verlinkt — Hebel-Punkt für Answer Capsules und JSON-LD-Optimierung.

3. Share of Voice (LLM)

Share of Voice ist dein Anteil im Konkurrenzumfeld derselben Antworten. Wenn ChatGPT bei einer Frage fünf Anbieter empfiehlt und du in 4 von 30 Antworten dabei bist, dein Top-Konkurrent in 12 von 30, dann liegt dein Share of Voice bei 25 Prozent von 75 Prozent (vier von zwölf Konkurrenz-Mentions). Diese relative Metrik ist oft aussagekräftiger als absolute Zahlen.

Diese drei zusammen ergeben das vollständige Bild. Hohe Mention-Rate ohne Citation-Rate? Bekannt, aber kein Traffic. Hohe Citation-Rate ohne Share of Voice? Du wirst neben dem Marktführer empfohlen, der dich überschattet. Erst die Triade liefert Steuerungs-Wert.

Wie du die drei Metriken konkret misst

Das Mess-Setup ist 2026 simpel. Du brauchst drei Bausteine:

  1. Ein kuratiertes Prompt-Set von 20-50 Fragen, die typische Suchszenarien abbilden — Vergleichsfragen, Anbieter-Listen-Fragen, Branchen-Generika. Beispiel für Schweizer Treuhand: „Welche Treuhandfirma empfiehlst du für ein KMU mit 30 Mitarbeitenden in Zürich?"
  2. Mehrere LLM-Engines parallel — ChatGPT, Claude, Perplexity, Gemini, Grok als Standard-Set. Jede Engine hat eigene Quellen-Präferenzen, das Mittel über alle ist robust.
  3. Regelmässige Wiederholung — wöchentlich oder monatlich, mit identischem Prompt-Set, um Trends sichtbar zu machen. Ein einmaliger Test ist eine Stichprobe, kein Tracking.

Der KI Prompt Analyzer von geoquality.ai automatisiert das. 30 Prompts × 5 Engines × wöchentlich = 600 LLM-Aufrufe pro Monat. Bei aktuellen API-Preisen kostet das pro Domain rund 50-90 CHF. Das ist weniger als ein einzelner Google-Ads-Klick in vielen Schweizer B2B-Branchen — und liefert eine Metrik, die du ohne Tooling überhaupt nicht erheben kannst.

Die Resultate landen in einem Dashboard mit Mention-Rate, Citation-Rate und Share-of-Voice pro Engine, plus Trend-Linien über Quartale. Das ist die Datenbasis, auf der echte GEO-Steuerung möglich wird.

Was tun, wenn die Konkurrenz dich überholt

Angenommen, deine Messung zeigt: Mention-Rate 12 Prozent, Top-Konkurrent 38 Prozent. Was jetzt? Vier Hebel haben sich in meiner Beratungspraxis als wirkungsvoll erwiesen:

Hebel 1: Topical Authority aufbauen

LLMs bevorzugen Domains, die in einer Nische tief und konsistent publizieren. Topical Authority wird über Pillar-Content, dichte Internal Links und thematische Cluster aufgebaut. Wirkung: 8-15 Prozentpunkte Mention-Lift in 4-6 Monaten.

Hebel 2: Wikipedia + Wikidata

Marken mit Wikipedia-Artikel und Wikidata-Eintrag werden in trainingsdaten-basierten Modi (klassisches ChatGPT, Claude ohne Search) deutlich häufiger empfohlen — Faktor 2-3 ist typisch. Voraussetzung: nachweisbare Notability via Fachmedien-Berichterstattung.

Hebel 3: FAQPage-Schema mit Markenkontext

Ein FAQPage-JSON-LD auf der eigenen Website mit Branchen-Fragen, in denen die eigene Marke kontextuell vorkommt, wird von Live-RAG-Engines überproportional zitiert. Wirkung in 4-12 Wochen messbar.

Hebel 4: Digital PR in Fachmedien

Erwähnungen in autoritativen Fachmedien (im DACH moneyland.ch, finews.ch, t3n.de, inside-it.ch) wirken doppelt: kurzfristig in Live-RAG-Indices, langfristig in Trainingsdaten. Drei strategische Platzierungen pro Quartal können die Mention-Rate signifikant heben.

Diese vier Hebel sind keine Magie. Sie sind Disziplin. Wer sie systematisch über 6-12 Monate fährt, schliesst messbar Boden zum Marktführer auf.

Was du jetzt konkret tun kannst

Die Verschiebung der Marken-Empfehlung von öffentlichen Kanälen zu KI-Antworten ist die unterschätzte Marketing-Verschiebung 2026. Du hast drei Optionen:

  1. Stichprobe selbst machen. Öffne ChatGPT, Perplexity, Claude. Tippe 10 typische Branchen-Fragen. Notiere, wer empfohlen wird. Das ist kein Tracking, aber ein Realitätscheck. Aufwand: 30 Minuten.
  2. Strukturiertes Tracking aufsetzen. Brand Monitoring KI via geoquality.ai oder vergleichbares Tool. Initial-Setup 1-2 Stunden, dann automatisiert. Ab 50 CHF/Monat.
  3. Vollständige GEO-Strategie. Messung plus systematische Optimierung über 90-180 Tage gemäss GEO-Roadmap. Konkrete Schritte findest du in unserem Post Die ersten 90 Tage GEO.

Marco Biner sagt es jedem Kunden: Du hast nichts zu verlieren ausser deinen Empfehlungs-Anteil. Und den verlierst du gerade — nur eben unsichtbar, weil du nicht hinschaust.

Häufige Fragen

Wie kann ich messen, ob ChatGPT meine Marke empfiehlt?

Du kannst manuell 10-20 typische Branchen-Fragen in ChatGPT, Perplexity und Claude eingeben und auswerten, in wie vielen Antworten deine Marke namentlich erscheint. Für ein systematisches Tracking nutzt du Tools wie den <a href="/glossar/llm-visibility">LLM-Visibility</a>-Analyzer von geoquality.ai, der automatisiert über 5 Engines parallel misst und Trends sichtbar macht.

Was ist der Unterschied zwischen Mention und Citation?

<a href="/glossar/brand-mention">Mention</a> bedeutet, dass deine Marke namentlich im Antworttext genannt wird — ohne Link. <a href="/glossar/ai-citation">Citation</a> ist eine aktive Verlinkung deiner Domain als Quelle, primär in Live-RAG-Engines wie Perplexity und ChatGPT Search. Mention baut Wahrnehmung, Citation generiert Klicks.

Reagieren LLMs auf Marketing-Massnahmen?

Ja, aber unterschiedlich schnell. Live-RAG-Engines (Perplexity, ChatGPT Search) reagieren binnen 4-12 Wochen auf neue strukturierte Daten und <a href="/glossar/answer-capsule">Answer Capsules</a>. Trainingsdaten-basierte Modi (klassisches ChatGPT, Claude ohne Search) brauchen den nächsten Trainings-Cycle, also 6-18 Monate. Quick-Wins kommen aus Live-RAG, langfristige Position aus <a href="/glossar/llmo">LLMO</a>.

Was kostet ein professionelles AI-Brand-Monitoring?

Ein automatisiertes Monitoring mit 30 Prompts × 5 Engines wöchentlich kostet rund 50-90 CHF/Monat in API-Gebühren plus Tool-Lizenz (geoquality.ai Pro Plus 99 CHF/Monat). Detailliertere Setups mit täglicher Messung und Slack-Alerts liegen bei 200-800 CHF/Monat all-in. Mehr Details unter <a href="/glossar/brand-monitoring-ki">Brand Monitoring KI</a>.

Welche Engine ist am wichtigsten zu tracken?

Es kommt auf deine Zielgruppe an. Für B2C und generische Recherche dominiert ChatGPT mit dem grössten Marktanteil. Für B2B-Recherche und Entscheider liefert Perplexity die höchste Citation-Wirkung — oft wichtiger als ChatGPT. Für Tech-affine Zielgruppen ist Claude relevant. Empfehlung: alle 5 Engines parallel tracken und nach User-Profil priorisieren.

Was tue ich, wenn meine Mention-Rate sehr niedrig ist?

Niedrige Mention-Rate (unter 10 Prozent) hat typisch drei Ursachen: fehlende strukturierte Daten (<a href="/glossar/json-ld">JSON-LD</a>), schwache <a href="/glossar/topical-authority">Topical Authority</a> und fehlende Brand-Mentions in Trainingsdaten-Quellen. Adressierung in dieser Reihenfolge: zuerst JSON-LD und <a href="/glossar/llms-txt">llms.txt</a> komplettieren (Wirkung 4-12 Wochen), dann Pillar-Content für Topical Authority (3-9 Monate), dann Wikipedia/Wikidata-Anker (6-18 Monate).

Relevante GEO-Begriffe