Zentrale Begriffe rund um Generative Engine Optimization, das SEAKT-Framework
und maschinenlesbare Web-Strukturdaten. Jeder Begriff bekommt einen
GEO Importance Rank (0–100) — unsere autoritative Bewertungsachse
für die Branche.
35Begriffe
35mit voller Definition
0Backfill folgt
Bewertungssystem
Was ist der GEO Importance Rank?
Eine Skala von 0 bis 100, die ausdrückt, wie zentral ein Begriff für
Generative Engine Optimization ist. 100 = Fundament
(ohne den Begriff kein GEO). 0–29 = Nische
(spezifische Schema-Typen, Edge-Cases). Der Rank lebt
maschinenlesbar im JSON-LD jedes Begriffs als
additionalProperty mit propertyIDgeoquality:geo-importance-rank.
100–90
Fundamental
Fundamental — ohne dieses Konzept funktioniert GEO nicht.
89–70
Sehr wichtig
Sehr wichtig — operative Hauptwerkzeuge fuer GEO-Optimierung.
Ein Large Language Model (LLM) ist ein neuronales Netzwerk mit Milliarden bis Billionen Parametern, das auf grossen Textkorpora trainiert wurde, natürliche Sprache versteht und generiert — die technische Grundlage hinter ChatGPT, Claude, Gemini und allen anderen modernen KI-Antwortmaschinen.
RAG ist eine LLM-Architektur, die Antworten nicht nur aus Trainingsdaten generiert, sondern zusätzlich Live-Quellen abruft und in den Antwort-Kontext einbettet. Sie ist 2026 der Standard für Antwortmaschinen wie ChatGPT mit Web-Browsing, Perplexity, Google AI Overviews und Claude mit Web-Search-Tool — und damit der zentrale Mechanismus, über den GEO-Optimierung wirksam wird.
Eine Answer Engine ist ein KI-System, das User-Fragen mit synthetisierten Antworten beantwortet — statt mit Trefferlisten wie eine klassische Suchmaschine. Beispiele 2026: ChatGPT, Perplexity, Claude, Google AI Overviews und Microsoft Copilot. Sie sind der Fokuspunkt jeder GEO-Strategie.
ChatGPT Search ist OpenAIs integrierte Suchfunktion innerhalb von ChatGPT, lanciert im Oktober 2024. Sie kombiniert das LLM GPT-4o mit Live-Web-Retrieval und liefert synthetisierte Antworten mit klickbaren Source Citations. Im DACH-Raum 2026 ist sie eine der wichtigsten KI-Antwortmaschinen — und damit primärer GEO-Optimierungs-Adressat.
Ein AI Overview ist eine generative KI-Antwort, die Google seit 2026 in der DACH-Region oberhalb der klassischen Trefferliste anzeigt. Sie synthesizt Inhalte mehrerer Quellen zu einer kompakten Antwort und ist 2026 ein zentraler Sichtbarkeits-Treiber im Google-Ecosystem.
Google AI Mode ist Googles dedizierter KI-Such-Modus, lanciert Mai 2024 als 'Search Generative Experience' (SGE) und ausgerollt 2026 unter dem neuen Namen. Er liefert synthetisierte KI-Antworten direkt im SERP-Header, ergänzend zu klassischen Trefferlisten. Wichtigster Hebel im Google-Ecosystem für GEO-Optimierung.
Perplexity ist eine reine KI-Antwort-Suchmaschine, gegründet 2022. Sie kombiniert mehrere LLM-Modelle (eigene plus GPT-4 und Claude) mit Live-Web-Retrieval und liefert synthetisierte Antworten mit der höchsten Source-Citation-Quote unter den fünf grossen Answer Engines (4.2 Quellen pro Antwort, Median). Wichtigster spezialisierter GEO-Optimierungs-Adressat.
Zero-Click-Search bezeichnet eine Such-Anfrage, deren Antwort der User direkt im Such-Interface erhält — ohne auf ein Ergebnis zu klicken. Sie ist 2026 der dominante Search-Modus, ausgeloest durch ChatGPT, Perplexity und Google AI Overviews. Sie macht klassische Klick-Metriken weitgehend obsolet.
Google Gemini ist Googles LLM-Familie, eingeführt im Dezember 2023 als Nachfolger von Bard. Sie betreibt 2026 sowohl Google AI Mode als auch AI Overviews und ist durch native Multimodalität charakterisiert. Gemini 1.5 Pro hat mit 2 Millionen Tokens das grösste Context Window aller Mainstream-LLMs.
Ein Embedding ist eine numerische Vektorrepräsentation von Text — typisch 768 bis 3072 Dimensionen lang —, die semantische Bedeutung in geometrischen Abstaenden codiert. Zwei thematisch ähnliche Texte haben Embeddings, die im Vektorraum nahe beieinanderliegen. Embeddings sind das mathematische Fundament jeder RAG-Pipeline und damit jeder modernen Antwortmaschine.
LLM-Visibility misst, wie häufig und in welcher Qualität eine Marke, Domain oder Person in den Antworten generativer KI-Systeme (ChatGPT, Claude, Perplexity, Gemini, Grok) erscheint. Sie ist die zentrale GEO-Erfolgsmetrik 2026 und ersetzt zunehmend klassische SERP-Rankings als Benchmark für digitale Auffindbarkeit.
Grounding bezeichnet die Verankerung einer LLM-Antwort an verifizierbaren externen Quellen — typisch über RAG-Pipelines, Tool-Use oder explizite Schema-Referenzen. Es ist der wichtigste Schutzmechanismus gegen Halluzinationen und der Hebel, mit dem GEO-optimierte Sites zur bevorzugten Antwort-Quelle werden.
Eine Conversational Query ist eine Such-Anfrage in vollständigem Satzbau, oft als Frage formuliert und kontextualisiert — typisch für User-Interaktionen mit ChatGPT, Perplexity und Google AI Overviews. Sie ist die dominante Such-Form 2026 und ersetzt schrittweise die Stichwort-Suche der klassischen SEO-Ära.
Eine Halluzination ist die Generierung einer plausibel klingenden, aber faktisch falschen Aussage durch ein Large Language Model — typisch erfundene Quellen, falsche Zahlen, nicht existierende Personen oder Brands. Sie ist 2026 die wichtigste Failure-Mode generativer Antwortmaschinen und der primäre Grund, warum strukturelles GEO-Setup kritisch ist.
Microsoft Copilot ist Microsofts integrierte KI-Assistenz-Familie, die GPT-4 als Modell-Grundlage nutzt. Sie ist 2026 in Bing-Suche, Edge-Browser, Office 365 und Windows 11 tief integriert. Im Enterprise-Bereich ist Copilot ein wichtiger GEO-Channel — Knowledge-Worker nutzen es für Recherche und Content-Erstellung.
Claude ist Anthropic's LLM-Familie, gegründet 2021. Im DACH-Raum 2026 ist Claude die zweitwichtigste Mainstream-LLM-Plattform nach OpenAI — mit Stärken in Tool-Use, MCP-Integration und längeren Kontextverarbeitungen. Für GEO ist Claude über die claude.ai-App und Anthropic-API-basierte Anwendungen relevant.
Eine GEO-Strategie ist der konsolidierte Massnahmenplan, mit dem eine Marke ihre Sichtbarkeit in generativen KI-Systemen über 12-24 Monate systematisch ausbaut. Sie verbindet kurzfristige AEO-Hebel (Live-RAG-Optimierung) mit langfristigen LLMO-Massnahmen (Trainingsdaten-Penetration) und ist 2026 Standard-Bestandteil moderner Marketing-Roadmaps im DACH-Raum.
Trainingsdaten sind die Texte, Bilder und Code-Beispiele, mit denen ein LLM während seiner Lern-Phase die Sprachverteilung und Faktenbasis erwirbt. Ihre Zusammensetzung bestimmt direkt, welche Marken, Personen und Themen das Modell ohne Live-Retrieval kennt — und ist damit ein zentrales Brand-Awareness-Reservoir im KI-Zeitalter.
Das Context Window ist die maximale Anzahl Tokens, die ein LLM in einer einzelnen Anfrage verarbeiten kann — Input und Output zusammen. 2026 reichen die Werte von 8 000 (ältere Modelle) über 128 000 (GPT-4o) bis 200 000 Tokens (Claude Sonnet 4.6) und sogar 1 000 000+ (Gemini 1.5 Pro). Die Grösse bestimmt, wie viel Site-Inhalt gleichzeitig analysiert werden kann.
Citation-Tracking ist die systematische Beobachtung, in welchen LLM-Antworten eine Domain als aktive Quelle (mit Link) zitiert wird. Es ist die GEO-Entsprechung zum klassischen Backlink-Tracking und liefert die Steuergrösse für AI-Referral-Traffic im KI-Zeitalter 2026.
LLMO (Large Language Model Optimization) ist die Disziplin, eine Website oder Marke gezielt für die Sichtbarkeit in den Antworten generativer Sprachmodelle wie ChatGPT, Claude und Gemini zu optimieren. Der Begriff wird häufig synonym zu GEO (Generative Engine Optimization) verwendet, fokussiert aber stärker auf die trainingsdaten-basierte Modell-Schicht.
Prompt-Tracking ist die systematische Beobachtung, mit welchen Fragen Nutzer in LLMs nach einer Marke, Branche oder Domain suchen — und welche Antworten dabei entstehen. Es ist die GEO-Entsprechung zur klassischen Keyword-Recherche und liefert die Steuergrösse für Content-Priorisierung im KI-Zeitalter 2026.
AEO (Answer Engine Optimization) ist die Optimierung von Inhalten für Antwort-Maschinen wie Perplexity, ChatGPT-Search, Microsoft Copilot und Google AI Overviews. Im Gegensatz zum klassischen SEO, das auf Position 1-10 in Suchergebnis-Listen optimiert, fokussiert AEO auf Inclusion in der direkten Antwort — als Quelle, Mention oder Zitat.
AI-Referral-Traffic ist Website-Traffic, der durch Klicks auf Quellen-Links in den Antworten generativer KI-Systeme (ChatGPT-Search, Perplexity, Claude, Gemini, Copilot) entsteht. Er wächst seit 2024 zweistellig pro Quartal und ist 2026 die am schnellsten wachsende organische Traffic-Quelle für DACH-KMU.
Die GEO-Roadmap ist der konkrete Massnahmen-Plan einer <a href="/glossar/geo-strategie">GEO-Strategie</a> — typisch über 12-24 Monate gegliedert in Quartale mit priorisierten Hebeln, Verantwortlichkeiten und erwarteter Wirkung. Sie ist das Bindeglied zwischen strategischer Vision und operativer Umsetzung im KI-Zeitalter 2026.
Grok ist die LLM-Familie von xAI, Elon Musks 2023 gegründeter KI-Firma. Grok ist tief in X (Twitter) integriert und hat Echtzeit-Zugriff auf X-Posts — eine einzigartige Datenquelle. Im DACH-Raum 2026 ist Grok die kleinste der fünf grossen Mainstream-LLM-Plattformen, mit besonderer Stärke in tagesaktuellen Themen und Social-Media-Sentiment.
Prompt Engineering ist die Disziplin der gezielten Gestaltung von User-Eingaben, um aus einem LLM präzise und zuverlässig die gewünschten Antworten zu erhalten. Sie umfasst Techniken wie System-Prompts, Few-Shot-Examples, Chain-of-Thought-Reasoning und Rolle-Priming — und ist 2026 die zugänglichste Form der LLM-Anpassung.
Sentiment-Analyse in LLM-Antworten misst, wie eine Marke in den Antworten generativer KI-Systeme tonal beschrieben wird — positiv, neutral oder negativ. Sie ergänzt die reine Mention-Rate um eine Qualitätsdimension und ist 2026 ein Frühwarnsystem für Reputationsrisiken im KI-Zeitalter.
Brand Monitoring KI ist die kontinuierliche Beobachtung der eigenen Marke in den Antworten generativer KI-Systeme — inklusive Mentions, Citations, Sentiment und Konkurrenz-Vergleich. Es ist die Weiterentwicklung von klassischem Social-Media-Monitoring um die LLM-Dimension und 2026 Pflichtdisziplin für jede Marke mit relevanter Online-Sichtbarkeit.
Fine-Tuning ist der Prozess, bei dem ein vortrainiertes LLM auf domain- oder task-spezifischen Daten weitertrainiert wird, um spezialisierte Antwort-Stile, Fach-Wissen oder Format-Disziplin zu erlernen. Es ist 2026 die teuerste, aber präziseste Form der Modell-Anpassung — und im GEO-Kontext meist nicht der richtige Hebel.
SGE (Search Generative Experience) war Google's 2023 lancierter generativer Such-Modus, der 2024-2025 in <a href="/glossar/ai-overview">AI Overviews</a> und 2025 in den Google AI Mode überführt wurde. Der Begriff SGE ist 2026 als historisch zu betrachten — die Funktionalität lebt unter neuen Markennamen weiter.
Ein Tokenizer ist die Komponente eines LLM, die Eingabe-Text in kleinere Einheiten — sogenannte Tokens — zerlegt, bevor das Modell ihn verarbeiten kann. Tokens sind keine Wörter, sondern Subword-Fragmente, deren Granularität über das jeweilige Vokabular (typisch 30 000 bis 200 000 Einträge) bestimmt wird. Die Tokenisierung beeinflusst direkt Kosten, Geschwindigkeit und Performance jeder LLM-Anfrage.
Der Temperature-Parameter steuert die Zufaelligkeit der LLM-Antwort-Generierung. Werte zwischen 0 und 2 verschieben die Wahrscheinlichkeitsverteilung: Temperature 0 erzwingt deterministische, immer gleiche Antworten; Temperature 1 ist der Standard-Mix; Temperature 2 produziert sehr kreative bis zufaellige Ausgaben. Kritischer Hebel für Konsistenz vs. Vielfalt in Production-Pipelines.
GAIO (Generative AI Optimization) ist ein 2025 aufgekommenes Acronym für die Optimierung digitaler Inhalte für generative KI-Systeme. Es konkurriert mit GEO, LLMO und AEO um die Begriffshoheit, hat sich 2026 aber als nachrangig etabliert — der Markt favorisiert GEO als Oberbegriff.
White-Label GEO bezeichnet GEO-Dienstleistungen, die von einer spezialisierten Plattform oder Agentur erbracht und unter dem Brand einer anderen (meist allgemeineren Marketing-Agentur) an Endkunden weitergegeben werden. Es ist 2026 ein wachsendes Modell im DACH-Raum, weil viele klassische SEO-Agenturen GEO-Expertise zukaufen statt selbst aufbauen.
Alle 35 Glossar-Begriffe als interaktiver Force-Directed Graph.
Knoten-Grösse = GEO Importance Rank, Knoten-Farbe = thematischer Cluster.
Kanten-Farbe und -Stil zeigen den Beziehungstyp (Hierarchie, verwandt,
Voraussetzung, implementiert). Klick auf einen Knoten öffnet den Begriff.