This page is currently only available in German. A professional translation will follow. See the German version →
Cluster-Filter: KI-Systeme (35 von 153 Begriffen) ← Alle Cluster anzeigen
GEO Importance Rank · 0–100

Glossar GEO & AI-Sichtbarkeit

Zentrale Begriffe rund um Generative Engine Optimization, das SEAKT-Framework und maschinenlesbare Web-Strukturdaten. Jeder Begriff bekommt einen GEO Importance Rank (0–100) — unsere autoritative Bewertungsachse für die Branche.

35 Begriffe
35 mit voller Definition
0 Backfill folgt
Bewertungssystem

Was ist der GEO Importance Rank?

Eine Skala von 0 bis 100, die ausdrückt, wie zentral ein Begriff für Generative Engine Optimization ist. 100 = Fundament (ohne den Begriff kein GEO). 0–29 = Nische (spezifische Schema-Typen, Edge-Cases). Der Rank lebt maschinenlesbar im JSON-LD jedes Begriffs als additionalProperty mit propertyID geoquality:geo-importance-rank.

100–90
Fundamental
Fundamental — ohne dieses Konzept funktioniert GEO nicht.
89–70
Sehr wichtig
Sehr wichtig — operative Hauptwerkzeuge fuer GEO-Optimierung.
69–50
Wichtig
Wichtig — solide Basis fuer professionelle GEO-Arbeit.
49–30
Nuetzlich
Nuetzlich — Spezialwissen fuer Profi-Level.
29–0
Nische
Nische — Spezialfaelle und emerging concepts.
35 von 35
Fundamental

Large Language Model (LLM)

Sprachmodell

Ein Large Language Model (LLM) ist ein neuronales Netzwerk mit Milliarden bis Billionen Parametern, das auf grossen Textkorpora trainiert wurde, natürliche Sprache versteht und generiert — die technische Grundlage hinter ChatGPT, Claude, Gemini und allen anderen modernen KI-Antwortmaschinen.

Vollständige Definition →
Sehr wichtig

RAG (Retrieval-Augmented Generation)

Retrieval-Augmented Generation

RAG ist eine LLM-Architektur, die Antworten nicht nur aus Trainingsdaten generiert, sondern zusätzlich Live-Quellen abruft und in den Antwort-Kontext einbettet. Sie ist 2026 der Standard für Antwortmaschinen wie ChatGPT mit Web-Browsing, Perplexity, Google AI Overviews und Claude mit Web-Search-Tool — und damit der zentrale Mechanismus, über den GEO-Optimierung wirksam wird.

Vollständige Definition →
Sehr wichtig

Answer Engine

Antwortmaschine

Eine Answer Engine ist ein KI-System, das User-Fragen mit synthetisierten Antworten beantwortet — statt mit Trefferlisten wie eine klassische Suchmaschine. Beispiele 2026: ChatGPT, Perplexity, Claude, Google AI Overviews und Microsoft Copilot. Sie sind der Fokuspunkt jeder GEO-Strategie.

Vollständige Definition →
Sehr wichtig

AI Overview (Google)

Google AI Overview

Ein AI Overview ist eine generative KI-Antwort, die Google seit 2026 in der DACH-Region oberhalb der klassischen Trefferliste anzeigt. Sie synthesizt Inhalte mehrerer Quellen zu einer kompakten Antwort und ist 2026 ein zentraler Sichtbarkeits-Treiber im Google-Ecosystem.

Vollständige Definition →
Sehr wichtig

Google AI Mode

Google Search AI Mode

Google AI Mode ist Googles dedizierter KI-Such-Modus, lanciert Mai 2024 als 'Search Generative Experience' (SGE) und ausgerollt 2026 unter dem neuen Namen. Er liefert synthetisierte KI-Antworten direkt im SERP-Header, ergänzend zu klassischen Trefferlisten. Wichtigster Hebel im Google-Ecosystem für GEO-Optimierung.

Vollständige Definition →
Sehr wichtig

Google Gemini

Gemini

Google Gemini ist Googles LLM-Familie, eingeführt im Dezember 2023 als Nachfolger von Bard. Sie betreibt 2026 sowohl Google AI Mode als auch AI Overviews und ist durch native Multimodalität charakterisiert. Gemini 1.5 Pro hat mit 2 Millionen Tokens das grösste Context Window aller Mainstream-LLMs.

Vollständige Definition →
Sehr wichtig

Embedding (Vektorrepräsentation)

Embedding

Ein Embedding ist eine numerische Vektorrepräsentation von Text — typisch 768 bis 3072 Dimensionen lang —, die semantische Bedeutung in geometrischen Abstaenden codiert. Zwei thematisch ähnliche Texte haben Embeddings, die im Vektorraum nahe beieinanderliegen. Embeddings sind das mathematische Fundament jeder RAG-Pipeline und damit jeder modernen Antwortmaschine.

Vollständige Definition →
Sehr wichtig

LLM-Visibility

LLM-Sichtbarkeit

LLM-Visibility misst, wie häufig und in welcher Qualität eine Marke, Domain oder Person in den Antworten generativer KI-Systeme (ChatGPT, Claude, Perplexity, Gemini, Grok) erscheint. Sie ist die zentrale GEO-Erfolgsmetrik 2026 und ersetzt zunehmend klassische SERP-Rankings als Benchmark für digitale Auffindbarkeit.

Vollständige Definition →
Sehr wichtig

Grounding (Faktenverankerung)

Faktenverankerung

Grounding bezeichnet die Verankerung einer LLM-Antwort an verifizierbaren externen Quellen — typisch über RAG-Pipelines, Tool-Use oder explizite Schema-Referenzen. Es ist der wichtigste Schutzmechanismus gegen Halluzinationen und der Hebel, mit dem GEO-optimierte Sites zur bevorzugten Antwort-Quelle werden.

Vollständige Definition →
Sehr wichtig

Conversational Query

Konversationelle Suchanfrage

Eine Conversational Query ist eine Such-Anfrage in vollständigem Satzbau, oft als Frage formuliert und kontextualisiert — typisch für User-Interaktionen mit ChatGPT, Perplexity und Google AI Overviews. Sie ist die dominante Such-Form 2026 und ersetzt schrittweise die Stichwort-Suche der klassischen SEO-Ära.

Vollständige Definition →
Sehr wichtig

Halluzination (LLM)

Halluzination

Eine Halluzination ist die Generierung einer plausibel klingenden, aber faktisch falschen Aussage durch ein Large Language Model — typisch erfundene Quellen, falsche Zahlen, nicht existierende Personen oder Brands. Sie ist 2026 die wichtigste Failure-Mode generativer Antwortmaschinen und der primäre Grund, warum strukturelles GEO-Setup kritisch ist.

Vollständige Definition →
Sehr wichtig

Microsoft Copilot

Copilot

Microsoft Copilot ist Microsofts integrierte KI-Assistenz-Familie, die GPT-4 als Modell-Grundlage nutzt. Sie ist 2026 in Bing-Suche, Edge-Browser, Office 365 und Windows 11 tief integriert. Im Enterprise-Bereich ist Copilot ein wichtiger GEO-Channel — Knowledge-Worker nutzen es für Recherche und Content-Erstellung.

Vollständige Definition →
Wichtig

Claude (Anthropic)

Claude AI

Claude ist Anthropic's LLM-Familie, gegründet 2021. Im DACH-Raum 2026 ist Claude die zweitwichtigste Mainstream-LLM-Plattform nach OpenAI — mit Stärken in Tool-Use, MCP-Integration und längeren Kontextverarbeitungen. Für GEO ist Claude über die claude.ai-App und Anthropic-API-basierte Anwendungen relevant.

Vollständige Definition →
Wichtig

GEO-Strategie

GEO-Strategy

Eine GEO-Strategie ist der konsolidierte Massnahmenplan, mit dem eine Marke ihre Sichtbarkeit in generativen KI-Systemen über 12-24 Monate systematisch ausbaut. Sie verbindet kurzfristige AEO-Hebel (Live-RAG-Optimierung) mit langfristigen LLMO-Massnahmen (Trainingsdaten-Penetration) und ist 2026 Standard-Bestandteil moderner Marketing-Roadmaps im DACH-Raum.

Vollständige Definition →
Wichtig

Trainingsdaten

Training Data

Trainingsdaten sind die Texte, Bilder und Code-Beispiele, mit denen ein LLM während seiner Lern-Phase die Sprachverteilung und Faktenbasis erwirbt. Ihre Zusammensetzung bestimmt direkt, welche Marken, Personen und Themen das Modell ohne Live-Retrieval kennt — und ist damit ein zentrales Brand-Awareness-Reservoir im KI-Zeitalter.

Vollständige Definition →
Wichtig

Context Window

Kontext-Fenster

Das Context Window ist die maximale Anzahl Tokens, die ein LLM in einer einzelnen Anfrage verarbeiten kann — Input und Output zusammen. 2026 reichen die Werte von 8 000 (ältere Modelle) über 128 000 (GPT-4o) bis 200 000 Tokens (Claude Sonnet 4.6) und sogar 1 000 000+ (Gemini 1.5 Pro). Die Grösse bestimmt, wie viel Site-Inhalt gleichzeitig analysiert werden kann.

Vollständige Definition →
Wichtig

Citation-Tracking

Zitat-Tracking

Citation-Tracking ist die systematische Beobachtung, in welchen LLM-Antworten eine Domain als aktive Quelle (mit Link) zitiert wird. Es ist die GEO-Entsprechung zum klassischen Backlink-Tracking und liefert die Steuergrösse für AI-Referral-Traffic im KI-Zeitalter 2026.

Vollständige Definition →
Wichtig

LLMO (Large Language Model Optimization)

Large Language Model Optimization

LLMO (Large Language Model Optimization) ist die Disziplin, eine Website oder Marke gezielt für die Sichtbarkeit in den Antworten generativer Sprachmodelle wie ChatGPT, Claude und Gemini zu optimieren. Der Begriff wird häufig synonym zu GEO (Generative Engine Optimization) verwendet, fokussiert aber stärker auf die trainingsdaten-basierte Modell-Schicht.

Vollständige Definition →
Wichtig

Prompt-Tracking

Prompt-Monitoring

Prompt-Tracking ist die systematische Beobachtung, mit welchen Fragen Nutzer in LLMs nach einer Marke, Branche oder Domain suchen — und welche Antworten dabei entstehen. Es ist die GEO-Entsprechung zur klassischen Keyword-Recherche und liefert die Steuergrösse für Content-Priorisierung im KI-Zeitalter 2026.

Vollständige Definition →
Wichtig

AEO (Answer Engine Optimization)

Answer Engine Optimization

AEO (Answer Engine Optimization) ist die Optimierung von Inhalten für Antwort-Maschinen wie Perplexity, ChatGPT-Search, Microsoft Copilot und Google AI Overviews. Im Gegensatz zum klassischen SEO, das auf Position 1-10 in Suchergebnis-Listen optimiert, fokussiert AEO auf Inclusion in der direkten Antwort — als Quelle, Mention oder Zitat.

Vollständige Definition →
Wichtig

AI-Referral-Traffic

KI-Referral

AI-Referral-Traffic ist Website-Traffic, der durch Klicks auf Quellen-Links in den Antworten generativer KI-Systeme (ChatGPT-Search, Perplexity, Claude, Gemini, Copilot) entsteht. Er wächst seit 2024 zweistellig pro Quartal und ist 2026 die am schnellsten wachsende organische Traffic-Quelle für DACH-KMU.

Vollständige Definition →
Wichtig

GEO-Roadmap

GEO-Massnahmen-Roadmap

Die GEO-Roadmap ist der konkrete Massnahmen-Plan einer <a href="/glossar/geo-strategie">GEO-Strategie</a> — typisch über 12-24 Monate gegliedert in Quartale mit priorisierten Hebeln, Verantwortlichkeiten und erwarteter Wirkung. Sie ist das Bindeglied zwischen strategischer Vision und operativer Umsetzung im KI-Zeitalter 2026.

Vollständige Definition →
Wichtig

Grok (xAI)

Grok

Grok ist die LLM-Familie von xAI, Elon Musks 2023 gegründeter KI-Firma. Grok ist tief in X (Twitter) integriert und hat Echtzeit-Zugriff auf X-Posts — eine einzigartige Datenquelle. Im DACH-Raum 2026 ist Grok die kleinste der fünf grossen Mainstream-LLM-Plattformen, mit besonderer Stärke in tagesaktuellen Themen und Social-Media-Sentiment.

Vollständige Definition →
Wichtig

Prompt Engineering

Prompt-Design

Prompt Engineering ist die Disziplin der gezielten Gestaltung von User-Eingaben, um aus einem LLM präzise und zuverlässig die gewünschten Antworten zu erhalten. Sie umfasst Techniken wie System-Prompts, Few-Shot-Examples, Chain-of-Thought-Reasoning und Rolle-Priming — und ist 2026 die zugänglichste Form der LLM-Anpassung.

Vollständige Definition →
Wichtig

Sentiment-Analyse in LLM-Antworten

LLM-Sentiment

Sentiment-Analyse in LLM-Antworten misst, wie eine Marke in den Antworten generativer KI-Systeme tonal beschrieben wird — positiv, neutral oder negativ. Sie ergänzt die reine Mention-Rate um eine Qualitätsdimension und ist 2026 ein Frühwarnsystem für Reputationsrisiken im KI-Zeitalter.

Vollständige Definition →
Wichtig

Brand Monitoring KI

AI Brand Monitoring

Brand Monitoring KI ist die kontinuierliche Beobachtung der eigenen Marke in den Antworten generativer KI-Systeme — inklusive Mentions, Citations, Sentiment und Konkurrenz-Vergleich. Es ist die Weiterentwicklung von klassischem Social-Media-Monitoring um die LLM-Dimension und 2026 Pflichtdisziplin für jede Marke mit relevanter Online-Sichtbarkeit.

Vollständige Definition →
Nuetzlich

Fine-Tuning

Feinabstimmung

Fine-Tuning ist der Prozess, bei dem ein vortrainiertes LLM auf domain- oder task-spezifischen Daten weitertrainiert wird, um spezialisierte Antwort-Stile, Fach-Wissen oder Format-Disziplin zu erlernen. Es ist 2026 die teuerste, aber präziseste Form der Modell-Anpassung — und im GEO-Kontext meist nicht der richtige Hebel.

Vollständige Definition →
Nuetzlich

SGE (Search Generative Experience)

Search Generative Experience

SGE (Search Generative Experience) war Google's 2023 lancierter generativer Such-Modus, der 2024-2025 in <a href="/glossar/ai-overview">AI Overviews</a> und 2025 in den Google AI Mode überführt wurde. Der Begriff SGE ist 2026 als historisch zu betrachten — die Funktionalität lebt unter neuen Markennamen weiter.

Vollständige Definition →
Nuetzlich

Tokenizer

Tokenisierer

Ein Tokenizer ist die Komponente eines LLM, die Eingabe-Text in kleinere Einheiten — sogenannte Tokens — zerlegt, bevor das Modell ihn verarbeiten kann. Tokens sind keine Wörter, sondern Subword-Fragmente, deren Granularität über das jeweilige Vokabular (typisch 30 000 bis 200 000 Einträge) bestimmt wird. Die Tokenisierung beeinflusst direkt Kosten, Geschwindigkeit und Performance jeder LLM-Anfrage.

Vollständige Definition →
Nuetzlich

Temperature (LLM-Parameter)

Temperature

Der Temperature-Parameter steuert die Zufaelligkeit der LLM-Antwort-Generierung. Werte zwischen 0 und 2 verschieben die Wahrscheinlichkeitsverteilung: Temperature 0 erzwingt deterministische, immer gleiche Antworten; Temperature 1 ist der Standard-Mix; Temperature 2 produziert sehr kreative bis zufaellige Ausgaben. Kritischer Hebel für Konsistenz vs. Vielfalt in Production-Pipelines.

Vollständige Definition →
Nuetzlich

GAIO (Generative AI Optimization)

Generative AI Optimization

GAIO (Generative AI Optimization) ist ein 2025 aufgekommenes Acronym für die Optimierung digitaler Inhalte für generative KI-Systeme. Es konkurriert mit GEO, LLMO und AEO um die Begriffshoheit, hat sich 2026 aber als nachrangig etabliert — der Markt favorisiert GEO als Oberbegriff.

Vollständige Definition →
Nuetzlich

White-Label GEO

White-Label-GEO-Service

White-Label GEO bezeichnet GEO-Dienstleistungen, die von einer spezialisierten Plattform oder Agentur erbracht und unter dem Brand einer anderen (meist allgemeineren Marketing-Agentur) an Endkunden weitergegeben werden. Es ist 2026 ein wachsendes Modell im DACH-Raum, weil viele klassische SEO-Agenturen GEO-Expertise zukaufen statt selbst aufbauen.

Vollständige Definition →

Eigene AI-Sichtbarkeit messen

Kostenlose SEAKT-Analyse für jede Website — Score in unter 2 Minuten.

Analyze now →

Knowledge-Graph der GEO-Konzepte

Alle 35 Glossar-Begriffe als interaktiver Force-Directed Graph. Knoten-Grösse = GEO Importance Rank, Knoten-Farbe = thematischer Cluster. Kanten-Farbe und -Stil zeigen den Beziehungstyp (Hierarchie, verwandt, Voraussetzung, implementiert). Klick auf einen Knoten öffnet den Begriff.