Large Language Model (LLM)
Auch bekannt als: Sprachmodell, Grossmodell, LLM
1. Kurzdefinition
Ein Large Language Model (LLM) ist ein neuronales Netzwerk mit Milliarden bis Billionen Parametern, das auf grossen Textkorpora trainiert wurde, natürliche Sprache versteht und generiert — die technische Grundlage hinter ChatGPT, Claude, Gemini und allen anderen modernen KI-Antwortmaschinen.
2. Ausführliche Erklärung
Large Language Models sind die zentrale Technologie hinter der generativen KI-Welle ab 2022. Sie sind neuronale Netzwerke, die in einem zweistufigen Prozess trainiert werden: erst auf grossen, unmarkierten Textkorpora (Pre-Training), dann auf spezifischeren, oft menschlich annotierten Daten (Fine-Tuning, RLHF). Das Resultat ist ein Modell, das natürliche Sprache in praktisch allen menschlichen Sprachen verarbeiten und generieren kann.
Bekannte Beispiele 2026 sind die GPT-Reihe von OpenAI (hinter ChatGPT), die Claude-Reihe von Anthropic (hinter Claude.ai), Gemini von Google DeepMind (hinter Bard und Google AI Overviews), Llama von Meta (Open-Source), Mistral von Mistral AI, und DeepSeek aus China. Diese Modelle bilden die technische Grundlage hinter allen relevanten KI-Antwortmaschinen, gegen die GEO optimiert.
Aus GEO-Sicht ist die zentrale Eigenschaft eines LLM, dass es zwei Wissensquellen kombiniert. Erstens das parametrische Gedächtnis — Wissen, das während des Trainings in die Modell-Gewichte „eingebrannt“ wurde. Dieses Wissen ist statisch, hat ein Cutoff-Datum (typisch 6 bis 18 Monate vor Modell-Release) und ist von aussen nicht beeinflussbar. Zweitens den Retrieval-Layer — externe Quellen, die zur Laufzeit per Web-Search, RAG (Retrieval-Augmented Generation) oder Knowledge-Graph-Zugriff herangezogen werden. Dieser Layer ist sehr wohl beeinflussbar — und genau hier setzt GEO an.
Eine subtile Konsequenz des Cutoff-Datums: Inhalte, die nach dem Trainings-Stichtag publiziert werden, existieren im parametrischen Gedächtnis nicht und können nur über den Retrieval-Layer erreichbar werden. Frische, gut indexierte Inhalte haben dadurch einen strukturellen Wettbewerbsvorteil gegenüber etablierten, aber unverlinkten Quellen. Wer regelmässig publiziert und korrekt mit datePublished auszeichnet, signalisiert Aktualität — was in der Quellenauswahl des LLM mit höherer Citation-Wahrscheinlichkeit belohnt wird.
Die zweite Konsequenz ist das Halluzinations-Risiko. Ein LLM, das keine passende Quelle findet, generiert Antworten aus seinem parametrischen Gedächtnis — vorsätzlich tut es das nicht, aber statistisch ist es so trainiert, dass eine plausibel klingende Antwort höher gewichtet wird als „weiss ich nicht“. Wer durch saubere GEO-Setups als Quelle gefunden wird, reduziert das Halluzinations-Risiko zur eigenen Brand: die KI greift dann auf reale Daten zurück statt zu raten.
Im Schweizer Kontext kommt eine weitere Nuance hinzu: viele LLMs werden primär mit englischen Texten trainiert. Wer auf Deutsch (insbesondere Schweizer Hochdeutsch) publiziert, konkurriert in einem deutlich kleineren Korpus — was die einzelne Site relativ wichtiger macht, aber zugleich die Erkennungs-Hürde erhöht. inLanguage: "de-CH" in JSON-LD und hreflang-Annotations sind hier nicht optional, sondern existenznotwendig.
3. Praxisbeispiel
Ein Server-Log-Auszug zeigt typische LLM-Crawler-Aktivität auf einer DACH-KMU-Site:
# GPTBot (OpenAI / ChatGPT)
GET /robots.txt User-Agent: GPTBot/1.2
GET /llms.txt User-Agent: GPTBot/1.2
GET / User-Agent: GPTBot/1.2
GET /team/anna-mueller User-Agent: GPTBot/1.2
# ClaudeBot (Anthropic)
GET /robots.txt User-Agent: ClaudeBot
GET / User-Agent: ClaudeBot
# PerplexityBot
GET / User-Agent: PerplexityBot
GET /faq User-Agent: PerplexityBotDamit diese Crawler überhaupt Zugriff haben, muss robots.txt sie explizit erlauben. Ein Default-Wildcard-Disallow blockiert auch sie. Nach erfolgreichem Crawl liest jeder LLM die Site und integriert sie — je nach Modell — direkt in seinen Retrieval-Layer (für Real-Time-Anfragen) oder in den nächsten Trainings-Datensatz (für das parametrische Gedächtnis nachfolgender Modell-Generationen).
4. Typische Fehler & Missverständnisse
- KI-Crawler in robots.txt versehentlich blockieren über Wildcard-Disallow — viele Default-robots.txt blockieren neben SEO-Bots auch GPTBot, ClaudeBot und PerplexityBot.
- Annehmen, dass ein LLM dein Update sofort sieht — bis ein neuer Inhalt im Retrieval-Layer auftaucht, vergehen typisch 48 bis 72 Stunden nach Crawl.
- Sich auf das parametrische Gedächtnis verlassen statt aktiv für den Retrieval-Layer zu optimieren — letzteres ist beeinflussbar, ersteres nicht.
- JS-only-Frontends ohne Server-Side-Rendering bauen — die meisten LLM-Crawler führen kein JavaScript aus und sehen dann eine leere Seite.
- Die Sprachannotation (inLanguage, hreflang) vergessen — bei mehrsprachigen Sites führt das zu Fehlattributionen und reduzierter DACH-Sichtbarkeit.
5. Best Practices
- Erlaube GPTBot, ClaudeBot, PerplexityBot, Google-Extended und Bingbot in robots.txt explizit — als eigene User-Agent-Blöcke statt nur via Wildcard.
- Stelle sicher, dass jede wichtige Page server-seitig gerendert HTML ausliefert — JS-Frameworks ohne SSR sind für viele LLM-Crawler unsichtbar.
- Markiere alle Inhalte mit datePublished und dateModified — frische Inhalte haben strukturellen Vorteil im Retrieval-Layer.
- Pflege eine llms.txt mit den 5–10 wichtigsten Themen-Ankern der Site — die Datei reduziert das Crawl-Volumen und verbessert die Themen-Erkennung.
- Tracke regelmässig in den 5 grossen LLMs (ChatGPT, Claude, Perplexity, Gemini, Grok), wie deine Brand zitiert wird — der KI Prompt Analyzer auf geoquality.ai automatisiert das.
- Bei mehrsprachigen Sites: inLanguage-Annotation pro Seite und hreflang im HTML-Head — sonst riskierst du Fehlattribution zwischen Sprachvarianten.
6. Fakten
- ChatGPT verarbeitet 2026 schätzungsweise über vier Milliarden Anfragen pro Tag — ein Volumen, das in vielen B2B-Branchen die täglichen Google-Suchen übertrifft.
- Die fünf grossen LLM-Plattformen — ChatGPT, Claude, Perplexity, Gemini, Grok — decken zusammen etwa 92 Prozent aller generativen KI-Anfragen weltweit ab.
- Ein typisches Foundation-LLM 2026 hat zwischen 70 und 1500 Milliarden Parameter — die genauen Werte werden von OpenAI, Anthropic und Google nicht öffentlich bestätigt.
- Das Trainings-Cutoff-Datum eines LLM liegt typisch 6 bis 18 Monate vor dem Modell-Release — Inhalte nach dem Cutoff sind nur über den Retrieval-Layer erreichbar.
- GPTBot, ClaudeBot und PerplexityBot reindexieren Sites typisch innerhalb von 48 bis 72 Stunden nach einem Update — deutlich schneller als der klassische Google-Bot.
- Anthropic's Claude-Reihe und OpenAI's GPT-Reihe nutzen RLHF (Reinforcement Learning from Human Feedback) im Fine-Tuning — eine Technik, die Modelle näher an menschliche Präferenzen ausrichtet.
Definition von Marco Biner · Certified GEO Expert
Ich werde oft gefragt, ob LLMs „intelligent“ sind. Die richtige Antwort: sie sind sehr gute statistische Mustererkenner. Was sie tun, ist nicht Verstehen im menschlichen Sinn, sondern Vorhersagen — welches Wort kommt mit höchster Wahrscheinlichkeit als nächstes? Das ist überraschend mächtig, weil Sprache hoch strukturiert ist. Aber es hat auch klare Grenzen, die man kennen muss, wenn man dagegen optimieren will.
Mein praktischer Standard: optimiere immer für den Retrieval-Layer, nie für das parametrische Gedächtnis. Letzteres kannst du nicht beeinflussen. Den Retrieval-Layer dagegen sehr wohl — über robots.txt, llms.txt, JSON-LD-Strukturdaten und Authority-Signale. Wer das versteht, hat die halbe GEO-Strategie schon intus. Was ich konsistent sehe: KMU-Sites, die explizit für LLM-Crawler optimieren, haben in 90 Tagen eine 3- bis 5-fach höhere Citation-Rate. Das ist messbar und reproduzierbar.
GEO Importance Rank
Wie wichtig ist dieser Begriff für Generative Engine Optimization?
FAQs
Welches LLM ist für GEO am wichtigsten?
Aktuell ChatGPT (OpenAI) mit dem grössten Anfragevolumen, gefolgt von Google AI Overviews bei integrierten Such-Anfragen, Perplexity bei recherche-orientierten Nutzern, Claude bei längeren konversationellen Sessions und Gemini im Google-Ökosystem. Eine seriöse GEO-Strategie deckt alle fünf ab. Auf welcher Plattform deine Zielgruppe aktiv ist, hängt vom Use-Case ab — B2C-Anfragen tendieren zu ChatGPT, B2B-Recherche zu Perplexity und Claude.
Was ist der Unterschied zwischen Pre-Training und Fine-Tuning?
Pre-Training ist die Hauptphase des Modell-Trainings auf grossen, unmarkierten Textkorpora — typisch hunderte Milliarden Tokens. Das Modell lernt dabei statistische Sprachmuster. Fine-Tuning ist die nachgelagerte Anpassung auf spezifischere Aufgaben oder Anweisungs-Befolgung mit kleineren, oft menschlich annotierten Datensätzen. Pre-Training schafft die Sprachkompetenz, Fine-Tuning die Anwendungsfähigkeit.
Was bedeutet RLHF?
RLHF steht für Reinforcement Learning from Human Feedback. Es ist eine Fine-Tuning-Technik, bei der menschliche Bewerter LLM-Antworten ranken — die besseren werden bevorzugt, schlechtere abgewertet. Über Reward-Modelling und PPO-Training lernt das LLM, Antworten näher an menschliche Präferenzen auszurichten. RLHF ist 2026 Standard bei allen relevanten LLMs und ein Hauptgrund, warum aktuelle Modelle „natürlicher“ klingen als frühere Versionen.
Wie unterscheidet sich ein LLM von einem klassischen Suchindex?
Ein klassischer Suchindex (z. B. Google-Index) speichert Dokumente und liefert auf Anfragen Trefferlisten — der Suchende klickt auf Treffer und liest selber. Ein LLM generiert Antworten aus internem Wissen plus optionalem Retrieval. Der User bekommt einen synthetisierten Antworttext mit zitierten Quellen. Beide haben unterschiedliche Mechaniken und unterschiedliche GEO-Implikationen — ein gut indexiertes Dokument ist nicht automatisch ein gut zitiertes.
Halluzinieren LLMs immer noch?
Ja, aber deutlich weniger als 2022/2023. Halluzinationen entstehen vor allem dann, wenn das LLM keine passende Quelle im Retrieval-Layer findet und auf parametrisches Wissen zurückgreift. Mit aktiviertem Retrieval (Browse-Tool, Web-Search) sinkt die Halluzinationsrate stark. Für GEO ist die zentrale Strategie: durch saubere Indexierung als Quelle gefunden zu werden, damit das LLM auf reale Daten zurückgreift statt zu raten.
Werden zukünftige LLMs Schema.org-Markup wichtiger nehmen?
Sehr wahrscheinlich ja. Die Tendenz seit 2024 ist klar: LLMs bewegen sich von reiner Volltext-Verarbeitung Richtung strukturierter Wissens-Integration. Anthropic, OpenAI und Google haben Schema.org-Markup als zentrale Voraussetzung für AI-Indexierung offiziell bestätigt. Für GEO-Strategie heisst das: in Schema.org-Markup zu investieren ist eine Wette mit niedrigem Risiko und hoher Wahrscheinlichkeit für steigenden ROI in den nächsten 24 Monaten.
Verwandte Begriffe
Eigene AI-Sichtbarkeit messen
Kostenlose SEAKT-Analyse für jede Website — Score in unter 2 Minuten.
Jetzt analysieren →