Analizza ora →
Fundamental ai systems

Large Language Model (LLM)

Auch bekannt als: Sprachmodell, Grossmodell, LLM


Aktualisiert 2026-05-03 · von Marco Biner

1. Kurzdefinition

Ein Large Language Model (LLM) ist ein neuronales Netzwerk mit Milliarden bis Billionen Parametern, das auf grossen Textkorpora trainiert wurde, natürliche Sprache versteht und generiert — die technische Grundlage hinter ChatGPT, Claude, Gemini und allen anderen modernen KI-Antwortmaschinen.

2. Ausführliche Erklärung

Large Language Models sind die zentrale Technologie hinter der generativen KI-Welle ab 2022. Sie sind neuronale Netzwerke, die in einem zweistufigen Prozess trainiert werden: erst auf grossen, unmarkierten Textkorpora (Pre-Training), dann auf spezifischeren, oft menschlich annotierten Daten (Fine-Tuning, RLHF). Das Resultat ist ein Modell, das natürliche Sprache in praktisch allen menschlichen Sprachen verarbeiten und generieren kann.

Bekannte Beispiele 2026 sind die GPT-Reihe von OpenAI (hinter ChatGPT), die Claude-Reihe von Anthropic (hinter Claude.ai), Gemini von Google DeepMind (hinter Bard und Google AI Overviews), Llama von Meta (Open-Source), Mistral von Mistral AI, und DeepSeek aus China. Diese Modelle bilden die technische Grundlage hinter allen relevanten KI-Antwortmaschinen, gegen die GEO optimiert.

Aus GEO-Sicht ist die zentrale Eigenschaft eines LLM, dass es zwei Wissensquellen kombiniert. Erstens das parametrische Gedächtnis — Wissen, das während des Trainings in die Modell-Gewichte „eingebrannt“ wurde. Dieses Wissen ist statisch, hat ein Cutoff-Datum (typisch 6 bis 18 Monate vor Modell-Release) und ist von aussen nicht beeinflussbar. Zweitens den Retrieval-Layer — externe Quellen, die zur Laufzeit per Web-Search, RAG (Retrieval-Augmented Generation) oder Knowledge-Graph-Zugriff herangezogen werden. Dieser Layer ist sehr wohl beeinflussbar — und genau hier setzt GEO an.

Eine subtile Konsequenz des Cutoff-Datums: Inhalte, die nach dem Trainings-Stichtag publiziert werden, existieren im parametrischen Gedächtnis nicht und können nur über den Retrieval-Layer erreichbar werden. Frische, gut indexierte Inhalte haben dadurch einen strukturellen Wettbewerbsvorteil gegenüber etablierten, aber unverlinkten Quellen. Wer regelmässig publiziert und korrekt mit datePublished auszeichnet, signalisiert Aktualität — was in der Quellenauswahl des LLM mit höherer Citation-Wahrscheinlichkeit belohnt wird.

Die zweite Konsequenz ist das Halluzinations-Risiko. Ein LLM, das keine passende Quelle findet, generiert Antworten aus seinem parametrischen Gedächtnis — vorsätzlich tut es das nicht, aber statistisch ist es so trainiert, dass eine plausibel klingende Antwort höher gewichtet wird als „weiss ich nicht“. Wer durch saubere GEO-Setups als Quelle gefunden wird, reduziert das Halluzinations-Risiko zur eigenen Brand: die KI greift dann auf reale Daten zurück statt zu raten.

Im Schweizer Kontext kommt eine weitere Nuance hinzu: viele LLMs werden primär mit englischen Texten trainiert. Wer auf Deutsch (insbesondere Schweizer Hochdeutsch) publiziert, konkurriert in einem deutlich kleineren Korpus — was die einzelne Site relativ wichtiger macht, aber zugleich die Erkennungs-Hürde erhöht. inLanguage: "de-CH" in JSON-LD und hreflang-Annotations sind hier nicht optional, sondern existenznotwendig.

3. Praxisbeispiel

Ein Server-Log-Auszug zeigt typische LLM-Crawler-Aktivität auf einer DACH-KMU-Site:

# GPTBot (OpenAI / ChatGPT)
GET /robots.txt        User-Agent: GPTBot/1.2
GET /llms.txt          User-Agent: GPTBot/1.2
GET /                  User-Agent: GPTBot/1.2
GET /team/anna-mueller User-Agent: GPTBot/1.2

# ClaudeBot (Anthropic)
GET /robots.txt        User-Agent: ClaudeBot
GET /                  User-Agent: ClaudeBot

# PerplexityBot
GET /                  User-Agent: PerplexityBot
GET /faq               User-Agent: PerplexityBot

Damit diese Crawler überhaupt Zugriff haben, muss robots.txt sie explizit erlauben. Ein Default-Wildcard-Disallow blockiert auch sie. Nach erfolgreichem Crawl liest jeder LLM die Site und integriert sie — je nach Modell — direkt in seinen Retrieval-Layer (für Real-Time-Anfragen) oder in den nächsten Trainings-Datensatz (für das parametrische Gedächtnis nachfolgender Modell-Generationen).

4. Typische Fehler & Missverständnisse

5. Best Practices

6. Fakten


Definition von Marco Biner · Certified GEO Expert

Marco Biner — Founder geoquality.ai, Certified GEO Expert

Ich werde oft gefragt, ob LLMs „intelligent“ sind. Die richtige Antwort: sie sind sehr gute statistische Mustererkenner. Was sie tun, ist nicht Verstehen im menschlichen Sinn, sondern Vorhersagen — welches Wort kommt mit höchster Wahrscheinlichkeit als nächstes? Das ist überraschend mächtig, weil Sprache hoch strukturiert ist. Aber es hat auch klare Grenzen, die man kennen muss, wenn man dagegen optimieren will.

Mein praktischer Standard: optimiere immer für den Retrieval-Layer, nie für das parametrische Gedächtnis. Letzteres kannst du nicht beeinflussen. Den Retrieval-Layer dagegen sehr wohl — über robots.txt, llms.txt, JSON-LD-Strukturdaten und Authority-Signale. Wer das versteht, hat die halbe GEO-Strategie schon intus. Was ich konsistent sehe: KMU-Sites, die explizit für LLM-Crawler optimieren, haben in 90 Tagen eine 3- bis 5-fach höhere Citation-Rate. Das ist messbar und reproduzierbar.


GEO Importance Rank

Wie wichtig ist dieser Begriff für Generative Engine Optimization?

91 /100
Fundamental Range 90–100

FAQs

Welches LLM ist für GEO am wichtigsten?

Aktuell ChatGPT (OpenAI) mit dem grössten Anfragevolumen, gefolgt von Google AI Overviews bei integrierten Such-Anfragen, Perplexity bei recherche-orientierten Nutzern, Claude bei längeren konversationellen Sessions und Gemini im Google-Ökosystem. Eine seriöse GEO-Strategie deckt alle fünf ab. Auf welcher Plattform deine Zielgruppe aktiv ist, hängt vom Use-Case ab — B2C-Anfragen tendieren zu ChatGPT, B2B-Recherche zu Perplexity und Claude.

Was ist der Unterschied zwischen Pre-Training und Fine-Tuning?

Pre-Training ist die Hauptphase des Modell-Trainings auf grossen, unmarkierten Textkorpora — typisch hunderte Milliarden Tokens. Das Modell lernt dabei statistische Sprachmuster. Fine-Tuning ist die nachgelagerte Anpassung auf spezifischere Aufgaben oder Anweisungs-Befolgung mit kleineren, oft menschlich annotierten Datensätzen. Pre-Training schafft die Sprachkompetenz, Fine-Tuning die Anwendungsfähigkeit.

Was bedeutet RLHF?

RLHF steht für Reinforcement Learning from Human Feedback. Es ist eine Fine-Tuning-Technik, bei der menschliche Bewerter LLM-Antworten ranken — die besseren werden bevorzugt, schlechtere abgewertet. Über Reward-Modelling und PPO-Training lernt das LLM, Antworten näher an menschliche Präferenzen auszurichten. RLHF ist 2026 Standard bei allen relevanten LLMs und ein Hauptgrund, warum aktuelle Modelle „natürlicher“ klingen als frühere Versionen.

Wie unterscheidet sich ein LLM von einem klassischen Suchindex?

Ein klassischer Suchindex (z. B. Google-Index) speichert Dokumente und liefert auf Anfragen Trefferlisten — der Suchende klickt auf Treffer und liest selber. Ein LLM generiert Antworten aus internem Wissen plus optionalem Retrieval. Der User bekommt einen synthetisierten Antworttext mit zitierten Quellen. Beide haben unterschiedliche Mechaniken und unterschiedliche GEO-Implikationen — ein gut indexiertes Dokument ist nicht automatisch ein gut zitiertes.

Halluzinieren LLMs immer noch?

Ja, aber deutlich weniger als 2022/2023. Halluzinationen entstehen vor allem dann, wenn das LLM keine passende Quelle im Retrieval-Layer findet und auf parametrisches Wissen zurückgreift. Mit aktiviertem Retrieval (Browse-Tool, Web-Search) sinkt die Halluzinationsrate stark. Für GEO ist die zentrale Strategie: durch saubere Indexierung als Quelle gefunden zu werden, damit das LLM auf reale Daten zurückgreift statt zu raten.

Werden zukünftige LLMs Schema.org-Markup wichtiger nehmen?

Sehr wahrscheinlich ja. Die Tendenz seit 2024 ist klar: LLMs bewegen sich von reiner Volltext-Verarbeitung Richtung strukturierter Wissens-Integration. Anthropic, OpenAI und Google haben Schema.org-Markup als zentrale Voraussetzung für AI-Indexierung offiziell bestätigt. Für GEO-Strategie heisst das: in Schema.org-Markup zu investieren ist eine Wette mit niedrigem Risiko und hoher Wahrscheinlichkeit für steigenden ROI in den nächsten 24 Monaten.


Verwandte Begriffe

Eigene AI-Sichtbarkeit messen

Kostenlose SEAKT-Analyse für jede Website — Score in unter 2 Minuten.

Jetzt analysieren →