KI-Glossar für AEO + AIO + GEO + LLMO


TL;DR

Glossar für die KI-Suche

Das KI-Lexikon als Kompass für die neue Ära der Suche. Während klassisches SEO auf Linklisten zielt, optimieren GEO (Generative Engine Optimization) und AEO deine Inhalte für KI-Antworten. Ziel ist es, als verifizierte Quelle direkt in den KI-Zusammenfassungen von Google Gemini, ChatGPT und Co. zu erscheinen.

Autor: Wolf-Reinhart Kotzsch

SEO seit 2007 – Erfahrung aus Agenturen und eigenen Projekten. Schwerpunkt heute: KI-Suche, AEO und Sichtbarkeit in generativen Suchsystemen.

A–D

A

▸ Agent Skills Standard

Modular definierte KI-Fähigkeiten, die Anweisungen, Kontext, Prozesse und Werkzeuge bündeln, damit Aufgaben konsistent, wiederverwendbar und automatisierbar ausgeführt werden.

Der Agent Skills Standard wurde im Dezember 2025 von Anthropic als offener Standard für KI-Agenten eingeführt.
Er definiert, wie modulare Fähigkeiten („Skills“) strukturiert und wiederverwendbar organisiert werden. Dabei werden Anweisungen, Skripte und Ressourcen in klaren Ordnerstrukturen gebündelt. Ziel ist es, KI-Modelle gezielt auf konkrete Aufgaben vorzubereiten und präzise auszuführen. Der Ansatz trennt Logik, Daten und Kontext sauber voneinander. So entstehen skalierbare, wartbare und kombinierbare KI-Workflows.

Ein typisches Beispiel ist ein SEO-Content-Skill:

Ordnerstruktur eines „Blogartikel-Skills“:

  • /instructions/briefing.md → beschreibt Ziel, Tonalität, Suchintention
  • /scripts/outline.py → erzeugt automatisch eine Gliederung
  • /resources/keywords.csv → enthält Keyword-Cluster und Suchvolumen
  • /resources/examples.md → zeigt gute Beispieltexte
  • /output/template.md → definiert die gewünschte Ausgabe (z. B. Artikelstruktur)

Ablauf:
Die KI liest zuerst das Briefing, nutzt dann das Skript zur Struktur, greift auf Keywords und Beispiele zu und erstellt daraus einen fertigen Artikel nach Template.

Ergebnis:
Statt generischem Text bekommst du reproduzierbare, klar strukturierte Inhalte – jedes Mal nach dem gleichen System, aber mit variablen Daten.

▸ AI Agent

KI-System, das Aufgaben nicht nur beantwortet, sondern eigenständig plant, Entscheidungen trifft und Aktionen ausführt.

Anders als klassische Chatbots arbeitet ein Agent zielorientiert: Er kann Informationen abrufen, Tools nutzen, Zwischenschritte ableiten und Ergebnisse anhand eines Ziels anpassen. Moderne AI Agents kombinieren häufig Large Language Models mit externen Systemen wie Datenbanken, APIs, Kalendern oder Suchfunktionen. Dadurch entstehen KI-Systeme, die komplexe Abläufe teilweise autonom bearbeiten können – etwa Recherchen, Workflows, Analysen oder mehrstufige Automatisierungen.

▸ AI Citation Report

Ein AI Citation Report misst die Sichtbarkeit von Inhalten in KI-Antworten.

Er zeigt, wie oft und wo deine Inhalte in KI-Antworten zitiert werden. Er macht sichtbar, welche URLs, Themen oder Marken in generativen Systemen auftauchen. Damit misst du nicht nur Rankings, sondern echte Präsenz in Answer Engines. Du erkennst, welche Inhalte als vertrauenswürdige Quellen gelten – und welche nicht. Das hilft dir, Content gezielt auf Zitierfähigkeit und Information Gain zu optimieren.

AI-Crawler (z. B. GPTBot)

Bots, die Webseiten für KI-Systeme erfassen, analysieren und als Trainings- oder Antwortquellen indexieren.

AI-Crawler sind automatisierte Programme, die das Internet durchsuchen, um Daten für das Training von Large Language Models (LLMs) oder für die Bereitstellung aktueller Informationen in KI-Antworten (RAG) zu sammeln. Für Websitebetreiber ist die Steuerung dieser Crawler entscheidend, um zu kontrollieren, wie ihre Inhalte von KI-Systemen genutzt werden.

AI Overviews (Google)

Google AI Overviews sind KI-generierte Zusammenfassungen direkt in den Google-Suchergebnissen, die Antworten aus verschiedenen Quellen kombinieren.

Sie kombinieren Inhalte aus mehreren Quellen und präsentieren eine fertige Antwort auf die Suchanfrage. Für Websites bedeutet das, dass Inhalte so strukturiert sein müssen, dass sie von der KI leicht analysiert und zitiert werden können. Wichtige Informationen gehören direkt in sichtbare, verständliche Textabschnitte. So kann die KI Inhalte besser auslesen, einordnen und zitieren. Struktur, Relevanz und eindeutige Formulierungen werden dadurch noch wichtiger.

AI-Overviews Leitfaden

▸ AI Search

KI-gestützte Suchsysteme, die Informationen direkt als Antworten statt nur als Linklisten ausgeben.

Suchsysteme wie ChatGPT oder Perplexity, die KI nutzen, um direkt Antworten zu generieren, statt nur Links zu liefern. Sie analysieren Inhalte, kombinieren Quellen und geben verdichtete Ergebnisse aus.  Für Websites zählt nicht mehr nur Ranking, sondern ob sie als zitierte Quelle in diesen Antworten auftauchen.

▸ AI Visibility

Sichtbarkeit von Marken, Inhalten oder Websites in KI-generierten Antworten und Suchsystemen.

Die Messgröße dafür, wie häufig Inhalte einer Website als Quelle in KI-Antworten erscheinen. Entscheidend ist heute nicht nur das Ranking, sondern ob du als Quelle zitiert oder integriert wirst.  Sie zeigt, ob deine Inhalte von Systemen wie Chatbots oder AI Overviews aufgegriffen werden. Hohe AI Visibility entsteht durch klare Struktur, relevante Inhalte und starke Vertrauenssignale.
Damit wird Sichtbarkeit messbar – auch ohne den klassischen Klick auf deine Website.

▸ AI Optimization (AIO)

Optimierung von Inhalten, Marken und Informationsstrukturen für KI-Systeme, damit diese Inhalte bevorzugt verstehen, einordnen und zitieren können.

AIO wird häufig als „AI Optimization“ verstanden und geht über AEO hinaus. Während sich AEO vor allem darauf konzentriert, Inhalte für direkte Antworten optimierbar zu machen, betrachtet AIO den gesamten Einfluss von KI-Systemen auf Sichtbarkeit, Wahrnehmung und Markenbildung. Im Mittelpunkt steht nicht nur die Beantwortbarkeit von Inhalten, sondern auch, wie KI-Systeme Informationen einordnen, gewichten, zitieren und mit Marken oder Quellen verknüpfen.

▸ Answer Box

Hervorgehobenes Antwortfeld in den Suchergebnissen, das eine konkrete Frage direkt beantwortet.

Die Answer Box zieht Inhalte aus Webseiten und zeigt sie prominent über den organischen Treffern an. Das führt zu hoher Sichtbarkeit ohne Klick – mit der Chance, als Quelle direkt wahrgenommen zu werden.

▸ Answer Engine

KI-gestütztes Systems, das direkte Antworten generieren statt nur Webseiten zu verlinken.

Es erstellt zusammenhängende Erklärungen aus verschiedenen Quellen (z. B. Bing Copilot). Die Answer Engine liefert direkte Antworten statt nur eine Liste von Links. Sie nutzt KI, um Inhalte zu verstehen, zu kombinieren und kompakt aufzubereiten. Sichtbarkeit entsteht dort vor allem durch Zitierung als Quelle.

Answer Engine Optimization (AEO)

Optimierung von Inhalten für Antwortsysteme.

Ziel ist es, dass eine Website direkt als Quelle für Antworten verwendet wird. Inhalte müssen dafür klar strukturiert, präzise formuliert und leicht verständlich sein.

AEO  Suchlandschaft

▸ Article Schema

Strukturierter Datentyp für Artikel, damit Suchmaschinen Inhalte, Autoren und Themen besser verstehen können.

Die strukturierte Auszeichnung gilt speziell für redaktionelle Inhalte wie Blogposts oder News. Suchmaschinen erhalten klare Signale zu Autor, Veröffentlichungsdatum und Inhalt. Das verbessert Einordnung, Sichtbarkeit und die Chance auf erweiterte Darstellungen in Suche und KI-Systemen.

▸ Author Entity

Eindeutig identifizierbare Autorenprofile, die von Suchmaschinen und KI-Systemen mit Themen, Expertise und Inhalten verknüpft werden.

Eine Author Entity ist die klar definierte, maschinenlesbare Identität eines Autors im Web. Sie verknüpft Inhalte mit einer Person über strukturierte Daten, Profile und wiedererkennbare Signale. Das stärkt Vertrauen, E-E-A-T und die Chance, als Quelle in Suchmaschinen und KI-Systemen zitiert zu werden.

C

▸ Canonical URL

Kennzeichnung der Originalversion einer Seite zur Vermeidung von Duplicate Content.

Die Canonical URL ist die bevorzugte Version einer Seite bei mehreren ähnlichen oder identischen Inhalten. Sie zeigt Suchmaschinen, welche URL indexiert und bewertet werden soll. Mit dem Canonical-Tag vermeidest du Duplicate Content und bündelst Rankingsignale auf eine zentrale Seite.

Mehr über das Canonical Tag

ChatGPT

Von OpenAI entwickeltes, dialogbasiertes KI-System, das als Pionier der modernen Answer Engines gilt.

ChatGPT nutzt leistungsstarke Sprachmodelle, um komplexe Nutzeranfragen direkt zu beantworten. Für GEO ist ChatGPT eine der wichtigsten Zielplattformen, da es zunehmend Webinhalte über Browsing-Funktionen integriert und zitiert.

Citation (KI-Zitat)

Quellenangabe in einer KI-generierten Antwort.

Sie zeigt an, welche Website als Informationsquelle verwendet wurde. Für Websitebetreiber sind solche Zitate ein wichtiger Sichtbarkeitsfaktor.

Für Citations optimieren

▸ Citation Signals

Signale, die zeigen, wie häufig und in welchem Kontext Inhalte von KI-Systemen oder anderen Quellen referenziert werden.

Sie dienen als Indikator dafür, ob Informationen als vertrauenswürdige Primärquelle eingestuft werden. Eindeutige Autorenschaft und strukturierte Daten helfen Maschinen, die Urheberschaft korrekt zuzuweisen. Markenerwähnungen und Backlinks in relevanten Umfeldern stärken die thematische Autorität nachhaltig. Eine konsistente Abdeckung von Nischenthemen festigt den Status als verlässliche Wissensquelle für KI-Modelle.

▸ Claude

KI-Assistent von Anthropic, der Texte analysiert, beantwortet und generative Inhalte erstellt.

Claude ist eine KI-Modellfamilie des Unternehmens Anthropic, die für ihre hohe Sicherheit und menschenähnliche Ausdrucksweise bekannt ist. In der KI-Suchlandschaft wird Claude besonders für die Verarbeitung großer Kontextmengen geschätzt. Websitebetreiber optimieren für Claude, um als verlässliche Informationsquelle in dessen präzisen Zusammenfassungen zu erscheinen.

▸ Content Chunking

Aufteilung von Inhalten in klar strukturierte, semantisch verständliche Informationsblöcke für KI-Systeme.

Content Chunking bedeutet, Inhalte in kleine, klar abgegrenzte Abschnitte zu zerlegen. Jeder Abschnitt behandelt einen konkreten Aspekt und ist für sich verständlich. Das erleichtert Nutzerinnen und Nutzern, Suchmaschinen und KI-Systemen die Verarbeitung und gezielte Extraktion von Informationen.

Content Chunking im Detail

▸ Content Freshness

Aktualität und regelmäßige Pflege von Inhalten als Signal für Relevanz und Vertrauenswürdigkeit.

Suchmaschinen bevorzugen frische Inhalte, wenn das Thema zeitabhängig oder dynamisch ist. Gezielte Updates können Rankings stabilisieren oder verbessern – besonders bei wettbewerbsstarken Themen.

▸ Content Hub

Zentral strukturierte Sammlung thematisch verknüpfter Inhalte zu einem bestimmten Fachgebiet.

Eine zentrale Seite bündelt thematisch verwandte Inhalte. Sie ist mit passenden Unterseiten verknüpft. Der Content Hub strukturiert Inhalte logisch und macht Zusammenhänge für Nutzer und Suchmaschinen klar. So entstehen stärkere Themenautorität, bessere interne Verlinkung und höhere Sichtbarkeit.

Content Hubs im Detail

▸ Conversational Search

Dialogbasierte Suche, bei der KI den Kontext aufeinanderfolgender Fragen versteht.

Conversational Search sind somit Suchanfragen in natürlicher Sprache. Nutzer stellen Fragen wie im Gespräch und erwarten direkte, kontextbezogene Antworten. Für Inhalte heißt das: klare, verständliche Formulierungen und Antworten auf echte Fragen liefern.

▸ Core Web Vitals

Spezifische Leistungskennzahlen von Google zur Bewertung von Ladezeit, Interaktivität und visueller Stabilität einer Website.

Diese messen die Nutzererfahrung (Page Experience) einer Website messen. Sie bewerten Faktoren wie Ladezeit, Interaktivität und visuelle Stabilität. Eine gute Performance in diesen Metriken ist eine Grundvoraussetzung für technische SEO und die Sichtbarkeit in modernen Suchsystemen.

Core Web Vitals & Google Lighthouse

▸ Crawl Budget

Menge an Seiten, die Suchmaschinen innerhalb eines bestimmten Zeitraums auf einer Website crawlen.

Das Crawl Budget hängt unter anderem von Serverleistung, Seitenstruktur und technischer Qualität ab. Wird es schlecht genutzt, bleiben wichtige Inhalte unentdeckt oder werden seltener aktualisiert.

Crawl Budget Optimierung

▸ Crawling (im Kontext von KI)

Automatisierter Prozess, bei dem Bots Webseiten aufrufen und deren Inhalte sowie Quellcode auslesen.

Bekannte Beispiele sind der Googlebot von Google oder der GPTBot von OpenAI. Dabei werden Texte, Links, Bilder, strukturierte Daten und technische Informationen erfasst.
Im Umfeld der KI-Suche und von generativen Suchsystemen ist Crawling die Grundlage dafür, dass Inhalte überhaupt verarbeitet werden können. Nur Seiten, die technisch zugänglich und crawlbar sind, können von Systemen wie Gemini, ChatGPT/SearchGPT
oder Perplexity AI analysiert, indexiert und später in Antworten eingebunden werden. Blockierungen durch robots.txt, fehlerhafte Serverantworten oder technische Barrieren können dazu führen, dass Inhalte für KI-Systeme praktisch unsichtbar bleiben.

Zurück zur Navigation

E–H

E

E-E-A-T

Akronym für Experience, Expertise, Authoritativeness und Trustworthiness und ein zentrales Qualitäts- und Vertrauenssignal zur Bewertung von Inhalten.

Das E-E-A-T-Konzept stammt aus den Qualitätsrichtlinien von Google und dient dazu, die Qualität und Glaubwürdigkeit von Inhalten zu bewerten. Besonders bei sensiblen Themen wie Gesundheit, Finanzen oder Recht spielt E-E-A-T eine zentrale Rolle. Systeme wie Google Gemini oder AI Overviews bevorzugen Inhalte, die nachvollziehbar, fachlich fundiert und vertrauenswürdig wirken.
Dazu gehören unter anderem erkennbare Autoren, belegbare Quellen, echte Praxiserfahrung, transparente Informationen und eine konsistente thematische Autorität. Im Umfeld von AEO und GEO fungiert E-E-A-T zunehmend als Qualitätsfilter dafür, welche Inhalte von KI-Systemen zitiert, zusammengefasst oder als belastbare Quelle verwendet werden.

E-E-A-T  Anleitung

Entity (Entität)

Eindeutig identifizierbares Objekt oder Konzept, etwa eine Person, ein Ort oder eine Marke.

Die Entität wird von Suchmaschinen als eigenständige Einheit mit klaren Eigenschaften verstanden. Entities sind im Knowledge Graph verankert und miteinander verknüpft. So entstehen semantische Zusammenhänge statt reiner Keyword-Beziehungen.

▸ Entity SEO

Strategischer Ansatz bei der Suchmaschinenoptimierung, bei dem nicht mehr einzelne Keywords im Mittelpunkt stehen, sondern klar erkennbare Themen, Konzepte, Personen, Orte oder Marken.

Suchmaschinen und KI-Systeme versuchen Inhalte heute zunehmend semantisch zu verstehen, also Beziehungen und Bedeutungen statt bloßer Wortfolgen zu erfassen. Sie erkennen und verarbeiten Inhalte dadurch als Teil eines vernetzten Wissenssystems – nicht als isolierte Texte.

Eine Entität kann beispielsweise ein Unternehmen wie OpenAI, eine Person, ein Produkt oder ein konkretes Fachthema sein. Die KI-Systeme (ChatGPT, Gemini, Copilot, Perplexity etc.) analysieren, wie stark Inhalte mit bestimmten Themenfeldern und Wissenskontexten verbunden sind.

Entity SEO zielt deshalb darauf ab, Inhalte thematisch eindeutig, kontextreich und semantisch sauber aufzubauen. Strukturierte Daten, klare Definitionen, konsistente Terminologie und nachvollziehbare Beziehungen zwischen Themen helfen dabei, Inhalte für Suchmaschinen und Answer Engines besser verständlich und zitierfähig zu machen.

▸ Evergreen Content

Inhalte einer Website, die langfristig relevant für die Suche bleiben.

Evergreen Content beantwortet grundlegende Fragen oder behandeln zeitlose Themen. Richtig gepflegt sorgen die Inhalte dauerhaft für Traffic, stabile Rankings und kontinuierliche Reichweite.

Das gehört zum Evergreen Content

F

▸ FAQ-Schema

Strukturierter Datentyp, der Fragen und Antworten auf einer Seite für Suchmaschinen und KI-Systeme maschinenlesbar macht.

Durch die Implementierung des FAQ-Schemas steigen die Chancen, dass Inhalte direkt in Answer Boxes oder AI Overviews als präzise Antworten ausgespielt werden.

Im Kontext von Retrieval-Augmented Generation (RAG) hilft das FAQ-Schema dabei, die Context Precision zu verbessern. Das System kann so die relevantesten Inhalte aus deiner Wissensbasis zielsicherer auswählen, was die Wahrscheinlichkeit erhöht, dass deine Expertise korrekt wiedergegeben wird

Mit FAQs optimieren

▸ Featured Snippet

Direkte Antwort ganz oben in den Suchergebnissen – noch vor Platz 1.

Google zieht sie aus bestehenden Inhalten der Website und zeigt sie als hervorgehobenen Kasten. Wer dort landet, gewinnt maximale Sichtbarkeit, aber oft ohne Klick. AI Overviews ziehen diese Bühne zunehmend weg. Stattdessen einem Snippet kommt oft eine komplette Antwort, zusammengebaut aus mehreren Quellen.

Mehr über Featured Snippets

▸ Fraggles

Einzelne Textabschnitte (Fragmente) einer Website, die von KI-Systemen direkt als Antwort genutzt werden.

Fraggles werden unabhängig vom restlichen Inhalt ausgespielt (z. B. in AI Overviews oder Copilot). Entscheidend ist nicht mehr die ganze Seite, sondern die Qualität einzelner Antwort-Blöcke. Gute Fraggles sind klar formuliert, präzise und ohne Kontext verständlich. Ziel in GEO: Inhalte so strukturieren, dass möglichst viele „Antwort-Fragmente“ entstehen.

Mehr über Fraggles

G

Galileo

Spezialisierte Plattform zur Evaluation und Überwachung von Sprachmodellen.

Galileo dient dazu, die Qualität von KI-Antworten objektiv zu messen und das Risiko von Halluzinationen zu minimieren. Im technischen Bereich des GEO ist Galileo relevant, um sicherzustellen, dass KI-Systeme die Inhalte einer Website korrekt interpretieren und wiedergeben.

Gemini

Fortschrittliches, multimodales KI-Modell von Google, das Text, Bilder und Code verarbeiten kann.

Germini bildet den technologischen Kern der Google AI Overviews und ist der Nachfolger früherer Systeme wie BERT oder MUM, um komplexe Suchanfragen direkt innerhalb der Suchoberfläche zu beantworten.

Generative Engine Optimization (GEO)

Strategischer Ansatz zur Optimierung von Inhalten für generative KI-Systeme, um die Sichtbarkeit und Zitierwahrscheinlichkeit in KI-generierten Antworten zu erhöhen.

GEO markiert einen Paradigmenwechsel von der reinen Ranking-Optimierung hin zur Antwort-Optimierung. Ziel ist es, dass Inhalte in KI-Antworten zitiert werden. GEO ergänzt klassische SEO-Strategien.  Während klassisches SEO auf vordere Plätze in Linklisten zielt, ist es das Hauptziel von GEO, als verifizierte Primärquelle direkt in den Zusammenfassungen von Systemen wie Google Gemini, ChatGPT, Microsoft Copilot oder Perplexity zu erscheinen

GEO mit Query Fan Out

Google Business Profile

Kostenloses Branchenverzeichnis von Google, das zentrale Informationen über lokale Unternehmen speichert.

Es dient KI-Systemen als primäre Datenquelle für lokale Suchanfragen und beeinflusst maßgeblich die Sichtbarkeit in der lokalen KI-Suche (Local SEO).

Google Business Profile optimieren

▸ Grok AI (xAI Grok)

KI-Chatbot und Large-Language-Model der Firma xAI.

Der Name „Grok“ stammt aus dem Science-Fiction-Roman Stranger in a Strange Land von Robert A. Heinlein und bedeutet sinngemäß: etwas tief und intuitiv verstehen.

Das System wurde entwickelt, um Fragen zu beantworten, Inhalte zu generieren und Echtzeitinformationen aus der Plattform X zu verarbeiten. Im Unterschied zu vielen klassischen KI-Chatbots liegt der Fokus von Grok besonders auf aktuellen Diskussionen, Live-Daten und einer eher direkten, weniger stark gefilterten Kommunikation. Grok kombiniert generative KI mit Web- und Social-Media-Daten und wird unter anderem für Recherche, Content-Erstellung, Programmierung und Analyse eingesetzt.

H

▸ Halluzination (KI)

Fehlerhafte oder frei erfundene Aussage eines KI-Systems, die wie eine echte Information wirkt.

Eine Halluzination beschreibt den Vorgang, bei dem eine generative KI Informationen erzeugt, die faktisch falsch sind, aber dennoch überzeugend und plausibel klingen. In der GEO-Strategie ist es daher entscheidend, durch klare Fakten und Quellenangaben die Wahrscheinlichkeit solcher Fehler bei der Wiedergabe eigener Inhalte zu minimieren.

▸ How-To Schema

Strukturierter Datentyp für Anleitungen, der Schritt-für-Schritt-Anweisungen in maschinenlesbarer Form beschreibt.

Als Teil des weltweiten Schema.org-Standards sorgt dieses Markup dafür, dass Ihre Inhalte zu Machine-Readable Content werden, was die Analyse durch KI-Systeme wie Google Gemini oder ChatGPT massiv erleichtert. Denn der Inhalt ist so explizit interpretierbar. In der modernen KI-Suche (GEO und AEO) bietet das How-To Schema entscheidende Vorteile:

  • Fraggle-Optimierung: Die klare Gliederung der Schritte hilft KIs dabei, Ihre Anleitung als hochwertiges Fraggle (Antwort-Fragment) zu identifizieren und direkt in den AI Overviews oder Answer Boxes auszuspielen
  • Zitierfähigkeit: Strukturierte Daten machen Inhalte „eindeutiger, extrahierbarer und quellenfähiger“, was die Wahrscheinlichkeit einer korrekten Source Attribution (Quellennennung) erhöht
  • E-E-A-T-Signal: Die technische Bereitstellung präziser Anleitungen unterstreicht fachliche Expertise und stärkt die Source Authority innerhalb eines Themenfeldes

Zurück zur Navigation

I–L

I

▸ Indexierung

Speicherung von Website-Inhalten im Suchindex.

Erst indexierte Seiten können überhaupt in den Suchergebnissen erscheinen. Saubere Struktur, interne Verlinkung und technische Zugänglichkeit entscheiden, ob und wie Inhalte aufgenommen werden.

Index von Google

▸ Indexing (im Kontext von KI)

Strukturierte Erfassung und Speicherung von Informationen, damit Systeme Inhalte später wiederfinden und nutzen können.

Indexing im Kontext generativer KI-Systeme bildet die Grundlage dafür, ob Inhalte als verwertbare Wissensquelle für Systeme wie ChatGPT/SearchGPT, Gemini oder Perplexity AI verfügbar sind. Dabei werden nicht nur komplette Webseiten gespeichert, sondern oft auch einzelne Aussagen, Entitäten, Zusammenhänge und semantische Beziehungen. Inhalte, die schlecht strukturiert, technisch fehlerhaft oder inhaltlich unklar sind, haben ein höheres Risiko, unvollständig indexiert oder von KI-Systemen ignoriert zu werden.

▸ Information Gain

Zusätzlicher Mehrwert eines Inhalts im Vergleich zu bereits existierenden Standardinformationen.

Der Information Gain entscheidet maßgeblich darüber, ob ein Inhalt von KI-Systemen als eigenständige, zitierfähige Primärquelle wahrgenommen oder lediglich in einer generischen Antwort zusammengefasst wird.

Da moderne Suchsysteme Informationen, die bereits im Überfluss existieren, einfach zu einer Gesamtanwort „zusammenziehen“, ist exklusives Wissen – etwa durch eigene Studien, exklusive Daten oder neue Fachperspektiven – die Voraussetzung für eine namentliche Quellennennung (Source Attribution)

Der Information Gain im Fokus

Intent (Suchintention)

Die eigentliche Absicht hinter einer Suchanfrage, etwa Information, Kauf, Navigation oder Problemlösung.

Nutzer können beispielsweise Informationen suchen, Produkte vergleichen (Commercial Search) oder eine bestimmte Website finden wollen.

In der modernen KI-Suche (GEO und AEO) wird die Suchintention oft durch komplexe Suchprompts in natürlicher Sprache ausgedrückt. KI-Systeme nutzen Semantic Search, um den tieferen Kontext und das Ziel hinter einer Anfrage zu erfassen, anstatt nur nach Keyword-Übereinstimmungen zu suchen.
Besonders erfolgreich ist Content, der diese Intention durch gezielte LLM Triggers direkt und logisch gegliedert beantwortet, da dies die Chance auf eine Source Attribution (Quellennennung) massiv erhöht

▸ Internal Linking

Verknüpfung von Seiten innerhalb einer Domain zur besseren Strukturierung und Nutzerführung.

Das hilft Suchmaschinen, Inhalte zu finden, zu verstehen und thematisch einzuordnen. Gleichzeitig lenkt es Nutzer gezielt durch Inhalte und stärkt Struktur, Relevanz und Sichtbarkeit.

Mehr über die interne Verlinkung

J

▸ JSON-LD

Format für strukturierte Daten, mit dem Inhalte für Suchmaschinen und KI-Systeme semantisch ausgezeichnet werden.

JSON-LD ist das von Google und anderen Suchmaschinen empfohlene Format für die Bereitstellung strukturierter Daten. Es ermöglicht das Einbetten von Metadaten in den HTML-Code, ohne die sichtbare Darstellung der Seite zu beeinflussen, was die Analyse durch KI-Systeme erheblich erleichtert.

K

▸ Knowledge Graph

Semantisches Wissensnetzwerk, das Entitäten und deren Beziehungen strukturiert miteinander verknüpft.

Der Knowledge Graph ist eine Datenstruktur in der Google-Suche, die Beziehungen zwischen verschiedenen Entitäten darstellt – Menschen, Orte, Dinge und ihre Beziehungen. Er liefert direkte Fakten in den Suchergebnissen, oft ohne dass man klicken muss. Wer darin sauber verankert ist, wird als echte Quelle erkannt – nicht nur als Text.

Mehr über den Knowledge Graph

L

Llama (Meta)

Akronym bei Meta für Large Language Model Meta AI.

Unter dem Namen Llama veröffentlicht das Unternehmen Meta verschiedene leistungsfähige KI-Modelle für Textverarbeitung, Suche, Coding und generative KI. Gleichzeitig spielt der Begriff ironisch mit dem Tier „Lama“, was zur lockeren Namensgebung vieler KI-Modelle passt.

Meta Llama zählt zu den wichtigsten Open-Source-nahen KI-Modellen weltweit. Neben Systemen wie ChatGPT, Gemini oder Claude dient Llama vielen Unternehmen als technische Grundlage für eigene KI-Assistenten, Chatbots und Suchsysteme. Die Modelle können lokal betrieben, angepasst und mit eigenen Daten kombiniert werden, was sie besonders für Unternehmen attraktiv macht.

Llama spielt daher eine wichtige Rolle bei semantischer Suche, RAG-Systemen und generativer KI-Infrastruktur. Durch die offene Verfügbarkeit hat Meta den Wettbewerb im KI-Markt stark beschleunigt.

Large Language Model (LLM)

KI-Modell, das große Mengen an Sprache analysiert und daraus Texte, Antworten oder Inhalte generieren kann.

Ein Large Language Model (LLM) ist mit sehr großen Textmengen trainiert, um Sprache zu verstehen und selbst Texte zu erzeugen. LLMs erkennen Muster, Zusammenhänge und Bedeutungen in Sprache und können dadurch Antworten, Zusammenfassungen, Übersetzungen oder Analysen generieren. Bekannte Modelle sind ChatGPT von OpenAI, Gemini von Google, Claude von Anthropic und Llama von Meta.

Für SEO, GEO und KI-Suche sind LLMs relevant, weil sie Inhalte nicht nur indexieren, sondern daraus direkt Antworten generieren und Quellen auswählen können.

▸ LLM Triggers

Sprachliche Muster, Formulierungen oder Inhaltsstrukturen, die große Sprachmodelle besonders leicht erkennen und verarbeiten können.

Dazu gehören präzise Fragen, definitorische Sätze, Schritt-für-Schritt-Erklärungen oder klar strukturierte Faktenblöcke. Solche Elemente erhöhen die Wahrscheinlichkeit, dass Inhalte in generativen Suchsystemen wie OpenAI ChatGPT,  Google Gemini oder Perplexity AI Perplexity als relevante Quelle abgerufen werden.
Im Gegensatz zu klassischem SEO geht es dabei nicht primär um Keywords, sondern um semantische Anschlussfähigkeit und maschinenlesbare Klarheit. Besonders wirksam sind Inhalte, die konkrete Nutzerintentionen direkt beantworten und logisch gegliedert sind. LLM Triggers spielen deshalb eine wichtige Rolle für AEO und GEO, da sie die Zitier- und Extraktionsfähigkeit von Inhalten verbessern können.

LLMO (Large Language Model Optimization)

Gezielte Optimierung von Inhalten für große Sprachmodelle (Large Language Models).

LLMO fokussiert auf eine KI-gerechte Inhaltsstruktur: klar gegliederte Themen, eindeutige Semantik, präzise Antworten, saubere HTML-Struktur und logische Argumentationslinien, damit Modelle den Inhalt besser verstehen und einordnen können.

Der Begriff wird häufig synonym zu GEO verwendet und zielt darauf ab, die Wahrscheinlichkeit zu erhöhen, dass eine Marke oder ein Inhalt in den generierten Antworten von KIs wie ChatGPT oder Claude positiv erwähnt wird.

Merksatz: LLMO macht Inhalte verständlicher für Maschinen, GEO macht Inhalte wahrscheinlicher zitierbar in KI-Antworten.

Zurück zur Navigation

M–P

M

▸ Machine-Readable Content

Inhalte, die von Maschinen klar strukturiert und eindeutig interpretiert werden können.

Dazu gehören sauberes HTML, klare Überschriften, Listen und strukturierte Daten wie Schema.org. Die Inhalte sind so aufgebaut, dass einzelne Aussagen gezielt extrahiert werden können. Das erleichtert Suchmaschinen und KI-Systemen das Verstehen, Verknüpfen und Zitieren.

Microsoft Copilot

KI-Assistent von Microsoft, der generative KI direkt in Produkte wie Windows, Edge, Bing und Microsoft 365 integriert.

Das System kombiniert große Sprachmodelle mit Websuche, Unternehmensdaten und Office-Anwendungen, um Antworten, Zusammenfassungen, Texte, Analysen oder Automatisierungen zu erzeugen. Technisch basiert Copilot stark auf der Infrastruktur von OpenAI und der Bing-Suche. Für Unternehmen wird damit die Sichtbarkeit in KI-Systemen zunehmend wichtiger als reine Rankings in klassischen Suchergebnissen.

Im SEO- und GEO-Kontext ist Copilot relevant, weil Inhalte aus dem Web für KI-Antworten, Quellenangaben und Zusammenfassungen genutzt werden können.

Mehr über Microsoft Copilot

Midjourney

Ein führendes KI-System zur Generierung hochwertiger Bilder aus Textbeschreibungen (Prompts).

Hinsichtlich GEO und der modernen Content-Strategie spielt es eine zentrale Rolle bei der Erstellung einzigartiger visueller Inhalte. Diese tragen zum Information Gain bei und verbessern die Page Experience, da generative KI-Systeme und Suchmaschinen zunehmend multimodale Inhalte (Text und Bild kombiniert) bewerten und in den Suchergebnissen sowie AI Overviews anzeigen.

▸ Model Context Protocol (MCP)

Offener Standard zur strukturierten Übergabe von Kontext, Daten und Werkzeugen an KI-Modelle

Das Model Context Protocol (MCP) wurde vom Unternehmen Anthropic entwickelt. Es definiert, wie externe Daten, Tools und Funktionen einheitlich eingebunden werden. Ziel ist es, LLMs nicht isoliert, sondern eingebettet in reale Systeme arbeiten zu lassen. MCP trennt klar zwischen Modell, Datenquelle und Ausführungslogik. Das verbessert Kontrolle, Erweiterbarkeit und die Qualität der generierten Antworten.

▸ Multimodale Suche

Kombination verschiedener Eingabeformen wie Text, Bild, Sprache oder Video innerhalb einer Suchanfrage.

Multimodale Suche beschreibt die Fähigkeit von KI-Systemen, verschiedene Eingabeformate wie Text, Bilder, Audio und Video gleichzeitig zu verarbeiten und miteinander zu verknüpfen. Für die Optimierung bedeutet das, dass neben Texten auch visuelle und auditive Inhalte klar strukturiert und semantisch aufbereitet sein müssen.

N

▸ Natural Language Query

Suchanfragen in natürlicher Alltagssprache statt in Keyword-Kombinationen.

▸ Niche Authority (Nischenautorität)

Thematische Autorität und absolute fachliche Dominanz einer Website innerhalb eines scharf abgegrenzten Spezialgebiets.

Niche Authority gilt als die konsequente Steigerung der Topic Authority und beschreibt die Positionierung als unangefochtene Expertenquelle für eine spezifische Nische
. Während Generalisten oft nur Oberflächenwissen bieten, bevorzugen KI-Systeme und Answer Engines bei tiefgehenden Fachfragen spezialisierte Quellen, da diese eine höhere Source Authority und fachliche Tiefe aufweisen
.
Der Aufbau von Nischenautorität erfolgt meist durch systematische Topical Cluster, die ein Thema in seiner gesamten Breite und Tiefe abdecken
. Im Zeitalter von Small Language Models (SLM) gewinnt dieser Ansatz zusätzlich an Bedeutung, da spezialisierte KI-Modelle gezielt nach solchen fundierten Wissensquellen suchen, um die Faktentreue (Faithfulness) ihrer Antworten sicherzustellen
. Damit ist Niche Authority ein zentraler Baustein für das E-E-A-T-Konzept, da sie das Vertrauen von Nutzern und Maschinen gleichermaßen stärkt

▸ NotebookLM

Ein KI-gestütztes Tool von Google zur Wissensorganisation, das auf dem Modell Gemini basiert.

NotebookLM nutzt die Methode der Retrieval Augmented Generation (RAG), um Antworten ausschließlich auf Basis vom Nutzer bereitgestellter Quellen zu generieren. Es dient Websitebetreibern als wichtiges Testfeld, um die „KI-Lesbarkeit“ ihrer Dokumente zu prüfen.

Mehr über NotebookLM

Nutzersignale

Daten, die das Verhalten von Besuchern auf einer Website beschreiben, wie etwa die Verweildauer oder Interaktionen.

Diese Signale helfen Suchmaschinen und KI-Systemen zu bewerten, wie relevant und hilfreich ein Inhalt tatsächlich für die Beantwortung einer Suchanfrage ist.

P

▸ Passage Ranking

Technik von Suchmaschinen, einzelne Abschnitte (Passagen) innerhalb einer Seite unabhängig zu bewerten.

Nicht mehr nur die gesamte Seite zählt, sondern auch die Relevanz einzelner Textteile. So können spezifische Antworten aus langen Inhalten gezielt in den Suchergebnissen erscheinen. Das erhöht die Chance auf Sichtbarkeit, auch wenn die Seite als Ganzes nicht perfekt rankt.

Perplexity

Eine KI-gestützte Such- und Antwortmaschine, die Informationen aus verschiedenen Quellen zusammenfasst und direkt beantwortet.

Perplexity durchsucht das Internet in Echtzeit durchsucht, um präzise Antworten mit direkten Quellenangaben zu generieren. Sie gilt als einer der wichtigsten Pioniere im Bereich GEO, da sie den Fokus von einer Linkliste hin zu einer direkt zitierten Antwort verschoben hat.

▸ Pillar Content

Ein umfassender Hauptartikel, der als Basis für ein Themencluster dient.

Pillar Content ist eine umfassende, zentrale Seite, die ein Thema ganzheitlich abdeckt - ein Hauptartikel. Die Seite bildet das Fundament eines Content Hubs und verlinkt gezielt auf vertiefende Unterseiten. Ziel ist es, ein Thema strukturiert, vollständig und verständlich darzustellen. Suchmaschinen erkennen so klare Themenautorität und inhaltliche Tiefe. Für Nutzerinnen und Nutzer entsteht ein Einstiegspunkt, von dem aus sie alle relevanten Aspekte erreichen.

Mehr über Pillar-Content

Prompt

Eingabe oder Anweisung, mit der ein KI-System gesteuert und zu einer bestimmten Ausgabe veranlasst wird.

Ein Prompt ist die Eingabe oder Frage, die ein Nutzer an eine KI stellt.  Die Qualität eines Prompts beeinflusst die Qualität der Antwort. In der KI-Suche spielt die Formulierung der Frage eine wichtige Rolle.

Zurück zur Navigation

Q–T

Q

Query Fan-Out

Prozess, bei dem eine KI eine komplexe Anfrage in mehrere Teilfragen zerlegt.

So kann Die KI verschiedene Aspekte eines Themas parallel prüfen, bewerten und zusammenführen. Das verbessert die Chance auf präzisere, vollständigere und kontextstärkere Antworten.

Praktischer Leitfaden Query Fan-out

Qwen

Familie von leistungsstarken Large Language Models, die von der Alibaba Group entwickelt wurden.

Als eines der weltweit führenden Open-Source-Modelle spielt Qwen eine zentrale Rolle in der globalen KI-Infrastruktur und insbesondere in asiatischen AI Search-Systemen. Die Modelle dienen vielen Entwicklern als technische Grundlage für eigene KI-Anwendungen und Suchsysteme.

Für eine internationale SEO- und GEO-Strategie ist Qwen von großer Bedeutung, um Sichtbarkeit in quelloffenen KI-Anwendungen zu erlangen und als zitierfähige Quelle in diesen Systemen stattzufinden.

R

▸ Retrieval Augmented Generation (RAG)

Verbindung von Sprachmodellen mit externen Wissensquellen für präzisere und aktuellere Antworten.

Retrieval Augmented Generation (RAG) kombiniert generative KI mit externer Informationssuche. Das Modell greift gezielt auf Dokumente oder Datenquellen zu, bevor es eine Antwort erstellt. So werden aktuelle, geprüfte Inhalte in die Generierung eingebunden. Das reduziert Halluzinationen und erhöht die inhaltliche Genauigkeit. Quellen können dabei intern (z. B. Datenbanken) oder extern (Web) liegen. Für SEO heißt das: Inhalte müssen auffindbar, klar strukturiert und zitierfähig sein.

Mehr über RAG

▸ RAG-Triade

Zusammenspiel aus Retrieval, Sprachmodell und externer Wissensquelle innerhalb eines RAG-Systems.

RAG-Triade bezeichnet ein Bewertungsmodell zur Qualitätskontrolle von Retrieval-Augmented-Generation-Systemen (RAG). Ziel ist es, die Zuverlässigkeit, Relevanz und Faktentreue KI-generierter Antworten messbar zu machen. Die Triade besteht aus drei zentralen Bewertungsdimensionen.

  • Faithfulness prüft, ob eine Antwort tatsächlich auf den bereitgestellten Quellen basiert und keine erfundenen Informationen enthält. Damit dient die Metrik vor allem der Kontrolle von Halluzinationen.
  • Answer Relevance bewertet, wie präzise die generierte Antwort auf die konkrete Nutzerfrage eingeht.
  • Context Precision misst, ob das System die relevantesten Inhalte aus der Wissensbasis oder Vektordatenbank ausgewählt hat.

Für GEO und AEO ist die RAG-Triade besonders wichtig, weil moderne KI-Systeme Inhalte nicht mehr vollständig „kennen“, sondern situativ aus externen Quellen abrufen. Webseiten mit klar strukturierten, semantisch präzisen und gut chunkbaren Informationen erhöhen die Wahrscheinlichkeit, dass ihre Inhalte korrekt extrahiert, verstanden und in generativen Antworten verwendet werden. Dadurch kann langfristig auch die wahrgenommene Quellenautorität in Answer Engines steigen.

▸ Robots.txt für KI-Steuerung

Textdatei im Hauptverzeichnis einer Website, die Anweisungen für Webcrawler enthält.

Im Kontext von KI wird sie zunehmend genutzt, um spezifischen Bots (wie dem GPTBot) den Zugriff zu verweigern oder zu erlauben, um die Nutzung eigener Inhalte als Trainingsdaten zu steuern.

S

▸ Schema.org

Weltweiter Standard zur Auszeichnung strukturierter Daten im Web.

Dieser hilft Suchmaschinen, Inhalte eindeutig zu verstehen und semantisch einzuordnen. Typische Anwendungen sind Markups für Artikel, Personen, Produkte oder FAQs. Richtig eingesetzt ermöglicht es Rich Snippets und erweiterte Darstellungen in der Suche. Für KI-Systeme liefert es klare, maschinenlesbare Signale zu Inhalt und Kontext.

▸ Semantic Markup

Semantische Auszeichnungen im Code zur besseren Verständlichkeit von Inhalten für Suchmaschinen und KI-Systeme.

Semantic Markup bezeichnet HTML-Auszeichnungen, die die Bedeutung von Inhalten klar beschreiben. Elemente wie <article>, <header> oder <strong> geben Struktur und Kontext statt nur Darstellung. Suchmaschinen und KI-Systeme verstehen Inhalte dadurch präziser. Das erleichtert Indexierung, Interpretation und gezielte Extraktion von Informationen.

▸ Semantic Search

Suchtechnologie, die den Sinn und Kontext einer Anfrage statt nur Keywords interpretiert.

Nicht einzelne Keywords stehen im Fokus, sondern Kontext, Intention und Zusammenhänge. Dabei werden Entitäten, Beziehungen und Nutzerabsicht einbezogen. So entstehen relevantere Ergebnisse, die besser zur tatsächlichen Frage passen.

▸ Small Language Models (SLM)

Kompakte KI-Sprachmodelle, die im Vergleich zu Large Language Models deutlich weniger Parameter besitzen.

Dadurch benötigen sie weniger Rechenleistung, arbeiten schneller und können oft lokal auf Unternehmensservern, Edge-Geräten oder sogar Smartphones betrieben werden.
Im Gegensatz zu universellen Large Language Models sind SLMs häufig auf bestimmte Aufgaben, Branchen oder Wissensgebiete spezialisiert. Sie eignen sich deshalb besonders für datenschutzkritische Anwendungen, interne Wissenssysteme oder spezialisierte KI-Assistenten in Unternehmen.
Für SEO, AEO und GEO sind SLMs relevant, weil Inhalte künftig nicht nur von wenigen großen KI-Systemen verarbeitet werden. Immer mehr spezialisierte Anwendungen nutzen kleinere Modelle, die gezielt nach klar strukturierten, semantisch eindeutigen und fachlich präzisen Informationen suchen. Dadurch gewinnt thematische Nischenautorität zusätzlich an Bedeutung.

▸ Source Attribution

Die Zuordnung und Nennung von Quellen in Suchergebnissen oder KI-Antworten.

Dabei wird sichtbar gemacht, aus welchen Inhalten eine Information stammt. Das schafft Transparenz und Vertrauen für Nutzer. Für Websites ist es entscheidend, als Quelle erkannt und genannt zu werden. Ein zentraler Faktor für Sichtbarkeit in Answer Engines.

▸ Source Authority

Die wahrgenommene Vertrauenswürdigkeit und Glaubwürdigkeit einer Quelle.

Sie entsteht durch Expertise, Erfahrung, Konsistenz und externe Signale wie Erwähnungen oder Links. Suchmaschinen und KI-Systeme bevorzugen Inhalte aus solchen Quellen. Je höher die Source Authority, desto wahrscheinlicher ist eine Zitierung.

Structured Data

Maschinenlesbare Zusatzinformationen im HTML-Code einer Website.

Sie beschreiben Inhalte so, dass Suchmaschinen und KI-Systeme deren Bedeutung leichter erkennen können. Häufig werden dafür Schema.org-Auszeichnungen im JSON-LD-Format verwendet.

Structured Data können zum Beispiel angeben, ob es sich bei einem Inhalt um einen Artikel, ein FAQ, ein Produkt, eine Organisation, eine Person oder ein Rezept handelt. Dadurch werden nicht nur einzelne Wörter gelesen, sondern Inhaltstyp, Kontext und Beziehungen klarer eingeordnet.

Im klassischen SEO helfen strukturierte Daten bei der besseren Darstellung in Suchergebnissen, etwa durch Rich Results. Im Kontext von AEO und GEO sind sie zusätzlich wichtig, weil sie Inhalte für KI-Systeme eindeutiger, extrahierbarer und quellenfähiger machen.

Structured Data ersetzen keine guten Inhalte. Sie verstärken aber deren maschinelle Verständlichkeit. Eine sauber strukturierte Seite mit klaren Entitäten, Autorenangaben, Aktualisierungsdaten und passenden Schema-Typen hat bessere Chancen, von Suchmaschinen und Answer Engines korrekt interpretiert zu werden.

T

▸ Token

Die kleinsten Verarbeitungseinheiten, mit denen Large Language Models (LLMs) Text analysieren, speichern und erzeugen.

Ein Token kann ein ganzes Wort, ein Wortteil, ein Satzzeichen oder ein Leerzeichen sein. Als grobe Faustregel gilt: Ein Token entspricht etwa vier Zeichen oder ungefähr ¾ eines englischen Wortes.

Für KI-Systeme sind Token wichtig, weil Modelle Texte nicht als ganze Sätze „lesen“, sondern in solche Einheiten zerlegen. Auch das sogenannte Kontextfenster eines Modells wird in Token gemessen. Es bestimmt, wie viel Text ein Modell gleichzeitig berücksichtigen kann.

Für SEO, AEO und GEO ist das relevant, weil lange Inhalte nicht automatisch vollständig verarbeitet werden. Entscheidend ist, dass wichtige Aussagen klar, kompakt und früh im Text erscheinen. Gut strukturierte Abschnitte, präzise Definitionen und eigenständig verständliche Content-Blöcke erhöhen die Chance, dass KI-Systeme die relevanten Informationen korrekt erfassen und weiterverarbeiten.

Topic Authority

Die thematische Autorität einer Website innerhalb eines bestimmten Fachgebiets.

Topic Authority entsteht nicht durch einzelne gute Artikel, sondern durch eine erkennbare inhaltliche Tiefe über viele zusammenhängende Seiten hinweg.

Eine Website mit hoher Topic Authority behandelt ein Thema umfassend, präzise und konsistent. Dazu gehören Grundlagenartikel, vertiefende Fachbeiträge, Begriffserklärungen, Praxisbeispiele, interne Verlinkung und klare semantische Beziehungen zwischen den Inhalten.

Für klassisches SEO ist Topic Authority wichtig, weil Suchmaschinen besser erkennen können, wofür eine Website fachlich steht. Für AEO und GEO wird sie noch relevanter: KI-Systeme bevorzugen Quellen, die nicht nur eine einzelne Antwort liefern, sondern über ein Thema hinweg belastbar, spezialisiert und vertrauenswürdig wirken.

Topic Authority entsteht deshalb durch Content-Dichte, fachliche Genauigkeit, strukturierte Themencluster und wiedererkennbare Expertise. Je klarer eine Website ein Themenfeld besetzt, desto höher ist die Chance, in Suchmaschinen und Answer Engines als relevante Quelle wahrgenommen zu werden.

Topical Cluster

Ein Netzwerk aus inhaltlich zusammenhängenden und intern verlinkten Seiten, die ein gemeinsames Thema systematisch abdecken.

Im Zentrum steht meist eine Hauptseite, auch Pillar Page genannt. Sie behandelt das Kernthema überblicksartig und verlinkt auf vertiefende Unterseiten.

Diese Unterseiten beantworten einzelne Teilfragen, erklären Begriffe, vergleichen Varianten oder behandeln konkrete Anwendungsfälle. Durch die interne Verlinkung entsteht ein klarer thematischer Zusammenhang.

Für SEO hilft ein Topical Cluster dabei, Relevanz und Topic Authority aufzubauen. Suchmaschinen erkennen besser, dass eine Website ein Thema nicht nur oberflächlich erwähnt, sondern strukturiert und umfassend behandelt.

Für AEO und GEO sind Topical Cluster ebenfalls wichtig, weil KI-Systeme Inhalte stärker über Themenzusammenhänge, Entitäten und semantische Beziehungen bewerten. Ein sauber aufgebautes Cluster erhöht die Chance, dass einzelne Inhalte als relevante Quelle für präzise Antworten ausgewählt werden.

▸ Training Data

Daten, mit denen ein KI-Modell trainiert wird.

Sie bestimmen, was das Modell lernt und wie gut es Zusammenhänge versteht. Qualität, Vielfalt und Aktualität der Daten sind entscheidend für die Ergebnisse. Fehlerhafte oder verzerrte Daten führen zu ungenauen oder einseitigen Antworten.

Zurück zur Navigation

U–Z

V

▸ Vector Embeddings

Mathematische Repräsentationen von Wörtern, Sätzen oder ganzen Dokumenten in Form numerischer Vektoren.

Sie bilden die technische Grundlage moderner semantischer Suche und ermöglichen KI-Systemen, Bedeutungen statt nur exakter Keywords zu vergleichen. Inhaltlich ähnliche Begriffe liegen dabei im Vektorraum nahe beieinander – auch wenn unterschiedliche Formulierungen verwendet werden. Dadurch können LLMs, Suchmaschinen und Retrieval-Systeme  Zusammenhänge, Themen und Nutzerintentionen deutlich besser erkennen.

Embeddings spielen eine zentrale Rolle bei RAG-Systemen, Query Fan-Out, Entity Retrieval und KI-gestützter Suche.

▸ Vektordatenbank (Vector Database)

Speicher für Inhalte als mathematische Vektoren, damit KI-Systeme semantisch ähnliche Informationen schnell finden und vergleichen können.

Vektordatenbanken sind spezialisierte Datenbanken, die Inhalte nicht nur als Text, sondern als numerische Embeddings in einem mehrdimensionalen Raum speichern. Im Gegensatz zu klassischen Keyword-Abfragen ermöglichen sie semantische Suche, indem sie die inhaltliche Nähe von Informationen mathematisch berechnen. Für GEO und AEO sind sie wichtig, weil sie das technologische Rückgrat vieler RAG-Systeme bilden. So können KI-Systeme und Tools wie NotebookLM aus großen Datenmengen schnell passende Textpassagen extrahieren. Für die Optimierung heißt das: Inhalte sollten klar, fokussiert und gut strukturiert sein, damit sie semantisch eindeutig erfasst werden können.

▸ Voice Search

Suchanfragen, die per Sprache statt über Texteingabe gestellt werden.

Voice Searches sind meist länger, natürlicher formuliert und oft als konkrete Frage aufgebaut. Suchsysteme müssen Kontext, Intention und gesprochene Sprache verstehen. Ergebnisse werden häufig direkt vorgelesen statt als Liste angezeigt.

Mehr Infos über Voice Search

Z

Zero-Click Search

Suchanfragen, bei denen Nutzer ihre Antwort direkt auf der Ergebnisseite erhalten.

Die Nutzer müssen keine Website mehr besuchen. Für Websitebetreiber wird es deshalb wichtiger, als Quelle in diesen Antworten zu erscheinen.

Zurück zur Navigation