GEO Service Line von Null: Der ultimative Agentur-Guide
Praxisnaher Ultimate Guide für Agenturen zum Aufbau einer GEO Service Line – inklusive Blueprint, KPIs, Pricing und operativen Beispielen. Jetzt lesen!
Die Nachfrage verschiebt sich weg von reinen Klicks hin zu direkten Antworten. Marken wollen in generativen Ergebnissen sichtbar und zitierfähig sein – über Google AI Overviews/AI Mode, ChatGPT, Perplexity, Bing Copilot und Gemini. Dieser Guide zeigt, wie Sie als Agentur in 90 Tagen eine belastbare GEO‑Leistung aufbauen, die Kunden verstehen, kaufen und messen können.
Was ist GEO – und worin unterscheidet es sich von SEO/AEO/LLMO?
Generative Engine Optimization (GEO) bezeichnet Praktiken, die Inhalte so strukturiert, belegt und auffindbar machen, dass generative Antwortmaschinen sie aufgreifen und zitieren. Branchenpublikationen beschreiben GEO als Erweiterung klassischer SEO‑Grundlagen um Zitierbarkeit, Evidenz und Maschinenlesbarkeit. Eine prägnante Einführung liefert Search Engine Land in „What is generative engine optimization (GEO)? (2024)“. Ergänzend skizziert HubSpot die Antwortmaschinen‑Perspektive in „Answer engine optimization best practices (2025)“ und grenzt Begriffe wie AEO und GEO ein.
Den Begriff „AI Visibility“ können Sie in dieser internen Vertiefung mit Beispielen nachschlagen: „AI Visibility: Definition und Brand Exposure in AI‑Search“.
Der 90‑Tage‑Blueprint: Von Null zur lauffähigen GEO‑Leistung
Phase 1 (Tage 0–14): Discovery, Dateninventar, Baseline‑Audit
Ziel dieser Phase ist Entscheidungsreife in zwei Wochen. Sammeln Sie Query‑Cluster, Entitäten, vorhandene Inhalte, technische Rahmen (CMS, Schema‑Status), Verlinkungen und Earned‑Media‑Signale. Liefert das Audit eine belastbare Baseline, können Prioritäten gesetzt werden. Dazu gehören ein AI‑Visibility‑Audit mit Citation Count/Rate, Sentiment‑Index und AI Share of Voice pro Themen‑Cluster, ein Entity‑Mapping mit Lücken, sowie eine Hypothesenliste mit den 80/20‑Hebeln (z. B. fehlende FAQ‑Sektionen oder unzureichende Belege). Eine kompakte KPI‑Einführung bietet „AI‑Sichtbarkeit KPIs & Best Practices (DE)“.
Phase 2 (Tage 15–45): Hypothesen & Plan, Content/Schema‑Sprints, DPR‑Setup
Ziel ist ein umsetzungsfähiger Fahrplan und zwei kurze Content‑Sprints. Arbeiten Sie mit klaren Entitäten, Q&A‑Sektionen, Belegsätzen, TL;DR‑Zusammenfassungen und schema.org‑Markup (FAQ, HowTo, Product/Pricing, Review/Rating). Backlinko betont in „AI search strategy (2025)“ und in „LLM seeding“ die Rolle sauber belegter Inhalte und strukturierter Distribution über mehrere Kanäle. Parallel richtet das PR‑Team Daten‑Hooks und Medienlisten ein, und das Measurement‑Team plant Query‑ und Plattform‑Tests mit klarer Dokumentation.
Phase 3 (Tage 46–90): Plattform‑Tests, Reporting‑Kadenz, Go‑to‑Market
Jetzt folgt der evidence‑basierte Rollout. Testen Sie Inhalte gezielt in AI‑Plattformen (Fragenvarianten, Follow‑ups, Lokalisierung) und definieren Sie Reporting‑Rhythmen (wöchentlich operativ, monatlich Management, quartalsweise Benchmarks). Für Vorstände und CMOs hilft der Kontext aus dem „McKinsey State of Marketing 2024 Report“ (Governance, Reporting‑Linien) bei der Einordnung. Als Deliverables stehen ein Quartals‑Benchmark (Δ zu 90 Tagen) und ein Go‑to‑Market‑Kit (Sales‑Sheets, Beispiel‑Report, SOP‑Diagramm, Compliance‑Hinweise).
Rollen, Skills, SLAs
Ein GEO Strategist verantwortet Hypothesen, Priorisierung und Go‑to‑Market entlang der Kundenziele. Ein Technical SEO/Schema Engineer sorgt für Markup, Performance und Crawlability. Der Content Lead/Editor steuert Entitäten, Belege, Q&A/TL;DR, Redaktionskalender und Qualitätssicherung. Digital PR/Outreach baut Earned Citations auf und orchestriert Daten‑Hooks. Ein Data Analyst (AI Visibility) instrumentiert die Messung, validiert KPIs und führt Stichproben‑QA durch. PM/Client Services sichert SLAs und die Kommunikation.
SLAs, die sich bewährt haben: operative Weeklies plus monatliche Management‑Reviews; Ad‑hoc‑Analysen binnen 3–10 Arbeitstagen; tägliche oder wöchentliche Datenupdates mit dokumentierten Latenzen; für kritische Mentions/Fehlzitate eine Erstreaktion binnen 1–4 Stunden und Lösung binnen 24–72 Stunden.
Service Packaging & Pricing
Eine robuste Servicelinie besteht aus fünf Modulen: Audit & Strategy, Content & Schema, Digital PR & Mentions, Measurement sowie Enablement/Training. Die Preisgestaltung hängt von Scope, Regionen und Komplexität ab, folgende Richtwerte haben sich als Bandbreite etabliert:
| Paket/Leistung | Richtwert (EUR) |
|---|---|
| Einmal‑Audit | 3.000–25.000 |
| Retainer SMB‑Light (monatlich) | 2.000–8.000 |
| Retainer Mid‑Market (monatlich) | 8.000–20.000 |
| Retainer Enterprise (monatlich) | 20.000–50.000+ |
| Hybrid (Retainer + Performance) | +5–30% Fee |
Für Statements of Work (SOW) gilt: Scope sauber begrenzen (z. B. Anzahl Themen‑Cluster, Inhalte/Monat, Outreach‑Zyklen), Change‑Requests in T‑Shirt‑Größen mit kalkulierbaren Aufschlägen regeln und Abnahmekriterien je Deliverable schriftlich fixieren (Schema validiert, Quellen geprüft, Stichproben‑QA dokumentiert).
KPIs & Measurement, die Kunden akzeptieren
Operative Messgrößen machen GEO greifbar. Dazu zählen Citation Count/Rate (Anzahl Erwähnungen/Zitationen pro Zeitraum, oft normalisiert pro Content‑Volumen), AI Share of Voice (Anteil AI‑bezogener Erwähnungen), ein gewichteter Sentiment‑Index (z. B. (Pos–Neg)/(Pos+Neg+Neu), ggf. mit Source‑Trust‑Gewichtung), AI‑Referrals bzw. Assist‑Conversions (Conversions mit AI‑Touchpoints via Server‑Side Events, Session‑IDs, UTM; Attribution linear, time‑decay oder algorithmisch) und die Entity‑Coverage (Erkennung relevanter Entitäten, mit Precision/Recall/F‑Scores). Grundlagen zur Visibility‑Messung liefert u. a. „How to measure brand visibility (Search Engine Land, 2025)“. Eine vertiefte KPI‑Erläuterung in deutscher Sprache finden Sie im Beitrag „AI‑Sichtbarkeit KPIs & Best Practices“.
Berichts‑Layouts, die Kund:innen schnell verstehen: ein Executive GEO‑Overview (30/90/365 Tage) mit Citation Count, Sentiment‑Index, AI‑SOV, Assist‑Conversion‑Rate und Entity‑Coverage inklusive Δ‑Werten und Ampel‑Indikatoren; Channel/Region‑Drilldowns mit SOV, Top‑Quellen, Entitäten und Sentiment; sowie ein Conversion‑/Attribution‑Funnel mit AI‑Assist‑Touchpoints und A/B‑Lift.
Tool‑Stack (neutral) und Workflow‑Beispiel
Der Stack sollte vier Aufgaben abdecken: Monitoring der AI‑Sichtbarkeit (Mentions, Zitationen, Sentiment, Verlauf), semantische Content‑Optimierung (Topic‑Tiefe, Q&As, Wettbewerbsabdeckung), Digital‑PR/Outreach (Earned Media, Medienlisten) sowie Schema/Wissensgraph‑Management (Markup, Entity‑Linking). Beispiele für entsprechende Tools sind Geneo und Profound (Monitoring/Analytics), MarketMuse/Clearscope (Semantik), Muck Rack/Meltwater/Pitch (Outreach) sowie Schema App/WordLift (Schema/Wissensgraph). Nehmen Sie diese Liste als Anstoß – Ihr konkreter Mix richtet sich nach Team‑Skills und Kundenbedarf.
Praxisbox: Cross‑Plattform Citation Tracking – so wird’s reproduzierbar Definieren Sie ein fixes Query‑Set (z. B. 30 primäre Info‑ und Vergleichsfragen) und planen Sie regelmäßige Plattform‑Runs über ChatGPT (mit/ohne Browsing), Perplexity, Bing Copilot, Google AI Overviews/AI Mode und Gemini. Testen Sie pro Frage 2–3 Formulierungsvarianten, protokollieren Sie Datum, Region und Prompt. Erfassen Sie Erwähnungen/Zitationen, deduplizieren Sie sie und gewichten Sie nach Source‑Trust. Validieren Sie eine Stichprobe manuell und berichten Sie Δ‑Werte gegenüber der 90‑Tage‑Baseline, um Content‑ und PR‑Sprints zu steuern.
Disclosure: „Geneo ist unser Produkt.“ Es kann die oben beschriebenen Schritte als plattformübergreifende Monitoring‑Schicht (Mentions, Zitationen, Sentiment, Historie) unterstützen und in Multi‑Brand‑Setups eingesetzt werden. Alternativ lässt sich ein ähnlicher Messrahmen mit anderen Lösungen aufbauen, etwa mit den Workflows, die Profound in „10‑Step Framework for Generative Engine Optimization (2025)“ skizziert. Wie ein neutraler Query‑Report aussehen kann, zeigt dieser anonymisierte Überblick: „AI‑Visibility Query‑Report: Enterprise Database DR Planning“.
Einen neutralen Überblick zur Bewertung von Prompt‑Level‑Visibility‑Tools finden Sie hier: „Prompt‑Level Visibility: Toolreview“.
Plattform‑Spezifika & Tests
Google AI Overviews/AI Mode integriert generative Antworten in die Suche – mit Gemini‑Modellen und Follow‑up‑Funktionen. Offizielle Produktupdates finden Sie in „Google Search: AI Mode update (2025)“. In der Praxis helfen strukturierte Inhalte (FAQ/HowTo/Schema), klare Belegsätze, sichtbare Autoren/Datumsangaben sowie saubere interne Verlinkung. Perplexity arbeitet retrieval‑first mit expliziten Quellen; in vielen Tests korrelieren die Quellen mit autoritativen Web‑Dokumenten. Bing Copilot kombiniert den Bing‑Index mit generativen Antworten und sichtbaren „Sources“. Bei ChatGPT sind Web‑Zitate ohne Browsing nicht verfügbar, mit Browsing/Integrationen jedoch möglich – allerdings nicht so einheitlich wie SERP‑Panels. Gemini ist nativ in die Suche eingebunden und zeigt Quellen im Overview‑Panel.
Für Trigger‑Raten, Klickeffekte und Tracking‑Kniffe in der AI‑Suche empfehle ich „AI‑Search: Nutzerverhalten 2025“.
Risiken, Compliance, Qualitätskontrollen
Vermeiden Sie Over‑Promising und arbeiten Sie mit Bandbreiten und Δ‑Werten, die methodisch belegt sind. Halten Sie Datenschutz/DSGVO ein – insbesondere bei Attribution via Server‑Side Events, UTM und Session‑IDs – und dokumentieren Sie Datenminimierung sowie Zugriffskontrollen. E‑E‑A‑T stützen Sie durch Autorenseiten, Publikationsdaten, Methodikabschnitte, Originaltabellen, Peer‑Belege (Primärquellen) und Stichproben‑Reviews. Für kritische/negative Mentions benötigen Sie ein Incident‑Playbook mit Tonality‑Guidelines und einem Prozess für Korrekturbitten; jurische Schritte bleiben die Ausnahme und erfolgen nur nach Prüfung.
Nächste Schritte für Agenturen
Starten Sie mit einem fokussierten 90‑Tage‑Pilot (zwei bis drei Themen‑Cluster, klare KPIs, strikte Dokumentation). Produktisieren Sie anschließend: Pakete, SLAs, SOW‑Vorlagen, Benchmarks und Sales‑Assets. Richten Sie klare Verantwortlichkeiten und QA‑Gateways ein. Etablieren Sie eine monatliche Mess‑/Lernschleife mit Quartals‑Benchmarks und iterativen Content/PR‑Sprints.
Wenn Sie eine neutrale Monitoring‑Schicht für Mentions/Zitationen/Sentiment benötigen, können Sie „Geneo“ testen (Soft‑Hinweis; siehe Disclosure oben) – oder die in diesem Guide verlinkten Alternativen prüfen. Entscheidend ist, dass Ihr Stack die beschriebenen KPIs zuverlässig misst und auditierbar macht.