How is your website ranking on ChatGPT?
Citation Scarcity in Googles AI Overviews nach der Penske‑Klage: So besetzt ihr die Quellenlücken mit AEO
Wenn große Publisher blocken oder auslisten, entstehen vertikale Quellenlücken. Genau dort priorisieren LLMs überprüfbare First‑Party‑Fakten. Mit signierten Fact Islands, ClaimReview, Dataset‑Schema und LLM‑Fetch‑Endpoints erhöht ihr eure Share‑of‑Answer und verhandelt mittelfristig aus Stärke.

Vicky
Sep 20, 2025
Warum Citation Scarcity jetzt eskaliert
Am 14. September 2025 hat Penske Media Google wegen AI Overviews verklagt. Der Fall verschärft den Anreiz für Publisher, KI‑Zugriffe zu sperren oder zu lizenzieren. In betroffenen Vertikalen entstehen Quellenlücken, die LLMs mit robusten, maschinenlesbaren First‑Party‑Fakten füllen. Siehe die Berichterstattung bei Reuters: Penske sues Google over AI Overviews.
Die Kernthese in einem Satz
Wer entstehende Lücken mit lizenzierbaren, signierten und aktuellen First‑Party‑Fakten besetzt, gewinnt kurzfristig Zitate und mittelfristig bessere Verhandlungsmacht in vertikalen Ökosystemen.
Playbook in drei Schritten
1) Quellenlücken identifizieren und priorisieren
- Vertikale Scans: Entertainment, Musik, Film, Games, Health, Finance. Priorität dort, wo bekannte Marken in Overviews fehlen oder nur knapp erscheinen.
- Query‑Cluster bilden: Nachfrage, Saisonalität, Entitäten‑Graf. Bewertet mit einem Cluster‑Score aus Nachfrage, Wettbewerbsdichte, Zitationsdichte und Monetarisierung.
- Signals für Lücken: wenige generische Quellenangaben, wiederkehrende unzitierte Aussagen, fehlende Primärquellen, viele „Was ist“ und „Wer ist“ Fragen zu markenstarken Entitäten.
2) Fact Islands als zitierfähige First‑Party‑Fakten bauen
- Informationsarchitektur: Ein Claim pro URL mit kurzer, überprüfbarer Kernaussage plus Evidenzabschnitt. Stabile, versionierte Permalinks und klare Aktualisierungsintervalle.
- Strukturierte Daten: JSON‑LD für Dataset‑Sammlungen und konsistente Felder wie publisher, author, about, datePublished, dateModified, isBasedOn, sameAs. ClaimReview einsetzen, wenn ihr geprüfte Behauptungen mitsamt Bewertung und Belegen publiziert.
- Provenienz absichern: Nutzt das C2PA Content Credentials standard für Text, Bilder, Tabellen und PDFs. Signierte Assertions mit Erstellungszeit, Herausgeber, Hash und Quellpfaden, plus öffentliche Prüf‑URL.
- Lizenzklarheit: Machine‑readable Lizenzen und Nutzungsbedingungen. Rechte‑Policy als JSON, klare Snippet‑Freigaben und Attributionserfordernisse.
- Technische Qualität: saubere Canonicals, eindeutige IDs, ETags, Last‑Modified, starke 304‑Ökonomie, Sitemaps für /facts und /datasets. Performance‑Budgets, no‑bloat HTML, barrierearme Layouts.
3) LLM‑Fetch‑Endpoints bereitstellen
- API‑Design: /api/facts und /api/datasets mit Content Negotiation application/json. Antwortfelder: claim_id, statement, evidence_items, citations, updated_at, publisher, license, hash, language, jurisdiction.
- Freshness und Korrelation: HEAD‑Support, soft TTL, Server‑Timestamps, Änderungsfeeds via SSE oder WebSub. Delta‑Feeds für Charts, Preise und Termine.
- Reliability: Rate Limits, Cache‑Hints, eindeutige Fehlercodes, Statusfelder für Deprecation und Superseded‑Claims.
Go‑to‑market Zeitplan
- Sprint 0 bis 2 Wochen: Vertikal‑Screening, Query‑Cluster, Gap‑Analyse, Rechts‑ und Lizenz‑Check. Kandidatenliste für Fact Islands und Datensätze.
- Sprint 3 bis 6 Wochen: 100 bis 300 Fact Islands live. Pro Cluster mindestens ein kuratiertes Dataset. C2PA‑Pipeline aufsetzen, API v1 ausrollen.
- Sprint 6 bis 10 Wochen: Publisher‑Deals mit Mid‑Tier‑Brands, Syndikationsmodule, gemeinsame Canonicals und isBasedOn. Co‑branded Datasets mit eindeutigen PIDs.
- Ab Woche 10: Iteration, angrenzende Cluster erweitern, internationale Entitäten onboarden.
Messung und Steuerung
- Share‑of‑Answer: Anteil eurer zitierfähigen Antworten in AI Overviews, gewichtet mit Suchnachfrage.
- Coverage und Depth: Anzahl der Cluster mit mindestens einer Zitierung plus Zitate pro Overview.
- Provenance‑Rate: Quote der Overviews, die auf C2PA‑signierte Seiten oder Datasets verweisen.
- Freshness‑Lead: Median der Aktualitätsdifferenz zu den nächstbesten Quellen.
- Traffic‑Proxy: Klickpfade aus „Weitere Quellen“, Knowledge‑ und Entity‑Links. Attribution via UTM und Referrer‑Policy testen.
Entertainment‑Beispiel bei Quellenlücken
- Primärpfade: offizielle Künstler‑ und Label‑Seiten, PRO‑Datenbanken, ISRC und ISWC, Tour‑ und Venue‑Betreiber, Urheberrechtsregister, offene Wissensbasen mit nachvollziehbarer Provenienz. Eigene Datensätze als kuratierte Aggregation, sauber lizenziert und versioniert.
- Claims, die LLMs mögen: eindeutig, zeitgebunden, überprüfbar, zum Beispiel Veröffentlichungsdatum, Tracklist mit ISRC, Credits, vertraglich bestätigte Namensschreibweisen.
Risiken und Compliance
- Kein Halluzinationsfutter: Jede Kernaussage braucht intern zwei Belege oder einen hochwertigen Primärbeleg mit C2PA und strukturierter Evidenz.
- Robots und AI‑Signale: Crawler‑Zugriffe granular steuern und AI‑Policies konsistent kommunizieren. Vertragsklarheit zu Zitier‑ und Attributionspflichten.
- Plattformdynamik: Änderungen an Overviews, Ranking und Zitationslogik sind wahrscheinlich. Metriken, API‑Logs und Query‑Cluster wöchentlich prüfen.
Konkrete To‑dos für nächste Woche
- 1) 500 Top‑Queries je Zielvertikal clustern, Overviews coden und Zitationsdichte messen.
- 2) 50 Fact Islands in Produktion geben, je eine Claim‑ und eine Evidence‑Komponente, JSON‑LD und C2PA end‑to‑end.
- 3) API v0.9 mit drei Endpunkten live schalten: facts, datasets, changes. Monitoring und SLAs dokumentieren.
- 4) Zwei gezielte Publisher‑Deals pro Vertikal pitchen, Fokus auf Syndikation und geteilte Provenance.
Weiterlesen bei Upcite
- Für die Pre‑SERP Effekte im Browser‑UI siehe Browser‑Level AEO in Chrome.
- So werden Antworten portierbar: portierbare Answer‑Objekte bauen.
- Für transaktionale Aktionen in der Omnibox: Action Slot Optimization Playbook.