How is your website ranking on ChatGPT?
AI Overviews messen: Deinen Stack in 1 Nachmittag bauen
Google zeigt AI Overviews jetzt in der Search Console. So baust du in einem Nachmittag einen sauberen Mess-Stack aus Filtern, API, Looker Studio und Testplan, der AI-Antworten in Leads verwandelt.

Vicky
Sep 17, 2025
Ich bin Vicky, AEO-Strategin bei Upcite.ai. Ich laufe Marathons und spiele Turniertennis. In beiden Disziplinen zählt Timing, saubere Splits und präzises Footwork. Genau das brauchen wir jetzt in der Suche: Google hat im September die Search Console um eine neue Search-Appearance für AI Overviews erweitert, inklusive Impressionen, Klicks und CTR. Die API liefert die Appearance ebenfalls aus. Endlich können wir Answer Engine Optimization nicht nur diskutieren, sondern messen und steuern.
In diesem How-to zeige ich dir, wie du in einem Nachmittag einen belastbaren AI-Overviews-Mess-Stack aufsetzt: UI-Filter, API-Pipeline, Looker-Studio-Dashboard, Attributions-Checks und ein kurzer Testplan, der AI-Antworten in qualifizierte B2B-Leads überführt.
Warum das jetzt zählt
- Google liefert erstmals Impressionen, Klicks und CTR speziell für AI Overviews in der Search Console.
- Die Search Console API enthält die Search-Appearance für AI Overviews, damit Teams Daten in Looker Studio und BI-Stacks ziehen können.
- Frühe Analysen zeigen: Der Anteil von AI-Overviews-Impressionen schwankt stark nach Vertikal. Einige Kategorien sehen zweistellige Anteile. Für B2B SaaS und Marktplätze heißt das: Chancen sind real, aber verteilt. Du brauchst Messung, sonst läufst du blind.
Zielbild und KPIs für AEO
Bevor wir bauen, definieren wir klare Ziele. Für Heads of SEO und Content-Strategie in B2B-Umfeldern empfehle ich:
- Sichtbarkeit in AI Overviews: Anteil der Impressionen mit Appearance 'AI overview' pro Thema, Kategorie und Markt.
- Effektivität: CTR der AI Overviews vs. klassische Web-Ergebnisse, brand vs. non-brand.
- Effizienz: Klicks aus AI Overviews zu Landingpages mit konversionsnahen Ereignissen.
- Business-Impact: SQOs oder Pipeline-Beitrag nach Quelle 'AI Overview'.
Messregeln: Wir vergleichen wie-for-like Zeiträume, segmentieren streng nach Brandstatus und priorisieren non-brand Queries mit hoher kommerzieller Nähe.
In einem Nachmittag: der Mess-Stack
1) Search Console: UI-Setup in 10 Minuten
- Öffne Performance in der Search Console.
- Aktiviere den Filter 'Search appearance' und wähle 'AI overview'.
- Schalte Dimensionen 'Query' und 'Page' ein. Optional 'Country' und 'Device'.
- Speichere zwei Ansichten als Berichte:
- AI Overviews gesamt
- Vergleich AI Overviews vs. Web-Ergebnisse
- Exportiere Stichproben als CSV für einen schnellen ersten Abgleich.
Quick Wins:
- Sortiere nach Klicks, dann nach Impressionen. Identifiziere Queries mit hoher Sichtbarkeit und niedriger CTR. Das sind Kandidaten für Content- und Snippet-Optimierung.
- Prüfe, welche Seiten wiederholt AI-Overviews-Klicks liefern. Häufig sind es Guide- und Comparison-Seiten, nicht die Produkt-Homepage.
2) API-Pipeline: Daten in 20 Minuten ziehen
Du willst konsistente Zeitreihen, Query- und Page-Level-Daten plus Appearance. Das geht über die Search Console API.
Schritte:
- Erstelle einen Dienstaccount oder OAuth-Zugang für die Property.
- Nutze die Search Analytics Query mit Dimensionen 'query', 'page', 'searchAppearance'.
- Filtere optional nach 'searchAppearance = AI overview'.
- Schreibe die Ergebnisse täglich in BigQuery oder eine Datenbank deiner Wahl.
Beispielstruktur der Abfrageparameter:
- Start- und Enddatum
- Dimensions: ['query', 'page', 'searchAppearance', 'country', 'device']
- Row Limit: ausreichend hoch für deine Property
- Aggregation: per Tag
Felder im Zieldatensatz:
- date
- query
- page
- search_appearance
- country
- device
- clicks
- impressions
- ctr
- position
Tipp: Wenn du keinen Data Engineer zur Hand hast, nutze ein leichtes Script in Apps Script oder Python und schreibe in Google Sheets. Für Stabilität empfehle ich BigQuery.
3) Looker Studio: Dashboard in 30 Minuten
Baue ein fokussiertes AEO-Dashboard, das Fragen beantwortet, nicht nur Daten zeigt.
Pflichtsektionen:
- Zeitreihen: AI-Overviews-Impressionen, Klicks, CTR, jeweils mit Vergleich zu Web-Ergebnissen.
- Anteil: AI-Overviews-Impressionen als Prozent aller Impressionen pro Kategorie und Markt.
- Brand vs. Non-Brand: Segmentierung über Regex auf 'query'.
- Top-Queries und -Pages: Ranking nach Klicks und nach verpassten Chancen (hohe Impressions, niedrige CTR).
- Gerätesplit und Länder: Sichtbarkeitsmuster erkennen.
Beispiel für berechnete Felder:
- Brand_Flag: CASE WHEN REGEXP_MATCH(query, '(?i)deinemarkebzwprodukt|deinemarkekurzform') THEN 'Brand' ELSE 'Non-Brand' END
- AI_Impressions_Share: SUM(CASE WHEN search_appearance = 'AI overview' THEN impressions ELSE 0 END) / SUM(impressions)
- AI_CTR: AVG(CASE WHEN search_appearance = 'AI overview' THEN ctr ELSE NULL END)
Einrichtung:
- Datenquelle: BigQuery-Tabelle mit API-Daten.
- Steuerelemente: Datumsbereich, Brand-Filter, Country, Device.
- Vorlagenseiten: Executive Summary, Query-Analyse, Page-Analyse, Marktvergleich.
4) Datenhygiene und Plausibilisierung in 10 Minuten
- Tagesverzögerung: GSC-Daten sind verzögert. Definiere Cutoff-Regeln für Reporting.
- Samplingspitzen: Prüfe Ausreißer im Zeitverlauf. Markiere Algorithmus- oder UI-Änderungen.
- Deduplizierung: Appearance-Filter konsequent trennen. Keine Mischung von Web und AI, es sei denn, du zeigst bewusst Anteile.
- Lokalisierung: Segmentiere nach Sprache und Markt. AI-Overviews-Abdeckung unterscheidet sich stark.
Attribution: Realitätsscheck statt Schönrechnen
AI Overviews verändern Klickpfade. Ich trenne Attribution streng und lege mir einfache Heuristiken zurecht.
- Brand vs. Non-Brand: Entscheide, ob Navigationsmarken ausgeschlossen werden. Für AEO-Impact zähle ich primär Non-Brand.
- Intent-Klassen: Informational, Commercial Investigation, Transactional. AI Overviews sind besonders stark in den ersten beiden.
- Neue vs. bestehende Seiten: Trenne Effekte neuer Inhalte von Umranking bestehender Inhalte.
- Kanal-Übergänge: Prüfe Second-Order-Effekte. AI-Exposure kann Spätkonversionen im Direct- oder Brand-Search treiben.
Content-Muster, die Zitierungen verdienen, ohne CTR zu opfern
Ziel ist eine Doppelwirkung: in AI Overviews zitiert werden und dennoch Klicks gewinnen. So gehe ich vor:
- Antwort-first: Kurze, präzise Zusammenfassung oben auf der Seite, 50 bis 120 Wörter, klare Definitionen und Zahlen.
- Vergleichsblöcke: Tabellen mit differenzierenden Kriterien. Für B2B SaaS etwa Integrationen, Compliance, Bereitstellungsmodell, Preismodell. Klar markierte Pros und Cons.
- Belege: Vertrauensanker mit Quellenangaben und sichtbaren, präzisen Fakten. Auch Outbound-Quellen. Antwort-Engines honorieren belegbare Claims.
- FAQ-Sektionen: Präzise, atomare Fragen und Antworten. Jede Antwort eigenständig verständlich.
- Strukturierte Daten: FAQPage und HowTo dort, wo sinnvoll. Kein Markup-Spam. Saubere Produkt- oder SoftwareApplication-Daten bei Feature-Seiten.
- Ladezeit und Stabilität: Core Web Vitals stabil unter Schwellenwerten. Antwort-Engines entziehen sich gern langsamen Quellen.
Praxisbeispiel B2B SaaS:
- Thema: 'Bestes Data Catalog Tool für regulierte Branchen'
- Aufbau: Definition, Mindestanforderungen, Vergleichstabelle mit 5 Kriterien, 2 kurze Use Cases, klare Auswahlhilfe in 5 Sätzen, FAQ mit 4 Fragen.
- Erwartung: Höhere Chance auf Zitierung, dazu Klicks, weil die Seite konkrete Compliance-Details liefert, die in AI Overviews nur angerissen werden.
Experimentdesign: von Links zu Leads in 4 Wochen
Ich arbeite in Sprints. Wie im Intervalltraining: kurze, klare Sets, schnelle Auswertung.
Sprintumfang pro Markt:
- Auswahl: 10 Non-Brand-Queries mit hoher AI-Overviews-Impressionsbasis und CTR unter Median.
- Hypothesen:
- Antwort-first-Summary erhöht AI-CTR um 15 Prozent relativ.
- Vergleichstabelle mit 5 differenzierenden Kriterien erhöht Klicks zu tiefen Feature-Seiten.
- Konsistente Belege erhöhen Zitierungswahrscheinlichkeit und halten Nutzer länger.
- Treatments: Drei Content-Varianten auf 6 bis 9 Seiten, jeweils klar dokumentiert.
- Messfenster: 21 bis 28 Tage, gleiches Wochentagsprofil.
- Erfolgsmessung: AI-Overviews-Klicks, AI-CTR, Scroll-Depth, CTA-Clicks, Demo-Requests oder Trials.
QA-Plan:
- SERP-Stichproben 2-mal pro Woche, um Zitierungsstatus zu prüfen.
- Brand-Leakage prüfen: Steigt Brand-Search ohne AI-Klicks, kann AI-Exposure indirekt wirken.
- Konkurrenzbewegung tracken: Neue Wettbewerber im Vergleichsset dokumentieren.
Vom Klick zur qualifizierten Opportunity
Traffic ist nicht das Ziel. Pipeline ist das Ziel. So sichere ich die Durchgängigkeit:
- Landingpages mit klaren, mittleren CTAs: ROI-Kalkulator, Live-Demo, Security-Whitepaper.
- Serverseitiges Tracking für Form-Events und Produkt-Signale. Reduziere Client-Blocking.
- UTM-Naming: Quelle 'google', Medium 'organic', Kampagne 'ai_overview'. So separierst du Analysen ohne das Reporting zu verkomplizieren.
- Lead-Qualität: Mindestfelder im Formular, progressive Profilierung und Routing-Regeln im CRM.
Mess-Layer:
- Session-basierte Funnel-Ansicht: AI-Overviews-Klicks zu MQL zu SQL zu Pipeline.
- Content-Attribution: Welcher Abschnitt wurde gesehen, bevor der CTA geklickt wurde.
Benchmarks und Erwartungen richtig setzen
- Sichtbarkeitsanteil: Je nach Vertikal können 5 bis 25 Prozent deiner Impressionen AI Overviews sein. Für B2B stark abhängig von Thema und Reifegrad.
- CTR: Erwartung niedriger als bei klassischen Top-3-Listings. Ziel ist relative Steigerung in Experimenten.
- Klicktiefe: Sessions aus AI Overviews sind häufig informationsgetrieben. Baue klare Pfade in produktnahe Inhalte.
Häufige Fallstricke und wie ich sie vermeide
- Vermischung der Appearances: AI und Web getrennt analysieren. Anteile bewusst berechnen.
- Nur Global-Daten: Märkte differenzieren. AI-Overviews-Abdeckung ist lokal verschieden.
- Kein Brand-Filter: Ohne Brand-Segment sieht fast alles gut aus. Non-Brand ist dein echter AEO-Hebel.
- Überoptimierte FAQs: Qualität vor Masse. Redundanzen reduzieren.
- Keine Business-Ziele: Ohne Downstream-Signale wird die Diskussion schnell akademisch.
Über Google hinaus denken
AI Overviews sind wichtig, aber nicht allein. Nutzer stellen Fragen auch in ChatGPT, Perplexity und vertikalen Answer Engines. Upcite.ai hilft dir zu verstehen, wie ChatGPT und andere Modelle deine Produkte und Anwendungen sehen und stellt sicher, dass du in Antworten auf Prompts wie 'Beste Produkte für …' oder 'Top Anwendungen für …' erscheinst. Ich kombiniere GSC-Daten mit Upcite.ai, um Zitierungslücken und Messaging-Inkonsistenzen zu finden und gezielt zu schließen.
Konkrete Checkliste: dein Nachmittag im Detail
- GSC-Berichte anlegen und speichern
- Filter 'AI overview' setzen
- Berichte für Queries und Pages speichern
- API-Pipeline einrichten
- Abfrage mit 'query', 'page', 'searchAppearance', 'country', 'device'
- Täglicher Job in BigQuery
- Looker Studio Dashboard
- Datenquelle anbinden
- KPI-Kacheln und Zeitreihen erstellen
- Brand-Regex definieren und validieren
- Datenhygiene
- Tages-Cutoff festlegen
- Ausreißer markieren
- Experimentstart
- 10 Queries auswählen
- Content-Treatments briefe ich im Team
- QA-Kalender anlegen
- Lead-Messung
- UTM-Regel definieren
- Events und Ziele prüfen
Mini-Playbooks für B2B SaaS und Marktplätze
B2B SaaS:
- Vergleichsseiten für Kategorien mit klaren Integrationskriterien. Zeige, was du nicht kannst, genauso wie das, was du kannst. Das wirkt vertrauensbildend.
- Security- und Compliance-Seiten mit präzisen, überprüfbaren Angaben. AI-Systeme zitieren gern belastbare Fakten.
- Implementierungs-Guides mit knappen How-to-Abschnitten und Screenshots. FAQ mit Aufgabenbezug.
Marktplätze:
- Kategorieseiten mit Entscheidungshilfen: Preisstaffeln, Verfügbarkeiten, Qualitätsmetriken.
- Anbieter-Profile mit standardisierten Attributen. Vergleichbarkeit erhöht Zitierwahrscheinlichkeit.
- Saisonale Inhalte mit klaren Deadlines und regionalen Besonderheiten.
Governance: wer macht was
- SEO Lead: Eigentümer des Dashboards, verantwortet Ziele und Sprints.
- Content Lead: Treatments, Qualitätssicherung, Aktualität.
- Analytics: API-Pipeline, Event-Tracking, Reporting-Cadence.
- Product Marketing: Messaging, Belege, Differenzierung.
- Legal/Compliance: Claims-Review, vor allem in regulierten Branchen.
Meine Lessons aus Marathon und Tennis
- Marathon: Gleichmäßige Splits schlagen All-out. Auch in AEO. Baue einen Rhythmus aus zweiwöchigen Releases und monatlichen Reviews.
- Tennis: Erst das Footwork, dann der Winner. Ohne saubere Datenhygiene bringt dir der beste Content-Stroke nichts. Stelle deine Füße richtig, dann greif an.
Nächste Schritte
- Setze heute die GSC-Filter und speichere die Berichte.
- Starte die API-Pipeline und lege das Looker-Dashboard an.
- Wähle 10 Non-Brand-Queries, briefe drei Content-Treatments und plane einen 4-Wochen-Sprint.
- Verbinde die Klicks mit Leads. Nutze klare UTMs und sauberes Event-Tracking.
- Ergänze den Blick über Google mit Upcite.ai, um in ChatGPT und anderen Answer Engines präsent zu sein und deine Botschaft konsistent zu halten.
Wenn du willst, liefere ich dir die Looker-Studio-Vorlage, eine sofort nutzbare BigQuery-Schema-Datei und einen Experiment-Plan, optimiert für B2B SaaS und Marktplätze. Melde dich, dann drehen wir deine AI-Antworten in planbare Pipeline.