How is your website ranking on ChatGPT?
AEO für Google Search Live: Optimieren für Stimme und Kamera, SoLA als KPI
Seit dem US-Start am 24.09.2025 wird Suche zum Live-Dialog mit Stimme und Kamera. So richten Marken Inhalte auf Szenen und Objekte aus und messen ihren Anteil an Antworten mit dem KPI SoLA.

Vicky
Sep 29, 2025
Warum dieses Thema jetzt zählt
Am 24.09.2025 ist Google Search Live in den USA offiziell gestartet. Nutzer sprechen im Live-Modus der Google-App, teilen die Kamera und erhalten Antworten mit weiterführenden Web-Links. Das Erlebnis beginnt nicht mit einer klassischen Trefferliste, sondern mit einer Konversation, die bei Bedarf Quellen öffnet. Details und Beispiele liefert Google erklärt Search Live sowie die Voice in AI Mode Ankündigung. Englisch zuerst, ohne Labs Opt-in.
Was sich verändert
- Multimodal und situativ: Stimme plus Kamerabild. Fragen beziehen sich auf Szenen, Objekte und Handlungen im Moment. Zugriff über das Live-Icon in der Google-App und über Lens.
- Von Keywords zu Situationen: Relevanz entsteht aus dem Bildinhalt, dem Gerätekontext und dem Dialogverlauf.
- Kontinuierliche Antworten: Google verweist weiter auf Webseiten, doch der primäre Zugang ist das Gespräch im AI Mode.
- Technische Basis: Seit Juni 2025 sind Voice-Konversationen verfügbar. Später kamen multimodale und Video-Eingaben sowie weitere Live-Funktionen hinzu.
AEO neu denken: Optimierung für Szenen und Objekte
Statt einzelne Keywords zu targeten, optimieren Marken für Trigger aus der realen Welt. Typische Live-Intent-Cluster:
- Objekterkennung: „Welches Kabel ist das und wo kommt es hin“ bei laufender Kamera.
- Schrittfolgen: „Zeig mir die Reihenfolge, um X zu montieren“ mit Aufforderung zu neuen Kamerawinkeln.
- Troubleshooting: „Warum blinkt die LED“ mit Nahaufnahmen, Mustererkennung und verlinkten Quellen.
Fünf Content-Bausteine für Search Live
- AR-taugliche How-tos
- Anleitungen in 3 bis 7 klaren Schritten, je ein Bild oder Kurzclip pro Schritt.
- HowTo-Markup mit step, image, tool, supply. Hochauflösende, kantenstarke Bilder, die Details wie Steckerformen zeigen.
- Optional 3D-Assets als glTF oder USDZ einbetten.
- Visuelle Schrittfolgen und Mikroschritte
- Sequenzen, die Live leicht referenzieren kann: ein Bild pro Mikroschritt, eindeutige Perspektiven, konsistente Hintergründe.
- Für Videos kurze Kapitel mit prägnanten Thumbnails und Clip-Markup, damit Live die passende Stelle verlinkt.
- Dialogfähige FAQs
- Natürliche Sprache mit Follow-up-Potenzial: kurze Antworten plus „Wenn das nicht hilft, prüfe …“
- Als FAQPage markieren und je nach Antwort auf HowTo-Abschnitte oder App-Flows verlinken.
- On-Device-Kontext und Lokalisierung
- Inhalte nach Gerätetyp, Region und Situation variieren. Unterschiedliche Steckernormen oder Produktvarianten je Markt berücksichtigen.
- Bildvarianten für häufige Szenen bereithalten: Nahaufnahme, Totale, Rückseite, Anschlüsse, Sicherheitshinweise.
- Deep-Links als nächster Schritt
- Zu jeder Antwort einen klaren Next Step definieren: Kaufen, Termin buchen, Ersatzteil prüfen, Anleitung speichern.
- Android App Links und iOS Universal Links implementieren. Auf der Web-Seite strukturierte Daten mit potentialAction ergänzen.
Technische SEO und Datenqualität
- Markup-Grundgerüst: HowTo, FAQPage, Product, Offer, AggregateRating, VideoObject, ImageObject.
- Medien-Standards: scharfe Makros, gute Ausleuchtung, beschreibende Dateinamen, Alt-Texte mit Objektbezeichnungen.
- Performanz: schnelle LCP-Assets, kurze Videosnippets, schlanke Hero-Sektionen. Live-Nutzer sind mobil und in Aktion.
Dialog-Design: so spricht Ihre Marke in Live
- Rückfragen antizipieren: Beispiel-Prompts in FAQs wie „Zeig mir die Rückseite des Geräts“ oder „Hast du das Teil mit dem gelben Ring“.
- Anweisungsorientiert schreiben: ein Verb pro Satz, keine Floskeln, Sicherheits-Hinweise früh platzieren.
- Mehrdeutigkeit auflösen: Merkmale nennen, die Live im Bild prüfen kann, etwa Farbe, Form, Anzahl der Pins.
KPI neu denken: Share of Live Answer (SoLA)
- Definition: Anteil der Live-Antworten zu einer Intent-Gruppe, in denen Ihre Domain oder App als verlinkte Quelle gewählt oder als nächster Schritt aufgerufen wird.
- Formel: SoLA = Live-Taps auf Ihre Quelle oder Deep-Links / alle Live-Taps in der Intent-Gruppe im Messzeitraum.
- Messmodell in drei Ebenen:
- Klick-Signale: eingehende Taps aus der Google-App und Lens, differenziert nach Intent-Gruppen via UTM-Tags. Deep-Link-Ziele mit Kampagnenparametern ergänzen.
- Engagement-Proxy: Tap-to-Source-Rate, Follow-up-Rate, Next-Step-Completion auf Zielseiten oder in der App.
- Wettbewerbs-Benchmark: wiederkehrende Stichproben mit definierten Live-Prompts und Szenen. Dokumentieren, welche Domains wie oft verlinkt erscheinen.
- Reporting: Intent-Körbe statt Keywords. Zeitreihen für SoLA, Tap-to-Source und Completion. Klassische Rankings treten in den Hintergrund. Siehe auch AEO messen ohne Rankings.
30-60-90-Tage-Plan
- 30 Tage: Live-Audit für die Top-20 Intents. Zehn HowTos mit Bild-Schrittfolgen produzieren, FAQPage aktualisieren, UTM-Standards und Deep-Link-Ziele einrichten.
- 60 Tage: Video-Clips mit Kapitelpunkten, 3D-Assets für die fünf wichtigsten Produkte, App-Links implementieren, QA mit realen Szenen im Feldtest.
- 90 Tage: Intent-Abdeckung auf 50 Themen ausweiten, SoLA-Dashboard etablieren, regelmäßige Szenen-Benchmarks, Redaktionsleitfaden für Dialog-Stil finalisieren.
Compliance und Vertrauen
- Sicherheit: klare Warnhinweise früh im Ablauf, Verweise auf Originalhandbücher. Keine Handlungen ohne Sichtprüfung im Bild.
- Privatsphäre: transparent machen, wenn sensible Daten sichtbar sein könnten. Live findet in der Google-App statt, die Konversation verweist auf Ihre Inhalte. Interne Policies für Tracking und Consent beachten.
Weiterführende Playbooks
- Für die Messung ohne SERP-Rankings und neue KPIs hilft AEO messen ohne Rankings.
- Für Browser-Integrationen lohnt Gemini in Chrome optimieren.
- Für Conversational Shopping zeigt Shopping-Intent in ChatGPT, wie Assistenten Produktslots integrieren.
Fazit
Search Live macht Suche zum Live-Gespräch mit Blick auf die reale Szene vor der Kamera. Wer Inhalte als visuelle, dialogfähige Schritte und klare Next Steps anbietet, gewinnt Anteile an der Antwort. Jetzt ist der Moment, AEO auf Szenen, Objekte und Handlungen auszurichten und SoLA als Führungsmetrik einzuführen.