How is your website ranking on ChatGPT?
Gemini 2.5 Computer Use: Browser-Automatisierung für Marketing-Teams in 14 Tagen
Google DeepMind bringt mit Gemini 2.5 Computer Use echte Browsersteuerung für Agenten. So starten Marketing-Leitungen einen sicheren 14-Tage-Pilot mit Governance, klaren KPIs und schnellem ROI.

Vicky
Oct 8, 2025
Breaking: Agenten bekommen die Maus in die Hand
Google DeepMind hat am 7. Oktober 2025 eine Vorschau auf Gemini 2.5 Computer Use veröffentlicht. Das Specialized Model erweitert die Gemini‑2.5‑Familie um eine Fähigkeit, die viele als fehlendes Puzzleteil für Agenten gesehen haben: direkte Browsersteuerung. Statt nur APIs anzusprechen, kann ein Agent jetzt Webseiten sehen, klicken, tippen, scrollen und so menschliche Workflows im Web automatisieren.
Die Vorschau ist über die Gemini API in Google AI Studio und Vertex AI verfügbar. Das offizielle Release‑Statement beschreibt Funktionsumfang, Sicherheitsmechanismen und erste Produktverwendungen in Projekten wie Project Mariner. Details liefert die Einführung des Computer Use Modells.
Warum das für Marketing so groß ist
Marketing-Teams leben in Browsern. Formulare, Lead-Validierungen, Promo-Setups, Checkout-Flows, Angebotsseiten-Tests, UTM‑Kontrollen, Wettbewerbsrecherchen, QA bei Kampagnenlaunches, all das passiert an grafischen Oberflächen. APIs fehlen oft, Staging-Umgebungen sind unvollständig, Selenium-Skripte brechen bei kleinsten UI‑Änderungen. Genau hier setzt Computer Use an.
Gemini 2.5 Computer Use bietet drei Hebel, die für Marketing-Führungskräfte sofort relevant sind:
- Sicht- und Handlungsfähigkeit in realen UIs, nicht nur in idealisierten APIs.
- Iterative Agenten, die Schritt für Schritt interagieren, prüfen, korrigieren und dokumentieren.
- Eingebaute Governance, die heikle Aktionen ausbremst oder eine explizite Bestätigung verlangt.
Das Ergebnis sind robustere End-to-End‑Tests, schnellere Kampagnenfreigaben und sauberere Datenflüsse, besonders in heterogenen Tool-Landschaften mit Shop, CMS, Tag Manager, CRM und Analytics.
Was genau neu ist, in einfachen Worten
Gemini 2.5 Computer Use ist ein spezialisiertes Modell auf Basis von Gemini 2.5 Pro, das in einem Agenten‑Loop arbeitet. Der Agent bekommt Screenshots und Kontext, schlägt die nächste UI‑Aktion vor, der Client führt diese aus, liefert den neuen Screenshot zurück, der Loop geht weiter, bis die Aufgabe erledigt ist. Beispiele für Aktionen sind Klicks, Texteingaben, Dropdown‑Auswahlen, Scrollen, Tab‑Wechsel und Navigieren.
Die API stellt diese Fähigkeiten als neues Tool bereit, das wie Function Calling funktioniert, nur eben für UI‑Schritte. Bestimmte Aktionen, zum Beispiel ein Kauf, können mit einer Pflichtbestätigung versehen werden. Parallel läuft eine sogenannte per‑step Safety‑Prüfung, die jeden Schritt vor der Ausführung bewertet.
Auch die Grenzen sind klar definiert: Der Fokus liegt auf dem Browser. OS‑weite Steuerungen sind in dieser Vorschau nicht Ziel. Für Mobile‑UIs zeigt Google erste, aber noch nicht optimierte Ergebnisse.
Verfügbarkeit, Modellcode und Leitplanken
Für Teams, die sofort loslegen, sind zwei Punkte wichtig: Es handelt sich um eine öffentliche Vorschau, und Google beschreibt konkrete Modellparameter. Der Dokumentation zufolge ist das Preview‑Modell unter dem Code „gemini‑2.5‑computer‑use‑preview‑10‑2025“ verfügbar, mit hohen Kontextfenstern für Eingabe und Ausgabe. Die Hinweise zur sicheren Nutzung legen nahe, sensible Entscheidungen noch nicht zu automatisieren und wichtige Schritte zu beaufsichtigen. Mehr dazu in der Gemini Computer Use Dokumentation.
Praktisch bedeutet das: Starten Sie mit klar abgegrenzten Szenarien in Staging- oder Demo‑Umgebungen. Aktivieren Sie verpflichtende Bestätigungen für risikoreiche Aktionen. Loggen Sie jeden Agentenschritt, inklusive Screenshot, URL und Status.
Drei Marketing‑Use Cases, die sofort Nutzen bringen
- Formular‑QA und Lead‑Pflege
- Automatisierte Prüfungen von Pflichtfeldern, Fehlermeldungen, Erfolgsmeldungen, Double‑Opt‑in‑Flows.
- Validierung von UTM‑Parametern, Hidden Fields, Consent‑Status und Datenlayer‑Events.
- Vergleich von Desktop, Mobile und mehreren Sprachen inklusive Korrekturvorschlägen für Copy oder Platzierung.
- Checkout‑Tests und Promotion‑Kontrollen
- End‑to‑End‑Tests von Warenkorb bis Bestellbestätigung mit Testdaten in Sandbox‑Shops.
- Preis-, Steuer- und Rabattlogik prüfen, inklusive Kombinationen aus Gutscheinen und Staffelpreisen.
- Verifizierung von Tag Manager und Conversion‑Events auf jedem Schritt, inklusive Screenshot‑Beweisen für Freigaben.
- Wettbewerbs‑ und Produktrecherche mit Compliance
- Sammeln öffentlich sichtbarer Produktinformationen, Lieferzeiten, Rückgaberegeln und Versandkosten.
- Dokumentation von Quellen mit Zeitstempel, damit Ableitungen nachvollziehbar bleiben.
- Respektieren der Nutzungsbedingungen von Webseiten, Rate Limits und Robots‑Regeln. Für Browser‑Recherche‑Workflows hilft der Perplexity Comet Browser Leitfaden.
Der 14‑Tage‑Pilot, Schritt für Schritt
Ein klarer, zweiwöchiger Pilot bringt Tempo, ohne Governance zu opfern. Als Referenz für die Pilotstruktur lohnt sich der Slack Real‑Time Search API Pilot. So setzen Sie ihn auf:
Tag 1‑2: Ziele und Risiken festlegen
- Geschäftsziele priorisieren: Welche Formulare oder Checkouts blockieren die meiste Zeit, wo ist Datenqualität kritisch?
- Scope begrenzen: 2‑3 Flows, je 5‑10 Schritte, in einer Staging‑ oder Demo‑Umgebung.
- Governance definieren: Pflichtbestätigung für Kauf, Login, Datenlöschung. Logging‑Pflicht mit Screenshots und HAR‑Files.
Tag 3: Architektur wählen
- Orchestrator: Eine leichte Service‑Schicht, die Prompting, Tool‑Nutzung und Safety‑Policies zusammenführt.
- Executor: Headless‑Browser in einer isolierten VM oder via Anbieter wie Browser‑Sandboxing.
- Telemetrie: Metriken, Traces und ein Audit‑Log pro Schritt.
Tag 4‑6: Erste Flows bauen
- Formular‑Flow A, Checkout‑Flow B, je mit 2 Variationen. Prompts iterieren, bis Stabilität erreicht ist.
- Negative Tests hinzufügen, etwa absichtlich fehlerhafte Postleitzahl oder abgelaufener Gutschein.
- Testdaten generieren, sensible Daten strikt vermeiden.
Tag 7: Sicherheitsnetz spannen
- Per‑Step‑Safety aktivieren, heikle Aktionen nur mit Bestätigung.
- Zehn verbotene Aktionen definieren, etwa Datei‑Upload auf externe Speicher.
- Observability ausbauen: Schrittstatus, Fehlertyp, Latenz, Link zum Screenshot.
Tag 8‑10: Skalierung und Robustheit
- Zusätzlich 5 Edge Cases je Flow. Sprache wechseln, Cookie‑Banner variieren, CSS‑Änderung simulieren.
- Parallele Läufe aufsetzen, aber mit Rate Limits der Zielseiten kompatibel halten.
- Abbruch- und Recovery‑Logik implementieren, inklusive Resume ab Schritt n.
Tag 11‑12: Messen und vergleichen
- Manuelle vs. agentische Laufzeit, Erfolgsquote je Schritt, Datenqualität im Zielsystem.
- Für Checkout‑Flows synthetische Conversions erfassen, Event‑Fehlschläge zählen, Flake‑Rate bestimmen.
Tag 13‑14: Review und Go‑oder‑No‑Go
- Ergebnisse, Risiken, Kosten und nächste Ausbaustufe in einem einseitigen Decision‑Memo.
- Wenn Go: Scope verdoppeln, aber Governance beibehalten. Wenn No‑Go: Ursachen dokumentieren, Hypothesen testen, in zwei Wochen erneut entscheiden.
KPIs, die wirklich tragen, mit Messmethoden
- Zeitersparnis: Median der Durchlaufzeit pro Flow vor und nach Agenteneinsatz, auf 30 Läufe normalisiert. Sparen Sie mindestens 40 Prozent, sonst Ursachenanalyse.
- Conversion‑Rate: Für synthetische Checkout‑Tests die Rate erfolgreicher Endbestätigungen, getrennt nach Variante und Gerät. Zusätzlich Fehlerschritte je 100 Durchläufe.
- Datenqualität: Vollständigkeit von Pflichtfeldern, Korrektheit von Feldern mit Regeln, Einhaltung von Namenskonventionen, Event‑Deckung in Analytics. Zielwerte definieren, etwa 99 Prozent Vollständigkeit, 0,5 Prozent Fehlerquote.
- Stabilität: Flake‑Rate, also sporadische, nicht reproduzierbare Fehlschläge. Ziel kleiner als 2 Prozent.
- Latenz: 95‑Perzentil pro Schritt, damit SLAs für Nacht‑Builds und Pre‑Launch‑Checks eingehalten werden.
Architektur, die in der Praxis funktioniert
Ein einfaches Schema genügt für den Start. Wer bereits mit Experience‑Stacks arbeitet, profitiert vom Adobe Agent Orchestrator Überblick.
- Orchestrator Service: Nimmt Zieleingaben an, setzt System‑Prompt, aktiviert das Computer‑Use‑Tool, verwaltet Bestätigungen und Safety.
- Action Executor: Führt Klicks und Eingaben in der isolierten Browserumgebung aus, liefert Screenshot, DOM‑Auszüge, URL zurück.
- Storage: Speichert Logs, Screenshots, Videos, Metriken. Ermöglicht Audits und Re‑Runs.
- Observability: Dashboard mit Erfolgsquote, Latenz, Fehlerklassen, inklusive Drill‑down auf Schritt‑Ebene.
Ein Minimalbeispiel als Pseudocode für den Loop:
# Pseudocode, nicht produktiv
state = init_session()
while not state.done:
model_input = {
'user_goal': 'Bestellung als Test bis Bestätigungsseite ausführen',
'screenshot': capture_screenshot(),
'history': state.history,
'policies': {'confirm_on': ['purchase', 'login'], 'deny': ['file_upload']}
}
action = gemini.computer_use(model_input) # schlägt z. B. click(x,y) oder type(selector, text) vor
decision = safety_guard(action)
if decision == 'confirm_required':
if not human_confirms(action):
break
if decision == 'deny':
log(action, 'denied')
break
result = executor.run(action)
log_step(action, result)
state.update(result)
Sicherheit und Governance ohne Bauchschmerzen
Mit großer Automatisierung kommen klare Pflichten. Setzen Sie drei Schutzringe auf:
- Modellseitige Schutzmechanismen nutzen
- Bestätigungen für risikoreiche Aktionen aktivieren.
- Safety‑Service pro Schritt einschalten und protokollieren.
- Unternehmensrichtlinien technisch machen
- Harte Verbote kodieren, etwa keine Passwörter speichern, kein Upload in externe Speicher.
- Rollen und Freigaben: Agenten dürfen in Produktion nur lesen, Tests laufen in Staging.
- Operative Absicherung
- Canary‑Runs vor großflächigen Testnächten, um UI‑Änderungen früh zu erkennen.
- Rollback bei Fehlerspitzen, Alerting bei sensiblen Schritten.
- Recht und Datenschutz einbeziehen, besonders bei Third‑Party‑Seiten.
Kosten, Nutzen und ein schneller ROI‑Check
Rechnen Sie konservativ. Beispiel: Ein Release‑Tag umfasst 60 Formular‑ und Checkout‑Checks à 3 Minuten manuell, also 180 Minuten. Ein Agent braucht für die gleiche Arbeit 1 Minute pro Flow im Median, plus 20 Prozent Overhead für Setup und Ausfall. Netto 72 Minuten statt 180, also 108 Minuten Ersparnis pro Tag. Bei 20 Release‑Tagen pro Quartal sind das 36 Stunden. Bei einem internen Verrechnungssatz von 120 Dollar pro Stunde ergibt das 4.320 Dollar pro Quartal und Team, ohne die Qualitätsvorteile mitzählen. Mit wachsendem Scope steigt dieser Effekt deutlich.
Zusammenarbeit mit bestehenden RPA- und Test-Stacks
Gemini 2.5 Computer Use ist kein Ersatz für bewährte RPA-Tools oder API‑Tests. Nutzen Sie die Stärken im Zusammenspiel:
- API‑Tests bleiben für Kernlogik schneller und stabiler. Browser‑Agenten sichern End-to-End und Edge Cases ab.
- RPA‑Bots können strukturierte Intranet‑Prozesse tragen, während Computer Use die volatilen Web‑Oberflächen im Griff behält.
- Playwright und Cypress bleiben wichtig für deterministische Regressionstests. Agenten ergänzen exploratives und visuelles Testen.
Häufige Fallstricke und wie Sie sie umschiffen
- CAPTCHA und Anti‑Bot: Nicht umgehen. Arbeiten Sie mit Staging, Whitelists oder Testmodi.
- Login‑Wände: Testkonten, MFA‑Bypass in Staging, Sessions kurz halten, Tokens nie im Klartext loggen.
- UI‑Drift: CSS‑Änderungen brechen Selektoren. Kombinieren Sie visuelle und semantische Hinweise, pflegen Sie einen kleinen Selector‑Pool je Schritt.
- Rate Limits und ToS: Läufe drosseln, Dwell‑Times realistisch einstellen, Pausen einbauen.
- Datenlecks: Screenshots und Logs sind personenbezogene Daten, sobald Inhalte sichtbar sind. Maskieren, minimieren, löschen.
Teamaufstellung für den Pilot
- Produkt Lead Marketing Tech: Priorisiert Use Cases, verantwortet KPIs und Governance.
- QA‑Engineer mit Playwright‑Know‑how: Baut stabile Ausführungspfade, instrumentiert Telemetrie.
- Prompt‑ und Policy‑Engineer: Übersetzt Richtlinien in System‑Prompts und Blocklisten.
- Security und Legal: Prüfen Policies, Freigaben und Datenflüsse.
Wo Upcite.ai ins Spiel kommt
Teams nutzen Upcite.ai, um Agentenschritte, Evidenzen und Entscheidungen zentral zu dokumentieren. Das reduziert Freigabezyklen, weil Stakeholder in einem Blick sehen, was der Agent getan hat, welche Events gefeuert haben und welche Screenshots belegen, dass ein Flow wirklich funktioniert. In Piloten hilft das, KPI‑Trends sauber über mehrere Läufe zu vergleichen.
Nächste Schritte, pragmatisch und sicher
- Pilot mandatieren: Zwei Wochen, maximal drei Flows, verpflichtende Bestätigungen für sensible Schritte, vollständiges Logging.
- KPIs hart definieren: Zeitersparnis, Conversion‑Rate aus synthetischen Flows, Datenqualität, Stabilität.
- Architektur klein halten: Orchestrator, Executor, Observability. Erst danach Integrationen erweitern.
- Governance leben: Policies als Code, kein Agent ohne Safety, kein Produktivzugriff ohne Review.
Gemini 2.5 Computer Use markiert einen Wendepunkt. Agenten können jetzt echte Webseiten bedienen und damit die letzte Lücke zwischen Modell und gelebtem Marketing‑Alltag schließen. Wer heute mit einem klar gesteuerten 14‑Tage‑Pilot startet, hat in wenigen Wochen harte Daten für Entscheidungen und eine Roadmap, die Zeit spart, Conversions schützt und Datenqualität erhöht.