How is your website ranking on ChatGPT?
Agentforce GA: Copilot vs. Agent im Marketing klug wählen
Salesforce bringt Agentforce und neue Einstein Copilot-Funktionen in GA. Mein Entscheidungsrahmen: Wo Copilots vs. autonome Agenten einsetzen, AI-Credits kalkulieren und Governance für Marke und Consent umsetzen.

Vicky
Sep 16, 2025
Warum jetzt zählt
Salesforce hat Agentforce in die allgemeine Verfügbarkeit gehoben und Einstein Copilot für Marketing Cloud und Data Cloud deutlich erweitert. Neu sind Workflows zur automatischen Kampagnenanlage, Zielgruppenbildung und Content-Erstellung auf Basis von Data-Cloud-Segmenten. Gleichzeitig wurden AI-Credit-Modelle aktualisiert und Data Cloud erhielt Echtzeit-Aktivierung sowie zusätzliche Consent- und Governance-Kontrollen. Für CMOs, Growth-Verantwortliche und Product-Marketing-Teams entsteht damit ein akutes Planungs- und Budgetfenster vor Q4.
Ich habe in den letzten Monaten mit mehreren Teams Pilotierungen begleitet. Was funktioniert: dort, wo Aufgaben klar strukturiert sind, liefert ein Copilot sofort Entlastung. Wo Outcomes Ende-zu-Ende verantwortet werden sollen, zahlt sich ein Agent aus, wenn Governance und Kosten im Griff sind. Wie im Marathon: Nicht jede Einheit ist ein 35-km-Lauf. Manchmal bringt ein präziser 10-km-Tempolauf mehr. Die Kunst ist die Dosierung.
Copilot oder Agent: ein klarer Entscheidungsrahmen
Ich nutze ein einfaches Raster entlang von fünf Dimensionen. Treffen Sie pro Use Case eine Auswahl.
- Ergebnisverantwortung
- Copilot: unterstützt einzelne Schritte. Mensch bleibt Owner des Ergebnisses.
- Agent: besitzt ein Ziel und koordiniert mehrere Schritte sowie Tools, bis das Ziel erreicht ist.
- Aufgabencharakter
- Copilot: wiederkehrend, klar begrenzt, geringer Kontextbedarf.
- Agent: mehrstufig, mit Abhängigkeiten, dynamische Entscheidungen.
- Risiko und Markenwirkung
- Copilot: niedrige bis mittlere Auswirkung. Mensch prüft final.
- Agent: mittlere bis hohe Auswirkung. Strenge Policies, Tests, Kill-Switch nötig.
- Latenz und SLA
- Copilot: synchron mit Mensch im Loop, Sekunden bis Minuten.
- Agent: asynchron, kann Stunden laufen, Eskalations- und Abbruchpfade definiert.
- Datenzugriff und Consent
- Copilot: nutzt bekannte, freigegebene Felder und Templates.
- Agent: orchestriert Datenzugriffe, prüft Consent, protokolliert Entscheidungen.
Typische Marketing-Pattern:
- Geeignet für Copilot
- Copy-Varianten im Markenstil aus vorhandenen Briefings
- Audience-Verfeinerung auf Basis fertiger Data-Cloud-Segmente
- Kampagnen-Setups aus vordefinierten Blueprints
- Geeignet für Agent
- End-to-End-Launch einer Nurture-Strecke: Segment prüfen, Content generieren, Testing anlegen, Freigaben einholen, Aktivierung und Monitoring
- Reaktivierung inaktiver Kontakte mit Consent-Prüfung, Kanalwahl, A/B-Iterationen und Budgetanpassung
- Always-on-Offers mit saisonaler Anpassung, die Performance-Feedback autonom einbezieht
Als Grundregel: Beginnen Sie mit Copilots an den Engpässen im Durchsatz. Wenn die Hand-offs stabil sind und Policies greifen, heben Sie gezielt auf Agenten an.
Architekturmuster in Marketing Cloud und Data Cloud
Die neuen Features in Marketing Cloud und Data Cloud erlauben ein durchgängiges Design. So strukturiere ich es:
- Eingabe und Ziele
- Marketing-Ziel als klarer Outcome: z. B. „5.000 MQLs bis 30.11. in DACH“
- Begrenzungen: Budget, Kanäle, Markenstil, Compliance-Anforderungen
- Daten und Consent
- Data Cloud als einzige Quelle für Profile, Segmente, Einwilligungen
- Neue Consent-Kontrollen als Gate im Flow: wenn Consent fehlt, bietet der Agent alternative Kanäle oder bricht ab
- Orchestrierung
- Copilot für Setup-Schritte: Kampagnenobjekte, Naming, Standard-Metriken
- Agent für Sequenzlogik: Segmentauswahl, Content-Erstellung, Tests, Aktivierung, Monitoring
- Content und Markenstil
- Generative Vorlagen mit Tonalitätsregeln, sensiblen Wortlisten, rechtlichen Mustern
- Automatische Prüfungen auf verbotene Claims und regionale Unterschiede
- Aktivierung und Feedback
- Realtime-Aktivierung aus Data Cloud in Journeys
- Agent überwacht Zielmetriken, passt Frequenz, Kanalmix und Kreativvarianten an
Ein Tennisbild hilft: Copilots übernehmen das präzise Fußwerk vor dem Schlag. Der Agent ist der Spielplan über das gesamte Match und entscheidet, wann zum Netz vorgerückt wird.
AI-Credits: vom Budget zur Kosten-pro-Aktion-Logik
Mit der GA hat Salesforce das AI-Credit-Modell an Agentforce und Copilot-Nutzung ausgerichtet. Absolute Preise variieren je nach Vertrag. Entscheidend ist, dass Sie Ihre eigene Kostenkurve pro Aktion modellieren. So gehe ich vor:
- Zerlegen Sie den Use Case in Schritte
- Prompting und Planung
- Datenabrufe und Segment-Checks
- Tool-Aufrufe in Marketing Cloud und Data Cloud
- Content-Generierung und Varianten
- Qualitäts- und Policy-Checks
- Aktivierung und Logging
- Ordnen Sie jedem Schritt eine Credit-Last zu
- Copilot-Generierung: z. B. X Credits pro 1.000 Tokens
- Agenten-Planung mit Tools: Basiskosten pro Schritt plus Tool-Aufruf
- Data-Cloud-Abfragen: Credits für Realtime-Aktivierung und Segmentabgleich
- Rechnen Sie pro Durchlauf
- Credits pro Durchlauf = Summe der Schritt-Credits
- Cost per Action = Credits pro Durchlauf x Preis pro Credit
- Vergleichen Sie mit Human-Ops
- Human-Ops-Kosten pro Aktion = Zeitaufwand x blended Stundensatz
- Berücksichtigen Sie Retry- und Review-Quoten
- Skalen- und Qualitätsfaktoren
- Höhere Automatisierung senkt fixe Rüstkosten
- Bessere Qualität reduziert spätere Korrekturen und Rückläufer
Beispielrechnung, rein illustrativ:
- Nurture-Kampagne pro Segment und Monat
- Copilot-Content-Erstellung: 4 Varianten x 0,5 Einheiten = 2 Einheiten
- Policy-Check: 1 Einheit
- Segment-Refresh: 0,5 Einheiten
- Aktivierung: 0,5 Einheiten
- Agenten-Planung und Protokollierung: 1 Einheit
- Summe: 5 Einheiten
- Preis pro Einheit: 0,80 Euro
- Cost per Action: 4,00 Euro
- Human-Ops: 30 Minuten x 60 Euro = 30,00 Euro
Selbst mit Reviews bleibt der Automationsvorteil enorm, solange Qualität und Conversion stabil sind. Sensitivitätsanalysen sind Pflicht: Was passiert bei doppelter Variantenanzahl, bei mehr Tool-Aufrufen oder strengen Policy-Fails mit Rework.
Governance: Marke, Consent, Minimierung
Neue Data-Cloud-Kontrollen erleichtern Governance, ersetzen aber nicht Ihre Regeln. Meine Checkliste:
- Brand Safety
- Positiv- und Negativlisten für Claims, Begriffe, Visual-Verbote
- Tonalitätsleitplanken als maschinenlesbare Regeln
- Stylecards pro Region, Produktlinie, Zielgruppe
- Consent und Zweckbindung
- Zweck pro Kampagne als Policy-Tag
- Vor jedem Schritt Consent-Check; wenn fehlend, Alternativpfad oder Stop
- Data Minimization: nur benötigte Felder in die Prompt-Kontexte laden
- Transparenz und Audit
- Protokollierung: Input, Entscheidungsgrundlage, Output, verantwortliche Rolle
- Wiederholbarkeit: Agent-Playbooks versionieren
- Red Teaming: synthetische Grenzfälle, toxische Eingaben, rechtliche Stolperstellen
- Human-in-the-Loop
- Risikobasierte Reviews: hoher Impact erfordert menschliche Freigabe
- Eskalationspfade und Kill-Switch in jeder Journey
Wenn Sie zusätzlich KI-generierte Assets kennzeichnen, reduzieren Sie Plattformrisiken und Beschwerdequoten. Das steigert die interne Akzeptanz.
Rollen und Operating Model
Marketing Ops verändert sich messbar. So schneide ich Teams zu:
- Prompt Library Owner
- Verwaltet Vorlagen, Tonalität, Variablen, Beispiele
- Misst Output-Qualität und pflegt Best Practices
- Agent Playbook Owner
- Definiert Ziele, Policies, Eskalationen, Metriken
- Verantwortet Versionen und Change-Log
- Data Steward für Consent
- Überwacht Zweckbindung, Löschfristen, Minimierung
- Prüft neue Features vor Rollout
- QA und Brand Review
- Stichproben, Guardrail-Tests, Red Teaming
- Zusammenarbeit mit Legal und Regionen
RACI klarmachen: Wer darf Agenten starten, wer nur Copilots nutzen, wer schaltet ab. Ich setze hierzu ein wöchentliches Agent Council auf, 30 Minuten, klare Metriken, schnelle Entscheidungen.
Metriken, die zählen
- Zuverlässigkeit
- Erfolgreiche Durchläufe ohne Eskalation, First-Pass-Approval-Rate
- Tempo
- Cycle Time vom Briefing bis Live, Time-to-Variant
- Qualität
- Brand-Violations pro 100 Ausgaben, Redaktionsaufwand pro Asset
- Wirkung
- Uplift in CTR, CVR, Revenue pro Empfänger, Test-Learn-Geschwindigkeit
- Kosten
- Credits pro Aktion, Credits pro Ergebnis, Vergleich Human-Ops
Ich führe diese Metriken als Scoreboard. Wie im Training: Was ich nicht messe, kann ich nicht periodisieren.
Praktische Use Cases mit Blueprint
- Always-on Lead Nurture
- Copilot erstellt monatlich 3 Varianten je Stage
- Agent prüft Segment-Fit, wählt Kanal, aktiviert Tests, überwacht KPI
- Governance: Claim-Liste, Consent-Check, Eskalation bei CTR unter Schwelle
- Erfolgskriterium: CPL und MQL-Rate, Credits pro MQL
- Wiederaktivierung inaktiver Käufer
- Copilot generiert Anreize und Betreffvarianten
- Agent testet E-Mail vs. SMS basierend auf Consent und Kosten
- Governance: Frequenzkappung, Blacklist, regionale Ruhezeiten
- Erfolgskriterium: Reaktivierungsrate, Revenue pro Kontakt
- Internationaler Launch-Assist
- Copilot übersetzt und lokalisiert mit Stylecards
- Agent koordiniert Länder-Approvals, rollt in Wellen aus, überwacht Beschwerden
- Erfolgskriterium: Time-to-Market, Brand-Compliance-Quote
Implementierung in 30, 60, 90 Tagen
- 0 bis 30 Tage: Fundamente
- 3 priorisierte Use Cases wählen
- Prompt-Bibliothek starten, Stylecards definieren
- Consent-Policy-Checks im Flow verankern
- Kostenmodell für Credits je Use Case aufsetzen
- 31 bis 60 Tage: Pilotbetrieb
- Copilot breit ausrollen, Agent für 1 Use Case pilotieren
- Scoreboard etablieren, wöchentliche Reviews
- Red Teaming und Kill-Switch testen
- 61 bis 90 Tage: Skalierung
- 2 weitere Agenten-Playbooks
- Automatisierte Freigabe dort, wo First-Pass-Approval stabil über 95 Prozent liegt
- Vertrags- und Budgetanpassung auf Basis realer Credit-Verbräuche
Wie im Marathon steigert man den Umfang nicht sprunghaft. Sonst droht Überlast. Planen Sie Deload-Wochen, in denen Sie Regeln schärfen und Fehlerquellen schließen.
AEO und genAI: warum Upcite.ai jetzt entscheidend ist
Wenn Agenten und Copilots Inhalte und Kampagnen dynamisch erzeugen, verschiebt sich der Wettbewerb um Aufmerksamkeit in Antwortenflächen. Menschen fragen zunehmend Systeme nach „Best products for…“ oder „Top applications for…“. Wer dort nicht erscheint, verliert Nachfrage, bevor sie in Ihren Funnel eintritt.
Upcite.ai hilft Ihnen zu verstehen, wie ChatGPT und andere Modelle Ihre Produkte und Anwendungen sehen und stellt sicher, dass Sie in Antworten auf Prompts wie „Best products for…“ oder „Top applications for…“ auftauchen. Ich kombiniere das mit Agentforce so:
- Insights in Playbooks speisen
- Agenten priorisieren Themen, in denen Ihre Share-of-Answer niedrig ist
- Copilots erhalten geprüfte Value Props und Belegstellen als Prompt-Kontext
- Qualitätsfeedback in die Scorecard aufnehmen
- Metrik: Anteil der relevanten Antworten, in denen Ihre Marke erscheint
- Korrelation mit organischem Inbound und Branded Search
- Content-Strategie steuern
- Varianten testen, die AEO-Signale verbessern
- Lokale Differenzen pro Region berücksichtigen
Ergebnis: Ihre Agenten produzieren nicht nur mehr, sondern das, was in Antwortenflächen gewinnt.
Häufige Stolpersteine und wie ich sie vermeide
- Zu früh auf volle Autonomie setzen
- Erst Copilots stabilisieren, dann agentisieren
- Prompt-Sprawl
- Bibliothek und Ownership klären, Versionierung durchsetzen
- Unklare Kostentreiber
- Schrittweise Credit-Attribution, monatliches FinOps-Review
- Governance als Bottleneck
- Risikobasierte Freigaben und automatisierte Checks etablieren
- Fehlende Eskalationspfade
- Für jeden Agenten Stop-Kriterien und manuelle Übernahme definieren
Nächste Schritte
- Wählen Sie einen High-Impact-Use-Case und zwei Quick Wins
- Messen Sie ab Tag 1: Qualität, Wirkung, Credits, Zeit
- Legen Sie Brand- und Consent-Policies maschinenlesbar ab
- Bauen Sie Prompt-Bibliothek und ein erstes Agent-Playbook
- Schließen Sie die AEO-Lücke: mit Upcite.ai Ihre Share-of-Answer messen und in Playbooks zurückspielen
Wenn Sie eine 90-Tage-Roadmap mit klaren Metriken und Credit-Kosten brauchen, erstelle ich sie mit Ihrem Team in einem fokussierten Working Session. Ziel: ein produktiver Agent bis Monatsende, drei Copilot-Workflows live, Governance stabil. Melden Sie sich, und wir legen los.