A/B-Testing (auch Split-Testing genannt) ist eine Methode, bei der zwei Varianten eines Elements – Version A (Original) gegen Version B (Variation) – gleichzeitig einem zufällig aufgeteilten Nutzerpublikum gezeigt werden, um mit statistischer Sicherheit zu ermitteln, welche Variante besser eine definierte Zielgröße erfüllt.

Rubrik: Online-Marketing & Content · Unterrubrik: Analytics · Niveau: Einsteiger Synonyme / Auch bekannt als: Split-Testing, Bucket-Testing, kontrolliertes Experiment Online-Marketing


Was ist A/B-Testing?

A/B-Testing ist die digitale Form des wissenschaftlichen Experiments: Hypothese aufstellen, testen, Ergebnis auswerten. In der Praxis kann ein A/B-Test die Frage beantworten: „Führt ein roter Call-to-Action-Button zu mehr Klicks als ein grüner?" – oder komplexere Fragen wie: „Welche Landing-Page-Version generiert mehr Kursanmeldungen?"

Die Methode ist deswegen so wertvoll, weil sie Meinungen durch Daten ersetzt. In Teams mit gegensätzlichen Designentscheidungen oder Copy-Präferenzen schafft ein A/B-Test objektive Grundlage. Gleichzeitig ist A/B-Testing kein Allheilmittel: Es braucht ausreichend Traffic, korrekte Implementierung und das Wissen, wie man Ergebnisse richtig interpretiert.


Erklärung

Wie funktioniert ein A/B-Test?

1. Hypothese formulieren: Jeder Test beginnt mit einer messbaren Hypothese. Format: „Wenn ich [Veränderung X] vornehme, dann erwarte ich [Verbesserung Y] bei [Metrik Z], weil [Begründung]." Beispiel: „Wenn wir den CTA-Button von ‚Mehr erfahren' zu ‚Jetzt kostenlos starten' ändern, dann erwarten wir eine 10 % höhere CTR, weil der Text konkreter den Nutzen kommuniziert."

2. Traffic aufteilen: Besucherinnen werden zufällig in zwei gleich große Gruppen aufgeteilt – Gruppe A sieht das Original, Gruppe B die Variation. Die Zufälligkeit stellt sicher, dass externe Faktoren (Tageszeit, Gerät, Herkunftskanal) sich auf beide Gruppen gleich verteilen.

3. Test laufen lassen: Der Test muss lange genug laufen, um ausreichend Daten zu sammeln. Zu früh abbrechen ist einer der häufigsten Fehler.

4. Ergebnisse auswerten: Mit statistischen Methoden wird geprüft, ob der Unterschied zwischen A und B statistisch signifikant ist – oder ob er zufällig entstanden sein könnte.

5. Entscheidung treffen und umsetzen: Gewinner-Variante implementieren, Erkenntnis dokumentieren, nächste Hypothese aufstellen.

Anwendungsgebiete

Landing Pages: Headline, CTA-Button, Hero-Bild, Formularfelder, Trust-Elemente (Siegel, Testimonials, Garantien). Kleine Änderungen können große Conversion-Auswirkungen haben.

E-Mail-Marketing: Betreffzeilen (stärkstes Hebel-Element), Absendername, Preheader-Text, E-Mail-Layout, CTA-Position. Betreffzeilen-Tests sind schnell und erfordern keinen hohen Traffic.

Ad-Creatives: Welches Bild, Video oder welche Headline führt zu höherer CTR und niedrigerem CPA? Plattformen wie Meta Ads und Google Ads haben A/B-Testing-Features integriert.

CTAs (Call to Action): Button-Text, Button-Farbe, Button-Position, Button-Größe.

Preisseiten und Paket-Struktur: Welche Preispräsentation konvertiert besser? (Vorsicht: Preistests können bei Bestandskunden Unzufriedenheit erzeugen – separat testen.)

Checkout-Prozesse: Anzahl der Schritte, Formularfelder, Vertrauenssignale, Zahlungsoptionen.

Statistische Signifikanz verstehen

Das Herzstück jedes validen A/B-Tests ist die statistische Signifikanz. Sie beantwortet die Frage: „Wie wahrscheinlich ist es, dass das Ergebnis nicht durch Zufall entstanden ist?"

Konfidenzlevel: In der Praxis werden typischerweise 95 % (oder 0,95) als Mindestwert akzeptiert. Das bedeutet: Mit 95 % Wahrscheinlichkeit ist der gemessene Unterschied real und nicht zufällig. Manche Unternehmen setzen 99 % für wichtige Entscheidungen.

p-Wert: Statistische Kennzahl für Signifikanz. p < 0,05 entspricht 95 % Konfidenz. Je kleiner der p-Wert, desto signifikanter das Ergebnis.

Mindeststichprobengröße: Abhängig von der Baseline-Conversion Rate, dem erwarteten Effekt und dem Konfidenzlevel. Online-Rechner (z. B. Optimizely Sample Size Calculator, AB Testguide) berechnen die nötige Stichprobengröße.

Testdauer: Auch wenn die Stichprobengröße erreicht ist, sollte ein Test mindestens ein bis zwei vollständige Wochen laufen, um Wochentag-Schwankungen auszugleichen.

Multivariate Tests

Während A/B-Tests zwei Varianten einer Variable vergleichen, testen multivariate Tests (MVT) mehrere Variablen gleichzeitig. Beispiel: Drei Headline-Varianten × zwei CTA-Farben = sechs Kombinationen. MVT erfordern deutlich mehr Traffic als einfache A/B-Tests und sind komplexer in der Auswertung.

Tools

  • Optimizely: Enterprise-Lösung für A/B-Tests, Feature Flags, Full Stack Testing
  • VWO (Visual Website Optimizer): Ganzheitliche CRO-Plattform mit A/B-Tests, Heatmaps, Session Recordings
  • AB Tasty: Europäische Alternative mit starkem DSGVO-Fokus
  • Google Optimize (eingestellt 2023): Nachfolger-Integration: GA4-Experimente (begrenzt) oder Looker Studio-basierte Auswertung
  • Meta Ads A/B Test: Direkt im Meta Ads Manager für Kampagnentests
  • Klaviyo / Mailchimp: E-Mail-A/B-Tests für Betreffzeilen, Inhalte

Beispiele

  1. Kursanbieter: Hypothese: Kürzeres Anmeldeformular (3 statt 7 Felder) erhöht Conversion Rate. Test über 4 Wochen mit 500 Visits pro Variante. Ergebnis: Version B (kurzes Formular) +28 % CVR bei 97 % Konfidenz. → Kurzes Formular wird eingeführt.
  2. E-Commerce: Betreffzeilen-Test für Warenkorb-Abandon-E-Mail. Variante A: „Du hast etwas vergessen..." – Variante B: „Dein Warenkorb wartet!" Ergebnis: Variante B +15 % Open Rate, +9 % Klickrate. → Variante B wird Standard.
  3. SaaS-Unternehmen: Landing-Page-Headline-Test: „Software für Projektmanagement" vs. „Schafft ihr Team 30 % mehr in der gleichen Zeit?" Ergebnis: Nutzen-orientierte Headline +41 % CVR. → Deutlicher Gewinner.
  4. Media-Publisher: CTA-Button-Farbe auf Newsletter-Anmelde-Widget. Grün vs. Orange. Kein signifikanter Unterschied nach 2 Wochen mit 1.200 Besuchen. → Nicht aussagekräftig, nächste Hypothese: Button-Text.
  5. Meta Ads-Kampagne: Creative A: Produktbild vs. Creative B: Video-Testimonial. Ergebnis: Video-Creative -22 % CPA bei 96 % Konfidenz. → Budget in Video-Creative verschieben.

In der Praxis

Testpriorität: Nicht jede Idee ist einen Test wert. PIE-Framework (Potential, Importance, Ease) hilft, Tests nach Aufwand-Nutzen-Verhältnis zu priorisieren.

Einen Test gleichzeitig: Parallele Tests auf derselben Seite kontaminieren sich gegenseitig. Strikte Trennung der Testräume ist essenziell.

Vor dem Test: Traffic-Schätzung für ausreichende Stichprobe, Testdauer kalkulieren, Dokumentation vorbereiten.

Nach dem Test: Ergebnis dokumentieren (auch negative Ergebnisse sind wertvoll), Learnings in die nächste Hypothese einfließen lassen.


Vergleich & Abgrenzung

MethodeBeschreibungAufwandTraffic-Bedarf
A/B-Test2 Varianten, 1 VariableNiedrigMittel
Multivariater TestMehrere Variablen gleichzeitigHochSehr hoch
A/A-TestGleiche Variante zweimal (Test des Test-Tools)NiedrigMittel
Split-URL-TestVerschiedene URLs statt Varianten auf einer SeiteMittelMittel

Häufige Fragen (FAQ)

Wie viel Traffic brauche ich für einen validen A/B-Test? Das hängt von der Baseline-Conversion Rate und dem erwarteten Uplift ab. Faustregel: Je niedriger die aktuelle Conversion Rate, desto mehr Traffic ist nötig, um kleine Verbesserungen statistisch nachzuweisen. Mit einer Baseline-CVR von 3 % und einem erwarteten Uplift von 20 % benötigt jede Variante ca. 1.700 Besuche. Bei 1 % CVR Baseline steigt der Bedarf auf ca. 5.000 Besuche pro Variante. Online-Rechner (z. B. Evan Miller Sample Size Calculator) liefern präzise Werte.

Warum soll ich einen Test nicht zu früh abbrechen? Das frühzeitige Abbrechen eines Tests bei scheinbar eindeutigem Ergebnis ist statistisch gefährlich. In den ersten Tagen schwanken Daten stärker, weil Stichproben noch klein sind. Der sogenannte „Peeking-Fehler" beschreibt das Problem, dass frühe Signifikanz oft nicht bestehen bleibt, wenn der Test weiterläuft. Mindestlaufzeit: eine vollständige Woche, besser zwei.


Verwandte Einträge


Weiterführend

  • Kohavi, Ron / Tang, Diane / Xu, Ya: „Trustworthy Online Controlled Experiments", Cambridge University Press, 2020 (Standardwerk)
  • Optimizely Blog: „A/B Testing Guide" – optimizely.com
  • VWO: „The Beginner's Guide to A/B Testing" – vwo.com
  • Evans, Pete: „Conversion Optimization", O'Reilly, 2012
Verwandte Einträge
← Zurück zu Online-Marketing & Content
Infotag · 13. Mai · 15:00 Uhr · Vor Ort

Sei am Mittwoch dabei.
Bring Eltern oder Freunde mit.

Ein halber Nachmittag, der dir drei Jahre Klarheit bringen kann. Kostenlos, unverbindlich, ehrlich.

  • Rundgang durch Studios, Schnitträume und Tonstudio
  • Echte Absolventenfilme sehen
  • 1:1-Beratung zu Bewerbung & BAföG
  • Studierende direkt fragen
  • Kaffee, Snacks, kein Sales-Pitch
  • Auch online möglich

Platz beim Infotag reservieren

Dauert 30 Sekunden. Bestätigung per E-Mail.
100 % kostenlos · keine Verpflichtung · jederzeit absagbar