A/B-Testing von Änderungen: So messen Sie die Effektivität auf Ihrer Website
Wenn ein Geschäftsinhaber sagt: „Wir haben das Design überarbeitet“, sollte die nächste Frage immer lauten: „Hat es funktioniert?“ Denn ein ansprechender Button, ein neues Foto oder ein aktualisiertes Formular sind lediglich Hypothesen, die ohne Überprüfung nur oberflächliche Ideen bleiben. A/B-Tests sind der einzige Weg, um wirklich herauszufinden, was funktioniert und was nicht. In diesem Artikel zeigen wir Ihnen, wie eine Website ihre Conversion-Rate mithilfe einfacher A/B-Tests um 27 % steigern konnte und warum das Testen von Änderungen keine bloße Marketing-Spielerei, sondern eine geschäftliche Notwendigkeit ist.
Blindes Designänderung: Wenn „besser“ schlechter bedeutet
Einer unserer Kunden, ein Online-Möbelhaus, beschloss, seine Homepage zu modernisieren. Neues Banner, neue Schaltflächen, weniger Text. Optisch wirkte sie „aufgeräumter“ und „stilvoller“. Doch innerhalb einer Woche sanken die Bestellzahlen.
Auf den ersten Blick hätte alles besser funktionieren sollen: Die Seite lud schneller und reagierte besser. Ein nachträglicher A/B-Test des Glyanets-Teams zeigte jedoch, dass die neue Version eine um 18 % niedrigere Konversionsrate aufwies. Der Grund? Der Block mit den drei wichtigsten Liefervorteilen, der den Kaufanreiz maßgeblich beeinflusste, war aus dem Hauptbanner entfernt worden.
So funktioniert A/B-Testing: Die Grundlagen
Das Prinzip des Tests ist einfach: Die Testpersonen werden in zwei Gruppen aufgeteilt. Einer Gruppe wird die alte Version des Elements (A) gezeigt, der anderen die neue Version (B). Zum Beispiel:
altes Formular mit 5 Feldern vs. vereinfachtes Formular mit 3 Feldern;
Der „In den Warenkorb“-Button ist rot statt grün;
Der Text auf dem Banner „10% Rabatt“ versus „Kostenloser Versand“.
Die Daten werden in Echtzeit erfasst: Wer hat geklickt, wer hat etwas in den Warenkorb gelegt, wer hat bestellt? Nach wenigen Tagen lässt sich sicher feststellen, welche Version effektiver ist. Das sind keine Vermutungen, sondern Zahlen.
Welche Kennzahlen sind bei A/B-Tests wichtig zu erfassen?
Nicht jede Änderung ist sinnvoll, daher müssen Sie wissen, was Sie testen sollten. Die häufigsten sind:
CTR (Click-Through-Rate) – wie oft ein Button oder ein Banner angeklickt wird;
Umstellung – hat die Umstellung zu mehr Bestellungen geführt?
Verweildauer auf der Seite – ist sie für den Nutzer interessanter geworden?
Absprungrate – ob die Änderung einen Teil des Publikums verärgert hat;
Durchschnittlicher Scheck – ob die Änderung den durchschnittlichen Kaufpreis beeinflusst hat.
Ein Test zeigte beispielsweise, dass die Änderung der Farbe eines Buttons von Orange auf Dunkelblau zwar die Klicks verringerte, aber den durchschnittlichen Kaufbetrag erhöhte, da die Leute weniger mit dem Button spielten und häufiger teure Artikel kauften.
A/B-Testing in der Praxis: Wie es in der Realität aussieht
Ein Beispiel ist die Änderung der Produktbeschreibung. Anstelle der Standardangabe „100 % Baumwolle, hergestellt in der Ukraine“ testete das Team die Option „Weicher Naturstoff. Ideal für den Sommer. Hergestellt in der Ukraine.“ Weder Design noch Preis blieben gleich. Die neue Beschreibung führte jedoch zu 12 % mehr Artikeln im Warenkorb.
Ein weiterer Test bestand darin, ein Werbebanner zu platzieren. In der alten Version befand es sich am Seitenende. In der neuen Version war es direkt nach der Kopfzeile. Die Klickrate (CTR) verdoppelte sich.
Warum ständig testen? Der Effekt hält monatelang an.
A/B-Testing ist keine einmalige Angelegenheit, sondern ein Prozess, der kontinuierliche Verbesserungen ermöglicht. Ein Test bringt beispielsweise +5 %, ein weiterer +3 % und so weiter. Innerhalb von sechs Monaten kann der Umsatz einer Website um 30–40 % steigen – ganz ohne zusätzliches Werbebudget. Und das, indem man einfach die richtigen Hypothesen aufstellt und jede Änderung testet.
Und vor allem schützt es vor „subjektiven Entscheidungen“ – wenn ein Manager „einen gelben Knopf will, weil er gerade im Trend liegt“. A/B-Tests liefern die Antwort in Zahlen, nicht in Emotionen.
Wie das Unternehmen Glyanets A/B-Tests in der Praxis umsetzt
Glyanec geht bei A/B-Tests systematisch vor. Wir:
Wir erstellen Hypothesen auf Basis von GA4- und Hotjar-Analysen;
Wir setzen Änderungsoptionen (Design, Text, Blöcke) über spezielle Systeme oder benutzerdefinierten Code um;
Wir sammeln Daten und analysieren sie in Looker Studio;
Wir präsentieren dem Kunden die Ergebnisse in übersichtlicher Form;
Wir führen nur solche Änderungen ein, die die Kennzahlen tatsächlich verbessern.
Wir ändern das Design nicht, „weil es besser ist“. Wir testen, beweisen und implementieren, was funktioniert. Das ist ein ergebnisorientierter Ansatz.
Nur ein Schritt zu Ihrer perfekten Website