Vad är ett A/B-test?

En av de mest kraftfulla metoder som finns för att förbättra din hemsida eller app är att använda dig av A/B-testning (även kallat split test). I grunden är det väldigt enkelt.

I stället för att älta och bråka om hur en sida ska se ut, så väljer du ut minst ett av dina bästa förbättringsförslag och testar mot den nuvarande versionen (orginalsidan). Den sida som ger bäst resultat, baserat på data från riktiga besökare, vinner. Sedan kan du förfina, göra nya undervarianter av den vinnande sidan och testa igen. Då har du skapat en loop för konverteringsoptimering, baserad på data.

A/B-test

5 fördelar med A/B-testning

  1. Du testar på dina riktiga besökare och ingen konstgjord ”panel” eller liknande.
  2. Besökare märker inte testet, så du undviker den påverkan på beteendet som det kan få av att testdeltagarna är medvetna om att de blir observerade.
  3. Du isolerar förändringen du vill testa så att du vet dess exakta påverkan. Det gör det otroligt mycket bättre än en före/efter-analys där du till exempel kan ha yttre omvärldsfaktorer som påverkar.
  4. Testet körs samtidigt i tiden för både A och B. Återigen så mycket bättre än en före/efter-analys som kan påverkas av säsongsvariationer, kampanjer eller liknande.
  5. Du får % siffror på exakt hur mycket bättre eller sämre något är. Detta kan vara väldigt användbart när ni ska ta viktiga beslut.

A/B-test – Så går det till

De flesta företag idag använder sig av något externt A/B-testverktyg (finns många på marknaden). Då lägger du enkelt in ett javascript på din hemsida som gör att verktyget slumpmässigt kan fördela besökarna till att se olika varianter av den sida eller sidor du vill testa på.

Verktyget kan också fånga upp värdefulla handlingar som du vill att besökarna ska ta, till exempel genomföra ett köp eller fylla i ett formulär. Det är vad vi menar med konverteringar. Det är dessa som du vill mäta och jämföra i A och B, och senare avgöra testet utifrån. Du kan använda flera mätvärden i ett test, men det är bra att bestämma dig för vilket som är ditt viktigaste (primära) i varje test.

Exempel på verktyg för A/B-testning: Optimizely, Visual Website Optimizer (VWO), Kameleoon, AB Tasty, Adobe Target, Google Optimize/Optimize 360*

*Google Optimize/Optimize 360 läggs ner den 30 september 2023. Vill du ha oberoende rådgivning om vilket verktyg som passar ditt företag bäst? Kontakta oss idag!

VWO560

Så här kan ett pågående test se ut, där Control (originalsida) mäts mot Variation (testsida).

Testverktyget håller reda på besökare genom cookies, så att en besökare alltid får se samma variant även om hen kommer tillbaka flera gånger. Du vill inte att samma besökare ska se olika varianter för då vet du inte i slutändan vilken variant som ledde till konverteringen.

Multivariat testning

När man hör ordet A/B-test kan det vara enkelt att tänka att man alltid bara har två versioner, ett original (A) och en variant (B). Men det går lika bra att ha fler varianter (A/B/C/D/osv.) i samma test och då brukar vi prata om multivariat testning. Om du t.ex. vill hitta den bästa layouten för din sida kan du ha tre olika bilder, två olika rubriker och två olika färger på en knapp. Detta leder till 3 x 2 x 2 = 12 olika testkombinationer.

Det kan snabbt bli många kombinationer, och då gäller det att ha tillräckligt mycket trafik, för fler varianter gör det lite svårare att få statistisk säkerhet i resultaten.

Vanliga fel vid A/B-testing

När vi A/B-testar hoppas vi på att få vad som kallas ett statistiskt signifikant resultat. Det innebär att det är tillräckligt stor skillnad mellan A och B för att vi med säkerhet ska kunna säga att en av dem är bättre.

Några vanliga fel kan leda till att du får svårt att få signifikanta resultat, och istället står där med tester som inte visar någon skillnad.

1. Du har för lite trafik/konverteringar

Det är inte alla hemsidor och appar som har lyxen att ha oändligt mycket trafik och därför är det bra att du innan du startar testet räknar på om antalet besökare och konverteringar kommer att räcka till för att få ett resultat inom en rimlig tid.

Som nämnt tidigare spelar även antalet varianter in, ju fler varianter desto mer trafik/konverteringar behövs. Vi har en praktisk kalkylator där du kan räkna mer på detta.

2. Du testar för många saker samtidigt

Säg att du vill testa en ny bild, en ny rubrik och en ny knapp. Du har inte trafik till ett multivariat test så du gör ett enkelt A/B-test med den gamla sidan mot den nya sidan, med alla de nya elementen.

Testresultatet visar ingen skillnad mellan de två alternativen. Vad ska du dra för slutsats nu? Kanske var rubriken bra och knappen dålig? Eller tvärtom? Du vet inte.

3. Du testar fel saker och gör för små förändringar

Det svåraste med att göra bra tester är inte att sätta upp testtekniken – det är att komma fram till vad som är värt att testa – Att skapa bra testhypoteser. Bäst hypoteser får du genom att göra ordentlig research om dina kunder innan.

Ändringar som är mindre viktiga för konverteringen eller inte är tillräckligt ”radikala” leder till ett testresultat som inte tillför dig mer värde än att du lär dig att våga mer. För att kunna få fantastiska testresultat måste du ofta ”backa bandet” ännu mer och våga göra ännu större förändringar.

Om du inte ser förbättringar direkt – tänk på att det viktigaste med A/B-testning är att du lär dig. Även av dina misstag!

Kom igång med A/B-testning!

Vi har Sveriges starkaste optimeringsteam redo att hjälpa just dig. Vi är Nordens första Optimizely 2 Star Solution Partner samt certifierad partner till VWO, Sitecore m.fl. – de ledande A/B-testverktygen idag.

Fråga våra experter på A/B-testning
Conversionista is open for business in The Netherlands.
Conversionista is open for business in The Netherlands. Read more.