A/B testing er en testform som bruges i flere online discipliner. Metoden går på, at du tester et element med en kontrol mod en variant. Det kaldes også splittesting. Man splitter nemlig de samlede visninger af det, man tester mellem varianten og kontrollen. Når testen har kørt i nok tid, har man data til at kåre en vinder. Dette gør man for at forbedre sin performance for det der testes.
Det er vigtigt, at en A/B test kører i så lang tid, det kræves for at testen er signifikant. Det vil sige, at det skal være ret sandsynligt, at udfaldet er korrekt ud fra et statistisk perspektiv. Hvornår der er data nok afhænger af, hvor store udsving der vil være i det man tester. Hvis kontrollen eksempelvis har 10 konverteringer mere end den originale, og der kun er 100 visninger af hver test, så vil det i teorien være signifikant; B er bedre end A.
A/B tests bruges i flere online discipliner – eksempelvis:
- Forbedringer af hjemmesiden
- Google Ads
- Facebook Ads
- Nyhedsbreve
Et eksempel på en splittest kunne være overskriften i en Google Ads annonce. Du vil gerne teste om en anden overskrift er bedre end den originale. Det kan kunne også være, at din “call-to-action” knap på din hjemmeside er grøn, men nu vil du teste, om en rød knap vil være bedre.
Når du laver en A/B test, er det vigtigt, at du kun laver én test af gangen på enten din side eller i din annonce. Ellers kan der være andre årsager til, at B er bedre end A eller omvendt. Det gør din data invalid og vil i værste fald resultere i, at du tager forkerte beslutninger.