Konverteringsoptimering: 3 enkla förutsättningar för A/B test

Graf från omslaget till webbanalys-boken

Jag är den första att poängtera att webbanalys har massor av olika infallsvinklar, men konverteringsoptimering är en av de viktigaste. För konverteringsoptimering är nog A/B-tester den vanligaste metoden. Det krävs dock lite (ut)bildning för att inte slösa sin energi när det gäller A/B-tester.

För att städa undan definitionerna av begreppen A/B-tester och konverteringsoptimering (CRO) tänkte jag bjuda på citat istället för att försöka förklara med egna ord.

“…users randomly work with one of the two deployed design alternatives. The difference in design can be as subtle as different words on a button or different product image, or can involve entirely different page layouts and product information.”
– Jeff Sauro och James R. Lewis, boken Quantifying the User Experience (2016)

Eller om man frågar Wikipedia vad konverteringsoptimering (CRO) är för något:

“In internet marketing, conversion optimization, or conversion rate optimization (CRO) is a system for increasing the percentage of visitors to a website that convert into customers,[1] or more generally, take any desired action on a webpage.”

Förutsättningar för konverteringsoptimering

Det som krävs för att jobba med A/B-tester är bland annat att:

  1. Veta om man har tillräckligt stort underlag av användare. Risken är att man inte hinner komma fram till något i rimlig tid om man har för få användare.
  2. Man måste arbeta fram en vettig hypotes att utvärdera.
  3. Inte köra onödiga test någon annan redan utvärderat.

Resurser för konverteringsoptimering

Inte helt oväntat finns det nyttiga resurser på webben för att hjälpa oss med konverteringsoptimering.

Var är det lönt att A/B-testa?

Conversionista! är vad det verkar en av de främsta inom konverteringsoptimering på den svenska marknaden. De erbjuder en Experiment Feasibility-kalkylator, alltså ett sätt att räkna ut hur mycket trafik man behöver för att det ska vara lönt att jobba med A/B-tester. Det man försöker uppnå är statistisk signifikans – att med statistik bevisa att man har goda skäl att lita på sitt resultat, att det inte beror på slumpen.

För stora webbplatser kan man utvärdera det mesta, då blir det mer en fråga om hur många dagar det tar. På mindre webbplatser kan det ta så lång tid att det inte är lönt eller att omständigheterna förändrats innan testet är färdigt.

Vad är en vettig hypotes att A/B-testa?

Även när det gäller hur man utformar sin hypotes för utvärdering av ett A/B-test har Conversionista! ett stöd i formulär-form. Som så ofta inom webbanalys går det ut på att besvara frågor, exempelvis:

  1. Vad är det för problem eller möjlighet vi vill undersöka?
  2. Med vilken designmetod vill vi undersöka det?
  3. Hur är ändringen tänkt att fungera?
  4. Riktar vi oss till någon särskild grupp användare/segment?
  5. Vad är det vi tror ska hända på grund av denna designändring?
  6. Hur mäter vi den skillnaden vi antar kommer inträffa?

Om du har svar på ovanstående frågor står du inte svarslös om någon undrar varför A/B-testet utförs.

Vilka A/B-test har redan körts på en representativ grupp användare?

Många andra har förstås redan kört test. Kanske finns ett test du söker resultatet för redan dokumenterat? Ett ställe att kolla diverse tester är behave.org

Om webbanalys intresserar dig kanske jag kan fresta dig med boken Webbanalys – förstå och förbättra användarnas upplevelse

psst!
Om du anger koden “friendsofintranatverk” när du checkar ut mina böcker hos förlaget Intranätverk så får du 20% rabatt på priset…