Zo optimaliseer je jouw landingspagina bij lage bezoekersaantallen

10 januari 2019, 10:00

Je hebt alles gelezen over conversie-optimalisatie. Je brengt sommige strategieën in de praktijk en zet je landingspagina live. De conversie is goed, maar toch knaagt er iets. Kan het niet nog iets beter? Wat zou het effect zijn van een andere call-to-action? Zou de conversie stijgen of dalen als je een man in plaats van een vrouw op de productfoto’s zet? In dit artikel onderzoeken we verschillende strategieën die je kunt gebruiken om goede A/B-tests te houden, ook als je minder testmogelijkheden hebt dan de grote spelers.

Het eerste dat in je opkomt om je website te verbeteren is A/B-testing. Je leest artikelen over hoe internetreuzen dit doen. Grote websites met honderdduizenden pageviews en duizenden conversies. Dankzij de wet van de grote getallen kunnen zij meerdere tests tegelijkertijd uitvoeren en hun conversie steeds verder opkrikken.

Allemaal leuk en aardig, maar jij hebt een nichewebsite. Jij bent al blij als er vijftig mensen per dag op je landingspagina’s komen. Misschien heb je dan ook nog de pech dat je het moet hebben van een klein aantal conversies, bijvoorbeeld omdat je een duur product verkoopt. Een vraag die je jezelf wellicht stelt is: kan ik A/B-testing toepassen op mijn website met een relatief laag bezoekersaantal?

De wet van de grote getallen is machtig, maar er zijn gelukkig voldoende mogelijkheden om toch goed te testen.

Test altijd synchroon

Misschien ben je optimistisch aangelegd. Je denkt dat een verandering een verbetering is. De nieuwe aanpassing aan je landingspagina zal tot een hogere conversie leiden, dat weet je zeker. Je voert de verandering alvast door voor alle bezoekers en vergelijkt achteraf of de conversie beter is. Met andere woorden, je houdt een opeenvolgende test. Deze methode kan werken, maar in de praktijk duurt een opeenvolgende test vaak te lang.

“In de praktijk duurt een opeenvolgende test vaak te lang”

Allerlei factoren van buitenaf hebben dan invloed op je testresultaten. Bij regenachtig weer ligt de conversie op regenkleding hoger dan wanneer de zon schijnt. Media-aandacht, zowel positieve als negatieve, kan je conversieratio doen stijgen of dalen. Je testresultaten raken dan vertroebeld. Een groot bedrijf kan de test nog een keer herhalen nadat de mediastorm geluwd is. Jij bent dan weken of misschien wel maanden verder. Ook op een kleine website kun je dus beter synchroon testen. Dat je dan misschien wat conversies misloopt omdat je verandering echt een verbetering is, moet je dus maar voor lief nemen.

Test grotere aanpassingen

Wanneer je bezoekersaantal hoog ligt, is het eenvoudig om de resultaten te meten van kleine aanpassingen. Wat gebeurt er als je de kleur van de bestelbutton één tintje feller rood maakt? Stijgt de conversie als je een uitroepteken achter ‘bestel nu’ zet? Dergelijke kleine aanpassingen zorgen ervoor dat een grote website van 3.004 conversies per 100.000 bezoekers naar 3.006 conversies gaat.

Bij een kleinere website duurt het jaren voordat je weet of een minuscule aanpassing enig effect heeft. Bij een grotere aanpassing, zoals een andere productfoto of een andere plek voor een formulier, merk je sneller verschil. Je kunt dan veel eerder conclusies trekken.

Test microconversies

Niet alleen een klant die iets koopt of die het contactformulier invult, is winst. Je kunt ook de interesse van de klant in jouw product peilen door microconversies te meten. In plaats van alleen te kijken naar de aankopen, kijk je naar andere acties die de interesse van jouw klanten bevestigen.

“Niet alleen een klant die iets koopt of die het contactformulier invult, is winst”

Iemand die geïnteresseerd is, maar nog niet tot aankoop overgaat, klikt door. Hij leest je reviews of zoekt uit hoe het zit met de levertijd. Dit zijn acties waar waarschijnlijk een aankoopintentie achter zit. Je kunt eenvoudig meten weten welke versie van je landingspagina tot meer microconversies leidt. Een hele simpele metric kan zijn om het aantal bounces voor je beide landingspagina’s te vergelijken, maar dit is niet altijd een goede maatstaf.

Test één ding tegelijk

Eén aanpassing bij een formulier kan verschil maken in de conversie.

Wellicht bestaat je aankoopproces uit twee pagina’s. De landingspagina en een aankoopformulier. Met kleine bezoekersaantallen kun je maar met een van de twee pagina’s goed testen. Op het moment dat je op beide pagina’s gaat testen, houd je in principe vier tests. Je test pagina A met formulier C én met formulier D, en je kijkt naar de conversie van pagina B in combinatie met beide formulieren.

Je kunt heel makkelijk verkeerde beslissingen maken als je je hier niet van bewust bent. Is landingspagina B een draak van ding, dan klikken niet veel bezoekers door naar het aankoopformulier. De bezoekers die dat wel doen, zijn misschien wel gemotiveerder om het formulier af te maken. Alleen is het dan maar de vraag of de mensen die op landingspagina B terecht kwamen goed verdeeld zijn over formulier C en D.

Neem genoegen met minder zekerheid

Ondernemen is risico’s nemen. Dat is online niet anders. Als je sneller een vermoeden wilt krijgen wat werkt, dan kun je genoegen nemen met minder zekerheid. Je maakt hiervoor gebruik van de wetten van de statistiek.

Wil je 99 procent zeker zijn dat een aanpassing tot een hogere conversie leidt, dan heb je bijna drie keer zoveel bezoekers en conversies nodig dan wanneer je met 90 procent zekerheid genoegen neemt. De kans op fouten is iets groter, maar je hebt veel sneller resultaat. Doordat je bijna drie keer zo snel verbeteringen kunt testen, heb je eerder een robuuste basis waarmee je vervolgens verder kunt experimenteren.

Kwalitatieve methoden

De methoden die we tot nu hebben gepresenteerd zijn gebaseerd op harde cijfers. Conversieratio’s in combinatie met statistiek. Dit is meetbaar en er is geen ruimte voor interpretatie. Iedereen zal tot dezelfde conclusie komen.

“Soms kun je, of wil je, niet wachten tot je keiharde resultaten hebt”

Soms kun je, of wil je, niet wachten tot je keiharde resultaten hebt. Je organiseert bijvoorbeeld een evenement en met de huidige bezoekersaantallen is het evenement al voorbij op het moment dat je eerste test klaar is. Je kunt dan gebruik maken van kwalitatieve methoden om je landingspagina te verbeteren. Je leest hieronder welke kwalitatieve methoden voor jou interessant kunnen zijn.

Heat, scroll en clickmaps

Heat, scroll en clickmaps zoals je die maakt met Hotjar, zijn goede voorbeelden van kwalitatieve methoden. Deze zijn natuurlijk wel gebaseerd op harde feiten, je kunt zien waar de gebruiker heen scrollt, klikt of waar hij zijn cursor heeft gehouden. Wat je hiermee doet is echter open voor interpretatie.

Een bekend fenomeen bij scrollmaps is bijvoorbeeld dat mensen soms al beginnen te scrollen voordat de pagina helemaal geladen is. Je kunt dan ten onrechte concluderen dat een element dat onder de vouw staat naar boven zou moeten. Als je op je clickmap ziet dat klanten vaak inzoomen op de foto van een van je drie producten, wat betekent dit dan? Zijn bezoekers meer geïnteresseerd in dat product of is de productfoto niet duidelijk?

De heat-, scroll- en clickmaps zijn vooral geschikt als aanvulling op een A/B-test. Aan de hand van de maps kun je misschien afleiden waarom pagina A beter rendeert. Deze lessen kun je gebruiken om pagina A wellicht nog verder te verbeteren.

Je tests crowdsourcen

Een snelle manier om input te krijgen is door je tests te crowdsourcen. Via websites als Usabilityhub kun je mensen wereldwijd je website laten testen. Probleem bij deze methode is dat je een internationaal testpubliek krijgt. Je kunt dus wel redelijk inschatten wat het gevolg is van een andere afbeelding, maar niet van een andere copywriting.

Je kunt dan andere manieren gebruiken om achter de mening van potentiële bezoekers te komen. Ga desnoods naar het lokale koffietentje en koop een bak koffie voor de mensen die even de moeite nemen om naar jouw webpagina’s te kijken. Of je verloot een prijs onder de mensen die goede feedback geven op jouw website.

“Kwalitatieve methoden vertellen je waarom je je kwantitatieve resultaten kreeg”

Uiteindelijk blijft het moeilijk om te bepalen of de bevindingen van een crowdsource-test representatief zijn. De omstandigheden zijn anders. Misschien geeft de proefpersoon je geen eerlijke feedback. Iemand met interesse in bergbeklimmen reageert bovendien anders op het woord pofzak dan iemand in de koffiebar die niet weet waar een pofzak voor dient.

Bepaal je strategie

A/B-testing is ook geschikt voor websites met lagere bezoekersaantallen. Je hebt hiervoor wel een goede strategie nodig. Je moet goed weten wat je doet. Als je de tijd hebt, kun je grotere aanpassingen testen en genoegen nemen met wat minder statistische zekerheid. Wil je je pagina snel verbeteren, dan kun je meer kwalitatieve methoden gebruiken. De kans dat je onjuiste conclusies trekt is dan wel groter.

Wanneer tijd geen probleem is, is het mogelijk om de verschillende technieken met elkaar te combineren. Kwalitatieve methoden vertellen je dan waarom je je kwantitatieve resultaten kreeg. Dit vormt dan een waardevol startpunt voor verdere verbetering.

Op welke manieren test en optimaliseer jij landingspagina’s die weinig bezoekers krijgen? Laat het weten in de comments!

René Voorberg
Eigenaar, online marketingspecialist bij De Beelddenkers

René Voorberg (1983) is eigenaar van internetbureau De Beelddenkers uit Utrecht. In 2021 is René een start-up begonnen met een focus op het toegankelijk maken van formulieren: FormNerds (formnerds.nl).

Categorie
Tags

3 Reacties

    EdwinW

    Ik wil niet vervelend doen, maar met een hoop aannames ben ik het toch niet eens.

    Ik vind bv. niet dat je kan gaan A/B-testen met lage bezoekersaantallen. Het toeval speelt dan gewoon te veel een rol. Neem je je tijd, dan zal een deel van de bezoekers – al dan niet automatisch – zijn cookies verwijderen en ‘vervuilen’ ze later de resultaten. Zelfs als niemand zijn cookies wist, dat zorgt de tijd zelf wel voor bias.

    Clickrate e.d. zijn gewoon niet natuurlijk. Het gedrag van dit soort testers stemt niet overeen met echte gebruikers.

    Meningen vragen en prijzen beloven is helemaal uit den boze. Zie ook Jakob Nielsen die stelt dat je nooit naar gebruikers moet luisteren. Terecht ook. En natuurlijk vinden ze je website dolletjes wanneer je er een prijs aan koppelt.

    Usability is een vak, eentje waar je hard voor moet studeren en veel ervaring in mag genieten voor je het naar behoren kan uitvoeren. Dat kan je niet vervangen door de mening van wat leken. Usability mensen werken trouwens nooit met meningen. Neen, nooit.

    Als je weinig bezoekers hebt, dan zijn er echt wel zeer efficiënte methodes om een betere gebruiksvriendelijkheid te bekomen. Je kan in eerste instantie al eens de basis laten goed zetten, de ergste kemels eruit halen, d.m.v. een expert review uitgevoerd door een kundig usability expert.

    De vooruitgang dat je hiermee kan boeken is meestal spectaculair.

    Later kan je je website testen met echte gebruikers die representatief zijn voor je doelgroep. Laat een deel vrij surfen en geef een ander deel opdrachtjes à la ‘bestel iets’, ’telefoneer het bedrijf’, ‘schrijf je in op de nieuwsbrief’, etc.

    Daarna hou je in de gaten waar ze sukkelen, waar ze vloeken, zuchten, boos of irritatie ondervinden.

    Hun mening, die negeer je. Het is hun gedrag waar je wél aandacht voor moet hebben.

    Gebruikerstesten kan je ook zelf doen, natuurlijk zal een kundig usability expert er wat meer gegevens uit sleuren, maar toch kan je als leek hier wél goede en betrouwbare data uit verkrijgen.


    15 januari 2019 om 11:37
    debeelddenkers

    Bedankt voor je reactie Edwin,

    Ik heb over je antwoord nagedacht.

    Je kunt behoorlijk met de statistische factoren spelen om in ieder geval de wat grotere verschillen te testen. Door te kijken naar microconversies i.p.v. volledige conversies wordt er vaak ook al een hoop extra duidelijk. Je hebt wel gelijk dat er een punt komt waarbij je de test maar beter kunt stoppen omdat je niet meer weet of de resultaten nog betrouwbaar zijn. Heb je in deze periode wel relatief veel bezoekers gehad, dan is het verschil tussen variant A en B waarschijnlijk gewoon te klein.

    Dit artikel is wel geschreven vanuit de gedachte dat de site-eigenaar zich ingelezen heeft (of heeft laten adviseren) en verder wil optimaliseren. Als je zomaar wat aan het doen bent, kun je er inderdaad beter een expert bij halen.

    Usability design is even goed geen exacte wetenschap. Als je tien experts naar een pagina laat kijken, krijg je ook tien meningen. Dat is niet erg, maar je wilt nu eenmaal wel weten wie gelijk heeft, zeker als de experts heel verschillend over iets denken. En dan zul je toch iets moeten verzinnen om een gedegen keuze te maken.

    Het grootste bezwaar bij testen met behulp van opdrachtjes is naar mijn mening dat de meeste taken wel goed uit te voeren zijn door gebruikers als zij bekend zijn met principes. Ze zoeken naar een invulveld voor het e-mailadres als ze zich in willen schrijven op de nieuwsbrief. Ze zoeken in de footer of op de contactpagina naar een telefoonnummer. Dit terwijl sommige landingspagina’s juist gemaakt zijn om één handeling te laten slagen (een rode knop met ‘koop nu’).

    De testgebruiker benadert de website door de opdracht ook anders dan een ‘natuurlijke’ bezoeker. De natuurlijke bezoeker is misschien alleen op zoek naar informatie, maar je wil ervoor zorgen dat die ofwel iets koopt, ofwel op een andere manier zijn interesse bevestigt (een like, een offerte aanvragen, inschrijven voor de nieuwsbrief, wat dan ook).

    Bovendien kom je er nooit achter komen of de beschrijving over de inhoud van de nieuwsbrief duidelijk is of dat de foto past bij de verwachting van de gebruiker. Begrijp me goed, dat kun je waarschijnlijk ook niet oplossen met A/B testing (op een website met weinig bezoekers), maar daar is een mening vaak wel de enige optie.

    Usability testing vind ik wel erg waardevol als het gaat om wat ingewikkeldere taken, bijv. bestel een shirt van het Nederlands Elftal en laat op de rug de naam en rugnummer van je favoriete speler zetten.

    Ik kijk uit naar je reactie.


    16 januari 2019 om 10:18
    EdwinW

    Dag René,

    Sorry voor het lange antwoord 🙂

    Ik ben gezond argwanend t.o.v. A/B-testen. Zelfs als ze met voldoende publiek plaats vinden in een kort tijdsbestek.

    Zelf al meegemaakt, maar er zijn ook getuigenissen zat te vinden waarbij een identieke test werd overgedaan op een later tijdstip en voor een ander resultaat zorgde. En het is niet altijd evident om te bepalen wat hiervan de oorzaak was.

    Ook klassiek: kleine details kunnen een wereld van verschil maken. Test met een afbeelding, op de ene gebruik je een jonge dame, op de andere een oudere. En eentje wint. Hoera. Waarna je de ‘verliezer’ een ander haarkleurtje geeft of een andere kleur van blouse en je een andere winnaar verkrijgt.

    Snap je? Met een klein publiek ben ik dan helemaal op mijn hoede.

    Ik bedoelde trouwens niet Clickrate, maar Usabilityhub en vergelijkbare dingen.

    Je geeft deels al zelf aan in je artikel wat het probleem is: de teksten natuurlijk. Helaas kunnen die teksten wel een belangrijk onderdeel van de gebruiksvriendelijk zijn.

    Maar zelfs als je dat probleem kunt oplossen, dan nog is het gedrag niet ‘zuiver’, maar te gemaakt. Het is alsof je een indiaan uit het Amazone-woud laat overkomen naar hier en hem vraagt, “Doe eens alsof je op jacht gaat in het oerwoud”. Dan ga je wel iets te zien krijgen wat er misschien op lijkt, maar het is niet echt, er zal gegarandeerd bias zijn.

    De context, de omgeving is weg én dat heeft invloed op het gedrag.

    Da’s ook de reden waarom ik persoonlijk niet zo’n fan ben van usabilitylabo’s, alhoewel die voor bepaalde zaken wél nut hebben natuurlijk.

    Ja, experten kunnen onderling andere bevindingen hebben tijdens expert reviews en dat is heel normaal.

    Elke individu heeft nu eenmaal andere bagage bij, theoretisch aangeleerd of bekomen door ervaring. En er is ook het menselijke aspect, de ene heeft meer aandacht voor dit, de andere voor dat.

    Maar die experts die gaan a) ook veel dezelfde bevindingen hebben b) en over de verschillen, mits de bewijskracht goed gestaafd is, gaan ze niet zo lastig doen.

    Hun bevinding is altijd gekoppeld aan een eerder algemeen bewezen iets. Het is gebaseerd op gedrag en geen eigen voorkeur of voorliefde.

    Wat je wel kan hebben, kleinmenselijk misschien, is leuke gevechtjes over de prioriteiten.

    Gewone mensen hebben die wetenschap niet en duwen gewoon hun mening naar voor. Maar dat kan iets persoonlijk zijn, anekdotisch bewijs dat ze dikwijls generaliseren. “Ik vind het gemakkelijk/moeilijk en ik zou niet begrijpen waarom iemand anders dit anders zou invullen”.

    Je moet gewoon eens naar een willekeurig forum gaan waar mensen aan anderen vragen, “Wat vind je van mijn website?”. Die mensen liegen niet, goedbedoeld formuleren die een mening. Het is mogelijk dat zelfs een overgrote meerderheid die mening deelt.

    Maar…voorkeur is niet hetzelfde als gedrag, waardoor het genadeloos fout kan zijn.

    Een meerderheid kan zeggen “Liever een groene knop, dan een rode, want die vinden we mooier”, maar dat in het gebruik (en dus het gedrag) dit niet blijkt en de rode beter werkt.

    Gewone mensen hebben ook niet altijd weet van de big picture én de details. Houden ze rekening met consistentie? Of weten ze dat een bepaalde webpagina weinig wordt bezocht en hierdoor het leercomfort voorrang moet krijgen t.o.v. het gebruiksgemak?

    Ik moet zeggen dat ik wel goede ervaringen met gewone mensen gebruikerstesten te laten uitvoeren. Da’s ook niet zo enorm complex, je hebt daar weinig voor nodig en iedereen kan wel zien wanneer iemand anders het lastig heeft of er net vlot door geraakt.

    Ik zou niet durven stellen dat gebruikerstesten over ingewikkelde usabilityproblemen handelt, maar wél over andere, op een dieper niveau.


    16 januari 2019 om 22:11

Marketingfacts. Elke dag vers. Mis niks!