Conversiebijziendheid

20 oktober 2006, 18:31

Hierbij even een stukje bezinning. Via usabilityweb: Conversie zegt ook niet alles!

Wel eens meegemaakt dat iedereen je op je schouder klopt, omdat je met een A/ B test hebt aangewezen dat je op een bepaalde landingpage 21% meer klanten hebt laten converteren dan met de normale landingpage? Complimenten! Ik houd persoonlijk ook nogal van de A/B test, en het leveren van bewijs aan de hand van harde conversiecijfers. Maar Michael Behrens geeft een mooi voorbeeld waarom je je niet moet blindstaren op conversie alleen.

In een adwordcampagne aan de hand van het adword ‘rode jassen’ 50% van het bezoek naar een pagina geleid met uitsluitend rode jassen. En de overige 50% kwam op een pagina met een gewone jas (geeneens een rooie), maar mét een promotie waarbij $ 15 korting werd geboden als meer dan $ 100 werd besteed. Op beide pagina’s kostten de jassen $50,-.

Zoals iedere rechtgeaarde landingpage-specialist zal beamen, converteerden er natuurlijk meer bezoekers die op de pagina die lekker logisch in elkaar zat. De pagina waarop rode jassen werden getoond leverde vanzelfsprekend 21% meer kopers op uit een adwordcampagne waarin mensen zochten op rode jassen, dan de pagina met een enkele (niet rode) jas.

Maar het gaat in een verkoopproces niet om aantallen, maar om de knikkers (marge en omzet). De pagina van de promotie leverde uiteindelijk meer omzet op, omdat mensen de jas in het winkelwagentje gooiden en vervolgens door gingen shoppen om tenminste $ 100,- te besteden, om in aanmerking te komen voor de korting.

Kijk dus altijd even verder dan pure aantallen bestellers per dag. Hoeveel omzet bracht A en hoeveel omzet bracht B? Heb je lang genoeg gemeten om ook de ‘return visitors’ een kans te geven? Hebben er veel mensen gebeld naar het nummer dat op de A of de B pagina stond? En, voor de Pietjes precies onder ons, heeft de ene groep een hogere lifetimevalue dan de andere? Welke actie zet aan tot ‘recommendation?’

Mijn vuistregel is dat elke klik je gemiddeld zo’n 15% van je bezoekers kost. In termen van een knikkerbaan: elke klik en elke verrassing geeft frictie. Maar degenen die de frictie overwinnen (door trucs als bijvoorbeeld ‘je krijgt een korting als je even doorshopt’) kunnen wel eens met grotere zwaartekracht op je bedanktpagina terecht komen.

Ewald Verhoog (41) is oprichter van het Canicas. Canicas is Spaans voor knikkers en heeft als werkterrein: marketing strategie - marketing tactics - marketing operations en marketing intelligence. Wij helpen onze klanten bij het ontwikkelen en implementeren van de (interactieve) marketing & sales strategie. In Nederland loopt Canicas voorop op het gebied van Persuasion Architecture (Futurenow): basisprincipe is dat de 'gemiddelde' klant niet bestaat. Ieder type klant vraagt om een eigen aanpak, en het internet leent zich hier perfect voor. De meeste klanten maken kennis met Canicas via Canicas Conversie Management ©. CCM helpt klanten om met een beproefde methode, snel de conversie van landingspages en actiewebsites fors te verhogen. Canicas zet een team in van ervaren specialisten op het gebied van webcopy, usability, design, verkooppsychologie en webanalytics om stapsgewijs alle copy- en lay-out aspecten die voor conversie van belang zijn optimaliseren.

Categorie
Tags

12 Reacties

    mvkranenburg

    Hoi Ewald nog een goeie…… “beste bezoeker als u nu boekt staat er op de bedanktpagina een verrassing voor u klaar. U raadt nooit wat het is” of zou het iets te doorzichtig zijn … :- )


    20 oktober 2006 om 18:39
    everhoog

    probeer het eens in de kroeg! “als je nu met me meegaat… “

    😉 prettig weekend


    20 oktober 2006 om 18:55
    mvkranenburg

    Hoi Ewald bedankt voor de tip. Dit heb ik 14 jaar geleden gedaan. En gelukt 🙂 Jij ook fijn weekend.


    20 oktober 2006 om 20:02
    everhoog

    @ martin: geen A/B test gedaan?


    21 oktober 2006 om 06:21
    Frank

    Ewald,

    Ben benieuwd naar je bedenkingen bij een A-Z test?. (oftwel Multivariate)

    Frank


    21 oktober 2006 om 10:07
    mvkranenburg

    @ Ewald: in dit geval was A/B testing niet nodig. Soms weet je direct dat je goed zit 🙂


    22 oktober 2006 om 15:26
    media

    Haha, geweldig, had deze discussie nog niet gezien. Mijn eerste A/B-test jaren terug is helemaal mislukt; gelukkig viel de tweede test een stuk beter uit 😉

    Maar even terug naar het onderwerp (en de vraag van Frank), naar mijn mening is het bivariate A/B-testing veel te beperkt en zou je altijd moeten kijken naar multivariate testing. Cruciale stap daarbij is welke variabelen neem je mee en welk experimental design kies je. Zit zelf onvoldoende in de tools die dit soort testing op dit moment leveren. Kan iemand daar iets meer over zeggen?


    22 oktober 2006 om 15:32
    media

    Mee eens Ewald maar vergeet niet dat je bij te eenvoudige testen vaak in een suboptimum zit. Nu weet ik niet hoe complex het online optimalisatielandschap er uit ziet, maar ik herinner me uit mijn wetenschappelijke tijd bij Organon dat multivariate optimalisatie significant betere resultaten opleverden.

    Ben het overigens niet met je eens dat multivariate testen extreem duur hoeven te zijn. Met eenvoudige experimental designs of simplexoptimalisatie, is handmatig best eea te doen. Memetrics is inderdaad te duur en voor slechts een handjevol online retailers interessant.


    23 oktober 2006 om 06:15
    jw

    In 2001 is hier een artikel over gepubliceerd in de Harvard Business Reviews. Ik kan het artikel niet online plaatsen ivm copyrights. Maar even googlen op onderstaande titel van het artikel laat wel het een en ander zien.

    Boost Your Marketing ROI with Experimental Design.

    In dit artikel een sterk pleidooi voor experimenteel design om meerdere factoren (in dit geval marketing stimuli voor o.a. e-mail marketing) en deze in combinaties uit te voeren. Met de huidige tools van SPSS, Business Objects en Sas moet het goed mogelijk zijn om een dergelijk experiment eenvoudig uit te voeren.


    23 oktober 2006 om 11:37
    Frans Reichardt

    Als testfreak heb ik bovenstaande discussie met belangstelling gevolgd.

    Het voordeel van multivariate testen is dat je de invloed meeweegt van de ene variabele in combinatie met een andere. En Marco heeft gelijk als-ie zegt dat dat soms andere uitkomsten oplevert dan het eendimensionale A/B-testen.

    Zolang je te maken hebt met mensen die dit allemaal begrijpen en kunnen doorgronden, werkt dat prima. De ervaring leert evenwel dat veel mensen al schrikken van woorden als ’testen’, ‘afwijking’ en ‘significantie’, laat staan van ‘multivariate testing’, ‘experimental designs’ en ‘simplexoptimalisatie’. Veel marketing- en communicatieprofessionals zijn (helaas) allergisch voor rekenwerk, analyse en statistiek.

    Daarom begrijp ik Ewald wel als zijn voorkeur uitgaat naar de A/B-test, want “dan snap ik het zelf nog”. Zo’n test kun je zonder ingewikkelde en kostbare software snel en voordelig zelf opzetten en analyseren. En aan een ander uitleggen. Dat laatste is een niet te onderschatten aspect van het testen. Zeker in organisaties waar de kennis van en de ervaring met testen nog niet het niveau heeft bereikt van enkele deelnemers aan de discussie hierboven.

    Dit neemt natuurlijk niet weg dat je met Memetrics – de naam viel hiervoor al – dingen kunt doen en te weten kunt komen, die je met de simpele A/B-test niet kunt.


    24 oktober 2006 om 05:04
    Martin

    @ Frans: prima commentaar. Bij veel bedrijven is het al een behoorlijke klus om een gewenste aanpassing doorgevoerd te krijgen. Laat staan meerdere aanpassingen. Je moet het dus in de context van het bedrijf, mensen en middelen zijn. Meten=weten=verbeteren is het motto en soms weet je gewoon dat het beter dus dan graag meteen maar de aanpassing doorvoeren gewoon omdat het beter is dan het was.


    24 oktober 2006 om 10:55

Marketingfacts. Elke dag vers. Mis niks!