Geschreven door Mariska

Vanaf september heeft Google nieuwe opties voor advertentieroulatie uitgerold. Voorheen kon je kiezen tussen maar liefst vier opties:

  • Optimaliseren voor klikken
  • Optimaliseren voor conversies
  • Gelijkmatig rouleren
  • Rouleren voor onbepaalde tijd

Nu is dat aangepast naar slechts twee opties:

  • Optimaliseren: voorrang geven aan de best presterende advertenties
  • Rouleren voor onbepaalde tijd: advertenties die minder goed presteren, gelijkmatiger weergeven met beter presterende advertenties en niet optimaliseren

rouleren adwords advertenties

Onder de eerste opties staat: ‘Beste instelling voor de meeste adverteerders’. Google helpt dus graag met kiezen en duwt ons al een beetje in de richting van de eerste optie, maar data driven als we zijn willen we natuurlijk wel zeker zijn dat dit ook echt de beste optie is. Kan Google dit werk beter dan wij of moeten we onze advertenties continue zelf tegen elkaar afzetten, testen en vernieuwen zoals we over het algemeen al jaren doen?

‘Gelijkmatig rouleren’ vs. ‘Optimaliseren: voorrang geven aan best presterende’

Om erachter te komen welke optie we het best kunnen gebruiken, zetten we de twee opties tegen elkaar af.

Gelijkmatig rouleren houdt in dat alle advertenties in de advertentiegroepen ongeveer even vaak worden vertoond. Google denkt niet mee welke advertentie hij laat zien aan wie. Het is aan ons om de resultaten van de advertenties te interpreteren en een significante winnaar te kiezen om daar vervolgens een variant op te maken.

De optie ‘Optimaliseren: voorrang geven aan de best presterende advertenties’, voor het gemak vanaf nu ‘Optimaliseren’ genoemd, houdt in dat Google bij elke veiling opnieuw de advertentie kiest (mits er meerdere zijn toegevoegd uiteraard) die hij wil laten zien aan de gebruiker. Hiervoor neemt zij allerlei informatie die zij heeft in acht, zoals het apparaat, de zoekterm, de locatie, het gedrag van de gebruiker en nog veel meer. Wij kunnen nooit tippen aan de hoeveelheid informatie en data die die Google heeft over een gebruiker en daarom zou Google in theorie altijd de beste keuze kunnen maken. Kies je voor deze optie, dan is het van belang om zoveel mogelijk diversiteit in de advertenties te verwerken. Iedereen is namelijk een andere type (MBTI). De ene persoon is bijvoorbeeld een koopjesjager en de ander vindt service belangrijker. De ene wil graag rustig aan oriënteren en de ander wil snel de beste deal. Houd hiermee rekening in je advertenties. Met dit in het achterhoofd is het eigenlijk ook een raar idee dat we vaak één significante winnaar kiezen uit de advertenties. Google raadt dan ook aan om altijd 3 tot 5 verschillende advertenties te maken als je smart bidding toepast of kiest voor de optie ‘Optimaliseren’.

Wanneer je een campagne op smart bidding instelt, verandert de advertentieroulatie automatisch in ‘Optimaliseren’, ook al had je hem ingesteld op ‘Gelijkmatig rouleren’. Houd hier dus rekening mee.

Bij het A/B- testen van twee advertentieteksten, zorg je ervoor dat er twee advertenties exact hetzelfde zijn met één variatie. Op die manier meet je het effect van dat ene verschil en worden advertentieteksten steeds beter als het goed is. Hoewel wij online marketeers data driven zijn (meten is weten!), zijn we over het algemeen toch iets minder bezig in statistieken. Statistieken zijn voor ons een middel om een doel te bereiken en niet het doel an sich. Wanneer is een test betrouwbaar genoeg? Wanneer zijn cijfers significant? Als we eerlijk zijn gebeurt dit in de meeste gevallen op gevoel. We wachten net zolang totdat we vinden dat we voldoende data hebben en kiezen dan de beste advertentie. Als we duizenden vertoningen hebben gehad en honderden klikken hebben we over het algemeen wel het gevoel dat we genoeg data hebben.

Kijk bijvoorbeeld eens naar onderstaande resultaten van twee advertentieadvertenties. Het verschil in conversion rate lijkt significant (zo’n 4% verschil op zo’n 700 klikken en ongeveer 5.000 vertoningen. Menig online marketeer zou hier de conclusie uit trekken dat de bovenste advertentie de significante winnaar is, waarna de onderste zou worden gepauzeerd. Het gekke is echter dat allebei de advertenties exact hetzelfde zijn. Dan zou de landingspagina wellicht anders zijn of hebben ze niet tegelijkertijd gedraaid? Ook dit is niet het geval. Hoe betrouwbaar zijn onze A/B testen dan werkelijk?

Significante cijfers

PPC congres in Londen

In oktober vond de Europese variant van het PPC congres in Londen plaats. SEA- specialist Martin Röttgerding praatte de bezoekers van het congres bij over het testen van advertentieteksten. Eén van de opvallendste dingen die hij zei was dat als je lang genoeg zou wachten tijdens het testen van twee advertentieteksten er vanzelf een significante winnaar uit zou komen. Als je nog langer wacht, zou deze significante winnaar weer verdwijnen. Dit lijkt een erg vreemd fenomeen, dus we hebben terug gekeken in de data van een aantal accounts. Het blijkt wel degelijk waar te zijn in sommige gevallen. De conclusie die we hieruit zouden kunnen trekken, is dat we vaak een onterechte ‘winnaar’ kiezen. Als je dit optelt bij het feit dat we overal en in elke branche te maken krijgen met verschillende type (MBTI) mensen, is de traditionele manier van het testen van advertenties misschien wel achterhaald.

Dit kan een reden zijn om niet te kiezen voor ‘Gelijkmatig rouleren’, maar voor ‘Optimaliseren’ en ons minder bezig te houden met het tegen elkaar afzetten van advertenties. Het is hierbij wel zaak een aantal totaal verschillende advertenties toe te voegen. Als je ziet dat er één advertentie uit de bus komt als significante winnaar, is dit nog geen teken dat de andere advertenties verliezers zijn. Wat zou er gebeuren met de resultaten van de winnende advertentie als iedereen (en dus elk type) op die ene advertentie zou klikken? Zou hij dan nog winnen? En de groep mensen die op de verliezer klikte; zou die wel sneller op de winnende hebben geklikt?

De kennis van Google

Eén van de grootste redenen dat je zou kiezen voor ‘Optimaliseren’, is dat Google gewoonweg meer data heeft over gebruikers dan wij. Hoewel we tegenwoordig veel weten en kunnen inzien, kunnen wij als online marketeers nooit tippen aan de informatie die Google heeft over gebruikers. Het gaat veel verder dan alleen het apparaat waar men op zoekt of de locatie waar men zich in bevindt. Google kent bijvoorbeeld het zoekgedrag van gebruikers, maar ook het klikgedrag en zelfs de persoonlijkheid. Hier komt MBTI weer om de hoek kijken: een advertentie met 20% korting werkt niet bij iedereen even goed. Koopjesjagers zullen hier happig op zijn, maar iemand die veel meer informatiegericht is en service bijvoorbeeld belangrijk vindt, zou misschien liever een advertentie willen zien met ‘telefonisch bereikbaar’. Google kiest bij de optie ‘Optimaliseren’ bij elke gebruiker weer opnieuw de advertentie die de meeste kans van klikken heeft bij die betreffende gebruiker.

Behoort A/B testen van advertenties nu tot het verleden?

Ik raad aan in de meeste gevallen te kiezen voor ‘Optimaliseren’, gewoonweg omdat Google inderdaad meer informatie heeft over gebruikers dan wij. Blijf echter altijd kritisch en ga desnoods zelf testen met experimenten of dit de beste resultaten geeft. Zorg dan wel voor voldoende advertenties. Google raadt tussen de 3 en 5 verschillende advertenties per advertentiegroep aan. Houd bij het aanmaken van advertenties alle verschillende MBTI types in je achterhoofd en pas de principes van Cialdini toe. Je kan je tijd beter besteden dan eindeloos A/B testen met advertenties, maar dat betekent niet dat A/B testen tot het verleden hoort. Zorg echter voor heel veel data en significante cijfers voordat er een winnaar wordt gekozen en zet advertenties tegen elkaar af die voor hetzelfde MBTI type bestemd zijn.

Als je hulp nodig hebt bij het beheren van je Adwords account, neem dan contact met ons op en wij helpen je graag verder!