“Precisietargeting is duur en werkt meestal niet”

Leestijd: 3 minuten

Meten is weten? Toch? De grote belofte van digitale marketing is data. Met data zijn media effectiever in te zetten. Want je weet precies wie je benadert. En je meet wat werkt en niet. Hoe meer data, hoe preciezer het effect. Leve de precisiemarketing, de droom van elke CMO.

Wel, daar blijkt vaak niets van waar. In mijn boek Sterk Digitaal Merk heb ik daar allerlei voorbeelden van gegeven: veel data lijken interessant, maar doen niets. Of ze hebben zelfs een negatief effect. Neem bijvoorbeeld de correlatie tussen het meten van een klik en het behalen van een effect. Die is vrijwel altijd nul. Ook al meet iedereen nog iedere dag kliks.

Daarom vond ik het onderzoek van de Australische professor Nico Neumann al eerder interessant. Hij kwam een aantal jaar geleden tot onthutsende conclusies toen hij kritisch keek naar de marketingdata die merken inkochten, voor een boel geld. En hij zag dat niemand vragen leek te stellen.

Neem deze simpele vraag: welk geslacht heeft iemand uit de doelgroep? Data van toonaangevende datahandelaren hadden dit gemiddeld in 42 procent van de gevallen goed. Dat is slechter dan blind keuzes te maken. En tegelijkertijd een stuk duurder (‘spray and pray’).

Maar Neumann kreeg ook kritiek. Zijn B2C-onderzoek zou te algemeen zijn. En voor niche-doelgroepen en B2B zou precies ingekochte online reclame wél werken. (Tussen haakjes: organisaties als Bain en het B2B Institute – gesteund door LinkedIn – stellen dat leadgeneratie in B2B vaak een schijnmetric is. Dit omdat er grotere “koopsystemen” en “verborgen” beslissers zijn.)

Daarom deed hij samen met HP onderzoek. Daarbij keek hij zowel naar First Party- en Third Party-data. Zo kon hij zowel ‘probabilistische data’ (afgeleid van IP-adressen, browsers of apparaat) als ‘deterministische data’ (naam, adres, e-mail of telefoonnummer) testen.

De uitkomst stelt grote vraagtekens bij de meeste B2B-marketingstrategieën, vooral in de techsector. Het maakte niet uit welke data Neumann gebruikte. De resultaten waren treurig.

“Het was of gelijk aan willekeurige targeting, of zelfs slechter voor de probabilistische data. Als je een lijst met namen hebt – deterministische data – dan was dat beter dan willekeurig. Maar dan nog is de vraag: rechtvaardigen de kosten dit?”

Pikant: volgens de professor gaf een belangrijke medewerker van een datahandelaar toe, dat al lang bekend was dat hun data waardeloos was. “Wat maakt het uit? Marketeers kopen het toch.” Alleen al in de Verenigde Staten vormt dit soort data een markt van 20 miljard dollar.

Neumann vroeg ook z’n eigen dataprofiel op bij verschillende datahandelaren. “Iedereen kan dat doen. Download je eigen segmenten en kijk wat de data over jou zeggen. Het is hilarisch, ik heb dat vaak gedaan.”

Neumann en collega’s analyseerden ook welke factor de nauwkeurigheid in data van derden bepaalt. Daaruit bleek dat het niet zozeer de slimme AI is die het verschil maakt, maar juist de kenmerken van de persoon. Sommige mensen zitten voortdurend online en hebben talloze digitale profielen. Anderen hebben bijna geen digitaal spoor, dus dan kun je lastig data over hen verzamelen. De succesfactor draait daarmee meer om de persoon dan om de aanbieder.

First party-data scoorde beter dan data van derden. Maar ook hier waren nadelen. Neumann waarschuwt dat de matches die in Clean Rooms worden gemaakt nep kunnen zijn. Hij raadt aan om dit te testen door bewust wat besmette of verzonnen, gehashte e-mailadressen toe te voegen. Als het systeem deze mailadressen koppelt aan bestaande profielen, is er iets mis.

Zijn advies: gebruik alleen First en Second party-data die je vertrouwt. Bijvoorbeeld die van grote uitgevers of een luchtvaartmaatschappij. Partijen die kunnen uitleggen waar hun data vandaan komt.

Neumann stelt daarmee fikse vraagtekens bij een smalle doelgroepbepaling. Dit levert vaak geen groter rendement op, maar kost wel meer. Zeker in combinatie met rotte gebruikersdata.

“Ik zou zelfs een stap terugdoen en vragen: moet je zo nauwkeurig targeten? In weinig gevallen heeft dat écht zin … Waarom zou je mensen uitsluiten en de kosten opdrijven, in plaats van je boodschap het werk te laten doen? Is het ooit erg als iemand je merk leert kennen?”

Als volgende stap wil hij de belangrijkste platformen voor Mixed Media Modelling onder de loep nemen (zie mijn eerdere artikel hierover). Hierbij ziet hij de toename van mogelijkheden als goed nieuws. Bijvoorbeeld de opensource modellen van Google en Meta. Maar ook daar plaatst hij kanttekeningen bij. “Sommige mensen vragen zich af: ‘Ze verkopen zelf media en hebben nu een tool om die te evalueren, kan dat wel?’ Dat is een terechte zorg.”

In de tussentijd adviseert hij om vooral vragen te blijven stellen over Mixed Media Modellen. Vooral als ze suggereren dat alles werkt. “Als dat gebeurt, word je waarschijnlijk voor de gek gehouden.”

Bron: Mi3

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *