“Precisietargeting is duur en werkt meestal niet”

Leestijd: 3 minuten

Meten is weten? Toch? De grote belofte van digitale marketing is data. Met data zijn media effectiever in te zetten. Want je weet precies wie je benadert. En je meet wat werkt en niet. Hoe meer data, hoe preciezer het effect. Leve de precisiemarketing, de droom van elke CMO.

Wel, daar blijkt vaak niets van waar. In mijn boek Sterk Digitaal Merk heb ik daar allerlei voorbeelden van gegeven: veel data lijken interessant, maar doen niets. Of ze hebben zelfs een negatief effect. Neem bijvoorbeeld de correlatie tussen het meten van een klik en het behalen van een effect. Die is vrijwel altijd nul. Ook al meet iedereen nog iedere dag kliks.

Kritisch op marketingdata.

Daarom vond ik het onderzoek van de Australische professor Nico Neumann al eerder interessant. Hij kwam een aantal jaar geleden tot onthutsende conclusies toen hij kritisch keek naar de marketingdata die merken inkochten, voor een boel geld. En hij zag dat niemand vragen leek te stellen.

Neem deze simpele vraag: welk geslacht heeft iemand uit de doelgroep? Data van toonaangevende datahandelaren hadden dit gemiddeld in 42 procent van de gevallen goed. Dat is slechter dan blind keuzes te maken. En tegelijkertijd een stuk duurder (‘spray and pray’).

Maar Neumann kreeg ook kritiek. Zijn B2C-onderzoek zou te algemeen zijn. En voor niche-doelgroepen en B2B zou precies ingekochte online reclame wél werken. (Tussen haakjes: organisaties als Bain en het B2B Institute – gesteund door LinkedIn – stellen dat leadgeneratie in B2B vaak een schijnmetric is. Dit omdat er grotere “koopsystemen” en “verborgen” beslissers zijn.)

Daarom deed hij samen met HP onderzoek. Daarbij keek hij zowel naar First Party- en Third Party-data. Zo kon hij zowel ‘probabilistische data’ (afgeleid van IP-adressen, browsers of apparaat) als ‘deterministische data’ (naam, adres, e-mail of telefoonnummer) testen.

De uitkomst stelt grote vraagtekens bij de meeste B2B-marketingstrategieën, vooral in de techsector. Het maakte niet uit welke data Neumann gebruikte. De resultaten waren treurig.

“Het was of gelijk aan willekeurige targeting, of zelfs slechter voor de probabilistische data. Als je een lijst met namen hebt – deterministische data – dan was dat beter dan willekeurig. Maar dan nog is de vraag: rechtvaardigen de kosten dit?”

Een markt van 20 miljard dollar.

Pikant: volgens de professor gaf een belangrijke medewerker van een datahandelaar toe, dat al lang bekend was dat hun data waardeloos was. “Wat maakt het uit? Marketeers kopen het toch.” Alleen al in de Verenigde Staten vormt dit soort data een markt van 20 miljard dollar.

Neumann vroeg ook z’n eigen dataprofiel op bij verschillende datahandelaren. “Iedereen kan dat doen. Download je eigen segmenten en kijk wat de data over jou zeggen. Het is hilarisch, ik heb dat vaak gedaan.”

Neumann en collega’s analyseerden ook welke factor de nauwkeurigheid in data van derden bepaalt. Daaruit bleek dat het niet zozeer de slimme AI is die het verschil maakt, maar juist de kenmerken van de persoon. Sommige mensen zitten voortdurend online en hebben talloze digitale profielen. Anderen hebben bijna geen digitaal spoor, dus dan kun je lastig data over hen verzamelen. De succesfactor draait daarmee meer om de persoon dan om de aanbieder.

First party-data scoorde beter dan data van derden. Maar ook hier waren nadelen. Neumann waarschuwt dat de matches die in Clean Rooms worden gemaakt nep kunnen zijn. Hij raadt aan om dit te testen door bewust wat besmette of verzonnen, gehashte e-mailadressen toe te voegen. Als het systeem deze mailadressen koppelt aan bestaande profielen, is er iets mis.

Zijn advies: gebruik alleen First en Second party-data die je vertrouwt. Bijvoorbeeld die van grote uitgevers of een luchtvaartmaatschappij. Partijen die kunnen uitleggen waar hun data vandaan komt.

Neumann stelt daarmee fikse vraagtekens bij een smalle doelgroepbepaling. Dit levert vaak geen groter rendement op, maar kost wel meer. Zeker in combinatie met rotte gebruikersdata.

“Ik zou zelfs een stap terugdoen en vragen: moet je zo nauwkeurig targeten? In weinig gevallen heeft dat écht zin … Waarom zou je mensen uitsluiten en de kosten opdrijven, in plaats van je boodschap het werk te laten doen? Is het ooit erg als iemand je merk leert kennen?”

Als alles werkt, word je voor de gek gehouden.

Als volgende stap wil hij de belangrijkste platformen voor Mixed Media Modelling onder de loep nemen (zie mijn eerdere artikel hierover). Hierbij ziet hij de toename van mogelijkheden als goed nieuws. Bijvoorbeeld de opensource modellen van Google en Meta. Maar ook daar plaatst hij kanttekeningen bij. “Sommige mensen vragen zich af: ‘Ze verkopen zelf media en hebben nu een tool om die te evalueren, kan dat wel?’ Dat is een terechte zorg.”

In de tussentijd adviseert hij om vooral vragen te blijven stellen over Mixed Media Modellen. Vooral als ze suggereren dat alles werkt. “Als dat gebeurt, word je waarschijnlijk voor de gek gehouden.”

Bron: Mi3

Wanneer Mixed Media Modelling wel werkt en niet

Leestijd: 5 minuten

Mixed Media Modelling (MMM) bestaat al een tijd. Maar de effectmeting is de laatste jaren in opkomst. Want andere meetmethoden staan door strengere privacywetgeving onder druk. Digitaal is er meer data om analyses mee te maken. En AI is steeds beter in staat om complexe datasets te combineren.

Maar hoe goed werkt Mixed Media Modelling? Een paar dagen geleden kwam ik deze quote tegen van merkexpert Tom Goodwin.

“We have things like media mix modelling, the idea that you put things into a thing, crank the handle and it’s complete nonsense. How can you create a media plan when you don’t know what the creative is? How you can create a media plan based on what’s worked in the past when you don’t know what’s now new?”

Dit voelde als een goede aanleiding om de voors en tegens rond Mixed Media Modelling op een rij te zetten. Graag deel ik mijn constateringen met je, vanuit mijn perspectief als merkstrateeg.

Wat is Mixed Media Modelling ook alweer?

In iedere presentatie over merkstrategie staat het: marketingkanalen versplinteren, er is loeiveel content en klantgedrag wordt beïnvloed door een enorm scala aan factoren. Daarmee is het gevaarlijk om een geïsoleerde visie op je merk te hebben.

Neem het bekende probleem van “de laatste klik”: je kunt weliswaar herleiden dat een klant op banner A klikte en daarna aankoop B deed. Maar dat betekent niet dat het succes aan deze banner te danken is. De klant kan heel goed beïnvloed zijn door een mooi verhaal van een vriendin en een advertentie in de krant. De banner hoefde dit enthousiasme alleen maar in te koppen.

Een optimalisatie met geavanceerde statistiek.

Mixed Media Modelling is een analytische techniek die merken helpt te begrijpen hoe verschillende mediakanalen bijdragen aan hun marketingdoelen. Dat gebeurt met historische gegevens en geavanceerde statistische methoden. Zo kunnen marketeers hun marketingmix optimaliseren en meer budget toewijzen aan kanalen met het hoogste rendement.

Een merk kan ontdekken dat hoewel televisie een breder bereik heeft, digitale uitingen een hogere conversie per euro opleveren. Of dat juist de meerwaarde van dure, gepersonaliseerde advertenties niet opweegt tegen goedkoop “schieten met hagel”. Er zijn cases van merken die tijdens de COVID-crisis hun kanalen beter optimaliseerden dan hun concurrenten. Ze wisten data van eerdere economische crises te vertalen naar een slimme media-inzet.

Zo kan Mixed Media Modelling bedrijven helpen beter te anticiperen op veranderingen in de markt. Een voedingsmerk kan seizoensgebonden trends in klantgedrag scherper identificeren, promoties beter inplannen en productvoorraad efficiënter beheren.

Mixed Media Modelling kan zorgen voor een welkome rationalisatie van een merkstrategie. Immers, door collega’s met een cijfermatige achtergrond kan marketing als “vage hocus pocus” worden gezien. Marketeers kunnen hen beter overtuigen met harde, objectieve cijfers in plaats van aannames of intuïtie.

De digitale opleving van Mixed Media Modelling.

Zoals ik in de inleiding schreef: er is hernieuwde belangstelling voor Mixed Media Modelling in de digitale tijd. Dit komt deels door nieuwe privacyregels. Die bemoeilijken het gebruik van klantdata van derde partijen, waardoor allerlei trackingmethoden onmogelijk zijn geworden. Voor de meeste merken is het inmiddels een stuk lastiger om individueel consumentengedrag te analyseren. En steeds meer digitale organisaties begrijpen dat zo’n geïndividualiseerde benadering helemaal niet effectief is (zie bijvoorbeeld de case van Nike, waarover ik recentelijk schreef).

Daarom is er een verschuiving naar een meer geaggregeerde benadering. Veel marketeers hebben Mixed Media Modelling ontdekt als een alternatief om marketingprestaties te meten zonder afhankelijk te zijn van gevoelige persoonlijke gegevens. De afgelopen jaren is de methodiek verder ontwikkeld, bijvoorbeeld door de integratie van (eigen) digitale data en real-time analyse.

Daarnaast lijkt AI de analysemogelijkheden aanzienlijk te hebben uitgebreid. AI kan immers enorme hoeveelheden data analyseren en  patronen identificeren die voorheen onopgemerkt bleven. Zo kunnen econometrische voorspellingen nauwkeuriger worden gemaakt en merkstrategieën beter worden geoptimaliseerd. En het lijkt mogelijk om snel in te spelen op vluchtig consumentengedrag.

De nadelen van Mixed Media Modelling.

Maar je leest het goed, ik gebruik in dit artikel woorden als “lijken”. Want niet alle beloftes van Mixed Media Modelling zijn uitgekomen. Het opzetten en beheren blijkt bijvoorbeeld complex. Mixed Media Modelling vereist meer gespecialiseerde kennis van statistiek en data-analyse dan merken denken. Daardoor vertrouwen marketeers te veel op complexe data-modellen, zonder ze goed te begrijpen. Ze zetten hun intuïtie overboord en maken “onderbouwde” beslissingen die niet in lijn zijn met de realiteit in de markt.

Verder is Mixed Media Modelling sterk afhankelijk van historische gegevens om toekomstige prestaties te voorspellen. Statistische modellen zijn doorgaans beter geschikt voor langetermijnanalyse. Ze kunnen moeite hebben om kortetermijnfluctuaties, plotselinge marktveranderingen of volatiel consumentengedrag accuraat te voorspellen.

In snel veranderende markten kan dit problematisch zijn. Denk aan techmerken of de mode-industrie. Hier hoeven historische trends niet representatief te zijn voor toekomstige omstandigheden. Zoals de beurs ons leert: resultaten uit het verleden bieden geen garanties voor de toekomst, hoeveel analyses je ook doet.

Hoge kosten en beperkte flexibiliteit.

Het implementeren van Mixed Media Modelling kan daarbij duur zijn, vooral voor kleinere bedrijven. De kosten voor gespecialiseerde software, de inkoop van data en econometrische deskundigen zijn aanzienlijk. Zeker nu digitale data lastiger is te verkrijgen door privacywetgevingen. Voor kleinere bedrijven kan het nuttiger zijn om alternatieve methoden te overwegen, zoals eenvoudigere analytische technieken of kwalitatief onderzoek.

En hoewel het voor de hand ligt dat AI problemen rond kosten en snelheid oplost, zijn er ook hier uitdagingen. AI-modellen kunnen een black box zijn, waarbij het onduidelijk is hoe beslissingen tot stand komen. Dit kan het vertrouwen in de resultaten ondermijnen. Bovendien kan een te groot vertrouwen in AI leiden tot een gebrek aan menselijke visie en creativiteit.

Daarnaast heeft zelfs AI moeite met plotselinge marktveranderingen. Immers, modellen die zich baseren op resultaten uit het verleden lopen altijd achter de feiten aan, hoe snel de analyses ook zijn.

Een beetje van het ene, een beetje van het andere.

Daarom is vooralsnog de conclusie dat Mixed Media Modelling een krachtig instrument kan zijn, zeker met de toevoeging van AI. Grote organisaties met toegang tot uitgebreide datasets en geavanceerde statistische middelen kunnen daarbij flink in het voordeel zijn.

Maar het is altijd verstandig om Mixed Media Modelling aan te vullen met andere onderzoeksmethoden en met strategisch, menselijk denken. Enerzijds om een vollediger beeld te krijgen van de situatie. Anderzijds om de uitkomst van een model kritisch tegen het licht te houden.

In mijn boek Sterk Digitaal Merk noem ik het voorbeeld van LEGO. In 2003 zakte het merk in elkaar en verloor het 30% van z’n omzet. De toekomst was somber. Elke statistische analyse kwam tot dezelfde conclusie: de nieuwe generatie had de interesse in de blokjes verloren. LEGO paste niet bij hun korte aandachtsspanne.

Pas met kwalitatief onderzoek ontdekte LEGO dat jongeren ook op zoek zijn naar bijzondere vaardigheden. Deze zorgen voor sociale status. Dit kunnen spannende stunts op skateboards zijn, maar ook indrukwekkende LEGO-bouwwerken. Zo ontstond een LEGO-crowdsourcing-platform met miljoenen fans.

Kortom…

Het is daarmee belangrijk dat marketeers een holistisch beeld houden over wat ze doen en wat dit oplevert. Mixed Media Modelling biedt aanzienlijke voordelen voor merken die hun merkstrategie willen optimaliseren. Het stelt ze in staat om inzicht te krijgen in de effectiviteit van verschillende mediakanalen. Ze kunnen budgetten efficiënter alloceren. En er kunnen data-gedreven beslissingen worden genomen, zonder dat de privacy van hun klanten in gevaar komt. In een tijd waarin budgetten onder druk staan en de concurrentie heviger is dan ooit, kan Mixed Media Modelling een waardevol instrument zijn om inzicht te krijgen in wat werkt en wat niet.

Echter, de complexiteit van Mixed Media Modelling, de afhankelijkheid van historische data en de hoge kosten mogen niet over het hoofd worden gezien. Als merkstrateeg is het dus belangrijk om te beoordelen of Mixed Media Modelling wel geschikt is voor de specifieke behoeften en middelen van het merk. En hoe deze methode kan worden geïntegreerd met andere analytische benaderingen.

Plus: hoe graag we ook alles in cijfers willen vastleggen, merkbouwen blijft een mix van kunst en wetenschap. Juist merken die gedurfd met de historische regels breken, kunnen enorm succesvol zijn. Ik denk dat er weinig statistische modellen waren die de opkomst van Tesla voorspelden of de impact van ChatGPT zagen aankomen.