AI en het brein: we begrijpen genoeg van het brein, om te weten dat AI het nog niet begrijpt.
Kunstmatige intelligentie verovert in hoog tempo de wereld van neuromarketing. Volgens het artikel “Neuro-Marketing Meets AI: How Brain Science is Changing Digital Ads” (oktober, 2025) staan we aan de vooravond van een revolutie. Algoritmes zouden binnenkort uit hersenactiviteit kunnen afleiden wat mensen voelen en wat ze gaan kopen.
Maar hoeveel weten wij eigenlijk zelf van het brein? En hoeveel zou AI daarvan kunnen begrijpen? Wij weten inmiddels genoeg om te beseffen dat het nemen van beslissingen complexer is, dan wat we kunnen zien of meten. Wie zich een beetje in AI heeft verdiept weet dat AI vooral kijkt naar (en leert van) patronen, terwijl het brein kijkt naar (en leert van) de betekenis. Mits goed getraind herkent AI patronen in data (vormen, kleuren, woorden, gezichten) zonder te weten wat ze betekenen of hoe dat voelt. Het brein daarentegen koppelt diezelfde prikkels meteen aan betekenis, ervaring en emotionele waarde.
Laten we eens kijken waarnaar het artikel met de ronkende kopregel aan refereert en of het hout snijdt wat Mevrouw Laura J. Bal zegt: “AI kan gezichtsuitdrukkingen analyseren, oogbewegingen volgen en zelfs hersengolven interpreteren om te voorspellen of iemand betrokken is”. Dat denk ik ook wel, maar leidt betrokkenheid ook tot koopgedrag? Niet per se, en als we naar de breinactivatie van de gemiddelde Effie kijken zelfs per se niet. Je hoeft je niet bij Oral B betrokken te voelen om een tube tandpasta te kopen. En anderzijds kan je zeer betrokken zijn bij iemands lot of ellende zonder daar iets aan te kunnen of zelfs willen doen.
Als je al 15 jaar in breinen mag kijken zoals wij, en meer dan 1,200 campagnes hebt kunnen bestuderen, kan je goed verklaren hoe dat komt.
Eye-tracking: ogen kijken, maar het brein ziet
Eye-tracking laat zien waar we naar kijken, niet wat we zien. Het registreert oogbewegingen, maar geen betekenis of emotie. Onderzoek (o.a. Holmqvist, 2022) toont dat fixaties hooguit correleren met aandacht, maar niet met voorkeur of keuze. Onze eigen eye-trackers laten zien dat mensen vooral naar mensen kijken, en dat tekst de aandacht trekt. Kijken is nog geen kopen. Pas wanneer visuele informatie relevant genoeg is om in het limbisch systeem te belanden krijgt het betekenis en motivatie. En dan nog is de koopintentie niet gegarandeerd. AI-modellen die op eye-trackingdata trainen, leren dus waar het oog op focust, niet wat het brein ziet. Iets wat de marktkooplieden in den vreemde al jaren weten van ons Nederlanders: “Kijke, kijke.., nie kope”.
Facial coding: expressies hebben we om te communiceren
Gezichtsuitdrukkingen zijn sociale signalen. We lachen niet omdat we blij zijn, maar omdat we willen overbrengen dat we blij zijn, of blij doen. Een belangrijke studie van Lisa Feldman Barrett (2017) laat zien, dat emoties geen universele reflexen zijn, maar contextuele constructies. We lachen mee als anderen lachen (het geheim van de lachband onder sitcoms). We klappen mee omdat anderen klappen (klapvee genoemd bij life programma’s). Facial coding detecteert dus wat mensen -grotendeels onbewust overigens- aan anderen willen overbrengen, niet wat ze voelen en al helemaal niet wat ze gaan doen. AI die daarop leert, herkent sociale conventies, geen koopintenties.
EEG: meet het oppervlak van het brein, niet bij de bron van gedrag
EEG meet elektrische activiteit aan het oppervlak van de hersenen. Het vangt aandacht en opwinding, maar niet de diepe structuren waar motivatie ontstaat. Venkatraman et al. (2015) concludeerden dat EEG wel correleert met aandacht, maar geen gedrag voorspelt wanneer er geen beloningsstudie wordt meegenomen.
AI die EEG-signalen analyseert, herkent betrokkenheid, geen verlangen. Het ziet activiteit, maar geen beslissing. Het herkent betrokkenheid, maar niet of deze positief of negatief is. En daarmee is het zelfs niet geschikt om de betrokkenheid bij een merk vast te stellen. In onze studies met MRI zagen we dat betrokkenheid een belangrijke factor is voor merkwaardering; maar dan moet deze natuurlijk wel positief zijn.
De AI-paradox: slimme algoritmes, domme data
Op de keper beschouwd leren vrijwel alle AI-systemen van wat mensen zeggen, klikken of beoordelen. Het leert uit data die Daniel Kahneman Systeem 2 noemt: het bewuste, langzame denken. Gedrag daarentegen ontstaat in Systeem 1: snel, intuïtief en emotioneel.
Vrijwel alle AI in de wereld, maar welzeker de AI die uit een bescheiden dataset “ons leven makkelijker zou maken” is getraind op Systeem 2-data. Het heeft daarmee geleerd hoe mensen hun gedrag verklaren, niet waarom ze ertoe zijn overgegaan. Het voorspelt wat mensen zullen zeggen, niet wat ze zullen doen. Voorspellen wat mensen zullen zeggen kan ook waarde hebben, maar laat je niets wijs maken door adviseurs, bloggers, bureaus en experts die niet thuis zijn in de laatste stand van zaken in neurowetenschappen. Want pas wanneer AI leert van impliciete, automatische reacties, pas wanneer het begrip gaat krijgen van neurale patronen van beloning en motivatie. En vooral pas wanneer het leert te be- en veroordelen in plaats van het herkennen van patronen, kan AI voorspellen in plaats van beschrijven.
Wat het echte brein ons leert
Beslissingen ontstaan niet uit redeneren, maar uit waarderen. Het ventromediale prefrontale gebied weegt beloning af, de nucleus accumbens voorspelt waarde, en de insula waarschuwt voor verlies. Deze processen verlopen automatisch en onbewust. Wie ze rechtstreeks meet, met fMRI of met MRI gevalideerde impliciete tests, kan gedrag betrouwbaar voorspellen. Niet omdat mensen dat zeggen, maar omdat hun brein het laat zien.
Met deze wetenschap heeft AI welzeker potentie, maar alleen wanneer het leert van de juiste signalen. Ogen kijken, gezichten communiceren, de hersenschors berekent; maar het zijn de diepere structuren in ons brein waar er besloten wordt. En zolang AI leert van wat we tonen in plaats van wat we voelen, zal AI het gedrag blijven raden.
En als de dag komt dat AI niet meer gokt, maar voorspelt, rijst een nieuw dilemma: willen we eigenlijk wel dat AI leert te beoordelen in plaats van te herkennen?