Zoeken verandert; de vraag is niet óf, maar hoe snel

AI verandert niet alleen hoe we zoeken, maar beïnvloedt meer en meer wie er zichtbaar is in de door AI gegenereerde antwoorden. Wie AI-search puur als performancevraagstuk ziet, mist een belangrijk deel van de verschuiving die gaande is.

15 april 2026, 07:00 215 x gelezen

Zichtbaarheid ontstaat steeds vaker uit merkaanwezigheid en distributie. Wie consequent terugkomt in bronnen, beïnvloedt het verhaal dat systemen samenstellen. De vraag is dus niet alleen hoe je gevonden wordt, maar hoe je onderdeel wordt van dat referentiekader.

Hoe we zoeken verandert compleet. En eerlijk gezegd verandert daarmee ook hoe we relevant zijn en gevonden worden meer dan we misschien willen toegeven, ook al gaat het langzaam. De onderliggende principes zoals autoriteit, herhaling en vertrouwen blijven hetzelfde, maar de weg ernaartoe wordt fundamenteel anders.

In deze longread schets ik de huidige situatie en doe onderbouwde aannames over hoe zoeken er in de toekomst meer uit zal zien, maar vooral over wat je moet doen om relevant te blijven.

Waar staan we nu?

AI verandert de manier waarop mensen informatie vinden sneller dan welke zoekrevolutie in de afgelopen twintig jaar ook. Niet morgen maar gisteren al. Miljoenen mensen hebben het gebruik van AI en tekstmodellen al omarmd en stellen inmiddels dagelijks vragen aan tools als ChatGPT, Gemini en Claude, nog vaak zonder door te klikken naar een website.

De verschuiving in hoe we ‘zoeken’ speelt nu vooral in de oriëntatiefase: AI neemt een steeds groter deel van het zoekproces over, maar nog niet de hele klantreis. Voor organisaties die afhankelijk zijn van online zichtbaarheid, groei en distributie is dat geen discussie over techniek, maar een strategische realiteit.

Cijfers uit diverse onderzoeken versterken het beeld. Hoewel het achterliggende doel kan variëren tussen e-commercegerichte zoekopdrachten, het vinden van informatie, afbeeldingen of andere intenties, zitten we wel degelijk midden in een verschuiving. Een groot deel van de Amerikaanse professionals gebruikt inmiddels wekelijks generatieve AI om informatie te verkennen of samen te vatten (McKinsey, 2025). ChatGPT verwerkt volgens Similarweb-schattingen inmiddels ruim 5 miljard websitebezoeken per maand (meer dan Bing!) (Shahid Shahmiri) en vormt daarmee een van de grootste informatie-ingangen ter wereld (Similarweb, 2025). Tegelijkertijd groeit de zoekmarkt nog steeds, met zo’n 26%, omdat AI-zoekgedrag bovenop klassieke search komt in plaats van het direct te vervangen, ook in Europa (SparkToro, 2025). Dus we gebruiken meer bronnen om tot antwoorden te komen, of juist om te valideren.

De groei van Google-zoekopdrachten maskeert echter dat de structuur van zoeken fundamenteel verschuift. En daarvoor moeten we wel oppassen.

Niet alle AI is hetzelfde en dat moeten wij als marketeers wél begrijpen

De term ‘AI’ suggereert één technologie. Dat is niet correct en behoeft wat extra uitleg.

In dit artikel heb ik het specifiek over AI als informatiesysteem en distributiekanaal. Over systemen die bepalen hoe mensen antwoorden vinden en welke bronnen daarin zichtbaar worden. Dus, kort door de bocht, AI als informatie-interface, zoals ChatGPT in zijn rol als antwoordmachine. Toepassingen zoals programmeerondersteuning, samenvattingen of procesautomatisering vallen hier buiten. Die veranderen hoe we werken, maar niet hoe organisaties als bron zichtbaar worden in antwoorden.

AI-informatiesystemen werken niet allemaal op dezelfde manier. Elk systeem bepaalt zichtbaarheid via een ander mechanisme. Omdat dit artikel gaat over hoe zichtbaarheid verschuift van rankings naar aanwezigheid in het bredere kennisecosysteem waaruit AI-antwoorden worden samengesteld, is het belangrijk om deze lagen eerst uit elkaar te houden.

We onderscheiden grofweg vier verschillende ‘AI-lagen’.

  1. Foundation models/taalmodellen (LLM’s)
    Systemen zoals ChatGPT, Gemini, Claude en Mistral genereren antwoorden op basis van wat ze tijdens training hebben geleerd, soms aangevuld met externe bronnen.
  2. Retrieval-systemen
    Zoals AI Overviews, Perplexity en Deep Research-achtige interfaces; combineren modelkennis met actuele bronnen om tot een soort live inzicht te komen.
  3. Copilots en embedded AI
    Tools die al volledig geïntegreerd zijn in dagelijks werk, zoals Microsoft Copilot en Apple Intelligence.
  4. Agent-systemen (opkomend)
    AI die autonoom taken uitvoert namens gebruikers, zoals vergelijken, plannen, voorselecteren en aankopen voorbereiden.

Voor marketing is dit onderscheid strategisch: elk systeem creëert zichtbaarheid op een andere manier. Zichtbaar zijn in Google betekent niet per se zichtbaar zijn in een LLM of in een agent. En zichtbaar zijn in een LLM betekent niet dat je ook meegenomen wordt door een retrieval-systeem.

Zichtbaarheid verschuift van page-ranking naar corpus presence

Het corpus is het geheel aan teksten, bronnen en vermeldingen waaruit AI-systemen hun antwoorden opbouwen, zowel uit trainingsdata als uit actuele bronnen die tijdens het beantwoorden worden opgehaald.

Het klinkt spannend maar is dat niet. Het bestaan van deze corpus is overigens wel het kerninzicht dat veel organisaties nu nog missen.

Die corpus presence betekent simpelweg dat je aanwezig bent in de corpus. Dus: word je door AI gebruikt als bron? Dat gebeurt op twee manieren.

  1. AI-systemen zijn getraind op enorme hoeveelheden tekst van het internet. Wie daar consistent en betrouwbaar in voorkomt, wordt onderdeel van wat een model ‘weet’.
  2. Nieuwere AI-systemen zoeken actief naar bronnen op het moment dat iemand een vraag stelt.

Traditionele SEO optimaliseert pagina’s voor eindgebruikers en algoritmes en zorgt dat je tussen de resultaten zit: mensen klikken en je vangt traffic. Bij AI werkt dat anders: je moet gebruikt worden in het antwoord zelf. Alleen als je als bron verschijnt in het corpus, telt je aanwezigheid, niet het aantal pagina’s of klikken.

Daarmee wordt de vraag niet:

‘Wat is onze zichtbaarheid op zoekwoorden?’

Maar:

‘Hoe zorgen we dat ons merk onderdeel wordt van het referentiekader waaruit antwoorden worden samengesteld?’

Dat vraagt om zichtbaarheid in meerdere onafhankelijke bronnen tegelijk.

Dit sluit aan bij wat Jess Scholz op Friends of Search (deck) beschreef als de verschuiving van search-performance naar distributiebereik en merkaanwezigheid als basis voor toekomstige zichtbaarheid.

Een kleine nuance is op zijn plek, want de richting is duidelijk maar de mechanismen nog niet. We weten bijvoorbeeld nog niet hoe zwaar trainingsdata weegt ten opzichte van live retrieval, hoe modellen bronnen prioriteren of hoe ‘entity strength’ precies wordt bepaald.

Wat we wel zien is dat zichtbaarheid zelden ontstaat uit één bron. Consistente aanwezigheid in meerdere, onafhankelijke bronnen lijkt een van de sterkste signalen die we op dit moment kunnen beïnvloeden.

De drie lagen van verandering in search

De verschuiving naar een andere, nieuwere manier van zoeken, laten we het gewoon AI-zoeken noemen, manifesteert zich tegelijkertijd op drie niveaus. Deze drie veranderingen bepalen samen hoe zichtbaarheid verschuift van ouderwetse rankings en webpagina’s naar entiteiten, passages, distributie en aanwezigheid in het bredere AI-kennisecosysteem.

Laag 1: retrieval verandert

AI beantwoordt steeds meer vragen direct, in plaats van slechts te verwijzen zoals Google doet (deed). In analyses van Google’s AI-zoekervaring loopt het aandeel zero-click zoekopdrachten bij bepaalde vraagtypes richting 90%. Het aantal Google-zero-clicks ligt rond 58,5% (SparkToro, 2024–2025). ‘Zero-click’ betekent overigens niet automatisch dat er geen merkcontact plaatsvindt. Een naams- of merkvermelding in een antwoord is natuurlijk ook blootstelling en eventueel herkenning. Minder klikken betekent in elk geval wel minder verkeer, maar de effecten op merkbekendheid zijn niet zo zwart-wit.

Belangrijk om te begrijpen: rankings en traffic zijn geen oorzaken, maar gevolgen van dezelfde onderliggende signalen. AI-zichtbaarheid volgt uit entity strength (je merkautoriteit, hoe betrouwbaar ben je), topical coverage (inhoudsdekking) en distributie. In die zin is dit geen breuk met SEO zoals we dat nu kennen. Rankings waren nooit het doel van SEO, maar een meetpunt voor aanwezigheid in het kennisecosysteem waaruit zoekmachines hun resultaten samenstellen. In AI-interfaces verschuift dat meetpunt: zichtbaarheid ontstaat minder uit ranking van pagina’s en meer uit aanwezigheid in het corpus waaruit antwoorden worden samengesteld.

Zoals Jono Alderson dit recent formuleerde op Friends of Search (deck): ‘zichtbaarheid verschuift van pagina’s naar entiteiten en van rankings naar aanwezigheid in het bredere kennisecosysteem’.

Wie deze fundamenten (autoriteit, topical coverage en distributie) op orde heeft, vergroot de kans om gebruikt te worden als bron. De relatie tussen sterke entiteiten en zichtbaarheid in AI-antwoorden is aannemelijk, maar nog niet keihard bewezen in grootschalig onderzoek. Veel berust onderzoek en publicatie van mensen als Mike King, Will Reynolds, Andrea Volpini, Dan Petrovic, Glen Gabe et cetera. Wat we in ieder geval wel weten is dat AI niet naar pagina’s zoekt om ertussen te zitten, maar naar entiteiten in bronnen. Dat is de richting die de beschikbare data uit brede onderzoeken in ieder geval wel uitwijst.

Laag 2: de interface verandert

Gebruikers stellen steeds vaker conversationele, samengestelde vragen. Uit Similarweb-data blijkt dat ChatGPT-prompts gemiddeld 17 keer langer zijn dan Google-zoekopdrachten. Waar een Google-query gemiddeld 3,4 tekens telt, loopt een ChatGPT-prompt op tot gemiddeld 60 tekens. Dat is geen incrementele verschuiving, dat is een ander medium. (OfficeChai 2025), (Semrush 2025).

We hebben leren googelen met korte vraagstelling, het systeem was nog niet zo slim, er was minder aanbod en een match was zo gemaakt. Nu gaan we gesprekken aan. Niet alleen omdat het technisch kan, maar vooral omdat het vaak efficiënter voelt als je wilt doorvragen of dieper op een onderwerp in wilt gaan. Als je eenmaal gewend bent aan een gesprek met AI zal je bij bepaalde intenties eerder kiezen voor AI dan voor een normale zoekmachine. Ons brein is wat dat betreft lui.

Laag 3: de economie verandert

De verhouding tussen traffic, distributie en intentie verschuift ingrijpend. Vroege data laat zien dat gebruikers die via AI-interacties bij jouw merk of website terechtkomen vaak een duidelijker doel of behoefte hebben en daardoor vaker geneigd zijn een gewenste actie te voltooien, zoals een aankoop, inschrijving of contactverzoek (Seer Interactive, 2025).

Maar, als we eerlijk zijn, deze data is nog erg beperkt en lastig te interpreteren. Het zijn kleine volumes en we hebben tal van meetproblemen rond attributie. Het is veelbelovend, maar nog geen robuust geheel.

Een inschatting van wat komen gaat

Niemand weet exact hoe snel de verschuiving gaat en, belangrijker, het tempo is niet te voorspellen en sowieso niet lineair. Verschillende sectoren, doelgroepen en use-cases bewegen in een ander ritme. Gedrag en adoptie zijn nou eenmaal traag. Maar met een helikopterview, kritische blik en voldoende , kunnen we wel inschatten hoe het eruit gaat zien. En gelukkig hebben we heel veel briljante geesten die hier veel onderzoek naar doen waar we ons op kunnen baseren. Mijn semi-onderbouwde voorspelling:

Binnen 1 jaar (of eerder)

AI-search en traditionele search bestaan naast elkaar. Informationele vragen verschuiven richting AI; transactionele en navigerende zoekopdrachten blijven grotendeels bij zoekmachines. SparkToro laat zien dat gebruikers AI gebruiken voor verkenning en vervolgens Google voor validatie.

Voor marketingbudget betekent dit concreet: je kunt, wilt en hoeft echt nog niet weg bij Google, maar het is wel belangrijk je bewust te zijn dat zoeken aan het veranderen is en dat zichtbaarheid op een ander manier tot stand komt. De standaarden van marketing blijven overeind, maar de kanalen worden nog veel breder en dat vereist ook een bredere aanpak. Zoals eigenlijk altijd al geldt: als je niet openstaat voor veranderingen in het gedrag van je gebruiker, dan bouw je wellicht een achterstand op die steeds moeilijker in te halen wordt.

Binnen 3 jaar

De focus verschuift van technologisch naar economisch.

Gebruikers brengen steeds meer tijd in AI-omgevingen door, waardoor traditionele kanalen verkeer en aandacht kunnen verliezen. Tegelijkertijd ontstaat nieuw gedrag: mensen gebruiken AI om te vergelijken, plannen en beslissen, maar de daadwerkelijke aankoop blijft een vraagteken. OpenAI heeft de testen met direct kopen binnen Etsy en Shopify teruggeschroefd en de ‘Direct kopen’-knop van Google is er na tien jaar ook nog steeds niet. De vraag is ook of deze functie binnen drie jaar wel via OpenAI komt of via een van de grote ecosystemen.

Google, Microsoft, Apple en Amazon consolideren data, intentie en distributie. Dat maakt strategische keuzes van organisaties nog belangrijker.

Binnen 10 jaar

De vraag is niet welke zoekmachine wint, maar of ‘zoeken’ zoals we dat nu kennen überhaupt nog bestaat. Agentic commerce groeit, maar vooral in de voorbereidende fase: AI helpt vergelijken, plannen en adviseren, terwijl daadwerkelijke aankopen voorlopig .

Vertrouwen blijft een bottleneck: momenteel vertrouwt 24% van de consumenten AI om aankopen te doen, bij Gen Z is dat 32% (Forbes, 2025). Het tempo en de adoptie van volledig autonome transacties zal waarschijnlijk langzaam zijn en afhankelijk van ervaringen, aansprakelijkheid en transparantie. Persoonlijk zie ik dit niet gebeuren

Maar deze gestelde 1, 3 en 10 jaar zou gerust ook vele malen korter kunnen zijn. Sterker nog, daar ga ik eigenlijk van uit. Daarbij kijken we overigens niet naar macro-economische factoren zoals kosten voor energie van dataopslag en alle geopolitieke uitdagingen die nu spelen et cetera.

Slimme optimalisatie of vooral branding?

Publiceren en zorgen dat iedereen je noemt is overigens niet genoeg. AI jouw organisatie als betrouwbare bron ziet en opneemt in het kennisecosysteem waaruit antwoorden worden samengesteld.

Maar eigenlijk is dat de omgekeerde uitleg. Want door aanwezig te zijn, herhaald te worden en als bron gebruikt te worden door gebruikers, met andere woorden door een merk te worden, ontstaat er een intrinsieke motor die je relevantie en zichtbaarheid voortdurend versterkt. We hebben het dus wel echt over branding dat de basis is.

Dat betekent overigens niet dat techniek minder belangrijk wordt, integendeel, snelle websites, duidelijke informatiestructuur, consistente entiteiten, kloppende structured data en toegankelijke content in duidelijke zinnen blijven voorwaarden om onderdeel te worden van het kennisecosysteem waaruit AI-antwoorden worden samengesteld. Daarbij geldt, zoals Ramon Eijkemans beschrijft in zijn artikel over utility writing (Eijkhart 2026): ‘Make every sentence survive on its own’. Dat betekent dat elke zin op zichzelf begrijpelijk moet zijn, zodat systemen de informatie juist kunnen interpreteren en opnieuw kunnen gebruiken. Zonder technische betrouwbaarheid en zinnen die op zichzelf betekenis dragen, wordt branding veel minder goed begrepen als context en daardoor ook minder gebruikt als bron.

Het kennisecosysteem is niet neutraal of foutloos

In een recente case van Seer Interactive bleek dat één negatieve review uit 2018, gekopieerd naar meerdere platforms, door retrieval-antwoorden van AI-systemen werd geïnterpreteerd als meerdere onafhankelijke bronnen. Het resultaat: in één op de drie branded AI-antwoorden kwam een negatieve positionering terug. Niet omdat die representatief was, maar omdat herhaling werd gezien als bevestiging.

Dit laat zien hoe kwetsbaar de corpus presence is. Niet alleen aanwezigheid telt, maar ook hoe vaak en in welke vorm iets wordt herhaald. Waar klassieke SEO nog deels corrigeerbaar was via eigen content, geldt hier: wat anderen schrijven weegt net zo zwaar, of soms zwaarder, dan wat je zelf publiceert.

Daar schuilt het gevaar met communities, fora maar ook reviews uit verschillende niet-controleerbare platformen. Het klinkt logisch om die bronnen te gebruiken, want op die manier leren AI-systemen van echte menselijke gesprekken. Maar de mensen die vroeger Google probeerden te manipuleren met trucjes, manipuleren nu ook communities zoals Reddit omdat het een makkelijke shortcut lijkt om in trainingsdata én retrieval-antwoorden terecht te komen.

Het verschil met SEO-spam: Google kan morgen spammy links devalueren, maar AI kan niet zo snel met terugwerkende kracht de gemanipuleerde Reddit-threads uit trainingsdata ‘ontleren’. Die manipulatie fossileert tot AI-waarheid.

En dan beginnen de problemen pas echt. AI-systemen genereren nu massaal content die mogelijk weer gebruikt wordt als trainingsdata voor nieuwe AI-systemen. Contentgeneratie op contentgeneratie. Bronnen met meningen en discussies worden samengevat, die samenvattingen worden weer als ‘feiten’ gepresenteerd, en vervolgens opnieuw gebruikt in nieuwe content. De originele nuance en context verdwijnen met elke iteratie, elke aanpassing. Een soort digitale kaasschaaf waarin de boodschap steeds dunner en generieker wordt. En omdat systemen output vaak ‘atomisch correct’ teruggeven, is AI-content dus ook beter leesbaar voor AI zelf.

Dit klinkt heel erg doomsday, en systemen worden hier echt beter in, maar het is niet iets dat we zomaar voor lief moeten nemen.

AI versnelt analyse maar verschuift waar interpretatie plaatsvindt

AI zorgt voor snelheid, structuur en synthese. Het kan informatie ordenen, combineren en razendsnel genereren en teruggeven. Maar de interpretatie van die informatie verschuift ook steeds vaker van mens naar systeem.

Dat is het werkelijke verschil

Waar je voorheen zelf zocht, vergeleek en een afweging moest maken op basis van jouw situatie, wens en vraag, krijg je nu een samengesteld antwoord. Niet als lijst van opties, maar als ogenschijnlijk logisch geheel. En dan ook nog op basis van hoe jouw gesprekken met AI in het verleden waren, dus 100% bevooroordeeld. Daarmee verschuift niet alleen het zoeken, maar ook het moment waarop keuzes (en aannames) worden gemaakt.

Dat hoeft niet te betekenen dat het menselijk oordeel verdwijnt, maar wel dat het later in het proces komt en vaak gebaseerd is op een interpretatie die je zelf niet volledig hebt opgebouwd. Kennen we allemaal de ‘dat stond op facebook’-filmpjes? Tegenwoordig is dat ‘het stond op ChatGPT’.

Een simpele controle blijft daarom relevant; vraag jezelf altijd af:

  • Wie zegt dit eigenlijk?
  • Welke alternatieve verklaring is er?
  • Hoe betrouwbaar is het antwoord?

Niet omdat AI ‘het niet begrijpt’, maar omdat het de manier verandert waarop betekenis tot stand komt. Vraag ChatGPT zelf maar eens hoe goed zijn antwoord is en hij gaat twijfelen. Stel vijftien vragen extra en je antwoord is 100 procent het tegenovergestelde van wat je initieel als antwoord kreeg.

Voor marketeers is dit een praktische wetenschap. Als interpretatie eerder in het proces plaatsvindt, nog vóórdat jouw doelgroep actief nadenkt, dan is de vraag niet meer alleen hoe overtuig ik iemand?, maar in welk referentiekader kom ik terecht?

Dat referentiekader wordt gevormd door wat systemen over je weten, hoe consistent dat beeld is en hoe breed het wordt bevestigd. Wie dat begrijpt, begrijpt ook waarom de ‘machtsvraag’ achter AI-search er voor marketeers direct toe doet.

De verschuiving raakt ook de kern van marketing

Marketing blijft in essentie intermenselijke communicatie met als doel gedrag te beïnvloeden en uiteindelijk een product of dienst te verkopen. Maar die communicatie verloopt steeds minder direct.

Steeds vaker zit er een systeem tussen dat bepaalt wat iemand ziet, leest en uiteindelijk gelooft. AI wordt daarmee minder een tool en meer een tussenlaag tussen informatie en gebruiker. Een filter dat communicatie vertaalt, comprimeert en soms ook vervormt.

Die systemen zijn niet neutraal. Ze optimaliseren voor snelheid en gemak, omdat ons brein daarop reageert. Efficiëntie wint het bijna altijd van volledigheid.

Dat betekent dat je als organisatie niet alleen communiceert met je doelgroep, maar ook met de systemen die die communicatie interpreteren.

En dat maakt volledige controle een illusie.

Want ondanks de snelheid van ontwikkeling verandert de kern niet. Relevantie, herkenning en vertrouwen blijven leidend. Alleen de weg ernaartoe verschuift steeds verder richting een laag die je niet volledig kunt zien of sturen.

Een logische strategie is daarom niet om alles te willen begrijpen of beheersen, maar om bewust te kiezen waar je op inzet. Niet vanuit angst om achter te blijven, maar vanuit aansluiting op je eigen strategie en vermogen.

Het echte spel achter AI en zoekmachines: controle over gebruikersdata

Corpus presence en merkaanwezigheid spelen zich niet af in een afgebakende situatie of speelveld. Het gaat erom wie die zichtbaarheid straks controleert, en dat is een strategische vraag die verder gaat dan SEO of AI-optimalisatie.

Google staat namelijk opnieuw voor een dilemma: het moet zijn verdienmodel herbouwen terwijl de machine blijft draaien. Een klein verlies in marktaandeel, zelfs één honderdste procent, kost Google naar schatting ongeveer 2 miljard dollar per jaar (Bloomberg Intelligence, 2025Reuters 2025). Tegelijk past Google zich razendsnel aan: AI Overviews draait inmiddels op miljarden zoekopdrachten per dag en het bedrijf boekte in 2025 zijn sterkste jaar qua groei sinds 2009 (CNBC, 2026).

De druk is reëel, maar Google is geen passieve partij

Dus Google moet op zijn hoede zijn, ondanks de dominante marktpositie die het nu heeft. Het grootste risico voor Google komt overigens niet alleen van OpenAI of andere dedicated AI-bedrijven, maar ook van Apple, want daar zit een complexe relatie.

Apple Intelligence wordt inmiddels aangedreven door Google’s Gemini-modellen, op basis van een meerjarige deal die begin 2026 werd bekendgemaakt (CNBC, januari 2026; joint statement Google & Apple, 2026). Apple betaalt daar naar schatting een miljard dollar per jaar voor. Dat maakt Apple tegelijkertijd dus klant én concurrent: klant van Google’s AI-infrastructuur, maar eigenaar van de interface waardoor gebruikersintentie loopt. Want ook met Gemini onder de motorkap geldt: de zoekvraag komt eerst door Apple’s laag, vóórdat die eventueel Google bereikt. Daarmee verschuift controle over intentiedata structureel naar besturingssystemen en interfaces ongeacht welk model daaronder draait.

Dit gaat dus niet over wat de beste zoekmachine is, maar over wie controle heeft over de toegang tot gebruikersintentie en interacties. Google speelt dat spel nu dus op twee manieren, aan de ene kant betalen ze tientallen miljarden om standaardzoekmachine te blijven op iPhone en in Safari, aan de andere kant verdient Google ook aan de AI-laag die aan die zoekvraag voorafgaat. Slim, maar ook moeilijk, Google stelt namelijk een deel van de kern van zijn distributie veilig maar Apple kan deze kern dus deels gaan omzeilen. Daardoor zou Google op termijn minder directe controle over intentie en verkeer krijgen want Apple bepaalt dus deels de voorwaarden van die samenwerking.

Microsoft speelt een heel ander spel. Het levert infrastructuur aan vrijwel alle grote AI-partijen én integreert Copilot in het dagelijks werk van honderden miljoenen gebruikers. Daarnaast fungeert Bing als backend voor Meta AI in WhatsApp, Instagram en Messenger (Microsoft, 2025).

Mooier kan ik het niet maken, het is niet glamoureus maar wel een strategische positie. Wat dit betekent voor jouw organisatie: de platformen waarop jij zichtbaar bent, verschuiven mee met de macht. Wie vandaag alleen optimaliseert voor Google, bouwt aanwezigheid in een ecosysteem dat terrein verliest aan besturingssystemen, ingebouwde assistenten en gesloten interfaces. Het gaat er niet om dat Google irrelevant wordt, dat is het voorlopig echt nog lang niet, het gaat erom dat aanwezigheid in meerdere onafhankelijke bronnen geen nice-to-have meer is, maar noodzakelijk. In het huidige tijdperk kun je niet op één paard wedden.

Wat je vandaag al kunt doen

Als zichtbaarheid verschuift van rankings naar referentiepositie in het kennisecosysteem, betekent dat concreet vier dingen. Op volgorde: begin met wat de basis vormt, bouw van daaruit verder.

1.    Zorg dat je organisatie als entiteit herkenbaar is; dit is de voorwaarde voor alles

Voordat je aanwezigheid in externe bronnen opbouwt, moet die aanwezigheid consistent zijn. Stel jezelf de vraag: als iemand je merknaam intikt in ChatGPT, krijgt het systeem dan een eenduidig beeld van wie je bent, wat je doet en voor wie?

Dat betekent: dezelfde omschrijving van je expertise, dezelfde positionering ten opzichte van andere spelers en dezelfde kernbegrippen, niet alleen op je website, maar in elk interview, elke presentatie en elk profiel waar je naam verschijnt. Inconsistentie tussen bronnen is voor AI-systemen reden om je als minder betrouwbaar te labelen.

Toets: zoek je eigen merknaam op in meerdere AI-tools. Is het beeld dat terugkomt herkenbaar en correct? Zo niet, begin hier.

2.    Vergroot je aanwezigheid in onafhankelijke bronnen, maar kies selectief

Meer is niet altijd beter. Prioriteer bronnen die door AI-systemen zwaar gewogen worden: gerenommeerde vakmedia, onderzoeksrapporten, reviewplatformen, Wikipedia-achtige kennisplatforms en veelgeciteerde communities. Een vermelding in een gezaghebbende branchepublicatie weegt zwaarder dan twintig vermeldingen in dunbevolkte directories of 100 platte linkjes.

De beslisregel: kies bronnen waar je doelgroep al informatie haalt én die zelf als bron worden geciteerd door anderen. Dat is de dubbele toets voor referentiewaarde.

Niet voor links. Voor referentiepositie.

3.    Publiceer informatie die systemen kunnen gebruiken; denk in fragmenten, niet in pagina’s

AI-systemen gebruiken geen volledige pagina’s, maar passages. Een zin die op zichzelf een claim draagt, een definitie die zelfstandig betekenis heeft, een inzicht dat zonder context bruikbaar is, dat zijn de eenheden die worden opgepikt en hergebruikt.

Praktisch: schrijf elk artikel altijd voor de eindgebruiker, maar met de vraag in gedachten “welke zin uit dit stuk zou een AI letterlijk kunnen citeren als antwoord op een relevante vraag?” Als het antwoord “geen” is, is de tekst waarschijnlijk te omslachtig. Expliciete claims, controleerbare cijfers en scherpe definities dragen meer bij aan corpus presence dan goed schrijven in de klassieke zin.

4.    Meet aanwezigheid, niet alleen traffic, en doe dat nu al, ook als de volumes klein zijn

Traffic uit AI-bronnen is voorlopig moeilijk te meten en relatief klein. Dat is geen reden om niet te meten, het is juist de reden om een nulmeting te doen. Wie nu bijhoudt in welke context zijn merk verschijnt in AI-antwoorden, heeft straks een baseline om ontwikkeling aan af te lezen.

Kijk naast rankings, sessies en klikken ook naar: waar wordt je merk spontaan genoemd in AI-tools, in welke context verschijn je, welke andere entiteiten komen consistent samen met jouw naam voor, en word je als bron geciteerd of alleen als vermelding meegenomen? Dat laatste onderscheid, bron versus vermelding, wordt steeds bepalender voor of je daadwerkelijk invloed hebt op het antwoord dat iemand krijgt.

Conclusie: wachten is niet winnen

Wil je klaar zijn voor de komende drie jaar? Doe wat je al deed: wees nuttig voor je doelgroep, bouw aan je merk als entiteit, publiceer originele inzichten en zorg voor zichtbaarheid in meerdere onafhankelijke bronnen buiten je eigen website. Geen revolutie, maar consequentie.

Dit is geen nieuwe logica. Alleen wordt nu zichtbaar welke organisaties altijd al bouwden aan echte aanwezigheid en welke vooral optimaliseerden voor rankings.

Als je wacht tot AI-verkeer echt in grote aantallen zichtbaar wordt in Google Analytics en/of als je je blijft focussen op SEO-teksten en linkjes met focus op ranking, dan loop je het risico dat AI-systemen hun ‘oordeel’ al gevormd hebben zonder jouw merk daarin op te nemen. Dat maakt vroeg beginnen verstandig. Er is nu nog geen reden voor paniek, de kaders zijn nog volop in beweging maar de richting is wel duidelijk.

Zichtbaarheid verschuift van alleen gevonden worden in een traditionele zoekmachine naar aanwezig zijn in het kennisecosysteem waaruit antwoorden worden samengesteld. Daarmee verschuift marketing niet alleen van performance naar branding, maar ook van pagina’s naar entiteiten en van rankings naar distributie.

Maar die verschuiving vervangt het bestaande niet; het wordt erbovenop gestapeld. Google blijft, websites blijven, klikken blijven. Alleen is het niet meer het volledige speelveld.

Dit is nog steeds dezelfde logica: autoriteit, herhaling en vertrouwen. Alleen wordt eerder bepaald wie als bron wordt gebruikt.

Wie vandaag bouwt aan consistente aanwezigheid, herkenbaarheid en verspreiding over meerdere onafhankelijke bronnen, vergroot de kans om onderdeel te worden van dat referentiekader.

Wachten is geen fout. Maar niets doen is dat wel.

Bronnenlijst

Marktcijfers en adoptie

Conversiewaarde en AI-verkeer

Consumentenvertrouwen en aankopen via AI

Platformstrategie en distributie

Inhoud en taalstructuur

Headerfoto: Marten Newhall | Unsplash

Gerk Mulder
Mede-oprichter bij Briljante Geesten

Categorie
Tags
ai,

Plaats reactie

Marketingfacts. Elke dag vers. Mis niks!