GPT-4 verandert de wereld en daarmee ook Google en SEO
AI en in het bijzonder GPT-4 veranderen de wereld van de SEO industrie. Hoe gaat Google om met AI content?
De ontwikkelingen volgen elkaar razendsnel op met wekelijks of eigenlijk dagelijks nieuwe tools, nieuwe prompts die worden ontdekt en nieuwe mogelijkheden om onderzoek en verbeteringen door te voeren. Niet alleen grote bedrijven, ook mensen actief in de SEO wereld staan stil om te kijken welke ontwikkelingen toegepast kunnen worden om beter onderzoek te doen, welke invloed AI content heeft op de zoekresultaten en of Google meer marktaandeel zal verliezen. In dit artikel gaan we daarom verder in op wat je als marketeer zou kunnen verwachten van hoe Google omgaat met AI content.
Google en AI – een gigant in het nauw, of niet?
Ook bij Google is het alle hens aan dek. Google-topman Sundar Pichai noemt de ontwikkeling van AI een grotere uitvinding dan die van vuur en elektriciteit. GPT-4 en in het bijzonder ChatGPT vormen een bedreiging voor zoekmachines zoals we die nu kennen. GPT-4 is in staat complexe opdrachten uit te voeren en vragen te beantwoorden op een manier die de bekende zoekmachine van Google dat op dit moment niet kan.
Voordat een mogelijke vervanging van de zoekmachine aan de orde is, kunnen we echter ook inzoomen op de invloed van door AI gegenereerde content op de zoekresultaten die Google serveert. Teksten die een schrijver uren kosten om te schrijven, worden door GPT-4 binnen seconden gegenereerd. Zonder spelfouten, met een logische opbouw en in het gros van de gevallen met voldoende diepgang om van waarde te zijn voor websites en hun gebruikers. Daar blijft het niet bij, want de kosten voor teksten die een AI genereert zijn een veelvoud goedkoper dan teksten van een professionele tekstschrijver.
Wildgroei aan content – vervuiling of verrijking?
Met GPT-4 beschikbaar voor iedereen, ontkomen we er niet aan dat het internet overspoeld gaat raken met AI-content. Niet alleen bestaande partijen stappen over op contentgeneratie met AI, ook nieuwe spelers zullen zich meer en meer gaan mengen in de strijd om topposities in de zoekresultaten in vrijwel iedere denkbare niche. De drempel om te starten met online projecten is door de verlaagde kosten en beschikbaarheid van AI immers sterk verlaagd. Daar komt bij dat bestaande partijen die overstappen op AI ook de frequentie waarmee zij content plaatsen drastisch kunnen opvoeren dankzij de ontwikkeling.
Regelmatig rijst de vraag dan ook op: hoe moeten we omgaan met een internet vol AI-teksten? Inherent aan een dergelijke vraagstelling is de aanname dat content die gegenereerd wordt door een AI onbetrouwbaar is. Wanneer iedereen vertrouwen heeft in de content van een AI, zou deze vraag immers ook niet opkomen.
Dat het vertrouwen in content van een AI niet bijzonder hoog is, heeft een goede reden. Hoewel een AI-model als GPT-4 goed simpele en vaak ook complexere vragen kan beantwoorden met een pakkende tekst, is het gegenereerde antwoord afhankelijk van de input die het krijgt en in het verleden heeft gekregen. Afhankelijk van alle input genereert AI een antwoord dat in heel veel gevallen klopt met de werkelijkheid. Daarvoor is wel input nodig van hoge kwaliteit. Met hoge kwaliteit bedoelen we: een grote hoeveelheid kloppende input.
Daar zit direct een bottleneck voor sommige teksten die gegenereerd kunnen worden. GPT-4 heeft een veelvoud meer Amerikaans-georiënteerde input gehad dan Nederlands-georiënteerde input bijvoorbeeld. Stel je vragen over de Nederlandse wetgeving, dan is de kans op fouten al groter. Ook vragen over actuele onderwerpen zullen vaak niet perfect beantwoord worden.
Met name bij gevoelige onderwerpen, denk aan medische of financiële informatie, begeef je je met een AI op glad ijs. Informatie kan niet-kloppend zijn, of niet voldoende rekening houden met nuances die wel van (levens)belang zijn voor het onderwerp.
Tegelijkertijd kunnen teksten over deze onderwerpen wel gegenereerd worden. Een risico, zo zeggen velen, waaronder ontwikkelaar OpenAI zelf.
Google, SEO en AI – kwaliteit en betrouwbaarheid
Het gemak, de kwaliteit, maar ook de tekortkomingen van AI-teksten zijn zaken waar Google mee in haar maag zit als het gaat om het waarderen van deze teksten in de zoekresultaten.
Google verzet zich met haar richtlijnen voor webmasters echter niet tegen de komst van AI-teksten. Dat kan ook niet, want de komende tijd zullen AI-teksten alleen maar beter worden en nog lastiger te onderscheiden zijn van teksten geschreven door mensen.
“For example, about 10 years ago, there were understandable concerns about a rise in mass-produced yet human-generated content. No one would have thought it reasonable for us to declare a ban on all human-generated content in response. Instead, it made more sense to improve our systems to reward quality content, as we did.”
– Google over de keuze om AI-content te omarmen(2)
AI-teksten worden dan ook niet bestraft en worden op dezelfde manier beoordeeld als teksten van mensen. Wat wel duidelijk wordt, is dat Google de focus sterk aan het verleggen is naar contentkwaliteit met recente updates van het zoekalgoritme. Teksten worden nog strenger beoordeeld op betrouwbaarheid, autoriteit en kwaliteit. Daarmee beweegt Google mee met de huidige golfbeweging van AI-teksten die het internet overspoelen en waarborgt het de kwaliteit van de zoekresultaten die geserveerd worden.
Eén van de updates waar dit uit blijkt, werd uitgerold in december 2022. Sinds enige jaren hanteert Google het zogenaamde E-A-T-concept om de kwaliteit van teksten te evalueren. E-A-T staat voor Expertise, Authority en Trustworthiness. In december kwam hier nog een E bij: Experience(3).
Content, en met name content over gevoelige onderwerpen, wordt geëvalueerd aan de hand van deze vier factoren. Dat er wordt gekozen voor experience (ervaring) als vierde, nieuwe beoordelingsmaat, is enerzijds logisch, maar ook opvallend.
Expertise, autoriteit en betrouwbaarheid kunnen tot op zekere hoogte namelijk allemaal worden toegeschreven aan een AI die meer data heeft verwerkt dan welk individu dan ook. Ervaring valt daar echter buiten. Een medische tekst geschreven door een arts met een staat van dienst zal hoog scoren op de factor ervaring. Een AI is geen arts, en ondanks alle data waarover het de beschikking heeft, ervaring zal het ook niet krijgen in deze zin van het woord.
Met de toevoeging van ervaring als meetwaarde in het evaluatieproces van content, lijkt Google zich dus wel degelijk te wapenen tegen AI-content, in elk geval bij gevoelige onderwerpen. Als het zoekalgoritme van Google goed genoeg werkt, betekent dit dat bij dit type onderwerpen AI-teksten voorlopig nog niet of in elk geval in mindere mate terug te vinden zijn in de top van de zoekresultaten.
Wat toekomstige Google Core updates gaan brengen
Google heeft voorlopig nog haar handen vol aan het bijbenen van AI. Niet alleen voor het bestaansrecht van haar zoekmachine, maar ook voor de huidige betrouwbaarheid van de zoekmachine.
Het ligt dan ook in de lijn der verwachting dat komende Google Core updates zich hoofdzakelijk zullen richten op content, en in het bijzonder kwaliteit en betrouwbaarheid van content. De toevoeging van Experience aan E-A-T is hoogstwaarschijnlijk slechts een kleine schakel in een keten van toekomstige updates aan het contentwaarderingssysteem van Google.
Als online marketeer doe je er dan ook goed aan om je hierop voor te bereiden. Niet alleen als je AI-teksten gebruikt, maar ook als je je nog richt op content geschreven door mensen. Kwaliteitseisen aan teksten gaan strenger en veelomvattender worden.
Partijen die in een vroeg stadium een stap extra zetten om betrouwbaarheid, autoriteit, kwaliteit en ervaring van hun teksten te bewijzen, gaan daar meer dan ooit de vruchten van plukken verwacht ik.