Barry Adams: “Nieuwsuitgevers moeten zich richten op unieke journalistieke output”

In dit interview spreken we uitgebreid met Barry Adams. Hij is SEO Consultant en gespecialiseerd in SEO voor nieuwsuitgevers.

30 januari 2023, 11:00 5161 x gelezen

Als nieuwsuitgever kan het moeilijk zijn om je website te beschermen tegen de gevolgen van Google-algoritme-updates. In dit interview deelt Barry Adams, onafhankelijk SEO Consultant (Polemic Digital), Co-founder van de News & Editorial SEO Summit en vijfvoudig spreker bij Friends of Search, zijn inzichten over hoe nieuwsuitgevers zich moeten richten op wat hen uniek maakt wat betreft hun journalistieke output. Op deze manier dragen ze bij aan de opbouw van hun topical authority en kunnen ze de uitdagingen rondom Google algoritme-updates het hoofd bieden.

In de SEO wereld sta je bekend om je ruime ervaring met SEO voor publishers. Hoe is het zo gekomen dat je hier je focus op hebt gelegd?

“Dit was een typisch geval van ‘op de juiste tijd, op de juiste plaats’. In 2009 verhuisde ik vanuit mijn geboorteplaats Eindhoven naar Noord-Ierland, en een van mijn eerste banen daar was als in-house SEO-specialist bij de plaatselijke krant de Belfast Telegraph.

“Ik had toen al een redelijke kennis van SEO, maar wist nog heel weinig over de bijzonderheden van SEO voor nieuwswebsites. Samen met de online redacteur van de Belfast Telegraph voerden we veel experimenten uit om te zien wat werkte en hoe we succes konden behalen in Google News en de Top Stories-nieuwsblokken. Dat was zeer leerzaam en boostte de Belfast Telegraph naar niveaus van zichtbaarheid in Google die aanvankelijk niet realistisch waren, zeker niet omdat het ging om een kleine, lokale krant.

“De successen die we daar behaalden, hebben veel deuren voor me geopend. Later, toen ik inmiddels freelance SEO-consultant werkzaam was, ontstonden er een aantal kansen uit het werk dat ik voor de Belfast Telegraph had gedaan. Die kansen greep ik aan om mijn expertise in SEO voor nieuwswebsites te ontwikkelen – een zwaar onderschatte niche binnen SEO. Zo begon de bal te rollen, en in de loop van de jaren heb ik het geluk gehad om met sommige van de grootste namen in nieuwsuitgeverssector te werken.”

Door je ervaring zie je vast regelmatig dezelfde problemen bij websites voorkomen. Wat zijn zaken die publishers echt op orde moeten hebben maar nog vaak mis gaan?

“Typische problemen waar ik vaak tegenaan loop bij veel van mijn nieuwsclients zijn verkeerde afbeeldingsgroottes, wat de prestaties van artikelen in de Discover-feed kan belemmeren. Ik zie ook problemen rond tag-pagina’s en topic-hubs, en inconsistente interne linkstrategieën.

“Een technisch probleem dat ik vaak tegenkom is gepagineerde inhoud; vaak is deze zo geïmplementeerd dat Google niet verder dan de eerste pagina van artikelen kan crawlen. Daarnaast is de plaats die SEO inneemt binnen de redactionele workflow van een nieuwssite is een belangrijk gebied dat vaak wordt verwaarloosd. Als je wilt slagen in Google, moet je SEO serieus nemen en best practices in je redactionele teams standaardiseren.”

Het gebruik van structured data (Article, NewsArticle, BlogPosting, LiveBlogPosting, enzovoort) is een veel toegepaste optimalisatie van pagina’s. Zijn er bepaalde technische zaken die een publisher altijd zou moeten optimaliseren? 

“Voor nieuwsuitgevers is de juiste implementatie van gestructureerde data niet optioneel. Google leunt zwaar op de attributen die worden verstrekt in (News)Article-gestructureerde data om het artikel te indexeren en het een juiste plaats te geven in zijn nieuwsecosysteem. Het nauwkeurig definiëren van voldoende attributen is cruciaal.

“Tegenwoordig zijn sommige uitgevers bezig met het herbouwen van hun verouderde technologiestacks, en het is gemakkelijk om daar verkeerd af te slaan met betrekking tot JavaScript. Google zegt dat ze JavaScript kunnen indexeren, maar in de context van nieuws is het catastrofaal om te vertrouwen op client-side JavaScript om inhoud en links te laden. Nieuwssites moeten alle links en inhoud in de ruwe HTML serveren aan klanten en Googlebot als ze enige kans willen maken om te scoren in Google’s nieuwselementen.

“Tot slot is crawl-snelheid een cruciale factor voor nieuwssites, aangezien ze vaak bestaan uit zeer grote sites met miljoenen pagina’s. Hoe sneller Googlebot je site kan crawlen, hoe gemakkelijker het nieuw gepubliceerde en bijgewerkte artikelen kan vinden.”

In verschillende blogs schrijf je over het belang van topical authority voor websites. Kun je iets vertellen over het belang hiervan en hoe je dit in kaart kunt brengen?

“Ik geloof dat Google vanaf 2018 zich echt is gaan focussen op topical authority, terug te zien in de vele belangrijke algoritme-updates die sindsdien zijn uitgerold. Nieuwssites worden vaak geraakt door deze updates, omdat Google hun redactionele inhoud opnieuw evalueert om te zien op welke onderwerpen een uitgever echt autoriteit heeft.

“Als je de topical authority van een site wilt bepalen, hoef je alleen naar hun hoogst geplaatste pagina’s kijken die geen artikelpagina’s zijn. Sectiepagina’s en tag-pagina’s rangschikken ook in Google-zoekopdrachten, vaak voor brede trefwoorden gerelateerd aan hun onderwerp. Bijvoorbeeld, een zoekopdracht zoals ‘Donald Trump nieuws’ zal – naast de gebruikelijke nieuwsverhalen – een set van onderwerppagina’s van nieuwsuitgevers tonen in de top 10 organische resultaten. Die uitgevers hebben zeer sterke topical authority op het onderwerp Donald Trump.

“Het verbeteren van topical authority is een kwestie van regelmatig unieke, kwalitatief goede inhoud op dat onderwerp te publiceren en die inhoud op de juiste manier te categoriseren binnen site-secties en tag-pagina’s.”

De laatste tijd ervaren we steeds vaker dat Google erg lang doet over het indexeren van nieuwe content op websites. Zie je dit probleem ook terug bij de websites waar jij voor werkt, of hebben grote nieuwssites een ‘speciale behandeling’?

Wanneer ik indexeringsproblemen zie op nieuwssites, is dat ofwel omdat Google moeilijkheden heeft of het gaat om een technisch probleem bij de betreffende nieuwssite. Meestal worden nieuwsartikelen zeer snel geïndexeerd – binnen enkele minuten.

Ik geloof wel dat Google nieuws een beetje anders behandelt. Vanwege de snelheid waarmee nieuws zich verplaatst, neemt Google een aantal afsnijroutes bij het indexeren van nieuwsartikelen. Bijvoorbeeld, de renderingsfase van indexering – waar client-side JavaScript wordt geladen – wordt overgeslagen voor nieuwsartikelen.

Dit helpt het proces van indexeren van nieuwsverhalen te versnellen, zodat Google bijna altijd de nieuwste artikelen op een bepaald actueel onderwerp kan tonen. Gebruikers verwachten dat Google de laatste nieuwtjes toont, dus deze afsnijroutes helpen Google aan die verwachting te voldoen.

Om te bekijken of een website is ontdekt door Google (crawling) en vervolgens opgenomen in de zoekresultaten (indexing) zijn verschillende manieren. Hoe breng jij dit in kaart (op grote schaal)? Zijn er bepaalde analyses die je kunt uitvoeren om tot bepaalde conclusies te komen?

Het laten indexeren van content is eigenlijk geen probleem voor de meeste nieuwssites, vanwege de snelle indexeringsprocessen die Google gebruikt voor nieuwsartikelen. Zelden zie ik problemen met indexering op sites van uitgevers. Wanneer ik dat wel zie, is Google Search Console de beste bron van gegevens om het probleem te analyseren en op te lossen.

Met de verschillende pagina-indexeringsrapporten en het geweldige Crawlstatistieken rapport, kun je vaak al snel aanwijzen wat het hoofdprobleem is. Dit kan niet-crawlbare gepagineerde inhoud zijn, trage serverresponsetijden, slechte codering (meestal weerspiegeld in hoge percentages van Page Resources crawl-inspanning in het Crawlstatistieken-rapport) of problemen met canonicalisatie.

Maak jij gebruik van log file analyses voor jouw klanten en hoe doe je dat bij enorm grote websites? Zijn er beperkingen?

Grappig verhaal: ik vroeg ooit aan een grote Britse nieuwsuitgeverij om toegang tot hun serverlogbestanden. Hun ontwikkelaars reageerden met een vraag van hun kant: “Hoe groot is je harde schijf?”

Nieuwssites worden zo intensief gecrawld door Google – vooral populaire nieuwsuitgevers – dat log file eigenlijk geen praktisch doel is. Bovendien is het Crawlstatistieken rapport in Search Console meestal voldoende om potentiële crawlproblemen te vinden.

Sinds 2018 is Google Discover en steeds belangrijkere verkeersbron geworden voor publishers. Heb jij tips om te zorgen dat websites hier goed zichtbaar in worden? En werkt dit anders dan opname in Google Nieuws?

Discover heeft een bredere scope dan Google Nieuws; het is normaal om artikelen van websites in je Discover-feed te zien die je nooit in Google News gaat vinden.

Nieuws is nog steeds gebaseerd op trefwoorden/onderwerpen; mensen doen een zoekopdracht, en Google matcht het onderwerp van de zoekopdracht met relevante nieuwsverhalen. Discover, daarentegen, gaat over interesses. Google laat je artikelen in je Discover-feed zien waarvan Google denkt dat jij ze interessant vindt, gebaseerd op wat Google over jou weet.

Sterke koppen en inleidende paragrafen zijn belangrijke tactieken voor verbeterde zichtbaarheid in Discover, evenals het definiëren van een hoge resolutie afbeelding (1200 pixels breed minimaal) in de NewsArticle gestructureerde gegevens. Zorg ervoor dat je artikelen een duidelijk onderwerp hebben en gebruikmaken van bekende interesses die Discover gebruikt om artikelen te categoriseren. Experimenteren helpt ook om je optimale kopteksten-structuur te vinden.

Zijn er manieren hoe je verkeer uit Discover en News kunt tracken buiten Search Console om? Zie jij verschillen in het behalen van bepaalde doelen of engagement per verkeersbron?

Buiten Search Console zijn er maar beperkte mogelijkheden om verkeer uit Discover en Top Stories carrousels op Google nauwkeurig te volgen. We kunnen bezoeken vanuit de news.google.com volgen, maar voor de meeste uitgevers zal dit slechts een laag percentage zijn van het totale verkeer. Discover en de Top Stories zijn nieuwsboxen waar het meeste verkeer naar nieuwssites vandaan komt, maar dat verkeer mist de juiste referral strings. Discover wordt vaak weergegeven als Direct verkeer in Google Analytics en verkeer uit Top Stories wordt samengevoegd met regulier Google Organic verkeer.

Sommige 3rd party tools hebben manieren gevonden om verkeer redelijk nauwkeurig toe te kennen. Een van mijn favoriete tools hiervoor is Marfeel Compass, dat het bijkomende voordeel heeft dat het volledig in overeenstemming is met EU-wetgeving (in tegenstelling tot Google Analytics, dat, naast dat het voor geen meter werkt, technisch gezien illegaal is in de EU).

Afgelopen jaar zijn er enorm veel Google Updates uitgerold die flinke verschuivingen in de zoekresultaten hebben bewerkstelligd. Heb je hier iets van gemerkt?

Ja, absoluut. Elke keer als Google een grote algoritme-update uitrolt ervaren nieuwssites vaak als eerste de gevolgen. Het is zeldzaam als een algo-update geen impact heeft op nieuwsuitgevers.

Vaak doen de nieuwssites die worden getroffen niet echt iets verkeerd. Ze publiceren journalistiek kwalitatieve content en hebben een sterk topical authority, maar Google ‘straft’ deze sites vaak alsnog – meestal omdat het besluit minder ruimte te geven aan nieuws in het algemeen.

Dit maakt SEO voor nieuwssites soms frustrerend. Het is moeilijk te voorspellen waar je SEO-inspanningen je zullen brengen, omdat Google in de volgende algo-update kan besluiten om nieuws lager te ranken en alles wat je hebt bereikt teniet te doen.

Google gaat nieuwswebsites betalen. Dit moet van de EU, omdat er Google gedeeltes van publicaties hergebruikt in de zoekresultaten. Ik ben erg benieuwd naar jouw mening over de Extended News Previews-overeenkomst van Google. 

Vanuit Google is het niets anders dan propaganda. De financiële kosten voor Google zijn zo klein in vergelijking met hun omzet, het is amper een afronding op hun balans. Maar voor nieuwsuitgevers, die moeite hebben gehad om geschikte bedrijfsmodellen te vinden in deze tijd van gratis online nieuws, kan dat geld het verschil betekenen tussen winst en faillissement.

Ik vind dat gigantische technologieplatforms zoals Google, Facebook en Apple, die fungeren als poortwachters van het internet, een verantwoordelijkheid hebben om hun succes te delen met de makers waarop ze hun rijkdom hebben gebouwd. Een bedrijf als Google wordt niet meer dan 2 biljoen dollar waard op basis van alleen eigen inhoud – het is zo groot geworden door relevante content van anderen vindbaar te maken. Dat succes moet gedeeld worden de makers van die content, iets wat YouTube bijvoorbeeld doet. Google, als eigenaar van YouTube, lijkt geen inherent probleem te hebben met het delen van hun rijkdom aan contentmakers, dus ik begrijp hun duidelijk uitgesproken aarzeling niet om dit te doen met makers die worden getoond in de zoekresultaten van Google.

Ik weet niet zeker of de Extended News Previews overeenkomst van Google op de lange termijn gaat werken, maar het is tenminste een begin.

Zijn er nog nieuwe ontwikkelingen voor publisher SEO of heb jij nog verwachtingen van wat de komende tijd belangrijk gaat worden?

Ik vermoed dat 2023 weer een moeilijk jaar zal zijn voor nieuwswebsites, mede door algoritme-updates en algehele dalingen van het verkeer afkomstig van de belangrijkste technologieplatformen.

Nieuwsuitgevers moeten echt gaan inzetten op wat hen uniek maakt wat betreft hun journalistieke output. Je kunt niet langer een alleskunner zijn, een nieuwssite moet specifieke sterktes met een duidelijke focus.

Dat leidt tot een sterkere topical authority in Google, en nog belangrijker: het draagt bij aan de bouw van een trouw lezerspubliek dat echt geïnteresseerd is in je output. Een trouwe lezerspubliek betekent minder afhankelijkheid van de technologieplatformen en meer kansen voor inkomsten.

23 maart sta je weer op het podium bij Friends of Search. Waar ga je over spreken en waarom mogen wij het niet missen?

Aangezien dit de 10e editie van Friends of Search is, en de 5e editie waar ik op spreek, wil ik een overzicht geven van wat er in de afgelopen 10 jaar is veranderd in SEO. Naast een beeld van hoe Google en SEO zich de afgelopen jaren hebben ontwikkeld, vertelt dit ons ook waar Google het komende decennium naar toe gaat – en waar SEO gaat volgen.

Barry Adams spreekt op de jubileumeditie van Friends of Search op 23 maart in de Kromhouthal in Amsterdam. Tickets zijn verkrijgbaar via: https://friendsofsearch.com/nl/

Stefan Rooijakkers
SEO & content marketing manager bij SDIM

Stefan Rooijakkers heeft meer dan 15 jaar ervaring in digitale marketing en is op dit moment werkzaam bij SDIM, waar hij leiding geeft aan de SEO en content marketing afdeling. Naast partner bij SDIM helpt Stefan DDMA bij de organisatie van het onmisbare congres voor online marketeers: Friends of Search. Ook is Stefan mede-eigenaar van een succesvol e-commerce bedrijf, een skatepark en een horecagelegenheid. Stefan houdt veel van computeren.

Categorie
Tags

Marketingfacts. Elke dag vers. Mis niks!