Ontkracht: 10 SEO-mythes anno 2014

SEO-misverstanden & waarom dat zo is

Ontkracht: 10 SEO-mythes anno 2014

Ja, dat lees je goed. 2014. En nee, ik ben niet helderziend. In januari presenteerde ik bij Bol.com (slides) al eens over diverse SEO-mythes en ik merk dat ze allemaal nog steeds de ronde doen. Ik durf het dus zeker aan om te stellen dat onderstaande SEO-mythes in 2014 nog steeds rondgaan. En ik zal uitleggen waarom het mythes zijn: gangbare, maar ongegronde opvattingen.

In het vakgebied van zoekmachine-optimalisatie (SEO) doen veel mythes de ronde. Dat is op zich ook logisch, omdat we nu eenmaal te maken hebben met een ‘black box’: het algoritme van zoekmachine Google (en andere zoekmachines). Maar in mijn dagelijkse praktijk als adviseur merk ik al jaren dat deze mythes leiden tot misverstanden, verkeerde keuzes of zelfs negatieve SEO-resultaten. 

Hieronder 10 SEO-mythes - in willekeurige volgorde - die ik nog steeds regelmatig hoor terugkomen. Sommige al meerdere jaren, sommige recenter. En natuurlijk waarom de mythes ongegrond verklaard kunnen worden. 

1. Google vindt m’n pagina’s wel, ik hoef niks te doen

De definitie

Google is steeds beter geworden in het vinden van (nieuwe) websites en webpagina’s, hoofdzakelijk met de zoekmachinerobots.

De mythe

Met de explosieve groei van de hoeveelheid informatie op het web, zorgt Google natuurlijk ook voor meer capaciteit (rekenkracht, opslagruimte, crawl-capaciteit, etc.). Met deze sterk toegenomen en  groeiende capaciteit van Google zou je kunnen denken dat Google jouw nieuwe of aangepaste website of webpagina eenvoudig vindt.

Maar dat is lang niet altijd het geval.

De mythe ontkracht

Een voorbeeld uit de praktijk: voor een opdrachtgever stond een website al geruime tijd live (langer dan een jaar). Google had veel pagina’s gevonden en geïndexeerd, maar er waren nog steeds veel pagina’s niet geïndexeerd (ondanks dat Google de pagina’s in theorie wel kon vinden via interne links).

We onderzochten het gedrag van de Googlebot om eerst vast te stellen of de betreffende pagina’s überhaupt gecrawld werden. Dat bleek niet het geval. Pas na het toevoegen van een XML-sitemap zagen we dat de pagina’s keurig gecrawld en geïndexeerd werden.

Afbeelding 1: crawling Googlebot na toevoegen XML sitemap (bron: interne tool OrangeValley)

Afbeelding 1: crawling Googlebot na toevoegen XML sitemap (bron: interne tool OrangeValley)

Elk puntje in afbeelding 1 is een crawl van Googlebot. Het is duidelijk te zien dat na implementatie van de XML-sitemap een aantal pagina's gecrawld werden. Dat leidde binnen korte tijd tot een verdubbeling(!) van bezoekers uit SEO.

2. Hoe hoger m’n PageRank, hoe hoger m’n ranking

De definitie

Google geeft elke pagina/url op internet een ‘rapportcijfer’ op een schaal van 1 tot 10, Google PageRank genaamd. De PageRank-score is overigens al sinds februari 2013 niet meer is geactualiseerd en het voortbestaan (in de buitenwereld) lijkt op losse schroeven te staan - maar Google gebruikt het intern nog dagelijks in het algoritme.

De mythe

Ik hoor nog regelmatig mensen beweren dat een hoge PageRank zorgt voor hoge rankings in de zoekresultaten. En dat links van websites alleen wat waard zijn als de pagina/site PageRank heeft. Dat is absoluut een mythe.

De mythe ontkracht

Je kunt zelf eenvoudig controleren of de webpagina’s met de hoogste PageRank ook de hoogste posities in de zoekresultaten innemen.

Kijk eens naar dit voorbeeld:

Afbeelding 2: voorbeeld van PageRank score per zoekresultaat (Google.nl, januari 2013)

Afbeelding 2: voorbeeld van PageRank score per zoekresultaat (Google.nl, januari 2013)

Het is duidelijk te zien dat pagina’s met een hoge PageRank absoluut niet altijd hoog scoren.

3. Exact match-domeinen werken niet meer

De definitie

Wanneer een domeinnaam exact overeenkomt met een zoekopdracht, wordt dit een ‘exact match domain’ (EMD) genoemd. Bijvoorbeeld voor de zoekterm ‘vliegtickets new york’ is http://www.vliegticketsnewyork.nl een exact match-domein.

De mythe

In september kondigde Google (via Twitter) aan dat exact match-domeinen van lage kwaliteit lager zouden gaan scoren in de zoekresultaten, ook wel bekend als de ‘EMD-update’ (zie ook dit Marketingfacts-artikel).

De mythe ontkracht

Door zelf een aantal zoekopdrachten uit te voeren, weet je snel genoeg of (lage kwaliteit) exact match-domeinen nog steeds scoren. Sterk gerelateerd aan exact match-domeinen zijn 'partial match'-domeinen (PMD): de domeinnaam bevat een gedeelte van de focus-zoekterm.

Een paar voorbeelden van dit soort domeinen, waarbij met name partial match-domeinen veel terug te vinden zijn op een competitieve zoekterm:

Afbeelding 3: voorbeeld van een paar (te) goed scorende exact & partial match domeinen (Google.nl, november 2013)

Afbeelding 3: voorbeeld van een paar (te) goed scorende exact & partial match domeinen (Google.nl, november 2013)

Ik zie de zoekresultaten langzaam en met kleine stapjes wel verbeteren, maar zoals je ziet is Google’s belofte nog lang niet waargemaakt. In ieder geval niet in Nederland (dat voor Google simpelweg ook een minder belangrijk taalgebied is). Natuurlijk zijn zeker niet al deze sites van lage kwaliteit, maar ik zie dagelijks veel voorbeelden van EMD’s en PMD’s die echt van zeer lage kwaliteit zijn.

4. Duplicate content wordt afgestraft

De definitie

Wanneer dezelfde, of identieke content, te vinden is op meerdere locaties (URL’s), dan is er sprake van ‘duplicate content’. Dat geldt zowel binnen een website als tussen meerdere websites. Google en andere zoekmachines streven ernaar nooit dezelfde content meerdere keren terug laten komen in de zoekresultaten. Google geeft zelf aan:

“…Google streeft ernaar pagina's met verschillende gegevens te indexeren en weer te geven.…”

De mythe

Veel mensen denken dan ook dat duplicate content een straf of ‘penalty’ oplevert van Google. Dat wil zeggen dat jouw website op een lagere positie in de zoekresultaten wordt geplaatst.

De mythe ontkracht

Allereerst levert duplicate content nooit een penalty op (zie de volgende mythe). Alle andere wijzigingen in de positie van jouw website in de zoekresultaten gaan automatisch via een algoritme. Dat geldt dus ook voor duplicate content. Ten tweede wordt dezelfde, en met name identieke, content op meerdere url's lang niet altijd uit de zoekresultaten gefilterd.

Kijk hier maar eens naar:

Afbeelding 4: duplicate content in de zoekresultaten (Google.nl, 2012)

Afbeelding 4: duplicate content in de zoekresultaten (Google.nl, 2012)

En kijk vervolgens eens naar deze websites:

Afbeelding 5a: website 1

Afbeelding 5b: website 2

Zoek de verschillen ;-)

Natuurlijk is dit een extreem voorbeeld. En, om eerlijk te zijn, dit voorbeeld stamt uit 2012. Maar het geeft wel mooi aan dat duplicate content lang niet altijd uit de zoekresultaten gefilterd wordt.

Het is eigenlijk altijd nodig om iets aan duplicate content te doen. Dat zal je vindbaarheid alleen maar verbeteren. Maar je hoeft nooit bang te zijn voor een straf of ‘penalty’ wanneer er wel sprake is van duplicate content.

5. Help, m’n site heeft een Google penalty!

De definitie

Google neemt soms handmatige acties - een penalty - tegen websites die technieken gebruiken tegen de richtlijnen (spam). Dit kan een verlaging of in het meeste extreme geval een verwijdering uit de zoekresultaten zijn.

Een recent voorbeeld begin deze maand van een zeldzame penalty in Nederland is hier op Marketingfacts ook behandeld: “Nederlandse merken ‘beboet’ door Google voor twijfelachtige SEO-praktijken”.

De mythe

Stel je voor: je ziet de volgende grafiek in je webstatistieken:

Afbeelding 6: voorbeeld terugval aantal bezoekers uit Google

Afbeelding 6: voorbeeld terugval aantal bezoekers uit Google

Auch.

Dan schrik je natuurlijk.  Heel vaak hoor ik mensen dan roepen: “ik heb een penalty van Google!”. Meestal is dat echter niet het geval. Een penalty is namelijk altijd een handmatige actie van Google en dat wordt heel weinig toegepast.

De mythe ontkracht

Tot nu toe was het vaak lastig om te achterhalen of je een penalty had of niet. Al was het in een paar gevallen eenvoudig de afgelopen 2 jaar, namelijk met de Google Panda-algoritme-updates en Google Penguin-algoritme-updates. Hiervan zijn de updatedatums namelijk bekendgemaakt door Google (al zijn ze daar met het Panda-algoritme mee gestopt en ik verwacht dat dit met het Penguin-algoritme ook zal gebeuren).

Een voorbeeld hiervan:

Afbeelding 7: voorbeeld van websites die “geraakt” zijn door de Google Panda update (Searchmetrics, oktober 2011)

Afbeelding 7: voorbeeld van websites die “geraakt” zijn door de Google Panda update (Searchmetrics, oktober 2011)

Hier is duidelijk te zien dat een aantal sites fors terug is gevallen in hun organische vindbaarheid na de wereldwijde uitrol van het Google Panda-algoritme in augustus 2011. In dit geval is er dus geen sprake van een penalty, maar gewoon een automatische algoritmeverandering.

Hoe weet je of je een penalty hebt? Dat is tegenwoordig heel eenvoudig: Google vertelt het je. Sinds augustus 2013 vindt je dat terug in Google Webmaster Tools. Meestal zal je hier dus niets zien, ook al zie je een teruggang in je SEO-resultaten. En dan zul je gewoon hard moeten werken en je houden aan de Google-richtlijnen.

6. Footer links werken niet meer

De definitie

Footer-links zijn een lijstje links die onderaan elke pagina van een website staan. Dit aparte blok onderaan elke pagina wordt footer genoemd.

De mythe

Er zijn diverse mensen die beweren (voorbeeld) dat footer-links niet meer werken voor SEO. Met name ook naar aanleiding van uitspraken van Google, zoals: “We’ve done a good job of ignoring boilerplate, site wide links”. Ook de ‘page layout’-algoritme-update toont aan dat Google herkent op welke positie content en links op een pagina staan (voor bezoekers!).

De mythe ontkracht

In de praktijk zie ik echter dat footer-links nog steeds een waarde kunnen hebben. Kijk bijvoorbeeld eens naar de volgende cijfers van het aantal (Googlebot-)crawls:

Afbeelding 8: aantal Googlebot crawls na het toevoegen van footer links (bron: interne tool OrangeValley)

Afbeelding 8: aantal Googlebot-crawls na het toevoegen van footer-links (bron: interne tool OrangeValley)

Nu denk je natuurlijk: “Ja, Eduard, dat is logisch. Je hebt meer links toegevoegd, dus worden er ook meer crawls geregistreerd.” Dat klopt. Maar dan moet je ook weten dat de pagina’s waarnaar gelinkt is, gestegen zijn van buiten de top-10 naar top-3-posities.

Belangrijk om te weten, is dat de footer-links alleen toegevoegd zijn op relevante pagina’s. Dus het betreft hier geen footer-links die op elke pagina van de hele site staan.

7. Keyword-linkteksten worden afgestraft

De definitie

De ‘anchor text’ of linktekst is de tekst waarmee naar een andere pagina gelinkt wordt. Een ‘keyword-linktekst’ bevat hoofdzakelijk woorden die overeenkomen met een belangrijk SEO-keyword.

De mythe

Nadat Google sinds 2012 regelmatig een Penguin-algoritme-update doorvoert en na de gewijzigde ‘linkbuilding’-richtlijnen afgelopen zomer, heerst er in SEO-land de opvatting dat linkteksten met keywords niet meer werken en worden afgestraft.

De mythe ontkracht

Je kunt zelf eenvoudig de zoekresultaten op aantal keywords analyseren met behulp van een linkanalysetool (zoals Open Site Explorer of Majestic SEO). Dan zie je bijvoorbeeld de volgende grafieken terug:

Afbeelding 9: voorbeeld van websites die goed scoren waarvan belangrijke keywords in linkteksten voorkomen (november 2013)

Afbeelding 9: voorbeeld van websites die goed scoren waarvan belangrijke keywords in linkteksten voorkomen (november 2013)

Er zijn natuurlijk veel factoren die de ranking bepalen, dus het is absoluut te kort door de bocht om te concluderen dat dit door keywords in linkteksten komt. Maar het mag ook geen toeval genoemd worden dat de hoog scorende sites ook hoog scoren in aantallen links waarvan de anchor-tekst het belangrijkste keyword bevat.

8. Cloaking werkt niet meer

De definitie

Wanneer je een zoekmachine iets anders toont dan een bezoeker, dan heet dat “cloaking”. Dat is al jaren tegen de richtlijnen van Google en andere zoekmachines.

De mythe

Cloaking is een oude spamtechniek die al jaren wordt toegepast. Met de jaren is Google steeds beter geworden in het automatisch herkennen en eruit filteren van dit soort spamtechnieken. Er heerst dan ook de opvatting dat cloaking geen zin meer heeft en niet meer werkt. Google geeft zelf ook aan: “Cloaking is High Risk”.

De mythe ontkracht

Allereerst moet ik zeggen dat Google ook echt beter is geworden in het automatisch herkennen van cloaking. Maar ik zie nog steeds dat er af en toe cloaking tussen de zoekalgoritmes doorglipt.

Een voorbeeld uit begin 2013:

Afbeelding 10: voorbeeld van een website die er op het eerste gezicht normaal uitziet

Afbeelding 10: voorbeeld van een website die er op het eerste gezicht normaal uitziet

Maar als je verder kijkt, dan zag je dat er geoptimaliseerd tekst verborgen was:

Afbeelding 11: maar, wanneer je verder kijkt, is er SEO geoptimaliseerde tekst verborgen

Afbeelding 11: maar, wanneer je verder kijkt, is er SEO geoptimaliseerde tekst verborgen

Daarbij werd er nog een tweede truc gebruikt, waarbij een eerder gebruikt domein werd ingezet om deze site te boosten. En het (eerder gebruikte domein) scoorde binnen de korte keren hoog in Google.nl:

Afbeelding 12: voorbeeld van cloaking dat hoog scoorde in Google.nl

Afbeelding 12: voorbeeld van cloaking die hoog scoorde in Google.nl

Je moet weten dat dit er misschien 2 dagen zo heeft gestaan. Het werd namelijk snel opgemerkt, aangegeven bij Google en de site kreeg een penalty. De cloaking was dus kort effectief, maar het gaat mij erom dat dit soort dingen er anno 2013 nog steeds tussendoor glippen en zeker (nog) niet altijd automatisch herkend en verwijderd worden. Ook internationaal zijn daar recente voorbeelden van.

Op dit moment gebruikt de site uit bovenstaand voorbeeld overigens niet meer de cloaking-techniek.

9. Social media zijn noodzakelijk voor toppositie

De definitie

Social media zijn alle platformen waar mensen met elkaar communiceren, waarvan social networks een grote en belangrijke groep zijn.

De mythe

Op bijna elk blog dat over SEO schrijft, is wel terug te lezen dat social media belangrijk zijn en belangrijker worden voor je organische vindbaarheid. Ook diverse recente onderzoeken geven een correlatie aan tussen socialmediaplatformen en hoge rankings.

De mythe ontkracht

Allereerst kun je zelf eenvoudig naar diverse zoekresultaten kijken en analyseren of er veel socialmedia-activiteit is geweest voor de pagina’s die hoog scoren. Ook al analyseer je dan de correlatie (en niet causatie), dan kun je toch snel zien dat er veel pagina’s hoog scoren zonder actief te zijn op social media.

Kijk bijvoorbeeld eens naar dit voorbeeld:

Afbeelding 13: voorbeeld van pagina’s die hoog scoren zonder veel social media activiteit

Afbeelding 13: voorbeeld van pagina’s die hoog scoren zonder socialmedia-activiteit

Natuurlijk worden social media steeds belangrijker in de zoekalgoritmes. Maar absoluut gezien weegt het op dit moment lang niet zo sterk mee als vele andere factoren.

10. Infographics zijn waardeloos voor linkbuilding

De definitie

Infographics zijn visuele (re)presentaties van data. De laatste paar jaar is dit medium veel gebruikt met het doel er links mee te realiseren.

De mythe

In juli 2012 gaf Google aan dat links van infographics wellicht binnenkort niet meer mee zouden tellen voor je SEO-resultaten. In augustus van dit jaar sprak Google een advies uit om links van infographics nofollow te maken.

De mythe ontkracht

Ondanks dat er veel infographics van beroerde kwaliteit gemaakt worden, zijn er zeker voorbeelden te vinden van succesvolle infographics. Succesvol wil wat mij betreft primair zeggen dat de visualisatie functioneel is in het uitleggen van complexe of grote hoeveelheden informatie. Dat dit vervolgens links oplevert die je SEO helpen, moet wat mij betreft een bijeffect zijn.

Een mooi voorbeeld hiervan is de visualisatie van de schuld van de VS (en jawel, weer een link!). Kijk maar eens naar de cijfers:

Afbeelding 14: aantal links naar de infographic over de visualisatie van de schuld van de VS

Afbeelding 14: aantal links naar de infographic over de visualisatie van de schuld van de VS

Naast de zeer grote aantallen shares op social media levert dit ook een groot aantal links op.

11. ...Jouw SEO-mythe...

Dit is natuurlijk niet bedoeld als een complete lijst met mythes. Ik kan er zo nog een aantal uit m’n dagelijkse praktijk opnoemen, zoals dat Google AdWords invloed heeft op SEO, dat het linken naar andere sites slecht voor je SEO is, etc. etc.

Welke SEO mythes kom jij regelmatig tegen, waarvan je denkt dat ze in 2014 nog de ronde doen? Ik verzamel bovenstaande en andere mythes op een centrale plek (m.b.v. Google Moderator). Voeg hier jouw SEO-mythes toe of stem op andere mythes!


Geplaatst in

Delen

0
17


Er zijn 37 reacties op dit artikel

  • Eduard, bedankt voor dit stukje. Ik heb er van genoten, al denk ik dat je wel wat commenttaar zult krijgen van mensen die wat anders "geloven".
    Ga zo door!

    geplaatst op
  • Vooral de mythe over duplicate content hoor ik nog vaak en ik moet toegeven hier ook in geloofd te hebben ;).

    Waar ik mij echter helemaal over verbaasde, was een artikel in de Stentor een tijdje terug. In dit artikel werden 10 SEO-tips gegeven door één van de bekendste/grootste online marketing bureaus van Nederland. In één van de tips werd letterlijk geschreven dat duplicate content ervoor kan zorgen dat je website uit de index wordt verwijderd.

    Voor een vooraanstaand bureau best wel een blunder...

    geplaatst op
  • Beste Eduard, met veel interesse je blog gelezen. Als communicatiespecialist, blogger en tekstschrijver ben ik vooral heel geinteresseerd in de waarheden en onwaarheden rondom content en google. Ik hoor bijvoorbeeld heel wisselende verhalen over het belang van invoeren van metateksten. Ik volg altijd de adviezen van wordpress-specialisten (tijd investeren in een goede, kernachtige en oprolbare tekst is vele malen waardevoller dan tijd besteden aan invoeren van metateksten...?). Ben benieuwd naar jouw visie hierop. Hartelijke groet vanaf Texel (vanaf daar run ik mijn communicatiebureau...:- )

    geplaatst op
  • Om even op je derde punt terug te komen: Ik heb nogal wat exact match domeinnamen. De groep waarop kleine (<10 pagina's) sites op stonden zijn helemaal weggezakt. Domeinen met veel pagina's (vrijwel allemaal feed-based) zijn nauwelijks gedaald.

    Dat lijkt wel echt het criterium geweest te zijn. Op zich ook wel een valide benadering lijkt me.

    Verder goede lijst, alleen je puntje van dat een penalty altijd handmatig is ben ik het niet mee eens. Zitten -tig penalty factors in die algoritmes, denk aan het sanbox-effect.

    geplaatst op
  • @Femmy, metateksten zijn in zoverre belangrijk dat je er een call-to-action in kan verwerken wat kan leiden tot een betere CTR. Voor zo ver ik weet worden deze teksten niet meegenomen in het algoritme van Google, dus je gaat er niet beter of slechter door ranken. Maar een goede call-to-action lijkt mij van toegevoegde waarde.

    geplaatst op
  • @Ulco:
    Het effect van duplicate content valt wel mee "tenzij het spammy" is zeg Matt Cutts.

    http://searchengineland.com/googles-matt-cutts-duplicate-content-wont-hurt-you-unless-it-is-spammy-167459

    geplaatst op
  • Ik ben het inderdaad met Ulco eens, bij een bepaalde update kan je wegzakken en 'betrapt' worden op spammy activiteiten waardoor het lastiger wordt te scoren met een bepaalde site. Ervaring zegt dat een nieuwe site op dezelfde zoekwoorden met gelijkwaardige teksten en 'vernieuwde' tactiek stukken beter rankt dan een 'aangepaste' techniek (waarschijnlijk) door een penalty.

    geplaatst op
  • Beste Eduard,

    Interessant artikel! In je laatste stuk geef je aan dat een andere mythe volgens jou is dat Google AdWords invloed heeft op SEO. Kun je dit verder toelichten? Wij zien namelijk dat bij een aantal klanten de 'hits' via organische resultaten flink stijgen na het activeren van een AdWords campagne. Daarnaast lijkt het activeren van een AdWords campagne ook de (organische) posities in Google positief te beïnvloeden. Wat is jouw ervaring?

    geplaatst op
  • Hallo Eduard,

    wat een degelijk artikel! Ik kan me vinden in al jouw stellingen, behalve die van duplicate content.

    Ik heb een recent praktijkvoorbeeld waar een van mijn sites een algoritmische penalty kreeg voor low quality / duplicate content: http://www.seodvize.be/het-effect-van-een-low-quality-content-penalty-hoe-herstellen/

    Dit omdat ik op grote schaal content herpubliceerde van andere sites. Pas twee weken nadat ik alle duplicate content liet "noindexen", ging mijn site opnieuw stijgen binnen de zoekresultaten en kreeg ik de oorsponkelijke visibiliteit terug.

    Ik ben van mening dat kleine hoeveelheden duplicate content effectief geen probleem vormen, maar als dit op grote schaal gebeurt op je site dan leert de praktijkervaring me dat dit resulteert in een drop in rankings.

    geplaatst op
  • Nog een mythe: keyword density. Verbaast me nog steeds hoe vaak ik dat tegenkom.

    geplaatst op
  • Keyword density, inderdaad iets wat wij ook merken. Het is niet alleen minder belangrijk dan wordt gedacht, het is zelfs schadelijk voor je website. Want als je je tekst vol propt met keywords, haakt de lezer af. Dus zelfs al plaatst je Google je bovenaan: niemand blijft lang op je website. Daar hameren wij dan ook op, bijv. hier: http://schrf.be/19K6tFZ
    En o ja, Eduard: een héél interessante blog. Ik kijk uit naar de volgende.

    geplaatst op
  • Ik ben benieuwd wat jullie van de (SEO) stelling text to code ratio van minimaal 10% vinden. Deze pagina bevat trouwens een text to code ratio van 73,59%. Hoe belangrijk is het volgens jullie voor de ranking?

    geplaatst op
  • Dank Eric, voor je bondige reactie (en je blog).

    geplaatst op
  • @Rick
    Dankje, zal ik doen :)

    @Robert
    Het hangt af van de context en de vorm van duplicate content, maar de basis bij Google werkt altijd hetzelfde: Google bepaalt wat het origineel is en de kopieën worden uit de zoekresultaten verwijderd (al staan ze nog wel ergens in de index)

    @Femmy
    Meta keywords kun je volledig negeren.
    Zie ook dit artikel

    Meta description heeft alleen een indirect effect (op de CTR, zoals Eric al aangaf), maar zou ik zeker gebruiken

    @Peter
    Meer geld besteden aan AdWords betekent niet dat je beter gaat scoren. Deze 2 dingen staan volledig los van elkaar

    @Pieter-Jan
    Duplicate content levert nooit een penalty op, maar wordt er altijd algoritmisch uitgefilterd.

    @Barry
    Die hoor ik inderdaad ook nog (te) vaak!

    @Liesa
    Dankje!

    @Tijmen
    De vuistregel is: zo min mogelijk code.
    Maar een concreet percentage/ratio is onzin.

    geplaatst op
  • Fijn om te zien dat dit niet een zoveelste standaard SEO-lijst is met altijd dezelfde punten! Dit zijn (op eerste gezicht althans) daadwerkelijk zaken die getest en onderzocht zijn, en waar eenvoudige SEO blogs al snel over schrijven dat het absoluut uit den boze is deze stategieën nog te gebruiken.

    Bedankt voor de frisse blik.

    geplaatst op
  • Mooi stuk, Eduard!

    Maar Ramon en ik waren je wel voor als Mythbusters... ;)

    geplaatst op
  • Ik zou graag de titel gerectificeerd zien naar "Ontkracht: 10 SEO-mythes anno 2009"

    geplaatst op
  • Schitterend stuk Eduard!
    Ben hier en daar ook even wakker geschud.
    Heb je toevallig ook enig "opzienbarend" nnieuws over het linken van een 404 naar je homepage?

    geplaatst op
  • Goed verhaal, ik denk dat je daar de SEO-toekomst redelijk mee voorspelt.

    Logisch denkwerk kom je een heel eind mee. Google is ook maar een algoritme ;-)

    geplaatst op
  • Ik heb jammer genoeg mythe 5. Zomaar gezakt in de ranking. Iemand verdere uitleg over hoe het zomaar kan? Geen penalty o.i.d.

    geplaatst op
  • Interessant artikel. Zeker handig om dit eens duidelijk to the point op te schrijven. Vraagje over de indexatie via de toevoeging aan XML sitemaps.
    Zijn er voor deze pagina's geen extra meta gegevens meegegeven en is er geen tekst toegevoegd die de pagina's meer verschillend maakt?

    geplaatst op
  • Mijn favorite myth: Je hebt 4000 woorden tellende heminway-kwaliteit content nodig met legitieme academische referenties om uberhaupt te ranken in de SERPs.

    Natuurlijk zal ik nooit zeggen dat je geen goede content moet schrijven, maar sommige SEO blogs gaan echt te ver in kwaliteits richtlijnen.

    geplaatst op
  • Romano: ik denk dat je daar best een punt hebt. Voor onze SEO tool voor professionals moeten wij voor sommige factoren kunnen we kiezen om de bekende normen te gebruiken of om zelf een optimum te bepalen. Voor het aantal woorden gaan wij uit van vaak gestelde 400-600 woorden voor gemiddelde websites. Zelf kunnen we dit toetsen door correlaties te berekenen (doen we regelmatig). Ter illustratie hebben we een showcase gemaakt hiervoor en de database begint wordt nu gevuld (314 websites; elk 50 pagina’s geïndexeerd).

    Het is nog te weinig data*** om echte uitspraken te doen over de sterkte en richting van verbanden maar kunnen wel goede hints opleveren waar we het moeten zoeken. Als we bijv. kijken naar de correlatie tussen ‘aantal woorden’ en de invloed daarvan op het totaal aantal ‘social shares’, dan lijkt 400 tot 600 woorden geen wet van meden en perzen. De tussenstand: correlatie van 0.048 (N=314) op alle social shares*. Als we dan kijken naar Twitter count of Google+ versus aantal shares** dan is het beeld wisselend (matig positief/negatief) als alleen wordt gekeken naar pagina’s in de verschillende klassen voor sociale activiteit (hoog-laag).
    Kortom: als we vinden dat het aantal social reshares een indicatie is voor de populariteit van content, ongeacht welke SERP positie deze uiteindelijk behaald in Google, dan lijkt het aantal woorden wel van belang maar of dat er dan 400-600 moeten zijn no matter what? Wij hebben steeds meer aanwijzingen dat dit nader bekeken moet worden op juistheid.

    * https://www.rankwise.net/showcase/socialcorrelations?x=WordCount&y=socialtotaal&g=1
    ** https://www.rankwise.net/showcase/socialcorrelations?y=twittercount&x=WordCount&g=1

    ***De voorspellende waarde van factoren wordt steeds preciezer naarmate er meer websites bijkomen in de database. Bijvoorbeeld: voor een subset analyse als ‘aantal woorden’ versus ‘aantal social shares Google+’ moeten we zeker tussen de 1000-2000 websites in de database hebben. Voor een eerste indicatie voor de aanwezigheid van een oorzaak - gevolg verband tussen aantal woorden - social reshares is dit wel een indicatie dat er iets speelt maar niet dat meer beter is.

    Gr.Daniel Mulder
    http://www.rankwise.net/showcase

    geplaatst op
  • Hi Eduard,

    Goed stuk. Overigens is de pagerank wel geupdate, dit heb ik in ieder geval gemerkt bij mijn klanten. Dit gebeurde begin december.

    Rik

    geplaatst op
  • Interessant stuk. Zeker punten waar je rekening mee moet houden. Maar wij hebben hetzelfde als Rik gemerkt. De pagerank wordt naar ons weten wel geupdate.

    Marisse

    geplaatst op
  • Okay, duplicate content kan dus, maar de site die het origineel plaatste, scoort de eerste positie. Waste of time om het dus te gaan reposten.

    geplaatst op
  • @Ruud: die waste of time geldt toch alleen als dat reposten puur voor SEO-doeleinden is? Je kunt ook content reposten omdat het waardevol is voor je publiek. Niet geheel onbelangrijk, volgens mij.

    geplaatst op
  • Gevaarlijk verhaal omdat het veel halve waarheden bevat. Wat nu nog werkt of een beetje werkt kan over een paar maanden desastreuze gevolgen hebben. Het grote probleem van deze benadering, die veel SEO specialisten volgen, is dat het doel van SEO én de filosofie van Google totaal uit het oog wordt verloren.

    Het gaat er niet om de trucjes te vinden of om de grenzen van Google 's algoritme op te zoeken. Het gaat alleen maar over het bieden van de beste en meest relevante content voor mensen die daarnaar op zoek zijn. Google is voortdurend op zoek naar verbeteringen in het algoritme om dat te doen en alles wat daar niets mee te maken heeft te negeren.

    Cloaking is niet in het belang van de gebruiker en daarom moet je het niet toepassen. Hetzelfde geldt voor dubbele content. Verder is er natuurlijk het simpele principe dat Google de content wel moet kunnen indexeren.

    Volg je de filosofie van Google en richt je je op de gebruiker dan haal je hoge posities én zal je die houden, ook bij wijzigingen in het algoritme. Probeer je de trucjes te vinden die niet in het belang zijn van de gebruiker dan gaat het vroeg of laat fout.

    geplaatst op
  • Ik werk al jaren zonder tricks. Je weet gewoon dat ze vroeg of laat door een scan van google gevonden zullen worden en dan hebben de websites daar last van.
    Een goede heldere website met waardevolle contant gaat vanzelf scoren.

    geplaatst op
  • erg leuk artikel!

    Nu heb ik zelf nog een vraagje:) Is het betr om een blog(pagina) of een normale pagina te optimaliseren?

    vaak wordt er gezegd dat een blog pagina minder wordt gevonden?

    Is dat ook waar?

    geplaatst op
  • we zijn druk bezig met http://glamouryourhair.nl/ en het optimaliseren heirvan.

    Nu gaat dit best goed, mar twijfelen erg of een blog dus beter is dan een normale pagina:)

    iemand nog tips? we willen voornamelijk beter scoren met het zoekwoord hairextensions

    geplaatst op
  • Na het lezen van jouw mening en nog een aantal anderen rond "Duplicate content" begin ik daar eigenlijk sterk in te geloven. Er zijn namelijk veel nieuwssites die gewoon nieuws overnemen van andere, en daar wel goed mee scoren...

    geplaatst op
  • Ik heb een lokale nieuwssite. Het lokale nieuws wordt regelmatig aangeleverd in de vorm van persberichten die - meer of minder herschreven - dus op mijn én andere nieuwssites terecht komt. En vaak ook nog op de site van de organisatie die het bericht verstuurde.

    Is hier dan sprake van duplicate content? Of gaat het alleen om letterlijk dezelfde teksten?

    geplaatst op
  • Ik ben al een paar maanden bezig met de website: http://www.nan-wijn.nl met zoektermen "wijn bestellen" en "wijnen bestellen" en met de website http://www.flowertime.nl
    met het wil maar niet lukken. Ik blijf op pagina 4 en 5 hangen terwijl ik steeds zorg voor nieuwe content, veranderingen, ongeveer 10 linkjes via blogs naar de site toe, aangemeld bij startpagina sites etc.

    Ook in de google webmaster staan volgens mij weinig fouten.

    Zou jij misschien kunnen kijken of je mij kunt helpen?

    Hoor het graag en alvast enorm bedankt!
    gr Martijn

    geplaatst op
  • bedankt !

    geplaatst op
  • Ik ben al een tijdje bezig met mijn website http://www.bymonow.com. Deze site is "SEO proof" maar ik krijg vaak de feedback dat ik moeilijker vindbaar ben dan een speld in een hooiberg. Zelfs bij het zoeken op mijn naam, MONOW! Heeft iemand tips om te zorgen dat ik wel op mijn eigen naam gevonden word? Alvast bedank!

    geplaatst op
  • @Judith; op jullie site gaat op SEO gebied eigenlijk bijna alles fout helaas. Het begint al bij een .com domein. Die wordt door Google beschouwd als internationaal en dus wordt je in geen enkel land goed gevonden, tenzij je in de webmaster tools (search console) instelt voor welk land je site is bedoeld. In Nederland word je zeker niet gevonden omdat het ook nog in het Engels is geschreven. Hier vindt je belangrijke adviezen: https://www.interpedia.nl/seo/werking-onderdelen

    geplaatst op

Plaats zelf een reactie

Log in zodat je (in het vervolg) nóg sneller kunt reageren

Vul jouw naam in.
Vul jouw e-mailadres in. Vul een geldig e-mailadres in.
Vul jouw reactie in.

Herhaal de tekens die je ziet in de afbeelding hieronder


Let op: je reactie blijft voor altijd staan. We verwijderen deze dus later niet als je op zoek bent naar een nieuwe werkgever (of schoonmoeder). Reacties die beledigend zijn of zelfpromotioneel daarentegen, verwijderen we maar al te graag. Door te reageren ga je akkoord met onze voorwaarden.