7 Organic Search technieken die 2008 niet haalden

3 januari 2008, 09:48

7 Organic Search techniekenDe zoekmachines ontwikkelen zich in razend tempo. Hierdoor veranderen ook de technieken die gebruikt worden om goede posities te behalen in deze zoekmachines. Technieken die lange tijd een succes waren werken ineens niet meer en andere technieken worden daarmee belangrijker. Brett Borders geeft een mooi overzicht van 7 technieken die 2008 niet haalden. Hier de vrije vertaling:

1. Wederzijdse links (Reciprocal links)

Vanaf mei 2007 kregen sommige sites te maken met -30 penalties. Deze penalties bleken vaak op te treden bij sites die grootschalig links uitwisselden met andere sites. Google zal proberen wederzijdse links te detecteren en waar mogelijk niet mee te tellen of zelfs te bestraffen.

2. De toegevoegde zoekresultaten. (supplemental index)

Herinner je je de groene tekst ‘toegevoegd zoekresultaat’ bij een zoekresultaat in Google? Of de melding onderaan de resultaten dat een deel van de minder relevante resultaten weggelaten is? Beide hebben te maken met de supplemental index van Google, een tweede index naast de normale index. Was een pagina niet in de gewone, maar wel in de supplemental index te vinden, dan wist je dat je die pagina wat extra aandacht moest geven. Inmiddels is deze supplemental index geïntegreerd in de hoofdindex.

3. Directory links

Het aankopen van links in directories was jarenlang een manier om je website beter te laten scoren. Google devalueerde de PageRank van honderden directories van lage kwaliteit waardoor het aankopen van links in directories steeds minder goed werkt. Uiteraard zijn er uitzonderingen, sommige directories hebben namelijk wel echte kwaliteit.

4. Handelaren in links (link brokers)

Google verklaarde ook de oorlog aan het aankopen van links via link brokers. Koop je links aan zonder nofollow te gebruiken en kan Google dit detecteren, dan heb je een redelijke kans op een devaluatie van je PageRank. Wil je toch linkjes aankopen (bijvoorbeeld omdat de site waar je dit wilt doen gewoon goed bij je doelgroep past) doe dit dan zorgvuldig en selecteer alleen kwalitatief goede websites.

5. Gesponsorde weblog posts

Ook pay-per-post bloggers waren de pineut. Bloggers die zich lieten betalen om te schrijven over producten o.i.d. eindigden in sommige gevallen zonder PageRank. (een Nederlands initiatief op dit vlak is Blog.mij)

6. Meerdere topposities door gebruik van subdomeinen

In het verleden was het mogelijk om meer dan twee keer in de top 10 te staan door gebruik te maken van subdomeinen. (bijvoorbeeld handig bij Search Engine Reputation Management) In sommige gevallen kan dit nog steeds, maar over het algemeen zal Google nog maximaal 2 resultaten van 1 domein in de top 10 laten zien.

7. 10 blauwe links

De tijd waarin een SERP 10 resultaten bevat is voorbij. Sinds de komst van Universal Search zie je steeds vaker resultaten uit de verschillende verticale zoekmachines als bijvoorbeeld video, nieuws, images, blogs en maps tussen de resultaten verschijnen. Hierdoor blijven er minder posities over om te verdelen en wordt het dus lastiger om met ‘gewone’ content een toppositie te krijgen.

Het wordt daarmee steeds interessanter om multimedia content zoals video te ontsluiten in de zoekmachines. Gek genoeg is dat vaak helemaal niet zo moeilijk om goed vindbaar te zijn in verticale zoekmachines, aangezien de concurrentie hier nog niet zo heftig is.

Lees het originele artikel 7 SEO Techniques That Google Smashed in 2007 van Brett Borders

Wie heeft er nog aanvullingen op deze lijst?

Marketeer voor betekenisvolle bedrijven.

Categorie
Tags

13 Reacties

    Lex van Buuren

    Wat is er mis mee om mensen waarmee je samenwerkt of goed contact hebt een wederzijdse link te gunnen?

    Ik heb de laatste 10 jaar zeker 300 links gemaakt op mijn website en wordt zelf door zo’n 1.700 websites wereldwijd gelinkt.

    De ontwikkelingen in de webwereld zetten mij wel erg vaak op het verkeerde been; ik wil als ondernemer en als mens wel graag een basis hebben van dingen die ‘zeker’ zijn.

    Eén van die dingen is (was?), dat als ik veel gelinkt word, ik goede rankings krijg.

    Moet ik nu ophouden met een beleid van links uitwisselen met mensen waarmee ik contact heb?


    3 januari 2008 om 10:35
    André Scholten

    @Lex: een wederzijdse link is voor Google een sterk signaal dat het niet een natuurlijk geplaatste link is. Want welke sites linken er nou toevallig op hetzelfde moment naar elkaar toe? Om die reden heeft Google wederzijdse links minder zwaar gemaakt. Google ziet graag alleen spontaan geplaatste links om relevantie redenen en niet om vriendjes/geld/whatever redenen.

    Het is dus niet zo dat ze waardeloos zijn geworden, maar ze tellen wel een stuk minder mee. En terecht in mijn ogen, het aantal vrienden zou niet je ranking moeten bepalen.


    3 januari 2008 om 10:43
    nikao

    @Lex het werkt nog steeds wel positief (mits je het ‘natuurlijk’ en binnen de perken houdt) alleen minder dan vroeger.

    Als je overigens een basis wilt hebben van dingen die ‘zeker’ zijn, dan zit je in de webwereld toch verkeerd denk ik 😉


    3 januari 2008 om 11:07
    Lex van Buuren

    Bedankt Christian en André voor jullie mening.

    Lex


    3 januari 2008 om 11:21
    Ramon Eijkemans

    de beste manier om te liegen is door zo dicht mogelijk bij de waarheid te zitten. Je kunt je afvragen of iets wat heel erg natuurlijk ‘lijkt’ in feite niet gewoon natuurlijk IS.

    Zolang marketeers zichzelf met die gedachte voor de gek houden, vindt google het prima denk ik. Stiekem worden we zo allemaal gedwongen om gewoon goede sites te bouwen ipv allerlei technische trucjes icm bakken met geld uit te halen/geven. Wordt het web alleen maar beter van.

    Maar toch, ondanks deze mooie verhalen, is het de praktijk telkens weer dat het web een zootje is en dat er ontzettend veel gespamd en gecloakt wordt


    3 januari 2008 om 13:26
    Ronald van den Hoff

    kan iemand mij antwoord geven of de volgende vraag:

    als je vanuit 1 bron (blog cms ) naar diverse blogs dezelfde berichten publiceert reageert Google daar wel of niet op?


    3 januari 2008 om 19:21
    eduardblacquiere

    @Ronald

    In jouw situatie is dezelfde inhoud op meerdere URL’s te vinden, wat meestal de naam duplicate content krijgt. Google zal proberen de originele versie te vinden en in de zoekresultaten te houden en de rest er waarschijnlijk uit filteren.


    4 januari 2008 om 05:46
    Ronald van den Hoff

    @Eduard: tks!


    4 januari 2008 om 06:27
    Erik Dijkstra

    @Eduard , Ronald

    Eduard, ben je daar zeker van? Is het niet zo dat Google dit verschil niet ziet doordat een andere opmaak van de tekst gehanteerd wordt en het dus toch een compleet andere pagina is? Weet je zeker dat dit ook als duplicate content aangemerkt kan worden? Twee dezelfde pagina’s binnen hetzelfde CMS met dezelfde opmaak is voor mij inderdaad wel duidelijk kansloos.. maar als er een andere opmaak aanwezig is, is het dan ook te onderscheiden door Google?


    4 januari 2008 om 11:07
    André Scholten

    @Erik: wat bedoel je precies met een andere opmaak? Google ziet natuurlijk geen layout maar alleen maar de HTML structuur. En uit de HTML structuur kan hij de stukken content halen. Wanneer die delen te veel lijken op delen van andere pagina’s is er sprake van duplicate content.


    4 januari 2008 om 11:11
    eduardblacquiere

    @Erik

    André geeft terecht aan dat opmaak/layout van de tekst de inhoud onveranderd laat, met name voor zoekmachines die alleen naar de HTML structuur kijken.

    In het voorbeeld van Ronald is er sprake van duplicate content. Maar je kunt bijvoorbeeld dezelfde inhoud via RSS/XML verspreiden over meerdere pagina’s en er vervolgens per pagina unieke content omheen maken. Zo kun je de kans op detectie door de duplicate content filters aanzienlijk verkleinen.


    4 januari 2008 om 11:31
    Erik Dijkstra

    @ André / Eduard

    Dat is precies wat ik bedoel. Is er echt bewijs dat Google ook specifiek de stukken content herkent en dan de eerste pagina behoud en de overige pagina’s eruit filterd? Ik ken de webmasters richtlijnen, dus ik snap ook dat ze dat in theorie zouden doen.. maar gebeurd het ook echt?

    We kennen allemaal nog wel de keyword gestuffede pagina’s (bv door kleur) waar google op zou filteren, maar die er toch doorheen komen neem ik aan….


    4 januari 2008 om 16:09
    eduardblacquiere

    @Erik

    Ik kan zo snel geen voorbeeld noemen, maar ik heb vaak genoeg gezien dat duplicate content uit de zoekresultaten wordt gefilterd. Dus ja, het gebeurt ook echt. Aan de andere kant heb ik ook gezien dat Google soms moeite heeft met het uitfilteren van duplicate content, maar dat komt minder vaak voor.


    4 januari 2008 om 17:29

Marketingfacts. Elke dag vers. Mis niks!