Gebruikt Google SPAM om goed te scoren?

8 maart 2005, 07:02

image Google is van oudsher fel tegen het gebruikt van cloaking om een site beter te laten scoren in de zoekresultaten. Maar wat ontdekte Threadwatch member Adam_C: “Google pulling dirty SEO tactics on it’s own pages and thus going against it’s own guidelines in an effort to rank highly within it’s own results.”

De meest eenvoudige uitleg van cloaking is dat je een andere pagina aan de spiders van zoekmachines laat zien dan aan “normale” internet gebruikers.

En dat is nu precies wat er aan de hand is bij verschillende pagina’s van Google volgens Threadwatch. Op het moment dat je als “normale” bezoeker de volgende Adword pagina bezoekt, dan krijg je een andere titel te zien dan de spider van Google te zien krijgt. Zie de Google cache van deze pagina, waar er toch opvallend veel keywords in de titel staan:

traffic estimator, traffic estimates, traffic tool, estimate traffic Google AdWords Support: Why do traffic estimates for my Ad Group differ from those given by the standalone tool

Het blijkt dat als je de url bezoekt met als Useragent “Googlebot” (de useragent die de spiders van Google gebruiken), je bovenstaande titel te zien krijgt. De normale bezoeker krijgt de volgende title te zien:

Google AdWords Support: Why do traffic estimates for my Ad Group differ from those given by the standalone tool?

Oeps…

Overigens hoorde ik van mijn collega Remi van Beekum dat er tijdens de SES in NY veelvuldig over cloaking is gesproken en dat de zoekmachines zelf aangaven dat in sommige uitzonderlijke gevallen cloaking wel is toestaan.

Via: Threadwatch

Oprichter en directeur van zoekmachine marketing bureau Traffic4u. Spreker op verschillende nationale en internationale congressen. Betrokken als partner bij 212 Amsterdam.

Categorie
Tags

4 Reacties

    media

    Begrijp het verhaal nog niet helemaal (blijft lastig met die technische jongens 😉 maar gebruikt Google nu zelf spamtechnieken om haar eigen pagina’s hoog in haar eigen zoekmachines te krijgen?

    Weird, daar zouden ze toch eenvoudig iets anders voor kunnen bedenken. Hierbij een gratis voorstel van een non-technie: if ($url = “google”) then (pr=pr+10).


    8 maart 2005 om 07:15
    Blue__

    Ik vraag me ook eigenlijk af wat het nut is van valspelen in je eigen spelletje?


    8 maart 2005 om 07:23
    Remi van Beekum

    Cloaking kwam bij de Seacrh Engine Strategies NY ter sprake bij o.a. ‘What is Spam?’ en de sessie ‘Redirects & Rewriting’.

    De strekking van de sessie ‘What is spam’ is dat _een techniek_ als zodanig nooit als spam kan worden aangeduid. Sommige technieken kunnen wel toegepast worden als spam. Een voorbeeld hiervan is JavaScript. Er zijn talloze legitieme redenen om JavaScript te gebruiken, maar omdat de zoekmachines geen JavaScript lezen kun je er ook eenvoudig mee spammen. Dit zien we dan ook in Nederland de laatste tijd veel gebeuren.

    Cloaking (het serveren van andere content op basis van useragent of IP) wordt vaak als spam toegepast. Om die reden heeft het een slechte naam en staat het in de guidelines van veel zoekmachines als ‘verboden’ techniek. Voorbeelden van legitieme cloaking:

    _Een online shop voor medicijnen._

    Het kan zijn dat bepaalde medicijnen in een bepaald land wel zijn toegestaan en in een ander land niet. Je zou het betreffende medicijn kunnen cloaken in het betreffende land, of je kune voor mensen uit dit land een disclaimer kunnen toevoegen.

    _Sessie id’s_

    Een site die gebruik maakt van een sessie id die doormiddel van de URL wordt doorgegeven, dan is deze site waarschijnlijk niet indexeerbaar voor zoekmachines. Ook hier is het legitiem om de sessie id van de links ‘af te cloaken’.

    Zowel Tim Mayer als John Riccardo van Yahoo! gaven aan dat cloaking om zulke redenen best legitiem is. Matt Cutts van Google hield zich diplomatiek stil. (en dat zegt genoeg…)


    8 maart 2005 om 07:33
    schief

    Dit is een eindeloze discussie (maar daarom niet minder interessant), die ik in 1998 ook al eens voerde met Ilse medewerkers. Ik werd er constant uit de resultaten geknikkerd met, toen nog, doorway pages; de minder geavanceerde variant van cloaking. Mijn stelling was dat het legitiem is als je gebruik maakt van synoniemen van bepaalde termen die in de teksten van die pagina’s voor komen. Je wilt niet elke keer een andere spellingswijze voor hetzelfde ‘ding’, in mijn geval een website, web site, site, homepage, internet pagina. Dit met het idee dat als iemand zoekt op ‘website design’, hij eigenlijk ook de resultaten van het zoeken op ‘site ontwerp’ wil zien. Als je bijvoorbeeld een Cd-winkel hebt en je verkoopt Cd’s van “The Doors” en je gebruikt dat voor je homepage (gecloakt) en ik ben op zoek naar informatie over “The Doors” en zoek daarop, maar kom alleen maar bij homepages van Cd-shops uit, ben ik niet geholpen. Altijd wel uit gekomen met hen, maar de discussie blijft al die jaren gewoon doorgaan, want waar ligt de grens en hoe bepaal je die?

    Iets anders dat me frustreert door spamming van de resultaten zijn affiliates. De groei van affiliate programma’s maakt dat je bepaalde zaken niet meer kan vinden. Zo ben ik afgelopen weekend op zoek geweest naar een hotel in Nice (op naam). Dat is bijna niet meer mogelijk. Iedereen verkoopt kamers via Bookings of andere sites als affiliate en spammen alle zoekmachines met de namen van de hotels. Hierdoor verdwijnen de sites van de hotels zelf erg ver achterin de resultaten. Erg vervelend.


    8 maart 2005 om 10:39

Marketingfacts. Elke dag vers. Mis niks!