Gebruikt Google SPAM om goed te scoren?

Gebruikt Google SPAM om goed te scoren?
,

image Google is van oudsher fel tegen het gebruikt van cloaking om een site beter te laten scoren in de zoekresultaten. Maar wat ontdekte Threadwatch member Adam_C: “Google pulling dirty SEO tactics on it’s own pages and thus going against it’s own guidelines in an effort to rank highly within it’s own results.”

De meest eenvoudige uitleg van cloaking is dat je een andere pagina aan de spiders van zoekmachines laat zien dan aan “normale” internet gebruikers.

En dat is nu precies wat er aan de hand is bij verschillende pagina’s van Google volgens Threadwatch. Op het moment dat je als “normale” bezoeker de volgende Adword pagina bezoekt, dan krijg je een andere titel te zien dan de spider van Google te zien krijgt. Zie de Google cache van deze pagina, waar er toch opvallend veel keywords in de titel staan:

traffic estimator, traffic estimates, traffic tool, estimate traffic Google AdWords Support: Why do traffic estimates for my Ad Group differ from those given by the standalone tool

Het blijkt dat als je de url bezoekt met als Useragent “Googlebot” (de useragent die de spiders van Google gebruiken), je bovenstaande titel te zien krijgt. De normale bezoeker krijgt de volgende title te zien:

Google AdWords Support: Why do traffic estimates for my Ad Group differ from those given by the standalone tool?

Oeps…

Overigens hoorde ik van mijn collega Remi van Beekum dat er tijdens de SES in NY veelvuldig over cloaking is gesproken en dat de zoekmachines zelf aangaven dat in sommige uitzonderlijke gevallen cloaking wel is toestaan.

Via: Threadwatch


Geplaatst in

Delen

0
0


Er zijn 5 reacties op dit artikel

  • Begrijp het verhaal nog niet helemaal (blijft lastig met die technische jongens ;-) maar gebruikt Google nu zelf spamtechnieken om haar eigen pagina's hoog in haar eigen zoekmachines te krijgen?

    Weird, daar zouden ze toch eenvoudig iets anders voor kunnen bedenken. Hierbij een gratis voorstel van een non-technie: if ($url = "google") then (pr=pr+10).

    geplaatst op
  • Ik vraag me ook eigenlijk af wat het nut is van valspelen in je eigen spelletje?

    geplaatst op
  • Cloaking kwam bij de Seacrh Engine Strategies NY ter sprake bij o.a. ‘What is Spam?’ en de sessie ‘Redirects & Rewriting’.

    De strekking van de sessie ‘What is spam’ is dat _een techniek_ als zodanig nooit als spam kan worden aangeduid. Sommige technieken kunnen wel toegepast worden als spam. Een voorbeeld hiervan is JavaScript. Er zijn talloze legitieme redenen om JavaScript te gebruiken, maar omdat de zoekmachines geen JavaScript lezen kun je er ook eenvoudig mee spammen. Dit zien we dan ook in Nederland de laatste tijd veel gebeuren.

    Cloaking (het serveren van andere content op basis van useragent of IP) wordt vaak als spam toegepast. Om die reden heeft het een slechte naam en staat het in de guidelines van veel zoekmachines als ‘verboden’ techniek. Voorbeelden van legitieme cloaking:

    _Een online shop voor medicijnen._
    Het kan zijn dat bepaalde medicijnen in een bepaald land wel zijn toegestaan en in een ander land niet. Je zou het betreffende medicijn kunnen cloaken in het betreffende land, of je kune voor mensen uit dit land een disclaimer kunnen toevoegen.

    _Sessie id’s_
    Een site die gebruik maakt van een sessie id die doormiddel van de URL wordt doorgegeven, dan is deze site waarschijnlijk niet indexeerbaar voor zoekmachines. Ook hier is het legitiem om de sessie id van de links ‘af te cloaken’.

    Zowel Tim Mayer als John Riccardo van Yahoo! gaven aan dat cloaking om zulke redenen best legitiem is. Matt Cutts van Google hield zich diplomatiek stil. (en dat zegt genoeg…)

    geplaatst op
  • Dit is een eindeloze discussie (maar daarom niet minder interessant), die ik in 1998 ook al eens voerde met Ilse medewerkers. Ik werd er constant uit de resultaten geknikkerd met, toen nog, doorway pages; de minder geavanceerde variant van cloaking. Mijn stelling was dat het legitiem is als je gebruik maakt van synoniemen van bepaalde termen die in de teksten van die pagina's voor komen. Je wilt niet elke keer een andere spellingswijze voor hetzelfde 'ding', in mijn geval een website, web site, site, homepage, internet pagina. Dit met het idee dat als iemand zoekt op 'website design', hij eigenlijk ook de resultaten van het zoeken op 'site ontwerp' wil zien. Als je bijvoorbeeld een Cd-winkel hebt en je verkoopt Cd’s van "The Doors" en je gebruikt dat voor je homepage (gecloakt) en ik ben op zoek naar informatie over "The Doors" en zoek daarop, maar kom alleen maar bij homepages van Cd-shops uit, ben ik niet geholpen. Altijd wel uit gekomen met hen, maar de discussie blijft al die jaren gewoon doorgaan, want waar ligt de grens en hoe bepaal je die?

    Iets anders dat me frustreert door spamming van de resultaten zijn affiliates. De groei van affiliate programma's maakt dat je bepaalde zaken niet meer kan vinden. Zo ben ik afgelopen weekend op zoek geweest naar een hotel in Nice (op naam). Dat is bijna niet meer mogelijk. Iedereen verkoopt kamers via Bookings of andere sites als affiliate en spammen alle zoekmachines met de namen van de hotels. Hierdoor verdwijnen de sites van de hotels zelf erg ver achterin de resultaten. Erg vervelend.

    geplaatst op
  • From Webmasterworld: GoogleGuy says

    Hey everyone, I'm sorry that it took me a while to post about this. I wanted to make sure I completely understood what was going on first.

    Those pages were primarily intended for the Google Search Appliances that do site search on individual help center pages. For example, http://adwords.google.com/support has a search box, and that search is powered by a Google Search Appliance. In order to help the Google Search Appliance find answers to questions, the user support system checked for the user agent of "Googlebot" (the Google Search Appliance uses "Googlebot" as a user agent), and if it found it, it added additional information from the user support database into the title.

    The issue is that in addition to being accessed via the internal site-search at each help center, these pages can be accessed by static links via the web. When the web-crawl Googlebot visits, the user support system thinks that it's the Google Search Appliance (the code only checks for "Googlebot" and adds these additional keywords.

    That's the background, so let me talk about what we're doing. To be consistent with our guidelines, we're removing these pages from our index. I think the pages are already gone from most of our data centers--a search like [site:google.com/support] didn't return any of these pages when I checked. Once the pages are fully changed, people will have to follow the same procedure that anyone else would (email webmaster at google.com with the subject "Reinclusion request" to explain the situation).

    geplaatst op

Plaats zelf een reactie

Log in zodat je (in het vervolg) nóg sneller kunt reageren

Vul jouw naam in.
Vul jouw e-mailadres in. Vul een geldig e-mailadres in.
Vul jouw reactie in.

Herhaal de tekens die je ziet in de afbeelding hieronder


Let op: je reactie blijft voor altijd staan. We verwijderen deze dus later niet als je op zoek bent naar een nieuwe werkgever (of schoonmoeder). Reacties die beledigend zijn of zelfpromotioneel daarentegen, verwijderen we maar al te graag. Door te reageren ga je akkoord met onze voorwaarden.