Google straft zoekmachinespam verzekeraars

24 mei 2005, 04:25

Nadat eerder bureaus als Onetomarket en Gladior zijn bestraft voor het inzetten van zoekmachinespam, blijken nu ook de websites van FBTO en OHRA (beide klanten van Checkit) te zijn verbannen uit Google. Is zoekmachinemarketing na email-marketing het volgende slachtoffer van spam of weet de branche zich zelf op tijd te herstellen?

Tot vorig jaar werd er in de markt van search engine optimalisatie gewerkt met technieken die tegenwoordig niet meer (oogluikend) worden toegestaan. Technieken als (javascript)cloaking worden door zoekmachines beschouwd als spam en zodra men merkt dat websites deze technieken gebruiken, bestaat de kans dat ze een penalty krijgen. Dit betekent dat de betreffende websites voor bepaalde periode uit de zoekmachines verdwijnen.

Medio vorig jaar zijn hierover (ook in Nederland) duidelijke afspraken gemaakt door de betrokken partijen. En gelukkig zien we (ook bij de bovenstaande bureaus) een duidelijke verbetering optreden. In toenemende mate wordt organic search als techniek gebruikt om een goede positie in zoekmachines te krijgen. Organic search is een methodiek waarbij de website goed door-crawlebaar is (techniek), de juiste opbouw van content en terminologie heeft (content) en vanuit relevante kwalitatieve bronnen verwijzende links heeft (linkpopulariteit). De zoekmachine-optimalisatie vind dus plaats door de site zelf, geheel zichtbaar voor bezoekers, op een nette manier en volgens de regels van de zoekmachines.

Helaas blijken nog steeds websites gebruik te maken van spamtechnieken en zijn er bureaus die het migratieproces (van o.a. cloaking naar organic search) te laat zijn gestart. Paul Aelen (Checkit) hierover tegen Marketingfacts:

Helaas blijkt het doorvoeren van de aanpassingen bij onze klanten meer tijd te kosten dan was verwacht. Dat heeft erin geresulteerd dat we bij enkele van de meer dan 200 klanten door de tand des tijds zijn ingehaald en dat deze pagina’s voor enkele klanten uit de Google index zijn verwijderd. We betreuren dit incident en hechten er waarde aan nogmaals te benadrukken dat het hier over verouderde zoekmachine pagina’s gaat.

Verouderde pagina’s of niet, Checkit en de klanten van Checkit waar de verouderde pagina’s zijn geconstateerd, zijn nu terecht gestraft. Het migratieproces is te laat ingezet en daarvoor zullen ze (tijdelijk) op de blaren moeten zitten.

Zoals eerder aangegeven zijn de bureaus en de adverteerders er zich steeds meer van bewust dat het gebruik van spam de markt voor zoekmachinemarketing geen goed zal doen. Leidende SEO-bedrijven zijn op dit moment dan ook aan het kijken hoe ze het beste tot o.a. een code of conduct kunnen komen (via een SEMPO of andere belangengroep) om juist dit snel groeiende marktsegment van juiste werkwijze en voorlichting te kunnen bedienen.

Ben benieuwd of er nog meer ‘oude lijken’ uit de kast komen de komende tijd.

Marco Derksen
Partner bij Upstream

Oprichter/partner Upstream, Marketingfacts, Arnhem Direct, SportNext, TravelNext, RvT VPRO, Bestuur Luxor Live, social business, onderwijs, fotografie en vader!

Categorie
Tags

36 Reacties

    webwolff

    Mmm…tekenen dat de “branche” nog tamelijk jong is ?

    Wel eerlijk van Checkit dat ze dit zo opbiechten, te laat of niet te laat. Ze hadden nl. ook de kop in het zand kunnen steken. Of ontkennen.

    Ik heb net een traject achter de rug waarbij ik meerdere SEO/SEA-bedrijven gesproken heb voor een offertetraject. Er zijn maar weinigen die zich er op laten voorstaan geen “grijze” technieken te gebruiken.

    Degene die hierin wel duidelijk zijn, zijn gelukkig (meestal) de bekende ervaren partijen in de markt : Checkit, Traffic4u en Trafficbuilders.

    Maar dat het nu nog lastig kiezen is voor klanten en dat het grijze gebied al helemaal vaag is voor de meeste klanten : daar zit een duidelijke hobbel die weggewerkt moet worden, voor deze branche door iedereen voor vol wordt aangezien.

    En dat is jammer, want het potentieel is er duidelijk.


    24 mei 2005 om 05:36
    Erwin

    Het klopt inderdaad, veel van de SEO-bedrijven maken gebruik van cloaking. Bij sommige wat kleinere bedrijven ligt het er ook heel dik bovenop, met heel opzichtige dingen als veel keywords als verborgen tekst.

    Zelf ben ik sinds enige tijd ook bezig met zoekmachine optimalisatie en heb dit ook voor wat bedrijven gedaan. Zelf gebruik ik alleen de legale methodes. Ook dan kun je toch goede resultaten behalen, maar wel op een verantwoorde manier voor de langere termijn. Als je zorgt dat je goede content op je pagina hebt ben je al een heel eind op de goede weg.


    24 mei 2005 om 06:58
    Ruben Timmerman

    Ik vind dat er in dit artikel nogal wat vaag- en onjuistheden zitten.

    Hidden content is altijd al verboden, er is niets veranderd aan de regels, dus er zijn ook geen “verouderde” pagina’s.

    De manier waarop de “zoekmachine spam” hidden wordt gemaakt is vreemd genoeg meestal dmv frames; hidden content in <noframes>, al dan niet aangeroepen door javascript. Zo moeilijk is dat niet te verwijderen zou je denken.

    Dit heeft dus niets te maken met “verouderde pagina’s”, maar gewoon met illegale (grijs/ zwarte?) seo, waarbij de zoekmachine andere content ziet dan de bezoeker. Het is dus ook niet zo dat de gevestigde bureaus (zie post webwolff) daar duidelijk over zijn, want de technieken worden nog op veel sites gebruikt en pas nu er een penalty wordt uitgedeeld volgt uitleg/ schuldbekentenis.

    Er is ook geen sprake van “migratie” van cloaking of andere technieken naar organic search, deze illegale technieken zijn juist bedoeld voor het verbeteren van organic search resultaten en zijn bij mijn weten dus nooit legaal geweest. De “migratie” kan hooguiit gezien worden als last-minute paniek waarbij de afweging gemaakt moet worden tussen goeie SE results en dus veel bezoekers of risico lopen op een penalty. De vraag is echter of klanten als FBTO van dit risico op de hoogte waren.


    24 mei 2005 om 07:41
    SEM

    Kleine aanvulling op de post van Ruben nog.

    Ik ken bedrijven die cloaking toepassen, heb het om het maar zo te zeggen van binnen uit gezien. Mijn mening is ook dat het onzin is dat er “verouderde pagina’s” zijn.

    Een cloaking script is een extern script dat vaak met een of enkele regels code in de pagina wordt geplaatst. Door het checken op user agent en ip-adres wordt de zoekmachine gedetecteerd. De ‘gewone’ bezoekers krijgen de normale pagina te zien, de zoekmachine de geoptimaliseerde. Wanneer je dit script ertussen weghaalt zal de website gewoon moeten draaien. Als ze “door de tand des tijds” zijn ingehaald dan moet het haast wel zo zijn dat ze stil zijn blijven staan of zoiets, want die aanpassingen maken kosten bijna geen tijd. Naar mijn idee lariekoek dus.

    Bedrijven met cloaking die ervoor willen zorgen dat ze onopgemerkt blijven zorgen ervoor dat bezoekers het bijna niet kunnen detecteren. Dit doen ze door onder ander de cache uit te schakelen. Is er geen cache van een pagina in Google, dan is de kans aanwezig dat de site cloaking heeft. Zo zijn er nog wel een paar andere manieren om cloaking te detecteren via een omweg.


    24 mei 2005 om 08:07
    Sjors Pals

    Cloaking is ook niet verboden mits je het op een ethische manier doet, bijvoorbeeld door een spider een statische content te laten zien ipv een flash presentaite.


    24 mei 2005 om 09:11
    Tinus

    Checkit doet wel meer dingen die niet door de beugel kunnen. Op mijn weblog heb ik een stukje geschreven over Checkit en Orange. Wat mij betreft is Orange de volgende die een penalty krijgt.


    24 mei 2005 om 11:05
    Merijn

    Helaas blijkt het doorvoeren van de aanpassingen bij onze klanten meer tijd te kosten dan was verwacht. Dat heeft erin geresulteerd dat we bij enkele van de meer dan 200 klanten door de tand des tijds zijn ingehaald en dat deze pagina’s voor enkele klanten uit de Google index zijn verwijderd.

    Ik kan zo nog een 50-tal websites opnoemen die precies dezelfde techniek gebruiken. Zelfs de grotere providers, dure banken en goede doelen maken nog gebruik van hun verouderd systeem.

    Dat wordt dus overwerken voor Checkit….


    24 mei 2005 om 12:05
    Gerard

    Interplein gebruikt geen cloaking, gebruikt pure autogegenereerde rommel en gejatte teksten van anderen op hun 2400 domeinen. De domeinen staan op 20-40 verschillende namen geregistreerd maar bijna altijd met stershop ergens in de registratiegegevens. Ze financieren hun netwerk met adsense, en hebben ongeveer 10 verschillende adsense accounts daarvoor ook op verschillende namen. Als genoeg mensen gaan klagen en de gegevens verzamelen en aan google sturen zal het hopelijk zoden aan de dijk zetten want dit is inderdaad de meest vervelende spammer van Nederland


    24 mei 2005 om 16:51
    Vincent

    “In hoeverre zijn zoekmachines (en dit geval Google) zelf schuldig aan het gebruik van spamtechnieken door bureaus? “

    Hoe dan?

    Javascript kan zeker ook goed gebruikt worden. Bij Flash sites maken wij gebruik van de noscript tag om daar de content in weg te schrijven; lijkt mij legitiem, een bezoeker zonder flash/javascript ziet dezelfde content als een bezoeker met flash en javascript, maar de content is wat minder ‘opgefunkt’.

    Moet Google externe stylesheets in gaan lezen om te kijken of divs worden verborgen voor bezoekers? Ook dit kan weer legitiem gedaan worden; denk aan css dropdown menu’s etc.

    Het lijkt mij zeer moeilijk om een zoekmachine bot op dezelfde manier te laten kijken als een bezoeker.


    24 mei 2005 om 18:21
    Jeroen

    @Marco: Je hebt zelf natuurlijk het antwoord op je vraag al gegeven: iedereen zit elkaar na te roepen zonder dat ze de bron vermelden..


    25 mei 2005 om 07:06
    Ruben Timmerman

    > Sven:

    Inderdaad. Grappig is wel dat Jeroen het noframes gedeelte voor users ook leesbaar houdt. Het lijkt daardoor net alsof het oprecht bedoeld is 😉

    Ik heb echter nog nooit een reden gehoord waarom bezoekers met frames andere content zouden willen bekijken dan mensen die frames niet kunnen zien. De noframes content moet er dus inderdaad alleen voor SE’s zijn. In Jeroen’s geval: waarom wordt de bezoekers de mogelijkheid onthouden om door te hyperklikken naar marketing.com?

    De groep noframes-mensen lijkt mij trouwens al een paar jaar geleden uitgestorven, op misschien gehandicapten met speciale browsers na.

    Overigens is de definitie van cloaking nu wel erg uitgebreid geworden, ordinaire verborgen content d.m.v. framesets, javascript en css (en font color=white?! :D) valt er nu ook onder ..? Op zich voor het grote publiek misschien duidelijker, maar hierdoor wordt het zg. grijze gebied in onze branche wel enorm. Of was ik de enige die onder cloaking nog verstond het op ip of user agent selectief webpages serveren?


    25 mei 2005 om 07:40
    Jeroen

    Leuk dat jullie ook even in de framesets hebben gekeken 😉 Die links naar marketing sites heb ik er ergens in 2001 in geplaatst in de tijd dat veel zoekmachines niet door de framesets heen kwamen. Zie het dus als een soort van sitemap. De algemeen geldende opinie daarover is dat de zoekmachines hier eigenlijk geen of nauwelijks waarde meer aan hechten, dus voor optimalisatie (spam?) is het totaal niet meer zinvol. Het staat er nog, maar heeft geen toegevoegde waarde. Misschien dat ik het er voor de netheid wel een keertje verwijder, maar daar kan ik me niet echt druk over maken.

    Ik denk dat wanneer je over spam praat vooral moet afvragen in hoeverre dat het de resultaten van de zoekmachines vervuilt. Voor mij telt heel erg zwaar de formule welke technieken je gebruikt in combinatie met de mate van vervuiling. Vinden.nl gebruikte lichte technieken, maar vervuilde op grote schaal en werd daarom afgestraft.

    Daarnaast geldt ook dat er een verschuiving in de tijd zit in hoe mensen spam beoordelen. De verzekeraars gebruikten met javascript cloaking een techniek die 7 jaar geleden nog als zwaar werden gezien (al in 1997 de eerste penalties door ilse), toen met de komst van ip cloaking als een lichte spamtechniek (2000 tot medio 2004) en in het laatste jaar blijkbaar weer als een zware spamtechniek. Omdat ip cloaking door de vele penalties niet meer werkt en te risicovol is zijn veel partijen in het zwarte en grijze gebied overgestapt op javascript cloaking wat daardoor weer een plaag wordt. Dat is ook een probleem waar de bureaus mee zitten die liever niet in het zwarte gedeelte zitten en pogen “wit” te blijven.

    Het feit dat in dit geval het bureau geen penalty heeft gekregen is daarom ook opvallend te noemen. Het beleid van Google is de bureaus te straffen in plaats van de klanten. Dat is in dit geval juist omgekeerd gebeurd en voor mij betekent dit dat Google gewoon nog steeds vertrouwen heeft in de goede bedoelingen van het bureau. Daarom denk ik ook dat dit gewoon als een groeistuip moet worden gezien in een branche die zich alleen maar aan het professionaliseren is. Artikelen als deze dragen bij aan het bewustzijn van de grenzen en de noodzaak van het optimaliseren op een nette manier. We komen er zo vast wel…


    25 mei 2005 om 09:21
    wilph

    Toch wel een heel opvallend laatste punt van Jeroen. Misschien heeft er ook iets mee te maken dat Google NL Checkit heeft aangeduid als betrouwbaar bureau? Ze kunnen het natuurlijk niet maken om eerst een partij betrouwbaar te noemen en ze vervolgens een panalty te geven. Wat mij betreft niets ten nadele van Checkit, maar ik denk wel dat er consistent met penalty’s omgegaan moet worden.

    Overigens is het al meer dan een jaar geleden dat Traffic4u gewoon keihard tegen ons gezegd heeft “we stappen over op een andere techniek en stoppen met de oude”. De kosten daarvoor werden ook voor een deel op ons verhaalt. Dit geeft wel aan dat het goed mogelijk is om op tijd sites om te zetten.


    25 mei 2005 om 11:30
    traffic4u

    Ik betreur dit incident, temeer omdat de trend in de Nederlandse markt juist de andere kant op gaat. Mijn collega’s Remi en Haico hebben in New York verschillende sessies over spam bijgewoond en ook daar werken de meeste SEM bedrijven tegenwoordig volgens de regels die de zoekmachines opstellen.

    Ik ken Checkit als een betrouwbare partij/concullega. Ik ken ze dan ook vooral van projecten als Goudengids.nl. Dit is een project waar de heren in Nijmegen trots op mogen zijn, zowel op de gebruikte technieken als op de resultaten.

    Checkit wordt de laatste dagen afgeschilderd als een van de grootste spammers van Nederland. Hier ben ik het niet mee eens. Er zijn veel ergere gevallen van spam bekend. Ik heb er alle vertrouwen in dat Checkit en ook de hele markt van dit incident zal leren en heb er dan ook vertrouwen in dat de SEM markt hier op de lange termijn beter uit zal komen. In dit geval ben ik het ook met Jeroen van de Wiel eens: “Daarom denk ik ook dat dit gewoon als een groeistuip moet worden gezien in een branche die zich alleen maar aan het professionaliseren is. Artikelen als deze dragen bij aan het bewustzijn van de grenzen en de noodzaak van het optimaliseren op een nette manier. We komen er zo vast wel… “


    25 mei 2005 om 13:22
    SEO

    Wat een huichelaar is die Paul Aelen. Ik hoor hem nog zeggen op het laatste zoekmachine congres dat Checkit het volgens de richtlijnen doet… Ik vind dat deze partij uit het IAB gegooid dient te worden want hierover zijn afspraken gemaakt met de leden.

    Stefan


    25 mei 2005 om 14:07
    Van de flier

    Was er niet juist een boel ophef over de technieken die gebruikt waren bij de Gouden Gids in verband met de Spin Awards. Als ik goed geinformeerd ben was het juist Checkit die over de schreef ging met methoden, er is toen een heleboel correspodentie geweest tussen de jury enerzijds en Gouden Gids/Checkit anderzijds….


    25 mei 2005 om 18:03
    Van de flier

    @SEO Inderdaad no-mercy de IAB kan nu haar merk neerzetten of voor altijd verspelen….


    25 mei 2005 om 18:04
    Ger

    Oei, zit ik te surfen, kom ik opeens terecht bij de site startmachine, waarop een verzameling betaalde links van overture staan (overigens volstrekt onduidelijk dat het betaalde links zijn). Zie ik opeens een “vinden.nl” achtige structuur. Even zoeken: blijkt bloosem media erachter te zitten. Ook zo’n zoekmachine bureau…en natuurlijk “overture accredited”.

    Vraag aan de experts: klopt het dat overture websites aanmoedigd om concurrent Google vol te stoppen met spam om er zelf grof aan te verdienen? Je krijgt bijna het idee… Is toch geen toeval dat kelkoo, vinden, bloosem, etc. allemaal met overture samenwerken en dezelfde structuren hanteren?

    Die overture accreditation slaat in ieder geval nergens op. Die krijgt iedereen die geld aanbrengt aan overture. Wat een farce.


    25 mei 2005 om 21:13
    ZoekmachineMan

    @ Jeroen

    “Het beleid van Google is de bureaus te straffen in plaats van de klanten. “

    Tja, hier heeft Google natuurlijk een integriteitsprobleem: het straft dan immers de marktleider en verstoort daarmee de hechte en zeer winstgevende relatie met 1 van haar grootste klanten –> de klant van de klant aanpakken is dan de veiligere optie

    Het verbaast mij dat zo weinig bedrijven echt nadenken voor ze met de Checkits van deze wereld in zee gaan. Ten eerste vanwege de niet-bestaande danwel keihard aantoonbare toegevoegde waarde van dit soort bureaus. M.a.w. zorg voor een resultaatbeschrijving i.p.v. een opsomming van activiteiten.

    Ten tweede ontbreekt vaak een helder contract (vrijwaringsverklaring) vanuit de klantzijde waarin staat dat de methodes van de SEM aan o.a. de Google richtlijnen voldoen. Plus daaraan gekoppeld een duidelijke boete-clausule indien de klant door toedoen van de SEM op het strafbankje beland. Dat is een simpele methode om het kaf van het koren te scheiden.


    26 mei 2005 om 06:29
    M.Roelofs

    Ook maar een nutteloze bijdrage van mijn kant.. als ‘search engine marketing 2004 prijs winnaar’ ben je hiertoe wel verplicht 😉

    Tijdens de pitch voor speurders.nl in 2004 zijn er twee bureaus uitgenodigd: Traffic4U en Checkit. Dit omdat deze twee bureaus beiden in ieder geval een ‘bovengemiddelde’ moraal hebben. Ik zie dit ook voor checkit ongewijzigd.

    Het kan, zo weet ik uit eigen ervaring, in veel gevallen ook de klant zijn die vraagt om de grenzen op te zoeken. Ik kan mij dan ook voorstellen dat Checkit zo netjes is de schuld bij zichzelf te leggen, terwijl zij wordt gepushed voor resultaten.

    De meerwaarde van deze bureaus is zeker groot. In het geval van speurders.nl heeft traffic4U ons een aantal adviezen gegeven bij de start, en zorgt voor maandelijkse rapportage op het gebied van positities een veranderingen in algoritmen, nieuwe zoekmachines en hun methodieken. Werk wat je allicht zelf zou kunnen doen, als je het leuk vindt om continu zelf alle blogs en veranderingen over zoekmachines te volgen. Door dit bij een bureau neer te leggen deel je onderzoeks- en kennis kosten met andere klanten.

    dat was het weer voor vandaag.


    26 mei 2005 om 06:50
    Jeff

    Bureaus als Checkit en Traffic weten donders goed wat wel en niet mag. Dat zij vaak kiezen voor een quick en dirty methode om snel geld te verdienen is logisch… It’s all about the money. Om vervolgens flink jezelf ala GertJan Munnike van Traffic4U en je collega Paul Aelen van Checkit als leidend voorwerp te beschouwen is aandoenlijk… Het wordt tijd dat ze eens echt gaan werken voor hun geld!

    Jeff


    26 mei 2005 om 11:32
    ZoekmachineMan

    @ M.Roelofs

    Checkit laat zich pushen (“de grenzen op te zoeken”) volgens jou? Dat is hetzelfde als je bij de Aldi vraagt om de booschappen bij je thuis te laten bezorgen. In zo’n geval zegt zo’n Aldi-persoon waarschijnlijk ook “sorry, de klant is koning, maar niet ons” M.a.w: daar heeft u iemand anders voor nodig, of doe het lekker zelf!


    27 mei 2005 om 05:14
    Charles Verheije

    Cloaking behoort al lang niet tot een gewaardeerde techniek om je website vindbaarheid te verbeteren. Een beetje webmaster, internet-marketeer als een SEO bedrijf als Checkit hoort dat te weten. Aanpakken dus.

    vindbaarheid.info

    Charles Verheije


    7 juni 2005 om 07:25
    George Schröder

    Aanvullende reactie op het bericht posted van 16 mei ‘Van de Flier’ kunnen wij beamen dat Traffic4u ook bij ons, als klant, gebruik maakte van verboden technieken. Toen wij hierop het contract verbraken, kwam men op hoge poten en advocaat, met een vordering. Na twee briefjes van advocatenbureao Solv werd het opeens angstig stil. Nu komen wij met een vordering. Diegene die meer van deze zaak willen weten voorzie ik graag van info.


    13 augustus 2005 om 06:18
    George Schröder

    Internet cowboys. De onthutsende werkwijze van een searchengine bureau!

    Daar sta je dan als internet mediaburea. Van vele honderden bezoekers per dag ineens naar nul!

    Want we waren niet mee vindbaar op het internet.

    Ja, ons gebeurde dat in februari vorig jaar met het searchenigine buro OnetoMarket.

    Ze gebruikten een ‘verboden’ techniek waardoor er extra bezoekers op je site terechtkwamen.

    Wij wisten van niets!

    Paniek in de tent, want je reputatie staat op het spel.

    Na een zoektocht kom je dan terecht bij een van de beste van Nederland.

    Het bedrijf Traffic4u.

    De gehanteerde prijzen zijn astronomisch, maar de aanpak lijkt veelbelovend.

    Zij hebben directe contacten met alle belangrijke organisaties uit de branche.

    Er wordt gegarandeerd gewerkt met methoden die door zoekmachines zijn goedgekeurd.

    Vooruit dan maar, want de bezoekers bepalen het uiteindelijke succes van je onderneming.

    Na betaling van de opstartfee van 4500 euro per site komt men in beweging.

    Tenminste, daar hoop je dan op, want er wordt geen enkele garantie gegeven.

    De maandelijkse fee van 1000 euro per site is vast. Het gemiddelde uurloon is 125 euro!

    Een urenregistratie en overzicht waaraan je geld wordt uitgegeven, verschaffen ze niet.

    Tijd voor uitvoerig onderzoek.

    Dat onderzoek bestaat uit het herkennen van mogelijke relevante zoekwoorden in jou vakgebied.

    De methode is onthutsend simpel. Ca 800 woorden worden uitgezet in adwords van Google.

    Het clickgedrag van de bezoekers in de komende 10 dagen bepaald dan de relevantie.

    Dan worden dan extra pagina’s gemaakt, die makkelijk door de zoekmachines worden opgenomen.

    Tevens worden er sitemaps aangemaakt die relevantie per pagina moeten verhogen.

    Voor het krijgen van een hoge pagerank moet je zelf je websites zien te linken aan die van anderen

    Dan moet het gaan gebeuren…… Maar er gebeurt niets.

    Geen hogere posities in de zoekmachines, niet meer bezoekers, geen feed back.

    Traffic4u hult zich in overdonderende stilte. De meeste tips worden door ons geïnitieerd.

    De rekeningen zijn wèl op tijd gelukkig.

    Toch moeten ze het wel kunnen, die jongens van Traffic4u, want ze winnen een prijs.

    Hoe is dat dan mogelijk? Wel, eenvoudig, ze waren het enige buro met een case.

    Directeur GJ Munnike, goed voor een uurprijs van 250 euro per uur, snapt het zelf ook niet.

    De ondoorzichtigheid, het maar wat proberen, we worden er gek van.

    We voelen ons bedonderd en willen (een deel) van ons geld terug.

    Het antwoord? Oorverdovende silte alom.

    Het laatste woord is er nog niet over gesproken.

    We houden u op de hoogte.

    George Schröder


    13 augustus 2005 om 07:01
    Jeroen

    Duidelijk geval van miscommunicatie: T4U heeft Web-effects van te voren niet duidelijk weten te maken wat zij voor de 4.500 euro leveren. Web-effect is echter wel akkoord gegeaan met het voorstel van T4U. Web-effect had beter moeten weten. Zeker na het geval ‘OneToMarket’. Ga nu niet achteraf afgeven op hoge uurlonen etc. Daar heeft Web-effect ZELF voor getekend!!


    26 augustus 2005 om 12:41
    hamoedie

    @ GEORGE SCHRODER,

    Beste Schroder,

    Als het gaat om uw eigenwebsite, web-effect.nl, dan snap ik meteen waarom hij niet goed gevonden wordt…

    1. Pagina bestaat uit frames ( op zich niet zooo erg )

    2. Gehele site is uit flash opgebouwd.

    Als ze de site wilden optimaliseren hadden ze in ieder geval moeten voorstellen om de site te restylen in HTML of een andere taal dat wel door de zoekmachines kan worden gevonden.


    12 oktober 2005 om 09:45
    Hamoedie

    @Boogaart,

    Links zijn idd erg belangrijk.

    Content / inhoud moet je echter zeker niet onderschatten.

    Het hebben van unieke content is zeeeeeeeeer belangrijk.


    28 oktober 2005 om 08:24
    Seth

    Over onzichtbare content/ tekst gesproken: ik erger me al maanden dood aan http://www.wiitydirectory.com ( een rip-off van DMOZ ) die onder iedere pagina ( en dat zijn er ruim 300.000 ) onzichtbare tekst heeft in een zeer klein font. Spamreports ten spijt: al twee maanden een redelijk hoge alexarating met een “dekkingsgraad” van 40 op een miljoen.

    Google moet dus ondanks hun altijd geroemde algoritmen blijkbaar nog veel dingen handmatig nakijken anders waren deze jongens allang gebanned.


    25 oktober 2006 om 10:20
    fvan langeveld

    @ GEORGE SCHRODER

    ZEG SCHRODER JIJ DUIKT OOK OVERAL OP OP INTERNET. EN ALTIJD LOOP JE TE ZEIKEN OVER HOGE REKENINGEN EN WIL JE JE GELD TERUG. WAT MANKEER JIJ TOCH, ENG VENTJE. GROTE BEK EN ZAKELIJK PRESTEER GEEN KLOTEN. JE BENT GEWOON EEN IDIOTE IMBECIEL DIE ALLEEN MAAR IN HET VERLEDEN KAN KLOOIEN, KOMT NATUURLIJK DOOR JOUW GESCHIEDENIS-OPLEIDING. GA LEKKER VOOR DE KLAS STAAN EN DOEK DIE STUPIDE SITES VAN JE GEWOON OP. LIJKT HELEMAAL NERGENS NAAR. IS DE WERELD VAN HET INTERNET GELIJK VAN JE VERLOST. ALS DAT TOCH EENS ZOU KUNNEN…….


    2 januari 2012 om 19:49

Marketingfacts. Elke dag vers. Mis niks!