YouTube gooit miljoenen websites op wit

26 oktober 2006, 13:18

YouTube gooit miljoenen websites op witTwee weken geleden discussiëerden we hier nog over de – in mijn ogen hoogstnoodzakelijke – decentralisatie van het internet. Oftewel: de overstap van ‘servers bij hostingpartijen, viewers bij de consument’ naar een internet waarin ieder aangesloten apparaat zowel server als viewer is.

YouTube gaf vanmorgen een mooi voorbeeld van wat er gebeurt als we gecentraliseerd blijven werken: miljoenen internetsites liepen vast of toonden grote lege vlakken, omdat YouTube uit de lucht was.

Carl Mangold
Video Advertising & Content Producer bij Carl Mangold

Carl Mangold produceert video advertising en -content voor online marketing, van concept tot en met oplevering. Én realiseert en optimaliseert het bereik ervan, op basis van in overleg gedefinieerde KPI's. “People around the world are now watching 1.000.000.000 hours of Youtube’s incredible content every single day!” (Cristos Goodrow, Youtube) “We move towards a world where video is at the heart of all our services” (Mark Zuckerberg, 27 juli 2016) “Video is where all of media is headed right now. There is no more valuable piece of property or entity then video in the world of media at all.” (Casey Neistat, 6 sept. 2016)

Categorie
Tags

9 Reacties

    Eijkb

    Leg dat maar eens uit aan de ISP’s. Zo lang je bv. nog 8Mbit down en 1Mbit up lijntjes hebt zal je dat nooit kunnen decentraliseren. Natuurlijk, met p2p netwerken kan je een deel opvangen en zulks soort hostingoplossingen bestaan er al maar dan nog….


    26 oktober 2006 om 16:45
    Jochem

    Alles p2p doen is natuurlijk een optie, maar garandeert daarmee meteen dat alles nog onbetrouwbaarder wordt. Misschien neemt de beschikbaarheid enorm toe, maar de snelheid en volledigheid van sites zal volgens mij verminderen.

    Een downtime die YouTube nu ervoer, had te maken met technische mankementen aan de site zelf. Niet zozeer onbeschikbare diensten (ik neem aan dat alles bij hen redundant is uitgevoerd) en zal dus ook ‘overgenomen’ worden door de p2p aanbieders.


    26 oktober 2006 om 18:24
    Sander

    Vergeet ook even het niet veiligheidsaspect van internet volledig p2p… Hoe controleer je dan of de verzonden informatie ook gelijk is aan degene die ontvangen is? Onderschepping van vertrouwelijke gegevens wordt dan wel heel makkelijk.


    26 oktober 2006 om 20:40
    mangold

    @Eijkb: De ISP’s knijpen op dit moment de upload-verbindingen inderdaad nog dicht, om je een reden te geven om vooral centraal te gaan hosten. Maar zodra de markt om net zo snel ‘uo’ als ‘down’ begint te vragen, zal dat rap verleden tijd zijn.

    @Jochem: Je baseert je aanname waarschijnlijk op je ervaringen met de huidige P2P muziek-netwerken, waarin je heel erg veel meer ‘lurkers’ dan ‘sharers’ hebt. Zodra informatie zich tamelijk evenredig over alle geïnteresseerde gebruikers verspreidt heb je daar geen last meer van, en wordt P2P juist vele malen sneller en betrouwbaarder dan gecentraliseerde informatievoorziening.

    @Sander: Hiervoor kun je het door mij voorgestelde ’tracks & traces’ systeem gebruiken. En vertrouwelijke gegevens worden vanzelfsprekend encrypted verstuurd.


    27 oktober 2006 om 02:41
    Jochem

    @Carl: Bij p2p is het nog altijd van belang dat de geboden informatie populair is, om enige snelheid te behalen. Immers heeft niet elke client het hele internet op z’n computer staan. Als ik dus een simpele persoonlijke pagina heb, die misschien 5 bezoekers in de week heeft van buitenaf, dan zal die site enorm traag laden. Alles moet immers komen van die paar bezoekers die die site in hun computer hebben staan (ik neem aan dat enkel na een bezoek aan informatie, deze in je computer komt).


    27 oktober 2006 om 03:29
    rxbbx

    Was te verwachten.. Ik gebruik slechts nog links naar youtube / google video in blogposts.


    27 oktober 2006 om 04:59
    Jochem

    @Carl: De vorm waarin de informatie binnenkomt maakt natuurlijk niets uit, ik websites omdat die bekend zijn (en het gaat om dergelijke informatie), als dat anders verspreid gaat worden maakt dat voor ‘het idee’ niets uit.

    Daarnaast maakt het aantal bezoekers vs. delers wel degelijk uit. Met de huidige upload snelheden, in ieder geval. 2 bezoekers die van 5 delers een bestand van enkele mb’s moet binnenhalen zijn langer bezig, als diezelfde 2 bezoekers die nu (met de huidige techniek) een bestandje van een fatsoenlijke site halen.

    Ook praat je over ‘minuten’, terwijl een groot deel van de informatie die ik op het internet binnen haal lang niet zo vaak geraadpleegd worden. Denk aan specifieke artikelen, specifieke zoekacties.

    Vooralsnog weet ik ook niet hoe ze technisch dit gaan verwezenlijken dus kan ik niet veel zeggen over snelheid en betrouwbaarheid (voor hetzelfde geld komt de informatie wel uit een ‘centrale’ plek (server), die tevens een checksum van de informatie heeft die automatisch wordt vergeleken met de checksum van de informatie die jij zojuist binnen hebt gehaald). Ik heb geen idee wat de ontwikkelen hier in zijn. Jij wel?


    27 oktober 2006 om 06:16

Marketingfacts. Elke dag vers. Mis niks!