YouTube gooit miljoenen websites op wit

YouTube gooit miljoenen websites op wit
, Carl Mangold

YouTube gooit miljoenen websites op witTwee weken geleden discussiëerden we hier nog over de - in mijn ogen hoogstnoodzakelijke - decentralisatie van het internet. Oftewel: de overstap van ‘servers bij hostingpartijen, viewers bij de consument’ naar een internet waarin ieder aangesloten apparaat zowel server als viewer is.

YouTube gaf vanmorgen een mooi voorbeeld van wat er gebeurt als we gecentraliseerd blijven werken: miljoenen internetsites liepen vast of toonden grote lege vlakken, omdat YouTube uit de lucht was.


Geplaatst in

Delen



Er zijn 9 reacties op dit artikel

  • Leg dat maar eens uit aan de ISP's. Zo lang je bv. nog 8Mbit down en 1Mbit up lijntjes hebt zal je dat nooit kunnen decentraliseren. Natuurlijk, met p2p netwerken kan je een deel opvangen en zulks soort hostingoplossingen bestaan er al maar dan nog....

    geplaatst op
  • Alles p2p doen is natuurlijk een optie, maar garandeert daarmee meteen dat alles nog onbetrouwbaarder wordt. Misschien neemt de beschikbaarheid enorm toe, maar de snelheid en volledigheid van sites zal volgens mij verminderen.

    Een downtime die YouTube nu ervoer, had te maken met technische mankementen aan de site zelf. Niet zozeer onbeschikbare diensten (ik neem aan dat alles bij hen redundant is uitgevoerd) en zal dus ook 'overgenomen' worden door de p2p aanbieders.

    geplaatst op
  • Vergeet ook even het niet veiligheidsaspect van internet volledig p2p... Hoe controleer je dan of de verzonden informatie ook gelijk is aan degene die ontvangen is? Onderschepping van vertrouwelijke gegevens wordt dan wel heel makkelijk.

    geplaatst op
  • @Eijkb: De ISP's knijpen op dit moment de upload-verbindingen inderdaad nog dicht, om je een reden te geven om vooral centraal te gaan hosten. Maar zodra de markt om net zo snel 'uo' als 'down' begint te vragen, zal dat rap verleden tijd zijn.

    @Jochem: Je baseert je aanname waarschijnlijk op je ervaringen met de huidige P2P muziek-netwerken, waarin je heel erg veel meer 'lurkers' dan 'sharers' hebt. Zodra informatie zich tamelijk evenredig over alle geïnteresseerde gebruikers verspreidt heb je daar geen last meer van, en wordt P2P juist vele malen sneller en betrouwbaarder dan gecentraliseerde informatievoorziening.

    @Sander: Hiervoor kun je het door mij voorgestelde 'tracks & traces' systeem gebruiken. En vertrouwelijke gegevens worden vanzelfsprekend encrypted verstuurd.

    geplaatst op
  • @Carl: Bij p2p is het nog altijd van belang dat de geboden informatie populair is, om enige snelheid te behalen. Immers heeft niet elke client het hele internet op z'n computer staan. Als ik dus een simpele persoonlijke pagina heb, die misschien 5 bezoekers in de week heeft van buitenaf, dan zal die site enorm traag laden. Alles moet immers komen van die paar bezoekers die die site in hun computer hebben staan (ik neem aan dat enkel na een bezoek aan informatie, deze in je computer komt).

    geplaatst op
  • Was te verwachten.. Ik gebruik slechts nog links naar youtube / google video in blogposts.

    geplaatst op
  • @Jochem: Je moet allereerst het concept 'websites' aan de kant schuiven, 't gaat om de verspreiding van informatie. Allertweedst is informatie die door slechts vijf personen wordt opgehaald bij die vijf personen natuurlijk in no-time binnen (juist omdat het er zo weinig zijn). En allerderdst heeft de automatische P2P verspreiding en vermenigvuldiging van informatie natuurlijk een ingebouwd sneeuwbaleffect: in de eerste minuut gaat 't razendsnel naar de eerste 100 'eerste rangs' abonnees, in de tweede minuut gaat 't even snel naar de 10.000 dáárop aangesloten abonnees, en in de derde minuut gaat 't weer precies even snel naar de 100.000.000 'derde rangs' abonnees.

    geplaatst op
  • @Carl: De vorm waarin de informatie binnenkomt maakt natuurlijk niets uit, ik websites omdat die bekend zijn (en het gaat om dergelijke informatie), als dat anders verspreid gaat worden maakt dat voor 'het idee' niets uit.

    Daarnaast maakt het aantal bezoekers vs. delers wel degelijk uit. Met de huidige upload snelheden, in ieder geval. 2 bezoekers die van 5 delers een bestand van enkele mb's moet binnenhalen zijn langer bezig, als diezelfde 2 bezoekers die nu (met de huidige techniek) een bestandje van een fatsoenlijke site halen.

    Ook praat je over 'minuten', terwijl een groot deel van de informatie die ik op het internet binnen haal lang niet zo vaak geraadpleegd worden. Denk aan specifieke artikelen, specifieke zoekacties.

    Vooralsnog weet ik ook niet hoe ze technisch dit gaan verwezenlijken dus kan ik niet veel zeggen over snelheid en betrouwbaarheid (voor hetzelfde geld komt de informatie wel uit een 'centrale' plek (server), die tevens een checksum van de informatie heeft die automatisch wordt vergeleken met de checksum van de informatie die jij zojuist binnen hebt gehaald). Ik heb geen idee wat de ontwikkelen hier in zijn. Jij wel?

    geplaatst op
  • @Jochem: We praten op deze manier langs elkaar heen: jij hebt 't steeds over de huidige techniek, websites en mensen die klikken en zoeken, terwijl ik 't over de techniek van morgen, en zichzelf automatisch verspreidende informatie heb.

    Enneh: moet ik uit je laatste zin opmaken dat je de artikelen (1, 2) waarnaar ik steeds refereer nog niet gelezen heb? ;-)

    geplaatst op

Plaats zelf een reactie

Log in zodat je (in het vervolg) nóg sneller kunt reageren

Vul jouw naam in.
Vul jouw e-mailadres in. Vul een geldig e-mailadres in.
Vul jouw reactie in.

Herhaal de tekens die je ziet in de afbeelding hieronder


Let op: je reactie blijft voor altijd staan. We verwijderen deze dus later niet als je op zoek bent naar een nieuwe werkgever (of schoonmoeder). Reacties die beledigend zijn of zelfpromotioneel daarentegen, verwijderen we maar al te graag. Door te reageren ga je akkoord met onze voorwaarden.