Carl Mangold
AI-specialist met de focus op veiligheid bij Carl Mangold
Carl Mangold is een expert op het gebied van kunstmatige intelligentie (AI), met de focus op het veilig en ethisch verantwoord inzetten van deze technologie.
In de loop van zijn carrière heeft Carl de evolutie van AI in marketing van dichtbij meegemaakt. Waar AI aanvankelijk vooral werd ingezet om prospects te herkennen en segmenteren op basis van hun klik- en koopgedrag, heeft de technologie zich inmiddels ontwikkeld tot een krachtig middel dat (klant-)communicatie over de volledige breedte kan ondersteunen of zelfs vervangen.
Stonden ethiek en privacy altijd centraal bij de toepassing van AI voor geautomatiseerde klantsegmentatie, met de opkomst van generatieve AI zijn veiligheid en betrouwbaarheid nog belángrijker thema's geworden. Carl zet zich in om bedrijven te begeleiden bij het verantwoord implementeren van AI-oplossingen die niet alleen efficiëntie en klanttevredenheid verhogen, maar ook voldoen aan de hoogste ethische en veiligheidsstandaarden.
Met zijn diepgaande kennis van AI en zijn toewijding aan veilige praktijken, helpt Carl organisaties de balans te vinden tussen innovatie en verantwoordelijkheid. Zijn werk draagt bij aan het creëren van betrouwbare AI-systemen die zowel de bedrijfsdoelen als de belangen van klanten dienen.
Leg dat maar eens uit aan de ISP’s. Zo lang je bv. nog 8Mbit down en 1Mbit up lijntjes hebt zal je dat nooit kunnen decentraliseren. Natuurlijk, met p2p netwerken kan je een deel opvangen en zulks soort hostingoplossingen bestaan er al maar dan nog….
Alles p2p doen is natuurlijk een optie, maar garandeert daarmee meteen dat alles nog onbetrouwbaarder wordt. Misschien neemt de beschikbaarheid enorm toe, maar de snelheid en volledigheid van sites zal volgens mij verminderen.
Een downtime die YouTube nu ervoer, had te maken met technische mankementen aan de site zelf. Niet zozeer onbeschikbare diensten (ik neem aan dat alles bij hen redundant is uitgevoerd) en zal dus ook ‘overgenomen’ worden door de p2p aanbieders.
Vergeet ook even het niet veiligheidsaspect van internet volledig p2p… Hoe controleer je dan of de verzonden informatie ook gelijk is aan degene die ontvangen is? Onderschepping van vertrouwelijke gegevens wordt dan wel heel makkelijk.
@Eijkb: De ISP’s knijpen op dit moment de upload-verbindingen inderdaad nog dicht, om je een reden te geven om vooral centraal te gaan hosten. Maar zodra de markt om net zo snel ‘uo’ als ‘down’ begint te vragen, zal dat rap verleden tijd zijn.
@Jochem: Je baseert je aanname waarschijnlijk op je ervaringen met de huidige P2P muziek-netwerken, waarin je heel erg veel meer ‘lurkers’ dan ‘sharers’ hebt. Zodra informatie zich tamelijk evenredig over alle geïnteresseerde gebruikers verspreidt heb je daar geen last meer van, en wordt P2P juist vele malen sneller en betrouwbaarder dan gecentraliseerde informatievoorziening.
@Sander: Hiervoor kun je het door mij voorgestelde ’tracks & traces’ systeem gebruiken. En vertrouwelijke gegevens worden vanzelfsprekend encrypted verstuurd.
@Carl: Bij p2p is het nog altijd van belang dat de geboden informatie populair is, om enige snelheid te behalen. Immers heeft niet elke client het hele internet op z’n computer staan. Als ik dus een simpele persoonlijke pagina heb, die misschien 5 bezoekers in de week heeft van buitenaf, dan zal die site enorm traag laden. Alles moet immers komen van die paar bezoekers die die site in hun computer hebben staan (ik neem aan dat enkel na een bezoek aan informatie, deze in je computer komt).
Was te verwachten.. Ik gebruik slechts nog links naar youtube / google video in blogposts.
@Carl: De vorm waarin de informatie binnenkomt maakt natuurlijk niets uit, ik websites omdat die bekend zijn (en het gaat om dergelijke informatie), als dat anders verspreid gaat worden maakt dat voor ‘het idee’ niets uit.
Daarnaast maakt het aantal bezoekers vs. delers wel degelijk uit. Met de huidige upload snelheden, in ieder geval. 2 bezoekers die van 5 delers een bestand van enkele mb’s moet binnenhalen zijn langer bezig, als diezelfde 2 bezoekers die nu (met de huidige techniek) een bestandje van een fatsoenlijke site halen.
Ook praat je over ‘minuten’, terwijl een groot deel van de informatie die ik op het internet binnen haal lang niet zo vaak geraadpleegd worden. Denk aan specifieke artikelen, specifieke zoekacties.
Vooralsnog weet ik ook niet hoe ze technisch dit gaan verwezenlijken dus kan ik niet veel zeggen over snelheid en betrouwbaarheid (voor hetzelfde geld komt de informatie wel uit een ‘centrale’ plek (server), die tevens een checksum van de informatie heeft die automatisch wordt vergeleken met de checksum van de informatie die jij zojuist binnen hebt gehaald). Ik heb geen idee wat de ontwikkelen hier in zijn. Jij wel?
Gerelateerde artikelen
Marketingfacts. Elke dag vers. Mis niks!
Marketingfacts. Elke dag vers. Mis niks!