De bevooroordeelde algoritmes van Google en het zwarte gat van AI

De bevooroordeelde algoritmes van Google en het zwarte gat van AI

"Het internet is een van de weinige dingen die mensen hebben gebouwd zonder het werkelijk te begrijpen." Het is "het grootste anarchistische experiment in de wereldgeschiedenis." Zo begint het eerste hoofdstuk van het boek ‘De Digitale Lente’ (2013) van Eric Schmidt, oud-ceo van Google, en Jared Cohen, directeur van Google Ideas. Het hoofdstuk sluiten beide auteurs af met de volgende woorden: "Want ondanks de vele mogelijkheden die communicatietechnologieën bieden, hangt het gebruik ten goede of ten kwade volledig af van mensen. Vergeet al die praatjes over machines die de wereld overnemen. Wat er in de toekomst gebeurt, is aan ons."

Carole Gadwalladr, journaliste voor kwaliteitskrant The Guardian, denkt hier anders over. In een tweetal artikelen zet zij grote vraagtekens bij bovenstaande uitspraken. Zij vraagt zich af of bedrijven als Google en Facebook niet juist een veelkoppig algoritmisch monster hebben gecreëerd waarover de menselijke eigenaren alle controle al lang verloren hebben. 

In haar eerste artikel laat ze zien hoe de zoekmachine de vragende zoekterm "are jews ..." automatisch aanvult met het woord "evil" en na het klikken hierop wordt Gadwalladr geconfronteerd met pagina’s vol zoekresultaten die deze zoekterm onderstrepen.

In haar tweede artikel stelt ze aan Google de vraag stelt of de Holocaust heeft bestaan ("did the holocaust happen?") en krijgt zij als eerste zoekresultaat een link naar de website Stormfront.org. Het betreft een forum voor neonazi’s en racisten dat wereldwijd wordt beschouwd als de allereerste grote haatplaats van het internet en de zoekopdracht leidt naar een artikel dat tien redenen geeft waarom de Holocaust niet heeft bestaan.

Eenzelfde beeld vertoont de Nederlandse versie van de zoekmachine. Zo vult de autocomplete-functie van Google de zinsnede "marokkanen zijn" aan met woorden als "slecht", "lekker", "geen ras" en "racisten". Ook hier staat Stormfront.org bovenaan in de zoekresultaten als gezocht wordt op "marrokanen zijn slecht". De website weet nu 27 redenen op te sommen waarom mensen Marokkanen haten.

Algoritmes discrimineren

People become numbers, algorithms become the rules, and reality becomes what the data says - Om Malik

Natuurlijk weten we dit allemaal allang. Al vaker is Google in het nieuws geweest omdat haar algoritmes op hol slaan. Denk maar aan een zwarte vrouw die door Google getagged werd als een gorilla. In het kader van het post-truth-tijdperk waarin we nu zijn beland, zijn de implicaties van dit soort automatische ingevulde zoektermen en overeenkomende zoekresultaten alarmerend.

Het verschil tussen feit en verzinsel is niet altijd duidelijk. Sterker nog, Google is ook niet consequent in de manier waarop zoekresultaten worden getoond. Soms publiceert de zoekmachine een snippet die afkomstig is uit het allereerste zoekresultaat. De wijze waarop de informatie wordt getoond, geeft daarbij de indruk dat het hier een feit betreft. 

Een jong persoon die niet bekend is met de historie van de Tweede Wereldoorlog loopt nu het risico dat zijn mening gevormd wordt door een complottheorie van Stormfront. Gadwalladr beargumenteert dat Google met haar algoritmes de wijze waarop we de wereld waarnemen "kadert, vormt en verdraait". Zij vindt dan ook dat Google haar verantwoordelijkheid moet nemen. Google is niet simpelweg een doorgeefluik. Hun technologie is niet goed of slecht, maar het is ook niet neutraal.

In een reactie laat een woordvoerder van Google het volgende weten:

We zijn bedroefd om te zien dat haatorganisaties nog steeds bestaan. Het feit dat de haatsites in de zoekresultaten worden weergegeven, betekent niet dat Google deze opvattingen onderschrijft. Zoeken via Google is een weerspiegeling van de inhoud en de informatie die beschikbaar is op het internet.

De positie van een site in de zoekresultaten wordt bepaald door computeralgoritmes die honderden factoren gebruiken om de relevantie van een pagina te berekenen voor een bepaalde zoekopdracht. We verwijderen geen inhoud uit onze zoekresultaten, behalve in zeer beperkte gevallen, zoals illegale inhoud, malware en schendingen van onze richtlijnen voor webmasters.

Het zwarte gat van kunstmatige intelligentie

Mensen kunnen niet blindelings vertrouwen op de keuzes die algoritmes ons voorrekenen. De algoritmes zijn bevooroordeeld, ze bevatten systematische fouten en kleuren daarmee hun uitkomsten.

De wiskundige berekeningen op grond waarvan algoritmes selecteren en kiezen, zijn zo complex dat niemand meer met honderd procent zekerheid kan zeggen of ze kloppen. Bovendien houdt het in- en externe toezicht op juistheid, integriteit en operationele doelmatigheid van algoritmes (en van de zuiverheid en representativiteit van de datasets waarmee ze worden gevoed en getraind) geen gelijke tred met de steeds bredere inzet van algoritmes in de maatschappelijke en bedrijfsmatige keuze- en besluitvormings-processen.

Jeroen Goudsmit en Andre Mikkers, beiden werkzaam voor PwC, noemen dit "het zwarte gat van kunstmatige intelligentie". Zij pleiten ervoor dat er snel internationaal geldende afspraken komen over verantwoordings- en ontwikkeleisen voor algoritmes. Google, Facebook, Amazon, IBM en Microsoft hebben inmiddels de handen ineen geslagen. Ze hebben een partnerschap voor kunstmatige intelligentie opgericht dat ervoor moet zorgen dat technologie ingezet wordt "voor het welzijn van de mens en de samenleving". Probleem opgelost dus...

Bronnen


Geplaatst in

Delen

0
0


Er zijn 2 reacties op dit artikel

  • In een Facebook groep waar ik in zit, waren een groep donkere dames erg boos op Facebook. Als je zoekt op "sexy black mom" krijg je afbeeldingen van donkere pornosterren en als je zoekt op "sexy white mom" krijg je voornamelijk kuis geklede witte dames.

    Ik probeerde het principe van algoritme uit te leggen en hoe dit komt. Jouw stuk komt als geroepen.

    Wel moet ik bekennen dat na een reeks klachten Google dit binnen een week had aangepast. Dus zij kunnen wel degelijk tweaken aan het algoritme.

    geplaatst op
  • Prima artikel. Snijdt een belangrijk onderwerp aan.
    Dit lijkt een typisch "wicked problem".

    The solution depends on how the problem is framed and vice versa (i.e., the problem definition depends on the solution)
    Stakeholders have radically different world views and different frames for understanding the problem.
    The constraints that the problem is subject to and the resources needed to solve it change over time.
    The problem is never solved definitively.

    Een oplossing is meer onderwijs om jongeren kritisch met bronnen om te gaan en zelfstandig te leren denken.

    geplaatst op

Plaats zelf een reactie

Log in zodat je (in het vervolg) nóg sneller kunt reageren

Vul jouw naam in.
Vul jouw e-mailadres in. Vul een geldig e-mailadres in.
Vul jouw reactie in.

Herhaal de tekens die je ziet in de afbeelding hieronder


Let op: je reactie blijft voor altijd staan. We verwijderen deze dus later niet als je op zoek bent naar een nieuwe werkgever (of schoonmoeder). Reacties die beledigend zijn of zelfpromotioneel daarentegen, verwijderen we maar al te graag. Door te reageren ga je akkoord met onze voorwaarden.