De ‘Trust Pandemic’: De Psychologie van Vertrouwen in AI

In dit artikel onderzoek ik de mentale mechanismen die ervoor zorgen dat we een AI als 'bron' waarschijnlijk 'over-vertrouwen'.

20 oktober 2023, 11:00 4548 x gelezen

De snelle evolutie van kunstmatige intelligentie  van een niche academisch onderzoeksgebied tot een integraal onderdeel van ons dagelijks leven is ronduit opmerkelijk. De prestaties van AI zijn talrijk: van het het oplossen van ingewikkelde problemen en ons te slim af zijn in games zoals schaken, tot het transformeren van hele industrieën.

Met de vooruitgang in technologie zijn AI-systemen alomtegenwoordig geworden en beïnvloeden ze verschillende aspecten van ons leven, van filmaanbevelingen tot uitgebreide medische diagnoses. Onderzoek tot nu toe was vooral gericht op factoren die het AI-vertrouwen zouden kunnen verbeteren, ervan uitgaande dat dat noodzakelijk is.

De opmars van AI is echter niet zonder valkuilen. Onderzoek wijst uit dat AI-fouten, zoals ongevallen veroorzaakt door zelfrijdende auto’s of de verspreiding van schadelijke content door aanbevelingsalgoritmen, ernstige gevolgen kunnen hebben  “Met grote macht komt grote verantwoordelijkheid.” (Mittelstadt et al., 2016)

“Niemand formuleert het zo, maar ik denk dat kunstmatige intelligentie bijna een geesteswetenschappelijke discipline is. Het is echt een poging om menselijke intelligentie en menselijke cognitie te begrijpen.” – Sebastian Thrun

Factoren zoals het ELIZA-effect en Deep Automation Bias worden niet in aanmerking genomen vanwege de algemene veronderstelling dat er een gebrek aan vertrouwen is. Ik zou willen beweren dat het tegenovergestelde ook speelt. En misschien nog wel gevaarlijker. De waargenomen onfeilbaarheid van AI-systemen, gecombineerd met hun vermogen om enorme hoeveelheden gegevens te verwerken, heeft hen gepositioneerd als gezaghebbende entiteiten in veel domeinen.

“Het tempo van de vooruitgang in kunstmatige intelligentie (ik heb het niet over smalle AI) is ongelooflijk snel. Tenzij je directe blootstelling hebt aan groepen zoals Deepmind, heb je geen idee hoe snel – het groeit in een tempo dat bijna exponentieel is. Het risico dat er iets ernstig gevaarlijks gebeurt, ligt in het tijdsbestek van vijf jaar. Hooguit 10 jaar.”- Elon Musk

De ‘biased’ AI

Natuurlijk is AI afhankelijk van inhoud die we in het publieke domein kunnen ‘scrapen’ als trainingsgegevens , dus het is gebonden aan meerdere vooroordelen of biases omdat de trainingsgegevens zijn geproduceerd door mensen. Bedrijven zoals OpenAI doen enorme inspanningen om hun AI te de-biasen, maar het is een uitdaging (zoals ChatGPT, afgetopt oktober 2021).

In dit artikel zal ik me echter uitsluitend richten op de factor ‘vertrouwen’ vanuit een menselijk perspectief. Ik ga me niet richten op de vooroordelen waar AI zelf ‘last van heeft’.

In het bijzonder zal ik de mentale mechanismen onderzoeken die ervoor zorgen dat we een AI als ‘bron’ waarschijnlijk ‘over-vertrouwen’. In termen van AI verwijs ik specifiek naar de Large Language Models-familie omdat die AI’s de mogelijkheid hebben om zeer overtuigend te zijn en er betrouwbaar uit te zien als het gaat om het verstrekken van advies of informatie die wordt gebruikt bij menselijke besluitvorming.

Laten we eerst eens kijken naar het belangrijkste onderwerp: vertrouwen.

1. Vertrouwen Begrijpen

Vertrouwen is fundamenteel voor het creëren van een duurzame relatie met een ander mens. Het wordt gevormd door persoonlijke ervaringen, maatschappelijke normen en evolutionaire factoren. In ons dagelijks leven komen we vaak situaties tegen waarin we vertrouwen stellen in andere mensen zoals buschauffeurs, collega’s en zelfs vreemden. Het vereenvoudigt sociale interacties en besluitvorming. Maar in het AI-tijdperk wordt dit intrinsieke vertrouwen zowel getest als uitgebuit

De anatomie van vertrouwen

Vertrouwen is van oudsher een mechanisme om door onzekerheid te navigeren. Door vertrouwen te stellen in mensen, entiteiten of systemen, kunnen individuen de cognitieve belasting verminderen van het voortdurend evalueren van elk stukje informatie of beslissing. Dit vertrouwen is vaak gebaseerd op ervaringen uit het verleden, maatschappelijke normen en waargenomen competentie. Laten we eens snel kijken naar deze constructen:

Ervaringen uit het verleden

Onze eigen ervaring is onze meest geloofwaardige adviseur op dit gebied. Dus als we in het verleden wat hick-ups hebben gehad, is het in principe aan ons om de persoon of het systeem te wantrouwen, of te beslissen over de voortdurende betrouwbaarheid ervan en de hick-up als een eenmalige uitzondering te zien

Maatschappelijke normen

Zaken als cultuur, economische situatie, arbeidsparticipatie, de wet en de publieke opinie en media kunnen het vertrouwen sterk beïnvloeden. Wanneer de media alleen berichten over de ongelukken en misbruiken van AI, zal dit de publieke opinie naar het diepe einde van het spectrum leiden.

Gepercipieerde competentie

Deze constructie bestaat uit elementen als betrouwbaarheid, integriteit, welwillendheid en vertrouwelijkheid.

Al het bovenstaande leidt idealiter tot voorspelbaarheid van de uitkomst, een absolute noodzaak voor langdurig vertrouwen in een persoon of systeem. En wanneer de situatie zich voordoet waarin we  een persoon of systeem structureel bevoordelen in termen van betrouwbaarheid, kunnen we spreken van een positieve trust  ten opzichte van die persoon of dat systeem (dus de maatschappij) bias

2. Fasen in Automatiseringsvertrouwen

Vertrouwen in geautomatiseerde systemen is dynamisch en evolueert in de loop van de tijd op basis van interacties, hoewel eerste indrukken juist ook belangrijk zijn. We kunnen 3 fasen onderscheiden in Automation Trust: Faith-Based Trust , Dependability-Based Trust en Predictability-Based Trust . Tot slot zijn er individuele verschillen om rekening mee te houden.

Faith-Based Trust: Op geloof en overtuiging gebaseerd

Dit is de eerste vorm vertrouwen dat gebruikers stellen in een geautomatiseerd systeem, vaak zonder enige directe ervaring met het systeem. Het is gebaseerd op zowel externe factoren (zoals aanbevelingen, media-aandacht, de reputatie van de makers van het systeem of de beschrijving van het systeem) als interne factoren  (reeds bestaande overtuigingen, vooroordelen, individuele verschillen)

Dependability-Based Trust: Op betrouwbaarheid gebaseerd

Naarmate gebruikers met het systeem communiceren en ervaring opdoen, gaat hun vertrouwen over naar de betrouwbaarheid van het systeem. Gebruikers beginnen het systeem meer te vertrouwen als het consequent zijn taken uitvoert zonder fouten of storingen.

Meerdere studies hebben aangetoond dat het initiële vertrouwen in een AI-systeem na de eerste ervaring wordt beïnvloed door factoren zoals de  stem, het uiterlijk en de waargenomen competentie van het systeem (Torre, 2018; Ferrario, 2019). Vertrouwen versterkt of verzwakt dan op basis van de prestaties en het gedrag van de AI. Als een AI bijvoorbeeld een onjuiste aanbeveling doet, neemt het vertrouwen erin meer af dan wanneer een mens dezelfde fout had gemaakt, waaruit blijkt dat mensen AI aan een hogere standaard houden (Yang, 2021) (Yang, 2021).

De meeste ‘gewone’ mensen/gebruikers zullen een reeds bestaande vertrouwensattitude hebben (die ik in de volgende secties zal uitleggen). Zodra ze daadwerkelijk interactie hebben met de AI, zullen ze behoorlijk onder de indruk zijn van de resultaten (op voorwaarde dat het een goed ontwikkelde AI is zoals ChatGPT).

Aan de andere kant: generatieve AI kan vaak ‘hallucineren’ door de manier waarop het is gemaakt: algoritmes die patronen voorspellen. De voorspellingen kunnen sterker of zwakker zijn, in welk geval we het resultaat zouden kunnen interpreteren als ‘creativiteit’. Gebruikers kunnen dit opmerken en deze hallucinaties verkeerd interpreteren als ‘fouten’, terwijl het in feite ‘ontworpen gedrag’ van de AI is. Hoewel we moeten leren omgaan met het interpreteren van deze resultaten om te profiteren van de enorme kansen die AI te bieden heeft, kan het – vanuit een psychologisch perspectief – een blessing in disguise zijn dat het effect van hallucinaties eigenlijk dient als een ‘automatische over-trust mitigatiemaatregel’.

Predictibility-Based Trust: Op voorspelbaarheid gebaseerd

Na verloop van tijd, naarmate gebruikers meer vertrouwd raken met het systeem, wordt betrouwbaarheid als een feit gezien en is hun vertrouwen meer gebaseerd op de voorspelbaarheid van het systeem. Gebruikers vertrouwen het systeem omdat ze kunnen anticiperen op de acties en resultaten ervan.

Zoals je je kunt voorstellen, vereist op voorspelbaarheid gebaseerd vertrouwen veel interactie met – en kennis van de AI. Verklaarbaarheid en transparantie zijn de sleutel tot het opbouwen van blijvend vertrouwen (Zhang, 2020)

Simpele verklaringen voor individuele voorspellingen kunnen echter onvoldoende zijn; mensen willen ook een gevoel van hoe de AI werkt . Onderwijs en training over de AI kunnen op de lange termijn helpen bij het bevorderen van passend vertrouwen (Tucci 2021).

Individuele verschillen

Natuurlijk spelen er ook persoonlijke factoren mee. De mate van verandering in vertrouwen in de loop van de tijd hangt mede af van het individu en de context. Degenen met een externe locus of control, die geloven dat externe krachten gebeurtenissen beheersen, zullen minder snel hun vertrouwen veranderen als reactie op AI-gedrag, ten goede of ten kwade . Openheid voor ervaring (een Big Five persoonlijkheidsdimensie)  voorspelt ook snellere vertrouwensaanpassingen dfs (Glikson, 2020)

“Sommige mensen noemen dit kunstmatige intelligentie, maar de realiteit is dat deze technologie ons zal verbeteren. Dus in plaats van kunstmatige intelligentie, denk ik dat we onze intelligentie zullen vergroten.”- Ginni Rometty

Vertrouwen in de loop van de tijd

Kortom, het initiële (hoge) vertrouwen in AI hangt af van oppervlakkige inschattingen en verwachtingen, maar evolueert vervolgens dynamisch op basis van interacties en prestaties. Vertrouwen neemt exponentieel toe wanneer AI zichzelf bewijst, vooral als het transparantie biedt in het functioneren en de besluitvorming ervan. Maar vertrouwen blijft broos, vooral in scenario’s met een hoge inzet, en is sterk afhankelijk van individuele verschillen. Het beheren van het vertrouwen in AI in de loop van de tijd zal cruciaal zijn naarmate deze systemen steeds autonomer en impactvoller worden en bestaande menselijke vooroordelen – waar we het in de volgende sectie over zullen hebben – sterker zullen worden.

“We schrijven persoonlijkheidskenmerken, emoties, geslacht en gevoelens toe aan AI en behandelen ze als sociale actoren. “

3. Biases

Heb je ooit gemerkt dat je beslissingen neemt die niet bepaald ‘logisch’ lijken? Dat komt doordat we als mensen graag zonder te veel inspanning onze omgeving begrijpen en vaak noodgedwongen snelle beslissingen moeten nemen. Daarvoor gebruiken we dan ook een soort sluiproutes naar een beslissingen op basis van automatische processen. Deze cognitieve snelkoppelingen noemen we biases en heuristieken. Voor (be)oordelen van situaties, opties en handelingsperspectieven gebruiken we de biases, voor het daadwerkelijk snel nemen van beslissingen hebben we heuristieken.

De anatomie van een  bias

Biases worden gevormd door evolutionaire ervaring  en herhaalde langdurige blootstelling aan stimuli-responscombinaties. Dit kan zijn door eigen ervaring  (observaties en interacties) maar ook door herhaalde blootstelling  aan maatschappelijke stereotypen en/of culturele context (media, onderwijs, cultuur, sociale normen). Op een gegeven moment wordt de reactie  een automatische reactie omdat het ons helpt de wereld om ons heen snel te begrijpen. (of het nu veroordelend, verbaal of cognitief is)

Soorten biases

Bias- en heuristisch geïnduceerd gedrag is onbewust, een beetje zoals de automatische piloot-modus van onze hersenen. Een grote categorie biases wordt cognitieve biases genoemd. Deze hebben te maken met waarneming, herkenning en herinnering.

Cognitieve biases en heuristieken zijn een fascinerend studiegebied voor ons psychologen. Kahneman en Tversky’s werk over besluitvorming onder onzekerheid heeft bijvoorbeeld ons begrip van deze mentale snelkoppelingen enorm uitgebreid met onder andere de Prospect Theory (Kahneman, D., & Tversky, A., 1979).

Laten we nu eens kijken naar drie specifieke biases en één situationeel psychologisch effect die gecombineerd cruciaal zijn voor het begrijpen van AI-trust.

4. De Confirmation Bias

De Confirmation Bias is zo’n snel beoordelingsproces waarbij mensen eerder informatie zoeken, interpreteren, geloven en onthouden die hun bestaande overtuigingen of zelfs verwachtingen bevestigt. Het is alsof je een mentaal filter hebt dat prioriteit geeft aan wat je al als waar beschouwt. Het kost namelijk veel energie om bij strijdige informatie te bepalen welke informatie ‘waar’ is. Dus in plaats van dit helemaal rationeel uit te gaan zoeken, kijken we of het overeenkomt met wat we al weten, geloven en verwachten. Dit proces heet Cognitieve Resonantie Reductie (Festinger, 1957)

5. De Automation Bias

De Automation Bias is de neiging van mensen om suggesties van geautomatiseerde besluitvormings- en aanbevelingssystemen te bevoordelen en tegenstrijdige informatie die zonder automatisering is gemaakt zelfs te negeren, ook als deze feitelijk correct is. Deze laatst eigenschap heeft gelijkenissen met de Confirmation Bias, aangezien er hier ook sprake is van een reeds aanwezige verwachting, attitude of zelfs geloof. Ze richten zich op de keren dat het systeem nauwkeurig was en negeren of bagatelliseren de fouten.

En dit is waar het gevaarlijk wordt: door de Automation Bias zullen mensen al een gunstigere verwachting hebben van de geproduceerde content of informatie. Dus zelfs als de informatie slechts gedeeltelijk correct is, zullen we geneigd zijn om het te accepteren omdat we al geloven in de kwaliteit van de informatie die door AI wordt geproduceerd.

6. De Authority Bias

De Authority Biasis een andere cognitieve bias waarbij mensen de neiging hebben om meer nauwkeurigheid of geloofwaardigheid toe te schrijven aan de meningen van een autoriteitsfiguur, of het nu op het gebied van wetenschap, politiek of zelfs celebrity-cultuur is. Het is een mentale snelkoppeling die zijn wortels heeft in sociaal leren en overlevingsinstincten. Als iemand bewezen expertise of kracht heeft, is het vaak efficiënter om op zijn oordeel te vertrouwen in plaats van zelf het wiel opnieuw uit te vinden. In termen van maatschappelijke impact speelt de Authority Bias een cruciale rol in veel sociale domeinen, waaronder politiek, bedrijfsleven en onderwijs.

In het bedrijfsleven kunnen werknemers zo helaas onethische richtlijnen volgen omdat ze afkomstig zijn van een autoriteitsfiguur. In het onderwijs kunnen studenten informatie accepteren die door leraren zonder vragen wordt gepresenteerd, wat mogelijk leidt tot een gebrek aan kritisch denken. Om nog maar niet te spreken over de moeite die de makers van ‘fake news’ nemen om hun berichten te voorzien van autoriteitssignalen.

Aan de positieve kant kan het gebruik van autoriteit de acceptatie door gebruikers en het vertrouwen in nieuwe technologieën versnellen. Het is een snelle manier om de eerste weerstand te overwinnen. Het nadeel is echter dat dit kan leiden tot overmatige afhankelijkheid en dus verminderd kritisch denken.

Dus, naarmate we meer en meer naar geautomatiseerde intelligente analyse en advies gaan, moeten we uitzoeken wat de feitelijke of legitieme autoriteit van deze systemen is. Bijvoorbeeld: wanneer deze systemen worden ontwikkeld of goedgekeurd door bekende organisaties, experts of zelfs overheidsinstanties, zullen mensen eerder de output vertrouwen zonder iets van het systeem te weten. Het is alsof je zegt:  Dit kan bijzonder krachtig zijn als het systeem ook referenties, onderscheidingen of enige vorm van ‘deskundige’ validatie weergeeft “Als bedrijf X, een leider in AI, dit heeft ontwikkeld, moet het goed zijn.” (waaronder ChatGPT).

De Authority Bias kan dus ernstige gevolgen hebben op deze gebieden en bijdragen aan de bestendiging van schadelijke praktijken of verkeerde informatie. Het herkennen en beperken van de effecten van deze vooringenomenheid kan dus helpen om meer evenwichtigere besluitvormingsprocessen te activeren bij besluiten die gebaseerd zijn op AI-inhoud of AI-advies.

7. Het ELIZA-effect

Nu een psychologisch effect dat een beetje anders is dan de biases. Dit gaat namelijk over hoe we onze geautomatiseerde systemen menselijk kenmerken toeschrijven. We denken dat Siri een lieve stem heeft en Alexa is erg intelligent. We worden regelmatig geconfronteerd met chatbots die mensachtige kenmerken en spraak hebben en zelfs onze robotstofzuiger krijgt een naam.

Wij ‘vermenselijken’ (antropomorfiseren) nu eenmaal vaak digitale systemen, wijst ook de wetenschap uit. Vooral systemen die ‘conversational interface’ hebben, zoals eerder genoemde chatbots. Dit personificatiefenomeen is bekend geworden als het ELIZA effect, genoemd naar het vroege gespreksprogramma ELIZA ontwikkeld door Joseph Weizenbaum aan het MIT in de jaren 1960. We schrijven persoonlijkheidskenmerken, emoties, geslacht en gevoelens toe aan AI en behandelen ze als sociale actoren. Dit proces komt de adoptie van AI ten goede, en daarmee ook het vertrouwen in AI.

Ten tijde van schrijven van dit artikel is ChatGPT net 1 dag gelden uitgekomen met een update waarmee een volledige voice interface kan worden gebruikt. Je kan de AI sprekend vragen stellen, en je krijgt het antwoord gesproken terug. Bijna alsof je even een belletje met je ‘hulplijn’ maakt.

Echter, dit antropomorfiseren heeft een schaduwkant. Omdat we de AI steeds meer menselijke eigenschappen toekennen (we weten en erkennen uiteraard nog wel dat het een AI is, hierdoor blijven eerdergenoemde biases werkzaam) wordt de sympathiefactor van het systeem verhoogd. Dat kan er uiteindelijk toe leiden dat we de AI niet meer als een ‘medium’ of ‘kanaal’ van informatie gaan zien, maar als ‘bron’ van informatie. Als een geloofwaardige, vriendelijke, deskundige en empathische autoriteit, met als gevoeg – je raadt het al – nog meer AI-overtrust.

8. De AI-Trust Bias

Gelukkig zijn er wel een aantal wetenschappers die zich naast AI under-trust ook op AI over-trust richten. Bijvoorbeeld onderzoekers O’Neil en Buolamwini; zij waarschuwen op basis van hun onderzoek voor een te grote afhankelijkheid van en vertrouwen in AI zonder de onderliggende mechanismen en potentiële beperkingen te begrijpen (2019)

Er lijkt dus steeds meer evidentie te zijn voor deze zorg. Maar AI over-trust is niet zo rechtlijnig als bijvoorbeeld de Authority Bias. Het is een multidimensionaal probleem. Op basis van deze korte literatuurstudie kom ik dan ook op 4 dimensies van AI over-trust, die overeenkomen met de eerder genoemde 4 biases en effecten.

Waargenomen autoriteit (Authority Bias)

Historisch gezien zijn mensen geconditioneerd om gezaghebbende figuren of systemen te vertrouwen, in de overtuiging dat ze superieure kennis of capaciteiten bezitten – de Authority Bias. Dit is duidelijk te zien in de manier waarop individuen vaak neigen naar algoritmische oordelen over menselijke te prefereren (Logg, Minson, & Moore, 2019). Symbolische autoriteit zoals merknamen, keurmerken en aanbevelingen door een andere autoriteit dragen hieraan bij.

Waargenomen validiteit (Confirmation Bias)

Gebruikers van AI-systemen hebben vaak vooroordelen en verwachtingen over het gebruik van het AI-system. Hierdoor zijn ze sterk geneigd de uitkomst en output van een AI te accepteren als het hun bestaande ideeën bevestigt, en af te wijzen als het tegenspreekt – de Confirmation Bias. Dit kan onbedoeld reeds bestaande overtuigingen versterken, wat kan leiden tot een zichzelf versterkende vicieuze cirkel, zoals we die ook zien bij content- en aanbevelingsalgoritmen op social media. Dit kan resulteren in wat een ‘Echo Chamber’ benoemd wordt: een sociale en technologische omgeving waarin alleen maar meer van hetzelfde wordt geroepen.

Waargenomen nauwkeurigheid (Automation Trust Bias)

We hebben de neiging om de voorkeur te geven aan beslissingen die door geautomatiseerde systemen worden genomen, zelfs als ze verkeerd zijn – de Automation Bias. Dit is waargenomen op verschillende gebieden, waaronder medische diagnoses (Goddard, Roudsari, & Wyatt, 2012). De Confirmation Bias versterkt dit fenomeen.

Waargenomen menselijkheid (ELIZA effect)

Last but not least hebben we de neiging om AI, chatbots, beslissingsondersteunende systemen en dergelijke te antropomorfiseren, wat resulteert in een asymmetrische sympathie voor deze systemen.

Andere gerelateerde biases

Deze 4 dimensies zijn volgens mij de belangrijkste om je in eerste instantie bewust van te zijn, om er daarna mee rekening houden en om sommige negatieve maar wel automatische effecten tegen te gaan. Maar er zijn ook andere vooroordelen in het spel, die ik op deze plaats niet verder zal uitdiepen maar ze wel wil noemen:

  • Anchoring Bias: Initiële AI-aanbevelingen/-ervaring kunnen latere beslissingen onnodig beïnvloeden;
  • Bandwagon-effect: De maatschappelijke druk van het vertrouwen in AI omdat  en omdat we zoveel bewijs van dagelijks gebruik zien bij het scrollen door onze sociale media en het lezen en luisteren naar reguliere media. Het voelt alsof iedereen het gebruikt; “iedereen dat doet”
  • Status Quo Bias: Ik zou kunnen stellen dat vertrouwen in AI deels vooraf is vastgesteld vanwege zijn wortels in 3 biases. Nadat dit is gebeurd, is de kans groot dat we kritischer moeten leren denken en misschien zelfs minder vertrouwen hebben in AI als bron van ‘eindresultaat’, Dunning-Kruger Effect: Mensen met beperkte (technische en/of evaluatieve) competentie hebben de neiging om hun competentieniveau in een bepaalde fase te overschatten. Vandaar dat mensen zullen denken dat ze de werking en mogelijkheden van de AI volledig begrijpen, terwijl dit begrip in realiteit slechts zeer beperkt is.
  • Base Rate Neglect: We hebben de neiging om overdreven optimistisch te zijn over de waarschijnlijkheid dat iets dat goed voor ons is, zal gebeuren. Evenzo zullen we de neiging hebben om de foutkansen van de realistische AI te verwaarlozen.
  • Bias Blind Spot Het niet herkennen van de eigen vooroordelen ten opzichte van AI.  “De moeder van alle vooroordelen”

Op een gegeven moment – en ik geloof dat dit punt heel dichtbij is of we zijn het reeds gepasseerd – zullen deze 4 effecten en bijbehorende vooroordelen steeds meer verstrikt en verwoven raken in onze geest en dus in onze samenleving . Overmatig vertrouwen op AI is of wordt dan zo’n belangrijke factor in onze beoordeling en besluitvorming, dat ik geloof dat het een eigen, onderscheidende naam rechtvaardigt. Ik stel voor:

De ‘AI-Trust Bias’, het technologische broertje van de Authority  Bias

De AI-Trust Bias is een samenvloeiing van verschillende cognitieve vooroordelen, beïnvloed door onze interacties met deze systemen – indien aanwezig. Het gaat niet alleen om het vertrouwen in AI, maar juist om het te veel vertrouwen erin, zelfs als er aanwijzingen zijn voor voorzichtigheid of incongruentie van informatie.

9. De AI-Trust Bias: Over-trust verminderen

Nu we weten hoe de AI-Trust Bias in elkaar zit en wat de mogelijke risico’s zijn voor de menselijke besluitvorming, wil ik afsluiten met een aantal oplossingsrichtingen om de effecten van de Bais te beperken of verminderen. Ik heb daarbij gekeken naar de aanwezig literatuur over de-biasing in zijn algemeenheid, en specifiek naar zogenaamde ‘mitigation strategies’ voor de bovengenoemde biases en effecten.

1. Verbeter Kritisch Denken

Kritisch denken helpt mensen de capaciteiten en beperkingen van AI te begrijpen. Het omvat het bevragen van aannames en het evalueren van bewijs. Hierdoor wordt blindelings vertrouwen in AI-systemen verminderd. Enkel tips:

  • vraag in je vraagstelling (prompt) om (wetenschappelijke) referenties en bronnen. Hiermee voorkomen je mogelijke creatieve output (hallucinaties)
  • vraag de AI om jouw vraag vanuit meerdere perspectieven te beantwoorden
  • Stel open vragen. Hiermee voorkom je deels jouw eigen Confirmation Bias.

2. Vergroot Kennis

Educatie over de werking en mogelijke valkuilen van AI helpt gebruikers bij het maken van geïnformeerde beslissingen. Dit kan de cyclus van confirmation bias doorbreken. Ideaal zou zijn om dit onderwijs al op jonge leeftijd te beginnen.

3. Verbeter de Transparantie

XAI (eXplainable Artificial Intelligence) maakt het besluitvormingsproces van AI-systemen transparant en begrijpelijk, wat zowel het vertrouwen kan vergroten als verminderen, afhankelijk van de situatie.

4. Zorg voor Verklaarbaarheid

Duidelijke verklaringen van AI-beslissingen kunnen gebruikers helpen de output van het systeem beter te begrijpen en te vertrouwen, waardoor ambiguïteit wordt verminderd. Het implementeren van feature importance grafieken in de output van AI kan bijvoorbeeld laten zien welke variabelen het meest bijdragen aan een voorspelling of aanbeveling.

5. Focus op Generatieve Taken

AI, vooral generatieve AI zoals ChatGPT, is goed in het creëren van nieuwe content en concepten. Dit is zowel een sterkte als een zwakte, afhankelijk van de toepassing. Om te voorkomen dat we de AI gebruiken om beslissingen voor ons te nemen, met alle risico’s van dien, kunnen we er ook voor kiezen om ons vooraf te richten op taken waar de AI namelijk voor ontwikkeld is: generatieve taken. Dat wil zeggen: taken waarbij creatie, interpretatie en variatie juist belangrijk zijn en bijdragen aan de kwaliteit van het antwoord.

Door deze strategieën toe te passen, kan een meer genuanceerd en nauwkeurig begrip van AI worden bevorderd, wat uiteindelijk het overmatig vertrouwen in deze technologie kan verminderen.

10. Conclusie

Veel onderzoeksinspanningen richten zich op het verbeteren van vertrouwen in AI. Echter, er is een groeiend besef dat ook overmatig vertrouwen in AI (AI over-trust) onwenselijk is, en misschien nog wel gevaarlijker dan AI under-trust.

AI over-trust komt tot stand door een combinatie van de Authority Bias, Automation Bias en Confirmation Bias en wordt nog verder versterkt door het ELIZA effect. Dit resulteert in een sterke neigen tot overmatig vertrouwen, die we voorstellen de “AI Trust Bias” te noemen. Gezien de generieke naam kan zowel over- als under-trust onder deze noemer vallen.

Er ligt dus een uitdaging voor ons: hoe kunnen we vertrouwen in AI balanceren op een zo effectief mogelijk niveau? Het begint met het (al vroegtijdig) verstrekken van de juiste kennis om AI beter te begrijpen en het aanmoedigen van transparantie over hoe AI werkt. Dat vereist ook dat de AI-systemen waar we het over hebben op een educatieve manier moeten worden gebruikt. We moeten ons vertrouwen in evenwicht brengen met gezonde scepsis en onthouden dat kleinschalige menselijke beslissingen soms waardevoller kunnen zijn dan grootschalige AI-beslissingen.

AI-ontwikkelaars kunnen ons helpen door realtime meta-informatie te verstrekken over de betrouwbaarheid van de geproduceerde output, die effectief fungeert als kleine de-biasing nudges.

Laten we ervoor zorgen dat we niet (verder) in een Trust Pandemic terechtkomen. AI kan van enorme toegevoegde waarde zijn voor zowel particulieren als bedrijven. Maar onthoud: AI is geen bron, het is een slim medium. Junk in = Junk out. Dus de volgende keer dat je met een AI communiceert, let dan op mogelijke betrouwbaarheidsindicators en vergeet niet om je vertrouwen in evenwicht te brengen met een gezonde dosis scepsis.

Bronnen

  • Kahneman, D., & Tversky, A. (1979). Prospect Theory: An Analysis of Decision under Risk. Econometrica, 47(2), 263–291.
  • Bansal, G., Nushi, B., Kamar, E., Lasecki, W. S., Weld, D. S., & Horvitz, E. (2019). Updates in Human-AI Teams: Understanding and Addressing the Performance/Compatibility Tradeoff. Proceedings of the AAAI Conference on Artificial Intelligence, 33, 2429–2437.
  • Blass, T. (1999). The Milgram Paradigm After 35 Years: Some Things We Now Know About Obedience to Authority. Journal of Applied Social Psychology, 29(5), 955–978.
  • Brundage, M., Avin, S., Wang, J., Belfield, H., Krueger, G., Hadfield, G., Khlaaf, H., Yang, J., Toner, H., Fong, R., Maharaj, T., Koh, P. W., Hooker, S., Leung, J., Trask, A., Bluemke, E., Lebensold, J., O’Keefe, C., Koren, M., … & Dafoe, A. (2020). Toward trustworthy AI development: Mechanisms for supporting verifiable claims. arXiv preprint arXiv:2004.07213.]
  • Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of the Machine Learning Research, 81, 1–15.
  • Burrell, J. (2016). How the Machine ‘Thinks’: Understanding Opacity in Machine Learning Algorithms. Big Data & Society, 3(1), 1–12.
  • Doshi-Velez, F., Kortz, M., Budish, R., Bavitz, C., Gershman, S., O’Brien, D., … & Weinberger, K. (2020). Accountability of AI Under the Law: The Role of Explanation. arXiv preprint arXiv:1711.01134.
  • Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.
  • Folstad, A., & Brandtzaeg, P. B. (2017). Chatbots and the New World of HCI. Interactions, 24(4), 38–42.
  • Goddard, K., Roudsari, A., & Wyatt, J. C. (2012). Automation bias: a systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association, 19(1), 121–127.
  • Lai, V. T., & Hagoort, P. (2020). Sizing up the competition: Quantifying the influence of the mentalizing network on executive function and working memory. Journal of Cognitive Neuroscience, 32(4), 716–727.
  • Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90–103.
  • Luria, M., Hoffman, G., & Zuckerman, O. (2019). Comparing Social Robot, Screen and Voice Interfaces for Smart-Home Control. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (Paper №507).
  • Merritt, S. M., Ilgen, D. R., & Collins, C. J. (2008). Trust in people and trust in systems: A differential effects of dependence and risk on the evaluation of human and automated aids. Journal of Experimental Psychology: Applied, 14(3), 253.
  • Milgram, S. (1963). Behavioral study of obedience. Journal of Abnormal and Social Psychology, 67(4), 371–378.
  • Mittelstadt, B., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The Ethics of Algorithms: Mapping the Debate. Big Data & Society, 3(2), 1–21.
  • Nass, C., Moon, Y., & Green, N. (1997). Are machines gender neutral? Gender-stereotypic responses to computers with voices. Journal of Applied Social Psychology, 27(10), 864–876.
  • Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.Rudin, C. (2019). Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use Interpretable Models Instead. Nature Machine Intelligence, 1(5), 206–215.
  • O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown.
  • Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). “Why should I trust you?” Explaining the predictions of any classifier. Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining, 1135–1144.
  • Shneiderman, B., Fischer, G., Czerwinski, M., Resnick, M., Myers, B., Candy, L., Edmonds, E., Eisenberg, M., Giaccardi, E., Hewett, T., Jennings, P., Kules, B., Nakakoji, K., Nunamaker, J., Pausch, R., Selker, T., Sylvan, E., & Terry, M. (2020). Creativity support tools: Report from a U.S. National Science Foundation sponsored workshop. International Journal of Human-Computer Interaction, 20(2), 61–77.
  • Rahwan, I., Cebrian, M., Obradovich, N., Bongard, J., Bonnefon, J. F., Breazeal, C., Crandall, J. W., Christakis, N. A., Couzin, I. D., Jackson, M. O., Jennings, N. R., Kamar, E., Kloumann, I. M., Larochelle, H., Lazer, D., McElreath, R., Mislove, A., Parkes, D. C., Pentland, A. S., … & Wellman, M. (2019). Machine behaviour. Nature, 568(7753), 477–486.
  • Vasconcelos, B., Martin, D., Biega, J., Tran, T., & Aberer, K. (2020). Using Embeddings to Correct for Unobserved Confounding in Networks. arXiv preprint arXiv:2005.01417.
  • Wachter, S., Mittelstadt, B., & Russell, C. (2021). Why fairness cannot be automated: Bridging the gap between EU non-discrimination law and AI. The Oxford Handbook of Ethics of AI.
  • Weizenbaum, J. (1966). ELIZA — a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36–45
Mischa Coster MA MSc
Psycholoog - Chief Psychology Officer, gedragsstrateeg, adviseur, spreker. bij Grey Matters & Guideology

Ψ Mediapsycholoog ⌆ Perspectivist ⌬ Dopamaniac Mischa is mediapsycholoog en Chief Psychology Officer bij Grey Matters, een onderzoeks- en adviesbureau dat organisaties helpt inzichten uit de psychologie in de praktijk toe te passen. Ook is hij founding partner en gedragsstrateeg bij Guideology, een adviesbureau dat zicht richt op het begeleiden van klantgedrag in de financiële sector. Mischa gelooft dat psychologie de smeerolie is voor organisaties, zowel op gebied van marketing als ook sales, HR, MD, recruitment, innovatie, security en finance. Hij heeft voor dit gfsedachtegoed de titel ‘Chief Psychology Officer’ bedacht, een rol waar inmiddels meerdere organisaties invulling aan hebben gegeven. Naast psychologie consultant (voor klanten zoals T-Mobile, Capgemini, bol.com, Rotterdam The Hague Airport, Agis, KNMG, NIMA, VvAA, Oracle, Univé, EU council, belastingdienst en diverse ministeries), is Mischa een graag geziene keynote spreker op zowel (internationale) congressen als incompany events. Ook wordt hij regelmatig als gedragsexpert op radio en televisie gevraagd voor actualiteitenprogramma’s als EditieNL, Eén Vandaag, en Radar. In zijn vrije tijd is Mischa gastdocent aan de UU, UvA, HvA, VU, UT, HHS, RU, Nyenrode en UM. Ook is hij bestuurslid van de sectie Sociale en Economische Psychologie van het Nederlands Instituut van Psychologen. Hij is Psycholoog NIP en Certified GAABS Member.

Categorie

Marketingfacts. Elke dag vers. Mis niks!