Is Apple’s Siri medeplichtig aan moord?

25 augustus 2014, 05:05

Vorige week stond Pedro Bravo terecht voor de moord op Christian Aguilar in september 2012. Een uit de hand gelopen meningsverschil over een ex-vriendin was de oorzaak. Bravo wordt ervan beschuldigd dat hij zijn slachtoffer eerst gedrogeerd heeft, om hem vervolgens te wurgen en te begraven in een bebost gebied. In de rechtszaak worden onder andere de data van Bravo’s smartphone gebruikt om aan te tonen dat hij de dader is. Zijn GPS-locaties, alsmede het feit dat hij zijn zaklampapplicatie 9 keer heeft gebruikt voor meer dan 48 minuten, hebben hem verraden.

Het meest frappante aan de rechtszaak is dat een screenshot uit de Facebook cache van zijn telefoon werd gediept, waarop te zien is hoe Apple’s virtuele assistent Siri reageert op het statement: “In need to hide a dead body”. Siri geeft hier gevat antwoord op: “What kind of place are you looking for? Dumps, swamps, reservoirs, metal foundries, mines”. Dit screenshot is in de Amerikaanse media zijn eigen leven gaan leiden. Het verhaal ging de rondte dat Bravo na de moord aan Siri gevraagd zou hebben waar hij het beste het lijk kon verbergen. Bravo heeft de vraag echter op het moment van de moord nooit zelf gesteld aan Siri. Het was een oude meme die hij simpelweg had bewaard om deze op een later moment nog eens te kunnen gebruiken. Uit onderzoek blijkt overigens dat Siri tegenwoordig een heel ander antwoord op de vraag geeft: “Very funny”.

De kop van dit artikel is nu nog toekomstmuziek. Maar deze toekomst is dichterbij dan we denken. Algoritmes nemen steeds vaker allerlei taken uit onze handen om ons leven zo gemakkelijk mogelijk te maken: variërend van intelligente thermostaten tot zelfrijdende auto’s. De vraag is nu of kille logica inderdaad zo onschuldig is.

Mogen zelfrijdende auto’s discrimineren?

Bij dit soort vragen kom je al snel uit op de zelfrijdende auto’s van de toekomst. Wat voor een beslissing moeten deze maken wanneer een ongeluk gebeurt? Vanuit een natuurkundig oogpunt is het bijvoorbeeld beter om tijdens een botsing tegen een grote, zware auto aan te rijden dan tegen een klein autootje. Een grotere auto absorbeert de impact beter, dus minder kans op letsel. Algoritmes kunnen deze natuurwetten meenemen in hun calculaties. Een dikke Mercedes is dus altijd het bokje ten opzichte van een Mini.

En wat moet een zelfrijdende auto doen wanneer er twee motorrijders op hem afstormen? Eentje met helm en eentje zonder. Ook hier zullen de algoritmes tot de conclusie komen dat het beter is om de motorrijder met helm aan te rijden aangezien hij een hogere overlevingskans heeft. Dit is natuurlijk de omgekeerde wereld. De motorrijder zonder helm wordt beter beschermd dan diegene met helm, terwijl het verplicht is als motorrijder om een helm te dragen.

Mogen robots ethische beslissingen nemen?

Helemaal interessant wordt het wanneer al deze zelfrijdende auto’s met elkaar verbonden zijn. De auto van een individu zal als doel hebben om de inzittende(n) te allen tijde te beschermen, terwijl het netwerk als doel heeft om de schade en eventueel letsel van zoveel mogelijk verschillende mensen te voorkomen. Een situatie is dus denkbaar waarbij het netwerk een beslissing neemt waarbij mijn auto zich opoffert.

Stel je maar eens voor. Van een auto werken de remmen niet meer en deze storm af op een druk kruispunt. Ik zit in mijn zelfrijdende auto netjes te wachten voor een rood stoplicht. Het netwerk kan in deze situatie heel goed besluiten om de deuren van mijn auto te sluiten en de auto naar voren te rijden teneinde de op hol geslagen auto te stoppen. Met andere woorden, ik word opgeofferd om erger te voorkomen. Het netwerk mag dan voor het collectief de juiste beslissing genomen hebben, als individu ben ik het er niet echt mee eens…

Bovenstaand scenario staat bekend als het “trolley problem”. Het is een goedachtenexperiment met betrekking tot het nemen van ethische beslissingen. Wat is in dit soort situaties een moreel goede of foute keuze? Het zijn dilemma’s waar mening filosoof zijn hoofd over heeft gebroken, maar waar geen eenduidig antwoord op is en waar de programmeurs van de algoritmes wel rekening mee moeten houden. Immers, in het geval van de op hol geslagen auto, kan de programmeur dan aansprekelijk gesteld worden voor mijn dood? Het algoritme heeft immers een doelbewuste keuze gemaakt om mij te vermoorden.

Deus in Machina

Met de bouw van robotauto’s komen we op onbekend terein terecht: “We’re trying to design for random events that previously had no design, and that takes us into surreal territory.” Het is als Alice in Wonderland. We weten niet wat boven of onder is, wat goed of fout is. Wat voorheen chaos was en waarin menselijke reflexen en intuïtie in een split second een beslissing namen, wordt deze verantwoordelijkheid nu toebedeeld aan technologie, aan algoritmes. We stoppen God in de machine terwijl we nog geen antwoorden hebben op bovenstaande vragen.

Het is niet verwonderlijk dat Elon Musk, de oprichter van Tesla Motors, recentelijk via Twitter liet weten dat hij zich ernstige zorgen maakt over kunstmatige intelligentie: “Potentially more dangerous than nukes”. Er moeten nieuwe wetten komen die uitsluitsel geven op deze ethische dilemma’s. “Hoe autonomer robots gaan handelen, hoe meer er moet veranderen in de wetgeving.” Gelukkig is dit geen probleem in het huidige politieke klimaat. Ik ben blij dat ik met de trein reis.

Bronnen

Sander Duivestein
Topspreker / Trendwatcher / Auteur / Columnist bij Sogeti

Sander Duivestein is professioneel spreker, trendwatcher, internetondernemer, adviseur, auteur en columnist over de impact van nieuwe technologie op mens, bedrijf en maatschappij. In dienst van VINT (het Verkennings Instituut Nieuwe Technologie van ICT-dienstverlener Sogeti) heeft hij aan meerdere onderzoeken meegewerkt. In de afgelopen jaren schreef hij meerdere boeken en rapporten over Bitcoin, Internet of Things, Wearables, Big Data, Social Media, Mobile, Cloud en de economische crisis. Sander is veel in de traditionele media terug te vinden. Regelmatig wordt hij gevraagd om zijn opinie in dag- en weekbladen, op de radio en op televisie te delen. Zo was hij onder andere te gast in Pauw en Witteman, Brandpunt en Nieuwsuur.

Categorie

4 Reacties

    Bart van der Kooi

    Sander/Marketingfacts: wat een misleidende titel, zeg. Je zegt zelf in het artikel dat de vraag werd gesteld ‘where to hide a dead body’. Dan is de moord dus al gepleegd en is Siri sowieso niet medeplichtig aan moord.

    Daarnaast is het een algemeen dilemma dat al heel lang speelt: door internet en nieuwe technologieën vinden we informatie sneller, ook dit soort informatie. Zorgt dat er voor dat er meer negatieve zaken gebeuren? Of had men anders ook wel de informatie gevonden?

    Wat als deze dader zijn informatie niet via Siri (of een screenshot) had gevonden? Was hij dan wel of niet verder gaan zoeken? Als je slechte neigingen hebt, laat je ze dan gaan omdat je niet snel genoeg kunt vinden wat je zoekt?

    Hoe denk jij daarover, Sander?


    25 augustus 2014 om 11:22
    Siem

    Interessant verhaal. Inderdaad enigszins een misleidende titel.

    Het is interessant om te constateren dat grote bedrijven als Google allang bezig zijn met de ontwikkeling van zelfrijdende auto’s, maar dat de wetgeving, zowel nationaal als mondiaal, hier nog maar weinig tot geen actie in onderneemt. Ben daarnaast ook erg benieuwd naar de meningen van onze politieke leiders.


    25 augustus 2014 om 16:29
    Sander Duivestein

    Ik vond de titel op deze manier terug in een aantal Amerikaanse nieuwsberichten over dit voorval. De titel trekt de aandacht en zoals ik al zei: “De kop van dit artikel is nu nog toekomstmuziek. Maar deze toekomst is dichterbij dan we denken. […] De vraag is nu of kille logica inderdaad zo onschuldig is.” Dit is de reden dat ik voor deze titel gekozen heb. In de nabije toekomst zou het wel eens waarheid kunnen worden.

    @Bart. Jij hebt het over de aard van de mens. Deze is idd goed of fout. Daar verandert technologie niets aan. Wil jij een moord begaan, dan kun je idd het internet raadplegen, maar dan is technologie slechts een hulpmiddel ipv de veroorzaker. Waar ik het in mijn artikel over heb is over de ethische dilemma’s die allerlei algoritmes oproepen doordat ze steeds meer taken van ons over nemen. Mogen we algoritmes bepaalde beslissingen laten nemen die de dood van mensen tot gevolg kan hebben? Dan zijn immers algoritmes de veroorzakers en beslissers ipv een hulpmiddel. Denk ook maar aan zelfstandige drones die zelf beslissen wie ze vanuit de lucht platbombarderen. Willen we dit soort beslissingen toelaten aan kunstmatige intelligentie.

    @Siem “de meningen van onze politieke leiders” Mee eens. De politiek moet hier absoluut een plasje over doen. Maar is lastig, worden geleefd door de waan van de dag. De Hema en Zwarte Piet is belangrijkere materie…


    27 augustus 2014 om 09:03
    patricksteenks

    Wow, dat verhaal zet je toch aan het denken. Is wel enigzins analoog aan de regelgeving rondom Uber en AirBnb. Je ziet zo’n dienst ontstaan, en opkomen, een tijdje in de illegaliteit verblijven en tenslotte volgt de overheid en wordt de wetgeving aangepast.

    Probleem bij de artificial intelligence lijkt me alleen dat de regelgeving daar wat sneller op moet reageren. Of dat er van te voren al over nagedacht moet gaan worden. Anders kost het ons als maatschappij levens.


    21 oktober 2014 om 08:47

Marketingfacts. Elke dag vers. Mis niks!