Hoe beteugelen we AI?

Prominente tech-leiders, goeroes en futurologen zoals Musk, Harari en Wozniak waarschuwden enkele jaren geleden al voor de gevaren van een losgeslagen AI. In een open brief pleitten zij voor een tijdelijke rem op de ontwikkeling van AI. Nu de potentie van artificiële intelligentie steeds zichtbaarder begint te worden, groeit bij steeds meer mensen het besef dat deze technologie ons op een gegeven moment ‘boven het hoofd kan gaan groeien’. Wat als AI slimmer wordt dan wij? Wat als AI zich tegen de mens gaat keren? Wat doen we met AI die we als mens helemaal niet meer kunnen begrijpen? Verliezen we straks alle controle? Is er nog een noodknop?

19 mei 2025, 09:15 2261 x gelezen

Een tijdelijke stop of rem

Er zijn science fiction films genoeg om deze angst te voeden.

Van zo’n rem lijkt echter nog geen enkele sprake, integendeel. Wel hebben de AI-bedrijven uit zichzelf de uitrol van gezichtsherkenning uiterst beperkt (vooral tot gebruik door overheden) en is deze niet in zoekmachines e.d. openlijk beschikbaar gekomen.

 

Een kill-switch

Een verdergaand idee is dat van een uitknop waarmee AI in één keer kan worden uitgeschakeld, een kill-switch. Een ultieme noodrem waaraan de mens kan trekken als de AI ongewenst gedrag gaat vertonen. Deze ‘knop’ zou dan (verplicht) ingebouwd moeten worden in de code van de AI. Voor zover dat mogelijk is en de AI niet, zoals in menig science fiction film, deze code herprogrammeert of omzeilt.

Een jaar geleden, tijdens een AI-conferentie in Seoul, zegden diverse bedrijven waaronder Microsoft, Amazon en OpenAI, toe te willen werken aan een dergelijke kill-switch. Dit als onderdeel van meer maatregelen om de ontwikkeling van AI beheersbaar te houden. En om misbruik door kwaadwillende te voorkomen.

Dit sluit aan bij de Europese regelgeving die in de maak is (AI Act). Waarin de bedrijven zelf moeten aangeven hoe zij met de te voorziene risico’s om zullen gaan.

Toch lijken deze toezeggingen vooral gedaan te zijn om te voorkomen dat overheden strengere regels gaan stellen. Dat zou een rem kunnen betekenen op de ontwikkeling van AI.

Gecontroleerde verspreiding

Onder de huidige president Trump is vanaf dit jaar een andere wind gaan waaien. AI is (nog meer) onderdeel geworden van geopolitiek en wordt gezien als een strategische technologie zowel voor economische groei en welvaart als voor nationale veiligheid.

Trump wil dat andere landen de AI-technologie van Amerika gemakkelijk kunnen kopen, als klanten en afnemers maar dat zij niet zozeer als (gelijkwaardige) partners hoeven te zijn in de ontwikkeling van de technologie. De broncode kan dan ook ‘veilig’ en ‘nationaal’ geheim blijven.

De VS willen de regelgeving gebruiken om China verder te kunnen uitsluiten van de toegang tot de Amerikaanse kennis. Non-proliferatie.

In het US AI Action Plan 2025 wordt de regulering van AI beperkt, zodat de Amerikaanse bedrijven kunnen doorgaan met het uitbreiden van hun voorsprong in de ontwikkeling van de technologie. De verspreiding van de technologie wordt echter zorgvuldig gecontroleerd, zoals dat met andere defensie-gerelateerde technologie ook gebeurt. Recent publiceerde de federale overheid een Framework for Artificial Intelligence Diffusion. Hierin krijgt de overheid meer bevoegdheden om de verspreiding van bepaalde AI-technologie (algoritmes en geavanceerde computerchips zoals die van NVIDIA) te controleren.

Tegelijkertijd wordt het gemakkelijker om AI-technologie te exporteren naar het buitenland. Zover zij de nationale veiligheid of de nationale belangen als onderdeel van de buitenlandse handelspolitiek, niet schaden. De voorgenomen overheidsprogramma’s zijn op dit moment open voor consultatie: bedrijven en organisaties kunnen hun input en reactie geven.

De VS leggen de nadruk op het “cultiveren van veilige ecosystemen voor de verantwoorden verspreiding van AI en geavanceerde computer-IC’s”. Zou dit meer veiligheid opleveren?

Open source voor een veilige AI

Een andere benadering voor het borgen van de veiligheid van AI zou ‘open source’ kunnen zijn: het volledig openbaren van de gebruikte algoritmes en methodieken. In de softwarewereld heeft open source zich al bewezen als een manier om de veiligheid en stabiliteit van computersystemen te verbeteren.

Wanneer de code openbaar is, kan iedereen inspringen om in te grijpen als een AI-systeem ontspoort. Hier ligt ook de analogie met de grootschalige uitbraak van een virus, een ‘levend’ wezen dat zich kan ontwikkelen (muteren) en net als AI van code kan ‘veranderen’ en zodoende kan ontsporen en een bedreiging kan vormen voor de veiligheid. Bij het ontwikkelen van bijvoorbeeld COVID-vaccins was het essentieel dat de genetische code van het virus onmiddellijk werd gedeeld. Alle onderzoeksgroepen deelden hun eigen bevindingen en wisselen kennis uit.

Bij de ontwikkeling van synthetische virussen en moleculen wordt dit principe eveneens toegepast, onder andere door pionier en goeroe Craig Venter. Zodra er een nieuw virus of molecuul op de markt wordt gebracht, wordt de genetische code eveneens gepubliceerd. Zo wordt iedereen in staat gesteld om een antivirus te ontwikkelen mocht het virus of molecuul ontsporen.

Op dit moment zijn er diverse open source Large Language Models (LLM) zoals LLaMA, Mistral, Valk en OLMo. Het ontwikkelen en trainen van AI-modellen is nog uiterst complex, duur en energie-intensief. Van het open delen van algoritmes en data profiteert iedereen nu nog.

De vraag is of dit in de toekomst zo zal blijven. Bedrijven willen hun ontwikkelingen graag beschermen met intellectuele eigendomsrechten en ze hebben de afgelopen decennia veel geïnvesteerd in het verkrijgen van data. Denk aan de enorme hoeveelheid gebruikersdata die Meta, Amazon en Google die hebben verzameld met hun apps en diensten. Die voorsprong willen ze niet kwijtraken maar omzetten in een voorsprong op het gebied van AI. Zeker nu AI de oude (advertentie gebaseerde) verdienmodellen onder druk zet. Bovendien hebben ze er dankzij open source een geduchte Chinese concurrent bijgekregen in de vorm van DeepSeek en daar zal het niet bij bijven.

Veilige AI by design

Met al deze belangen en de toegenomen geopolitiek, lijkt de discussie over een ingebouwde uitknop steeds verder op de achtergrond te raken. Is het wachten tot het een keer echt misgaat? De vraag is dan of we op dat moment nog zonder AI kunnen. Op een gegeven moment kun je tijdens het rijden de automatische piloot niet ineens uitzetten en de bestuurder alle verantwoordelijkheid teruggeven. Een van de scenario’s uit de vele Hollywoodfilms, die ons waarschuwden, kunnen werkelijkheid worden.

Laten we dus werk maken van veilige AI. Net zoals bij het werken met virussen en bij het borgen van privacy, zijn veilige systemen zodanig ontworpen dat zowel de werkwijze als de gebruikte technologie ingebouwde veiligheidsmaatregelen hebben. Iedereen die ermee werkt leert deze veilige handelingspraktijken en respecteert deze. Vanuit het overstijgende belang dat bij een systeemtechnologie als AI hoort.

 

Foto header Alex Gallegos on Unsplash

Maurits Kreijveld
futuroloog en strategisch adviseur bij Wisdomofthecrowd.nl

Maurits Kreijveld is futuroloog en strategisch adviseur. Hij onderzoekt en verbeeldt de impact van nieuwe technologieën op organisaties, individuen en de samenleving, en adviseert hierover. Hij is gespecialiseerd in digitale transformatie (platformeconomie, deeleconomie) en innovatie cocreatie. Met zijn boek ‘De plug&play;-organisatie. Handboek voor digitaal transformeren' en bijbehorende workshops en masterclasses helpt hij organisaties digitaal aanpassingsvermogen en wendbaarheid te krijgen. Eerder schreef Maurits 'De kracht van platformen' het eerste Nederlandse boek over de platformeconomie, en ‘Samen slimmer. Hoe de wisdom of crowds onze samenleving zal veranderen’ met toekomstbeelden over de zorg, innovatie en smart cities.

Categorie
Tags
ai,

Marketingfacts. Elke dag vers. Mis niks!