Robots en kunstmatige intelligentie kunnen op termijn de mensheid bedreigen. Dat geloven steeds meer AI-wetenschappers. Ook het Existential Risk Observatory, een Nederlandse non-profitorganisatie, trekt aan de bel.

 

Dit wordt geen vrolijk verhaal. Het gaat over computers die de wereld overnemen van mensen. Dat klinkt misschien als sciencefiction en het is nog lang niet zeker dát het zal gebeuren, maar verschillende nieuwe onderzoeksgroepen, zoals het Future of Humanity Institute in Oxford en het Center for the Study of Existential Risk in Cambridge, nemen deze mogelijkheid serieus.

Zo ook het Existential Risk Observatory, een Nederlandse non-profitorganisatie die existentiële risico’s in kaart brengt en er aandacht voor vraagt. Het gaat om risico’s waarbij het voortbestaan van de mensheid wordt bedreigd, zoals een kernoorlog, extreme klimaatverandering of pandemieën. Kunstmatig intelligentie, ofwel AI (artificial intelligence), valt daar ook onder, meent het Existential Risk Observatory.

Overdreven? De afgelopen jaren heeft het gebruik van AI laten zien dat het ook nadelen met zich meebrengt, zoals vooringenomenheid of zelfs discriminatie. De mensheid uitroeien is natuurlijk nog wel een paar graden heftiger.

 

Alleskunner

De kern van het probleem zit hem in wat unaligned artificial general intelligence (AGI) wordt genoemd. ‘Een AGI is een AI die in staat is om alle taken uit te voeren die mensen ook kunnen, en dan beter’, legt directeur Otto Barten van het Existential Risk Observatory uit. Hij is opgeleid als adviseur duurzame energie, maar toen hij besefte dat existentiële risico’s nog belangrijker zijn dan klimaat, richtte hij het Existential Risk Observatory op.

Een alleskunnende AI lijkt misschien verre toekomstmuziek, maar Barten wijst op een recente ontwikkeling van Google DeepMind. Dit bedrijf ontwikkelde het AI-model Gato, dat zeshonderd taken kan uitvoeren op het niveau van mensen. Van het schrijven van bijschriften bij foto’s tot het spelen van games en het stapelen van objecten met een robotarm.

De toevoeging 'unaligned' betekent dat de AI niet de belangen van de mensen dient, maar zijn eigen doel(en) heeft.. Als een AI enkel en alleen zijn eigen doelen nastreeft, én ook nog eens ‘slimmer’ is – hiermee wordt bedoeld ‘beter in het uitvoeren van cognitieve taken’ – dan is dat met recht reden tot zorg.

 

Paperclips

Een bekend voorbeeld van een doel dat een AI kan nastreven, is het maken van paperclips, zegt Barten. Dat klinkt als een onschuldige taak, maar wie doordenkt en zich realiseert dat een AI die alle taken beter kan dan mensen én rigide vasthoudt aan zijn opdracht, overál een paperclip van zal willen maken. ‘Dan probeert hij uiteindelijk mensen om te vormen tot paperclips.’

Iets dergelijks gebeurde al in Tom Poes en de namaker (1975) van Marten Toonder. Daarin braken robots de omgeving af om kopieën van zichzelf te maken, met chaos tot gevolg. Maar ook wanneer een AGI andere doelen meekrijgt, kan dat catastrofaal aflopen.
 

Dit artikel gaat verder in het septembernummer van De Ingenieur.

 

Tekst: Jim Heirbaut
Openingsbeeld: Depositphotos

 

 

MEER LEZEN OVER ANGST VOOR KUNSTMATIGE INTELLIGENTIE?

Dit is niet het hele artikel. Het hele verhaal is te lezen in het septembernummer van De Ingenieur. Koop de digitale versie voor € 7,50, of neem - met een flinke korting van 25 % - een digitaal jaarabonnement van twaalf nummers voor € 69,-.