Wetenschappers lanceren in een open brief een onderzoekagenda die is gericht op maatschappelijk verantwoord gebruik van kunstmatige intelligentie.



De open brief Research priorities for robust en beneficial artificial intelligence spreekt uit dat de verdere ontwikkeling van kunstmatige intelligentie de mensheid veel voordeel kan bieden, mits tegelijkertijd mogelijke nadelen worden voorkomen. Het bijgevoegd document noemt een reeks van onderwerpen voor onderzoek die daartoe moeten bijdragen.

De open brief is een initiatief van het Amerikaanse Future of Life Institute dat vorig jaar is opgericht om de mogelijke risico’s van kunstmatige intelligentie te weerstaan.  De stichters zijn Max Tegmark, hoogleraar natuurkunde aan het Massachusetts Institute of Technolog en Jaan Tallion, medeoprichter van Skype. Onder andere wetenschapper Stephan Hawking en ondernemer Elon Musk zijn aan het instituut verbonden. De tekst van het document is geschreven door Stuart Russel, hoogleraar computerwetenschappen aan de University of California, y, Daniel Dewey van het Oxford Martin Programma on the Impacts of Future Technology  en Max Tegmark. Inmiddels hebben vele duizenden de open brief ondertekend.



Het document signaleert dat er de laatste jaren vorderingen zijn gemaakt, die de vooruitgang van kunstmatige intelligentie een enorme boost geven. Dat betreft onder meer de herkenning van spraak, beeld en patronen, de zelfsturende systemen, vertaalmachines, lopende robots en vraag-antwoordsystemen. ‘Gezien het grote potentieel van kunstmatige intelligentie is het alleszins de moeite waard om te onderzoeken hoe daar de voordelen uit te halen en tegelijkertijd mogelijke nadelen te ondervangen.’

Het document noemt diverse voorbeelden van ontwerpdilemma’s. Hoe moet een zelfsturende auto een afweging maken tussen een kleine kans op het verwonden van een mens en een grote kans op flinke materiële kosten? Wat houdt menselijke controle in bij het gebruik van killerdrones? Hoe maximaal het economisch effect van kunstmatige intelligentie te benutten zonder dat dit leidt tot grotere ongelijkheid of massawerkloosheid?

De meest pagina’s in het document gaan over onderzoek om kunstmatige intelligentie robuust te maken. Genoemd worden:

+ verificatie: hoe te bewijzen dat het systeem goed is gebouwd?

Vooral voor lerende systemen is dit lastig, want die veranderen voortdurend, breiden zich uit en verbeteren zichzelf

+ validatie: hoe ervoor te zorgen dat het systeem voldoet aan de functionele eisen en geen ongewenst gedrag of gevolgen vertoont?

Het formuleren van die functionele eisen is lang niet altijd eenvoudig. Neem een stofzuigrobot. Als die wordt gevraagd zo veel mogelijk stof weg te halen, dan kan de robot daaraan voldoen door zijn stofzak op de vloer leeg te gooien en weer op te zuigen. De eis moet dus zijn: zorg voor een stofvrije vloer. Het is ook niet eenvoudig te specificeren waar gewenst gedrag van een intelligent systeem uit moet bestaan.

+ veiligheid: hoe ongewenste manipulatie van het systeem voorkomen?

Er zijn bijvoorbeeld software-agents nodig die inzicht verschaffen in het betrouwbaar functioneren van het systeem en mogelijke hacks kunnen doorzien.

+ controle: hoe te zorgen dat er betekenisvolle menselijke controle mogelijk blijft wanneer het systeem eenmaal begint te functioneren.
 

Wanneer een systeem erop is gebouwd dat het ongestoord zijn taak verricht, is het dan nog mogelijk om het te deactiveren, of ingrijpend te veranderen? Hoe systemen corrigeerbaar te maken?


Het doel van de open brief is dat dit type onderwerpen een duidelijke plek krijgen in de research-agenda van kunstmatige intelligentie.

Download het document Research priorities for robust en beneficial artificial intelligence

futureoflife.org/misc/open_letter