Bedrijven zouden tijdelijk moeten stoppen met het trainen van de nieuwste grote taalmodellen, totdat duidelijk is hoe de veiligheid ervan kan worden gewaarborgd. Die oproep doet een groep wetenschappers, AI-deskundigen en ondernemers in een open brief die ze gisteren, 29 maart, publiceerden.

 

‘Een nieuwe technologie breed beschikbaar maken voor het publiek, dat doen we toch ook niet met kernenergie en genetische manipulatie? Ja, ik schaal AI – artificial intelligence – op hetzelfde risiconiveau in, van dingen die onze hele samenleving kunnen verstoren, kunnen disrupten.’

Aan het woord is de Nederlandse hoogleraar ethiek & technologie Jeroen van den Hoven van de TU Delft. Hij heeft de brief ondertekend ‘omdat het heel belangrijk is om even een denkpauze in te lassen op het onderwerp AI.’
 

Musk en Wozniak

De nieuwste AI-systemen, zoals ChatGPT, Bard en Bing Chat, komen nu qua vaardigheden in de buurt bij wat mensen kunnen en dat is reden om stevig op de rem te trappen. Dat schrijft een groep wetenschappers en ondernemers van naam in de open brief.

Onder hen bekende mensen als hoogleraar Stuart Russell, multi-ondernemer Elon Musk, Apple-medeoprichter Steve Wozniak en auteur Yuval Noah Harari.
 

Overspoeld

De laatste maanden worden we overspoeld door steeds nieuwe software op basis van AI, die steeds knappere dingen kan. Eind 2022 verraste ChatGPT veel mensen doordat het goed leesbare teksten produceert in allerlei vormen. Vliegensvlug brachten Google en Microsoft hun eigen chatbots uit.

Maar ook op grafisch gebied gaat het hard. Software zoals Dall-E en Midjourney produceert kunstwerken en andere synthetische beelden die soms prachtig zijn, maar die mensen ook voor de gek kunnen houden doordat ze bijvoorbeeld bekende mensen afbeelden in situaties die nooit hebben plaatsgevonden. Desinformatie en fake news zijn dan niet ver weg meer.

 

Kunstmatig schilderij gemaakt door DALL-E, geïnspireerd op Meisje met de parel van Vermeer. FOTO CC BY-SA 4.0

 

Zelfmoord

De opstellers van de open brief waarschuwen ervoor dat de nieuwste AI-hulpmiddelen ‘grote risico’s vormen voor de samenleving en de mensheid. […] Die ontwikkelaars van AI-systemen zitten vast in een race die uit de hand aan het lopen is. Zij ontwikkelen steeds krachtigere “digital minds” die niemand — zelfs hun scheppers niet — kan begrijpen, voorspellen of beheersen.’

Big Tech heeft voor de zoveelste keer iets bedacht dat onze verbeelding op hol doet slaan.

Van den Hoven zegt dat de enorme taalmodellen die OpenAI, Google en Microsoft hebben uitgebracht in de vorm van chatbots en zoekmachines, nu al schade aanrichten bij mensen. Hij wijst op een geval in België, waar een jonge man zelfmoord pleegde na urenlange gesprekken met een chatbot die hem daartoe aanzette.

‘Deze technologie is te ingrijpend en te heftig om zomaar breed te worden ingevoerd. We moeten ons ook goed realiseren dat achter al die artificial intelligence-software een enorme push zit van een paar bedrijven. Big Tech heeft voor de zoveelste keer iets bedacht dat onze verbeelding op hol doet slaan.’
 

Voor- en nadelen afwegen

Als nu overduidelijk was dat artificial intelligence bepaalde lastige problemen van de mensheid zou kunnen oplossen, dan zou Van den Hoven anders in de discussie zitten. ‘Stel dat duidelijk was dat GPT-4 of een van zijn opvolgers klimaatverandering zou kunnen oplossen, dan zou ik zeggen: oké, nu moeten we de voor- en nadelen tegen elkaar gaan afwegen. Maar dat uitzicht is er helemaal niet!’
 

'Zelf blijven nadenken’
Ook de kersverse Ingenieur van het Jaar Jacquelien Scherpen maakt zich zorgen ‘over het verkeerde gebruik van modellen en AI en het (foute) idee dat we dan zelf niet meer hoeven na te denken over de uitkomsten’, zei ze tegen De Ingenieur. ‘De ontwikkelingen gaan snel, maar genuanceerd gebruik van modellen en AI is een noodzaak. Uiteindelijk is een aantal problemen in ons land deels terug te brengen tot een overheid die vertrouwt op een uitkomst van een computersysteem waar niet voldoende kritisch naar wordt gekeken. Er wordt bij AI onvoldoende rekening gehouden met dat de uitkomst zo goed is als de kwaliteit van de data die erin is gestopt. Ook worden modellen soms gebruikt om stellige uitspraken te doen, maar als toegepast wiskundige weet ik dat er toch echt aannames worden gedaan; modellen zijn een vereenvoudiging van de werkelijkheid. We moeten ons beter bewust zijn van de start; welke informatie zit er in de data, is dit wel de juiste informatie, en welke aannames heb ik gedaan bij het modelleren? Oftewel, welke conclusies kan ik wel trekken en welke niet. We moeten echt zelf blijven nadenken.’

 

Kritiek

Kritiek op de open brief is er ook, vooral op social media. De opstellers zouden met hun taalgebruik te veel meegaan in de hype (met termen als ‘digital mind’, ‘digitaal verstand’) en de risico’s groter voorstellen dan ze op dit moment zijn.

‘Het gaat mij niet om de punten en komma’s in de tekst’, reageert Van den Hoven. ‘Het gaat erom dat een groep ervaren experts die er goed over hebben nagedacht een krachtig signaal afgeven. Je moet deze systemen niet loslaten op de maatschappij zonder enige vorm van controle.’
 

Wet uit Brussel

De EU heeft een wet in de maak die AI-producten indeelt in drie categorieën naar gelang het risico dat ze kunnen opleveren voor de gezondheid en veiligheid van mensen. Hoe hoger het risico van de software, hoe strenger de eisen die de EU zal opleggen aan de makers. Systemen die een onaanvaardbaar risico opleveren, zoals ‘social scoring’ door de overheid (bekend uit China) en realtime biometrische identificatiesystemen in openbare ruimte zullen worden verboden.

Het doel van de wet, waar ze in Brussel nog over discussiëren, is om aan de ene kant de ontwikkeling van AI voor het bedrijfsleven te stimuleren, terwijl de veiligheid voor gebruikers wel blijft gewaarborgd. Europa wil met de wet vooroplopen in de wereld. De Verenigde Staten, waar de meeste AI-technologie nu vandaan komt, heeft bedrijven die de technologie ontwikkelen tot nu toe niet gereguleerd, en het ziet er ook niet naar uit dat dat binnenkort zal gebeuren, schrijft The New York Times.
 

Zenuwachtig

Van den Hoven vindt het goed dat Europa wetgeving voor AI-producten ontwikkelt, maar denkt dat die in de huidige vorm zal tekortschieten. ‘Ik denk dat Brussel zenuwachtig kijkt naar de razendsnelle ontwikkelingen rond AI. Of de Europese wet tekortschiet om deze software te reguleren, is een vraag die je niet in een paar dagen kunt beantwoorden. Alleen al daarom lijkt een stop van een half jaar me een goed idee.’

 

Lees meer over dit onderwerp in onze analyse ‘Waarom de invoering van chatbots te snel gaat’.

 

Openingsfoto Shutterstock