Ook zonder de huidige problemen uit het oog te verliezen is het mogelijk om al na te denken over risico's in de verre toekomst, bijvoorbeeld op het gebied van AI, stelt columnist Lode Lauwaert.


Het lijkt erop dat er een AI-oorlog heerst. Het ene kamp bestaat uit mensen uit voornamelijk de humane wetenschappen die focussen op zorgen rond bestaande AI-systemen: discriminatie, privacy, milieu, etc. In het andere kamp vinden we de tech-mensen en veel AI-wetenschappers die hun blik op de verdere toekomst hebben gericht. Die laatste groep maakt zich zorgen over de mogelijke risico’s van artificial general intelligence (AGI), ofwel slimme systemen die wellicht nog deze eeuw worden ontwikkeld en die mogelijk de meeste dingen zullen kunnen die ook mensen kunnen.

Volgens de humane wetenschappers moeten we uitsluitend focussen op de bestaande systemen en dus niet op AGI. Die stelling is eigenaardig. Neem atoomsplitsing. In het midden van de vorige eeuw werd nauwelijks nagedacht over de grootschalige onbedoelde gevolgen van die technologie. Het doembeeld van een ­nucleaire winter werd lange tijd niet serieus genomen, terwijl zeker in de Cubacrisis een kernoorlog nabij was. Zouden we vandaag nog steeds beweren dat we niet over de toekomst van atoomsplitsing moeten nadenken?

De Europese AI Act komt eraan

Een van de argumenten is dat de focus op toekomstige mogelijke problemen de aandacht wegneemt van bestaande problemen. Natuurlijk, die verdienen óók onze aandacht, maar toch snijdt het argument geen hout. Het is immers perfect mogelijk dat de internationale gemeenschap voorrang blijft geven aan de aanpak van bestaande systemen, terwijl tegelijk ook al wordt nagedacht over de toekomst.

Ten tweede: er circuleren vandaag tientallen niet-bindende ethische richtlijnen en de Europese AI Act komt eraan. Hoewel de AI-ethiek nog niet is uitgekristalliseerd, is wel duidelijk dat eerlijkheid en privacy prominent in die richtlijnen figureren en AGI niet. Als de bestaande issues (terecht) al goed verankerd zitten in deze documenten, hoe groot is dan het risico dat de focus op de toekomst de aandacht voor het heden in de weg zit?

Een ander terugkerend tegenargument is dat de focus op AGI berust op speculatie. Voor een deel is dat terecht: het gaat tenslotte om een heel nieuwe technologie. Maar van louter speculeren is geen sprake. Wereldwijd streven tientallen bedrijven naar de ontwikkeling van AGI en ze investeren er miljarden in. De rekenkracht van computers neemt toe en naar verwachting maken de klassieke, op chips draaiende machines op termijn plaats voor kwantumcomputers.

Hoe verantwoord is het dan dat ethici beweren dat we geen aandacht moeten besteden aan wat er binnen pakweg vijf decennia kan aankomen? Is dan wel vol te houden dat we louter mogen focussen op het probleem dat ChatGPT in mannelijke termen spreekt als we ‘ceo’ ­typen, terwijl we moeten zwijgen over AGI?

Het is onze plicht om de huidige problemen aan te pakken, maar ook om na te denken over de (verre) toekomst. Want wat als AGI in pakweg Noord-Korea of Rusland wordt ontwikkeld? Ik denk niet dat AGI de mensheid zal vernietigen, maar dat neemt niet weg dat er mogelijke andere catastrofes kunnen plaatsvinden. 

Stel dat ik ongelijk heb: de kans op vernietiging is toch niet nul. Beeld je eens in dat astronomen het erover eens zouden zijn dat de kans dat binnen vijftig jaar een asteroïde op de Aarde zal inslaan 0,05 procent is. Zouden wij er dan niet alles aan doen dat (proberen) te voorkomen? Of zouden we zeggen dat die voorspelling louter de belangen dient van enkele witte westerse wereldvreemde wetenschappers die in feite op zoek zijn naar onderzoeksgeld?


Tekst: Lode Lauwaert, hoogleraar techniek­filosofie aan de KU Leuven. Dit is zijn laatste column voor De Ingenieur.
Portret: Koen Broos