column

Wie ‘intelligentie’ bouwt, moet zich wel afvragen wat dat eigenlijk is, stelt columnist Felienne Hermans.
 

Hollywood wacht er al honderd jaar op, maar nu komen ze toch echt: de robotten. Althans, als we een aantal grote namen uit de informatica mogen geloven. Ze denken dat we aan de vooravond staan van artificial general intelligence (AGI).

Dat general is van belang. Waar we vroeger AI hadden op een bepaald gebied – schaken, Go, beeldherkenning – zetten we nu met GPT bijvoorbeeld stappen richting een algemeen algoritme dat een gesprekje met je kan voeren, feiten kan opzoeken en zelfs lijkt te kunnen denken.

Maar kunnen machines wel denken? De programmeursgemeenschap blijkt zich de afgelopen jaren nauwelijks te hebben voorbereid op die filosofische kwestie. Wie op een technische universiteit rondloopt – zoals ik zestien jaar gedaan heb – leert eigenlijk maar één manier van denken, die ik gekscherend de ‘Bob de Bouwer’-mentaliteit noem. De vraag luidt: ‘Kunnen we het maken?’ en het antwoord is: ‘Ja kijk maar, het staat daar.’ Of een enkele keer: ‘Nee helaas, het lukt niet.’

Soms komt de vraag ‘Willen we dit maken?’ nog even ter sprake, maar in de IT is daarop ook meestal het antwoord ‘ja’. Dat past bij een gemeenschap waarin de Von Neumann-prijs wordt uitgereikt, genoemd naar iemand die via het Manhattanproject actief heeft bijgedragen aan honderdduizenden burgerdoden.

Kan een machine denken? Daarvoor moet je het eerst over denken eens zijn

Over ‘Wat zijn we nu eigenlijk precies aan het maken?’ hebben we het eigenlijk nooit. En misschien is dat ook niet nodig als je een zonneauto bouwt of een stormparaplu, maar als je ‘intelligentie’ bouwt, moet je je wel eerst afvragen wat dat eigenlijk is. 

Kan een machine denken? Daarvoor moet je het eerst over denken eens zijn. En denken is volgens mij iets dat mensen doen. Hiervoor zijn een aantal argumenten in te brengen. Eentje is het Chinese kamer-argument. Bij dat gedachte-experiment worden we uitgenodigd ons voor te stellen dat iemand op de een of andere manier een slim algoritme (bijvoorbeeld GPT) heeft uitgeprint, en een mens het uitvoert in een taal die hij niet machtig is (bijvoorbeeld Chinees). Deze persoon voert alleen maar stap voor stap het algoritme uit en communiceert in het Chinees.

Snapt deze persoon nu Chinees? De meeste mensen zullen denken van niet. Als dat zo is, dan volgt logischerwijs ook dat GPT geen Chinees ‘snapt’.

Een ander argument is wat ik het marathon-argument noem. Machines kunnen veel sneller dan een mens 42.195 meter afleggen. Maar ze doen niet mee aan de marathon en dat die machines bestaan weerhoudt werkelijk niemand van het zelf lopen van een marathon. Sterker nog, het zelf afleggen gaat niet over de afstand zelf, maar over het kunnen doen, als mens. Zo ook is het irrelevant of een computer de afstand tussen een vraag en een antwoord sneller of beter kan afleggen dan ik, het proces is wat ertoe doet.

Afgelopen week maakte OpenAI bekend dat ze het probleem van AI alignment (het afstemmen van AI op menselijke normen en waarden, red), gaan aanpakken in de komende vier jaar, met 20 procent van hun processing power. Zoek je op wie er gaat werken in het team, dan zijn dat allemaal gelijkvormige mensen: allemaal engineers, geen filosofen, ethici of sociologen. 

Kunnen ze dat maken? Helaas wel.


Felienne ­Hermans is als hoogleraar Computer Science Education verbonden aan de Vrije Universiteit in Amsterdam
Portret: Erik van 't Woud

Vond je dit een interessant artikel, abonneer je dan gratis op onze wekelijkse nieuwsbrief.