Gesprekken met een getrainde chatbot kunnen het geloof in complottheorieën verminderen. Dat laten onderzoekers in de VS zien.

 

Kent u mensen die geloven dat de aarde plat is? Of dat er een geheime wereldwijde elite stiekem aan de touwtjes van de regeringsleiders trekt? Dit zijn twee voorbeelden van samenzweringstheorieën, verhalen die niet op waarheid zijn gebaseerd, maar waarin sommige mensen toch geloven.

Het beeld is dat internet en sociale media de invloed van complottheorieën hebben vergroot. Het is immers veel eenvoudiger geworden om dergelijke verhalen door te vertellen; een klik op de ‘Deel’- of ‘Like’-knop volstaat. Voor je het weet gaat zo’n onzinverhaal viraal.
 

Chatbots

Nu is er onverwacht nieuws over dit soort theorieën. Het lijkt erop dat chatbots bij een deel van de mensen een complottheorie uit het hoofd kunnen praten.

Wetenschappers van drie verschillende universiteiten in de Verenigde Staten verzamelden meer dan tweeduizend proefpersonen die aangaven in een complottheorie te geloven en lieten hen met een speciaal geprepareerde ‘debunkbot’ ‘praten’. Ze laten zien dat een kort, gepersonaliseerd gesprek met zo’n chatbot bij 20 procent van de mensen het geloof in de misinformatie doet afnemen. En dit effect bleef twee maanden na het gesprek aanwezig.
 

Verschillende complottheorieën

De aanpak werkt bij een brede verzameling verschillende complottheorieën. De onderzoekers van het Massachusetts Institute of Technology bij Boston, American University in Washington, D.C. en Cornell University in Ithaca schreven hier vorige week over (open access) in het wetenschappelijke tijdschrift Science.
 

Veel tegenargumenten paraat

Dit klinkt als een geweldig resultaat, want vrienden of familie lukt het vaak niet om hardnekkige misinformatie bij iemand uit het hoofd te praten. Het grootste verschil is dat een chatbot, of eigenlijk het large language model dat erachter zit, heel veel tegenargumenten paraat heeft om de samenzweringstheorie te ontkrachten. Waar een mens nog wel eens met zijn of haar mond vol tanden staat, zal de chatbot gewoon het volgende tegenargument aandragen. En dat ook nog eens droogjes en zonder emotie, iets waarvan mensen wel gauw last hebben en waardoor een complottheorie-aanhanger vermoedelijk juist de hakken in het zand zal zetten.

De resultaten van het onderzoek gaan in tegen het wijdverbreide geloof dat het lastig tot onmogelijk is om met rationele argumenten iemand ervan te overtuigen dat een samenzweringstheorie onzin is. Dit werk ‘laat zien dat het mogelijk is om zelfs diepgewortelde opvattingen te weerleggen met voldoende overtuigend bewijs’, schrijven collega-onderzoekers Bence Bago en Jean-François Bonnefon in een begeleidend Perspectives-artikel in Science (eveneens gratis te lezen).
 

Foto: Depositphotos


 

Niet moe of emotioneel

De chatbot kan beschikken over meer informatie dan een mens, schrijven ze. ‘Deze taalmodellen kunnen putten uit een enorme hoeveelheid informatie over verschillende onderwerpen en kunnen steeds tegenargumenten op maat maken voor specifieke complottheorieën en argumentaties.’ Een chatbot wordt ook niet moe of emotioneel.
 

Desinformatie en misinformatie tegengaan

Dit bijzondere onderzoek zet de deur open naar een gestructureerde manier om desinformatie en misinformatie op het gebied van bijvoorbeeld klimaatverandering, gezondheidsmythen of pseudowetenschap te bestrijden, denken de auteurs. Namelijk met getrainde chatbots die op een geduldige manier het gesprek aangaan met de complottheorieaanhanger.

Zwak puntje van deze aanpak: daar moet die persoon dan wel net zin in hebben. Je kan iemand niet dwingen om met een chatbot in conclaaf te gaan. De proefpersonen uit de studie deden vrijwillig mee aan het onderzoek. Dat zou trouwens ook kunnen hebben geleid tot een bias, een vertekening, in de resultaten: mogelijk stond deze groep complottheorie-gelovers er relatief open voor om hun overtuigingen bij te stellen.
 

Kwaadwillenden

En dan nog iets. Als het inderdaad zo is dat chatbots een geschikte manier zijn om de overtuigingen van mensen te veranderen, dan kunnen kwaadwillenden daar ook hun voordeel mee doen. Anders gezegd: het gebruik van chatbots zou complotdenken zelfs in de hand kunnen werken, zegt de Rotterdamse hoogleraar cognitieve psychologie Rolf Zwaan tegen NRC.

‘ChatGPT is erg goed in het leggen van verbanden en het vinden van zulke, meestal vermeende verbanden is nu precies wat complotdenkers kenmerkt.’ Zwaan vermoedt dat chatbots nog veel geschikter zijn om mensen te overtuigen van een complottheorie dan om ze er vanaf te krijgen. ‘Mensen zijn op zoek naar verbanden, en ChatGPT vindt die voor ze.’ Meer onderzoek is dus hard nodig.

 

Openingsbeeld: artistieke weergave van een large language model dat taal genereert. Illustratie: Wes Cockx & Google DeepMind / Better Images of AI / AI large language models / CC-BY 4.0

Vond je dit een interessant artikel, abonneer je dan gratis op onze wekelijkse nieuwsbrief.