Het Centrum voor Ethiek en Gezondheid (CEG) kwam gisteren met een rapport waarin het adviseert om op te passen met het toepassen van kunstmatige intelligentie in de zorg. Vaak is het nut van AI daar nog niet bewezen, zijn programma's niet breed toepasbaar of brengen ze de transparantie van zorgbeslissingen in gevaar.

Het CEG onderzocht de huidige stand van zaken met betrekking tot AI (artificial intelligence) in de zorg en bekeek mogelijke knelpunten, nu en in de toekomst. Allereerst merken de auteurs van het rapport op dat veel kunstmatige intelligentie op dit moment nog een belofte is en geen realiteit. Het bekendste voorbeeld van AI in de zorg is misschien wel IBM Watson for oncology, een slimme computer die kankeronderzoek doet. Maar het CEG constateert dat er geen enkel onafhankelijk onderzoek is naar de effectiviteit van de AI, laat staan dat de techniek ergens gebruikt wordt om kanker te diagnosticeren.

 

Van arts naar datawetenschapper

Er zijn wel voorbeelden van kunstmatige intelligentie die werkt in de zorg. Vaak richt die zich op één specifiek gebied van de zorg, zoals radiologie. Computers zijn in sommige gevallen beter in het interpreteren van foto's en scans dan artsen (lees 'Computer vindt kanker op videobeelden'), en het zou kunnen dat de taak van de radioloog in de toekomst verandert. Hij of zij wordt dan een datawetenschapper, die de informatie die de AI geeft interpreteert en vertaalt naar een advies voor de patiënt.

Maar zelfs dat soort systemen kennen ethische en praktische problemen. Ze zijn vaak zelflerend, waarbij ze met een aantal regels een dataset interpreteren en zo lessen leren, die ze later toepassen op nieuwe data. Als de trainingsdata een onbewuste vooringenomenheid had (de gegevens waren bijvoorbeeld afkomstig van relatief jonge mensen), zal dat gevolgen hebben voor de effectiviteit van de AI. Werkt het programma bij ouderen wel goed als het alleen jonge-mensen-data kent? Dergelijke vragen zijn nog niet beantwoord, aldus het CEG.

Het zelflerende aspect maakt de besluitvorming van kunstmatige intelligentie bovendien ondoorzichtig. Waar een arts precies kan uitleggen waarom hij denkt dat een patiënt een bepaalde aandoening heeft, of waarom een behandeling goed zou werken, kan een programma dat niet; het 'weet' immers niet hoe het bij een beslissing komt, alleen dat de programmatuur zegt dat dit de beste beslissing is.

 

Bekende bezwaren

In feite zijn de bezwaren van het CEG dezelfde die in het algemeen tegen toepassing van AI worden gebruikt. Onbewuste vooroordelen in gegevens en besluitvorming zijn onwenselijk in een heleboel vakgebieden, en de zorg is daar geen uitzondering op.

Wat dit betekent voor de toekomst van kunstmatige intelligentie in de zorg ligt aan de overheid. Die moet besluiten of ze het advies van het CEG (een samenwerkingsverband van de Gezondheidsraad en de Raad voor de Volksgezondheid en Zorg) aanneemt en beleid maakt om de ontwikkeling en toepassing van zorg-AI in goede banen te leiden.

Beeld: Brother UK

Vond je dit een interessant artikel, abonneer je dan gratis op onze wekelijkse nieuwsbrief.