Het is onaanvaardbaar dat door de opkomst van digitale systemen de rechten van met name vluchtelingen en migranten onder toenemende druk komen te staan. Dat stelt Dagmar Oudshoorn, directeur van Amnesty International Nederland, in deze bijdrage aan De Ingenieur.
 

Mensenrechten en digitale systemen: die combinatie is riskant wanneer het gaat om asiel en migratie. Wij zien dat digitale technologieën op zo’n manier worden ingezet, dat de mensenrechten van vluchtelingen en migranten erdoor worden geschonden. In toenemende mate en door steeds meer landen, zoals het rapport 'Defending the rights of refugees and migrants in the digital age' van Amnesty International signaleert. Dat is een zorgwekkende ontwikkeling. 

De Verenigde Staten, het Verenigd Koninkrijk en de Europese Unie passen aan de grenzen allerlei vormen van digitale technologie toe in hun asiel- en migratiesystemen. Ze hanteren datasoftware, algoritmen, bio­metrie en drones. Dit vergroot de kans op discriminatie, racisme en disproportionele en onwettige surveillance.

De technologieën dragen bij aan uitsluiting en verhinderen de bewegingsvrijheid van zwarte, islamitische en andere gediscrimineerde migranten, asielzoekers en vluchtelingen. Ze leiden tot grensbewakingssystemen die discrimineren op basis van ras, etniciteit, nationaliteit en burgerlijke staat. 

De EU heeft met een reeks technologieën haar grenzen zelfs virtueel uitgebreid naar het Middel­landse Zeegebied en doorreisgebieden in Afrika. Iedere beweging kan hier nu worden gevolgd. Ook surveilleert de EU met drones boven de Middel­landse Zee om vluchtelingen- en migrantenboten op te sporen. In samenwerking met de Libische autoriteiten probeert de EU zo te voorkomen dat die de Europese kusten bereiken.

Grensautoriteiten in de VS zetten onder andere het Intensive supervision appearance program (ISAP) in om uit detentie vrijgelaten migranten en asielzoekers te observeren. De Amerikaanse overheid gebruikt AI-gestuurde wachttorens langs de grens met Mexico. Daardoor neemt het risico op het profileren van zwarte, Latijns-Amerikaanse en andere geracialiseerde gemeen­schappen toe.

Aan de andere kant van de oceaan gebruikt het VK verplichte elektronische enkelbanden. Hiermee worden alle buitenlanders gevolgd die dreigen te worden uitgezet. Daarnaast ligt er een voorstel voor gezichtsherkenning via smartwatches. 

AI-systemen die menselijke emoties herkennen, en geautomatiseerde risico- en profileringssystemen moeten worden verboden

En hier blijft het niet bij. In Hongarije, Griekenland en Letland is een door de EU gefinancierd geautomatiseerd grensbewakingssysteem getest, dat met AI-‘leugendetectie’ mensen ondervraagt die de grens willen oversteken.

Het systeem analyseert de kleinste details van gelaatsuitdrukkingen via gezichts- en emotieherkennings­technologieën. Wie volgens het systeem de vragen eerlijk beantwoordt, krijgt een code om de grens over te steken. 

Ondertussen voeren België, Oosten­rijk, Duitsland, Denemarken, Noorwegen en het VK steeds meer wetten in die inbeslag­name van telefoons van asielzoekers mogelijk maken. Zo kan worden gecheckt of wat mensen tijdens hun asielprocedure vertellen, overeenkomt met de mobiele telefoongegevens. Als dit tot onduidelijkheden leidt, kan dat gevolgen hebben voor hun asielaanvraag.

Bij de inrichting van migratie- en asielmanagementsystemen is vanaf de basis ruimte voor racisme en vooroordelen. Dit is in strijd met de mensen­rechten en het recht op non-discriminatie.

Amnesty International vindt dat staten geen technologieën moeten gebruiken die in strijd zijn met de mensenrechten. Voorspellende technologieën die een onrechtmatige bedreiging vormen voor het recht op asiel, moeten worden verboden.

AI-systemen die menselijke emoties herkennen, en geautomatiseerde risico- en profileringssystemen mogen niet meer worden ingezet. Digitale technologie zet het recht op asiel wereldwijd zwaar onder druk. Dat mensenrechten hierdoor in het geding komen, is onacceptabel. 


Tekst: Dagmar Oudshoorn, directeur van Amnesty International Nederland
Beeld: Image by Comuzi / © BBC / Better Images of AI / Surveillance View B / CC-BY 4.0