China zoekt geautomatiseerd bepaalde bevolkingsgroepen
China heeft talloze camerasystemen geïnstalleerd die, met behulp van software voor gezichtsherkenning, mensen van bepaalde bevolkingsgroepen herkennen. De centrale overheid is vooral op zoek naar Oeigoeren, een moslimminderheid uit het westen van het grote land. Dat meldt de New York Times op basis van uitgebreid onderzoek.
Waar software voor gezichtsherkenning soms op een indirecte manier racistisch is (of seksistisch), tilt China deze onfrisse vorm van racial profiling naar een heel ander niveau. Het land installeert op grote schaal bewakingscamera’s – inclusief analysesoftware – die Oeigoeren moeten herkennen op basis van de kenmerken in hun gezichten. Die gegevens komen vervolgens beschikbaar voor politie en justitie.
Miljardenbedrijven
De New York Times sprak met meerdere mensen die betrokken zijn bij het toepassen van de gezichtsherkenning voor racial profiling. In China ontwikkelen verschillende bedrijven software voor gezichtsherkenning en veel ervan zijn al uitgegroeid tot miljardenbedrijven. Dat is mogelijk doordat de Chinese overheid kwistig strooit met opdrachten hiervoor.
Meer dan twintig politiekorpsen verspreid over heel China gaan gebruikmaken van dit soort software, zo blijkt uit inkoopdocumenten die de New York Times heeft ingezien. Die software bevat de functie om van een gezicht dat op camerabeeld is vastgelegd, te bepalen of het van een Oeigoer of een niet-Oeigoer is.
Alarm slaan
Op deze manier wil de Chinese overheid met camera’s op straat in de gaten houden hoe Oeigoeren zich door het land verplaatsen. Zo wordt een van de systemen aangeprezen in een folder, die er geen doekjes om windt: ‘Als in een buurt eerst één enkele Oeigoer woont, en binnen drie weken komen er zes Oeigoeren meer wonen, dan slaat het systeem alarm bij de politie. Die kan dan reageren, de mensen ondervragen en een noodplan opstellen.’
Heropvoedingskampen
De Oeigoeren zijn een moslimminderheid in het westen van China. De meeste van deze circa 11 miljoen mensen wonen in de regio Xinjiang. Sommige Oeigoeren willen graag een onafhankelijke eigen staat, net als veel Tibetanen. China laat hier geen enkele ruimte voor en heeft honderdduizenden Oeigoeren in ‘heropvoedingskampen’ ondergebracht.
Xinjiang is rijk aan olie en andere bronnen, dus China peinst er niet over om het gebied op te geven. De Oeigoeren voelen zich achtergesteld bij de rest van China en af en toe breken onlusten uit. Er zijn ook al terroristische aanslagen geweest die worden toegeschreven aan Oeigoeren. De regering van China probeert dan ook haar greep op deze bevolkingsgroep te verstevigen vanuit het argument dat het extremisme te lijf wil gaan.
'Gevoelige groepen mensen'
Hoewel de betrokken politiekorpsen en techbedrijven soms spreken van ‘identificatie van minderheden’ blijkt dit een eufemisme te zijn voor ‘identificatie van Oeigoeren’, dus één enkele bevolkingsgroep. Een andere term die populair is in de folders van de bedrijven is ‘het herkennen van gevoelige groepen mensen.’
Oeigoeren hebben uiterlijke kenmerken die behoorlijk afwijken van de Han-Chinezen (de gemiddelde Oeigoer lijkt meer op andere bewoners van Centraal-Azië) en dit stelt software in staat om ze te herkennen.
Toegang tot je laptop
Gezichtsherkenning is als techniek in opkomst, omdat hij handig kan zijn, bijvoorbeeld om je toegang te geven tot je laptop of mobiele telefoon. Ook voor winkels opent het automatisch herkennen van de eigenschappen van een gezicht nieuwe mogelijkheden; lees: ‘Camera herkent emoties bij winkelend publiek’.
Problemen
Maar gezichtsherkenning brengt ook tal van problemen met zich mee. Om te beginnen is de technologie verre van geperfectioneerd; hij maakt nog vaak fouten. Ten tweede kan de software nog zo goed functioneren, er kunnen ongewenste vooroordelen (bias) ingebakken zitten in de code. Onlangs nog riepen wetenschappers Amazon op om te stoppen met de verkoop van een module voor gezichtsherkenning, omdat die bij mensen met een donkere huidskleur veel te vaak in de fout gaat.
Dit zijn allemaal echte problemen – die dus moeten worden opgelost – maar wat China doet lijkt nog een stap verder te gaan. Het land zet als eerste gezichtsherkennings-software in voor raciale profilering. ‘Het automatiseren van racisme’, noemt de New York Times het, waar je ethisch gezien verre van zou moeten blijven.
Dit nieuws over het etnisch profileren van een bevolkingsgroep staat niet op zichzelf. Het was al bekend dat China databases heeft aangelegd met de gezichten van criminelen, drugsgebruikers en mensen met een geestesziekte.
'Bedreiging voor de democratie'
Wie denkt dat deze ontwikkeling alleen een probleem is voor China, heeft het mis. De technologiebedrijven die de gezichtsherkenning ontwikkelen, hebben plannen om uit te breiden buiten hun thuisland China. Met zo’n stap zou de technologie gemakkelijk in handen kunnen komen van andere overheden, zegt de kunstmatige intelligentie-expert Jonathan Frankle van het Massachusetts Institute of Technology in de New York Times. ‘Dit is een existentiële bedreiging voor de democratie. Zodra een land dit soort technologie gaat gebruiken, dan legt het gedachten en regels op aan zijn bevolking op een veel meer ingrijpende manier dan de Sovjetunie in de jaren zeventig van de vorige eeuw deed. Zo beschouwd is dit een urgente crisis waar we al slaapwandelend in dreigen terecht te komen.’
Openingsfoto: een voorbeeld van gezichtsherkenning voor positieve doeleinden. In een winkel in de stad Chengdu laat een klant zijn gezicht scannen door gezichtsherkenning van Alipay, het betaalsysteem van online winkel Alibaba. Foto depositphotos.com.