Microsoft roept op tot regulering van software die gezichten kan herkennen. Recente voorbeelden van kwaadwillende toepassingen van gezichtsherkenning laten volgens de directeur van het bedrijf zien dat er grote risico's kleven aan het gebruik van gezichtsherkenning.

De oproep tot regulering van gezichtsherkenning komt van president en chief legal officer Brad Smith, vrijdag in een blog op de website van Microsoft. Het is opmerkelijk dat een Amerikaans softwarebedrijf vraagt om ingrijpen vanuit Washington DC. Veel techbedrijven uit Silicon Valley en omstreken geloven juist in zelfredzaamheid en willen zo min mogelijk overheidsbemoeienis.

 

Foto's sorteren en privacy slopen

Voor iets als gezichtsherkenning is die filosofie echter niet geschikt, aldus Smith. Volgens hem is technologie neutraal en heeft gezichtsherkenning veel goeds gebracht, maar steken recent minder positieve toepassingen de kop op. Camera's en sensoren worden beter, goedkoper en de zelflerende software in de camera's heeft steeds meer trainingsmateriaal.

Dezelfde algoritmen die ervoor zorgen dat foto's snel gesorteerd kunnen worden en je vrienden zijn te taggen op Facebook (een optie die in Europa verboden is), zorgt ook voor slechte dingen. Zo kunnen onschuldige burgers via beeldherkenning worden herkend en geregistreerd, en kunnen overheden of kwaadwillenden die mensen overal volgen. Privacy in de openbare ruimte wordt dan een illusie.

Smith ziet nu in dat die toekomst geen fantasie is maar een steeds realistischer werkelijkheid. Beroemdheden werden bij de recente Royal Wedding al automatisch herkend (lees: 'Gezichtsherkenning bij koninklijke bruiloft'). En algoritmen kunnen aan de vorm van het gezicht zelfs zien of iemand (waarschijnlijk) homoseksueel is of niet (les: 'Algoritme herkent homo aan gezicht').

 

Foute herkenning

Die techniek ontwikkelt zich dus, maar is nog verre van perfect. Bij een voetbalwedstrijd wilde de Britse politie bijvoorbeeld cameraherkenning gebruiken om hooligans uit het publiek te filteren. Maar het programma faalde volkomen; er waren teveel gezichten in de database gestopt. Daardoor noteerde het algoritme veel te veel mensen als bekende onruststoker. De politie had de fout door en greep niet in, maar in een andere situatie kan het makkelijk gebeuren dat onschuldige mensen last krijgen door slecht werkende algoritmen. Smith waarschuwt dan ook voor dat soort situaties.

Voor Microsoft zelf werd het gevaar van gezichtsherkenning afgelopen juni duidelijk. Er onstond ophef over een Microsoft-blog van januari, waarin iemand de mogelijkheid besprak om gezichtsherkenning te gebruiken bij de grensovergang tussen de VS en Mexico. Daarvoor zou het bedrijf dan samenwerken met de Immigration and Customs Enforcement (ICE), de organisatie die in juni kinderen van hun ouders bleek te scheiden. Hoewel Microsoft de plannen niet uitvoerde, realiseerde Smith zich wel wat voor onethische situaties er voort konden komen uit het toepassen van gezichtsherkenning.

 

Mens aan de knoppen

Wetten zijn de enige manier om dat soort toepassingen te voorkomen. Want als de sector zichzelf reguleert, zal er altijd wel één bedrijf zijn dat de onethische toepassingen wel wil verzorgen. Microsoft stelt bijvoorbeeld voor dat er altijd een mens moet zijn die gezichtsherkenning controleert, dat burgers de diensten die gezichtsherkenning gebruiken, moeten kunnen controleren (het systeem moet open zijn) en dat bedrijven of overheden duidelijk aangeven of een camera of locatie gezichtsherkenning gebruikt.

Overigens weet Smith dat de overheid niet alles kan oplossen. De techsector zelf moet vooringenomenheid te allen tijde uit zijn algoritmen proberen te houden. Dat is nu al niet het geval; algoritmen die misdaad voorspellen hebben vooroordelen, (lees: 'Big data vangt geen boeven') en dat zal voor gezichtsherkenning niet anders zijn. Ook maant Smith techbedrijven om terughoudend te zijn met het toepassen van technieken die nog onvolwassen zijn.

Beeld: PhotoMIX Ltd.

Vond je dit een interessant artikel, abonneer je dan gratis op onze wekelijkse nieuwsbrief.