Auteur:
| 6 januari 2021
Je loopt langs een toezichthoudende camera, maar deze ziet jou niet. De camera is alleen gevoelig voor de gezichten van notoire misdadigers. Het is inmiddels een reële mogelijkheid. Maar willen we het ook? En hoe ontwikkel je slimme technologie zo eerlijk mogelijk? Om deze vragen te beantwoorden, experimenteert de Gemeente Amsterdam met slimme technologie in en rondom de Johan Cruijff ArenA.
Twee experts die betrokken zijn bij de experimenten met gezichtsherkenning zijn Jeroen van Rest, expert op het gebied van privacy en veiligheid bij het onderzoeksinstituut TNO, en Mark Wiebes, die verantwoordelijk is voor innovatie bij de Nationale Politie. Hun doel is om de technologie zo te ‘tweaken’ dat bepaalde vormen van misbruik onmogelijk worden gemaakt en de technologie minder privacy schendt.
Eerlijke gezichtsherkenning, het lijkt een contradictio in terminis. Toch is het mogelijk volgens de twee experts. We spreken elkaar via Zoom. Wiebes zit in zijn politie-uniform voor de webcam: “Ik wil weten of het mogelijk is om camera’s zo te maken dat ze alleen gevoelig zijn voor boeven op de Nationale Opsporingslijst. Als dat kan, werk ik aan de privacybescherming van alle anderen.”
Waarom voeren jullie deze experimenten uit rondom de Johan Cruijff ArenA?
Wiebes: “Als ik het gesprek over slimme gezichtsherkenning met mijn collega’s puur theoretisch en hypothetisch moet voeren dan ben ik ze na een paar minuten kwijt. De Johan Cruijff ArenA biedt ons een plek om slimme technologie te maken zodat we iets kunnen laten zien. Dan wordt het mogelijk om er een gesprek over te voeren.”
De experimenten zijn dus niet gericht op het veiliger maken van voetbalstadions?
Wiebes: “Ik moet vaak uitleggen dat het me inderdaad niet om het voetbal gaat. Sommige toepassingen zijn misschien zinvol bij evenementen, maar je moet je afvragen of geautomatiseerde gelaatsvergelijking wel in verhouding staat tot de risico’s van een voetbalwedstrijd. Dan ben ik een van de eersten die zegt van niet. Want 99 procent van de supporters komt gewoon voor een feestje. Het is onzin om die allemaal te scannen om die ene rotzak eruit te halen.”
“Het gaat mij erom dat we dingen kunnen maken en uitproberen in een reële situatie, om te zien of de technologie ook buiten het onderzoekslab werkt. Bij onze experimenten worden bovendien alleen acteurs gebruikt, die willens en wetens meedoen met het experiment. Burgers hoeven dus niet bang te zijn dat ze ongewild meedoen aan een experiment als ze langs de ArenA lopen.”
Van Rest: “In het verleden zijn er in de context van voetbal wel experimenten gedaan met gezichtsherkenning en een zwarte lijst. Bijvoorbeeld rondom het handhaven van stadionverboden. Maar vrij snel kwam een lichter alternatief in beeld: mensen met een stadionverbod moesten zich elders melden. Dat werkte net zo goed en vereiste niet het vastleggen van biometrische persoonsgegevens.”
Gezichtsherkenning
Gezichtsherkenning is een biometrische techniek die gebruikt kan worden als identificatiemethode. Door de eigenschappen van het gezicht te registreren kan worden bepaald of de persoon voldoet aan de eigenschappen die zijn opgeslagen. Gezichtsherkenning werkt dus altijd met twee datasets: live-opnames en geregistreerde opnames. Als je iemand in de live-opnames ziet die lijkt op iemand uit de geregistreerde opnames, dan noem je dat een HIT of een MATCH en kun je daar een actie aan koppelen.
Biometrische persoonsgegevens: specifieke gegevens over gedragskenmerken en fysiologische kenmerken van een persoon die de unieke identificatie van deze persoon mogelijk maken. Zoals je gezicht, maar ook stem, loopbeweging, vingerafdruk of DNA.
Onder mijn eerste artikel op NEMO Kennislink over dit thema reageerden lezers bezorgd. Ze vrezen dat we in een surveillancestaat terechtkomen.
Wiebes: “Vaak lijkt het alsof de politie aan de ene kant staat en vindt dat privacy moet wijken voor veiligheid. Dat vind ik dus helemaal niet. Toen ik politieman werd, moest ik een aantal dingen beloven. In essentie komt die belofte erop neer dat ik de burger en zijn veiligheid zal beschermen. Zaken zoals privacy horen daarbij. Mensen moeten zich onbespied kunnen bewegen in hun eigen stad. Ook dat is veiligheid.”
Een zorg is dat ook onschuldige mensen zich anders gaan gedragen omdat ze weten dat er slimme camera’s op straat hangen.
Wiebes: “Dat wordt het chilling effect genoemd. En ja, dat is een probleem. Als je denkt dat je bekeken wordt, dan ga je je anders gedragen. Ik heb daar niet per se een oplossing voor. Ik kan misschien wel uitrekenen dat het meevalt, dat wil niet zeggen dat iemand die beperking niet voelt.”
Van Rest: “Er is relatief weinig onderzoek gedaan naar het chilling effect. We kunnen er alleen over speculeren. Ik kan me voorstellen dat het effect kleiner wordt naarmate burgers meer praktijkervaring opdoen in het gebruiken en ondergaan van die technologie. Dan merken ze dat er geen consequenties zijn, of alleen passende of begrijpelijke consequenties.”
Is er überhaupt ooit sprake van een goede reden om gelaatsherkenning in te zetten?
Wiebes: “Die gelaatsvergelijkingstechnologieën worden al in allerlei toepassingen gebruikt, ook door organisaties die zich niet naar onze wet hoeven te voegen omdat ze bijvoorbeeld uit andere landen komen. Dus de technologie komt al op ons af. Dan kun je zeggen: ‘Ik zet een hek om mijn dorp heen en het gebeurt hier niet.’ Maar dat houd je niet vol. Vroeg of laat komt er een maatschappelijke druk, ook op de politie, om die technologie te gebruiken voor heel serieuze gevallen. Daarop voorbereidend vind ik dat we moeten nadenken over een toepassing van gezichtsherkenning die bij onze democratische rechtstaat past.”
Je zou ook kunnen zeggen: in een democratie is gewoon geen ruimte voor dit soort technologie.
Van Rest: “Ethiek gaat niet alleen over het beschermen van persoonsgegevens, maar ook over het pakken van heel gemene boeven. Stel dat een ander land wél de moeite neemt om die technologie te gebruiken en daarmee lukt het wel om een grote dreiging af te wenden. Hoe ethisch is onze positie dan? Misschien gaat ethiek zo ver dat we verplicht zijn om aan beide kanten van de munt te kijken en dat zorgvuldig te doen.”
Wiebes: “Ons doel is om een betere toepassing van gelaatsvergelijking te maken dan er nu is. Als er dan een moment komt waarop we er als politie niet onderuit komen om slimme gezichtsherkenning te gebruiken, dan kunnen we maar beter zorgen dat de technologie zo min mogelijk neveneffecten heeft.”
“De keerzijde is dat wij met onze goede bedoelingen misschien wel de drempel verlagen om die technologie te gebruiken. Dat is een dilemma. Zolang de technologie grof blijft gaan we die nooit gebruiken, en zodra je deze fijnzinniger maakt ga je het misschien wel doen. Mijn afweging is dat we er niet altijd aan kunnen ontkomen om het een keer toe te passen. En dan wil ik dat er zo min mogelijk schade is.”
Wat zou zo’n situatie zijn waarin je niet kunt ontkomen aan de inzet van gelaatsherkenning?
Wiebes: “Het is heel makkelijk om naar terrorisme of een andere grote dreiging te kijken, maar ik weet niet of dat nou zo relevant is. Ik wil het niet op die manier framen want dat is helemaal niet aan de orde op dit moment. Zo ligt het niet.”
“Stel dat iemand lelijk bedreigd wordt. In sommige situaties gaan we die persoon beveiligen door camera’s rondom zijn of haar woning te zetten. Die camera’s hebben ontzettend veel bijvangst. Als je camera’s zo kunt maken dat ze alleen gevoelig zijn voor het gezicht van degene waar we naar op zoek zijn, dan zou je de dataverzameling fors kunnen verminderen. Daar gaat dus aan vooraf dat je het ooit passend hebt gevonden om camera’s rond iemands huis te zetten.”
Sommige mensen hebben vanwege hun huidskleur meer kans om onterecht als crimineel te worden gekenmerkt. Houden jullie daar rekening mee bij de ontwikkeling van technologie?
Van Rest: “Het risico dat technologie oneerlijk uitpakt voor groepen met bepaalde kenmerken – zoals etniciteit, huidskleur, geslacht en leeftijd – is de laatste jaren stevig op de radar gekomen. Een groot Amerikaans onderzoek heeft bevestigd dat het risico reëel is. De positieve kant is dat het dus ook direct geagendeerd is. Er wordt nu gewerkt aan manieren om dat weer te verhelpen. Bijvoorbeeld door de datasets waarmee getraind wordt representatiever te maken voor de wereldbevolking.”
Wiebes: “Wij hebben bij de politie veel behoefte aan waardevrije data om onze modellen te trainen en te valideren. Die hebben we nu onvoldoende. We hebben al geïnvesteerd in manieren om huidige politiedata te anonimiseren zodat je die wel zou kunnen gebruiken. Maar daar kan alsnog een bias in zitten. Als wij in ons gedrag niet waardevrij zijn, dan gaat die dataset ook niet deugen.”
Zou technologie de pakkans ook eerlijker kunnen verdelen? Een flitspaal maakt geen onderscheid tussen een rode en een blauwe auto.
Wiebes: “Ik zou die verwachting niet overdrijven. Een flitspaal meet snelheidsovertredingen. Die zijn eenvoudig te objectiveren. Bij gelaatsherkenningstechnologie gaat het om minder harde gegevens. Er liggen keuzes aan ten grondslag, bijvoorbeeld welke gelaatseigenschappen we relevant vinden.”
Van Rest: “Je zou kunnen zeggen dat technologie uitgekristalliseerde kennis is, en niet veel meer dan dat. Door technologie krijgt die kennis een stelselmatigheid. Het voordeel is dat technologie nooit moe wordt en altijd op dezelfde manier werkt. Maar het doet het dus wel altijd. Ook in situaties waarin het misschien net even niet passend was. Ik denk niet dat het er per definitie eerlijker op wordt.”
Wiebes: “Weet je, misschien is het wel hartstikke eerlijk om iedereen op elk moment overal op alles te controleren. Maar dat is niet de maatschappij die ik beloofd heb te zullen dienen. Er staat niet bij elke misstap een grote boze agent om de hoek. Dat is niet onze samenleving, en dat is maar goed ook.”
Verder lezen
Update: op 21 januari 2021 verscheen een rapport over deze studie.
TNO, Van Rest, J. H. C., Attema, T., Timan, T., Den Hollander, R. J. M., & Van Voorthuijsen, G. P. (2021). Privacybescherming bij niet-coöperatieve gezichtsherkenning. https://publications.tno.nl/publication/34637744/KeoVNn/TNO-2021-R10090.pdf