Hoe kunnen ambtenaren begrijpelijk communiceren over het ontwerp, de adoptie en het gebruik van Kunstmatige Intelligentie om het voor burgers toegankelijker te maken daarin te participeren?

Door Lina Goelzer (Gemeente Amsterdam).

Een van de belangrijkste uitdagingen bij het normaliseren van burgerparticipatie in het ontwerp, de invoering en het gebruik van AI door de gemeente is dat het onderwerp voor veel burgers onbereikbaar blijft. Daardoor zijn ze vaak niet in staat om op een zinvolle manier te participeren over dit onderwerp.

In het voorjaar van 2023 hebben de gemeente Amsterdam en het Digital Rights House verkennend onderzoek gedaan naar het verband tussen algoritmische transparantie en burgerparticipatie. Door middel van een serie interviews en een enquête van de gemeente gaven veel burgers aan weinig tot niets te weten over algoritmes of over hoe de gemeente deze gebruikt. Dit gebrek aan kennis en bewustzijn werd genoemd als het belangrijkste obstakel om te participeren op het gebied van algoritmen. Meer specifiek gaven sommige respondenten op de enquête aan dat algoritmen moeilijk te begrijpen zijn en dat ze niet zouden weten waar ze moesten beginnen om ze te begrijpen. Verschillende respondenten stelden vragen over hoe algoritmen werken en hoe ze een besluitvormingsproces kunnen beïnvloeden. Ze vonden ook dat ze, omdat ze geen experts zijn, misschien geen goed onderbouwde input konden geven. Ook gaven sommige geïnterviewden aan dat ze zich niet gekwalificeerd of legitiem voelden om deel te nemen, vooral door een gebrek aan technische kennis.

In het Actieplan 2020 van de Amsterdamse Participatieve Aanpak wordt benadrukt hoe belangrijk het is dat burgers gelijke toegang hebben tot relevante en begrijpelijke informatie, zodat ze op een "gelijk speelveld" kunnen participeren. Voor, tijdens en na een participatieproces dragendegenen die AI ontwikkelen en gebruiken binnen de gemeente de verantwoordelijkheid om over hun projecten te communiceren op een manier die begrijpelijk is voor burgers. Dit sluit aan bij regel #4 van de Amsterdamse participatierichtlijnen: "we communiceren gedurende het hele project in begrijpelijke taal, afgestemd op de betrokkenen. "

De literatuur belicht ook het aantal barrières dat burgers ondervinden bij het participeren op het gebied van gemeentelijk gebruik van AI. Onderzoeker Kars Alfrink benadrukt in een onderzoek naar aanvechtbare camera-auto's de vaardigheden en kennis die nodig zijn om op "gelijke voet" te participeren, en het risico op ongelijke participatie tussen verschillende groepen. Volgens Silvana Fumega, directeur van de Global Data Barometer, "zijn hoger opgeleide en duurdere segmenten van de bevolking meer geneigd om mee te doen aan ICT-gestuurde interventies". Als zodanig is het begrijpelijk maken van het gebruik van AI voor alle burgers een belangrijk element in het streven naar inclusieve participatie.

De inspanningen om AI toegankelijker te maken voor burgerparticipatie is nauw verbonden met het concept van zinvolle transparantie van AI. In de literatuur over AI-governance moet transparantie verder gaan dan alleen het delen of publiceren van informatie; om zinvol te zijn moet transparantie bijdragen aan begrip en bruikbaar zijn. Met andere woorden, transparantie moet geen doel op zich zijn, maar eerder een middel om iets anders te doen. Alfrink et al stellen dat de informatie die via transparantiemaatregelen wordt gedeeld, burgers in staat moet stellen om de eerlijkheid van de besluitvorming van een algoritme tebeoordelen4 Algoritmische transparantie hangt ook af van het publiek, wat hun behoeften zijn en wat ze kunnen begrijpen. Goede transparantie is "flexibel", wat betekent dat het kan worden aangepast aan verschillende doelgroepen.Het mag het publiek ook niet overstelpen met onnodige informatie. "Ik denk dat je niet precies hoeft te begrijpen hoe een algoritme werkt, maar je moet begrijpen hoe het jouw situatie beïnvloedt," zei een ambtenaar die werd geïnterviewd in het 2023-onderzoek door Digital Rights House en Gemeente Amsterdam. In essentie vereist betekenisvolle transparantie over AI het aanpassen van informatie over AI en het gebruik ervan aan je doelgroep, zodat ze de juiste informatie krijgen die ze nodig hebben om te participeren.

Hoe kunnen ambtenaren op een begrijpelijke manier communiceren over het ontwerp, de toepassing en het gebruik van AI om het voor burgers toegankelijker te maken om te participeren?

Hoewel er geen universele oplossing bestaat, volgen hieronder enkele ideeën die zijn ontleend aan ervaringen met burgerparticipatie in de stad Amsterdam.

  • Maak het zo laagdrempelig mogelijk vanaf de wervingsfase voor deelnemers

Als je een participatiesessie met burgers organiseert, maak de beschrijving of uitnodiging dan zo eenvoudig en duidelijk mogelijk, en benadruk dat er geen technische kennis of expertise vereist is.

  • Bied bronnen om meer te weten te komen voor deelname

In sommige gevallen willen burgers meer leren over een onderwerp voor ze deelnemen. Dit kan hen ook helpen om een meer gelijke informatiepositie te verwerven. Pas echter op dat je deelnemers niet afschrikt met te veel "huiswerk".

  • Begin met definities

Als je je enquête, dialoog of andere participatiemethode begint met het duidelijk definiëren van belangrijke termen (bijv. AI of algoritmen), kan dat iedereen op één lijn helpen. Kies verstandig, want te veel definities kunnen overweldigend zijn. Toegepaste (in tegenstelling tot theoretische) definities kunnen het concept toegankelijker maken. Je kunt ook vergelijkingen gebruiken om een moeilijk concept te koppelen aan iets dat je deelnemers beter begrijpen.

  • Voorbeelden geven

Het kan helpen om voorbeelden te geven van hoe de gemeente AI al gebruikt om het concreter te maken en de verschillende manieren te laten zien waarop de technologie kan worden toegepast. Dit is gedaan in een onderzoek uit 2023 over "Burgerparticipatie bij het gebruik van algoritmen door de gemeente Amsterdam". Houd er wel rekening mee dat de voorbeelden die je kiest om te delen het perspectief van de deelnemers gedurende het proces kunnen vormen.

  • Focus op impact

Focus op de impact die een technologie heeft op burgers in plaats van op de technologie zelf. Deelnemers hoeven niet per se te weten hoe de technologie precies werkt, maar wel hoe het hen beïnvloedt.

  • Creëer scenario's

Scenario's kunnen deelnemers helpen zich voor te stellen hoe een technologie hen kan beïnvloeden en ook hoe ze zich zouden voelen over het gebruik van deze technologie in verschillende situaties. Je kunt scenario's gebruiken als geheugensteuntje, of je kunt scenario's samen met de deelnemers maken.

  • Maak het tastbaar

Als de technologie al bestaat, kun je deelnemers de kans geven om het te zien en vragen te stellen. Het Computer Vision-team van de gemeente bracht bijvoorbeeld een levensechte scanfiets mee naar de eerste sessie van het burgerpanel. Als het AI-systeem geen fysiek element heeft, kun je een virtuele demo geven.

  • Splits het op

Als de deelname een algoritme betreft, bijvoorbeeld met een risico op vooringenomenheid, splits het algoritme dan op in de gegevens die erin worden verwerkt en de variabelen waarmee het rekening houdt. Zoals het geval was bij het Slimme Check-algoritme, kunnen deelnemers zo gemakkelijker begrijpen en bespreken welke elementen een rol spelen bij de besluitvorming.

  • Focus niet op de AI

Als de AI wordt toegepast op een bestaand proces, richt je dan op het proces zelf, vooral als het iets is waar deelnemers bekend mee zijn. Vervolgens kun je bespreken hoe de technologie dat proces zou beïnvloeden.

Concluderend: de gepercipieerde complexiteit van AI maakt het nog belangrijker om over je projecten te communiceren op een manier die toegankelijk is voor burgers. Zelfs mensen zonder technische kennis moeten de impact van de technologie kunnen begrijpen en op een zinvolle manier kunnen participeren. Het conceptuele raamwerk van zinvolle transparantie over AI, samen met de praktische ervaringen van de participatie-inspanningen van de gemeente in het verleden, bieden waardevolle inzichten in het toegankelijker maken van AI-projecten voor burgerparticipatie.

 

Referenties

1. Alfrink, K., et al. Contestable Camera Cars: A Speculative Design Exploration of Public AI That Is Open and Responsive to Dispute. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (CHI '23), 23-28 april 2023, Hamburg, Duitsland.

2. Fumega, S. Burgerbetrokkenheid , inclusieve data en AI: enkele vragen die gesteld moeten worden. Kunstmatige intelligentie in de stad: Bouwen aan burgerbetrokkenheid en publiek vertrouwen. Centre for Interdisciplinary Research on Montréal, McGill University.

3. Challis, L. D. The Citizens' Strain to See Through Transparency: Exploring Reciprocity As an Alternative in the Smart City of Amsterdam. Universiteit Twente.

4. Alfrink, K., et al. Designing a Smart Electric Vehicle Charge Point for Algorithmic Transparency: Doing Harm by Doing Good?

 

 

 

Afbeelding credits

Icon afbeelding: Ontwerp / Design - door Joanna Kosinka via Unsplash