Artikel

Verantwoordelijke Kunstmatige Intelligentie in de Praktijk

AI heeft op vele domeinen veel kansen gecreëerd voor innovatie. Echter, hierbij komen onverwachte en soms ongewenste gevolgen bij kijken. Algoritmen kunnen bijvoorbeeld discrimineren of leiden tot het oneerlijk behandelen van groepen mensen. Dit vraagt om een verantwoorde benadering van AI.

Flickr - Artificial Intelligence

AI heeft een schat aan kansen gecreëerd voor innovatie op vele domeinen. Echter, samen met deze kansen komen onverwachte en soms ongewenste gevolgen. Algoritmen kunnen bijvoorbeeld discrimineren of leiden tot oneerlijke behandeling van groepen mensen. Dit vraagt om een verantwoorde benadering van AI.

The ECAAI Responsible AI Lab

De noodzaak van een verantwoorde benadering van AI wordt wereldwijd erkend, zoals blijkt uit de vele manifesten en ethische richtlijnen die de afgelopen jaren zijn ontwikkeld. De Europese Unie roept bijvoorbeeld op tot betrouwbare AI en definieert een aantal belangrijke vereisten, zoals de behoefte aan menselijk handelen en toezicht, transparantie en verantwoordingsplicht. Maar wat betekent dit in de praktijk? Hoe kunnen mensen die betrouwbare AI willen creëren dat doen? Dat is de vraag die het onderzoek van het Responsible AI Lab van de Hogeschool van Amsterdam (HvA) aanstuurt. 

Het Responsible AI Lab is een van de zeven labs die zijn opgericht door het Expertise Centre of Applied AI (ECAAI). Het lab doet onderzoek naar toegepaste en verantwoorde AI die mensen sterker maakt en de samenleving ten goede komt, met een bijzondere focus op de creatieve industrie en het publieke domein.

AI in de context begrijpen

Verantwoordelijke AI betekent verschillende dingen voor verschillende mensen. Voor het Responsible AI Lab begint verantwoorde AI met het besef dat AI-systemen het leven van mensen op zowel verwachte als onverwachte manieren kan beïnvloeden. Dit geldt voor alle technologie, maar wat AI anders maakt, is dat een systeem de regels kan leren die zijn gedrag bepalen en dat dit gedrag in de loop van de tijd kan veranderen. Bovendien hebben veel AI-systemen een zekere mate van keuzevrijheid om zonder menselijke tussenkomst tot conclusies of acties te komen.

Om deze impact beter te begrijpen, moet men een AI-systeem in context en door middel van experimenten bestuderen. Naast inzicht in de technologie vereist dit ook inzicht in het toepassingsgebied en de betrokkenheid van de (toekomstige) gebruikers van de technologie.

AI is niet neutraal

Er is veel aandacht geweest voor vooringenomenheid, oneerlijkheid en discriminatie door AI-systemen, een recent voorbeeld is het probleem met gezichtsherkenning op Twitter en Zoom. Wat je hier ziet is dat data een afspiegeling is van de cultuur, inclusief vooroordelen, bewuste en onbewuste vooroordelen en machtsstructuren, en de AI pikt deze culturele vooroordelen op. Vooringenomenheid is dus een feit van het leven, niet alleen een artefact van een dataset.

Hetzelfde geldt voor een andere vorm van vooringenomenheid, of liever subjectiviteit, die van invloed is op de impact die een AI-systeem kan hebben: de vele beslissingen, groot en klein, die worden genomen in het ontwerp- en ontwikkelingsproces van een dergelijk systeem. Denk bijvoorbeeld aan een aanbevelingssysteem voor producten of diensten, zoals vluchten. De volgorde waarin de resultaten worden weergegeven, kan van invloed zijn op het aantal 'clicks' dat elk ontvangt en daarmee op de winst van de concurrerende leveranciers. Elke keuze die tijdens het ontwerpproces wordt gemaakt, heeft een effect, hoe klein ook. Idealiter reflecteren ontwerpers en ontwikkelaars tijdens de ontwikkeling op dergelijke keuzes. Dat is op zich al moeilijk genoeg, maar voor AI-systemen die een deel van hun gedrag leren van data, is dit nog uitdagender.

Tools for verantwoorde AI

Om verantwoorde AI-systemen te ontwikkelen die ons vertrouwen waard zijn, hebben beoefenaars hulpmiddelen nodig om:

  1. De reeds bestaande culturele vooroordelen die een systeem kan oppikken te begrijpen en ermee om te gaan
  2. Denkt na over en gaat om met de vooringenomenheid die in het ontwikkelingsproces is geïntroduceerd
  3. Anticipeert en beoordeelt de impact die een AI-systeem heeft tijdens de implementatie

Tools kunnen verschillende vormen aannemen. Denk aan verantwoorde algoritmen, zoals algoritmen die uitleg geven over de keuzes die een AI-systeem maakt of algoritmen die onder meer optimaliseren voor eerlijkheid om ervoor te zorgen dat de uitkomsten niet meer ten goede komen aan de ene groep mensen dan aan de andere. Tools kunnen ook de vorm aannemen van beoordelings- of audit-tools die AI-algoritmen testen op bepaalde vormen van vooringenomenheid. Dergelijke tools kunnen tijdens de ontwikkeling en implementatie worden gebruikt om te zien of eventuele wijzigingen aan het systeem ongewenste resultaten kunnen opleveren.

Beide soorten tools kunnen helpen bij het bereiken van verantwoorde AI, maar technologie alleen kan ons niet zo ver brengen bij het omgaan met vooroordelen. Aangezien vooringenomenheid een afspiegeling is van cultuur, is menselijk begrip nodig om weloverwogen keuzes te maken. Daarom omvatten verantwoorde AI-tools ook best practices, ontwerppatronen en in het bijzonder ontwerpmethodologieën. Deze variëren van co-creatie workshopformaat tot prototyping en checklists die helpen om de waarden te verduidelijken die nu in technologie zijn ingebed. Deze methodologieën helpen om kritisch na te denken over deze waarden en om AI te ontwerpen en te implementeren vanuit gewenste waarden, terwijl ze de eindgebruikers een stem geven tijdens de ontwikkeling en implementatie van AI-applicaties.

Verantwoorde AI onderzoek nu

Bij ECAAI, en met name in het Responsible AI Lab, doen ze onderzoek met mensen uit verschillende domeinen om alle drie soorten tools te ontwikkelen en te evalueren: verantwoorde AI-algoritmen, geautomatiseerde beoordelingstools en AI-ontwerpmethodologieën. Ze willen ervoor zorgen dat de AI om ons heen de AI is waarmee we willen leven. Zo ontwikkelen ze samen met de Nederlandse omroeporganisaties NPO en RTL en de Hogescholen Rotterdam en Utrecht ontwerptools voor pluriforme adviessystemen en voor inclusieve taalverwerking. Verder onderzoeken ze samen met de gemeente Amsterdam hoe ze inclusie en diversiteit in AI-systemen voor werving kunnen garanderen.

Bron: Wiggers, P. 2020. Responsible Artificial Intelligence in Practice, Amsterdam Data Science.

Vertaald door de redactie van openresearch.amsterdam.

Voor meer informatie over verantwoordelijke AI zie: 

Afbeelding credits

Header afbeelding: PIxabay - Technology AI

Icon afbeelding: Taken from https://www.smartcitiesworld.net/news/news/ai-algorithm-capable-of-multi-task-deep-learning-2419