-
Artikel
Oratie Oneindigheid, caleidoscopie en samenleving: over reflecties van AI
Op 15 december 2023 hield Sennay Gherbreab, hoogleraar Socially Intelligent AI., zijn oratie 'Infinity, Kaleidoscopy and Society: On reflections of AI.' De wereld wendt zich steeds meer tot ‘AI Safety’ onderzoek en -beleid om verantwoordelijke ontwikkeling en toepassing van AI te waarborgen. Een belangrijke kwestie op het gebied van AI Safety is het waardenvraagstuk: het op één lijn krijgen van ‘machine values’ en ‘human values’, vertelt prof. dr. Sennay Ghebreab in zijn oratie. Hieronder vindt u de link om de oratie terug te kijken of te lezen.
Het fundamentele probleem is volgens Ghebreab dat AI onwenselijke en tegenstrijdige menselijke waarden erft. Hierdoor kan AI schade berokkenen ondanks, en soms zelfs juist vanwege, het op elkaar afstemmen van menselijke- en machinewaarden. Om ervoor te zorgen dat AI ten goede komt aan de samenleving is volgens Ghebreab een verschuiving nodig van mens-machine afstemming, naar mens-mens afstemming met behulp van AI. Dit is de enige weg uit de huidige ongezonde ‘catch-22’ relatie tussen de samenleving en AI.
Er zijn veel metaforen gebruikt om AI te omschrijven, maar volgens Ghebreab springt de glazen spiegel er uit als één van de meest overtuigende en veelzeggende, vanwege de diepgaande technologische, filosofische en sociale associaties die er door de eeuwen heen omheen zijn geëvolueerd. Net als de glazen spiegel heeft AI de potentie om samenleving ten goede te veranderen, naar verloop van tijd en ruimte. Dit potentieel loopt echter het risico onvervuld te blijven omdat AI momenteel wordt ontwikkeld en ingezet binnen zelfzuchtige en zichzelf in stand houdende samenlevingen, gedreven door de ‘ethics of the market’.
We moeten, betoogt Ghebreab, de moed hebben om buiten de gebaande paden te denken en een perspectief op AI aannemen dat de nadruk legt op inclusieve betrokkenheid bij de planeet en haar rijke diversiteit aan mensen, culturen en waarden. Hierbij moeten mens-mens waardenafstemming dan voorrang krijgen boven mens-machine waardenafstemming. Als dat lukt, is een alternatieve route naar meer zelfkritische en zelfbewuste samenlevingen, gebaseerd op de ‘ethics of life’, mogelijk. -
Artikel
How Can AI Help Tackle Health Inequality?
-
Artikel
Link recommendation algorithms and opinion polarization
-
Artikel
How to account for automated decision systems in the public domain?
-
Artikel
How can Explainable AI Help Tackle Black Box Vision in Urban Analytics?
-
Artikel
Do you speak my AI language?
What do we need to speak the common AI language? An overarching approach to inclusive, highly consultative impact assessments, where public values, human rights, democracy, and security considerations are properly weighted and fully respected.
-
Artikel
How Can AI Help Tackle Mobility Poverty?
-
Artikel
Video: Opening Civic AI Lab
De Universiteit van Amsterdam, de Vrije Universiteit, de Gemeente Amsterdam en het ministerie van Binnenlandse Zaken en Koninkrijksrelaties kondigen de aftrap aan van een gezamenlijk ICAI onderzoekslab op het gebied van Kunstmatige Intelligentie voor publieke waarden, het Civic AI Lab.
Dit online evenement wordt live gestreamd vanuit het hart van Amsterdam in de A’DAM Toren op internationale mensenrechtendag, 10 december, 16:00-17:00 CET. Het is een kans om meer te weten te komen over de onderzoeks- en maatschappelijke doelstellingen van het lab voor de stad Amsterdam en daarbuiten.
Het programma bevat een academische keynote door Ruha Benjamin van Princeton University, een reflectie door Sigrid Johannisse van de Ambassade van het Koninkrijk der Nederlanden in de VS, een overzicht van Civic AI Lab en de officiële opening door Touria Meliani (locoburgemeester, gemeente Amsterdam), Vinod Subramariam (rector magnificus, VU), Geert ten Dam (voorzitter College van Bestuur, UvA).
Bron: Civic AI Lab - Kick-off event
Vertaald door de redactie van openresearch.amsterdam.