The Dutch government is considering exploring the use of generative AI, such as ChatGPT, to tackle labor shortage. A quick review shows that officials are already experimenting with this technology, but there are also concerns about privacy, copyright and other risks. The preliminary position emphasizes responsible use and legal compliance. A government-wide vision is being developed and concrete steps, such as pilots and training, are proposed. The final position is expected after further experience and ethical considerations.
-
Article
Advice for using generative AI in municipalities
The AI team of the municipality of Amsterdam is experimenting with generative AI to be able to give advice about the practical use of generative AI within municipalities.
This document shows the results of our initial comparisons of LLMs, with a special focus on open-source alternatives. It is based on literature research and running tests on municipal use cases (without tuning and with only minimal prompt engineering). -
Article
Letter to Parliament about preliminary considerations for government organizations when using generative AI
State Secretary Van Huffelen (Digitalization and Kingdom Relations) informs the House of Representatives about her provisional position for government organizations when using generative AI.
-
Article
Trustworthy AI and accountability: yes, but how? - Proefschrift Mona de Boer
As artificially intelligent algorithmic systems (hereafter: ‘AI systems’) penetrate more deeply into organizations and society, legitimate concerns about their effectiveness for the full range of users are driving legislators around the world to seek ways to curb the downsides of these systems for individuals and society. Among these regulatory initiatives is the introduction of a proposal for AI regulation by the European Commission, the EU AI Act (April 2021), which is expected to become a reference point in the
international discourse on how to regulate AI systems. The AI Act, inspired by product safety regulations, introduces – among others – a set of ‘safety requirements’ for Trustworthy AI and (proportionate) obligations for all participants in the AI value chain, with the aim of enhancing and promoting the protection of health, safety, fundamental rights and the Union values enshrined in Article 2 of the Treaty of the European Union.
Specifically for providers of high-risk AI systems, as defined by the Act, there is an obligation to demonstrate compliance with the safety requirements for Trustworthy AI – with or without the intervention of independent third parties – by means of two evidential and complementary mechanisms: (a) the pre-market conformity assessment and (b) post-market monitoring. However, the AI Act’s elaboration of these two ‘proof mechanisms’ is seen as hardly providing instructions as to what these practices should entail, creating a regulatory grey area on which the relevance of the Act depends.
This research focuses on this – perceived as ‘huge’ – gap between (1) the high-level objectives and requirements of the regulation and (2) the day-to-day practice of Trustworthy AI, and makes recommendations to address the lack of methodology between them.Auteur: Mona de Boer.
Bron: UvA.
-
Article
MRA netwerk AI & Publieke Diensten
Verbinden, versterken en opschalen van initiatieven waarin de burger beter bediend wordt vanuit de waarden inclusiviteit, zeggenschap, menselijk gericht ontwerpen en transparantie
Bron: MRA netwerk AI & Publieke Diensten. 2021.
-
Article
EU Monitoring Gemeente Amsterdam, 29 oktober 2021
Voor Amsterdam biedt een optimale positionering in Europa op het gebied van Artificial Intelligence (AI) veel kansen. De EU-monitor op AI dient deze positionering te faciliteren, zowel voor de gemeente Amsterdam als voor de leden van de Amsterdamse AI coalitie.
Het Europees Parlement wil een verbod op het gebruik van gezichtsherkenning. Na een aantal dagen van onrust over het rapport inzake AI en het gebruik ervan door gerechtelijke instanties, stemden de leden van het Europees Parlement op 6 oktober met een overweldigende meerderheid voor een resolutie waarin wordt opgeroepen tot een verbod op het gebruik van geautomatiseerde gezichtsherkenning in publieke ruimtes door politie en justitie. Het EP steunt ook de Europese Commissie in haar poging om in het AI-voorstel sociale scoresystemen te verbieden. Hoewel de resolutie niet-bindend is, geeft het wel een indicatie over hoe het EP zich zal opstellen in de komende onderhandelingen over het AI-voorstel.
Bron: EU Monitoring Gemeente Amsterdam, 29 oktober 2021: Relevante ontwikkelingen op het gebied van de Artificial Intelligence in Europa.
-
Article
Nieuwe partnerships in UvA-onderzoek naar belastingstelsels
Het Amsterdam Centre for Tax Law van de UvA is erin geslaagd nieuwe partnerships te verwerven. Ernst & Young (EY), Microsoft en Netflix gaan het onderzoeksproject ‘Designing the tax system for a Cashless, Platform-based and Technology-driven society’ (CPT-project) steunen. Daarnaast heeft de belastingdienst van miljoenenstad Buenos Aires formeel de intentie uitgesproken zich bij het initiatief aan te sluiten. Inzet van het ambitieuze CPT-project is om – op basis van wetenschappelijk onderzoek – bouwstenen aan te reiken om belastingstelsels eerlijker, efficiënter en moeilijker te omzeilen te maken. ‘Paying the fair share in the right place’.
Telkens als zich grote economische of maatschappelijke veranderingen voordoen, moeten belastingstelsels volgen. Ervan uitgaande dat de samenleving zich in een overgangsproces bevindt naar een nieuw economisch model, versneld door de coronacrisis, wordt in het CPT-project onderzocht hoe belastingstelsels ontworpen en gestructureerd kunnen worden voor een samenleving die primair is gebaseerd op cashless betaalmethoden, online platforms en digitale technologieën, zoals Artificial Intelligence (AI) en blockchain. Het uiteindelijke doel is te komen tot concrete aanbevelingen die niet alleen verschillende stakeholders – overheden en commerciële organisaties – helpen bij het aanpakken van problemen onder de huidige belastingstelsels en/of de introductie van structurele belastinghervormingen, maar ook bouwstenen bieden voor het herontwerp van belastingstelsels.Naar een hoger niveau‘Onze samenleving wordt steeds digitaler. Het is daarom de hoogste tijd om datawetenschappers en fiscaal juristen samen te brengen om uit te zoeken hoe we met behulp van technologie betere belastingstelsels kunnen ontwerpen’, vertelt Dennis Weber, hoogleraar Europese ondernemingsbelastingen en leider van het CPT-project. ‘De komende jaren zullen we een toename zien in het gebruik van algoritmen om te bepalen of iemand voldoende belasting betaalt over zijn inkomen. Dat kan heel doeltreffend zijn, maar we mogen daarbij niet de fundamentele rechten van burgers uit het oog verliezen. Daarom onderzoeken we in ons project onder meer hoe we ervoor kunnen zorgen dat het gebruik van AI in het fiscale veld betrouwbaar is en gunstig is voor iedereen in de samenleving. Zogenoemde distributed ledger technologie zoals blockchain biedt overheden unieke mogelijkheden om belastingstelsels te ontwerpen die minder fraudegevoelig zijn. Het onderzoek op dit gebied staat echter nog in de kinderschoenen en onze inzet is om dit naar een hoger niveau te tillen.’‘Dit is een zeer noodzakelijk initiatief’, vult Raffaele Russo, voorzitter van de Raad van Advies van het CPT-project en voormalig hoofd van het BEPS-project van de OESO, aan. ‘De wereld verandert en de coronapandemie versnelt dat proces. Het is daarom een goede zaak dat de academische wereld, in samenwerking met publieke en particuliere stakeholders, tijd en middelen besteedt aan de aanpak van vraagstukken die – sneller dan de meeste mensen verwachten – urgent en belangwekkend gaan worden. Naar mijn mening moeten belastingstelsels gemakkelijk na te leven én moeilijk te omzeilen zijn, en de technologie moet dit basisprincipe mogelijk maken.’Weber heeft zijn team onlangs weten te versterken door een aantal gerenommeerde onderzoekers aan het project te verbinden. Zo is per 1 september Daniel Smit, hoofd van het bureau vaktechniek bij EY, begonnen als bijzonder hoogleraar Belastingheffing digitale economie aan de UvA. Ook zijn recent drie internationale onderzoekersovergestapt naar de UvA om onderzoek te doen onder de paraplu van het CPT-project.Groeiend aantal partnershipsAls onafhankelijk en inclusief initiatief staat het CPT-project open voor alle overheden, NGO's en bedrijven die eraan willen bijdragen. Naast de steun van de nieuw verworven partners EY, Microsoft en Netflix en intentieverklaring van de belastingdienst van Buenos Aires (AGIP), zullen naar verwachting de komende maanden nog meer belastingautoriteiten en commerciële organisaties zich bij het CPT-project aansluiten.Het initiatief wordt ook gesteund door de Nederlandse Orde van Belastingadviseurs (NOB), de Nederlandse tak van de International Fiscal Association (IFA) en twee Italiaanse advocatenkantoren: Maisto e Associati en Gatti Pavesi Bianchi Ludovici. Een deel van het project wordt gefinancierd vanuit het nationale Sectorplan Rechtsgeleerdheid 2019-2025, binnen Digital Legal Studies. Ook maakt het project deel uit het Digital Transformation of Decision-Making-initiatief van de Amsterdam Law School. -
Article
EU Monitoring Gemeente Amsterdam, 26 februari 2020
Voor Amsterdam biedt een optimale positionering in Europa op het gebied van Artificial Intelligence (AI) veel kansen. De EU-monitor op AI dient deze positionering te faciliteren, zowel voor de gemeente Amsterdam als voor de leden van de Amsterdamse AI coalitie.
De huidige onderhandelingen over het adviesrapport biedt Amsterdam een mooie kans om haar positie te verkondigen. Indien de gemeente en de AI-coalitie haar positie wil verkondigen of invloed wil uitoefenen op de compromis amendementen op het rapport, wordt dit het beste gedaan bij de rapporteur van het adviesrapport, Deirde Clune (EVP, IR) of bij de Nederlandse leden van de IMCO commissie, i.e. Kim van Sparrentak (Greens/EFA) of Liesje Schreinemacher (Renew Europe).
Bron: Dr2 consultants
-
Article
Datastrategie Gemeente Amsterdam
Amsterdammers maken zich zorgen over hun data. Zeker nu in coronatijden iedereen online leeft, realiseren we dat we afhankelijk zijn geworden van technologie. En dat we in de digitale wereld steeds meer datasporen achterlaten. Tegelijkertijd delen we ook steeds meer data. Met elkaar, met de overheid en bedrijven.
Deze datastrategie is het kader om een balans te vinden tussen belangen van (individuele) burgers, bedrijven en overheden. In die balans kies ik ervoor allereerst en altijd de data van Amsterdammers te beschermen ten gunste van een inclusieve en rechtvaardige digitale gemeenschap (Touria Meliani, 2021).Werken, winkelen, relaties; het leven speelt zich steeds meer digitaal af. Veel van wat we online doen wordt opgeslagen als data. Ook thuis en in de openbare ruimte wordt je gedrag in data omgezet: je slimme energiemeter en tv, camera’s op straat en natuurlijk je smartphone houden elke stap die je zet bij. In het Stedelijk kader verwerking van persoonsgegevens staat hoe de gemeente omgaat met persoonsgegevens. Uitgangspunt is dat Amsterdammers en onbespied en anoniem kunnen bewegen in de openbare ruimte. Maar er worden meer data verwerkt in de stad dan alleen persoonsgegevens. En door meer partijen dan de gemeente.
Behandeld in Commissie Kunst Diversiteit en Democratisering 17 maart 2021 en februari 2021
Behandelend ambtenaar: CIO Office: Maarten van Haasteren (m.van.haasteren@amsterdam.nl ) CTO: Ger Baron (g.baron@amsterdam.nl )
Voor meer informatie Commissie KDD 17/4 klik hier
Voor meer informatie Gemeenteraad 21/4 klik hier
-
Article
Amsterdamse Intelligentie
Hoe gebouwen eruitzien, hoe mensen werk vinden, hoe vriendschappen en liefdes ontstaan, hoe allerlei activiteiten worden ondersteund van werk tot online winkelen. Kunstmatige Intelligentie, of het vaker gebruikte Engelse Artificial Intelligence (AI), zal daar in de toekomst een rol in gaan spelen. Met de Agenda Amsterdamse Intelligentie heeft het college de volgende doelen voor de Agenda AI vastgesteld. Doel van deze agenda is besluitvorming op de optelsom der activiteiten zodat we stadsbreed onze focus leggen op de volgende doelen en acties: De AI voor Amsterdammers. Doel: technologie laten werken voor Amsterdammers. Positioneren en stimuleren van Amsterdam. Doel: stimuleren en ontwikkelen ecosysteem, ontwikkelen en werven van talent. Digitale Rechten: wat zijn onze waarden? Doel: Beschermen van digitale rechten en creëren van meer kansengelijkheid in Amsterdamse algoritmes (van Gemeente Amsterdam zelf, van partners (zoals deelnemingen) en opdrachtnemers: leveranciers en van markt- en overheidspartijen die invloed hebben op het leven van Amsterdammers (zoals UWV, verzekeraars en platformen).
Behandeld in Gemeenteraad 4/5 november 2020, Commissie Kunst Diversiteit en Democratisering 26 augustus 2020
Behandelend ambtenaar: CTO Innovatieteam, Aik van Eemeren, a.eemeren@amsterdam.nl
Economische Zaken, Femke Blokhuis, f.blokhuis@amsterdam.nl
Voor meer informatie klik hier
Voor meer informatie Raad klik hier
AI is een begrip met veel ladingen en uitingen. Waar hebben we het eigenlijk over? Wat zijn de positieve en negatieve gevolgen van deze technologie voor onze (digitale) stad?
Het magazine ‘AI: Amsterdamse Intelligentie’ schetst een beeld van de rol van AI in Amsterdam en is het resultaat van een reeks bijeenkomsten met wetenschap, bedrijfsleven, experts en Amsterdammers. Het magazine dient als startpunt voor verdere discussie met partijen die actief zijn op het gebied van AI om het actieplan voor AI in Amsterdam verder vorm te geven.
Actieplan AI
De gemeente Amsterdam werkt aan het actieplan AI: Amsterdamse Intelligentie. Dit actieplan geeft invulling aan het vormen van een stedelijk AI-team en is gericht op:
- het gebruik van AI voor opgaven in de stad
- het vaststellen van ethische kaders, om bijvoorbeeld uitsluiting (van groepen) en misbruik te voorkomen
- het positioneren en stimuleren van AI en van Amsterdam, voor het benutten van het economisch potentieel
Download het magazine
Meer informatie
Meepraten of suggesties voor het actieplan n.a.v. het magazine? Of wilt u meer informatie? Neem dan contact op met Aik van Eemeren, a.eemeren@amsterdam.nl
-
Article
Agenda AI: Amsterdamse Intelligentie
Met de Agenda Amsterdamse Intelligentie heeft het college de volgende doelen voor de Agenda AI vastgesteld. Doel van deze agenda is besluitvorming op de optelsom der activiteiten zodat we stadsbreed onze focus leggen op de volgende doelen en acties: De AI voor Amsterdammers. Doel: technologie laten werken voor Amsterdammers. Positioneren en stimuleren van Amsterdam. Doel: stimuleren en ontwikkelen ecosysteem, ontwikkelen en werven van talent. Digitale Rechten: wat zijn onze waarden? Doel: Beschermen van digitale rechten en creëren van meer kansengelijkheid in Amsterdamse algoritmes (van gemeente Amsterdam zelf, van partners (zoals deelnemingen) en opdrachtnemers: leveranciers en van markt- en overheidspartijen die invloed hebben op het leven van Amsterdammers (zoals UWV, verzekeraars en platformen).
Behandeld in Commissie Kunst Diversiteit en Democratisering 16 september en 17 juni 2020
Behandelend ambtenaar:
CTO Innovatieteam, Aik van Eemeren, a.eemeren@amsterdam.nl
Economische Zaken, Femke Blokhuis, f.blokhuis@amsterdam.nl
Voor meer informatie klik hier
Wat is AI?
We gebruiken de termen AI voor zelflerende modellen zonder beslisregels. En de term algoritmes
voor modellen die met geavanceerde beslisregels werken.
De nationale AI-strategie gebruikt de algemenere omschrijving van de Europese Commissie voor
AI: “AI verwijst naar systemen die intelligent gedrag vertonen door hun omgeving te analyseren en
- met een zekere mate van zelfstandigheid - actie ondernemen om specifieke doelen te bereiken.”
-
Article
MSc Thesis TU Delft - AI governance in the city of Amsterdam
AI governance in the city of Amsterdam: Scrutinising Vulnerabilities of Public Sector AI Systems
A thesis submitted to the Delft University of Technology in partial fulfillment of the requirements for the degree of Master of Science in Engineering and Policy Analysis by Daniël Brom.Executive Summary
Scandals in which governmental ADM tools played a role, have recently brought about political and societal debate about the potential harms to citizens that such automated systems potentially bring. In the Toeslagenaffaire, the Dutch Tax and Customs Administration used an algorithmic risk classification system for fraud detection with childcare benefit applications (Parlementaire Ondervragingscommissie Kinderopvangtoeslag, 2020). Until 2018, nationality of the parents was one of the indicators to check for fraud. The Dutch Data Protection Authority (DPA) concludes in its 2020 investigation report that using nationality as a fraud indicator was unnecessary, discriminatory, and unlawful with respect to the EU General Data Protection Regulation (Autoriteit Persoonsgegevens, 2020). In Amsterdam, law firm SOLV raises questions about the lawfulness and effectiveness of a municipal ADM for detection of Airbnb fraud (van Dorp, 2020).
This thesis focuses on ADM systems which contain an AI component. For AI, algorithms are the means to create a system of computational codes with human-related competencies like perception, understanding, and action (Mnih et al., 2015; Wirtz, Weyerer, & Geyer, 2019). However, the AI in this thesis, as in most applications, concerns so-called Narrow AI (NAI). Narrow refers to the goal-focused and specialised characteristics of the solutions. Such AI technologies show no general intelligence, but intelligence in a specific area (Pennachin & Goertzel, 2007). AI is explored in the context of process governance according to Pierre & Peters (2020): governance as steering and coordinating during the process of AI development. Governments seeking to design governance which safeguards citizens from potential harms, encounter challenges inherent to AI, for example lacking understanding with policymakers due to technological complexity (Wirtz et al., 2019). It is also well-known that designing governance strategies for public sector AISs leads to value trade-offs, for example when decision-makers have to find a balance between privacy protection and accuracy of the system (Dobbe & Raji, 2019).
Despite the societal urgency of the subject and the large amounts of scientific articles on public sector AI governance, some knowledge gaps still have to be addressed. Zuiderwijk et al. (2021, p.16) call for multidisciplinary studies which develop and test theories about AI governance specifically for the public sector. The preliminary literature review also reveals a lacking understanding of how potential citizens harms due to AI result in governance requirements for governments, as the link between vulnerabilities of AISs and governance requirements is rarely made. Lastly, keeping up with practical development of AI in governments worldwide is necessary for public sector AI governance scholarship. Currently there is a lack of empirical research on governmental AISs (Zuiderwijk et al., 2021). Based on the knowledge gaps perceived, the main research question for this study is:
In public sector AI systems, what are emerging vulnerabilities for citizens and how do these translate into governance requirements for decision-makers?
The approach to answer this question is an adjusted form of Theory Building from Case Study as proposed by Eisenhardt (1989). The adjustment is to do create theory upfront, to be tested during the case study, where it is common not to do so. The theoretical model based on an integrative literature review is validated and improved with empirical insights from semi-structured interviews, with case study actors from three cases: Reporting issues in public space, Illegal holiday rental housing risk, and Automated parking control. After having assessed the theoretical model, case study insights also serve to find governance requirements from the CoA practice which can be linked to the model. But first, the integrative literature review helps to better understand what the implications of AI use in the public sector are.
Three main types of reasons to use AI for governmental operations are: improving efficiency of decision-making, improving effectiveness of decision-making and inherent advantages it brings to citizens. But AISs bring disadvantages too, for example in the form of biased decision-making or potential corruption of automated systems. The introductory literature review also revealed several types of mitigation measures for inconveniences of AISs: technological measures, data measures, monitoring and evaluation measures, legal measures, organisational measures, and user engagement and citizen agency. The overview of disadvantages point to directions for the theoretical framework of AIS vulnerabilities.
A layered ’onion model’ presents four relevant contexts to consider for AIS vulnerabilities specifically in the public sector: AI model, Model deployment, Political administrative, and Societal. If a government decides to buy or develop some AIS, the first source of potential vulnerabilities is the model itself. There is a department which deploys the model for its daily operations, where other problems may occur. Then there are the political-administrative overarching policy objectives which are involved with everything the specific government does. Lastly, the societal context represents the actors who are ultimately affected by the AIS, namely citizens, where other vulnerabilities appear. The contextual layers together constitute a unity which covers the scope of every governmental AIS. Vulnerabilities differ from "Overfitting and underfitting" in the AI model context to "Negative impact on workforce" in the model deployment context to "Reward hacking" in the societal context. These examples illustrate the different nature of vulnerabilities: e.g. technological, socioeconomic and behavioural. Vulnerabilities emerge in different stages of the model development, but this research distinguishes two main phases: either before or after implementation.
The expert interviews for the three case studies in total yields 52 case-specific vulnerabilities of the AISs. 6 of them did not fall within one of the vulnerabilities in the model contexts. This is an acceptably low share and the model is considered to be valid for further use. The vulnerabilities that were not interpretable using the model, point towards three complements: model being adopted without enough capacity to control it, inadequacies in the requisite security of the AI model and unwanted strategic behaviour with the AI model. From the vulnerabilities that were found, several lessons are learned.
One: the AIS of Reporting issues in public space creates new forms of biases in favour of certain subgroups of citizens who are e.g. more outspoken or have higher trust in government. The involved actors did not acknowledge that it then becomes a political choice to what extent the AIS must influence the municipal strategy regarding public space management.
Two: as seen in the Automated parking control case, shifting discretionary power becomes a striking vulnerability when an important share of the AIS is outsourced to an external party. Questions were raised here e.g. about whether the current KPIs in the contract between Egis Parking Services and the CoA lead to fair routing of automated scanning cars for Amsterdam’s citizens.
Three: based on the Illegal holiday rental housing risk vulnerabilities: for fraud detection systems based on large amounts of data from different sources, it is questionable whether governments can find legal foundations or domain-knowledge arguments for all relationships the AI model creates to come up with risk profiles.The case study results demonstrate that dealing with vulnerabilities in one of the four model contexts often complicates dealing with vulnerabilities in the other contexts. Hence, four governance requirements dilemmas found in the CoA practice which relate to the vulnerabilities model are:
- I-a Increase the impact of the AI model on the decision-making process to ensure its added value and create balance with the downsides of the AI system. vs
- I-b Decrease the impact of the AI model on the decision-making process until the effects of model errors are acceptable or errors are still possible to mitigate.
- II-a Leave model developers with enough time and professional freedom to create high-end technological products. vs
- II-b Ensure that developers create models which are explainable and functional for governmental employees to be used in their daily practice.
- III-a Be transparent about the AI systems you use. Communicate actively and provide opportunities for citizens’ idea contribution and participation. vs
- III-b Foster objective representations of reality by your AI systems and prevent new forms of bias caused by citizen participation.
- IV-a Stimulate innovation with regards to AI development within your organisation and do not restrict every innovative project upfront. vs
- IV-b Ensure that AI development projects have a clear and proportional contribution to an agreed policy objective.
Reflecting on all results, it is not the existence of AIS vulnerabilities, but merely the absence of a thorough process to settle considerations about the vulnerabilities which is the current challenge for governments. If governments use reports like this to understand the context-specific and interdependent vulnerabilities, this forms a first step towards this process and creating room for politically responsible decision-makers to make the relevant trade-offs. The next step is to document such considerations and create overviews of best practices, so that learning between development teams and their managers within or outside the CoA and other governmental bodies is allowed. Several policies would contribute to establishing this maturity in AI governance:
- Goals for the AIS may develop over time, but to at least have a shared belief in what the system is ought to do and keep discussing this over the lifecycle of the system, helps to find out about the relevant consideration of vulnerabilities as just described. Besides having an agreed purpose for the AIS, the distinction between efficiency goals, effectiveness goals, citizen well-being goals and innovative goals should always be made clearly as well.
- Resolving challenges in one context, often seems to lead to emergence of vulnerabilities in others. Understanding such tensions and trade-offs should be the primary focus when assessing the risks of using ADM within governments. Using the vulnerabilities model can be of help to do so: multidisciplinary teams with actors from all contexts can use the model for directions to think about the vulnerabilities they encounter.
- Although only being transparent is not enough to deal with AIS vulnerabilities, it is essential and thus highly recommendable to provide societal actors with more opportunities to get involved with governmental use of AI. Media, interpreted as societal actors, are then enabled to take up their role as well.
- Decision-makers must analyse the bias that occurs by using the AI rather than the bias of the AI itself. This is oftentimes not so much the problem, as in the cases Reporting issues in public space and Automated parking control, or it is the exact reason for the algorithmic system to be used in the first place, as in the Illegal housing rental case. Only focusing on mitigation of the algorithmic bias itself would therefore miss the point.
-
Article
Agenda AI: Amsterdamse Intelligentie
In deze agenda staat de ambitie van de gemeente Amsterdam op het gebied van artifciële intelligentie, geheel in lijn met de Amsterdamse ambitie van de gemeente en kennisinstellingen gezamenlijk (AI technology for people).
Het college van Amsterdam heeft haar ambitie om aan een vrije, creatieve, en inclusieve stad te werken gevat in de agenda Digitale Stad. Amsterdam geeft daarmee prioriteit aan investeringen in en beleid op (digitale) ontwikkeling. Met als doel het zorgen voor interventies die het leven van Amsterdammers verbeteren; door de negatieve effecten van digitalisering te beperken en de positieve effecten te versterken. Ofwel het stimuleren van het delen van data op een eerlijke manier, zodat we met behulp van AI het leven van de mensen beter kunnen maken, met Amsterdamse Intelligentie. Deze opgaven zijn groter dan Amsterdam en daarom is Amsterdam een van de initiatiefnemers van de coalitie van ‘steden voor digitale rechten’. Deze coalitie is een van de belangrijkste speerpunten van de agenda Digitale Stad.
Bron: Gemeente Amsterdam - Agenda AI: Amsterdamse Intelligentie
-
Article
Public AI Registers
As an open, transparent and democratic city, we are faced with the challenge of involving Amsterdammers in our use of algorithms and artificial intelligence (AI). This white paper promotes the use of a registry for AI by government services. The two main reasons for this is to be transparent about your algorithm use and to enable citizens to ask questions about it. This white paper builds upon the insights from Amsterdam and Helsinki in relation to the algorithm register. Reflecting on your daily work and the organisation you work for; is there already a register for the use of artificial intelligence? This publication in written in collaboration between Helsinki, Saidot and the City of Amsterdam.
Democratic governments are open and allow the public to voice their opinions on government activities and the use of public authority. We believe this should apply not only to human actions but also to the ways we automate those actions with the help of algorithms. Every citizen should have access to understandable and up-to-date information about how algorithms affect their lives and the grounds on which algorithmic decisions are made. It is no wonder transparency is referred to as the most cited principle for trustworthy AI.
We think it is time to align the actions of our governments to meet this expectation. For this, we introduce the concept of a public AI register as a means for transparency and civic participation in government use of AI. In this paper, we share our work on AI registers and suggest the concept for broader adaptation.
About the register
The AI register is a standardised, searchable and archivable way to document the decisions and assumptions that were made in the process of developing, implementing, managing and ultimately dismantling an algorithm. With this, transparency, and when applicable, explainability, can be given for public debate, independent auditors, and individuals citizens. For civil society, it is a window into the artificial intelligence systems used by a government organisation. Ultimately, we hope it will become a catalyst for meaningful democratic participation and a platform for fostering mutual trust.
Building on the suggestions raised in various AI ethics and human-rights related research, policy papers and existing legal frameworks, we suggest a documentation framework for AI registers that is ready for any government organisation to take into use. With this, we hope not only to bring down the barriers of moving into action but also, to welcome feedback for making it even better.
We suggest government organisations to ensure meaningful transparency via AI registers into the following aspects of all their algorithmic systems: purpose and impacts, accountability, datasets, data processing, non-discrimination, human oversight, risks and their mitigation measures, and explainability. Producing this information, in collaboration with AI technology suppliers and other partners, and publishing it for civil participation, should become a standard procedure across government AI projects.
We welcome our readers to explore how it looks in practice by visiting our public AI registers: City of Amsterdam Algorithm Register and City of Helsinki AI Register. Both registers are enabled by Saidot’s AI transparency platform. We hope they will inspire active civic participation through our AI registers, helping us further align our AI with the values of the people we serve.
Source: Public AI Registers, 2020.
-
Article
Interbestuurlijke samenwerking en opschaalprocessen onlosmakelijk verbonden in de digitale transitie van het openbaar bestuur
Dit is een onderzoek naar interbestuurlijke samenwerking en opschaling in de digitale transitie in het openbaar bestuur. De casus die onderzocht is: inkoopvoorwaarden voor algoritmische toepassingen (ontwikkeld door Amsterdam) en de opschaling naar landelijk niveau. De opschaling van deze inkoopvoorwaarden is een onderdeel van het project “Publieke controle op algoritmes”. Een project samenwerking met verschillende overheidsorganisaties die dit project als aanvraag hebben ingediend bij het Innovatiebudget Digitale Overheid. Er is een analyse uitgevoerd naar de mogelijke kansen en knelpunten in deze interbestuurlijke samenwerking in relatie tot het opschaalproces van de inkoopvoorwaarden. Aan de hand van deze analyse zijn tien voorwaarden opgesteld waaraan de samenwerking dient te voldoen om succesvol de inkoopvoorwaarden voor algoritmische toepassingen op te kunnen schalen
Geschreven door Michelle Wassenaar, stagiair CTO
Voor vragen of contact: LinkedIn
-
Article
MSc Thesis VU - Facial recognition technology in public spaces
Municipalities have two tasks which might increasingly be in conflict due to the introduction of facial recognition technology. At the one hand municipalities should ensure public security and at the other hand municipalities should protect the privacy of individual citizens (Rathenau, 2017). Consequently, the research question is: How could municipalities implement facial recognition systems in in public spaces and consequently cope with the tension between ensuring public security and protecting the privacy of individual citizens? This research shows that technical capabilities, with a focus on privacy by design exist. However, since facial recognition technology is not yet perfect, there will always be a violation of privacy; which is mainly due to the existence of false positives. The trade-off between public security and the privacy of individual citizens will not be as straightforward as expected due to the existence of both false negatives and false positives. There might be situations in which municipalities could justifiably invoke one of the legal exceptions of art. 9(2) General Data Protection Regulation (GDPR) or art. 29 GDPR Implementation Act (GDPR IA) in regard to processing biometric data. However, this research revealed that this will be difficult for municipalities. Additionally, ethical principles should be taken into account since municipalities (should) strive to become responsible digital cities and implementing facial recognition technology might compromise existing ethical principles. Concluding, currently the advice to municipalities is not to implement facial recognition technology in public spaces.
Bron: ten Cate, A. 2019. Facial recognition technology in public spaces: The technical, legal and ethical aspects concerning the implementation of facial recognition technology in public spaces and the potential trade-off between public security and the privacy of individual citizens. Vrije Universiteit, Gemeente Amsterdam.
-
Article
Programma Smart Mobility 2019-2025
Met dit programma ontwikkelt Amsterdam samen met haar bewoners, bezoekers, publieke en private partijen het mobiliteitssysteem van de toekomst. Om dit te bereiken ontwikkelen we Amsterdamse voorwaarden waar nieuwe mobiliteitsoplossingen en aanbieders aan moeten voldoen. Op deze manier willen wij regie voeren op verschillende mobiliteitsstromen in de openbare ruimte om deze leefbaar, schoon, bereikbaar en veilig te houden.
De druk op de stad blijft de laatste jaren toenemen en daarmee ook de druk op de mobiliteit. Technologische innovaties volgen elkaar razendsnel op. De grote uitdaging: hoe blijft Amsterdam een bereikbare en veilige, maar ook leefbare stad met schone lucht en voldoende aantrekkelijke openbare ruimtes?
We moeten en gaan er alles aan doen om ruimte en leefbaarheid te creëren. Slim gebruik van mobiliteit draagt hieraan bij.
Met het Programma Smart Mobility 2019-2025 verkent Amsterdam de toekomst op het gebied van slimme en schone mobiliteit. Daarnaast speelt het programma in op kansen voor innovatie in samenwerking met andere overheden, kennisinstellingen en mobiliteits- en technologiebedrijven.
Amsterdam fungeert als Urban Mobility Lab: we onderzoeken, voeren uit, leren en testen. Bijvoorbeeld met zelfrijdende auto’s in de stad. Zo verkrijgen we meer en sneller inzicht. Dit is belangrijk aangezien we op een keerpunt staan waarin we duidelijke keuzes moeten maken op het gebied van mobiliteit.
Anders reizen door positieve prikkels en alternatieven
Amsterdammers, bezoekers en vervoerders worden ‘verleid’ om schoner en slimmer te reizen door volwaardige, betaalbare en schone alternatieven voor de privéauto. Onder andere met de komst van15 tot 20 eBuurthubs in de komende jaren.
eBuurthubs
eBuurthubs zijn fysieke plekken in de stad waar geclusterd elektrische deelmobiliteit wordt aangeboden. eBuurthubs worden ontwikkeld en ontworpen op Amsterdamse wijze, met bewoners en marktpartijen. Dit nieuwe mobiliteitsconcept helpt om autobezit te verminderen en de bereikbaarheid en leefbaarheid te vergroten. Amsterdam doet dit in samenwerking met andere steden en provincies, kennisinstellingen en het bedrijfsleven.
Reisproeven
Er zijn verschillende reisproeven gestart met werknemers, bewoners en publieke professionals (leraren, verpleegkundigen, kinderleidsters) om op een slimme en schone manier te reizen. Zoals de reisproef en de proef elektrisch fietsen. De uitkomsten van de proeven gebruiken we voor nieuw (deel)beleid en het vormgeven van Amsterdamse randvoorwaarden. Ongeveer 30% van de deelnemers van de bewoners reisproef besloot definitief hun auto weg te doen en volledig gebruik te maken van alternatief (deel)vervoer.
De komende periode bekijken we ook de mogelijkheden voor een parkeervergunning tussen de G5 steden voor deelauto's.
Samenwerking met (externe) partners
Daarnaast zetten we in op sterkere samenwerking met onze partners en stellen we Amsterdamse voorwaarden op voor partijen die hun diensten aanbieden in de openbare ruimte. Het delen van data voor inzichten in drukte en gebruik is hierbij een belangrijk onderdeel om de leefbaarheid en toegankelijkheid van Amsterdam te waarborgen.
Digitalisering en datasets
De komende jaren worden onze verkeerscentrale verder ontwikkeld en uitgebreid. Om verschillende verkeersstromen zoals fiets, auto en taxi’s beter te kunnen managen, analyseren, voorspellen en real time te sturen. Deze samenwerking gebeurt zowel met private en publieke partijen en andere overheden.
Sinds begin 2019 gebruikt de gemeente Amsterdam datasets van de mobiele applicatie 'Waze' om te bepalen waar er incidenten, sluitingen en andere verstoringen op de wegen plaatsvinden. De verkeerscentrale gebruikt deze om beter te kunnen beslissen welke maatregelen het beste in te zetten. In de nabije toekomst gaan we deze gegevens verder integreren in de systemen. Hierdoor kunnen binnenkort incidenten nog beter afgehandeld worden door een koppeling met onze verkeerscamera’s en een koppeling met verkeerslichten en matrix borden. Dat verkort de tijd voordat er een reactie komt vanuit de verkeerscentrale, zodat er eerder een berger of een ambulance ter plaatse is. Amsterdam kan tevens bevestigen aan Waze dat het incident daadwerkelijk heeft plaatsgevonden, zodat app-gebruikers een alternatieve route krijgen aangeboden.
Overzicht projecten
Het programma bestaat uit meerdere activeiten. Hier vindt u een overzicht: Projectbijlage Smart Mobility - openresearch.amsterdam
-
Article
Is political microtargeting a threat to democracy?
Microtargeting allows political players to send tailored messages to citizens in order to influence them. This could explain the successful Leave campaign in the UK, not to mention the surprising election of Donald Trump. But what about the Netherlands? UvA communication scientist Tom Dobber decided to investigate.
Political microtargeting (PMT) is a relatively new technique that uses citizens' personal data to create tailored messages. For example, a nurse will be shown an advertisement in which a political party promises to ensure good healthcare, whereas a teacher will receive messages on matters relating to education.
Microtargeting makes messages more relevant to the recipient and thus increases the likelihood of winning them over. UvA communication scientist Tom Dobber investigated PMT in the Netherlands. He concludes that political parties in the Netherlands also use PMT and that it can be effective, but whether it forms a potential threat to democracy depends primarily on the players who are using it.
Brexit and Donald Trump
Two well-known examples of microtargeting being presented in a particularly negative light in the news were the surprisingly successful Leave campaign in the UK, leading to Brexit, and the unexpected election of Donald Trump as president of the United States. In both cases, political microtargeting was quickly identified as the cause.
These two events led UvA communication scientist Tom Dobber to examine the role and effects of PMT in the Netherlands. ‘We barely knew anything about PMT and mainly regarded it as a very American phenomenon. However, does PMT also play a role in the Netherlands where political parties have much smaller campaign budgets, there are different privacy laws and the electoral and party systems are also very different?’ Dobber wondered.
How does political microtargeting work?
Political microtargeting deploys sophisticated techniques to use citizens' personal data to draw up personal profiles and tailor messages accordingly. This is the kind of data that you might add to an online profile yourself, but could be also location data (the type of places you visit) and payment data (the type of products you purchase), and naturally also includes your online surfing behaviour.
‘At an individual level this data might not say all that much, but on a large scale it enables you to identify behavioural patterns and determine which profiles will be sensitive to which messages. Anyone can buy this data. You can already do a lot with just a few hundred euros,’ says Dobber.
Political microtargeting in the Netherlands
Dobber examined the extent to which Dutch political parties use PMT, what Dutch people know about PMT and how they feel about it, the possible effects of PMT and the influence of PMT on the effects of deep fakes (fake videos in which someone says or does something they have never actually said or done in real life). He held interviews with political parties, conducted a panel study among the Dutch population, carried out a field experiment during municipal elections in Utrecht and finally conducted an online deep-fake experiment.
Dobber concludes that:
- Political parties in the Netherlands also use microtargeting. However, he identified a modified form that stems from the different context (campaign budgets, legislation and political system).
- The Dutch population regard PMT in quite a negative light and have numerous concerns about privacy. ‘And the more people worry about privacy, the more negatively they regard PMT,’ Dobber discovered. This downward spiral is worrying if it causes people to lose confidence in democracy and turn away from it.
- Although participants in the field experiments did appear to think more positively about the political party in question after receiving PMT messages, they were no more likely to vote for this party as a result. ‘So it does seem to work, but doesn’t have a huge effect,’ concludes Dobber, ‘although this was of course a relatively small-scale experiment.’
- Microtargeting techniques may further enhance the negative effects of deep fakes.
Link to whole article
Source: Dobber, T. 2020. Is political micro targeting a threat to democracy? Faculty of Social and Behavioral Sciences.
-
Article
Hoe kan Artificiële Intelligentie de Provincie Noord-Holland versterken?
Het doel van dit rapport is om enerzijds te verkennen waar de provincie Noord-Holland staat met het gebruik van AI-toepassingen binnen haar provinciale opgaven. En om anderzijds een advies te geven over de focus en prioriteitsstelling. Daarnaast worden randvoorwaarden en mogelijke vervolgstappen geïdentificeerd. Dit adviesrapport is een bouwsteen voor de te actualiseren datastrategie van de provincie Noord-Holland.
In dit rapport wordt allereerst ingegaan op de vraag wat AI is (hoofdstuk 2). Vervolgens wordt verkend waar een aantal belangrijke provinciale opgaven staan in de toepassing van AI (hoofdstuk 3), gevolgd door een beschrijving van de benodigde randvoorwaarden voor succesvolle toepassingen (hoofdstuk 4). Tot slot schetsen we in hoofdstuk 5 de mogelijke vervolgstappen.Aan de totstandkoming van dit adviesrapport hebben verschillende mensen bijgedragen. Allereerst de
circa 40 opgavenexperts die deelgenomen hebben aan de werksessies. Daarnaast de AIklankbordleden (mevr. Noor Bouwens, dhr. Marcel Sukel, dhr. Aik van Emmeren en mevr. Marcia
Spijkerman – Agatz) die feedback en suggesties deden tijdens de klankbordsessies. En tot slot de AIervaringsdeskundigen: dhr. Chris de Veer, dhr. Frans Feldberg, dhr. Jasja Dekker en mevr. Pallas
Agterberg die hun kennis en ervaring deelden in separate interviews. In het bijzonder willen we ook
de opdrachtgevers Paul Strijp en Kasper de Rooij bedanken voor de inhoudelijke en procesmatige
bijdragen. -
Article
Algorithmic Accountability Policy Toolkit
AI Now developed a toolkit to help advocates uncover and understand where algorithms are being used in government and to inform advocacy strategies and tactics. The toolkit includes a breakdown of key concepts and questions, an overview of existing research, summaries of algorithmic systems currently used in government, and guidances on advocacy strategies to identify and interrogate the use of these systems.
Bron: website AI Now
-
Article
Voorbereiden op digitale ontwrichting - WRR
Digitale infrastructuur is - vaak zonder dat we het merken - intens verweven met processen die van groot belang zijn voor de samenleving, de economie en de democratische rechtstaat. Voor verstoringen in de fysieke wereld bestaan professionele crisisorganisaties en uitgebreide wet- en regelgeving. De voorbereiding op een digitale ontwrichting krijgt echter nauwelijks tot geen aandacht. In het rapport Voorbereiden op digitale ontwrichting (rapport nr. 101, 2019) pleit de WRR voor een betere voorbereiding op een digitale ontwrichting door o.a. adequate bevoegdheden om escalatie te voorkomen en inspanningen op het terrein van cyberverzekeringen te verrichten.
Bron en meer informatie: website WRR
-
Article
Nederlandse Digitaliseringsstrategie 2021
De Nederlandse Digitaliseringstrategie (NDS) bundelt kabinetsbreed de ambities en doelstellingen voor een succesvolle digitale transitie in Nederland. Ieder jaar bekijkt het kabinet of nieuwe ontwikkelingen een aanpassing van de strategie noodzakelijk maken.
-
Article
Nederlandse Digitaliseringsstrategie 2020
De Nederlandse Digitaliseringstrategie (NDS) bundelt kabinetsbreed de ambities en doelstellingen voor een succesvolle digitale transitie in Nederland. Ieder jaar bekijkt het kabinet of nieuwe ontwikkelingen een aanpassing van de strategie noodzakelijk maken.
-
Article
Toekomstverkenning Digitalisering 2030
De digitale transitie voltrekt zich in een hoog tempo. Technologische, economische en
maatschappelijke ontwikkelingen volgen elkaar snel op en geven samen vorm aan onze digitale toekomst. Het is daarom van groot belang dat overheid en samenleving een zicht krijgen op mogelijke ontwikkelingen, zich op de toekomst voorbereiden en, waar nodig en mogelijk, ontwikkelingen ook bijsturen.Met het oog hierop heeft het kabinet een toekomstverkenning uit laten voeren naar de belangrijkste trends en ontwikkelingen richting 2030. De Toekomstverkenning Digitalisering 2030 schetst aan de hand van elf trends een beeld onze digitale toekomst. Hiermee beoogt dit onderzoek de grootste kansen en risico’s van digitalisering in kaart te brengen, maar ook kritieke onzekerheden en vragen onder de aandacht te brengen. In de bijlage is het volledige rapport opgenomen, hieronder volgt een beknopte samenvatting van de belangrijkste bevindingen.
Bron: Rijksoverheid - Toekomstverkenning Digitalisering 2030
-
Article
Digitaliseringsagenda
Overzicht van speerpunten, ambities en activiteiten die de komende jaren richting geven aan digitalisering in het onderwijs.
Nog geen honderd jaar geleden hadden maar weinig mensen directe toegang tot informatie. De klas van toen was ingericht op een efciënte verspreiding van informatie: één persoon voor een groep, het niveau ingericht op de leefijd van de leerlingen. Tegenwoordig is in diezelfde klas een hele wereld aan informatie binnen handbereik. Met één muisklik, swipe of stemcommando krijgen kinderen van nu antwoorden waar vroeger hele zoektochten voor nodig waren. Digitalisering heef de toegang tot informatie radicaal getransformeerd.
Bron: Rijksoverheid - digitaliseringsagenda primair en voortgezet onderwijs
-
Article
Nederlandse Digitaliseringsstrategie
Digitalisering transformeert wereldwijd economieën en maatschappijen in een razendsnel tempo. Nederland heeft een goede uitgangspositie om de economische en maatschappelijke kansen van digitalisering te verzilveren. De digitale infrastructuur is van wereldklasse, de beroepsbevolking is goed opgeleid en we hebben een traditie van samenwerking, bijvoorbeeld tussen bedrijfsleven, kennisinstellingen en overheid. Tegelijkertijd roept digitalisering ook nieuwe, fundamentele vragen op. Bijvoorbeeld over de bescherming van onze privacy en de toekomst van onze banen.
Om de kansen van digitalisering te benutten en antwoorden te geven op deze vragen moet Nederland voorop lopen met digitalisering. Met onderzoek, met experimenten en met het toepassen van nieuwe technologie. Op die manier versterken we het Nederlands verdienvermogen, kunnen we beter richting geven aan technologische ontwikkelingen en zetten we vol in op de economische en maatschappelijke kansen van digitalisering.
Om voorop te kunnen lopen moeten we ook het vertrouwen van burgers en bedrijven vergroten. Daarom versterken we het fundament – o.a. privacybescherming, cybersecurity, digitale vaardigheden en eerlijke concurrentie - voor digitalisering. De uitdaging bij deze transformatie is om iedereen binnen boord te krijgen én te houden. Op de arbeidsmarkt, maar ook in de samenleving als geheel.
-
Article
Internationaal AI-beleid. Domme data, slimme computers en wijze mensen
In dit Working Paper wordt internationaal AI-beleid onderzocht aan de hand van de gepubliceerde strategieën en aanpakken van vijftien landen en twee internationale organisaties (de Europese Unie en de Verenigde Naties). Het op 2 april 2019 afgeronde onderzoek analyseert tevens de belangrijkste patronen in de bestudeerde cases.
Dit Working Paper is een achtergrondstudie voor het later te verschijnen WRR-rapport over de invloed van kunstmatige intelligentie op publieke waarden.Auteur: Bennie Mols
Wetenschappelijke Raad voor het Regeringsbeleid, Den Haag 2019
Voor meer informatie en bron, zie website WRR
-
Article
Algoritme: de mens in de machine
Dit rapport gaat over de toepassing in de praktijk, van de richtlijnen voor het gebruik van algoritmen door overheden, in het bijzonder bij casussen van de politie en van UWV.
-
Article
Onvoorziene effecten van zelflerende algoritmen
Het rapport richt zich op mogelijke onvoorziene effecten van de inzet van (zelflerende) algoritmen door bedrijven en consumenten.
(Zelflerende) algoritmen worden ingezet om meerwaarde te leveren aan bedrijven, consumenten en de samenleving als geheel. Bij de toepassing van (zelflerende) algoritmen kunnen onvoorziene effecten optreden. De impact van deze onvoorziene effecten is, afhankelijk van de context en de aard van de toepassingen, potentieel groot. Dit onderzoek richt zich daarom op de vraag:
- Wat zijn mogelijke onvoorziene effecten van de inzet van (zelflerende) algoritmen door bedrijven en consumenten waarvan niet duidelijk is hoe zij tot een besluit komen en hoe kunnen deze effecten geïdentificeerd, gewogen en indien ongewenst gemitigeerd worden?
Bron: Rijksoverheid - Onvoorziene effecten van zelflerende algoritmen
-
Article
Big Data in een vrije en veilige samenleving - WRR
Het gebruik van Big Data in het veiligheidsdomein vraagt om nieuwe kaders. Dat is nodig om de mogelijkheden van Big Data te benutten en tegelijkertijd de fundamentele rechten en vrijheden van burgers te waarborgen. Dat schrijft de WRR in zijn rapport Big Data in een vrije en veilige samenleving (rapport nr. 95, 2016).
De WRR analyseert in dit rapport hoe de Nederlandse overheid Big Data op een
verantwoorde wijze kan gebruiken. Het rapport richt zich specifiek op (Big) Dataanalyses door politie en justitie, de inlichtingen- en veiligheidsdiensten en verschillende organisaties en samenwerkingsverbanden op het gebied van fraudebestrijding. Big Data biedt zeker kansen voor opsporing en surveillance, maar vraagt tevens om sterkere waarborgen voor de vrijheidsrechten van burgers. Het zwaartepunt in de huidige juridische regelgeving ligt op de regulering van het verzamelen van data. De WRR pleit ervoor dat die bestaande wetgeving wordt aangevuld met de regulering van en het toezicht op de fases van de analyse en het gebruik van Big Data.Bron: WRR-rapport nr. 95: Big Data in een vrije en veilige samenleving
Overige bestanden: Kamerbrief over waarborgen tegen risico's van data-analyses door de overheid. 2019. Rijksoverheid.
-
Article
Binnenlands Bestuur: Combi cultuur en AI cruciaal
AI, artificial intelligence, wordt gezien als een technologische ontwikkeling die niet lijkt te stoppen. Hoewel AI een onvermijdelijk proces lijkt, is het wel gebaseerd op keuzes. Daarom is het bij AI mogelijk het mede vorm te geven, accenten aan te leggen, voorwaarden te scheppen en grenzen te bewaken. De overheid – en ook de gemeente – heeft daarin twee gote verantwoordelijkheden, stelt Caroline Nevejan. Enerzijds het ondersteunen van wetenschappers en het geven van ruimte aan ‘startups’en ‘scale-ups’ om meete spelen in deze nieuwe global industry. Anderzijds is het van groot belang als overheid de rechtsstaat te borgen.
-
Article
Hoor wie het zegt
De afgelopen jaren is spraaktechnologie gemeengoed geworden. Vele chauffeurs geven mondelinge instructies aan hun auto’s en sommige mensen staan ’s ochtends zelfs op met de stem van een digitale spraakassistent. We gaan steeds vaker met computers een gesprek aan – en dat heeft consequenties. Niets is immers menselijker dan onze spraak. In onze gesprekken drukken we onszelf uit en ontwikkelen we omgangsvormen.
Het Rathenau Instituut heeft deze studie daarom gewijd aan spraaktechnologie. Hoe werkt spraaktechnologie, waarvoor wordt zij gebruikt en welke ethische vragen roept ze op? We zoeken uit hoe de overheid, bedrijven en burgers kunnen bijdragen aan spraaktechnologie die onze samenleving en sociale relaties verrijkt, en niet verschraalt.Computers kunnen steeds beter menselijke spraak herkennen, interpreteren en produceren. Dankzij de verbeterde spraaktechnologie is het mogelijk om met computers in gesprek te gaan, en kunnen gebruikers met hun stem de digitale wereld aansturen. Spraaktechnologie wordt al veel gebruikt in de auto en in huis, en bedrijven en organisaties experimenteren ermee in tal van andere domeinen, waaronder de zorg en de veiligheidssector. De groeiende toepassing van spraaktechnologie heeft belangrijke gevolgen voor de samenleving. Onze spraak vormt een essentieel onderdeel van wie we zijn als mens, en van onze sociale relaties. Ook bevatten onze gesprekken zeer gevoelige informatie – over onze identiteit, over de gesprekken die we voeren, en zelfs over onze gezondheid en ons humeur. Onze spraak verdient dus bescherming. Deze studie onderzoekt hoe de samenleving deze bescherming vorm kan geven.
-
Article
Digital threats to democracy
The Dutch Ministry of the Interior and Kingdom Relations asked the Rathenau Instituut to conduct research into the impact of technological developments on the production and dissemination of disinformation and measures that could be taken to mitigate their potential negative effects. The report focuses mainly on disinformation aimed at disrupting public debate and the democratic process. The study reflects the action lines that the minister, Kajsa Ollongren, announced in her letter to the House of Representatives on 18 October 2019 as part of the government’s strategy to protect Dutch society against disinformation.
This study focuses on the following questions:
• What is the impact of technological developments on the production and
dissemination of disinformation?
• What measures have already been taken to contain the threats that
disinformation poses for public debate and the democratic process?
• What new measures can be taken to counter those threats, taking account of
freedom of speech and press freedom?
• Who are the relevant actors in that respect.
See download at the bottom of this page below for the English version of the report.Source:
Rathenau Instituut (2020). Digital threats to democracy – On new technology and disinformation. The Hague (authors: Boheemen, P. van, G. Munnichs & E. Dujso
-
Article
Beleid voor AI in de zorg
In de blogserie ‘Gezonde Bytes’ onderzoeken we hoe kunstmatige intelligentie (AI) verantwoord voor onze gezondheid wordt ingezet. In dit tweede deel beschrijft Ron Roozendaal, directeur informatiebeleid bij het ministerie van Volksgezondheid, Welzijn en Sport (VWS), het AI-beleid van het ministerie. VWS streeft ernaar de kansen te benutten om met AI de gezondheidszorg te verbeteren. Daarvoor moeten waarden als zelfbeschikking, solidariteit, privacy en non-discriminatie worden gewaarborgd. Het ministerie stimuleert een open gesprek over de gevolgen van kunstmatige intelligentie in de zorg.
In het kort
- Hoe wordt AI verantwoord voor onze gezondheid ingezet? Daarover gaat deze blogserie.
- Het ministerie van VWS streeft ernaar de kansen te benutten om met AI de gezondheidszorg te verbeteren, zodanig dat publieke waarden, zoals zelfbeschikking, solidariteit, privacy en non-discriminatie worden gewaarborgd.
- Het ministerie stimuleert het gesprek over de gevolgen van kunstmatige intelligentie in de zorg.
Nieuwe vragen
Kunstmatige intelligentie (artificial intelligence, AI) staat in de belangstelling. Onder andere in het Strategisch Actieplan AI staan de ambities van het kabinet benoemd. NWO, ZonMW en bedrijven investeren in onderzoek naar AI, omdat alleen door praktijkervaring de toepassingen beproefd kunnen worden. Dit onderzoek dient tevens antwoord te geven op talloze vragen: Hoe draagt AI bij aan de gezondheid van mensen? Wie kan AI succesvol in de zorg toepassen? Welke risico’s zijn er bij het toepassen van AI en zijn deze toereikend terug te dringen? Bij het ministerie van Volksgezondheid, Welzijn en Sport (VWS) kijken wij ook naar wet- en regelgeving. Welke belemmeringen zijn er om data te kunnen gebruiken en welke waarborgen zijn er nodig?
Dokters moeten doorleren als ze gaan werken in de zorg, terwijl algoritmen moeten stoppen met leren nadat ze zijn toegelaten, omdat hun werkwijze niet mag veranderen. Wat vinden we daarvan? Durven zorgprofessionals verantwoordelijkheid te nemen voor de diagnoses van algoritmen? Willen we – en kunnen we – precies weten hoe algoritmen werken, of kijken we vooral naar de uitkomsten? Algoritmen worden nu in veel gevallen getraind met buitenlandse data. Zijn die wel van toepassing op patiënten in Nederland, en hoe zorgen we dat ook data van Nederlandse patiënten gebruikt kunnen worden voor onderzoek, met behoud van waarborgen als privacy en veiligheid?
Dit zijn nieuwe vragen waarop het antwoord nog gevonden moet worden.
Lees hier het hele artikel
Bron: Rathenau Instituut - Beleid voor AI in de zorg: een waardenafweging
-
Article
Voeten in de aarde
Stel, je zelfrijdende auto brengt je na een lange winterse werkdag thuis. De auto heeft via het netwerk van slimme lantaarnpalen in je wijk doorgekregen bij welke laadpaal hij moet parkeren. Als je uitstapt, brandt de lantaarnpaal even wat feller. Je komt binnen in een warm huis, want de verwarming is een kwartier geleden automatisch gestart. De buurt-whatsapp meldt dat sensoren verdacht gedrag in een straat verderop hebben waargenomen en dat de politie inmiddels poolshoogte neemt.
Dit toekomstscenario is dichterbij dan veel mensen denken. Data beloven ons leven efficiënter, comfortabeler, duurzamer en veiliger te maken. Gemeenten experimenteren daarom al volop met zogeheten smartcity-projecten, maar de uitvoering blijkt moeilijk. Waarom hebben deze projecten zoveel voeten in de aarde? Wij bekeken vier projecten van de gemeente Eindhoven, voorloper op het gebied van digitalisering. De casusbeschrijvingen in het rapport zijn gebaseerd op literatuurstudie, interviews met betrokkenen en achtergrondmateriaal van betrokkenen of uit openbare bronnen.Steeds meer gemeenten in Nederland investeren in smartcity-projecten, of overwegen om dat te gaan doen. Data beloven efficiënte oplossingen voor uitdagingen waar de gemeenten voor staan. De soms hooggespannen verwachtingen contrasteren echter met een weerbarstige praktijk. Overal ter wereld blijken smartcity-projecten lastig van de grond te krijgen, ook in iconische projecten als Songdo in Zuid-Korea of het ‘Sidewalk Labs’-project van Google in Toronto.
Minder duidelijk is waarom deze projecten zoveel voeten in de aarde hebben. Lokale bestuurders willen graag weten wat er in de praktijk goed werkt en wat niet. Hoe zorgen we bijvoorbeeld dat digitalisering niet ten koste gaat van publieke waarden als privacy, autonomie en rechtvaardigheid? Binnen welke juridische kaders moeten we opereren? Met dit rapport willen we aan deze behoefte tegemoetkomen. Om beter zicht te krijgen op de kwesties waar partijen bij de uitvoering van smartcity-projecten tegenaan lopen, hebben we een aantal van die projecten in detail onderzocht.
-
Article
Meer grip op digitalisering
Op verzoek van de tijdelijke commissie Digitale toekomst van de Tweede Kamer heeft het Rathenau Instituut in kaart gebracht hoe parlementen in andere landen zichzelf organiseren rondom digitalisering. Hierbij is ingezoomd op recente ontwikkelingen in de Verenigde Staten, Groot-Brittannië, Duitsland, Denemarken en Noorwegen.
De Tijdelijke Commissie Digitale Toekomst (TCDT) van de Tweede Kamer heeft het Rathenau Instituut gevraagd, een internationaal vergelijkend onderzoek te doen naar hoe andere parlementen omgaan met digitaliseringsvraagstukken en welke werkvormen zij daarvoor hanteren. Met dit onderzoek wil de TCDT nagaan hoe de Tweede Kamer haar kennispositie op het gebied van digitalisering kan versterken, en meer grip kan krijgen op de gewenste en ongewenste ontwikkelingen die samenhangen met digitalisering.
-
Article
Werken op waarde geschat
Het Rathenau Instituut waarschuwt voor doorgeschoten monitoring op werkvloer. Digitale middelen zijn er om ons te ondersteunen in ons werk en moeten geen robot maken van de werkenden. Het instituut vraagt werkgevers, werkenden en de overheid grenzen te stellen aan digitale hulpmiddelen.
Steeds meer organisaties maken gebruik van nieuwe technologieën om werkenden in kaart te brengen. Daarbij verzamelen ze gegevens over werkenden die ze analyseren met behulp van algoritmen en kunstmatige intelligentie. Via digitale instrumenten proberen ze onder meer de geschiktheid van werkenden te voorspellen, hun gezondheid te meten en hun werkzaamheden te beoordelen. We noemen deze instrumenten digitale monitoringstechnologie. Organisaties verwachten dat de instrumenten hen in staat stellen om beter onderbouwd besluiten te nemen, en zo de waarde van het werk te kunnen optimaliseren.
In dit rapport verkennen we op verzoek van de commissie Sociale Zaken en Werkgelegenheid van de Tweede Kamer, wat de nieuwe mogelijkheden voor het meten, analyseren en feedback geven aan werkenden betekenen voor de kwaliteit van werk. We kijken naar drie centrale dimensies van dit begrip, (inkomsten, arbeidsmarktzekerheid en werkomgeving), en naar bredere maatschappelijke en ethische aspecten. Vragen die we stellen zijn: Wat betekent het meten voor de privacy van werkenden en voor de inclusiviteit op de werkvloer? En slagen de instrumenten erin de waarde van het werk te vergroten? We onderzoeken deze vragen op basis van deskresearch, literatuuronderzoek, interviews en een analyse van relevante wettelijke kaders. Het onderzoek is uitgevoerd van juni 2019 tot maart 2020. Het onderzoek maakt deel uit van het thema ‘Veranderende arbeidsmarkt’ van de kennisagenda van de commissie SZW, die met dit rapport de gemeenschappelijke kennis op genoemd thema verder kan uitbreiden.
Bron: Das, D., R. de Jong en L. Kool, m.m.v. J. Gerritsen (2020). Werken op waarde geschat - Grenzen aan digitale monitoring op de werkvloer door middel van data, algoritmen en AI. Den Haag: Rathenau Instituut.
-
Article
Verantwoord virtueel
Virtual reality (VR) staat op het punt van doorbreken bij het brede publiek. Om consumenten te beschermen tegen gezondheids- en andere effecten van VR, zoals misbruik van data, stellen wij vier maatregelen voor.
Virtual reality (VR) is een driedimensionale, computer-gegenereerde omgeving waarin gebruikers zich kunnen onderdompelen. Met behulp van VR-brillen en bijbehorende accessoires kunnen gebruikers vrijelijk door deze computer- gegenereerde omgeving bewegen en interactie aangaan met elkaar en objecten. Technologiegiganten zoals Facebook, Sony, Google, HTC en Microsoft investeerden de afgelopen jaren miljarden in deze technologie. Hierdoor heeft VR veel technische barrières overwonnen en liggen de apparaten die nu op de markt komen qua prijs, kwaliteit en gebruiksvriendelijkheid binnen handbereik van een miljoenenpubliek.
VR maakt nieuwe digitale ervaringen en vormen van communicatie mogelijk en is eerder vooral professioneel getest om een innovatieve bijdrage te leveren voor transport, communicatie, onderwijs, zorg, veiligheid en productontwikkeling. Vanuit de VR-sector is veel aandacht voor de mogelijkheden van deze nieuwe technologie, maar er is minder aandacht voor gerelateerde risico’s en ethische vraagstukken over consumententoepassingen van VR. Dat is de focus van deze verkenning. Zowel in Nederland als internationaal is weinig politieke en maatschappelijke discussie over VR-technologie (Kool et al., 2018) en bestaan er nog weinig beleidsmaatregelen, jurisprudentie of ethische codes voor VR. We zien wel een groeiend aantal wetenschappelijke publicaties waarin belangrijke maatschappelijke en ethische vraagstukken worden aangekaart. We analyseren om die reden in deze verkenning de bestaande literatuur en brengen hierin structuur aan. We presenteren een overzicht met de belangrijkste ethische en maatschappelijke vraagstukken die spelen rond VR in het consumentendomein. Ook signaleren we een groeiende kloof tussen het gebrek aan politieke aandacht en de noodzaak om kaders te ontwikkelen om VR-technologie maatschappelijk in te bedden. We definiëren acties om deze kloof te dichten. De verkenning kan als startpunt gelden voor een urgente publieke en politieke discussie over consumentengebruik van VR in Nederland en Europa.
-
Article
Data doorzien
Nederlandse provincies experimenteren volop met de inzet van data, algoritmen en nieuwe technologie. Zo worden bijvoorbeeld populaties zoogdieren gemonitord met live cams en automatische beeldherkenning. Digitalisering levert op verschillende vlakken nieuwe kennis op en stelt provincies in staat om burgers en maatschappelijke organisaties nauwer te betrekken bij het beleid op voor hen belangrijke thema’s.
Data en technologie digitaliseren de leefomgeving. Sensoren en digitale zenders monitoren verkeer en wijzen slimme auto’s de weg. In de natuur staan camera’s die automatisch dieren kunnen tellen. En burgers doen mee met het meten van luchtkwaliteit. Dat biedt nieuwe inzichten voor beleid, maar roept ook tal van maatschappelijke, ethische en politieke vragen op.
In dit essay verkennen we, op verzoek van Gedeputeerde Staten van de provincie Noord-Holland, deze vragen. Dit doen we voor zes kernopgaven: biodiversiteit, mobiliteit, lucht, water- en bodemkwaliteit, economische transitie, energietransitie en verstedelijking (‘wonen en werken’), op basis van desk research en zes interviews met vertegenwoordigers van de provincie Noord-Holland, Zuid-Holland en Zeeland.
-
Article
Griffiers en digitalisering
Iedereen merkt de effecten van digitalisering, zo ook griffiers. De griffier is de rechterhand van de gemeenteraad en Provinciale Staten (hieronder kortheidshalve beide aangeduid met de term ‘raad’). De griffie organiseert en faciliteert het werk van deze lokale politieke organen. De griffier is zowel adviseur als ambassadeur van de raads- en Statenleden.
In dit onderzoek hebben we gekeken naar hoe digitalisering het dagelijks werk van griffiers verandert. Maar bovenal hebben we gekeken naar hoe een griffier digitalisering waardevol kan inzetten om de kwaliteit van het raadswerk, het raadsdebat en de lokale democratie op een hoger plan te brengen. Ons uitgangspunt is dat digitalisering pas waardevol kan zijn voor een professionele praktijk, als het de belangrijkste uitdagingen in de lokale democratie die er liggen adresseert. Technologie kan namelijk op verschillende manieren worden ingezet. Uiteindelijk gaat het erom te ontdekken hoe digitale middelen tot maatschappelijke meerwaarde kunnen leiden.
-
Article
Gezondheid centraal
Voor dit rapport onderzocht het Rathenau Instituut voorbeelden van digitale diensten waarmee patiënten en gezonde mensen data delen om hun gezondheid te verbeteren. We laten zien dat het zorgvuldig en veilig delen van data gebaat is bij kleinschaligheid en focus op wat er echt nodig is. Dit rapport geeft overheid, zorgveld en politiek handvatten om te zorgen dat de inzet van digitale diensten voor gezondheidsdata past bij een ‘maatschappelijk verantwoorde digitale samenleving’.
Digitalisering van gezondheidsdata biedt kansen voor betere zorg op maat en voor preventie. Verschillende digitale diensten kunnen - in samenhang - het inzien, delen en benutten van elektronische gezondheidsdata mogelijk maken, ook buiten het zorgdomein. De publieke en politieke discussie gaat niet langer over het digitaliseren van het medisch dossier alleen. Het doel is ook om burgers te activeren om met hun eigen gegevens te werken aan hun gezondheid. De verwachting is dat burgers door zelf hun data te beheren meer grip krijgen op de zorg. Tegelijkertijd is het de vraag of op basis hiervan betere zorgadviezen worden gegeven, of burgers daardoor werkelijk meer regie hebben op hun gezondheid, en of regie over meer data door burgers wel zo wenselijk is. Dit rapport laat zien dat het zorgvuldig en veilig delen van data gebaat is bij kleinschaligheid en focus op wat er echt nodig is. Het geeft overheid, zorgveld en politiek handvatten om digitale diensten in te zetten voor de ‘maatschappelijk verantwoorde digitale samenleving’. Kwaliteit van data en van goede passende zorg staan hierbij centraal, en burgers worden beschermd tegen onwenselijk gebruik van hun data.
Overige bestanden: Bericht aan Parlement
-
Article
Digitale gezondheidsregie
Het Rathenau Instituut heeft in dit onderzoek de kansen en uitdagingen van het streven naar digitale gezondheidsregie in kaart gebracht, in het bijzonder de implicaties voor maatschappelijke waarden en eigen regie op gezondheid. Het blijkt dat de focus bij de huidige technische en organisatorische ontwikkelingen ligt op privacy-aspecten en de positie van chronische patiënten. Minder aandacht is er voor de benodigde veranderingen in de zorgpraktijk, verschillende typen patiënten, waarden zoals autonomie van burgers, de rol van de zorgverlener en het gebruik van gegevens door derden.
Door zelf onze gezondheidsgegevens in te zien en aan te kunnen geven met welke zorgaanbieders welke gegevens mogen worden gedeeld bij behandeling, zouden wij als burgers meer grip kunnen krijgen op onze eigen gezondheid. Het ministerie van VWS en het zorgveld stimuleren en faciliteren deze ‘digitale gezondheidsregie’. De ontwikkeling en implementatie van het nieuwe systeem voor digitaal inzien en delen van gezondheidsgegevens zijn in volle gang. Het Rathenau Instituut heeft in dit onderzoek de kansen en uitdagingen van het streven naar digitale gezondheidsregie in kaart gebracht, in het bijzonder de implicaties voor maatschappelijke waarden en eigen regie op gezondheid.
Het blijkt dat de focus bij de huidige technische en organisatorische ontwikkelingen ligt op privacy-aspecten en de positie van chronische patiënten. Minder aandacht is er voor de benodigde veranderingen in de zorgpraktijk, verschillende typen patiënten, waarden zoals autonomie van burgers, de rol van de zorgverlener en het gebruik van gegevens door derden. Het Rathenau Instituut meent daarom dat het goed is om de discussie te verbreden, en deze aandachtspunten op te pakken om de beloften van regie over gezondheidsgegevens echt waar te maken en tegelijkertijd burgers en patiënten te beschermen.
Overige bestanden: Bericht aan parlement
-
Article
Mensenrechten in het robottijdperk
In dit rapport pleit het Rathenau Instituut voor een nieuw Europees verdrag met twee nieuwe mensenrechten. Ten eerste: het recht om niet gemeten, geanalyseerd of beïnvloed te worden. Ten tweede: het recht op betekenisvol menselijk contact.
Het gebruik van robots, kunstmatige intelligentie en virtual en augmented reality kan mensenrechten versterken, maar ook ondermijnen. Dit rapport onderzoekt deze uitdagingen, en maakt duidelijk dat om mensenrechten te beschermen onze juridische en ethische systemen vernieuwd moeten worden. Het Rathenau Instituut roept de Raad van Europa op een verdrag voor te bereiden dat mensenrechten en menselijke waardigheid in het robottijdperk beschermt. Daarmee stuit dit rapport aan bij de aanbeve- lingen uit de eerdere publicatie ‘Opwaarderen – Borgen van publieke waarden in de digitale samenleving’ van het Rathenau Instituut.
Bron: Van Est, R. & J.B.A. Gerritsen, with the assistance of L. Kool, Human rights in the robot age: Challenges arising from the use of robotics, artificial intelligence, and virtual and augmented reality – Expert report written for the Committee on Culture, Science, Education and Media of the Parliamentary Assembly of the Council of Europe (PACE), The Hague: Rathenau Instituut 2017
Overige bestanden: Bericht aan het Parlement en Nederlandse Samenvatting.
-
Article
Datasolidariteit voor gezondheid
‘Datasolidariteit’ is het beschikbaar stellen, door burgers, van hun gegevens uit medische dossiers voor (big) data-onderzoek waarmee de volksgezondheid gediend kan zijn. Aan datasolidariteit zitten allerlei haken en ogen. Het gaat immers om onderzoek met heel persoonlijke gegevens die normaliter tussen arts en patiënt blijven. We moeten rechten van patiënten beschermen, maar ook onderzoek naar de verbetering van de volksgezondheid faciliteren, en daarmee potentieel de gezondheidsbevordering van iedereen.
Met het onderzoek Datasolidariteit. Verbeterpunten met oog voor ieders belang wil het Rathenau Instituut bijdragen aan een geïnformeerd politiek en maatschappelijk gesprek over beter gebruik van bestaande digitale gegevens uit medische dossiers voor onderzoek. Met ‘beter gebruik’ bedoelen we: voor nuttig onderzoek dat de volksgezondheid werkelijk dient én rekening houdt met de fundamentele rechten van de patiënt. Maar ook die van de arts en onderzoeker. -
Article
Waardevol gebruik van menselijke DNA-data
Voorouders traceren, weten of er aanleg is voor een genetische aandoening of de dader van een misdrijf op het spoor komen. Dankzij de vooruitgang in DNA-technologie worden DNA-data op tal van terreinen benut. Het delen, combineren en gebruiken van die data neemt toe. Daarmee groeit ook het bewustzijn dat burgers voldoende beschermd moeten zijn binnen de keten van DNA-data, waarin vele spelers actief zijn en geld verdienen. In dit rapport geven we urgente aandachtspunten en oplossingsrichtingen om DNA-data waardevoller te gebruiken.
Het Rathenau Instituut wil met dit rapport urgente overwegingen geven voor waardevol gebruik van DNA-data van mensen. Met ‘waardevol gebruik van DNA- data’ bedoelen we: DNA-data benutten voor onderzoek of innovaties die de volksgezondheid of een ander maatschappelijk doel dienen én waarbij rekening wordt gehouden met publieke waarden.
In dit rapport gaan we dieper in op de technologische ontwikkelingen en de commercialisering en de internationalisering van de DNA-keten. We zetten de maatschappelijke doelen die beoogd worden met DNA-data op een rij en geven de uitdagingen en beperkingen die daarbij spelen. We analyseren de maatschappelijke en ethische kwesties rond de roep om steeds meer DNA-data, en met name in de context van commercialisering en internationalisering. We geven zeven belangrijke aandachtspunten, en dringen aan op het nemen van actie waarin volgens ons onderzoek oplossingen zijn gelegen. We ronden af met drie overkoepelende adviezen en een figuur die een overzicht geeft van de overwegingen en adviezen die we op basis van ons onderzoek aan de verschillende actoren geven. Voor ons onderzoek deden we deskresearch. Bronnen waren onder meer: literatuur, nieuwsberichten, rapporten van autoriteiten en de bestaande wettelijke kaders, zoals de Algemene verordening gegevensbescherming (AVG).
-
Article
Waardevol digitaliseren
De manier waarop Nederlandse gemeenten digitaal innoveren, heeft impact op de lokale democratie, de economie, werk, het sociale leven en de fysieke leefwereld. In dit rapport vinden lokale bestuurders tien perspectieven om maatschappelijk verantwoord te digitaliseren.
Bron: rathenau.nl
Est, R. van, E. de Bakker, J. van den Broek, J. Deuten, P. Diederen, I. van Keulen, I. Korthagen & H. Voncken (2018). Waardevol digitaliseren – Hoe lokale bestuurders vanuit publiek perspectief mee kunnen doen aan het ‘technologiespel’. Den Haag: Rathenau Instituut
-
Article
Opwaarderen - Borgen van publieke waarden in de digitale samenleving
De verregaande digitalisering van de samenleving roept fundamentele ethische en maatschappelijke vraagstukken op. Overheid, bedrijfsleven en samenleving zijn nog niet adequaat uitgerust om met deze nieuwe vragen om te gaan. Daardoor komen belangrijke publieke waarden en mensenrechten als privacy, gelijke behandeling, autonomie en menselijke waardigheid onder druk te staan. Grote inspanningen in alle geledingen van de overheid en maatschappij zijn nodig om de digitalisering van de samenleving in goede banen te leiden. Maar we staan niet machteloos, met de juiste acties vanuit overheid, bedrijfsleven en maatschappij, kunnen we de digitale samenleving een verantwoorde opwaardering geven.
Motie Gerkens: onderzoek wenselijkheid commissie
Internetbots manipuleren het politieke debat voor de presidentiële verkiezingen in de Verenigde Staten, bankmedewerkers verliezen in groten getale hun baan nu computers hun taken overnemen en softwareprogramma’s helpen rechters de kans te berekenen dat een verdachte weer de fout in gaat, maar blijken ongemerkt te discrimineren. Digitale technologie reikt tot in de haarvaten van de samenleving en roept overal fundamentele maatschappelijke en ethische vragen op. Hoe kunnen we met deze vragen omgaan en de mogelijkheden die digitalisering de maatschappij biedt optimaal benutten? Het Rathenau Instituut deed op verzoek van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties en de Eerste Kamer onderzoek naar deze vraag. Dit naar aanleiding van een motie ingediend in de Eerste Kamer van het lid Gerkens (motie Gerkens 23 september 2014). De motie verzoekt de regering het Rathenau Instituut te vragen ‘de wenselijkheid van een commissie die kan adviseren over de ethische kant van de digitalisering van de samenleving’ te onderzoeken. De motie verwijst daarbij naar de opkomst van het Internet of Things dat zowel voor kansen als bedreigingen zorgt. Uit de motie blijkt dat bij de Kamer het gevoel leeft dat bij digitalisering belangrijke waarden in het geding zijn, aangezien zij niet alleen spreekt van technologische effecten van digitalisering, maar ook van ‘maatschappelijke, sociaal juridische en sociaal psychologische‘ effecten. Voorliggend onderzoek van het Rathenau Instituut ondersteunt die observatie van de Kamer.
Onderzoeksvragen
Het Rathenau Instituut onderzocht welke technologieën de komende jaren naar verwachting de digitale samenleving verder vormgeven, welke maatschappelijke en ethische uitdagingen die ontwikkelingen oproepen en in hoeverre de omgang van die uitdagingen ook institutioneel verankerd is (oftewel, de governance van ethische en maatschappelijke uitdagingen rond digitalisering). Het gaat daarbij om vragen als: welke kwesties pakken bestaande Nederlandse instituties wel of niet op, en op welke manier? Zijn er blinde vlekken ten aanzien van de omgang met (nieuwe) ethische en maatschappelijke kwesties? Welke rol kan een commissie daarin spelen?
Bron: Kool, L., J. Timmer, L. Royakkers en R. van Est, Opwaarderen - Borgen van publieke waarden in de digitale samenleving. Den Haag, Rathenau Instituut 2017.
Overige bestanden:
Rathenau Instituut - Acties voor een verantwoorde digitale samenleving: Bericht aan het Parlement
Beleidsbrief AI, publieke waarden en mensenrechten. 2019. Digitale Overheid.
-
Article
Strategisch Actieplan voor Artificiële Intelligentie
Dit actieplan beschrijft de voornemens van het kabinet om de ontwikkeling van artificiële intelligentie (AI) in Nederland te versnellen en internationaal te profileren. Het gaat in op de AI-ontwikkelingen in Nederland, op de elementen die nodig zijn om AI-innovatie verder te stimuleren, en op het borgen van de publieke belangen bij AI-ontwikkelingen.
-
Article
Raad weten met digitalisering
Bij veel onderwerpen waar gemeenteraadsleden om een oordeel wordt gevraagd, speelt de toepassing van digitale technologie een belangrijke rol. Of het nu gaat om de gemeentelijke dienstverlening, maatschappelijke ondersteuning, lokale economische ontwikkeling of het beheer en gebruik van openbare ruimte en infrastructuur; steeds vaker wordt er gebruik gemaakt van digitale technologie. Gemeenten zien in digitalisering een nuttig hulpmiddel om de eigen dienstverlening te verbeteren of de openbare ruimte beter te benutten. Daarnaast worden ze ook geconfronteerd met de maatschappelijke gevolgen van digitalisering die door andere partijen wordt geïnitieerd. Zo hebben online platformen als Uber, Airbnben Thuisbezorgd in korte tijd hun stempel weten te drukken op het straatbeeld en de leefomgeving in veel steden.
Behandeld in Commissie Kunst Diversiteit en Democratisering 2 december 2020
Voor meer informatie klik hier
Bron: Rathenau Instituut 2020
Auteurs: Das D., P. Faasse, B. Karstens en P. Diederen - Hoe de gemeenteraad kan sturen op de maatschappelijke impact van digitale technollogie
-
Article
Kunstmatige intelligentie als openbare dienst
Op 28 september 2020 hebben Helsinki en Amsterdam op de Next Generation Internet Summit de lancering aangekondigd van hun open AI-registers. Zij zijn de eerste steden ter wereld die een dergelijke dienst aanbieden. De AI-registers beschrijven wat, waar en hoe AI-toepassingen worden gebruikt in de twee gemeenten; welke datasets zijn gebruikt voor trainingsdoeleinden; hoe algoritmen werden beoordeeld op mogelijke vertekening of risico's; en hoe mensen de AI-diensten gebruiken. De registers bieden ook een feedbackkanaal, bedoeld om meer participatie mogelijk te maken, met informatie over de stadsdienst en de verantwoordelijke voor de AI-dienst. Het doel is om het gebruik van stedelijke AI-oplossingen net zo verantwoord, transparant en veilig te maken als andere lokale overheidsactiviteiten, om de diensten en de ervaringen van burgers te verbeteren.
Waarom is dit project interessant?
Deze definitie van AI is een bevredigende beschrijving die iedereen kan begrijpen. Opvallend is hoe AI wordt opgevat als een middel om een doel te bereiken, zoals het hoort, niet als een gekke robot met een eigen mening. Vandaar ook de verwijzing naar een menselijke toezichthoudende rol en menselijke verantwoordelijkheid, wat met gezond verstand te maken heeft. Het project laat zien dat AI geen huwelijk is tussen gemanipuleerde artefacten en een soort mensachtige of zelfs bovenmenselijke intelligentie, maar een scheiding tussen het vermogen om een probleem met succes op te lossen met het oog op een doel en de noodzaak om hierin intelligent te zijn.
DOI: https://doi.org/10.1007/s13347-020-00434-3
Vertaald door de openresearch redactie
-
Article
Getting the future right
Artificial intelligence (AI) already plays a role in deciding what unemployment benefits someone gets, where a burglary is likely to take place, whether someone is at risk of cancer, or who sees that catchy advertisement for low mortgage rates. Its use keeps growing, presenting seemingly endless possibilities. But we need to make sure to fully uphold fundamental rights standards when using AI. This report presents concrete examples of how companies and public administrations in the EU are using, or trying to use, AI. It focuses on four core areas – social benefits, predictive policing, health services and targeted advertising.
This report presents concrete examples of how companies and public
administrations in the EU are using, or trying to use, AI. It discusses the
potential implications for fundamental rights and shows whether and how
those using AI are taking rights into account.
FRA interviewed just over a hundred public administration officials, private
company staff, as well as diverse experts – including from supervisory and
oversight authorities, non-governmental organisations and lawyers – who
variously work in the AI field.
Based on these interviews, the report analyses how fundamental rights are
taken into consideration when using or developing AI applications. It focuses
on four core areas – social benefits, predictive policing, health services and
targeted advertising. The AI uses differ in terms of how complex they are,
how much automation is involved, their potential impact on people, and how
widely they are being applied.The findings underscore that a lot of work lies ahead – for everyone.
-
Article
Sustainability challenges of Artificial Intelligence and Policy Implications
Automated decision-making based on Artificial Intelligence is associated with growing expectations and is to contribute to sustainable development goals. Which opportunities and risks for the environment, economy and society are associated with Artificial Intelligence-based applications and how can they be governed?
Advances in Artificial Intelligence (AI) effectiveness have made its application ubiquitous in many economic sectors. Whether speech or facial recognition, computer games or social bots, medical diagnostics or predictive maintenance, or autonomous driving, many actors expect opportunities not only for product innovations and new markets but also for new research perspectives. Economic and political actors alike expect AI-based systems and applications to contribute positively to sustainability goals (Jetzke et al. 2019). These include, for example, the opportunities offered by AI for improving the management of smart grids (Jungblut this issue), and transport infrastructures, for conducting more precise earth observation, for creating new weather warning and forecasting systems, or for enhancing solutions for waste and resource management.For the whole article see: Digitalisation and Sustainability. 2021. Ökologisches Wirtschaften.