Auteurs: Christine Dedding en Nicole Goedhart, Afdeling Ethiek, Recht en Humaniora, Amsterdam UMC
-
Artikel
Uit beeld geraakt - Digitale ongelijkheid als maatschappelijke opgave
In dit boek delen we de ervaringen, behoeften en lessen van burgers met een grote afstand tot de online wereld, veelal mensen met een lage sociaaleconomische positie. Van deze mensen leerden we wat het betekent om geen of beperkt gebruik te kunnen maken van online diensten en hoe het komt dat zij dit niet kunnen. Tevens gingen we in gesprek met beleidsmakers, sociaal- en schuldhulpverleners, vrijwilligers, trainers en docenten. Op basis van de opgedane inzichten formuleren we wegwijzers voor de nabije toekomst. We nodigen iedereen uit om deze reis samen voort te zetten. Daarbij is het belangrijk om het doel van de reis in de gaten te houden, het doel is niet digitale inclusie, maar SOCIALE INCLUSIE, met respect voor individuele wensen, behoeften en mogelijkheden.
-
Artikel
Digitale ongelijkheid
In een snel veranderende en digitaliserende samenleving staan we voor de opgave om alle burgers volwaardig mee te laten doen. In de praktijk is gebleken dat veel minima beperkt digitaal redzaam zijn en zich onvoldoende kunnen redden in de huidige maatschappij. Deze constatering was voor de armoederegisseur van de gemeente Amsterdam aanleiding om dit thema nader te onderzoeken.
Goedhart, N. S., Dedding, C., & Kattouw, R. (2017). Digitale ongelijkheid: Een participatieve verkenning in Amsterdam. Gemeente Amsterdam.
Retrieved from here.
-
Artikel
Verhalen bij de thee - De ICT loopbaan van mensen met een afstand tot de online wereld
Ruim 4 miljoen Nederlanders hebben geen of beperkt toegang tot het internet. Als we dit vertellen, reageren mensen vaak verbaasd met een ‘Wie zijn dat dan?’. Vaak direct gevolgd door ‘Oh ja, ouderen zijn onhandig met de computer’. Digitale ongelijkheid treft echter niet alleen ‘ouderen’, en gaat dus ook niet vanzelf over met de volgende generatie. Noch gaat het simpelweg over een gebrek aan digitale vaardigheden. Digitale toegang vereist bijvoorbeeld ook goed werkende apparaten en toegang tot betaalbare wifi. Echter ook daarmee doen we het probleem te kort.
Niet iedereen krijgt dezelfde kansen in het leven. De context waarin je opgroeit, leeft en werkt is van grote invloed op of en hoe je in aanraking komt met de online wereld. Deze contextafhankelijke ervaringen bepalen mede hoe je gebruik kunt en durft te maken van het internet én wie je om hulp kunt vragen als je problemen hebt met de computer. Helaas is er nog weinig aandacht voor de levensloop van mensen en de grote mate van (structurele) kansenongelijkheid die zich daarin manifesteert.
In opdracht van de Alliantie Digitaal Samenleven hebben we 15 mensen uit negen huishoudens meerdere malen thuis bezocht om te praten over hun ICT-loopbaan. De problemen die mensen ervaren met digitale toegang hebben we zoveel mogelijk samen proberen op te lossen. Door samen achter de laptop aan de slag te gaan, leerden elkaar kennen en vertrouwen. Al doende verkregen we een gedetailleerd beeld van de problemen die mensen ervaren en hoe deze zijn te verklaren. De Alliantie Digitaal Samenleven heeft
de laptops beschikbaar gesteld. Deze laptops zijn uitgedeeld via lokale maatschappelijke organisaties
en mogen mensen houden.
Mensenlevens laten zich moeilijk samenvatten. Over ieder levensverhaal of huishouden hadden we een boek kunnen schrijven. In dit boekje delen we slechts kleine fragmenten uit de levens van mensen, tezamen illustreren deze mini-verhalen de optelsom die leidt tot digitale ongelijkheid. Tevens maken de verhalen duidelijk hoeveel werk mensen achter de voordeur verzetten om aan te haken bij de digitale wereld; zij blijven (noodgedwongen) keer op keer zoeken naar oplossingen voor hun (digitale) problemen. We nodigen de lezer uit om te reflecteren op de eigen toegang tot de online wereld en de connectie met de levensverhalen te zoeken, in de hoop dat dit bijdraagt aan meer begrip voor mensen die worstelen met de online wereld en de groeiende online wereld voor iedereen toegankelijk wordt.Auteurs: Christine Dedding, Jasmijn Obispo en Nicole Goedhart.
-
Artikel
Evaluatie 'Iedereen verbonden'
Kort na de uitbraak van de coronacrisis in maart 2020 is een uitdeelactie van refurbished laptops gestart vanuit het CTO. Deze laptopactie genaamd 'Iedereen verbonden' is geëvalueerd door Nicole Goedhart en haar team van het Amsterdam UMC. In dit rapport staan de resultaten en worden aanbevelingen gedaan voor mogelijke vervolgregelingen.
Deze factsheet is een uitgave van het Amsterdam UMC. De gegevens mogen met bronvermelding worden gebruikt. U vindt deze publicatie in pdf-format op www.schoolforparticipation.com en www.centrumvoorclientervaringen.com.
-
Artikel
Practical fundamental rights impact assessments
The European Union’s General Data Protection Regulation tasks organizations to perform a Data Protection Impact Assessment (DPIA) to consider fundamental rights risks of their artificial intelligence (AI) system. However, assessing risks can be challenging, as fundamental rights are often considered abstract in nature. So far, guidance regarding DPIAs has largely focussed on data protection, leaving broader fundamental rights aspects less elaborated. This is problematic because potential negative societal consequences of AI systems may remain unaddressed and damage public trust in organizations using AI. Towards this, we introduce a practical, four-Phased framework, assisting organizations with performing fundamental rights impact assessments. This involves organizations (i) defining the system’s purposes and tasks, and the responsibilities of parties involved in the AI system; (ii) assessing the risks regarding the system’s development; (iii) justifying why the risks of potential infringements on rights are proportionate; and (iv) adopt organizational and/or technical measures mitigating risks identified. We further indicate how regulators might support these processes with practical guidance.
H. Janssen, M. Seng Ah Lee, J. Singh, Practical Fundamental Rights Impact Assessments” (2022) International Journal of Law and Information Technology
-
Artikel
Intermediating data rights exercises: the role of legal mandates
- Data subject rights constitute critical tools for empowerment in the digitized society. There is a growing trend of relying on third parties to facilitate or coordinate the collective exercises of data rights, on behalf of one or more data subjects.
- This contribution refers to these parties as ‘Data Rights Intermediaries’ (DRIs), ie where an ‘intermediating’
party facilitates or enables the collective exercise of data rights. The exercise of data rights by these DRIs on behalf of the data subjects can only be effectuated with the help of mandates.
- Data rights mandates are not expressly framed in the GDPR their delineation can be ambiguous. It is important to highlight that data rights are mandatable and this without affecting their inalienability
in light of their fundamental rights’ nature.
- This article argues that contract law and fiduciary duties both have longstanding traditions and robust
norms in many jurisdictions, all of which can be explored towards shaping the appropriate environment to regulate data rights mandates in particular.
- The article concludes that the key in unlocking the full potential of data rights mandates can already be found in existing civil law constructs, whose diversity reveals the need for solidifying the responsibility and accountability of mandated DRIs. The continued adherence to fundamental contract law principles will have to be complemented by a robust framework of institutional safeguards. The need for such safeguards stems from the vulnerable position of data subjects, both vis-a`-vis DRIs as well as data
controllers.A. Giannopoulou, J. Ausloos, S. Delacroix, H. Janssen ‘Intermediating data rights exercises: the role of legal mandates’ (2022) International Data Privacy Law pp. 1 – 16.
-
Artikel
Personal information management systems: a user-centric privacy utopia?
Personal information management systems (PIMS) aka personal data stores (PDSs) represent an emerging class of technology that seeks to empower individuals regarding their data. Presented as an alternative to current ‘centralised’ data processing approaches, whereby user data is (rather opaquely) collected and processed by organisations, PDSs provide users with technical mechanisms for aggregating and managing their own data, determining when and with whom their data is shared, and the computation that may occur over that data. Though arguments for decentralisation may be appealing, there are questions regarding the extent to which PDSs actually address data processing concerns. This paper explores these questions from the perspective of PDS users. Specifically, we focus on data protection, including how PDSs relate to rights and the legal bases for processing, as well as how PDSs affect the information asymmetries and surveillance practices inherent online. We show that, despite the purported benefits of PDSs, many of the systemic issues of online/data ecosystems remain.
H. Janssen, J. Cobbe, J. Singh, ‘Personal Information Management Systems: A user-centric privacy utopia?’ (2020) Internet Policy Review 9(4).
-
Artikel
Maintaining trust in a technologized public sector
Emerging technologies permeate and potentially disrupt a wide spectrum of our social, economic,and political relations. Various state institutions, including education, law enforcement, and healthcare, increasingly rely on technical components, such as automated decision-making systems, e-government systems, and other digital tools to provide cheap, efficient public services, and supposedly fair, transparent, disinterested, and accountable public administration. The increased interest in various blockchain-based solutions from central bank digital currencies, via tokenized educational credentials, and distributed ledger-based land registries to self-sovereign identities is the latest, still mostly unwritten chapter in a long history of standardized, objectified, automated, technocratic, and technologized public administration. The rapid, (often) unplanned, and uncontrolled technologization of public services (as happened in the hasty adoption of distance-learning and teleconferencing systems during Corona Virus Disease (COVID) lockdowns) raises complex questions about the use of novel technological components, which may or may not be ultimately adequate for the task for which they are used. The question whether we can trust the technical infrastructures the public sector uses when providing public services is a central concern in an age where trust in government is declining: If the government’s artificial intelligence system that detects welfare fraud fails, the public’s confidence in the government is ultimately hit. In this paper, we provide a critical assessment of how the use of potentially untrustworthy (private) technological systems including blockchain-based systems in the public sector may affect trust in government. We then propose several policy options to protect the trust in government even if some of their technological components prove fundamentally untrustworthy.
B. Bodo & H. Janssen, Maintaining trust in a technologized public sector’ (2022) Policy & Society 41(3).
-
Artikel
Data protection and tech startups: The need for attention, support, and scrutiny
Though discussions of data protection have focused on the larger, more established organisations, start-ups also warrant attention. This is particularly so fortech startups, who are often innovating at the ‘cutting‐
edge’—pushing the boundaries of technologies that typically lack established data protection best practices. Initial decisions taken by startups could well have long‐term impacts, and their actions may inform (for better or for worse) how particular technologies and the applications they support are implemented, deployed, and perceived for years to come. Ensuring that the innovations and practices of tech startups are sound, appropriate and acceptable should therefore be a high priority. This paper explores the attitudes and preparedness of tech start-ups to issues of data protection. We interviewed a series of UK‐based emerging tech startups as the EU's General Data Protection Regulation (GDPR) came into effect, which revealed areas in which there is a disconnect between the approaches of the startups and the nature and requirements of the GDPR. We discuss the misconceptions and associated risks facing innovative tech startups and offer a number of considerations for the firms and supervisory authorities alike. In light of our discussions, and given what is at stake, we argue that more needs to be done to help ensure that emerging technologies and the practices of the companies that operate them better align with the regulatory obligations. We conclude that tech startups warrant increased attention, support, and scrutiny to raise the standard of data protection for the benefit of us all.Norval, Chris and Janssen, Heleen and Cobbe, Jennifer and Singh, Jatinder, Data Protection and Tech Startups: The Need for Attention, Support, and Scrutiny (June 6, 2019).
-
Artikel
Onderzoeksvoorstel - Heleen Janssen
Onderzoeksvoorstel van Heleen Janssen voor het NIAS Digital Urban Citizen fellowship.
Auteur: Heleen Janssen.
-
Artikel
Onderzoeksvoorstel / Research proposal - Mariangela Veikou
Onderzoeksvoorstel van Mariangela Veikou voor het NIAS Digital Urban Citizen fellowship.
Auteur: Mariangela Veikou
-
Artikel
Instituut voor Informatierecht (UvA)
Het Instituut voor Informatierecht (IViR), officieel opgericht in 1989, is een van de grootste onderzoeksinstituten ter wereld op het gebied van informatierecht. Er werken meer dan 25 onderzoekers, die actief zijn op verschillende juridische onderwerpen binnen het informatierecht, zoals intellectuele eigendom (waaronder het auteursrecht en naburige rechten), octrooirecht, telecommunicatierecht, mediarecht, internet regulering, vrijheid van meningsuiting, privacy, digitale consumentenrechten, etc.
In juli 2014 vierde het Instituut haar 25-jarig bestaan met het internationale congres Information Influx.
Het IViR houdt zich bezig met onderzoek naar fundamentele en actuele onderdelen van informatierecht en voorziet in een forum voor kritisch debat over de sociale, culturele en politieke aspecten van regulering van informatiemarkten. De internationale orientatie van het IViR komt tot uitdrukking door de vele buitenlandse onderzoekers werkzaam bij het instituut en vele internationale samenwerkingsverbanden. Ook wordt het IViR regelmatig bezocht door buitenlandse gastonderzoekers die vaak enkele weken of maanden onderzoek doen aan het instituut. Het IViR maakt deel uit van de Faculteit der Rechtsgeleerdheid van de Universiteit van Amsterdam.
Lees hier meer over IViR en Privacy/Data Protection.
Lees hier meer over hun publicaties.
Lees hier meer over hun onderzoeken.
-
Collectie
Responsible Sensing Lab
Slimme technologieën zoals sensoren kunnen helpen bij het oplossen van stedelijke uitdagingen. Echter, hoe verhoudt het verzamelen van data zich tot publieke waarden? Het Responsible Sensing Lab onderzoekt hoe deze waarden kunnen worden geïntegreerd in het ontwerp van sensorische systemen in de publieke ruimte.
Het Responsible Sensing Lab werd officieel gelanceerd tijdens een interactief livestreamevenement in januari 2021. In de kern is het een laboratorium waar rigoureus, transparant en repliceerbaar onderzoek wordt uitgevoerd naar hoe slimme technologieën in de openbare ruimte zo ontworpen kunnen worden dat ze bijdragen aan een ‘verantwoorde’ digitale stad.Een Lab voor een ‘verantwoorde’ smart city
De overheid gebruikt steeds meer ‘slimme’ technologieën: van apparaten die allerlei metingen verrichten (zoals sensoren) tot technologieën die processen in de stad regelen, zoals verkeerslichten, oplaadstations, adaptieve straatverlichting, slagbomen en digitale signalen.
Het Responsible Sensing Lab onderzoekt, ontwikkelt en integreert slimme technologieën zoals hierboven beschreven om stedelijke uitdagingen op te lossen. Tegelijkertijd onderzoeken we hoe je publieke en democratische maatschappelijke waarden kunt integreren in het ontwerp van deze innovaties.
(Her)ontwerpen, prototypes en implementatie
Binnen het Responsible Sensing Lab worden academici in contact gebracht met uitvoerders die verantwoordelijk zijn voor de digitale systemen in de stad. Het Lab nodigt deze verschillende partijen uit om samen met de gemeente Amsterdam te werken aan het (her)ontwerpen van verantwoorde sensoren in de publieke ruimte en prototypes te testen.
Oftewel, het Lab is een plek waar teams bestaande uit multidisciplinaire stakeholders – zoals computerwetenschappers, beleidsmakers, psychologen, ontwerpers en hardware-experts – zich kunnen richten op bestaande hardware-, software- en andere stedelijke sensorische systemen.
Kernwaarden
Binnen het Responsible Sensing Lab gebruiken we de waarden van de gemeente Amsterdam (Tada, Agenda Digitale Stad) als startpunt. We onderzoeken wat deze waarden betekenen als ze worden toegepast in hedendaagse software en hardware en in het vormen van beleid. Door het toepassen van deze waarden in het ontwerp van de 'smart city', stellen we de beleving van de inwoner centraal.
Daarbij laten we ons inspireren door de methode ‘value sensitive design’. Deze benadering helpt ons te focussen op ontwerpkeuzes die inherent zijn aan het type sensorische hardware, de distributie van intelligentie tussen cloud en back-end en interactiemogelijkheden van burgers.
Er is een driejarige samenwerkingsovereenkomst tussen de gemeente Amsterdam en AMS Institute. Binnen het Lab werken we nauw samen met experts van de faculteit Industrieel Ontwerp van de TU Delft.
Lees hier meer over hun projecten.
-
Artikel
Big Data in een vrije en veilige samenleving - WRR
Het gebruik van Big Data in het veiligheidsdomein vraagt om nieuwe kaders. Dat is nodig om de mogelijkheden van Big Data te benutten en tegelijkertijd de fundamentele rechten en vrijheden van burgers te waarborgen. Dat schrijft de WRR in zijn rapport Big Data in een vrije en veilige samenleving (rapport nr. 95, 2016).
De WRR analyseert in dit rapport hoe de Nederlandse overheid Big Data op een
verantwoorde wijze kan gebruiken. Het rapport richt zich specifiek op (Big) Dataanalyses door politie en justitie, de inlichtingen- en veiligheidsdiensten en verschillende organisaties en samenwerkingsverbanden op het gebied van fraudebestrijding. Big Data biedt zeker kansen voor opsporing en surveillance, maar vraagt tevens om sterkere waarborgen voor de vrijheidsrechten van burgers. Het zwaartepunt in de huidige juridische regelgeving ligt op de regulering van het verzamelen van data. De WRR pleit ervoor dat die bestaande wetgeving wordt aangevuld met de regulering van en het toezicht op de fases van de analyse en het gebruik van Big Data.Bron: WRR-rapport nr. 95: Big Data in een vrije en veilige samenleving
Overige bestanden: Kamerbrief over waarborgen tegen risico's van data-analyses door de overheid. 2019. Rijksoverheid.
-
Artikel
Mensenrechten in het robottijdperk
In dit rapport pleit het Rathenau Instituut voor een nieuw Europees verdrag met twee nieuwe mensenrechten. Ten eerste: het recht om niet gemeten, geanalyseerd of beïnvloed te worden. Ten tweede: het recht op betekenisvol menselijk contact.
Het gebruik van robots, kunstmatige intelligentie en virtual en augmented reality kan mensenrechten versterken, maar ook ondermijnen. Dit rapport onderzoekt deze uitdagingen, en maakt duidelijk dat om mensenrechten te beschermen onze juridische en ethische systemen vernieuwd moeten worden. Het Rathenau Instituut roept de Raad van Europa op een verdrag voor te bereiden dat mensenrechten en menselijke waardigheid in het robottijdperk beschermt. Daarmee stuit dit rapport aan bij de aanbeve- lingen uit de eerdere publicatie ‘Opwaarderen – Borgen van publieke waarden in de digitale samenleving’ van het Rathenau Instituut.
Bron: Van Est, R. & J.B.A. Gerritsen, with the assistance of L. Kool, Human rights in the robot age: Challenges arising from the use of robotics, artificial intelligence, and virtual and augmented reality – Expert report written for the Committee on Culture, Science, Education and Media of the Parliamentary Assembly of the Council of Europe (PACE), The Hague: Rathenau Instituut 2017
Overige bestanden: Bericht aan het Parlement en Nederlandse Samenvatting.
-
Artikel
Digitale dreigingen voor de democratie
Het ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) heeft het Rathenau Instituut verzocht onderzoek te doen naar de impact van technologische ontwikkelingen op de productie en verspreiding van desinformatie en naar maatregelen die kunnen worden getroffen om de mogelijke negatieve effecten daarvan te beperken. Het gaat hierbij vooral om desinformatie die gericht is op verstoring van het publieke debat en het democratisch proces. Het onderzoek vloeit voort uit de actielijnen die minister Ollongren in haar brief van 18 oktober 2019 aan de Tweede Kamer aankondigde, als onderdeel van de beleidsinzet van de regering ter bescherming van de Nederlandse samenleving tegen desinformatie. In het onderzoek staan de volgende vragen centraal:
• Wat is de impact van technologische ontwikkelingen op de productie en verspreiding van desinformatie?
• Welke maatregelen worden reeds genomen om de bedreigingen die daarvan uitgaan voor het publieke debat en het democratisch proces, te beperken?
• Welke nieuwe maatregelen kunnen worden ontwikkeld om die bedreigingen het hoofd te bieden, met inachtneming van de vrijheid van meningsuiting en de persvrijheid?
• Welke actoren hebben daarbij een rol?
Voor het onderzoek is literatuurstudie verricht, zijn interviews gehouden met deskundigen en zijn twee casestudies uitgevoerd.Bron: Rathenau Instituut (2020). Digitale dreigingen voor de democratie – Over nieuwe technologie en desinformatie. Den Haag (auteurs: Boheemen, P. van, G. Munnichs & E. Dujso)
-
Artikel
Little big brothers are watching you
Er is veel discussie over verticale privacy; hoe overheid en industrie omgaan met rechten van burgers en consumenten. Maar hoe wijzelf elkaar monitoren en observeren is inmiddels net zozeer een zorg geworden.
Horizontale privacy gaat over hoe burgers onderling omgaan met die rechten, denk aan het online zetten van elkaars foto’s en filmmateriaal. We geven hieronder een beeld van de technologische stand van zaken en schetsen bedreigingen maar ook waar oplossingen gezocht en gevonden kunnen worden.
Aanleiding is de bijeenkomst van de vaste commissie voor Justitie en Veiligheid, die een rondetafelgesprek organiseert over ontwikkelingen rondom horizontale privacy en of deze in de toekomst beter gewaarborgd moet worden.
Namens het Rathenau Instituut neemt directeur Melanie Peters deel aan dit gesprek. Voor deze bijeenkomst is een gespreksnotitie verstuurd en openbaar gemaakt via de website van de Tweede Kamer. Deze gespreksnotitie is een samenvatting van onderstaande beschouwing die dieper ingaat op horizontale privacy en in het verlengde daarvan fundamentele publieke waarden als autonomie, veiligheid en menselijke waardigheid. We vragen achtereenvolgens aandacht voor:
- De snelle technologische ontwikkelingen die maatschappelijke problemen rondom horizontale privacy verder doen toenemen.
- Het belang om een bredere definitie van privacy in deze discussie te hanteren; het gaat om meer dan alleen bescherming en controle van persoonsdata. Het is net zo belangrijk te denken in termen van bescherming van publieke waarden als menselijke waardigheid en autonomie. Privacy geldt hierbij als voorwaarde voor het veiligstellen van de andere waarden.
- Drie soorten van oplossingsrichtingen om de risico’s te verkleinenjuridisch, ‘technologisch burgerschap’ en technologisch. In een juridische context kijken we hoe overheid normen zou kunnen stellen, en in de meest serieuze gevallen het strafrecht in zou kunnen zetten. In context van burgerschap kijken we hoe burgers zelf vaardigheden en houdingen kunnen ontwikkelen om horizontale privacy problemen het hoofd te bieden. De technologische context gaat in op technologische maatregelen waarmee horizontale privacy beter geborgd kan worden.
Horizontale privacy: wat is het probleem?
Horizontale privacy is, door voortschrijdende technologie, steeds minder vanzelfsprekend. Een Duitse rechter verbood onlangs het gebruik van dashcams in auto’s. “Het kan niet zo zijn dat alle 80 miljoen Duitsers met camera's gaan rondlopen om elke situatie te filmen, zodat een misdrijf kan worden opgelost'' [1], staat in het vonnis. Foto’s en filmpjes, eenmaal online gezet, zijn publiek bezit geworden en er is dan geen weg terug meer. Alles wat we doen, wordt onthouden, ook wanneer we dat niet willen, bijvoorbeeld in de facebooktimelines van vrienden. In onze data-gedreven wereld worden we gemonitord, geanalyseerd en beïnvloed. Dat dat niet zonder gevolgen blijft wordt steeds duidelijker en de noodzaak tot bewustwording hiervan steeds urgenter. De technologische ontwikkelingen gaan hierbij steeds verder.
Klik hier om het hele artikel te lezen.
Bron: Little big brothers are watching you. 2017. Rathenau Instituut.
- De snelle technologische ontwikkelingen die maatschappelijke problemen rondom horizontale privacy verder doen toenemen.
-
Artikel
Digital Divide, Citizenship and Inclusion in Amsterdam
The Digital Divide is commonly associated with those parts of the world where access to Internet and Web is poor or lacking. However, even in places such as the city of Amsterdam, where Internet infrastructure and access are commonplace, a Digital Divide exists. A significant part of the population (1 out of 5) is currently de facto excluded, for a variety of reasons including poverty, low literacy, lack of digital skills, problems with speaking and reading the official language (Amsterdam, a city of under 1 million, hosts 180 different nationalities), and homelessness. This book is based on several community-oriented Participatory Action Research projects by Information Science master students and staff at the Vrije Universiteit Amsterdam. It considers in depth the Digital Divide in an advanced metropolitan context and, even more importantly, lays out practical ways and solutions showing what can be done against digital inequalities and social exclusion in society -- one of the UN's Sustainable Development Goals (SDGs).
Bon, A., van den Nieuwenhuijzen, D., Akkermans, H., de Boer, W., Edoga, C., Hegeman, M., & Goedhart, N. (2020) Digital Divide, Citizenship and Inclusion in Amsterdam. Amsterdam: Pangea.
-
Artikel
Access denied? Digital inequality in transport services
Digitalisation in transport services offers many benefits for travellers. However, not everyone is willing or able to follow the new, more or less formal requirements digitalisation has brought along. Existing reviews on the intersection between Information and Communication Technologies (ICTs) and mobility cover a range of vantage points, but the perspective of how various levels of engagement with digital technologies affect access and navigation of transport services has not been addressed yet.
In communication science, studying disparities in terms of ICT appropriation and their consequences is known as digital inequality research. This review paper aims at shedding light on what digital inequality in the context of transport services consists of and what its consequences are. To do so, we define and use a conceptual framework for the analysis of digital inequality in transport services. The review of the twenty-five papers, as selected in our systematic literature search, shows that there is a burgeoning interest in this topic. Vulnerability to digitalisation in transport services exists along dimensions of age, income, education, ethnicity, gender and geographical region. We find that motivations and material access get more attention than digital skills and effective usage. Nevertheless, literature acknowledges that having material access to technology does not mean that people benefit from what technology has to offer. Furthermore, the characteristics of ICTs impact one’s possibilities to access digital technologies, such as how user-friendly a technology is. Data-driven and algorithm-based decision-making present a particularly pernicious form of digital exclusion from transport services. As digital technologies are progressively becoming indispensable to navigate the world of transport services, low levels of digital engagement may create a new layer of transport disadvantage, possibly on top of existing ones. Although digitalisation can be part of the solution to transport disadvantage, it can also be part of the problem. With network effects at play, what might start as a relative disadvantage may turn into an absolute disadvantage. Given the nascent state of research on digital inequality in transport services, much remains to be understood. Suggested research avenues include mechanisms of digital exclusion from transport services, the contribution of digital inequality to transport disadvantage, and importantly, solutions to mitigate its impacts.
Bron: Durand, A., Zijlstra, T., van Oort, N., Hoogendoorn-Lanser, S., & Hoogendoorn, S. (2021). Access denied? Digital inequality in transport services. Transport Reviews, 1-26. https://doi.org/10.1080/01441647.2021.1923584