Bron: Voorbij privacy en veiligheid in het onderwijs - Rathenau Instituut
-
Artikel
Voorbij privacy en veiligheid in het onderwijs
Digitalisering in het onderwijs biedt veel kansen, maar leidt niet automatisch tot beter onderwijs. De politiek maakt zich terecht zorgen over privacy en digitale veiligheid, maar die focus is te beperkt. Ten eerste is er onvoldoende aandacht voor de structurele oorzaken achter de incidenten rond privacy en veiligheid. Ten tweede worden publieke waarden zoals inclusiviteit, keuzevrijheid en sociale samenhang nauwelijks besproken. Om de kansen van digitalisering voor het onderwijs te kunnen verzilveren, moet de overheid samen met onderwijspartijen alle effecten van digitalisering adresseren. Het Rathenau Instituut geeft vier aanbevelingen mee ter voorbereiding op het commissiedebat Digitalisering in het onderwijs van 1 december 2021.
-
Artikel
Little big brothers are watching you
Er is veel discussie over verticale privacy; hoe overheid en industrie omgaan met rechten van burgers en consumenten. Maar hoe wijzelf elkaar monitoren en observeren is inmiddels net zozeer een zorg geworden.
Horizontale privacy gaat over hoe burgers onderling omgaan met die rechten, denk aan het online zetten van elkaars foto’s en filmmateriaal. We geven hieronder een beeld van de technologische stand van zaken en schetsen bedreigingen maar ook waar oplossingen gezocht en gevonden kunnen worden.
Aanleiding is de bijeenkomst van de vaste commissie voor Justitie en Veiligheid, die een rondetafelgesprek organiseert over ontwikkelingen rondom horizontale privacy en of deze in de toekomst beter gewaarborgd moet worden.
Namens het Rathenau Instituut neemt directeur Melanie Peters deel aan dit gesprek. Voor deze bijeenkomst is een gespreksnotitie verstuurd en openbaar gemaakt via de website van de Tweede Kamer. Deze gespreksnotitie is een samenvatting van onderstaande beschouwing die dieper ingaat op horizontale privacy en in het verlengde daarvan fundamentele publieke waarden als autonomie, veiligheid en menselijke waardigheid. We vragen achtereenvolgens aandacht voor:
- De snelle technologische ontwikkelingen die maatschappelijke problemen rondom horizontale privacy verder doen toenemen.
- Het belang om een bredere definitie van privacy in deze discussie te hanteren; het gaat om meer dan alleen bescherming en controle van persoonsdata. Het is net zo belangrijk te denken in termen van bescherming van publieke waarden als menselijke waardigheid en autonomie. Privacy geldt hierbij als voorwaarde voor het veiligstellen van de andere waarden.
- Drie soorten van oplossingsrichtingen om de risico’s te verkleinenjuridisch, ‘technologisch burgerschap’ en technologisch. In een juridische context kijken we hoe overheid normen zou kunnen stellen, en in de meest serieuze gevallen het strafrecht in zou kunnen zetten. In context van burgerschap kijken we hoe burgers zelf vaardigheden en houdingen kunnen ontwikkelen om horizontale privacy problemen het hoofd te bieden. De technologische context gaat in op technologische maatregelen waarmee horizontale privacy beter geborgd kan worden.
Horizontale privacy: wat is het probleem?
Horizontale privacy is, door voortschrijdende technologie, steeds minder vanzelfsprekend. Een Duitse rechter verbood onlangs het gebruik van dashcams in auto’s. “Het kan niet zo zijn dat alle 80 miljoen Duitsers met camera's gaan rondlopen om elke situatie te filmen, zodat een misdrijf kan worden opgelost'' [1], staat in het vonnis. Foto’s en filmpjes, eenmaal online gezet, zijn publiek bezit geworden en er is dan geen weg terug meer. Alles wat we doen, wordt onthouden, ook wanneer we dat niet willen, bijvoorbeeld in de facebooktimelines van vrienden. In onze data-gedreven wereld worden we gemonitord, geanalyseerd en beïnvloed. Dat dat niet zonder gevolgen blijft wordt steeds duidelijker en de noodzaak tot bewustwording hiervan steeds urgenter. De technologische ontwikkelingen gaan hierbij steeds verder.
Klik hier om het hele artikel te lezen.
Bron: Little big brothers are watching you. 2017. Rathenau Instituut.
- De snelle technologische ontwikkelingen die maatschappelijke problemen rondom horizontale privacy verder doen toenemen.
-
Artikel
Dicht op de huid
De ontwikkeling van automatische gezichts- en emotieherkenning is in volle gang. Een foto van een voorbijganger kunnen we koppelen aan zijn Facebook- profiel (Acquisti & Gross 2009) en computers worden steeds beter in het onderscheiden van echte en gespeelde emoties (Andrade 2014). In supermark- ten bepaalt soms niet de caissière, maar een gezichtsherkenningssysteem of je oud genoeg bent om alcohol te kopen (AIT-bv 2014).
Het inzetten van deze geavanceerde technieken biedt voordelen, bijvoorbeeld op het gebied van veiligheid, omdat het makkelijker wordt om een verdachte te identificeren. Maar de inzet van de technologie roept ook vragen op. Welke informatie valt er eigenlijk van ons gezicht af te lezen? Welke partijen gebruiken die informatie, op welke manier? Zijn wij nog wel ‘de eigenaar’ van ons eigen gezicht en van onze eigen emoties? De technieken stuiten bij sommigen op verzet, bijvoorbeeld van kunstenaars die gezichtsherkenning op creatieve wijze omzeilen (Polo 2010).1
Deze verkennende studie van het Rathenau Instituut signaleert een belangrijke ontwikkeling op het gebied van gezichts- en emotieherkenning: de techniek is indringend en raakt wijdverbreid. Databases groeien, toepassingsmogelijkheden nemen toe, en de techniek wordt steeds beter. Daardoor zitten deze technolo- gieën ons steeds dichter op de huid. In de Verenigde Staten lijkt dit besef toe te nemen: bedrijven ontwikkelen gedragscodes,2 er vinden politieke hoorzittingen plaats over de impact van de technologie op privacy en andere burgerrechten3
en senatoren stellen bedrijven kritische vragen over de impact van deze technologie (Persbericht Al Franken 2014).
Bron: Janssen A., Kool, L. & Timmer, J., Dicht op de huid - Gezichts- en emotie- herkenning in Nederland. Den Haag, Rathenau Instituut 2015
-
Artikel
Beter beschermd tegen biometrie
Op steeds meer plekken in de samenleving worden kenmerken van het lichaam en het gedrag, zoals gezichten, stemmen en emoties, digitaal verzameld en verwerkt. Het gaat om intieme gegevens die gevoelige informatie kunnen blootleggen, bijvoorbeeld over iemands gezondheid, of waarmee iemand op afstand te identifi‐ ceren is. In deze bijdrage richten we ons op biometrische toepassingen in de publieke sector en publieke ruimte. We laten zien dat met het groeiende aantal toepassingen het risico ontstaat dat fundamentele burgerrechten onvoldoende worden gewaarborgd. We betogen dat deze risico’s dermate groot zijn dat extra wettelijke bescherming nodig is. We pleiten voor een wettelijk verbod op het gebruik van biometrische gegevens voor het identificeren van personen in de publieke ruimte en een vergunningsplicht voor gevallen waarin gebruik van de technologie voor verificatie op zijn plaats kan zijn.
Bron: Gerritsen, J., Hamer, J., Kool, L., & Verhoef, P. 2020. Beter beschermd tegen biometrie. Rathenau Instituut. doi: 10.5553/BenM/138900692020047004011
-
Artikel
Opwaarderen - Borgen van publieke waarden in de digitale samenleving
De verregaande digitalisering van de samenleving roept fundamentele ethische en maatschappelijke vraagstukken op. Overheid, bedrijfsleven en samenleving zijn nog niet adequaat uitgerust om met deze nieuwe vragen om te gaan. Daardoor komen belangrijke publieke waarden en mensenrechten als privacy, gelijke behandeling, autonomie en menselijke waardigheid onder druk te staan. Grote inspanningen in alle geledingen van de overheid en maatschappij zijn nodig om de digitalisering van de samenleving in goede banen te leiden. Maar we staan niet machteloos, met de juiste acties vanuit overheid, bedrijfsleven en maatschappij, kunnen we de digitale samenleving een verantwoorde opwaardering geven.
Motie Gerkens: onderzoek wenselijkheid commissie
Internetbots manipuleren het politieke debat voor de presidentiële verkiezingen in de Verenigde Staten, bankmedewerkers verliezen in groten getale hun baan nu computers hun taken overnemen en softwareprogramma’s helpen rechters de kans te berekenen dat een verdachte weer de fout in gaat, maar blijken ongemerkt te discrimineren. Digitale technologie reikt tot in de haarvaten van de samenleving en roept overal fundamentele maatschappelijke en ethische vragen op. Hoe kunnen we met deze vragen omgaan en de mogelijkheden die digitalisering de maatschappij biedt optimaal benutten? Het Rathenau Instituut deed op verzoek van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties en de Eerste Kamer onderzoek naar deze vraag. Dit naar aanleiding van een motie ingediend in de Eerste Kamer van het lid Gerkens (motie Gerkens 23 september 2014). De motie verzoekt de regering het Rathenau Instituut te vragen ‘de wenselijkheid van een commissie die kan adviseren over de ethische kant van de digitalisering van de samenleving’ te onderzoeken. De motie verwijst daarbij naar de opkomst van het Internet of Things dat zowel voor kansen als bedreigingen zorgt. Uit de motie blijkt dat bij de Kamer het gevoel leeft dat bij digitalisering belangrijke waarden in het geding zijn, aangezien zij niet alleen spreekt van technologische effecten van digitalisering, maar ook van ‘maatschappelijke, sociaal juridische en sociaal psychologische‘ effecten. Voorliggend onderzoek van het Rathenau Instituut ondersteunt die observatie van de Kamer.
Onderzoeksvragen
Het Rathenau Instituut onderzocht welke technologieën de komende jaren naar verwachting de digitale samenleving verder vormgeven, welke maatschappelijke en ethische uitdagingen die ontwikkelingen oproepen en in hoeverre de omgang van die uitdagingen ook institutioneel verankerd is (oftewel, de governance van ethische en maatschappelijke uitdagingen rond digitalisering). Het gaat daarbij om vragen als: welke kwesties pakken bestaande Nederlandse instituties wel of niet op, en op welke manier? Zijn er blinde vlekken ten aanzien van de omgang met (nieuwe) ethische en maatschappelijke kwesties? Welke rol kan een commissie daarin spelen?
Bron: Kool, L., J. Timmer, L. Royakkers en R. van Est, Opwaarderen - Borgen van publieke waarden in de digitale samenleving. Den Haag, Rathenau Instituut 2017.
Overige bestanden:
Rathenau Instituut - Acties voor een verantwoorde digitale samenleving: Bericht aan het Parlement
Beleidsbrief AI, publieke waarden en mensenrechten. 2019. Digitale Overheid.
-
Artikel
Hoor wie het zegt
De afgelopen jaren is spraaktechnologie gemeengoed geworden. Vele chauffeurs geven mondelinge instructies aan hun auto’s en sommige mensen staan ’s ochtends zelfs op met de stem van een digitale spraakassistent. We gaan steeds vaker met computers een gesprek aan – en dat heeft consequenties. Niets is immers menselijker dan onze spraak. In onze gesprekken drukken we onszelf uit en ontwikkelen we omgangsvormen.
Het Rathenau Instituut heeft deze studie daarom gewijd aan spraaktechnologie. Hoe werkt spraaktechnologie, waarvoor wordt zij gebruikt en welke ethische vragen roept ze op? We zoeken uit hoe de overheid, bedrijven en burgers kunnen bijdragen aan spraaktechnologie die onze samenleving en sociale relaties verrijkt, en niet verschraalt.Computers kunnen steeds beter menselijke spraak herkennen, interpreteren en produceren. Dankzij de verbeterde spraaktechnologie is het mogelijk om met computers in gesprek te gaan, en kunnen gebruikers met hun stem de digitale wereld aansturen. Spraaktechnologie wordt al veel gebruikt in de auto en in huis, en bedrijven en organisaties experimenteren ermee in tal van andere domeinen, waaronder de zorg en de veiligheidssector. De groeiende toepassing van spraaktechnologie heeft belangrijke gevolgen voor de samenleving. Onze spraak vormt een essentieel onderdeel van wie we zijn als mens, en van onze sociale relaties. Ook bevatten onze gesprekken zeer gevoelige informatie – over onze identiteit, over de gesprekken die we voeren, en zelfs over onze gezondheid en ons humeur. Onze spraak verdient dus bescherming. Deze studie onderzoekt hoe de samenleving deze bescherming vorm kan geven.
-
Artikel
Data doorzien
Nederlandse provincies experimenteren volop met de inzet van data, algoritmen en nieuwe technologie. Zo worden bijvoorbeeld populaties zoogdieren gemonitord met live cams en automatische beeldherkenning. Digitalisering levert op verschillende vlakken nieuwe kennis op en stelt provincies in staat om burgers en maatschappelijke organisaties nauwer te betrekken bij het beleid op voor hen belangrijke thema’s.
Data en technologie digitaliseren de leefomgeving. Sensoren en digitale zenders monitoren verkeer en wijzen slimme auto’s de weg. In de natuur staan camera’s die automatisch dieren kunnen tellen. En burgers doen mee met het meten van luchtkwaliteit. Dat biedt nieuwe inzichten voor beleid, maar roept ook tal van maatschappelijke, ethische en politieke vragen op.
In dit essay verkennen we, op verzoek van Gedeputeerde Staten van de provincie Noord-Holland, deze vragen. Dit doen we voor zes kernopgaven: biodiversiteit, mobiliteit, lucht, water- en bodemkwaliteit, economische transitie, energietransitie en verstedelijking (‘wonen en werken’), op basis van desk research en zes interviews met vertegenwoordigers van de provincie Noord-Holland, Zuid-Holland en Zeeland.
-
Artikel
Werken op waarde geschat
Het Rathenau Instituut waarschuwt voor doorgeschoten monitoring op werkvloer. Digitale middelen zijn er om ons te ondersteunen in ons werk en moeten geen robot maken van de werkenden. Het instituut vraagt werkgevers, werkenden en de overheid grenzen te stellen aan digitale hulpmiddelen.
Steeds meer organisaties maken gebruik van nieuwe technologieën om werkenden in kaart te brengen. Daarbij verzamelen ze gegevens over werkenden die ze analyseren met behulp van algoritmen en kunstmatige intelligentie. Via digitale instrumenten proberen ze onder meer de geschiktheid van werkenden te voorspellen, hun gezondheid te meten en hun werkzaamheden te beoordelen. We noemen deze instrumenten digitale monitoringstechnologie. Organisaties verwachten dat de instrumenten hen in staat stellen om beter onderbouwd besluiten te nemen, en zo de waarde van het werk te kunnen optimaliseren.
In dit rapport verkennen we op verzoek van de commissie Sociale Zaken en Werkgelegenheid van de Tweede Kamer, wat de nieuwe mogelijkheden voor het meten, analyseren en feedback geven aan werkenden betekenen voor de kwaliteit van werk. We kijken naar drie centrale dimensies van dit begrip, (inkomsten, arbeidsmarktzekerheid en werkomgeving), en naar bredere maatschappelijke en ethische aspecten. Vragen die we stellen zijn: Wat betekent het meten voor de privacy van werkenden en voor de inclusiviteit op de werkvloer? En slagen de instrumenten erin de waarde van het werk te vergroten? We onderzoeken deze vragen op basis van deskresearch, literatuuronderzoek, interviews en een analyse van relevante wettelijke kaders. Het onderzoek is uitgevoerd van juni 2019 tot maart 2020. Het onderzoek maakt deel uit van het thema ‘Veranderende arbeidsmarkt’ van de kennisagenda van de commissie SZW, die met dit rapport de gemeenschappelijke kennis op genoemd thema verder kan uitbreiden.
Bron: Das, D., R. de Jong en L. Kool, m.m.v. J. Gerritsen (2020). Werken op waarde geschat - Grenzen aan digitale monitoring op de werkvloer door middel van data, algoritmen en AI. Den Haag: Rathenau Instituut.
-
Artikel
Beschaafde Bits
Uit dit rapport blijkt dat er vier uitgangspunten zijn die de samenleving kunnen helpen fatsoenlijk om te gaan met digitale technologie: 1) durf maatwerk te leveren, 2) bescheiden en 3) transparant te zijn en 4) neem verantwoordelijkheid.
Hamer, J. & L. Kool (red.) (2018). Beschaafde Bits – Zeventien experts over fatsoenlijk digitaliseren. Den Haag: Rathenau Instituut.
Bron: website Rathenau
-
Artikel
Waardevol digitaliseren
De manier waarop Nederlandse gemeenten digitaal innoveren, heeft impact op de lokale democratie, de economie, werk, het sociale leven en de fysieke leefwereld. In dit rapport vinden lokale bestuurders tien perspectieven om maatschappelijk verantwoord te digitaliseren.
Bron: rathenau.nl
Est, R. van, E. de Bakker, J. van den Broek, J. Deuten, P. Diederen, I. van Keulen, I. Korthagen & H. Voncken (2018). Waardevol digitaliseren – Hoe lokale bestuurders vanuit publiek perspectief mee kunnen doen aan het ‘technologiespel’. Den Haag: Rathenau Instituut
-
Artikel
Waardevol gebruik van menselijke DNA-data
Voorouders traceren, weten of er aanleg is voor een genetische aandoening of de dader van een misdrijf op het spoor komen. Dankzij de vooruitgang in DNA-technologie worden DNA-data op tal van terreinen benut. Het delen, combineren en gebruiken van die data neemt toe. Daarmee groeit ook het bewustzijn dat burgers voldoende beschermd moeten zijn binnen de keten van DNA-data, waarin vele spelers actief zijn en geld verdienen. In dit rapport geven we urgente aandachtspunten en oplossingsrichtingen om DNA-data waardevoller te gebruiken.
Het Rathenau Instituut wil met dit rapport urgente overwegingen geven voor waardevol gebruik van DNA-data van mensen. Met ‘waardevol gebruik van DNA- data’ bedoelen we: DNA-data benutten voor onderzoek of innovaties die de volksgezondheid of een ander maatschappelijk doel dienen én waarbij rekening wordt gehouden met publieke waarden.
In dit rapport gaan we dieper in op de technologische ontwikkelingen en de commercialisering en de internationalisering van de DNA-keten. We zetten de maatschappelijke doelen die beoogd worden met DNA-data op een rij en geven de uitdagingen en beperkingen die daarbij spelen. We analyseren de maatschappelijke en ethische kwesties rond de roep om steeds meer DNA-data, en met name in de context van commercialisering en internationalisering. We geven zeven belangrijke aandachtspunten, en dringen aan op het nemen van actie waarin volgens ons onderzoek oplossingen zijn gelegen. We ronden af met drie overkoepelende adviezen en een figuur die een overzicht geeft van de overwegingen en adviezen die we op basis van ons onderzoek aan de verschillende actoren geven. Voor ons onderzoek deden we deskresearch. Bronnen waren onder meer: literatuur, nieuwsberichten, rapporten van autoriteiten en de bestaande wettelijke kaders, zoals de Algemene verordening gegevensbescherming (AVG).
-
Artikel
Datasolidariteit voor gezondheid
‘Datasolidariteit’ is het beschikbaar stellen, door burgers, van hun gegevens uit medische dossiers voor (big) data-onderzoek waarmee de volksgezondheid gediend kan zijn. Aan datasolidariteit zitten allerlei haken en ogen. Het gaat immers om onderzoek met heel persoonlijke gegevens die normaliter tussen arts en patiënt blijven. We moeten rechten van patiënten beschermen, maar ook onderzoek naar de verbetering van de volksgezondheid faciliteren, en daarmee potentieel de gezondheidsbevordering van iedereen.
Met het onderzoek Datasolidariteit. Verbeterpunten met oog voor ieders belang wil het Rathenau Instituut bijdragen aan een geïnformeerd politiek en maatschappelijk gesprek over beter gebruik van bestaande digitale gegevens uit medische dossiers voor onderzoek. Met ‘beter gebruik’ bedoelen we: voor nuttig onderzoek dat de volksgezondheid werkelijk dient én rekening houdt met de fundamentele rechten van de patiënt. Maar ook die van de arts en onderzoeker. -
Artikel
Digitale gezondheidsregie
Het Rathenau Instituut heeft in dit onderzoek de kansen en uitdagingen van het streven naar digitale gezondheidsregie in kaart gebracht, in het bijzonder de implicaties voor maatschappelijke waarden en eigen regie op gezondheid. Het blijkt dat de focus bij de huidige technische en organisatorische ontwikkelingen ligt op privacy-aspecten en de positie van chronische patiënten. Minder aandacht is er voor de benodigde veranderingen in de zorgpraktijk, verschillende typen patiënten, waarden zoals autonomie van burgers, de rol van de zorgverlener en het gebruik van gegevens door derden.
Door zelf onze gezondheidsgegevens in te zien en aan te kunnen geven met welke zorgaanbieders welke gegevens mogen worden gedeeld bij behandeling, zouden wij als burgers meer grip kunnen krijgen op onze eigen gezondheid. Het ministerie van VWS en het zorgveld stimuleren en faciliteren deze ‘digitale gezondheidsregie’. De ontwikkeling en implementatie van het nieuwe systeem voor digitaal inzien en delen van gezondheidsgegevens zijn in volle gang. Het Rathenau Instituut heeft in dit onderzoek de kansen en uitdagingen van het streven naar digitale gezondheidsregie in kaart gebracht, in het bijzonder de implicaties voor maatschappelijke waarden en eigen regie op gezondheid.
Het blijkt dat de focus bij de huidige technische en organisatorische ontwikkelingen ligt op privacy-aspecten en de positie van chronische patiënten. Minder aandacht is er voor de benodigde veranderingen in de zorgpraktijk, verschillende typen patiënten, waarden zoals autonomie van burgers, de rol van de zorgverlener en het gebruik van gegevens door derden. Het Rathenau Instituut meent daarom dat het goed is om de discussie te verbreden, en deze aandachtspunten op te pakken om de beloften van regie over gezondheidsgegevens echt waar te maken en tegelijkertijd burgers en patiënten te beschermen.
Overige bestanden: Bericht aan parlement
-
Artikel
Gezondheid centraal
Voor dit rapport onderzocht het Rathenau Instituut voorbeelden van digitale diensten waarmee patiënten en gezonde mensen data delen om hun gezondheid te verbeteren. We laten zien dat het zorgvuldig en veilig delen van data gebaat is bij kleinschaligheid en focus op wat er echt nodig is. Dit rapport geeft overheid, zorgveld en politiek handvatten om te zorgen dat de inzet van digitale diensten voor gezondheidsdata past bij een ‘maatschappelijk verantwoorde digitale samenleving’.
Digitalisering van gezondheidsdata biedt kansen voor betere zorg op maat en voor preventie. Verschillende digitale diensten kunnen - in samenhang - het inzien, delen en benutten van elektronische gezondheidsdata mogelijk maken, ook buiten het zorgdomein. De publieke en politieke discussie gaat niet langer over het digitaliseren van het medisch dossier alleen. Het doel is ook om burgers te activeren om met hun eigen gegevens te werken aan hun gezondheid. De verwachting is dat burgers door zelf hun data te beheren meer grip krijgen op de zorg. Tegelijkertijd is het de vraag of op basis hiervan betere zorgadviezen worden gegeven, of burgers daardoor werkelijk meer regie hebben op hun gezondheid, en of regie over meer data door burgers wel zo wenselijk is. Dit rapport laat zien dat het zorgvuldig en veilig delen van data gebaat is bij kleinschaligheid en focus op wat er echt nodig is. Het geeft overheid, zorgveld en politiek handvatten om digitale diensten in te zetten voor de ‘maatschappelijk verantwoorde digitale samenleving’. Kwaliteit van data en van goede passende zorg staan hierbij centraal, en burgers worden beschermd tegen onwenselijk gebruik van hun data.
Overige bestanden: Bericht aan Parlement
-
Artikel
Beleid voor AI in de zorg
In de blogserie ‘Gezonde Bytes’ onderzoeken we hoe kunstmatige intelligentie (AI) verantwoord voor onze gezondheid wordt ingezet. In dit tweede deel beschrijft Ron Roozendaal, directeur informatiebeleid bij het ministerie van Volksgezondheid, Welzijn en Sport (VWS), het AI-beleid van het ministerie. VWS streeft ernaar de kansen te benutten om met AI de gezondheidszorg te verbeteren. Daarvoor moeten waarden als zelfbeschikking, solidariteit, privacy en non-discriminatie worden gewaarborgd. Het ministerie stimuleert een open gesprek over de gevolgen van kunstmatige intelligentie in de zorg.
In het kort
- Hoe wordt AI verantwoord voor onze gezondheid ingezet? Daarover gaat deze blogserie.
- Het ministerie van VWS streeft ernaar de kansen te benutten om met AI de gezondheidszorg te verbeteren, zodanig dat publieke waarden, zoals zelfbeschikking, solidariteit, privacy en non-discriminatie worden gewaarborgd.
- Het ministerie stimuleert het gesprek over de gevolgen van kunstmatige intelligentie in de zorg.
Nieuwe vragen
Kunstmatige intelligentie (artificial intelligence, AI) staat in de belangstelling. Onder andere in het Strategisch Actieplan AI staan de ambities van het kabinet benoemd. NWO, ZonMW en bedrijven investeren in onderzoek naar AI, omdat alleen door praktijkervaring de toepassingen beproefd kunnen worden. Dit onderzoek dient tevens antwoord te geven op talloze vragen: Hoe draagt AI bij aan de gezondheid van mensen? Wie kan AI succesvol in de zorg toepassen? Welke risico’s zijn er bij het toepassen van AI en zijn deze toereikend terug te dringen? Bij het ministerie van Volksgezondheid, Welzijn en Sport (VWS) kijken wij ook naar wet- en regelgeving. Welke belemmeringen zijn er om data te kunnen gebruiken en welke waarborgen zijn er nodig?
Dokters moeten doorleren als ze gaan werken in de zorg, terwijl algoritmen moeten stoppen met leren nadat ze zijn toegelaten, omdat hun werkwijze niet mag veranderen. Wat vinden we daarvan? Durven zorgprofessionals verantwoordelijkheid te nemen voor de diagnoses van algoritmen? Willen we – en kunnen we – precies weten hoe algoritmen werken, of kijken we vooral naar de uitkomsten? Algoritmen worden nu in veel gevallen getraind met buitenlandse data. Zijn die wel van toepassing op patiënten in Nederland, en hoe zorgen we dat ook data van Nederlandse patiënten gebruikt kunnen worden voor onderzoek, met behoud van waarborgen als privacy en veiligheid?
Dit zijn nieuwe vragen waarop het antwoord nog gevonden moet worden.
Lees hier het hele artikel
Bron: Rathenau Instituut - Beleid voor AI in de zorg: een waardenafweging
-
Artikel
Naar gezonde datagebruik voor medisch onderzoek
In de blogserie ‘Gezonde Bytes’ onderzoeken we hoe kunstmatige intelligentie (AI) verantwoord voor onze gezondheid wordt ingezet. De inzet van AI verandert de praktijk van medisch onderzoek. In dit negende deel laat advocaat Joost Gerritsen zien welke juridische vragen die verandering met zich meebrengt. Wat is gezond datagebruik in de context van medisch onderzoek?
In het kort
- Hoe wordt AI verantwoord voor onze gezondheid ingezet? Daarover gaat deze blogserie.
- Advocaat Joost Gerritsen laat zien welke juridische vragen opkomen, nu medisch onderzoekers gebruik maken van AI-toepassingen waarvoor veel patiëntdata nodig zijn.
- Over die vragen is debat nodig, zodat helder wordt wat ‘gezond datagebruik’ is in het tijdperk van AI in de zorg
Medische data voor onderzoek
De data in medische dossiers kunnen nuttig zijn voor onderzoek. Bijvoorbeeld voor een vergelijkend onderzoek tussen zieke mensen en een gezonde controlegroep, om zo risicofactoren voor ziekten te bestuderen. Soms leidt dit tot levensreddende inzichten.
Het gebruik van de data uit medische dossiers is gebonden aan juridische regels. De patiënt heeft immers recht op de bescherming van zijn persoonlijke levenssfeer (‘privacy’) en van zijn persoonlijke gegevens. In de praktijk ervaren onderzoekers deze privacybescherming nogal eens als knellend. De juridische regels zouden onnodige drempels opwerpen om met de data aan de slag te mogen. De onderzoekspraktijk verandert bovendien door de inzet van nieuwe AI-toepassingen, die gebruik maken van grote hoeveelheden data. Wat zijn de regels en welke juridische uitdagingen zijn er als patiëntdata uit medische dossiers worden gebruikt voor onderzoek?
Lees hier het hele artikel
Bron: Rathenau Instituut - Naar gezonde datagebruik voor medisch onderzoek
-
Artikel
Innoveren met AI in de zorg
In de blogserie ‘Gezonde Bytes’ onderzoeken we hoe kunstmatige intelligentie (AI) verantwoord voor onze gezondheid wordt ingezet. In dit elfde deel is Max Welling, hoogleraar Machine Learning aan de Universiteit van Amsterdam en Vice President Technologie bij Qualcomm, aan het woord. Het is mogelijk dat AI in de toekomst artsen ondersteunt bij het stellen van diagnoses en het opstellen van een behandelplan. Sommige dingen zullen algoritmes zelfs beter kunnen dan artsen. Maar eerst moeten we, in Europees verband, het verzamelen en uitwisselen van data op orde krijgen, aldus Max Welling.
In het kort:
- Hoe wordt AI verantwoord voor onze gezondheid ingezet? Daarover gaat deze blogserie.
- Om echt vooruitgang te boeken met AI in de zorg, moeten we volgens Max Welling eerst de data op een veilige, systematische manier kunnen delen.
- Er is geen reden om te denken dat een vorm van AI uiteindelijk niet zo slim kan worden als een mens en dat er dingen mogelijk worden die we nu nog niet eens kunnen verzinnen.
Een olifant die fietst op de maan
AI presteert nu soms al beter dan mensen. Bijvoorbeeld als je een vraag duidelijk stelt en je hebt een grote dataset om een AI-systeem mee te trainen. Je hoeft echter maar een klein beetje buiten het trainingsdomein te gaan en een AI-algoritme krijgt het moeilijk. Bijvoorbeeld een algoritme dat huidkanker diagnosticeert. Als die getraind is op foto’s van witte huiden en je wilt het algoritme toepassen op een donkere huid, dan loopt het algoritme vast. Een arts heeft een diepere kennis van huidkanker, waardoor hij of zij die kan toepassen op witte én donkere huid.
Daar verschilt AI van de intelligentie van mensen. Wat een mens leert in één context, kan hij of zij toepassen in een andere. Dat komt doordat een mens veel achtergrondkennis heeft over de wereld waarin wij leven. Kennis over natuurwetten, sociale wetten, cultuur, oorzaak en gevolg. Nieuwe kennis bedden we in onze achtergrondkennis in en vervolgens kunnen we deze toepassen in een andere context. Daardoor zijn we veel flexibeler dan AI.
Denk maar eens aan een olifant die fietst op de maan. Waarschijnlijk heb je nu onmiddellijk een beeld in je hoofd, ook al heb je die olifant nog nooit gezien en houd je het ook niet voor mogelijk dat je ooit een olifant op de maan ziet fietsen. Wij mensen kunnen de drie abstracte concepten ‘olifant’, ‘fiets’ en ‘maan’ combineren tot een beeld. Een algoritme heeft daar moeite mee. Als onderzoekers in machine learning zijn we nu bezig systemen te ontwikkelen die even flexibel zijn als mensen. En volgens mij is er geen reden om te denken dat AI uiteindelijk niet zo slim kan worden als een mens.
Lees hier het hele aritkel