• Menu

0 recente resultaten

De Nederlandse digitaliseringsstrategie: ethiek en Europese waarden

Vandaag mogen we bij de commissie voor Economische Zaken en Klimaat van de Tweede Kamer ons perspectief geven op de Nederlandse digitaliseringsstrategie in de praktijk. Samen met de WRR en het Rathenau instituut zitten we in het thema ‘Digitale skills, borging ethiek en Europese waarden’. Hier vind je onze bijdrage aan het rondetafelgesprek.

In onze reactie op de digitaliseringsstrategie hebben we drie aandachtspunten:

  1. We zouden op een aantal aspecten graag meer (Europese) ambitie zien;
  2. We verbazen ons erover dat de digitaliseringsstrategie de zorgelijke privatisering van de collectieve data over hoe de wereld werkt te weinig adresseert; en
  3. We pleiten voor een verdere politisering van dit soort vraagstukken zodat fundamentele vragen over onze relatie met technologie beter beantwoord kunnen worden.

Europa moet de kans nemen om een voorloper te zijn

Europa heeft laten zien dat het een succesvolle voorloper kan zijn in het centraal stellen van mensenrechten binnen technologische ontwikkelingen. Met netneutraliteit garanderen we een gezond internet en met de Algemene verordening gegevensbescherming is er nu een minimum niveau vastgesteld waardoor veel bedrijven—ook buiten Europa—gedwongen zijn rekening te houden met privacy in hun bedrijfspraktijk (dit wordt ook wel het California EffectCalifornia Effect op Wikipedia genoemd).

In de gepresenteerde digitaliseringsstrategie missen we een vergelijkbaar ambitieniveau op drie plekken:

  1. We zouden graag een Europese visie zien op onze vrijheid van communicatie in relatie tot de platforms. Die visie is urgent. We maken ons namelijk ernstige zorgen over de manier waarop de overheid aan de platforms vraagt om problemen op te lossen rondom terrorisme, misinformatie en haat. We komen op deze manier steeds dichter bij een situatie waarin het handhaven van de wet geprivatiseerd wordt. Bedrijven als Google, Amazon en Facebook worden dan judge, jury, and executioner. Deze bedrijven zijn nu al zeer machtig. Ze nog meer macht geven gaat niets oplossen. Ook in de horizontale relatie tussen dit soort bedrijven en hun gebruikers moeten mensenrechten gegarandeerd worden.
  2. Het gaat niet goed met de veiligheid van het Internet of Things. Bijna elke week wordt er een beveiligingslek gevonden in een consumentenproduct dat verbonden is met het internet. Dit gebeurt zelfs bij producten die zich voornamelijk op kinderen richtenLees bijvoorbeeld dit verhaal. De geschiedenis leert ons dat de overheid de kaders moet scheppen voor de veiligheid van (consumenten)producten. Die kaders zijn er op dit moment niet of onvoldoende op het gebied van het Internet of Things. Er moeten heldere eisen aan fabrikanten gesteld worden: veiligheid mag niet het slachtoffer worden van innovatie. Ook moet er worden nagedacht over hoe we softwaremakers op de juiste manier aansprakelijk kunnen stellen voor de problemen die hun producten veroorzaken en hoe we ervoor kunnen zorgen dat producten veiligheidsupdates blijven ontvangenWij hebben daar ideeën over.
  3. De digitaliseringsstrategie heeft slechts één verwijzing naar open standaarden. Vrije software (ook wel open source) komt helemaal niet voor in de strategie. Dat is een gemiste kans. Investeren in vrije software is investeren in publieke technische infrastructuur. Een infrastructuur die ook het fundament legt waarop het bedrijfsleven voort kan bouwen. Het kan niet zo zijn dat we belangrijke vrije-software-projecten pas gaan steunen op het moment dat het mis gaat (zoals bijvoorbeeld bij OpenSSLZie het amendement van Kees Verhoeven). Daarnaast is vrije software ook een stap naar minder afhankelijkheid van grote Amerikaanse technologiebedrijven.

Met de auteursrechtenstemming van gisteren hebben we helaas ook gezien dat Europa achter de feiten aan kan lopen. Het uploadfilterMeer over het uploadfilter moet door de Raad zo snel mogelijk weer gesloopt worden.

Pas op met privatiseren van collectieve data over hoe de wereld werkt

Steeds meer van onze interacties worden technologisch gemedieerd. Dat heeft een beperkt aantal internetbedrijven een geprivilegieerde positie gegeven op het gebied van surveillance van hun gebruikers. Zij kunnen daardoor op een nieuwe manier kapitaal vergaren. Shoshana Zuboff noemt dat Surveillance CapitalismLees Zuboff's (Engelstalige) verhaal in de Frankfurter Allgemeine.

In dit nieuwe model verzamelen bedrijven zoveel mogelijk data, gebruiken ze datawetenschappers en machine learning om voorspellende modellen van de wereld te maken, en verkopen ze die modellen daarna op de markt. Soms maken bedrijven nog een volgende stap: ze proberen mensen zo te beïnvloeden dat ze een bepaald gedrag gaan vertonen (iets kopen, ergens voor stemmen). Immers: als je op basis van de omstandigheden gedrag kunt voorspellen, en als je invloed hebt op die omstandigheden (zoals Google en Facebook dat hebben), dat kun je gedrag ook ‘maken’.

Wat doen we als de data die de overheid heeft over een specifieke burger niet klopt en die burger daar last van heeft?

Dit model versterkt zichzelf en leidt tot een machtsconcentratie: hoe meer data je verzamelt, hoe beter je voorspellingen kunt doen, hoe beter je product is, hoe meer gebruikers je krijgt, hoe meer data je verzamelt, en zo verder. Surveillance kapitalisten hebben daardoor een betere informatiepositie dan de overheid. Bij veel sturingsvraagstukken is de overheid inmiddels al afhankelijk van data die door private partijen verzameld is. De relevante vraag die gesteld moet worden is of het wel zo vanzelfsprekend moet zijn dat de collectieve data die wij allemaal produceren met ons digitale gedrag exclusief toegeëigend mag worden door de partijen die een positie voor zichzelf hebben gecreëerd om deze data te verzamelen. Om het concreet te maken: is het vanzelfsprekend dat Vodafone de (geanonimiseerde) verplaatsingsgegevens van al haar klanten van mobiele telefonie (pure 'bijvangst') te gelde mag maken door op basis daarvan adviezen te geven bij mobiliteitsvraagstukken van de overheid?

Daarnaast wordt het model van de wereld steeds vaker verward met de wereld zelf. We vergeten dan soms dat het model slechts een abstractie van de wereld is, en dat er keuzes zijn gemaakt over wat wel en niet onderdeel van het model is. Het maakt niet uit hoeveel data je vergaart, er zal altijd een kloof blijven tussen het model (de systeemwereld) en de leefwereld. We moeten minder energie stoppen in het dichten van die kloof en meer energie in het ontwikkelen van principes hoe we met die kloof om kunnen gaan. Kort gezegd: wat doen we als de data die de overheid heeft over een specifieke burger niet klopt en die burger daar last van heeft?

Besef dat technologie altijd politiek is

Alle technologische vraagstukken zijn uiteindelijk politieke vraagstukken. We moeten de ontwikkeling van de technologie dus niet alleen maar overlaten aan de ingenieurs die algoritmen en software ontwikkelen. De politiek moet de baas zijn van de technologie. Zo niet, dan komen onze mensenrechten in de knel.

Als we de technologische ontwikkelingen op een fundamentele manier willen begrijpen, dan kan dat niet zonder te investeren in de geesteswetenschappen en de kunsten

Er is in de digitaliseringsstrategie veel aandacht voor scholing. Denk aan het ontwikkelen van digitale vaardigheden en mediawijsheid bij jongeren of aan het vergroten van het vermogen van het MKB om technologische innovaties te integreren in hun bedrijfsprocessen. Dat is natuurlijk heel verstandig, maar met die focus op digitale vaardigheden blijft een kans onderbelicht: als we willen dat de politiek de baas blijft van technologie, en als we de technologische ontwikkelingen op een fundamentele manier willen begrijpen, dan kan dat niet zonder ook keihard te investeren in de geesteswetenschappen en de kunsten.

Help mee en steun ons

Door mijn bijdrage ondersteun ik Bits of Freedom, dat kan maandelijks of eenmalig.

Ik geef graag per maand

Ik geef graag een eenmalig bedrag