Bewustwording helpt niet tegen onzorgvuldigheid, handhaving wel

We hebben AI-wetgeving nodig waarin onze rechten echt beschermd worden

Ook in de Europese Unie zien we biometrische surveillance, en deze surveillance ons

De Europese Commissie werkt aan Europese wetgeving om het gebruik van kunstmatige intelligentie te reguleren. Dat is hard nodig, want terwijl de technologie zich wereldwijd razendsnel ontwikkelt, loopt wetgeving nog erg achter. Inmiddels is er een commissieLees hier over de commissie en haar taken ingesteld die de haalbaarheid van de wet zal toetsen. Wij schreven deze commissie aan en adresseerden de belangrijkste voorwaarden die nodig zijn om mensenrechten te beschermen.

Grote ambities

Vorig jaar publiceerde de Europese Commissie al een witboek over kunstmatige intelligentieLees hier het witboek waarin het voorliep op toekomstige wetgeving. Daarin werd de wens uitgesproken om van Europa wereldleider te maken op het gebied van innovatie in data-technologie, maar mét behoud van grondrechten. Een erg grote ambitie gezien het feit dat andere werelddelen al volop experimenteren met kunstmatige intelligentie, waarbij mensenrechten vrijwel geen rol lijken te spelen. Zo wordt in ChinaLees hier hoe China kunstmatige intelligentie inzet om etnisch te profileren kunstmatige intelligentie ingezet om etnisch te profileren. Met gezichtsherkenningstechnologie gaat er een Oeigoeren-alarm af als een persoon het uiterlijk heeft van de onderdrukte minderheidsgroep.

Bindende regels

Om te voorkomen dat mensenrechten in Europa worden geschonden bij het gebruik van kunstmatige intelligentie sorteert de Europese Commissie voor op mensenrechten impact assessments waarmee risico’s in kaart gebracht moeten worden voordat er gebruik wordt gemaakt van kunstmatige intelligentie. Wat ons betreft is dat echter niet voldoende om ervoor te zorgen dat rechten geborgd worden. Want organisaties krijgen daarmee te veel ruimte om zelf te bepalen of ze risico’s erg genoeg vinden om maatregelen te nemen die de risico’s wegnemen. Dat zien we namelijk ook gebeuren bij de privacy impact assessments die we kennen uit de Europese privacywet. Daarom dringen wij aan op duidelijke en bindende regels waar organisaties zich aan moeten houden, waarbij de rechten van mensen Lees hier waarom mensenrechten en niet risico's centraal moeten staancentraal moeten staan.

Organisaties krijgen te veel ruimte om zelf te bepalen of ze risico’s erg genoeg vinden om maatregelen te nemen die de risico’s wegnemen

Meer dan transparantie

Bij kunstmatige intelligentie gebeurt er van alles in een computer dat niet zichtbaar is voor mensen die erdoor geraakt kunnen worden, bijvoorbeeld wanneer een computer een besluit neemt over het recht op een uitkering, of wanneer zo’n besluit van een ambtenaar voor een deel gestuurd wordt. Daarom is transparantie een vaak genoemde voorwaarde. Wij denken echter dat er meer nodig is dan transparantie. Mensen moeten kunnen achterhalen of een besluit op de juiste manier genomen is, waar een besluit op gebaseerd is, en waarom welke factoren een rol spelen. Het moet daarom niet alleen transparant, maar ook controleerbaar zijn.

Effectief toezicht

Momenteel is er nog te weinig effectief toezicht op het gebruik van kunstmatige intelligentie. In Nederland kunnen er verschillende toezichthoudersLees hier het onderzoek naar toezicht bij het gebruik van algoritmen door de overheid bevoegd zijn met ieder een eigen aandachtsgebied. De één voor het gedeelte dat gaat over de bescherming van persoonsgegevens, de ander voor mensenrechten in het algemeen en dan zijn er nog toezichthouders die gaan over financiële aspecten. Zo overziet iedere toezichthouder in theorie een deel, maar niemand het geheel. In theorie, omdat de praktijk uitwijst dat niet alle toezichthouders voldoende middelen hebben om hun werk te kunnen doen. Zo bleek uit onderzoek Lees hier wat we daar eerder over schreven in het NRCdat de Autoriteit Persoonsgegevens veel te weinig budget en capaciteit heeft om haar wettelijke taken uit te voeren, laat staat om bij te benen met de ambities op het gebied van kunstmatige intelligentie. Daarom benadrukken we het belang van effectief toezicht op kunstmatige intelligentie.

Zo overziet iedere toezichthouder in theorie een deel, maar niemand het geheel.

In sommige gevallen liever geen experimenten

Toepassingen van kunstmatige intelligentie kunnen heel ingrijpend zijn voor mensen. In sommige gevallen dermate ingrijpend dat we geloven dat de voordelen van de techniek niet opwegen tegen nadelen. Daarom hebben we, samen met 61 andere maatschappelijke organisatieshttps://edri.org/our-work/civil-society-call-for-ai-red-lines-in-the-european-unions-artificial-intelligence-proposal/ opgeroepen tot restricties van bepaalde toepassingen van kunstmatige intelligentie. Zo willen we bijvoorbeeld geen gezichtsherkenning in de openbare ruimte, of kunstmatige intelligentie dat de toegang tot het rechtssysteem of socialezekerheidsvoorzieningen belemmert.

Wij zullen ons, samen met ons Europese netwerk van digitale rechten organisaties, inspannen om een wet af te dwingen waarin mensenrechten effectief worden beschermd.

Help mee en steun ons

Door mijn bijdrage ondersteun ik Bits of Freedom, dat kan maandelijks of eenmalig.