• Menu

0 recente resultaten

Mensenrechten moeten beter beschermd worden in de AI-verordening

Ruim anderhalf jaar geleden verscheen het wetsvoorstel over kunstmatige intelligentie vanuit de Europese Commissie. Sindsdien hebben we amendementen geschreven, gesprekken gevoerd met Nederlandse en Europese politici en actie gevoerd met andere Europese digitale rechten organisaties. Allemaal om ervoor te zorgen dat jouw mensenrechten goed geborgd worden in de AI-verordening. Maar we zijn er nog niet.

De AI-verordening moet mensenrechten beter beschermen

Binnenkort komen Tweede Kamerleden bijeen om het in een commissiedebat te hebben over de AI-verordening. Samen met andere organisaties schreven wij hen daarom een brief waarin we onze zorgen uiten over het gebrek aan effectieve bescherming van mensenrechten in het wetsvoorstel. Dat moet echt beter.

In onze brief pleiten we voor transparantie en controleerbaarheid, effectieve rechtsbescherming, volledige verboden van AI-toepassingen die een te groot risico vormen voor mensenrechten en het schrappen van een brede uitzondering op AI-toepassingen voor nationale veiligheid.

Transparantie en controleerbaarheid

In het wetsvoorstel van de Europese Commissie wordt er amper ingegaanLees hier wat we daar eerder over schreven op het recht op transparantie en controleerbaarheid. Organisaties die kunstmatige intelligentie inzetten mogen in sommige gevallen weten hoe de toepassing werkt, maar kunnen daarmee niet achterhalen of een beslissing ook juist en rechtmatig is. Mensen die geraakt worden door kunstmatige intelligentie lijken al helemaal te worden overgeslagen. Zij mogen slechts in sommige gevallen weten dat ze interactie hebben met kunstmatige intelligentie. Daar heb je als burger niet veel aan. Daarom hebben we een hoop amendementen ingediend om daar verandering in te weeg te brengen. En hoewel in de voorstellen die sindsdien gepubliceerd zijn te zien is dat het de goede kant op beweegt, zijn we er nog niet.

Wij vinden dat mensen die geraakt worden door een (deels) geautomatiseerde beslissing in staat gesteld moeten worden die beslissing te kunnen begrijpen en te kunnen controleren. Daarvoor is het nodig dat organisaties die kunstmatige intelligentie toepassingen inzetten in staat zijn beslissingen op een toegankelijke manier toe te lichten en te motiveren aan mensen die erdoor geraakt worden. Daarnaast willen we dat alle risicovolle kunstmatige intelligentie toepassingen worden opgenomen in een databank. Van overheidsinstanties verwachten we dat ze alle kunstmatige intelligentie toepassingen in die databank registreren, ongeacht het risiconiveau. Ook moet er een mensenrechtenimpactassessment worden uitgevoerd bij kunstmatige intelligentietoepassingen met een hoog risico en moet deze worden gepubliceerd.

Effectieve rechtsbescherming

Als je het niet eens bent met een beslissing, moet je daar inhoudelijk op kunnen reageren. Bijvoorbeeld door daarover in gesprek te kunnen met de organisatie waar de beslissing tot stand is gekomen, of door in bezwaar of beroep te gaan. Als je naar de rechter gaat, moet je kunnen uitleggen waarom je het niet eens bent. Daarvoor is het nodig dat mensen duidelijke en begrijpelijke informatie krijgen, die ook toegankelijk is voor kinderen, anderstaligen en mensen met een beperking. Als uitkomsten van kunstmatige intelligentie niet uitlegbaar zijn of op een andere manier niet voldoen aan mensenrechtenwaarborgen, dan moeten mensen het recht hebben daar niet aan onderworpen te worden. Mensen moeten naar een toezichthouder kunnen stappen, maar ook naar de rechter kunnen als ze het niet eens zijn met een toezichthouder.

Verboden moeten echte verboden zijn

Al voor het eerste wetsvoorstel voor kunstmatige intelligentie, hebben we samen met andere organisaties gevraagdLees hier de oproep die we samen met andere organisaties deden om een aantal kunstmatige intelligentie toepassingen te verbieden die een te groot risico vormen voor mensenrechten. We waren dan ook positief verrast toen we zagen dat de Europese Commissie een lijst met verboden toepassingen had geformuleerd. We kwamen er echter al snel achter dat de verboden zo beperkt waren, en de uitzonderingen zo breed, dat er van een verbod weinig overbleefLees hier wat we daar eerder over schreven. We benadrukken daarom nogmaals de noodzaak om ├ęchte verboden op te nemen en deze uit te breiden. We pleiten voor een verbod op predictive policing en profiling toepassingen. Ook willen we een verbod op kunstmatige intelligentie toepassingen waarbij een risicobeoordeling wordt gemaakt op basis van profilering in een migratiecontext. Tot slot willen we niet alleen een verbod op realtime biometrische identificatie, maar ook een verbod op posttoepassingen, toepassingen voor commercieel gebruik, toepassingen die beweren emotie en/of mentale gesteldheid te kunnen lezen en toepassingen die zijn gericht op biometrische categorisatie.

Geen brede vrijstelling voor AI-toepassingen voor nationale veiligheid

In het wetsvoorstel worden AI-toepassingen die ontwikkeld of gebruikt worden voor nationale veiligheidsdoeleinden uitgezonderd van de AI-verordening. Dat zou betekenen dat alle waarborgen en verplichte risicobeoordelingen, waaronder een mensenrechtenimpactassessment, daar niet voor gelden.Terwijl juist bij deze toepassingen risico's ontstaan op het gebied van mensenrechten. Om mensenrechten te waarborgen moet deze vrijstelling worden geschrapt.

Samen met European Digital Rights (EDRi), European Center for not-for-Profit Law (ECNL) en Franciska Manuputty (een moeder die geraakt is door het toeslagenschandaal en zich verzet tegen onrecht) vragen we de Tweede Kamer er op aan te dringen dat mensenrechten beter beschermd worden in de AI-verordening.

Help mee en support ons

Door mijn bijdrage ondersteun ik Bits of Freedom, dat kan maandelijks of eenmalig.

Ik geef graag per maand

Ik geef graag een eenmalig bedrag