Kunstmatige intelligentie

Kunstmatige intelligentie

Biometrische surveillance

Met behulp van kunstmatige intelligentie en algoritmen worden (delen van) beslissingen geautomatiseerd genomen. Dat gaat lang niet altijd goed en als het mis gaat, kan dat ingrijpende gevolgen hebben voor burgers. Wij vinden daarom dat bij het gebruik van technologie fundamentele rechten beschermd moeten worden, dat beslissingen altijd transparant en controleerbaar moeten zijn en dat er scherp en effectief toezicht moet zijn.

Wat is er aan de hand?

Overal waar we komen wordt ons het hemd van het lijf gevraagd. Van het consultatiebureau tot aan het uitvaartcentrum – en alles daartussen – wil men toegang tot allerlei persoonsgegevens. Een dataverzamelwoede raast door onze informatiesamenleving. Maar waar hebben organisaties al die gegevens voor nodig? En wat wordt er met die gegevens gedaan?

Veel organisaties experimenteren met nieuwe datatechnieken, zoals big data-toepassingen, algoritmen, kunstmatige intelligentie (ook wel Artificiële intelligentie of AI) en machine learning. Waar lokale overheden nog veel stuntelen bij het uitproberen van deze nieuwe technische speeltuin, is de Belastingdienst al zo ver dat het duizenden mensen benadeeld heeft met discriminerende algoritmenLees hier wat we schreven over de toeslagenaffaire. Hoewel er nog van alles misgaat bij het gebruik van algoritmen en kunstmatige intelligentie, is het tegelijkertijd al niet meer weg te denken uit onze samenleving.

Wat vindt Bits of Freedom daarvan?

Geautomatiseerde beslissingen
Algoritmen en kunstmatige intelligentie zijn containerbegrippen waar heel veel onder valt. Van een simpel recept om pannenkoeken te bakken tot aan het voorspellen van criminele activiteiten. Bits of Freedom richt zich vooral op (deels) geautomatiseerde beslissingen. Mensen hebben het recht om te weten waar een besluit dat hen raakt op gebaseerd is. Een besluit moet altijd uitlegbaar zijn en de totstandkoming en rechtmatigheid van het besluit moet controleerbaar zijn.

Het verhaal van data

Als het gaat om geautomatiseerde beslissingen is het natuurlijk van belang dat goed wordt nagedacht over het resultaat dat men wil behalen. Maar minstens net zo belangrijk is het onder de loep nemen van de data die gebruikt wordt. Gegevens over uiteenlopende situaties en gebeurtenissen worden verzameld, bewerkt, geïnterpreteerd en gepresenteerd in statistieken. Die statistieken worden gezien als feitelijk, objectief en neutraal. Statistieken vertellen echter niet het verhaal van de totstandkoming van de gegevens. Ze zijn beperkt tot de ‘wat-vraag’ en zeggen niks over de ‘waarom-vraag’. Als uit cijfers blijkt dat vrouwen vaak een lager salaris hebben dan mannen, vertelt het er niet bij dat vrouwen systematisch gediscrimineerd worden op de arbeidsmarkt. Cijfers waaruit blijkt dat bepaalde migrantengroepen vaker vertegenwoordigd zijn in de criminaliteit, negeren dat er etnisch geprofileerd wordt door de politie. Cijfers over opleidingsniveaus van kinderen, bespreken niet dat kinderen uit lagere sociale klassen, of kinderen met een migratieachtergrond, regelmatig een te laag schooladvies krijgen.

Al die cijfers en statistieken vertellen een verhaal met diepgewortelde maatschappelijke problemen en onrechtvaardigheid. Als we data invoeren in algoritmen en kunstmatige intelligentie toepassingen, zonder na te denken over de interpretatie van die gegevens, dan wordt het nog moeilijker om de maatschappelijke problemen binnen onze samenleving aan te pakken.

Data geven daarnaast niet altijd een goede afspiegeling weer van de maatschappij en de wereld waarin we leven. Witte heteromannen zijn vaak goed vertegenwoordigd in data, maar elke groep – en vooral elk individu – die daarvan afwijkt, niet. Desondanks wordt data als ‘neutraal’ gezien, en zo wordt ‘de norm’ en alles wat ‘afwijkt’ van die norm geïnstitutionaliseerd. Zo worden ook menselijke fouten die ongelijkheden teweeg brengen, met behulp van beslisbomen in een algoritme gestandaardiseerd.

Wat doet Bits of Freedom?

Heldere regels
De wetgeving loopt nog te ver achter op de ontwikkeling van datatechnologie. Ondertussen heeft de regering een duidelijke ambitie: Nederland moet koploper worden op het gebied van digitale innovatie. Daarbij wordt beloofd dat er veel aandacht zal zijn voor de bescherming van mensenrechten. Een belofte waar wij de overheid aan zullen houden. Wij geven daarom gevraagd en ongevraagd advies op landelijkLees hier onze brief aan Nederlandse ministeries over het AI-wetsvoorstel en Europees niveau om tot wetgeving te komen waarin jouw mensenrechtenLees hier wat wij vinden dat beter kan aan het AI-wetsvoorstel zo goed mogelijk geborgd worden.

Scherp toezicht
Naast wetgeving is er ook scherp toezicht nodig door een toezichthouder die voldoende middelen heeft om effectief op te kunnen treden. Wij zien wat dat betreft nog veel werk aan de winkel. Zo blijkt uit onderzoek dat de Autoriteit Persoonsgegevens onvoldoende budget heeft om haar huidige taken uit te kunnen voeren, laat staan de ambitieuze plannen van de overheid bij te benen. Een overheid die ‘digitaal wakker’ claimt te zijn, maar ondertussen de toezichthouder in slaap sust, dat kan natuurlijk niet. Wij roepen de ministerLees verder in deze blog daarom op zijn verantwoordelijkheid te nemen en zorg te dragen voor een onafhankelijk en effectieve toezichthouderLees hier wat we in het NRC schreven over het toezicht in Nederland.

Wij brengen AI-onderwerpen naar je toe
Er wordt zoveel over kunstmatige intelligentie en algoritmen geschreven dat het moeilijk is door de bomen het bos te zien. Wij brengen daarom steeds een belangrijk en actueel onderwerp naar je toe, in begrijpelijke taal. Hoe wapen je je bijvoorbeeld tegen politieke partijenBekijk hier onze bijdrage in het programma Pointer die op sociale media je stem voor zich willen winnen? Hoe voorspelt de politie of jij misschien tot een verdachte groep kan behoren die wel eens een strafbaar feit zou kunnen plegen? En al die camera’s die in het centrum staan, kunnen die jouw gezicht al herkennen? Is er een onderwerp waar jij graag meer over zou willen weten? Vertel het ons!

Rechtvaardige geautomatiseerde besluitvorming
We weten dat er veel risico’s kleven aan het gebruik van technologie bij besluitvorming. Discriminatie, oncontroleerbaarheid en onrechtmatige besluiten liggen op de loer. Maar is het ook mogelijk om het tij te keren of technologie juist in te zetten voor een rechtvaardigere samenleving? Dat gaan wij samen met anderen onderzoeken.

Help mee en steun ons

Door mijn bijdrage ondersteun ik Bits of Freedom, dat kan maandelijks of eenmalig.