• Menu

0 recente resultaten

De zwarte doos van algoritmes: hoe discriminatie wordt geautomatiseerd

00:00
-55:28
00:00

​​​​​Evelyn dook deze week in de (allesbehalve mannelijke) wereld van glitch art, hebben we het over het algoritme dat jarenlang door de Gemeente Rotterdam is gebruikt om te voorspellen wie van de bijstandsgerechtigden zou kunnen knoeien met hun uitkering en bellen we in met podcast-kopstuk Lieven Heeremans.

​​​​​Evelyn dook deze week in de wereld van glitch art. Er werd een veiling van glitch art aangekondigd door Sotheby's (vet!). Die veiling werd vervolgens uitgesteld nadat kunstenaars klaagden over de volledig mannelijke programmering (niet zo vet, want glitch art heeft van oudsher juist veel vrouwelijke en queer makers). Zoals bijvoorbeeld Rosa Menkman. Haar werk werd opmerkelijk genoeg wél in de aankondiging van de veiling gebruikt, maar niet opgenomen in de veiling.

En we duiken dieper in het algoritme dat jarenlang door de Gemeente Rotterdam is gebruikt om te voorspellen wie van de bijstandsgerechtigden zou kunnen knoeien met hun uitkering. Het algoritme bleek vol vooroordelen te zitten en richtte zich vooral op kwetsbare groepen, zoals vrouwen die geen Nederlands spreken en jonge alleenstaande moeders. Dit onderzoek van Follow the Money laat zien hoe dit soort algoritmes leiden tot discriminatie en stigmatisering.

Onze beleidsadviseur Nadia legt uit dat we een trend zien waarbij vrouwen van kleur, vaak moeders met een laag inkomen, een veel grotere kans maken om aan een fraudeonderzoek onderworpen te worden dan andere mensen. Dit kan als gevolg hebben dat deze groepen worden geproblematiseerd en soms zelfs gecriminaliseerd. Wat uniek is aan het onderzoek naar het algoritme dat door Rotterdam gebruikt werd, is dat er toegang is verkregen tot heel veel informatie, waaronder de technische informatie. Hiermee waren de onderzoekers in staat om het algoritme na te maken en te testen. Dat geeft veel inzicht in de werking van algoritmen en de onderliggende data, vertelt onze onderzoeker Joran.

Er is behoefte aan meer transparantie en beleid omtrent het gebruik van algoritmen. Zelflerende algoritmen moeten worden afgekaderd en er moet meer aandacht zijn voor (het gebrek aan) kwaliteit van de data die wordt gebruikt. De AI-verordening biedt kansen om de ontwikkelingen op het gebied van algoritmes beter te reguleren en de transparantie en verantwoording te vergroten, maar we zijn er nog niet, aldus Nadia.

En tot slot bellen we in met Lieven Heeremans. Als mede-oprichter van het Podcastnetwerk en allround audionerd heeft hij een neus voor niet visuele internetcultuur. Hij neemt ons mee in de wereld van Radio Gardens en luisteren naar Wikipedia. Lieven vertelt ons meer over de avond die hij cureert, waarop alles wat er te beleven is in de audiocommunity op internet de revue passeert.

Help mee en support ons

Door mijn bijdrage ondersteun ik Bits of Freedom, dat kan maandelijks of eenmalig.

Ik geef graag per maand

Ik geef graag een eenmalig bedrag