Niet zo slimme algoritmen
Sommige gemeenten maken al gebruik van zo'n algoritmeregister, zoals de gemeente AmsterdamZie hier het register van de gemeente Amsterdam. Eén van de onderwerpen in het register is het ‘tegengaan van discriminatie’. Daaronder worden risico’s benoemd die mogelijk zouden kunnen leiden tot discriminatie. Een aantal maanden terug stond er een algoritme tussen van een ‘slimme camera’ die in de openbare ruimte keek of mensen wel voldoende afstand van elkaar hielden. Op een groot scherm werden de gezichten van mensen vervangen door gekleurde smiley’s. Groen voor de mensen die genoeg afstand hielden, rood voor mensen die te dicht op elkaar stonden.Bekijk hier de zogeheten 'anderhalve meter monitor'
Een risico van dit wegens corona ingevoerde algoritme, was dat de camera’s mogelijk niet alle mensen zou herkennen, bijvoorbeeld omdat men niet wist of het algoritme wel op verschillende huidskleuren, leeftijden, lengtes of kledingstijlen getrained zou zijn. Maar dat weerhield de gemeente er niet van om de camera’s alsnog in te zetten. En dat illustreert meteen waarom een algoritmeregister onvoldoende is om te zorgen voor veilig gebruik van algoritmen en kunstmatige intelligentie. Het benoemen van de risico’s zonder daar maatregelen voor te treffen, zorgt er vooral voor dat risico’s genormaliseerd en geaccepteerd worden.