Uitleggen hoe het werkt is niet genoeg
Gebruikers van kunstmatige intelligentie moeten volgens het wetsvoorstel kunnen begrijpen hoe een beslissing tot stand is gekomen en door de makers geïnformeerd worden over mogelijke fouten en risico’s. Ook moeten mensen op elk moment kunnen ingrijpen of ervoor kunnen kiezen de kunstmatige intelligentie niet te gebruiken. En er moet iemand aan een noodrem kunnen trekken. Wat echter nog onvoldoende geregeld is, is hoe mensen kunnen controleren of een besluit rechtmatig tot stand is gekomen. Je kunt uitleggen dat een migratieachtergrond, laag inkomen en bepaalde postcode tot het besluit hebben geleid dat iemand een hoger risico vormt op uitkeringsfraude. Maar daarmee is zo’n discriminerende uitkomst nog niet gerechtvaardigd. Bovendien is het maar de vraag of deze regels mensen voldoende aanmoedigen om kritisch naar uitkomsten van kunstmatige intelligentie te kijken. Wordt hiermee niet te veel vertrouwd op een techniek die nog volop in ontwikkeling is en nog verre van foutloos?
Mensen die te maken krijgen met kunstmatige intelligentie, bijvoorbeeld als er in een ruimte gebruik gemaakt wordt van emotieherkenning, moeten daarover geïnformeerd worden. Maar dat hoeft volgens dit voorstel niet als de toepassing gebruikt wordt om strafbare feiten te voorkomen, op te sporen of te onderzoeken. Hierbij wordt niet aangegeven dat het moet gaan om concrete strafbare feiten. En daarmee hebben we wederom te maken met een hele brede uitzondering, want men kan overal in de publieke ruimte strafbare feiten willen voorkomen en daarbij gebruik willen maken van gezichts- of emotieherkenning.