Hoe herken je Haarlemmer-kunstmatige-intelligentie-olie?
Wow, ik zou willen dat elke beleidsmaker in Nederland eens 15 minuten door dit praatje van Arvind Narayanan zou scrollen! Volgens hem is heel veel kunstmatige intelligentie die nu op de markt is Haarlemmerolie: het werkt niet en het kán ook niet werken.
Hij deelt kunstmatige intelligentie op in grofweg drie domeinen:
- Perception – Dit gaat om taken als gezichtsherkenning en medische diagnoses op basis van scans. Hier is kunstmatige intelligentie al beter dan mensen en blijft het ook nog eens verbeteren.
- Automating judgment – Dit gaat over simpele oordelen zoals het herkennen van spam of het beoordelen van essays. Hier kan kunstmatige intelligentie redelijk goed in worden, maar nooit perfect. Narayanan schrijft: “AI will never be perfect at these tasks because they involve judgment and reasonable people can disagree about the correct decision.”
- Prediction of social outcomes – Dit gaat over het voorspellen van bijvoorbeeld recidivisme van criminelen, de prestaties van een werknemer of het voorspellen van kinderen die risico lopen in hun thuissituatie. Narayanan is hier glashelder over: “These problems are hard because we can’t predict the future. That should be common sense. But we seem to have decided to suspend common sense when AI is involved.”
Het maakt niet uit hoeveel data je er tegenaan gooit, de kunstmatige intelligentie wordt niet beter in dat derde domein (kunstmatige intelligentie met de nadruk op ‘matig’ dus). Terwijl meer data er tegenaan gooien wel met risico's komt. Volgens Narayan hoef je dit soort vraagstukken helemaal niet op te lossen met kunstmatige intelligentie:
For predicting social outcomes, AI is not substantially better than manual scoring using just a few features.