Racisme in algoritmes

De Black Lives Matter-beweging strijdt voor vrijheid, bevrijding en rechtvaardigheid.

Tijd om ook algoritmes onder de loep te nemen om te zien of ze rechtvaardig en zonder vooroordelen zijn opgebouwd. Is de mens in staat om een algoritme te bouwen zonder vooroordelen, discriminatie en racisme?

De Belastingdienst voegde bij de controle van de aangiftes een extra selectieregel toe, op basis van etniciteit. Bedacht door een mens, uitgevoerd door computer. Een soort ‘Computer Says No’- principe, waar de computer op binair niveau een uitslag uitspuugt op basis van een tweede nationaliteit. Het ging mis, en de Belastingdienst erkende haar fout.

Hoe kunnen we ervoor zorgen dat algoritmes gevrijwaard zijn van subjectiviteit en vooroordelen? Of kunnen we sommige oordelen toch beter overlaten aan de mens? In een podcast van The Guardian vertelt schrijver Malcolm Gladwell over zijn nieuwe boek Talking to Strangers. Hij deelt een experiment uit de Verenigde Staten waarin rechters wedijveren met robots. Rechters in New York moeten soms honderden zaken per dag wegwerken. Ze beslissen of ze de verdachte vrijlaten en terug laten komen voor een uitgebreider proces, of opsluiten omdat er een ogenblikkelijk gevaar is voor de maatschappij.

Is de mens in staat om een algoritme te bouwen zonder vooroordelen, discriminatie en racisme?

In dit experiment op schaal worden honderdduizenden zaken behandeld door een menselijke rechter en een AI-robot. Het verschil tussen het beoordelingsvermogen van robot en mens blijkt aanzienlijk. Als de computer hetzelfde aantal beklaagden zou vrijlaten als de rechters, zouden deze beklaagden een kwart minder misdaden begaan in de toekomst. De voorspelling van de robotrechter was in dit geval dus aanzienlijk accurater. Onbewust neemt de rechter niet-rationele zaken mee, zoals non-verbale communicatie. Iemand die lacht in de rechtszaal of ongeduldig schuifelt op zijn stoel zal wel wat te verbergen hebben. Dit wordt door een relatief homogene groep van rechters, onbewust of bewust in de uitspraak meegenomen.

Het blijft mensenwerk om morele en sociale zaken af te wegen en te oordelen over goed en fout. En uiteraard wordt de kwaliteit van de robot-output bepaald door programmering en input van mensen die de algoritmes schrijven.

Toch zijn er voordelen in dit voorbeeld: naast accuratesse is er de tijdswinst. Laat die computer zich maar verdiepen in dikke wetboeken en dossiers vol met jurisprudentie, dan kan er meer menselijke tijd besteed worden aan complexere zaken. Om die reden wordt in Amerika Robot Ross al ingeschakeld, een soort Siri die je juridische vragen kan stellen. Geen Mike Ross uit Suits, maar Robot Ross.

Minder vooroordelen in de rechtszaal is het streven, zodat Vrouwe Justitia haar blinddoek kan blijven om houden.

Gepubliceerd in Het Financieele Dagblad op 27 juni 2020