FIRM vraagt meer transparantie bij gebruik van algoritmen door de overheid

Persbericht - Het Federaal Instituut voor de Rechten van de Mens (FIRM) diende deze week een advies in waarin het meer transparantie vraagt over het gebruik van algoritmen en artificiële intelligentie door de overheid. “Een algoritme is niet onfeilbaar. Het kan bepaalde vooroordelen hebben en fouten maken”, zegt Martien Schotsmans, directeur van het FIRM.  “Transparantie is bijgevolg uiterst belangrijk om te vermijden dat dergelijke fouten leiden tot schendingen van de mensenrechten.” 

Impact op mensenrechten 

Algoritmen worden vaak ingezet om bepaalde beslissingen te automatiseren, denk maar aan het algoritme van Facebook, dat ook nu weer heel wat stof doet opwaaien. Maar ook de overheid gebruikt algoritmen: om een school te selecteren voor kinderen of om misdaad te voorspellen. Of voor gezichtsherkenning in de publieke ruimte, waarbij niet altijd duidelijk is hoe en waarvoor die gezichtsherkenning wordt gebruikt. Dit levert de overheid een grote efficiëntiewinst op, maar is niet helemaal zonder risico, zoals recent nog duidelijk werd in Nederland. De identificatie van sociale fraude via algoritmen liep daar fout en leidde ertoe dat veel families in financiële problemen kwamen.

Een algoritme is niet onfeilbaar. Het kan bepaalde vooroordelen hebben en fouten maken. Transparantie is bijgevolg uiterst belangrijk om te vermijden dat dergelijke fouten leiden tot schendingen van de mensenrechten.

In België weten mensen vaak niet voor welke beslissingen de overheid algoritmen gebruikt. Daarnaast is het ook niet altijd duidelijk hoe een algoritme persoonsgegevens verwerkt. Op deze beide vlakken moet er volgens het FIRM meer transparantie komen om respect voor de mensenrechten te kunnen garanderen. 

Wetsvoorstel als eerste stap 

Het FIRM diende deze week een advies in over een wetsvoorstel dat het gebruik van algoritmen door de overheid transparanter wil maken. “Het wetsvoorstel is een eerste interessante stap om een kader te creëren voor het gebruik van artificiële intelligentie en algoritmen door overheidsdiensten”, zegt Schotsmans. “De vereiste transparantieverplichting zou echter nog kunnen uitgebreid worden naar álle federale overheden. Nu vallen justitie, politie, leger en inlichtingendiensten buiten het wetsvoorstel, terwijl zij ook gebruik kunnen maken van technologieën die risico’s inhouden voor de mensenrechten, denk maar aan gezichtsherkenning.” Ook op Europees niveau leeft deze kwestie. In het Europese Parlement werd deze week nog een tekst aangenomen om het gebruik van artificiële intelligentie door politie en justitie strenger te reguleren.

Het wetsvoorstel voorziet ook een uitzondering voor “bij wet beschermde geheimen”. Deze formulering vindt het FIRM te onnauwkeurig. Volgens het instituut zou dit ertoe kunnen leiden dat het toepassingsgebied van de wet sterk wordt beperkt, bijvoorbeeld wanneer een privébedrijf de technologie voor de overheid ontwikkelt. De transparantieplicht zou hier opzij geschoven kunnen worden om de intellectuele eigendom of het bedrijfsgeheim niet te schenden. 

Tot slot pleit het FIRM ook voor een openbaar register waarin het gebruik van artificiële intelligentie door de overheid wordt bijgehouden. Iedereen zou dit register moeten kunnen raadplegen om meer te weten over de gebruikte systemen, de mate waarin ze autonoom leren en de aard van de gegevens waarop dat leren is gebaseerd. 
 

Lees het volledige advies

naar boven