ENGINEERINGNET.BE - De Nederlandse Nationale Vacaturebank en de Universiteit Radboud testten het uit en ontdekten een verrassend nadeel: het zelflerende systeem discrimineerde, het maakte onderscheid tussen man en vrouw én vergrootte de loonkloof.
De Nederlandse Nationale Vacaturebank gebruikt AI al om bij sommige vacatures een lijstje te tonen van vergelijkbare jobs die vaak samen bekeken worden. Het zoeken naar vacatures automatiseren is hierin een volgende stap. Een werkzoekende uploadt de cv en geeft voorkeuren aan. De AI zoekt de best passende vacatures. De Nederlandse onderzoekers probeerden liefst 900.000 cv’s en 12 miljoen vacatures met elkaar te matchen.
Opzet daarbij was om op een eerlijke manier vacatures aan te bevelen, zonder te discrimineren op geslacht, ras of geloof. Het zelflerende systeem dat de Nederlandse Vacaturebank ontwikkelt en test, onderzocht 467.000 cv's van mannen en 437.000 cv's van vrouwen uit de databank van de Nationale Vacaturebank. Alle cv's waren geanonimiseerd en bevatten geen persoonsinformatie, zoals naam, adres of andere contact-informatie.
Man versus vrouw
Het systeem ontdekte al snel dat bepaalde beroepen gedomineerd worden door mannen en andere door vrouwen. Administratie en secretariaat staan bij 38% van de vrouwen op het cv, tegenover 9% bij de mannen. Techniek komt dan weer voor bij 22% van de mannelijke cv’s tegenover 2% bij de vrouwelijke. Een ander element dat de AI opmerkte, is dat vrouwen en mannen ander taalgebruik hanteren. Woorden zoals resultaatgericht, winnaarsmentaliteit en geen 9-to-5-mentaliteit komen vaker voor op cv’s van mannen. Vrouwen gebruiken eerder woorden als teamplayer en communicatief. Zo slaagde de AI er in om bij 86% van de anonieme cv’s te raden wat het geslacht was van de persoon achter het cv.
Gemiddeld 1.680 euro minder verdienen
Resultaat: het zelflerende systeem matchte vrouwen veel minder met vacatures voor voornamelijk ‘mannelijke’ beroepen en andersom. Ook lag het gemiddelde loon van vacatures waaraan vrouwen werden gematcht, lager dan dat voor mannen. Gevolg: in Nederland zou een vrouw hierdoor 1.680 euro per jaar minder verdienen dan een man. AI bestendigde de gemiddelde loonkloof tussen mannen en vrouwen. In Nederland verdienen vrouwen 13,5 % minder per uur dan hun mannelijke collega’s . België doet het beter met een loonkloof van 5% (Statbel, 2021).
De onderzoekers pasten daarom het zelflerende systeem op twee manieren aan. In een eerste methode vervingen ze alle woorden uit het cv die het geslacht konden verraden, door algemene termen. De AI raadde in 85% nog steeds het geslacht. De loonkloof vergrootte zelfs tot 1.900 euro per jaar minder voor de vrouwen. Bij de tweede methode gaf het systeem zelf feedback, zodat het moeilijker werd om het geslacht te raden. Dat lukt de AI nog in 82% van alle cv’s. Hier kromp de loonkloof tussen mannen en vrouwen wel serieus in, tot 180 euro per jaar minder voor vrouwen. De onderzoekers gaan nu verder na in hoeverre deze ‘eerlijker’ methode de kwaliteit van de matching beïnvloedt.
Menselijke vooroordelen
Valeria Pulignano, Professor Sociologie van Arbeid en Arbeidsverhoudingen en lid van Leuven.AI aan de KU Leuven, is niet verrast: “Algoritmen worden vaker gebruikt bij het rekruteren van medewerkers. Ook andere studies toonden al aan dat ze discrimineren, niet alleen tussen mannen en vrouwen, maar ook tussen zwarten en blanken.” De reden daarvoor hoeven we niet ver te zoeken.
“Het betreft hier machine learning. AI maakt gebruik van databanken en algoritmen die door mensen zijn ingevoerd en geprogrammeerd. Op deze manier sluipen menselijke vooroordelen gemakkelijk de AI-modellen binnen. Zo reflecteren die algoritmen onder meer de karakteristieken van een blank persoon.” Echter, dit kan ernstige sociale gevolgen met zich brengen.
“Enkele maanden geleden werd in Italië een werknemer die op ziekteverlof was, onterecht ontslagen. Ziekteverlof was niet in het algoritme geprogrammeerd en zo bleek de werknemer volgens het systeem ongewettigd afwezig. Het platform is hiervoor gesanctioneerd en geweigerd.”
Algoritmes aanpassen
We moeten ons volgens Pulignano niet alleen bewust zijn van dergelijke sociale implicaties, maar er ook iets aan doen. “Mensen creëren die algoritmen en dus kunnen mensen die ook aanpassen. Voor het gebruik van die AI moeten we een humane visie ontwikkelen. Zo zullen we erin slagen om bepaalde euvels en hiaten te verminderen of zelfs weg te werken.” Moeten we dan wachten met het implementeren van AI bij rekrutering?
“Zeker niet, want iedereen moet met gelijke middelen kunnen zoeken naar een job. Het is vooral zaak om de AI op een menselijke, ethische en niet-discriminerende manier toe te passen. We moeten de sociale effecten van deze technologieën respecteren. Zo wordt het hoog tijd om de implementatie van de AI mee te nemen in het sociaal overleg. Ook de vakbonden moeten bereid zijn om zich bezig te houden met deze technologieën, naast de arbeidslonen en -voorwaarden. Een nieuwe mindset is nodig, anders missen we de boot. Het is vandaag nog moeilijk, maar we moeten daar naartoe groeien.”
Wettelijk kader
Dat laatste zorgt vooralsnog voor een spanningsveld. “Als we spreken met ingenieurs moeten bedrijven hun innovaties zo snel mogelijk implementeren om efficiënter te werken. Dat is de logica van de markt. Dit laat echter geen tijd en ruimte om eerst na te denken over de sociale implicaties van die vernieuwingen voor de werknemers en de bevolking. Dit spanningsveld moet opgelost worden. Hiervoor is het nodig dat een overheid een kader creëert en reguleert hoe de algoritmes moeten worden afgestemd om mogelijke negatieve gevolgen te vermijden”, benadrukt ze.
Met de AI Act werkt Europa aan dat kader tegen 2025. Nederland lanceerde een jaar geleden, in juli 2022, een eigen Actieplan arbeidsdiscriminatie. Om de toekomstige AI Act te implementeren moet er, volgens de community AI4Belgium, in ons land een nationale toezichthoudende autoriteit worden opgericht. Die moet ervoor zorgen dat AI wordt gebruikt in overeenstemming met de juridische regels. Het erkent dat “algoritmische vooringenomenheid een ware uitdaging vormt. Een billijke gegevensverwerking waarborgen is dus cruciaal om eender welke vorm van discriminatie te vermijden.”