Een nieuw onderzoek van de Johns Hopkins University en Georgia Institute of Technology heeft aangetoond dat robots die gebruikmaken van artificiële intelligentie racistische en seksistische keuzes maken. In het onderzoek moesten de robots gezichten classificeren en daarbij gingen ze vaak voor de racistische en seksistische opties.
Robots worden vaak gezien als neutraal en objectief. Maar een nieuwe studie toont aan dat robots die gebruikmaken van artificiële intelligentie keuzes maken die gemotiveerd zijn door racisme en seksisme. De studie gaat uit van onderzoekers van het Georgia Institute of Technology, de University of Washington, Johns Hopkins University en de Technical University of Munich.
Racistische en seksistische keuzes
Tijdens het experiment kregen de robots miljoenen virtuele blokken met daarop foto’s van gezichten. De robots moesten de blokken indelen in 62 verschillende categorieën. Het ging daarbij bijvoorbeeld om ‘dokter’, ‘crimineel’ of ‘persoon die instaat voor het huishouden’.
De robots plaatsten daarbij blokken met het hoofd van zwarte mannen herhaaldelijk in de categorie crimineel, terwijl vrouwen al snel naar de categorie met mensen die instaan voor het huishouden gingen. Het is niet de eerste keer dat robots met artificiële intelligentie beschuldigd worden van racisme. Daarbij hebben ze bijvoorbeeld ook vaker problemen om gekleurde mensen te herkennen.
Robots zijn niet neutraal
De laatste jaren proberen bedrijven om meer werk te automatiseren met behulp van robots. Deze zouden er dan voor zorgen dat personeelstekorten in bepaalde sectoren opgevangen worden. Het gaat daarbij om zaken als rekken vullen in supermarkten, pakketjes leveren, maar ook zorg verlenen aan ziekenhuispatiënten. En vooral bij dit soort taken kan een racistische of seksistische bias voor problemen zorgen.
De onderzoekers verwezen naar voorbeelden waarbij de bias van robots voor problemen kan zorgen. Zo verwijst Andrew Hundt (Georgia Institute of Technology), de hoofdonderzoeker van de studie, naar situaties waarbij een robot producten uit rekken moet halen. Veel boeken, speelgoed en zelfs voedingswaren hebben personen op de verpakking of buitenkant staan. Wanneer een robot daarbij een voorkeur heeft voor een bepaalde groep mensen, kan dat voor problemen zorgen. Vicky Zeng van de Johns Hopkins University vult aan: “Een kind kan bijvoorbeeld aan een huisrobot vragen om ‘een mooie pop’ te brengen en dan komt de robot telkens met een blanke pop terug”.
Bijna onmogelijk
Abeba Birhane van de Mozilla Foundation, die raciale stereotiepen in taalmodellen bestudeerd, ziet problemen op lange termijn. “Robotsystemen worden gezien als objectief en neutraal in vergelijking met algoritmische systemen. Dat betekent dat de schade die ze toebrengen lang onder de radar kan blijven.”
Volgens Birhane is het bijna onmogelijk om artificiële intelligentie te hebben die volledig neutraal is. Maar bedrijven die werken met AI-robots moeten zich hiervan bewust zijn en de technologie bijsturen waar nodig.