Hulporganisaties en NGO’s gebruiken steeds vaker door artificiële intelligentie (AI) gegenereerde beelden om extreme armoede te tonen. Dit heeft gezorgd voor een opleving van de discussie rond “poverty porn,” het gebruik van confronterende beelden om fondsen te werven.
Een recente studie toont aan dat deze AI-beelden vaak schadelijke stereotypen in stand houden, met scènes van ondervoeding en ontmenselijkende situaties.
Betaalbaar gemak
De populariteit van deze beelden is toegenomen doordat ze gemakkelijk en goedkoop te verkrijgen zijn op stockfotowebsites. Dit is aantrekkelijk voor organisaties met een beperkt budget. Het gemak omzeilt bovendien de complexe ethische kwesties rond het gebruik van echte foto’s, zoals het verkrijgen van toestemming van de gefotografeerde personen.
Critici waarschuwen dat deze gemakzucht en ‘poverty porn’ een hoge prijs heeft. De AI-gegenereerde beelden bevestigen vaak raciale stereotypen. Ze tonen Afrikanen of Aziaten in karikaturale armoede. Hoewel platforms de mogelijke vooringenomenheid van AI erkennen, leggen ze de verantwoordelijkheid vaak bij de gebruiker. Het is een uitdaging vergelijkbaar met het ‘drogen leggen van de oceaan’ om alle bias uit AI te halen.
Ethische knoop
Hoewel sommige organisaties het gebruik van AI verdedigen om de privacy en waardigheid van echte mensen te beschermen, uiten critici grote bezorgdheid. Zij vrezen dat het gebruik van verzonnen beelden complexe sociale problemen vervormt en het publiek een vertekend beeld van de realiteit geeft. De grootste vrees is dat deze AI-beelden, die als trainingsdata voor toekomstige AI-modellen dienen, bestaande vooroordelen over kwetsbare bevolkingsgroepen blijvend versterken.
