Overzicht stories
Persberichten

AI-gegeneerde beelden versterken raciale stereotypen

Oproep aan de wereldgezondheidsgemeenschap om AI-gegenereerde kritisch te beoordelen.
Koen Peeters AI imagery

Onderzoekers van het Instituut voor Tropische Geneeskunde (ITG) in Antwerpen en de Universiteit van Oxford daagden AI uit om nieuwe beelden te genereren die racistische stereotypen in de internationale gezondheid weerleggen. Het programma faalde hierin. Het onderzoek gepubliceerd in The Lancet Global Health, benadrukt de noodzaak om AI-modellen te trainen op een representatieve dataset om de werkelijkheid correcter weer te geven.

De onderzoekers vroegen de AI-tool Midjourney Bot (5.1) om afbeeldingen te maken met zwarte Afrikaanse artsen die witte kinderen behandelen. Ondanks de eenvoudige opdracht en de generatieve kracht van kunstmatige intelligentie, slaagde de bot er niet in. In de meer dan 300 pogingen hadden de patiënten altijd een donkere in plaats van een lichte huidskleur, sommige resultaten bevatten overdreven en cultureel aanstootgevende Afrikaanse elementen zoals giraffen, olifanten en karikaturale kleding.

Communicatie van internationale gezondheidsorganisaties en ngo’s toont Afrikanen nog vaak als afhankelijk van de zogenaamde ‘witte redder’. Het doel was om deze stereotypen te doorbreken. De resultaten hadden echter het tegenovergestelde effect, ze hielden vooroordelen in stand en gaven geen gevoel van moderniteit. De onderzoekers benadrukken dat AI-ontwikkelaars kritisch moeten kijken naar de datasets die ze gebruiken om modellen te trainen en dat de wereldgezondheidsgemeenschap zich bewust moet zijn van de vooroordelen in AI-gegeneerde beelden.

Een beeld zegt meer dan duizend woorden

Het gebruik van AI-gegeneerde beelden is wijdverspreid, ook in rapporten en promotiemateriaal van ngo’s en gezondheidsorganisaties zoals de Wereldgezondheidsorganisatie. De onderzoekers waarschuwen dat dergelijke beelden machtsonevenwichten in stand kunnen houden, stereotypen kunnen versterken en gemeenschappen verkeerd kunnen weergeven.

 Koen Peeters, antropoloog bij het ITG, benadrukt: “Onze studie suggereert opnieuw dat beelden ons denken vormgeven. Racisme, seksisme en kolonialisme zijn ingebedde processen die zich manifesteren in alledaagse scenario’s, waaronder AI.”

 “Deze studie dient als een wake-up call voor de wereldgezondheidsgemeenschap,” zegt prof. Patricia Kingori van de Universiteit van Oxford. “Bewustwording van potentiële vooroordelen in AI-gegeneerde beelden is essentieel, en maatregelen moeten worden genomen om deze te ontkrachten,” beaamt Arsenii Alenichev van de Universiteit van Oxford.

Alenichev, A., Kingori, P., & Grietens, K. P. (2023). Reflections Before the Storm: The AI reproduction of biased imagery in global health visuals. The Lancet Global Health, 11(10), e1496–e1498. https://doi.org/10.1016/s2214-109x(23)00329-7

Spread the word! Deel dit artikel op

Meer stories