Slechts foto’s van mannen wanneer je ‘CEO’ opzoekt of gezichtsherkenning die niet werkt voor mensen van kleur: kunstmatige intelligentie is vaak seksistisch en discriminerend. Dat probleem vindt zijn oorsprong niet in AI, maar juist in de fysieke samenleving.
AI blijkt vaak seksistisch en discriminerend: 'Kan nóóít neutraler zijn dan de mens'
“AI legt vooroordelen vast en verspreidt het op grotere schaal”, zegt Siri Beerends, cultuursocioloog en promovendus op het gebied van kunstmatige intelligentie.
Clichés
Er zijn tal van voorbeelden waarbij kunstmatige intelligentie vrouwen en mensen van kleur benadeelt. “Amazon gebruikte kunstmatige intelligentie om te bepalen wie aangenomen moest worden voor een technische functie. Daarvoor werden toen alleen mannen geselecteerd. Het AI-systeem was namelijk getraind met data uit het verleden, en in het verleden zijn er meer mannen aangenomen voor technische banen.” Ook bij het genereren van afbeeldingen of teksten, bijvoorbeeld in ChatGPT, komt de man beter uit de verf. Zo wordt de man vaker als deskundige geschetst, terwijl de vrouw wordt getypeerd als verzorger.
“Je ziet ook veel stereotypen van cultuur. Als je een afbeelding van een Indiase vrouw genereert, krijg je gelijk een vrouw te zien met een stip op haar hoofd. Het zorgt voor een versterkt clichébeeld van mannen, vrouwen en culturen die juist door elkaar heen lopen.”
Onze eigen bias
Dat kunstmatige intelligentie seksisme en racisme vertoont, komt door onze eigen samenleving. “Alle vooroordelen, stereotypen en ongelijkheden die in de fysieke wereld bestaan, zitten in de data die we in AI-systemen stoppen. Zo wordt in AI de bias herhaald die we zelf hebben”, legt Beerends uit. “De macht van de meerderheid wordt op iedereen toegepast. Als jij afwijkt van het gemiddelde, heb je een probleem.”
“Dat laat zich niet technisch oplossen, dat is iets waar we in de fysieke wereld aan moeten werken.” AI is meer dan een spiegel van onszelf. “Het legt onze vooroordelen vast, maar verspreidt die ook nog eens op grotere schaal.”
Een perfect reisschema of goed recept: dit zijn de handigste dingen waarvoor je ChatGPT kan gebruikenLees ookGeen oplossing
“Eigenlijk is het een probleem wat niet op te lossen is. Als je een AI-systeem eerlijker maakt, krijg je allerlei andere problemen, bijvoorbeeld dat het systeem minder nauwkeurig wordt.” Een ander probleem heeft te maken met compensatie. AI-systemen extra data voeren van een bevolkingsgroep die minder gerepresenteerd wordt, kan averechts uitpakken. “Bij Gemini, de AI van Google, werd ontdekt dat een witte huidskleur oververtegenwoordigd was. Google wilde die bias oplossen door zo veel mogelijk verschillende huidskleuren in het systeem te stoppen, maar toen ontstonden er ook afbeeldingen van nazi’s met een zwarte huidskleur.”
De patronen in kunstmatige intelligentie doorbreken, blijkt lastig en misschien wel onmogelijk. “Ik geloof niet in een technische fix. Je kan niet alles uitdrukken in data. Dat zal nooit de ambiguïteit, gelaagdheid en context van wat zich in een mens afspeelt kunnen tonen.”
Onmenselijk
Toch kan het wel lijken alsof kunstmatige intelligentie de vaardigheden heeft van een mens. “ChatGPT simuleert dat ook. Maar het heeft niet al die lagen en finesses. Teksten overnemen en napraten is iets anders dan daadwerkelijk emoties en zintuigen hebben.” Beerends meent dat wij AI nog te veel als mens zien. “We denken dat het hetzelfde werkt als hoe een menselijk brein werkt, terwijl dat feitelijk niet zo is.”
Veel mensen denken ook dat AI neutraler is dan de mens. “Dat is een groot misverstand”, benadrukt Beerends. “Neutraal zijn bestaat niet. Dat bestaat niet voor een mens, want je kan je eigen waarneming niet uitzetten. Het geldt dus ook niet voor de data die wij produceren en de systemen die we bouwen. Het is heel gek om te denken dat iets wat wij bouwen neutraler kan zijn dan wij.”
Hallo businessvrouw: zó start je een bedrijf met behulp van AILees ook