Demo aanvragen

Wat is AI bias?

In dit artikel leer je wat AI bias is en wat de oorzaken van AI bias zijn. Je leert hoe inzicht in deze kwesties je kan helpen bias in AI-systemen te herkennen en aan te pakken.
Wat is AI-vooringenomenheid

AI bias treedt op wanneer een kunstmatig intelligentiesysteem oneerlijke of bevooroordeelde uitkomsten produceert als gevolg van bevooroordeelde gegevens of een bevooroordeeld ontwerp. Dit kan leiden tot discriminatie van bepaalde groepen op basis van ras, geslacht of andere factoren.

Er zijn vele soorten AI bias, van algoritmische tot cognitieve bias, elk met zijn eigen gevolgen.

In dit artikel leggen we uit wat AI bias echt betekent, waar het vandaan komt en welke verschillende soorten bias er zijn (ja, er zijn er meer dan één).

Wat is AI bias?

Er is sprake van AI bias als kunstmatige intelligentiesystemen beslissingen nemen die systematisch oneerlijk of onjuist zijn. Het is alsof de AI blijft liegen over hetzelfde, maar het verschil is dat het niet weet dat het liegt, omdat het nooit echt het andere gezichtspunt heeft gekend.

Een kleine fout in het trainingsproces kan later tot grote problemen leiden. Als een AI bijvoorbeeld vooral wordt getraind op gegevens van één groep mensen, werkt hij misschien niet zo goed voor alle anderen.

AI bias kan op veel manieren tot uiting komen en is een groot risico van AI. Het kan van invloed zijn op sollicitaties, het goedkeuren van leningen of zelfs op welke advertenties je online te zien krijgt.

Soms is het duidelijk. Andere keren zit het verborgen achter complexe algoritmes. Het belangrijkste is om je altijd af te vragen hoe beslissingen worden genomen en wie er mogelijk buiten wordt gehouden. Door alert te blijven op AI bias kunnen we helpen eerlijkere systemen voor iedereen te creëren.

De definitie van bias , is de neiging om iemand of iets te steunen of tegen te werken op een manier die niet eerlijk is, vaak omdat persoonlijke meningen of gevoelens iemands oordeel beïnvloeden. Vooroordelen kunnen tegen iemand werken (hem benadelen) of voor iemand (hem een oneerlijk voordeel geven).

Als mensen het hebben over bias in kunstmatige intelligentie, baseren ze zich op hetzelfde idee van oneerlijke voorkeur of vervorming dat wordt beschreven in de algemene definitie. Net zoals menselijke vooringenomenheid kan voortkomen uit persoonlijke meningen of sociale invloeden, ontstaat AI bias vaak omdat de gegevens die worden gebruikt om algoritmen te trainen menselijke keuzes, historische ongelijkheden of onevenwichtigheden weerspiegelen.

Soorten AI bias

AI bias is een lastig iets. Het kan in algoritmen sluipen zonder dat iemand het merkt en beslissingen vormen op manieren die op het eerste gezicht moeilijk te zien zijn.

Als we het hebben over soorten AI bias, dan hebben we het eigenlijk over de verschillende manieren waarop deze systemen het spoor bijster kunnen raken. Soms komt dat door de gegevens waarop ze getraind zijn. Andere keren is het de manier waarop mensen de regels opstellen of de resultaten interpreteren.

1. Algoritmische bias

Algoritmische bias sluipt binnen tijdens de ontwerp- of coderingsfase. Zelfs als de gegevens perfect zijn, kan de manier waarop een algoritme ze verwerkt problemen veroorzaken.

Misschien bevoordelen de regels het ene resultaat boven het andere, of misschien leert het systeem sluiproutes die nergens op slaan. Algoritmische vooringenomenheid kan subtiel zijn, waardoor het moeilijk te detecteren is totdat het al schade heeft veroorzaakt.

2. Cognitieve bias

Cognitieve bias sluipt binnen via de mensen die AI-systemen ontwerpen en aansturen. Omdat mensen hun eigen aannames, ervaringen en blinde vlekken meebrengen, kunnen die gemakkelijk bepalen hoe het model leert.

Als een ontwikkelaar bijvoorbeeld onbewust voorrang geeft aan bepaalde functies boven andere, kan de AI uiteindelijk zijn persoonlijke perspectief weerspiegelen in plaats van de werkelijkheid. Omdat cognitieve bias zo verbonden is met het menselijk oordeel, is het lastig. Soms beseffen mensen niet eens dat ze hun eigen bias doorgeven aan de machine.

3. Exlusion bias (uitsluiting)

Er is sprake van exclusion bias als kritieke gegevens nooit in het systeem terechtkomen. Misschien realiseert een ontwikkelaar zich niet dat een bepaalde groep of factor van belang is, dus wordt deze weggelaten uit de trainingsgegevens.

Het resultaat is een onvolledig beeld waardoor de AI onethische is. Denk aan een wervingsalgoritme dat deeltijds werk of niet-traditionele carrièrepaden negeert. Als je die gegevens weglaat, loop je het risico dat je gekwalificeerde kandidaten mist die niet in de "standaard" passen.

4. Confirmation bias (bevestiging)

Deze bias treedt op wanneer AI zich baseert op patronen die al bestaan in de gegevens, in plaats van op zoek te gaan naar nieuwe inzichten. Als de trainingsgegevens sterk in de richting van een bepaalde aanname wijzen, kan het systeem deze aanname alleen maar versterken en oude fouten herhalen in plaats van ze in twijfel te trekken.

Als kredietbeslissingen uit het verleden bijvoorbeeld bepaalde groepen bevoordelen, kan een AI die op die geschiedenis is getraind op dezelfde manier doorgaan met het goedkeuren van leningen en signalen negeren die zouden kunnen wijzen op nieuwe, eerlijkere mogelijkheden.

5. Steekproef en selectiebias

Steekproef- of selectiebias treedt op wanneer de dataset die wordt gebruikt om een AI te trainen niet breed of representatief genoeg is. Als de steekproef slechts een deel van de werkelijkheid omvat, zal het systeem aannemen dat dit het hele verhaal is.

Stel je een AI voor die getraind is om leerkrachten te evalueren, maar de dataset bevat alleen leerkrachten met dezelfde achtergrond en kwalificaties. Het model zou toekomstige kandidaten waarschijnlijk beoordelen op basis van die smalle mal, waardoor iedereen met andere (maar even waardevolle) ervaring oneerlijk buitenspel zou worden gezet.

Oorzaken van AI bias

De oorzaken van AI bias zijn niet altijd duidelijk. Ze kunnen verborgen zitten in de gegevens, het ontwerp of zelfs in de manier waarop mensen deze tools gebruiken.

Begrijpen waar de bias vandaan komen is de eerste stap om ze op te lossen. Laten we eens kijken naar drie hoofdoorzaken die helpen verklaren waarom AI het soms bij het verkeerde eind heeft.

Bias in datasets

De meest voorkomende oorzaak van AI bias zijn de gegevens die gebruikt worden om deze systemen te trainen. Als de gegevens onevenwichtig zijn of stereotypen weerspiegelen, zal de AI die patronen leren en herhalen.

Stel je voor dat je een kind alleen lesgeeft met boeken vanuit één gezichtspunt. Dat kind zal opgroeien met een beperkt begrip van de wereld.

Op dezelfde manier, als een AI getraind is op gegevens die voornamelijk gekenmerkt worden door één groep mensen of één soort situatie, zal het beslissingen nemen die in het voordeel zijn van wat het het beste weet.

Daarom is het zo belangrijk om diverse en goed gecontroleerde datasets te gebruiken bij het bouwen van AI-modellen. Anders wordt de vertekening in de gegevens de vertekening in de machine.

Keuzes in algoritmeontwerp

Zelfs met perfecte gegevens kan de manier waarop een algoritme is ontworpen vooroordelen introduceren. Soms maken ontwikkelaars keuzes over welke eigenschappen ze opnemen of hoe ze verschillende factoren wegen. Deze keuzes lijken misschien neutraal, maar kunnen grote gevolgen hebben.

Als een algoritme bijvoorbeeld is ingesteld om snelheid prioriteit te geven boven nauwkeurigheid, kan het belangrijke details over het hoofd zien die belangrijk zijn voor de eerlijkheid. Of, als bepaalde groepen ondervertegenwoordigd zijn in het trainingsproces, werkt het algoritme misschien niet zo goed voor hen. AI bias kan binnensluipen door deze kleine beslissingen, vaak zonder dat iemand het doorheeft totdat het systeem al in gebruik is.

Menselijke invloed en terugkoppelingen

Mensen spelen een grote rol bij het vormgeven van AI-systemen, zowel voor als na de lancering. Menselijke invloed kan zichtbaar zijn in de manier waarop gegevens worden gelabeld, de doelen die voor de AI worden gesteld of de feedback die wordt gegeven als het systeem eenmaal draait.

Als gebruikers bepaald gedrag belonen, zal de AI leren dit gedrag te herhalen, zelfs als dit gedrag vertekend is. Dit creëert feedback loops waarbij de AI steeds beter wordt in het maken van dezelfde fouten.

Na verloop van tijd worden deze patronen moeilijker te herkennen en op te lossen. Daarom is het cruciaal om AI-systemen te blijven controleren en bijwerken om te voorkomen dat vooroordelen wortel schieten.

Meer interessante informatie

Onze website maakt gebruik van cookies om uw ervaring te verbeteren en een goede werking te garanderen. Door onze cookies te accepteren, gaat u akkoord met het gebruik ervan. Lees voor meer informatie ons privacybeleid.