Terug naar begrippenlijst
3 minuten

Machine Learning bias

Machine Learning bias ontstaat wanneer een AI-systeem vooringenomen beslissingen neemt zonder dat het dat zelf doorheeft. Dat komt doordat het model leert van data, en data is zelden neutraal. Wat je erin stopt, bepaalt wat eruit komt en als die input al scheef staat, dan leert de AI dat dus ook. Dit kan resulteren in een model dat bijvoorbeeld mannen vaker als CEO herkent dan vrouwen, of dat mensen uit bepaalde regio’s minder snel goedkeuring geeft bij een sollicitatie of aanvraag. Het systeem discrimineert niet bewust, maar het doet het wel.

lachende-man-met-zwarte-achtergrond

Geschreven door Bo Pennings

Zwaaiende emoji

Bo AI specialist

Meer over Bo

Inhoudsopgave

Vooroordelen in codevorm

Bias klinkt als iets menselijks, maar machines kunnen het ook. Niet omdat ze een mening hebben, maar omdat ze patronen volgen. Als het overgrote deel van de trainingsdata scheef verdeeld is, dan leert het model dat die scheve verhouding “normaal” is.

En dat zie je terug in AI-systemen die gezichten minder goed herkennen bij mensen van kleur, of in algoritmes die bepaalde groepen structureel benadelen. De AI verzint dat niet zelf, maar leert het van mensen.

Waarom het lastig te zien is

Het lastige aan bias in Machine Learning? Je ziet het vaak pas achteraf. Want als een model accuraat lijkt te werken, kijken we niet altijd naar voor wie het werkt en voor wie niet. Bovendien is bias soms subtiel. Geen keiharde fout, maar een lichte voorkeur in de uitkomst. Net genoeg om invloed te hebben op beslissingen, zonder dat iemand direct aan de bel trekt.

Wat kun je eraan doen?

Bias voorkomen begint bij bewustzijn. Door kritisch te kijken naar je trainingsdata, door verschillende perspectieven mee te nemen in de ontwikkeling en door modellen te testen op diverse doelgroepen. Je hoeft bias niet volledig uit te roeien, dat is (nog) onmogelijk. Maar je kunt het wel verkleinen, ondervangen en transparant maken. Zodat AI niet alleen slim is, maar ook eerlijk(er).

Veelgestelde vragen

Niet per se. Soms is een lichte bias onvermijdelijk. Het wordt pas problematisch als het leidt tot structurele uitsluiting of ongelijkheid.

Data is een belangrijke factor, maar ook modelarchitectuur, interpretatie en evaluatiecriteria kunnen bias versterken.

Door goed te testen op diversiteit: werkt het model even goed voor verschillende geslachten, leeftijden, etniciteiten en situaties?

Waarschijnlijk niet. Maar je kunt het wel verminderen en er open over communiceren. Transparantie is hierin cruciaal.

lachende-man-met-zwarte-achtergrond

Bo Pennings AI specialist

Meer over Bo

Ik werk al 15 jaar bij Wux als solutions architect en heb in deze periode kennis opgedaan over front-end, back-end en software ontwikkeling. De afgelopen jaren heb ik me steeds meer verdiept in kunstmatige intelligentie en hoe dit ingezet kan worden voor onze klanten. Zo help ik bedrijven in het MKB met complexe, technische vraagstukken in hun operatie en vertaal dit naar gebruiksvriendelijke applicaties.

Door mijn expertise heb ik honderden bedrijven geholpen op een transparante manier met een online groei en verbeterde online zichtbaarheid. Ik word regelmatig gevraagd voor mijn input over ontwikkelingen in het digitaal landschap en vertel hierover in andere media. Voor meer informatie kan je ons portfolio en mijn profiel bekijken.

Twee lachende collega's in overleg kijkende naar een computerscherm
Zwaaiende emoji

Remco Back-end developer

Hoe kunnen we ook jouw bedrijf laten groeien?

Het team van Wux staat voor je klaar om samen te werken aan jouw online groei. Neem vandaag nog contact op om te ontdekken hoe wij bedrijven zoals dat van jou elke dag succesvoller maken.

Kennismakingsgesprek