Cor Veenman
- Machine learning
- Data science
- Responsible data science
- Fairness
- Bias
Neem contact met ons op over Fair Machine Learning
De decorrelatie voor fair machine learning voert TNO uit met een Generative Adversarial Network (GAN) model. Dit model probeert twee tegenstrijdige criteria tegen elkaar af te wegen:
1) De dataset zo min mogelijk veranderen
2) Iemand’s geslacht niet meer definiëren aan de overgebleven kenmerken
Bij het afwegen van de criteria, generaliseert het model bestaande kenmerken van individuen naar meer algemene kenmerken. Bijvoorbeeld door postcodes naar wijken, wijken naar steden, steden naar landen te generaliseren. Het eindresultaat is een dataset waarbij iemand’s geslacht (criterium 2) nagenoeg niet herkenbaar is. Kortom, de gender bias is uit de dataset verdwenen.
Fair machine learning is relevant bij allerlei vormen van discriminatie en bias die ontstaat bij het gebruik van vooringenomen data. Naast werving en selectie is het bij toezicht-, inspectie- en handhavingstaken ook belangrijk dat het AI algoritme eerlijk is. Zo dienen geslacht, religie en etniciteit niet als selectiekenmerk te worden benut. AI machine learning tools kunnen het vinden van vergelijkbare individuen voor allerlei selectietaken efficiënter en effectiever maken. De historische bias, die zonder deze tools minder opvallen, worden met AI tools structureel en systematisch doorgezet. Fair machine learning vermindert en voorkomt deze discriminatie.
De vraag is verzonden! Je ontvangt binnenkort een bevestigingsmail.
Er is helaas iets misgegaan. Probeer het later opnieuw!