Uitdagingen en strategieën tegen bias in AI

Greatminds podcast

Greatminds podcast
Uitdagingen en strategieën tegen bias in AI
May 07, 2024 Season 1 Episode 2
Hildo van Es en Robin Smits

Send us a text

In de tweede aflevering van de greatminds podcast staan Hildo van Es, solution architect en medeoprichter van greatminds, en Robin Smits, data scientist en eigenaar van LumiML Consulting, stil bij een van de meest prangende kwesties in de wereld van kunstmatige intelligentie: bias.

Bias in AI-systemen komt voor in vele vormen. Het gaat vaak om vooroordelen over gender, etniciteit of religie. Daarnaast spelen ook aannames over beroepsgroepen een rol. AI-modellen weerspiegelen helaas vaak menselijke tekortkomingen. Dit gebeurt vooral bij grote taalmodellen (LLMs). Ze trainen namelijk met teksten die via web scraping verzameld worden. Deze teksten bevatten vaak al de vooroordelen van hun menselijke auteurs.

🔑 Belangrijkste inzichten:

  • Bias begint vaak al bij de inputdata — je model kan niet ethischer zijn dan je bronmateriaal. 
  • RLHF is een krachtige methode om modellen te corrigeren op basis van menselijke feedback. 
  • Bias volledig uitsluiten lukt (nog) niet, maar je moet het actief proberen te beperken én te blijven monitoren.

📱 Connect met onze gast en host: 

Robin Smits | Hildo van Es 

⏱ Tijdstempels:

00:00 – Introductie en definitie van bias 

00:59 – Wat wil je juist voorkomen? De ethische uitgangspunten 

04:06 – Regels & richtlijnen: EU AI Act en Microsoft framework 

06:37 – Garbage in, garbage out: data bias door webscraping 

10:07 – Evalueren van modellen en het belang van transparantie 

14:54 – Praktische maatregelen: datakeuze, filtering, privacy 

16:17 – Reinforcement Learning with Human Feedback (RLHF) 

18:28 – Monitoring en feedback na livegang 

19:53 – Afsluiting