In de tweede aflevering van de greatminds podcast staan Hildo van Es, solution architect en medeoprichter van greatminds, en Robin Smits, data scientist en eigenaar van LumiML Consulting, stil bij een van de meest prangende kwesties in de wereld van kunstmatige intelligentie: bias.
Bias in AI-systemen komt voor in vele vormen. Het gaat vaak om vooroordelen over gender, etniciteit of religie. Daarnaast spelen ook aannames over beroepsgroepen een rol. AI-modellen weerspiegelen helaas vaak menselijke tekortkomingen. Dit gebeurt vooral bij grote taalmodellen (LLMs). Ze trainen namelijk met teksten die via web scraping verzameld worden. Deze teksten bevatten vaak al de vooroordelen van hun menselijke auteurs.
🔑 Belangrijkste inzichten:
📱 Connect met onze gast en host:
⏱ Tijdstempels:
00:00 – Introductie en definitie van bias
00:59 – Wat wil je juist voorkomen? De ethische uitgangspunten
04:06 – Regels & richtlijnen: EU AI Act en Microsoft framework
06:37 – Garbage in, garbage out: data bias door webscraping
10:07 – Evalueren van modellen en het belang van transparantie
14:54 – Praktische maatregelen: datakeuze, filtering, privacy
16:17 – Reinforcement Learning with Human Feedback (RLHF)
18:28 – Monitoring en feedback na livegang
19:53 – Afsluiting