AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is uitgeroepen tot AI Podcast of the Year 2025 en is drie keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S08E50 - Uitlegbaarheid bij taalmodellen: wat kun je echt weten?
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Hoe weet je of je een AI-systeem kunt vertrouwen, en wat doe je als je dat niet kunt controleren? Het probleem is dat taalmodellen zoals ChatGPT geen simpele rekensom hebben die je kunt terugvolgen: ze hebben miljarden verbanden geleerd uit tekst, en dat maakt uitlegbaarheid fundamenteel anders dan bij klassieke AI-systemen. Joop Snijder laat zien welke drie instrumenten je hebt om toch grip te houden: bronvermelding, gestructureerde databronnen en monitoring van agents.
Een juridisch team dat AI koppelt aan een vaste clausule-database, ziet de tijd voor een eerste contractcheck dalen van anderhalf uur naar twintig minuten, zonder dat de kwaliteitscontrole wegvalt. Morgen kun je voor je drie meest gebruikte AI-toepassingen een korte risicoafweging maken: wat zijn de consequenties als de output fout is, en hoeveel uitlegbaarheid heb je daarvoor nodig?
Onderwerpen
- Uitlegbaarheid bij taalmodellen versus klassieke machine learning
- Bronvermelding en de beperkingen ervan
- Structuur toevoegen aan AI-systemen voor betere controleerbaarheid
- Monitoring van AI-agents die zelfstandig acties uitvoeren
- Risicogestuurd bepalen van het benodigde niveau van uitlegbaarheid
- AI Tool: Perplexity
Genoemde entiteiten: ChatGPT - Perplexity - Anthropic - Claude
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:02,480 --> 00:00:05,919
Leuk dat je luistert naar een korte aflevering van AIToday.
2
00:00:05,919 --> 00:00:08,640
Ik ben Joop Snijder, Head of AI bij Info Support.
3
00:00:08,960 --> 00:00:14,559
We gaan het vandaag hebben over uitlegbaarheid bij taalmodellen en wat betekent dat nu echt.
4
00:00:15,039 --> 00:00:16,799
Misschien ken je dit gevoel wel.
5
00:00:16,800 --> 00:00:21,199
Je stelt een vraag aan ChatGPT en krijgt een antwoord dat precies lijkt te kloppen.
6
00:00:21,200 --> 00:00:24,479
Het loopt lekker logisch, het klinkt overtuigend.
7
00:00:24,719 --> 00:00:30,399
Maar misschien dan eens een keer een gevoel van hoe weet ik eigenlijk of dit klopt.
8
00:00:30,399 --> 00:00:33,759
En hoe komt het model hier eigenlijk op?
9
00:00:33,920 --> 00:00:35,359
En dat gevoel is terecht.
10
00:00:35,359 --> 00:00:40,719
En dat heeft een naam, dat is namelijk uitlegbaarheid of in het Engels explainability.
11
00:00:41,039 --> 00:00:50,160
Vandaag ga ik je meenemen waarom uitlegbaarheid met taalmodellen zo anders is dan dat we gewend zijn vanuit de machine learning.
12
00:00:50,159 --> 00:00:53,520
En wat je ermee in de praktijk kan doen.
13
00:00:54,000 --> 00:00:58,079
Eigenlijk voor de komst van de taalmodellen.
14
00:00:58,399 --> 00:01:05,039
Voor de introductie van ChatGPT, was het in die zin de uitlegbaarheid was eenvoudiger.
15
00:01:05,119 --> 00:01:10,559
Je had dan een model dat bijvoorbeeld beslist of een lening wordt goedgekeurd.
16
00:01:10,560 --> 00:01:17,519
En met die machine learning van een paar jaar geleden, dan kon je vragen: waarom kreeg deze persoon een nee?
17
00:01:17,519 --> 00:01:30,640
Trouwens, we kunnen dit nog steeds met de huidige machine learning even positionering en doen we even na ChatGPT, generatieve AI en daarvoor klassieke machine learning, die we nog steeds kunnen doen.
18
00:01:30,640 --> 00:01:40,639
Maar goed, we hadden dan dat je kon zien: waarom kreeg deze persoon een nee op een vraag of de lening zou worden goedgekeurd.
19
00:01:40,640 --> 00:01:45,039
En dan kon je zien bijvoorbeeld inkomen te laag schulden te hoog.
20
00:01:45,039 --> 00:01:47,919
En drie jaar geleden een betalingsachterstand.
21
00:01:48,239 --> 00:01:52,879
Dus je kon het echt aanwijzen, wat de reden was en je kon het ook uitleggen.
22
00:01:52,879 --> 00:01:56,719
Je kon eventueel ook verdedigen als iemand het er niet mee eens was.
23
00:01:56,719 --> 00:02:00,479
Dat werkte omdat die modellen met duidelijke kenmerken werkte.
24
00:02:01,439 --> 00:02:10,159
Je moet echt denken aan misschien wel 100 en 150 inputvariabelen, leeftijd inkomen postcode.
25
00:02:10,479 --> 00:02:14,240
En je kon als het ware de rekensom je teruglezen.
26
00:02:14,560 --> 00:02:17,759
Maar bij taalmodellen werkt dat niet meer zo.
27
00:02:18,400 --> 00:02:24,960
Een taalmodel zoals ChatGPT of Claude, die heeft geen lijst met kenmerken.
28
00:02:24,960 --> 00:02:39,200
Het heeft miljarden kleine verbanden geleerd uit enorme hoeveelheden tekst en het heeft zoveel gelezen dat het een soort van gevoel heeft gekregen voor hoe taal werkt, hoe ideeën samenhangen en dat logisch klinkt.
29
00:02:39,199 --> 00:02:47,039
Maar dat betekent dus ook, er is geen simpele rekensom die je als het ware terug kan uitrekenen.
30
00:02:47,280 --> 00:02:53,439
Dus vergelijk het met iemand die duizenden boeken heeft gelezen en je vraagt diegene iets en ze geven je een goed antwoord.
31
00:02:53,439 --> 00:02:58,479
Maar als je vraagt op welke pagina van welke boek stond dat kan je dat niet meer vertellen.
32
00:02:58,479 --> 00:02:59,520
Ze weten het gewoon.
33
00:02:59,520 --> 00:03:04,640
Het is zo verweven geraakt in wat je weet zelf bij taalmodellen.
34
00:03:04,800 --> 00:03:08,159
Dat maakt dus uitlegbaarheid echt wel anders.
35
00:03:09,439 --> 00:03:16,400
Wat voor type uitlegbaarheid zouden we in zekere zin kunnen aangeven bij taalmodellen dan.
36
00:03:16,640 --> 00:03:20,240
Eerste stap die je steeds vaker ziet, is bronvermelding.
37
00:03:20,560 --> 00:03:25,040
Perplexity doet het tegenwoordig ChatGPT ook.
38
00:03:25,360 --> 00:03:28,079
Dus steeds meer zakelijke tools doen dit.
39
00:03:28,240 --> 00:03:32,720
Het model geeft aan waar informatie vandaan komt en dat helpt enorm.
40
00:03:32,719 --> 00:03:37,599
En dat kunnen ze vooral doen omdat er zoekacties worden uitgevoerd.
41
00:03:37,920 --> 00:03:43,919
Dus ze weten precies of ze wel of niet een stukje tekst hebben gebruikt op die zoekactie.
42
00:03:44,159 --> 00:03:52,159
In het model zelf, daar weten ze echt helemaal niet meer wat de bron was van die stukjes tekst die die geeft.
43
00:03:53,120 --> 00:03:56,719
In ieder geval die bronvermelding, geef je de mogelijkheid om te controleren.
44
00:03:56,719 --> 00:04:02,719
Dus klopt dit is deze bron betrouwbaar, past het bij de context waar ik het voor gebruik.
45
00:04:03,840 --> 00:04:06,639
Is bronvermelding dan hetzelfde als uitlegbaarheid?
46
00:04:06,879 --> 00:04:07,759
Niet helemaal.
47
00:04:07,759 --> 00:04:10,719
Want je ziet wel waar de informatie vandaan komt.
48
00:04:10,719 --> 00:04:14,400
Maar je ziet niet waarom het model precies die bron koos.
49
00:04:14,400 --> 00:04:20,080
Welke afweging erachter zat, wat het wegstreepte en wat het dan meewoog.
50
00:04:20,240 --> 00:04:25,680
Dus je ziet het resultaat maar niet hoe het taalmodel aan het resultaat is gekomen.
51
00:04:25,680 --> 00:04:28,800
Dus niet het denkproces.
52
00:04:29,680 --> 00:04:30,639
Of toch niet.
53
00:04:30,799 --> 00:04:35,519
Wat daarom kom ik ook bij iets dat me steeds bezig houdt.
54
00:04:35,839 --> 00:04:39,760
Sommige modellen leggen stap voor stap uit hoe ze tot een antwoord komen.
55
00:04:40,079 --> 00:04:44,880
Je ziet het tussen aanhalingstekens denken, zou je bijna zeggen.
56
00:04:44,879 --> 00:04:50,560
Ze schrijven, eerst kijk ik naar dit dan weeg ik dat af en dan kom ik tot deze en deze conclusie.
57
00:04:50,560 --> 00:04:53,599
En dat voelt best wel heel prettig, alsof je kan meekijken.
58
00:04:53,600 --> 00:04:55,279
Je kan het gewoon meelezen.
59
00:04:55,599 --> 00:05:00,040
Maar goed, onderzoek van Anthropic, het bedrijf achter Claude.
60
00:05:00,000 --> 00:05:03,639
Die zelf deze taalmodellen maken, die laat iets opvallend zien.
61
00:05:03,800 --> 00:05:08,279
Namelijk, modellen zijn niet altijd eerlijk over hun eigen redenering.
62
00:05:08,279 --> 00:05:11,720
Ze produceren een logisch verhaal, omdat wij dat verwachten.
63
00:05:11,720 --> 00:05:15,400
Maar het verhaal is niet per se wat er echt in het model gebeurt.
64
00:05:15,399 --> 00:05:18,600
En denk aan een mens die achteraf zijn keuze uitleggen.
65
00:05:18,600 --> 00:05:20,439
Dan klinkt het rationeel.
66
00:05:20,439 --> 00:05:24,120
Maar hoe de beslissing werkelijk tot stand is gekomen, dat weet je niet.
67
00:05:24,120 --> 00:05:26,439
Soms weten we het zelf niet eens.
68
00:05:26,600 --> 00:05:30,599
Dat maakt die stap voor stap uitleg niet waardeloos.
69
00:05:30,600 --> 00:05:34,040
Want het helpt je vaak wel om betere antwoorden te krijgen.
70
00:05:34,040 --> 00:05:37,879
Maar beschouw het niet als een echte blik achter de schermen.
71
00:05:38,680 --> 00:05:43,240
Wat wel helpt, is structuur toevoegen aan de informatie waarmee je model werkt.
72
00:05:43,240 --> 00:05:45,240
Laat me dat even concreet maken.
73
00:05:45,399 --> 00:05:50,279
Stel, je hebt een AI-assistent voor je klantenservice.
74
00:05:50,519 --> 00:05:55,000
En die moet vragen beantwoorden over producten, garanties, levertijden.
75
00:05:55,000 --> 00:05:58,680
En als die assistent alleen maar getraind is op losse tekst en e-mails.
76
00:05:58,680 --> 00:06:02,439
Dan weet je nooit helemaal zeker waar een antwoord op gebaseerd is.
77
00:06:02,439 --> 00:06:06,840
Maar stel, je koppelt die assistent aan een gestructureerde database.
78
00:06:06,839 --> 00:06:09,319
Product A heeft garantie B.
79
00:06:09,319 --> 00:06:12,280
Categorie C heeft levertijd D.
80
00:06:12,600 --> 00:06:15,560
Expliciete feiten in een vaste structuur.
81
00:06:15,639 --> 00:06:18,760
Dan heeft het model een anker, zou je kunnen zeggen.
82
00:06:18,759 --> 00:06:21,959
En kan het terugverwijzen naar concrete gegevens.
83
00:06:21,959 --> 00:06:25,399
Het kan zeggen: ik baseer het op feit X uit bron Y.
84
00:06:25,720 --> 00:06:27,399
Jij kan controleren of dat klopt.
85
00:06:27,720 --> 00:06:29,720
Dat is geen perfecte uitlegbaarheid.
86
00:06:29,720 --> 00:06:34,120
Maar dat is in ieder geval een heel stuk beter dan een black box, een zwarte doos.
87
00:06:34,120 --> 00:06:36,519
En het hoeft ook niet ingewikkeld te zijn.
88
00:06:36,519 --> 00:06:39,639
Soms is een goed georganiseerde lijst al genoeg.
89
00:06:39,639 --> 00:06:44,839
Je hoeft geen complexe technische infrastructuur te bouwen om dit effect te krijgen.
90
00:06:45,480 --> 00:06:48,920
Maar goed, bij agents kan het wel lastiger worden.
91
00:06:48,919 --> 00:06:53,560
Dat zijn AI-systemen die niet alleen antwoord geven, maar ook acties uitvoeren.
92
00:06:53,800 --> 00:06:57,959
E-mail versturen, formulier invullen, zoekopdrachten uitvoeren.
93
00:06:57,959 --> 00:07:02,040
En daar wordt de uitlegbaarheid nog wel ietsje uitdagender.
94
00:07:02,120 --> 00:07:08,759
Ook daar onderzoek laat zien dat agents soms andere dingen doen dan je op basis van een uitleg zou verwachten.
95
00:07:08,759 --> 00:07:10,680
Ze zeggen A, maar doen B.
96
00:07:10,920 --> 00:07:17,399
En dat kan komen doordat de context verandert, of dat de omschrijving van een taak net niet scherp genoeg is.
97
00:07:17,399 --> 00:07:19,079
En wat betekent dat voor jou?
98
00:07:19,319 --> 00:07:27,079
Als je met agents werkt, moet je niet alleen kijken naar wat ze zeggen dat ze doen, je moet ook daadwerkelijk kijken wat ze daadwerkelijk uitvoeren.
99
00:07:27,160 --> 00:07:31,319
Monitoring is dan geen luxe, maar het is echt een basisvereiste.
100
00:07:32,120 --> 00:07:34,199
Laten we alles nou even praktisch maken.
101
00:07:34,200 --> 00:07:41,800
Dus als je AI inzet voor iets met weinig risico, samenvatting, eerst de draft idee op doen, dan is bronvermelding vaak genoeg.
102
00:07:41,800 --> 00:07:45,240
Je kan snel zien waar het vandaan komt en checken als je twijfelt.
103
00:07:45,560 --> 00:07:54,280
Maar als je AI inzet voor iets met meer gewicht, een rapport voor een klant, een beslissing in een proces, informatie die mensen echt gaan gebruiken, dan wil je meer.
104
00:07:54,279 --> 00:07:59,080
En dan wil je dat het systeem kan terugwijzen naar concrete feiten.
105
00:07:59,080 --> 00:08:01,960
En dan is die structuur gewoon belangrijk.
106
00:08:01,960 --> 00:08:09,000
En als je met agents werkt die zelfstandig dingen doen, dan wil je altijd kunnen zien wat ze doen, niet alleen wat ze zeggen.
107
00:08:09,240 --> 00:08:14,039
Dus de kern is pas het niveau van uitlegbaarheid.
108
00:08:14,600 --> 00:08:24,839
Pas het niveau van uitlegbaarheid aan op het risico, laag risico, eenvoudige controle, hoog risico, meer structuur en toezicht.
109
00:08:25,799 --> 00:08:27,800
Waarom is het nou belangrijk?
110
00:08:27,800 --> 00:08:39,480
Nou ja, als we eerlijk zijn over wat we wel en niet weten over hoe een systeem werkt, dan kunnen we ook veel bewuster kiezen welke technieken we inzetten.
111
00:08:39,960 --> 00:08:43,720
Kijk, uiteindelijk draait het natuurlijk om vertrouwen.
112
00:08:44,039 --> 00:08:48,600
We hebben niet de volledige controle over het taalmodel.
113
00:08:48,919 --> 00:08:52,120
En dat vertrouwen bouw je dus stap voor stap op.
114
00:08:52,360 --> 00:08:58,520
En de vormen van uitlegbaarheid afhankelijk van je risico, kan je behelpen.
115
00:09:01,079 --> 00:09:02,759
Dat was het voor deze week.
116
00:09:02,759 --> 00:09:04,199
Belangrijk natuurlijk altijd.
117
00:09:06,200 --> 00:09:08,120
Maar onmisbaar waar het past.
118
00:09:08,120 --> 00:09:09,799
Dankjewel weer voor het luisteren.
119
00:09:09,799 --> 00:09:12,120
Tot maandag.