AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is uitgeroepen tot AI Podcast of the Year 2025 en is drie keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S08E30 - Wat écht verandert bij AI-agents — en wat niet
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Waarom falen 70% van de AI-projecten terwijl de technologie steeds beter wordt? Teams jagen de nieuwste modellen na en vergeten de fundamenten die succes bepalen. Joop laat zien dat governance belangrijker is dan het nieuwste model - van het stellen van grenzen tot het monitoren van autonome agents.
Een agent die facturen verwerkt kan zonder duidelijke regels betalingsherinneringen sturen naar klanten die al betaald hebben. Morgen kun je je eerste governance-checklist maken: welke grenzen stel je, hoe monitor je agent-acties, en wie houdt toezicht?
Onderwerpen
- Waarom 70% van de AI-projecten mislukt door focus op verkeerde zaken in plaats van technische beperkingen
- Het verschil tussen de snelle technologische onderstroom (nieuwe modellen, multi-agent systemen) en de langzame hoofdstroom (governance, adoptie, implementatie)
- Het belang van monitoring en grenzen stellen voor autonome AI-agents in productie
- De noodzaak van waarde-gedreven implementatie in plaats van FOMO-gedreven jagen op nieuwste technologie
Links
- Boek: Doeltreffend met AI-agents | Snijder | 9789024474264 | Boom
- Podcast aflevering: S07E79 - Doeltreffend met AI-agents
- AI Platform: ChatGPT
- AI Platform: Claude Code
Genoemde entiteiten: ChatGPT - Claude - Gemini - GPT-4
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:02,720 --> 00:00:05,759
Hoi, welkom bij de korte aflevering van AIToday Live.
2
00:00:05,759 --> 00:00:09,200
Mijn naam is Joop Snijder, Head of AI bij Info Support.
3
00:00:10,320 --> 00:00:14,960
Ik wil het vandaag hebben over iets wat me al een paar keer is opgevallen.
4
00:00:14,960 --> 00:00:23,199
Namelijk van de week kreeg ik onder een poster die ik had gemaakt over mijn boek, Doeltreffend met AI-agents, kreeg ik een reactie.
5
00:00:23,199 --> 00:00:27,999
Iemand die schreef namelijk: ik snap eigenlijk niet dat dit nog verkocht wordt.
6
00:00:28,000 --> 00:00:30,399
Dit soort dingen zijn toch al verouderd.
7
00:00:30,719 --> 00:00:35,600
En daarmee bedoelde ze de theorie die gaat over het boek.
8
00:00:35,759 --> 00:00:39,759
Het boek is in oktober afgelopen jaar uitgekomen.
9
00:00:39,759 --> 00:00:46,240
En grappig genoeg heb ik die opmerking nu een keer of drie, vier gehoord en steeds met dezelfde strekking.
10
00:00:46,479 --> 00:00:48,399
De ontwikkelingen gaan zo snel.
11
00:00:48,399 --> 00:00:51,039
Dus hoe kan een boek dan nog actueel zijn.
12
00:00:51,280 --> 00:00:57,839
En ik wil daar vandaag iets dieper op ingaan, want het zit wat genuanceerder in elkaar dan je misschien denkt.
13
00:01:00,960 --> 00:01:07,439
Ik vind het leuk van: laten we beginnen met waarom iemand wel gelijk heeft.
14
00:01:07,439 --> 00:01:09,039
Want dat is ook interessant.
15
00:01:09,280 --> 00:01:13,840
Maar goed, eerst even terug naar de basis, dat we het allemaal over hetzelfde hebben.
16
00:01:14,159 --> 00:01:18,000
Want als we het over AI-agents hebben, wat bedoelen we dan precies.
17
00:01:18,000 --> 00:01:22,159
Dus een agent is een stuk software dat deels autonoom kan handelen.
18
00:01:22,159 --> 00:01:27,200
En dat betekent dat het bijvoorbeeld een plan kan maken en het heeft tools om dingen uit te voeren.
19
00:01:27,200 --> 00:01:29,680
Want een taalmodel kan zelf niets.
20
00:01:29,680 --> 00:01:31,280
Het kan niet op het web zoeken.
21
00:01:31,280 --> 00:01:35,359
Het kan geen document schrijven, niet uit zichzelf.
22
00:01:35,439 --> 00:01:37,199
Het heeft tools nodig.
23
00:01:37,200 --> 00:01:39,200
En het heeft een vorm van geheugen.
24
00:01:39,440 --> 00:01:49,280
Dat kan korte termijngeheugen zijn, gedurende de sessie, tot aan langdurig geheugen, waarbij dingen worden weggeschreven op schijf of in een database.
25
00:01:49,280 --> 00:01:53,199
Zodat de agent ook over sessies heen kan terugkijken.
26
00:01:53,919 --> 00:01:59,680
Laten we nu eens even kijken waar die commentaargever gelijk heeft.
27
00:02:04,079 --> 00:02:07,439
Want er gebeurt natuurlijk op het hele AI-vlak veel.
28
00:02:07,439 --> 00:02:10,000
Maar ik zoom vandaag in.
29
00:02:11,519 --> 00:02:13,599
Wat verandert dan wel snel.
30
00:02:13,840 --> 00:02:17,520
Wat begon als chatbots, vraag en antwoord.
31
00:02:17,520 --> 00:02:20,800
Dat is geëvolueerd naar volwaardige agents.
32
00:02:20,800 --> 00:02:24,960
De Claudes, de Gemini's, de ChatGPT's en dat gaat hard.
33
00:02:25,120 --> 00:02:30,000
De taalmodellen die eronder zitten, worden steeds beter getraind op agentgedrag.
34
00:02:30,000 --> 00:02:38,640
Wat ChatGPT net uitkwam als een vraag- en antwoordmachine, voert het nu daadwerkelijk taken voor je uit.
35
00:02:38,879 --> 00:02:47,520
Hoe beter een taalmodel daarop is getraind, hoe preciezer die commando's kan geven: ik wil dat je deze tool uitvoert of die andere.
36
00:02:47,519 --> 00:02:53,599
Of maak een presentatie, haal gegevens uit de database, spreek met een MCP-server, dat soort zaken.
37
00:02:53,760 --> 00:02:56,559
Daar worden ze gewoon steeds beter en slimmer in.
38
00:02:57,360 --> 00:03:01,840
En het taalmodel is wel belangrijk om te weten, dat staat niet op zichzelf.
39
00:03:01,840 --> 00:03:03,839
Er zit een schil omheen.
40
00:03:03,840 --> 00:03:10,719
De user interface, maar ook het deel dat het taalmodel aanspreekt, zowel ernaartoe als wat er terugkomt.
41
00:03:10,719 --> 00:03:13,519
Dat noemen we dan preprocessing en postprocessing.
42
00:03:13,520 --> 00:03:19,840
Ook die twee delen, dat wordt steeds slimmer gemaakt, waardoor het geheel sneller en beter wordt.
43
00:03:20,639 --> 00:03:24,159
Iets als Claude Code is begin vorig jaar uitgekomen.
44
00:03:24,319 --> 00:03:32,480
De software die dat taalmodel aanstuurt, bevat inmiddels hele slimme dingen die het geheel optillen.
45
00:03:33,439 --> 00:03:39,520
Dan het bouwen van agents zelf, je zelf agents gaat bouwen.
46
00:03:39,759 --> 00:03:43,359
Wat daar snel gaat, is hoe je agents opzet.
47
00:03:43,359 --> 00:03:54,560
Hoe je ze programmeert en hoe je agents met elkaar laat communiceren als je richting een echte agentic omgeving beweegt, met autonome beslissingen door meerdere agents tegelijk.
48
00:03:55,360 --> 00:04:03,199
Als je bijvoorbeeld een visieplan laat maken, dan heb je een agent die op basis van je notities het plan schrijft.
49
00:04:03,199 --> 00:04:08,879
Een andere agent die doet misschien de fact-checking, een andere die kijkt naar de structuur van je plan.
50
00:04:09,120 --> 00:04:12,800
En een vierde laten we die optreden als criticus.
51
00:04:12,800 --> 00:04:15,759
Die zoekt dan naar gaten, naar wat er gemist wordt.
52
00:04:15,759 --> 00:04:18,479
En hoe die agents met elkaar samenwerken.
53
00:04:18,560 --> 00:04:24,720
Da zit echt ook wel een groot verschil tussen hoe er vorig jaar naar gekeken werd en hoe er nu gekeken wordt.
54
00:04:24,720 --> 00:04:27,600
Er ontstaan namelijk steeds meer patronen.
55
00:04:27,600 --> 00:04:36,479
En je zou kunnen zeggen: we leren steeds beter begrijpen hoe teams met elkaar werken, omdat het uiteindelijk teams van agents worden.
56
00:04:37,280 --> 00:04:52,160
Je hebt bijvoorbeeld een hiërarchische vorm waarbij één agent de baas is en sub-agents aanstuurt, maar er zijn ook zelfsturende teams, waarbij elke agent zijn eigen taak heeft en daarvoor verantwoordelijk is.
57
00:04:52,240 --> 00:04:55,519
Er is ook een variant waarbij je werk overdraagt.
58
00:04:55,519 --> 00:04:57,360
Agent 1 doet taak één.
59
00:04:57,360 --> 00:04:59,200
Geeft een seintje aan de volgende.
60
00:04:59,200 --> 00:05:02,839
En zo ontstaat er een soort van productiepipeline.
61
00:05:02,839 --> 00:05:05,560
Een keten van agents, zou je kunnen noemen.
62
00:05:05,639 --> 00:05:08,680
Dit soort patronen, daar zijn er echt nog heel veel meer van.
63
00:05:09,000 --> 00:05:10,919
Die zien we steeds meer ontstaan.
64
00:05:10,920 --> 00:05:15,079
En dan zien we ook steeds sneller zien we daar nieuwe patronen ontstaan.
65
00:05:15,079 --> 00:05:17,879
Dus ja, op dat gebied gaat het snel.
66
00:05:17,879 --> 00:05:20,520
Taalmodellen worden beter voor agentgedrag.
67
00:05:20,519 --> 00:05:27,240
We weten steeds beter hoe we slim omgaan met wat we het taalmodel meegeven en wat eruit komt.
68
00:05:27,240 --> 00:05:31,000
En we zien steeds nieuwe samenwerkingspatronen ontstaan.
69
00:05:31,000 --> 00:05:36,120
Dus daar heeft degene die dat commentaar gaf echt gelijk.
70
00:05:37,879 --> 00:05:43,959
Wat vaak niet wordt begrepen, is dat er ook heel veel steeds hetzelfde blijft.
71
00:05:44,600 --> 00:05:47,800
Hoe zet je een goed experiment met agents op.
72
00:05:48,120 --> 00:05:54,040
Daarvoor maakt het eigenlijk niet zo heel veel uit welke technologie je gebruikt of welk taalmodel eronder zit.
73
00:05:54,039 --> 00:05:56,360
Want dat gaat uiteindelijk veel meer over.
74
00:05:56,360 --> 00:05:57,399
Wat wil je bereiken?
75
00:05:57,399 --> 00:05:58,519
Wat is je doel?
76
00:05:58,519 --> 00:05:59,800
Hoe kom je daar?
77
00:05:59,800 --> 00:06:01,079
Wat heb je daarvoor nodig?
78
00:06:01,079 --> 00:06:03,639
Wat zijn de kritische succesfactoren?
79
00:06:04,039 --> 00:06:08,040
En dat is echt vandaag of morgen niet anders dan gisteren.
80
00:06:09,319 --> 00:06:11,320
Wat mag een agent wel of niet.
81
00:06:11,319 --> 00:06:13,800
Vooral die "niet" en die wordt zo vaak vergeten.
82
00:06:13,800 --> 00:06:17,879
Je moet heel goed nadenken over waar de grenzen liggen van je agent.
83
00:06:17,879 --> 00:06:23,560
Taalmodellen zijn van nature geneigd om wegen te zoeken om een taak uitgevoerd te krijgen.
84
00:06:23,560 --> 00:06:33,400
En dat kunnen wegen zijn die je helemaal niet wilt, omdat ze tools zodanig kunnen combineren dat ze een pad bewandelen dat het verkeerde resultaat geeft.
85
00:06:33,399 --> 00:06:34,360
Of erger.
86
00:06:34,360 --> 00:06:37,160
Misschien zelfs al dingen doen die wettelijk helemaal niet mogen.
87
00:06:37,959 --> 00:06:41,560
In aflevering 5 van dit seizoen, seizoen 8.
88
00:06:41,560 --> 00:06:45,719
Over governance had ik het hier al uitgebreid over.
89
00:06:46,600 --> 00:06:50,920
Nu dat ik toch governance noem, laten we die ook even benoemen.
89
00:06:51,159 --> 00:06:52,519
De spelregels.
90
00:06:52,519 --> 00:06:55,639
Want wie houdt er bijvoorbeeld toezicht op de agents.
91
00:06:55,879 --> 00:06:59,480
Wie zorgt ervoor dat ze blijven doen waarvoor ze zijn ontwikkeld.
92
00:06:59,480 --> 00:07:01,560
En dat klinkt misschien wat vreemd.
93
00:07:01,560 --> 00:07:03,399
Je hebt ze getest en je weet wat ze doen.
94
00:07:03,399 --> 00:07:05,399
Dus blijven ze toch doen wat ze moeten doen.
95
00:07:05,399 --> 00:07:10,360
Maar als het goed is, zet je een agent in om juist iets te veranderen.
96
00:07:10,360 --> 00:07:13,720
En dat betekent dat klanten zich mogelijk anders gaan gedragen.
97
00:07:13,720 --> 00:07:19,000
Dat medewerkers anders gaan werken en dat je met andere data te maken krijgt.
98
00:07:19,000 --> 00:07:22,839
En daarmee krijgt de agent dus ook mogelijk andere input.
99
00:07:22,840 --> 00:07:25,480
En levert dat ook mogelijk andere output.
100
00:07:25,639 --> 00:07:38,919
Hoe zorg je ervoor dat je weet wat je agent dan doet, heb je alles ingericht, zodat je precies ziet op welke data hij werkt, welke tools worden aangeroepen en met welke data die tools zelf worden aangeroepen.
101
00:07:38,919 --> 00:07:43,560
Want daar heb je vaak geen invloed meer op als de agent eenmaal in productie staat.
102
00:07:44,680 --> 00:07:49,479
En dit is precies waarom zoveel agentprojecten mislukken.
103
00:07:49,800 --> 00:07:55,399
Dit soort gebrek aan monitoring, grenzen, die spelen daar echt een grote rol in.
104
00:07:55,639 --> 00:08:02,680
En dat zijn allemaal zaken die bepalen hoe succesvol je agent is, hoe succesvol die blijft.
105
00:08:02,680 --> 00:08:06,040
En dat zijn dingen die ik onder andere in mijn boek heb geschreven.
106
00:08:06,680 --> 00:08:12,920
Het gaat er mij helemaal niet om dat mensen mijn boek moeten lezen, hoewel, ik heb natuurlijk niet voor niks geschreven.
107
00:08:13,319 --> 00:08:17,399
Daarom is het wel handig om te zien dat er twee stromen zijn.
108
00:08:17,959 --> 00:08:22,280
Kijk, de eerste, dat is de technologische onderstroom noem ik dat.
109
00:08:22,280 --> 00:08:23,560
Die verandert snel.
110
00:08:23,879 --> 00:08:25,640
Daar zitten wij natuurlijk ook bovenop.
111
00:08:25,639 --> 00:08:31,800
Ik kijk ernaar en ben vaak best wel blij verrast met wat er alweer nieuw is en wat je daarmee kan.
112
00:08:31,800 --> 00:08:33,719
Maar er is ook een grote hoofdstroom.
113
00:08:33,720 --> 00:08:35,319
En die gaat echt minder hard.
114
00:08:35,480 --> 00:08:37,559
Die gaat over technologieën heen.
115
00:08:37,559 --> 00:08:38,840
Die gaat over adoptie.
116
00:08:38,840 --> 00:08:41,800
Hoe zorg je dat mensen AI agents omarmen.
117
00:08:42,120 --> 00:08:44,840
Het is uiteindelijk nieuwe technologie.
118
00:08:44,840 --> 00:08:46,920
En dat hebben we vaker meegemaakt.
119
00:08:47,559 --> 00:08:50,439
Wat betekent dit in je organisatie.
120
00:08:50,759 --> 00:08:54,360
En als je vanuit FOMO denkt, Fear of Missing Out.
121
00:08:54,840 --> 00:08:58,280
Ik moet bijblijven, het verandert, dus iedere dag anders.
122
00:08:58,279 --> 00:09:00,519
Dan kan je daar best onrust in ervaren.
123
00:09:00,519 --> 00:09:07,559
Kijk je er iets meer beschouwend tegenaan, dan zie je echt wel dat de meest bepalende onderdelen niet zo snel veranderen.
124
00:09:07,559 --> 00:09:11,000
En ik zeg dat bewust, want ik kan het niet vaak genoeg herhalen.
125
00:09:11,000 --> 00:09:15,159
Dit bepaalt veel meer het succes of het falen van je agent.
126
00:09:15,159 --> 00:09:21,560
Dan of je het allernieuwste model gebruikt, of de allernieuwste samenwerkingspatronen tussen agents inzet.
127
00:09:22,120 --> 00:09:24,039
Dat is wat ik je wil meegeven.
128
00:09:24,200 --> 00:09:33,159
Dus laat je niet gek maken, maar laat je wel goed informeren over wat de technologie kan, wat ze niet kan en hoe je die succesvol inzet.
129
00:09:34,440 --> 00:09:38,680
Daarom in de show notes toch nog even een linkje naar mijn boek.
130
00:09:38,680 --> 00:09:41,159
Maar belangrijk, zoals altijd.
131
00:09:41,159 --> 00:09:45,600
AI is niet de oplossing van elk probleem, maar onmisbaar waar het past.
132
00:09:44,920 --> 00:09:48,240
Tot de volgende keer.
133
00:09:49,200 --> 00:09:51,759
Vind je dit nou een interessante aflevering?
134
00:09:51,759 --> 00:09:55,520
Deel hem dan eens met collega's, vrienden, familie.