
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E79 - Doeltreffend met AI-agents
Joop Snijder bespreekt zijn nieuwe boek "Doeltreffend met AI-agents" in de podcast AIToday Live. Hij legt uit wat AI-agents zijn en wanneer ze een geschikte oplossing vormen voor bedrijfsprocessen.
Joop adviseert een stapsgewijze aanpak bij het overwegen van AI-agents en benadrukt het belang van een duidelijk bedrijfsdoel. Hij deelt praktijkvoorbeelden en bespreekt de uitdagingen bij het implementeren van AI-agents, waaronder testen en beveiliging.
De podcast gaat in op organisatorische veranderingen die AI-agents met zich meebrengen en de ethische overwegingen die daarbij komen kijken. Joop moedigt gestructureerd experimenteren aan en kijkt vooruit naar de toekomst van AI-agents in het bedrijfsleven.
Onderwerpen
- AI-agents en hun toepassingen
- Verschil tussen AI-agents en traditionele automatisering
- Implementatievormen van AI-agents
- Testen en beveiliging van AI-agents
- Organisatorische veranderingen door AI-agents
Links
- Boek: Doeltreffend met AI-agents
- Podcast: AIToday Live podcast
- Kaartspel: AI Game Changer - Generative AI editie
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:05,840
In deze aflevering hoor je alles over mijn nieuwe boek Doeltreffend met AI-agents waarin
2
00:00:05,840 --> 00:00:11,120
ik laat zien wanneer AI-agents een passende oplossing zijn voor bedrijfskritische processen
3
00:00:11,120 --> 00:00:12,400
en wanneer niet.
4
00:00:12,400 --> 00:00:17,040
Veel plezier met deze speciale aflevering waarin ik zelf de gast ben.
5
00:00:17,041 --> 00:00:22,560
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
6
00:00:22,560 --> 00:00:24,900
En vandaag een hele speciale aflevering.
7
00:00:24,900 --> 00:00:29,900
Want voor de vaste luisteraars bekende namen, maar ze zijn wel te gast bij deze aflevering.
8
00:00:29,900 --> 00:00:33,460
Mijn naam, Niels Naglé, Area lead, Data & AI bij Info Support.
9
00:00:33,460 --> 00:00:35,440
En onze eerste gast...
10
00:00:35,440 --> 00:00:37,120
Ja, Joop Snijder, CTO bij Aigency.
11
00:00:37,120 --> 00:00:40,220
En de tweede, Kim Pot, marketing lead van Aigency.
12
00:00:40,220 --> 00:00:41,600
Kijk, hartstikke leuk.
13
00:00:41,600 --> 00:00:45,440
En we gaan het vandaag hebben over een boek dat je hebt geschreven, Joop.
14
00:00:45,440 --> 00:00:46,180
Ja, leuk.
15
00:00:46,180 --> 00:00:51,680
Voordat we er diep in gaan, eerst even voor degene die nog geen vaste luisteraar zijn, maar hierna natuurlijk wel.
16
00:00:51,680 --> 00:00:53,920
Zou je jezelf even voor willen stellen aan de luisteraars?
17
00:00:53,920 --> 00:00:55,240
Ja, dat is toch wel bijzonder.
18
00:00:55,240 --> 00:00:57,420
Nou ja, Joop Snijder.
19
00:00:57,420 --> 00:01:04,220
Ik zit al een jaar of 13, 14 in het vakgebied van AI.
20
00:01:04,220 --> 00:01:07,160
Hartstikke leuk, doe van alles en nog wat.
21
00:01:07,160 --> 00:01:12,060
Begeleid klanten bij het opzetten van een AI-project.
22
00:01:12,060 --> 00:01:14,300
Geef workshops rondom.
23
00:01:15,340 --> 00:01:22,180
Ideeën opdoen van waar AI nou echt kan helpen bij het veranderen van je bedrijfsdoelstellingen.
24
00:01:22,180 --> 00:01:27,160
Strategisch advies, van alles en nog wat.
25
00:01:27,160 --> 00:01:36,580
Ik ben ook nog hoofd aan het Research Center bij Info Support, waar we wetenschappelijk onderzoek naar van alles rondom kunstmatige intelligentie ondersteunen.
26
00:01:36,580 --> 00:01:45,160
Dus we hebben zo'n 10 tot 15 masterstudenten per jaar die we begeleiden bij voornamelijk fundamenteel onderzoek op het gebied van kunstmatige intelligentie.
27
00:01:45,160 --> 00:01:45,220
Dus we hebben zo'n 10 tot 15 masterstudenten per jaar die we begeleiden bij voornamelijk fundamenteel onderzoek op het gebied van kunstmatige intelligentie.
28
00:01:45,220 --> 00:01:46,760
Dus we hebben zo'n 10 tot 15 masterstudenten per jaar die we begeleiden bij voornamelijk fundamenteel onderzoek op het gebied van kunstmatige intelligentie.
29
00:01:46,760 --> 00:01:48,960
Kijk, dat is een aardige bagage die je al mee mag dragen.
30
00:01:48,960 --> 00:01:50,080
En je hebt ook nog een podcast, hè?
31
00:01:50,080 --> 00:01:52,000
Ja, een jaartje of vijf, hè?
32
00:01:52,000 --> 00:01:52,880
Ja, daarom gaan we zitten.
33
00:01:52,880 --> 00:01:55,240
En Kim, zou je ook even voorstellen?
34
00:01:55,240 --> 00:01:57,400
Ja, ik ben marketing lead van de Aigency.
35
00:01:57,400 --> 00:01:59,600
Auteur, trainer, spreker.
36
00:01:59,600 --> 00:02:02,100
Voorzitter van de AI-marketing community.
37
00:02:02,100 --> 00:02:04,440
Dus ja, leuk om weer te gast te zijn.
38
00:02:04,440 --> 00:02:07,540
Ja, en dankjewel dat je me komt helpen om ook...
39
00:02:07,540 --> 00:02:09,060
Ja, we gaan Joop even drinken.
40
00:02:09,060 --> 00:02:11,160
...ondervragen over zijn boek, inderdaad.
41
00:02:11,160 --> 00:02:13,380
Maar eerst even de vraag.
42
00:02:13,660 --> 00:02:16,600
Wat was het moment dat je had besloten om dit boek te schrijven?
43
00:02:16,600 --> 00:02:20,400
En ja, we hebben de titel nog niet eens genoemd, dus noem ook gelijk even de titel van het boek.
44
00:02:20,400 --> 00:02:23,280
De titel is Doeldreffend met AI.
45
00:02:23,280 --> 00:02:26,740
En ja, wanneer ben ik daarmee begonnen?
46
00:02:26,740 --> 00:02:28,580
Dat is eigenlijk best wel een lastige vraag.
47
00:02:28,580 --> 00:02:35,080
Want eind vorig jaar, dus over eind 2024,
48
00:02:35,080 --> 00:02:41,320
zijn we natuurlijk al begonnen in een podcast over wat zijn AI-agents.
49
00:02:41,320 --> 00:02:43,300
Dus het kwam steeds meer op.
50
00:02:43,300 --> 00:02:48,060
En toen ik er ook over gesproken werd, ook in de media gesproken werd,
51
00:02:48,060 --> 00:02:49,980
we waren er zelf al langer mee bezig,
52
00:02:49,980 --> 00:02:53,900
vond ik het belangrijk om uitleg te gaan geven van
53
00:02:53,900 --> 00:02:56,440
ja, wat is het, wat kun je ermee, wat is het ook niet.
54
00:02:56,440 --> 00:02:58,960
Want er is denk ik ook best wel heel veel verwarring over.
55
00:02:58,960 --> 00:03:02,960
Dus dat is denk ik het eerste moment dat ik ben gaan schrijven,
56
00:03:02,960 --> 00:03:04,240
maar dan voor de podcast.
57
00:03:04,240 --> 00:03:11,420
En ergens begin april, ik kan je de datum niet per se noemen.
58
00:03:11,420 --> 00:03:12,700
Als je maar niet de 1 april noemt nu.
59
00:03:12,700 --> 00:03:17,940
2 april ben ik begonnen met schrijven.
60
00:03:17,940 --> 00:03:24,760
Ja, juist omdat er steeds meer in de media kwam.
61
00:03:24,760 --> 00:03:28,080
En ik me er ook wel langzaamaan begon te ergeren.
62
00:03:28,080 --> 00:03:31,060
Hoe er gekeken werd naar agent.
63
00:03:31,060 --> 00:03:34,700
Hoe makkelijk erover gedaan werd.
64
00:03:34,700 --> 00:03:38,780
En dat er weinig zicht werd, of laat ik zeggen,
65
00:03:38,780 --> 00:03:41,600
dat er weinig aandacht was voor,
66
00:03:42,040 --> 00:03:46,140
best wel de uitdagingen die er zijn als je agents wil gaan inzetten
67
00:03:46,140 --> 00:03:47,540
in een bedrijfskritisch proces.
68
00:03:47,540 --> 00:03:51,500
Het is heel erg leuk om een agent te hebben die persoonlijk werk voor je doet.
69
00:03:51,500 --> 00:03:54,020
Dan is het ook helemaal niet zo erg als hij fouten maakt.
70
00:03:54,020 --> 00:03:56,460
Dan kan je daar ook constant toezicht op houden.
71
00:03:56,460 --> 00:04:00,500
Maar als je het in bedrijfskritische applicaties gaat doen,
72
00:04:00,500 --> 00:04:02,200
dan gaat het in grote volumes.
73
00:04:02,200 --> 00:04:05,940
Ja, daar komt iets heel anders bij kijken.
74
00:04:05,940 --> 00:04:07,400
En dat was het moment dat ik dacht van ja,
75
00:04:07,400 --> 00:04:09,460
maar dan moet ik daar ook over gaan schrijven.
76
00:04:09,460 --> 00:04:11,760
En de ervaringen die we hebben,
77
00:04:11,760 --> 00:04:16,140
die ik zelf ook op heb gedaan om dat eens op papier te zetten.
78
00:04:16,140 --> 00:04:18,480
Ja, ik heb hem al gelezen inderdaad.
79
00:04:18,480 --> 00:04:19,560
Uiteraard.
80
00:04:19,560 --> 00:04:20,459
En Kim ook.
81
00:04:20,459 --> 00:04:22,760
Ik was heel erg blij met de structuur,
82
00:04:22,760 --> 00:04:25,560
omdat het heel erg praktisch aanvoelt.
83
00:04:25,560 --> 00:04:30,880
Van we gaan van wat is het naar hoe maak je het tot hoe pas je het binnen de organisatie toe.
84
00:04:30,880 --> 00:04:31,820
Echt van begin tot eind.
85
00:04:31,820 --> 00:04:34,680
Maar ik denk, laten we even bij het begin beginnen.
86
00:04:34,680 --> 00:04:39,240
Wat is eigenlijk een AI agent en hoe verhoudt het zich tot agentic AI,
87
00:04:39,240 --> 00:04:41,100
wat nu in de media natuurlijk enorm,
88
00:04:41,100 --> 00:04:42,220
rond gaat.
89
00:04:42,220 --> 00:04:43,100
Ja, nou,
90
00:04:43,100 --> 00:04:47,360
er is op zich geen hele strakke definitie over wat een AI agent is,
91
00:04:47,360 --> 00:04:49,820
en dat maakt meteen de discussie ook zo lastig.
92
00:04:49,820 --> 00:04:56,560
Wat ik zeg is dat een agent dat die in ieder geval zeg maar.
93
00:04:56,560 --> 00:05:01,020
Taakgedreven is of die krijgt een taak,
94
00:05:01,020 --> 00:05:01,820
krijgt een doel,
95
00:05:01,820 --> 00:05:05,020
het is doelgedreven en daar moet u een oplossing voor zien te vinden.
96
00:05:05,020 --> 00:05:10,680
Moet zelf ook dat adaptief kunnen veranderen,
97
00:05:10,680 --> 00:05:13,920
maar hoe die uiteindelijk zeg maar tot tot het doel komt.
98
00:05:13,920 --> 00:05:15,720
Ehm.
99
00:05:15,720 --> 00:05:19,400
Nou, dat dat is eigenlijk het het allerbelangrijkste.
100
00:05:19,400 --> 00:05:22,060
En wat je tegenwoordig ziet,
101
00:05:22,060 --> 00:05:24,680
want want agents zijn eigenlijk al veel langer.
102
00:05:24,680 --> 00:05:28,340
Eh, we kennen al agent uit uit de jaren 80,
103
00:05:28,340 --> 00:05:32,940
is dat de huidige agents hebben ook nog zeg maar tussen aanhalingstekens een brein.
104
00:05:32,940 --> 00:05:36,680
Het is dat het taalmodel bepaalt,
105
00:05:36,680 --> 00:05:40,280
welke stappen er uitgevoerd moeten worden om,
106
00:05:40,280 --> 00:05:41,280
tot een doel te komen.
107
00:05:41,280 --> 00:05:43,580
En de en de agent ik.
108
00:05:43,580 --> 00:05:44,080
Mm-hmm.
109
00:05:44,080 --> 00:05:44,440
Gent ik.
110
00:05:44,440 --> 00:05:49,000
En jij wat je daar ziet is vroeger noemde dat een multi agent systemen wat mij betreft.
111
00:05:49,000 --> 00:05:58,160
Ehm en dan de gaat het er over dat de huidige agents dat die samenwerken en samen,
112
00:05:58,160 --> 00:06:00,880
tot een groter doel,
113
00:06:00,880 --> 00:06:01,480
komen.
114
00:06:01,480 --> 00:06:02,980
Ja, dat dat is het eigenlijk.
115
00:06:02,980 --> 00:06:03,980
Ik ben benieuwd.
116
00:06:03,980 --> 00:06:06,120
Je zei net het beeld wat er van heerst.
117
00:06:06,120 --> 00:06:07,580
Dan raak je geïrriteerd van.
118
00:06:07,580 --> 00:06:09,580
Ja, waar zit het verschil voor jou?
119
00:06:09,580 --> 00:06:10,080
Het is het beeld.
120
00:06:10,080 --> 00:06:12,280
Wat er heerst en wat het eigenlijk echt is.
121
00:06:12,280 --> 00:06:16,880
Nou ja, waar we tegenaan lopen is ,
122
00:06:16,880 --> 00:06:18,880
, we hebben dingen als greenwashing,
123
00:06:18,880 --> 00:06:21,580
hè, waarbij alles wordt gezien als hé,
124
00:06:21,580 --> 00:06:25,280
maar dat is heel goed voor het milieu en dan plakken we de sticker.
125
00:06:25,280 --> 00:06:27,880
Dit is, dit is groen en,
126
00:06:27,880 --> 00:06:29,080
en duurzaam op.
127
00:06:29,080 --> 00:06:32,080
Nou, dat zie je nu eigenlijk ook gebeuren met met het verhaal rondom agents.
128
00:06:32,080 --> 00:06:34,780
Het is dat er is iets als agentwashing.
129
00:06:34,780 --> 00:06:39,880
Dus dus , overal waar en waar iets nu met AI.
130
00:06:39,880 --> 00:06:42,480
Eh, soms zelfs als er helemaal geen AI,
131
00:06:42,480 --> 00:06:43,380
bij komt kijken,
132
00:06:43,380 --> 00:06:45,280
dan noemen we iets in één keer een agent.
133
00:06:45,280 --> 00:06:48,180
Eh, en dat maakt het wel vervelend.
134
00:06:48,180 --> 00:06:52,080
Eh, want dan is er zoveel verwarring over van,
135
00:06:52,080 --> 00:06:54,880
wat is het nou en wat komt er dan bij kijken?
136
00:06:54,880 --> 00:06:59,580
Want als jij denkt dat het afvuren van een prompt dat dat een agent is.
137
00:06:59,580 --> 00:07:04,080
Eh, ja, dan dan heb je hele andere uitdagingen dan.
138
00:07:04,080 --> 00:07:06,880
Ja, daar heb je heel veel minder uitdagingen in ieder geval.
139
00:07:06,880 --> 00:07:09,680
Terwijl als je echt een agent hebt,
140
00:07:09,680 --> 00:07:14,280
die die redelijk autonoom taken voor jou uitvoert,
141
00:07:14,280 --> 00:07:16,380
daar komt zoveel bij kijken.
142
00:07:16,380 --> 00:07:21,580
Eh, en dat dat geeft hem in ieder geval voor mij de irritatie,
143
00:07:21,580 --> 00:07:23,380
ten opzichte van wat er in de media komt,
144
00:07:23,380 --> 00:07:25,080
wat er in social media gedaan wordt.
145
00:07:25,080 --> 00:07:26,080
Er wordt gezegd,
146
00:07:26,080 --> 00:07:33,780
oh ja, weet je, je je klikt eventjes een workflow in en et en in elkaar of met make.
147
00:07:33,780 --> 00:07:35,680
En we hebben een agent.
148
00:07:35,680 --> 00:07:39,480
Eh, dus dat dat dat is eigenlijk wat me.
149
00:07:39,480 --> 00:07:43,880
Ja, ja, en en dit stukje automatisering,
150
00:07:43,880 --> 00:07:45,180
die je natuurlijk vaak,
151
00:07:45,180 --> 00:07:46,880
onder de onder de motorkap ligt.
152
00:07:46,880 --> 00:07:48,480
Eh, wat maakt deze,
153
00:07:48,480 --> 00:07:52,680
verandering nu zo anders ten opzichte van de automatisering die we al jaren doen?
154
00:07:52,680 --> 00:07:56,080
Ja, dus wat we met de software ontwikkeling doen,
155
00:07:56,080 --> 00:07:58,180
is dat het regel gebaseerd is.
156
00:07:58,180 --> 00:08:00,580
Eh, dus en dan hebben we echt overal,
157
00:08:00,580 --> 00:08:01,780
als dit gebeurt,
158
00:08:01,780 --> 00:08:04,280
dan gaan we dat doen en,
159
00:08:04,280 --> 00:08:09,280
dat hebben we op een dusdanig niveau gemaakt dat je daar ook een hele vaste workflow van kan maken.
160
00:08:09,280 --> 00:08:10,280
Dus dat je zegt van ja,
161
00:08:10,280 --> 00:08:12,280
maar we voeren eerst,
162
00:08:12,280 --> 00:08:14,280
taak één uit en,
163
00:08:14,280 --> 00:08:15,680
als die is uitgevoerd,
164
00:08:15,680 --> 00:08:20,080
hebben we daar waarschijnlijk nieuwe data van en die geven weer aan taak twee.
165
00:08:20,080 --> 00:08:25,580
En dat is dat is heel erg stapsgewijs regel gebaseerd voer je dat uit.
166
00:08:25,580 --> 00:08:27,080
Nou, wat wat doet een agent nou?
167
00:08:27,080 --> 00:08:33,880
Die geef je een opdracht en daarvan weet je eigenlijk helemaal niet hoe die die gaat opdelen in taken.
168
00:08:33,880 --> 00:08:39,080
Eh, je geeft hem gereedschappen waarmee die de taken mogelijk kan uitvoeren.
169
00:08:39,080 --> 00:08:42,080
En die gereedschappen kunnen zijn dat die data kan ophalen,
170
00:08:42,080 --> 00:08:44,080
dat die acties kan uitvoeren.
171
00:08:44,080 --> 00:08:46,080
Eh, er kan van alles zijn.
172
00:08:46,080 --> 00:08:50,080
Eh, maar dat betekent dus ook dat bij gelijke gevallen.
173
00:08:50,080 --> 00:08:51,080
Hm.
174
00:08:51,080 --> 00:08:53,080
Dat er andere stappen,
175
00:08:53,080 --> 00:08:55,080
plannen worden gevolgd.
176
00:08:55,080 --> 00:08:57,080
Dan dat die daarvoor heeft gedaan.
177
00:08:57,080 --> 00:08:58,080
Dan dat die daarvoor deed.
178
00:08:58,080 --> 00:08:59,080
Ja, want ik hoor je zeggen mogelijk.
179
00:08:59,080 --> 00:09:01,080
Terwijl bij automatisering,
180
00:09:01,080 --> 00:09:03,080
maken we vaak een plan van hé,
181
00:09:03,080 --> 00:09:06,080
we verwachten gewoon dat het repeatable is en dat het gewoon iedere keer hetzelfde uitvoert.
182
00:09:06,080 --> 00:09:07,080
Wat, wat maakt dat dan?
183
00:09:07,080 --> 00:09:08,880
Dat je dat mogelijk maakt?
184
00:09:08,880 --> 00:09:10,880
Dat je dat mogelijk gaat doen?
185
00:09:10,880 --> 00:09:12,880
Nou, dat, dat heeft te maken met dat taalmodel.
186
00:09:12,880 --> 00:09:15,880
Dat, dat taalmodel stelt een soort van stappenplan op.
187
00:09:15,880 --> 00:09:19,880
En dat, dat taalmodel daar zit al een mate van variabiliteit in.
188
00:09:19,880 --> 00:09:22,880
Dus er zit een mate van willekeur in.
189
00:09:22,880 --> 00:09:26,880
Eh, dus ja, als je, als je nu twee keer een vraag stelt,
190
00:09:26,880 --> 00:09:30,880
kan je ook een ander antwoord krijgen die misschien semantisch gelijk is.
191
00:09:30,880 --> 00:09:32,880
Eh, maar wel anders gesteld.
192
00:09:32,880 --> 00:09:38,680
Dus dat betekent dat zo'n stappenplan uiteindelijk zeg maar dezelfde resultaten kan opleveren.
193
00:09:38,680 --> 00:09:41,680
Maar dat hoeft niet in dezelfde volgorde te zijn.
194
00:09:41,680 --> 00:09:42,680
Nee.
195
00:09:42,680 --> 00:09:48,680
Dus als jij complexe taken krijgt zelf, die niet standaard voor jou zijn.
196
00:09:48,680 --> 00:09:54,680
Ja, de, de kans zeg maar dat jij deze maand dat hetzelfde zou doen als dat je dat vorige maand hebt gedaan,
197
00:09:54,680 --> 00:09:57,680
omdat er een heel ander tijdspad tussen zit.
198
00:09:57,680 --> 00:09:58,680
Ja, die kans is heel klein.
199
00:09:58,680 --> 00:09:59,680
Ja.
200
00:09:59,680 --> 00:10:01,680
En zo zou je dat eigenlijk ook moeten zien bij dit soort agents.
201
00:10:01,680 --> 00:10:04,680
Dus dat stappenplan wordt iedere keer opnieuw gemaakt.
202
00:10:04,680 --> 00:10:06,680
En daar zit ook een kracht.
203
00:10:06,680 --> 00:10:08,480
Ik kan het zeggen, ja.
204
00:10:08,480 --> 00:10:14,480
Als je, als je een standaard workflow hebt, ik denk dat ik dat ook in het boek, zoveel mogelijk probeer uit te leggen,
205
00:10:14,480 --> 00:10:17,480
weet je, gebruik dan ook gewoon de standaard workflow.
206
00:10:17,480 --> 00:10:19,480
Eh, plak daar niet het woord agent op.
207
00:10:19,480 --> 00:10:26,480
Weet je, het kan zijn dat je daarin, taalmodellen gebruikt om slimme dingen te doen of machine learning modellen gebruikt.
208
00:10:26,480 --> 00:10:29,480
Maar dan ga je wel een workflow af, hè.
209
00:10:29,480 --> 00:10:31,480
Eerst stap één, stap twee, stap drie.
210
00:10:31,480 --> 00:10:35,480
Omdat je, omdat dat gewoon de logische manier is van aanpakken.
211
00:10:35,480 --> 00:10:37,480
En heel veel van ons werk,
212
00:10:38,280 --> 00:10:40,280
is dat het een soort standaard workflows.
213
00:10:40,280 --> 00:10:41,280
Ja.
214
00:10:41,280 --> 00:10:44,280
Dus als je een niet standaard workflow hebt,
215
00:10:44,280 --> 00:10:49,280
dan komen we pas op het gebied van AI agents uit.
216
00:10:49,280 --> 00:10:51,280
Ja, en in je boek staat het ook mooi beschreven.
217
00:10:51,280 --> 00:10:55,280
Een soort van gelaagdheid van welke uitdagingen kom je tegenaan.
218
00:10:55,280 --> 00:11:05,280
Eh, wat heb je zelf daarvan ervaren dat je dacht van, goh, ik heb hier eigenlijk een niet passende oplossing gemaakt als een agent, terwijl eigenlijk moest het een workflow zijn?
219
00:11:05,280 --> 00:11:08,280
Nou, dat hebben we gedaan voor onze podcast, hè.
220
00:11:08,280 --> 00:11:12,280
Dus de podcast Research Agent, die behandel ik ook weer in het boek.
221
00:11:12,280 --> 00:11:18,280
En dat gaat erover dat het, die Research Agents worden ook heel erg aangeprezen, hè.
222
00:11:18,280 --> 00:11:21,280
Van, ja, weet je, die kunnen geweldige dingen voor je doen.
223
00:11:21,280 --> 00:11:25,280
Dus ik dacht, ik ga een Research Agent maken voor onze gasten, hè.
224
00:11:25,280 --> 00:11:29,280
Dus we krijgen een gast, Kim die nodigt dan de gast uit.
225
00:11:29,280 --> 00:11:34,280
En hoe gaaf zou het zijn als de AI van alles voor ons uitzoekt.
226
00:11:34,280 --> 00:11:42,280
Wat diegene gedaan heeft, wat de achtergrond is, mogelijke vragen die we zouden kunnen stellen.
227
00:11:42,280 --> 00:11:49,280
Er zit ook een stukje in, hè, dat we vragen van, doe ze wat out of the box vragen, om ons zelf te prikkelen.
228
00:11:49,280 --> 00:11:51,280
Dus we hebben nooit een vragenlijst voor onze neus, hè.
229
00:11:51,280 --> 00:11:54,280
Maar dat we ons een beetje inlezen.
230
00:11:54,280 --> 00:11:59,280
Jij kijkt de video's, ik lees wat degene geschreven heeft.
231
00:11:59,280 --> 00:12:03,280
Dus daar kunnen mooie samenvattingen gemaakt worden van artikelen die iemand gepubliceerd heeft.
232
00:12:03,280 --> 00:12:07,280
Dus ik dacht, nou, dat is nou echt werk voor een agent.
233
00:12:07,280 --> 00:12:08,280
Ja.
234
00:12:08,280 --> 00:12:09,280
Ja.
235
00:12:09,280 --> 00:12:11,280
Eh, niet dus.
236
00:12:11,280 --> 00:12:13,280
Ligt er niet.
237
00:12:13,280 --> 00:12:14,280
Wat ging er mis?
238
00:12:14,280 --> 00:12:15,280
Wat ging er mis?
239
00:12:15,280 --> 00:12:17,280
Er ging juist heel veel mis.
240
00:12:17,280 --> 00:12:22,280
Eén van de dingen is, juist door dat stappenplan, hè, dus dat er iedere keer wat anders werd gedaan.
241
00:12:22,280 --> 00:12:24,280
Die stappen die kunnen misgaan.
242
00:12:24,280 --> 00:12:26,280
Sterker nog, die gingen heel vaak mis.
243
00:12:26,280 --> 00:12:30,280
Maar, dan gebruik je daar frameworks voor.
244
00:12:30,280 --> 00:12:31,280
Hm-hm.
245
00:12:31,280 --> 00:12:32,280
Waartegen je programmeert.
246
00:12:32,280 --> 00:12:37,280
En die geven heel slecht inzicht in wat er dan fout gaat.
247
00:12:37,280 --> 00:12:46,280
En als het dan fout gaat, dan heb ik dus niet de mogelijkheid om te zeggen van: als dit fout gaat, moet je dat doen.
248
00:12:46,280 --> 00:12:53,280
Dus er ging zoveel fout, dat dat gewoon niet meer leuk was.
249
00:12:53,280 --> 00:12:55,280
Heb je een voorbeeld? Ben even benieuwd.
250
00:12:55,280 --> 00:13:01,280
Nou, één van de dingen is bijvoorbeeld dat er geen artikelen gevonden konden worden.
251
00:13:01,280 --> 00:13:05,280
Eh, nou, dan krijg je een foutmelding.
252
00:13:05,280 --> 00:13:07,280
En dan stopte de agent.
253
00:13:07,280 --> 00:13:14,280
Dus dan moest ik hem weer starten en aangeven van: ja, je mag ook doorgaan als er niks is.
254
00:13:14,280 --> 00:13:22,280
En zo waren er zeg maar steeds meer, ja, ik liep ook tegen rate limits aan, hè.
255
00:13:22,280 --> 00:13:28,280
Dus dat, ik gebruikte dan de Go in plaats van Google om dan zoekacties te doen.
256
00:13:28,280 --> 00:13:30,280
Nou, dan mag je er maar zoveel per dag doen.
257
00:13:30,280 --> 00:13:32,280
Dus daar loop je dan tegenaan.
258
00:13:32,280 --> 00:13:35,280
En dan klapt zo'n agent, die klapt er gewoon uit.
259
00:13:35,280 --> 00:13:45,280
Dus al die foutafhandeling die we normaal gesproken, als je aan het programmeren bent, zelf kan zeggen van: hé, als ik tegen een rate limit aanloop, ga dan gewoon verder.
260
00:13:45,280 --> 00:13:48,280
Of gebruik dan Google als achtervang.
261
00:13:48,280 --> 00:13:59,280
Dat zijn allemaal zaken die ik dan kan programmeren, die ik met dit soort frameworks gewoon niet of heel moeilijk, eh, ja, dat kon gaan maken.
262
00:13:59,280 --> 00:14:06,280
En wat ik dan proef is ook een stukje logging of inzicht in van wat gebeurt er en de variabiliteit daarin.
263
00:14:06,280 --> 00:14:14,280
Kan je ook niet alle situaties die potentieel gaan gebeuren, want die weet je niet, meenemen in wat er dan zou moeten...
264
00:14:14,280 --> 00:14:18,280
Ja, en dan vooral eigenlijk dat je daar heel weinig controle over hebt.
265
00:14:18,280 --> 00:14:26,280
En dus doordat ik daar steeds tegenaan liep, ben ik opnieuw gaan nadenken over van: ja, maar wat zijn we nu eigenlijk aan het doen?
266
00:14:26,280 --> 00:14:27,280
Eh, en wat bleek?
267
00:14:27,280 --> 00:14:28,280
Ja.
268
00:14:28,280 --> 00:14:33,280
En wat bleek is dat ik ook een normale workflow heb.
269
00:14:33,280 --> 00:14:38,280
Ik zeg van: oh ja, maar ik zoek eerst eens eigenlijk de achtergrondinformatie van diegene.
270
00:14:38,280 --> 00:14:41,280
En als ik die heb, kunnen we dan artikelen vinden.
271
00:14:41,280 --> 00:14:46,280
En als ik artikelen heb gevonden, dan laat ik die samenvatten door een taalmodel.
272
00:14:46,280 --> 00:14:51,280
En als ik die samenvattingen heb, destilleer daar dan vragen uit.
273
00:14:51,280 --> 00:14:57,280
En als we dat dan weer hebben en zo, eigenlijk is het, was het gewoon weer van stap 1, 2, 3, 4.
274
00:14:57,280 --> 00:15:00,280
En dan kan ik dan wel weer handige AI dingen voor gebruiken.
275
00:15:00,280 --> 00:15:05,280
Maar ik heb het stappenplan niet meer laten bepalen door de agent.
276
00:15:05,280 --> 00:15:10,280
Nee, want die was eigenlijk gewoon vast en dat was gewoon bekend en we wisten wat we daar voor stappen nodig hadden.
277
00:15:10,280 --> 00:15:14,280
En er zat ook geen adaptief vermogen vraag in.
278
00:15:14,280 --> 00:15:21,280
Dus dat hij iets anders moest doen op basis van een antwoord die die kreeg, bijvoorbeeld uit de zoekacties.
279
00:15:21,280 --> 00:15:24,280
Het was altijd samenvatten en niet iets anders.
280
00:15:24,280 --> 00:15:26,280
Wat, wat, waar...
281
00:15:26,280 --> 00:15:36,280
Een heel klein stukje wat ik wel miste, is dat ik kon vragen van: zorg dat ik relevante artikelen krijg en ontdubbel ze.
282
00:15:36,280 --> 00:15:38,280
Dat was wel heel erg fijn, weet je.
283
00:15:38,280 --> 00:15:42,280
Want dan, dat is dan iets wat zo'n agent dan wel voor je doet.
284
00:15:42,280 --> 00:15:48,280
Maar hoe bepaal je dan als organisatie inderdaad van wat voor taken zijn wel geschikt voor een agent?
285
00:15:48,280 --> 00:15:52,280
Ja, daar zijn in die zin verschillende methodes voor.
286
00:15:52,280 --> 00:15:55,280
Kijk, het belangrijkste is dat je je proces in kaart brengt van:
287
00:15:55,280 --> 00:15:57,280
Wat wil je ermee?
288
00:15:57,280 --> 00:15:59,280
Wat is het doel?
289
00:15:59,280 --> 00:16:03,280
En waar vindt het ook in het proces plaats?
290
00:16:03,280 --> 00:16:06,280
Dus daar zijn verschillende technieken voor.
291
00:16:06,280 --> 00:16:08,280
Je hebt de Five Wise techniek.
292
00:16:08,280 --> 00:16:10,280
Dat is eigenlijk heel erg simpel.
293
00:16:10,280 --> 00:16:13,280
Daar kan je gewoon verdiepende vragen gaan je stellen.
294
00:16:13,280 --> 00:16:19,280
Je kan kijken naar waar zitten echte bottlenecks in je proces.
295
00:16:19,280 --> 00:16:23,280
En dan ga je ook nog een soort van vragenlijst voor jezelf af.
296
00:16:23,280 --> 00:16:24,280
Dat je eerst denkt van:
297
00:16:24,280 --> 00:16:29,280
Ja, maar moeten we deze taak eigenlijk überhaupt wel uitvoeren?
298
00:16:29,280 --> 00:16:31,280
Want dan wordt er heel weinig bij stilgestaan.
299
00:16:31,280 --> 00:16:34,280
Want we blijven altijd maar doen wat we doen.
300
00:16:34,280 --> 00:16:38,280
Maar juist bij automatisering is denk ik het moment om na te denken van:
301
00:16:38,280 --> 00:16:40,280
Ja, is dit überhaupt nodig?
302
00:16:40,280 --> 00:16:41,280
Stoppen we ermee?
303
00:16:41,280 --> 00:16:47,280
Ja, want uiteindelijk als je dit gewoon stopt en schrapt, weet je, dat is de allergoedkoopste oplossing.
304
00:16:47,280 --> 00:16:49,280
Dan heb je geen automatisering nodig.
305
00:16:49,280 --> 00:16:53,280
Dan ga je kijken van: Kan je misschien het proces veranderen?
306
00:16:53,280 --> 00:17:00,280
Dat je het zodanig herstructureert dat je het ook niet hoeft te automatiseren.
307
00:17:00,280 --> 00:17:05,280
Dan kan het opgelost worden met traditionele software engineering.
308
00:17:05,280 --> 00:17:13,280
Want uiteindelijk alles wat regelgebaseerd is, is veel beter onderhoudbaar, is goedkoper, is makkelijker te bouwen.
309
00:17:13,280 --> 00:17:16,280
En de laatste stap is dan gaan we het met AI oplossen.
310
00:17:16,280 --> 00:17:20,280
En zijn AI agents dan hier de oplossing voor?
311
00:17:20,280 --> 00:17:22,280
Dat is misschien een beetje raar.
312
00:17:22,280 --> 00:17:24,280
Want ik schrijf dus een heel boek over AI agents.
313
00:17:24,280 --> 00:17:27,280
Ik zeg: Het is echt het laatste wat mij betreft waar je dan naar kijkt.
314
00:17:27,280 --> 00:17:30,280
Precies. Hierom is denk ik jouw boek heel waardevol.
315
00:17:30,280 --> 00:17:33,280
Het gaat niet in op de hype van: Je moet nu iets met AI agents gaan doen.
316
00:17:33,280 --> 00:17:35,280
Het is heel realistisch.
317
00:17:35,280 --> 00:17:39,280
Ja, en dat is ook waarom ik het zo belangrijk vind.
318
00:17:39,280 --> 00:17:44,280
En waarom ik ook als titel doeltreffend met AI agents heb gekozen.
319
00:17:44,280 --> 00:17:46,280
Want het gaat niet om de technologie.
320
00:17:46,280 --> 00:17:47,280
Het gaat niet om de hype.
321
00:17:47,280 --> 00:17:51,280
Het gaat er niet om: Kijk, ons is hoe gaaf wij AI agents hebben.
322
00:17:51,280 --> 00:17:55,280
Het moet uiteindelijk een doel hebben waarom je dit doet.
323
00:17:55,280 --> 00:18:01,280
En dan ook nog dat het bijdraagt aan een bedrijfsdoel of een organisatiedoel.
324
00:18:01,280 --> 00:18:04,280
Ja, ik zit nog even met doeltreffend.
325
00:18:04,280 --> 00:18:06,280
Dus het doel moet je helder hebben.
326
00:18:06,280 --> 00:18:09,280
En het moet ook treffend zijn in de zin van passende oplossing.
327
00:18:09,280 --> 00:18:12,280
Dat is dan denk ik wat je met doeltreffend echt in de titel ook bedoelt.
328
00:18:12,280 --> 00:18:17,280
Ja, en daarom ook zeg maar dat afpellen van: Moet je überhaupt die taak doen?
329
00:18:17,280 --> 00:18:20,280
Tot zijn AI agents dan ook daadwerkelijk...
330
00:18:20,280 --> 00:18:24,280
doeltreffend voor wat je wilt bereiken.
331
00:18:24,280 --> 00:18:28,280
Ja, wat ik wel mooi vond aan je boek is sowieso de structuur.
332
00:18:28,280 --> 00:18:31,280
En je gaat in over wanneer zou je dan een agent moeten hebben.
333
00:18:31,280 --> 00:18:34,280
Maar heb je de keuze gemaakt voor een AI agent?
334
00:18:34,280 --> 00:18:36,280
En dan heb je nog meer keuzes.
335
00:18:36,280 --> 00:18:38,280
Namelijk ga ik het low-code oplossen?
336
00:18:38,280 --> 00:18:40,280
Ga ik het anders maken?
337
00:18:40,280 --> 00:18:44,280
Kan je wat meer toelichten over wat zijn die varianten die je dan...
338
00:18:44,280 --> 00:18:48,280
als je met een AI agent aan de slag gaat, wat voor keuzes je nog kan maken daarin?
339
00:18:48,280 --> 00:18:53,280
Ja, in die zin heb je drie grove keuzes denk ik.
340
00:18:53,280 --> 00:18:57,280
Dat is no-code, low-code en maatwerk, high-code.
341
00:18:57,280 --> 00:19:01,280
En dat laatste is dus volledig zelfstandig programmeren.
342
00:19:01,280 --> 00:19:05,280
Het eerste, no-code, is dat je tools gebruikt zoals...
343
00:19:05,280 --> 00:19:09,280
n8n, make, dat soort.
344
00:19:09,280 --> 00:19:13,280
En vaak kan je daar ook nog zelf wat code aan toevoegen.
345
00:19:13,280 --> 00:19:17,280
En dan zit je in een low-code omgeving.
346
00:19:17,280 --> 00:19:23,280
En die no-code, low-code is denk ik heel erg handig voor persoonlijke agents.
347
00:19:23,280 --> 00:19:30,280
Wat ik zei, die kan je heel makkelijk in elkaar klikken en slepen.
348
00:19:30,280 --> 00:19:34,280
Ik denk dat je daar ook heel makkelijk prototypes kan maken.
349
00:19:34,280 --> 00:19:39,280
Dus die zijn daar wat mij betreft heel goed in.
350
00:19:39,280 --> 00:19:44,280
Wat lastig is, is als je aan allerlei compliance eisen moet voldoen.
351
00:19:44,280 --> 00:19:46,280
Schaalbaarheid.
352
00:19:46,280 --> 00:19:56,280
Ja, dus ik kan me zo voorstellen dat als jij duizenden en duizenden transacties per seconde moet afhandelen...
353
00:19:56,280 --> 00:19:59,280
daar zijn dit soort systemen gewoon niet voor ingericht.
354
00:19:59,280 --> 00:20:06,280
De foutafhandeling waar ik het net over had met die research agents...
355
00:20:06,280 --> 00:20:09,280
die is vaak daar ook heel erg lastig in.
356
00:20:09,280 --> 00:20:15,280
Wat je aan het doen bent, is een soort van happy flow aan het ontwerpen.
357
00:20:15,280 --> 00:20:17,280
Zo zou ik het eigenlijk moeten zeggen.
358
00:20:17,280 --> 00:20:20,280
En zolang dat goed gaat, gaat het goed. Prima.
359
00:20:20,280 --> 00:20:27,280
Dus als je veel robuuster, als het altijd moet blijven werken, kwalitatief goed moet zijn...
360
00:20:27,280 --> 00:20:31,280
dan ga je richting de high-code.
361
00:20:31,280 --> 00:20:34,280
Maar dat is natuurlijk ook een duurdere variant.
362
00:20:34,280 --> 00:20:37,280
Je hebt ook te maken met kostenafweging.
363
00:20:37,280 --> 00:20:41,280
Dus het kan ook heel erg nuttig zijn om naar die low-code, no-code te gaan.
364
00:20:41,280 --> 00:20:44,280
Dus het hangt in die zin heel erg van je situatie af...
365
00:20:44,280 --> 00:20:46,280
wat je uiteindelijk wil.
366
00:20:46,280 --> 00:20:47,280
Wat je wanneer nodig hebt.
367
00:20:47,280 --> 00:20:50,280
Bijvoorbeeld controle, allemaal van dat soort afwegingen...
368
00:20:50,280 --> 00:20:55,280
die je ook in het boek meeneemt om een helpende hand te bieden in de keuzes daarin.
369
00:20:55,280 --> 00:20:59,280
En zitten daar ook de grootste valkuilen in?
370
00:20:59,280 --> 00:21:03,280
Dus als mensen met een AI agent willen werken, waar gaan ze altijd de mist in?
371
00:21:03,280 --> 00:21:07,280
Nou, ik denk vooral het testen.
372
00:21:07,280 --> 00:21:08,280
Het testen.
373
00:21:08,280 --> 00:21:09,280
Het testen.
374
00:21:09,280 --> 00:21:13,280
Ik moet wel zeggen dat het maken van de keuze van no-code load...
375
00:21:13,280 --> 00:21:16,280
high-code, dat het echt wel een strategische keuze is.
376
00:21:16,280 --> 00:21:20,280
Dus je gaat niet zomaar, als je heel veel geïnvesteerd hebt in de ene...
377
00:21:20,280 --> 00:21:21,280
zomaar over naar de ander.
378
00:21:21,280 --> 00:21:24,280
Dus je moet daar echt goed over nadenken.
379
00:21:24,280 --> 00:21:29,280
Maar de grootste valkuil is dat er niet nagedacht wordt over testen.
380
00:21:29,280 --> 00:21:32,280
En dat testen gaat heel erg als er getest wordt...
381
00:21:32,280 --> 00:21:35,280
of die doet wat we verwachten dat die doet.
382
00:21:35,280 --> 00:21:37,280
Dat klinkt denk ik als een open deur.
383
00:21:37,280 --> 00:21:39,280
Want dat doen we altijd met software.
384
00:21:39,280 --> 00:21:42,280
Maar wat vergeten wordt, is: doet die alleen wat we verwachten dat die doet?
385
00:21:42,280 --> 00:21:46,280
Doet die alleen maar wat we vinden dat die mag doen?
386
00:21:46,280 --> 00:21:52,280
Juist omdat het brein van de AI agent dat taalmodel is...
387
00:21:52,280 --> 00:21:57,280
kunnen daar zulke andere uitkomsten uitkomen...
388
00:21:57,280 --> 00:22:00,280
dat je heel goed de grenzen moet gaan testen van:
389
00:22:00,280 --> 00:22:02,280
Wat doet de agent wel? Wat doet die niet?
390
00:22:02,280 --> 00:22:04,280
En wat mag die ook niet?
391
00:22:04,280 --> 00:22:10,280
Omdat die grote taalmodellen hebben natuurlijk heel veel kennis in zich.
392
00:22:10,280 --> 00:22:11,280
Dus als daar vragen...
393
00:22:11,280 --> 00:22:16,280
voorbij komen waar die antwoord op kan geven...
394
00:22:16,280 --> 00:22:18,280
gaat die antwoord geven.
395
00:22:18,280 --> 00:22:23,280
Je kan je voorstellen als jij een agent maakt in een HR setting...
396
00:22:23,280 --> 00:22:29,280
dat die op geen enkele wijze medisch advies mag geven.
397
00:22:29,280 --> 00:22:31,280
Maar dat doe je niet door alleen maar te zeggen:
398
00:22:31,280 --> 00:22:33,280
Je mag geen medisch advies geven.
399
00:22:33,280 --> 00:22:36,280
Dus daar moet je heel goed op testen.
400
00:22:36,280 --> 00:22:40,280
En dan heb je nog te maken met...
401
00:22:40,280 --> 00:22:42,280
Dit is nog normaal gebruik.
402
00:22:42,280 --> 00:22:45,280
Die agents gaan zo direct in het wild.
403
00:22:45,280 --> 00:22:48,280
Gaan ze relatief autonoom bezig.
404
00:22:48,280 --> 00:22:54,280
Wat doe je met alles waar mensen proberen in te breken?
405
00:22:54,280 --> 00:22:57,280
Of iets proberen wat niet mag?
406
00:22:57,280 --> 00:23:00,280
Als jouw agent het web op mag...
407
00:23:00,280 --> 00:23:05,280
dan kunnen op die pagina's die hij dan scraped...
408
00:23:05,280 --> 00:23:09,280
daar kunnen gewoon instructies staan voor jouw agent.
409
00:23:09,280 --> 00:23:12,280
En daarmee kan een agent bijvoorbeeld...
410
00:23:12,280 --> 00:23:15,280
gewoon data lekken.
411
00:23:15,280 --> 00:23:17,280
Of andere activiteiten op gaan pakken...
412
00:23:17,280 --> 00:23:20,280
op basis van de informatie die binnenkomt.
413
00:23:20,280 --> 00:23:22,280
Volgens mij is de term, als ik het goed onthoud...
414
00:23:22,280 --> 00:23:24,280
heb je je boek Prompt Injection daarvoor?
415
00:23:24,280 --> 00:23:25,280
Ja, zeker.
416
00:23:25,280 --> 00:23:28,280
Dat zijn dan verborgen prompts...
417
00:23:28,280 --> 00:23:31,280
die de agent oppikt...
418
00:23:31,280 --> 00:23:34,280
en daar gewoon mee aan de slag gaat.
419
00:23:34,280 --> 00:23:36,280
En een andere lastige Kim is dat...
420
00:23:36,280 --> 00:23:38,280
Kijk...
421
00:23:38,280 --> 00:23:42,280
een agent heeft toegang tot bepaalde data.
422
00:23:42,280 --> 00:23:44,280
En dat moet je ook zorgen...
423
00:23:44,280 --> 00:23:47,280
dat dat heel erg afgeschermd is.
424
00:23:47,280 --> 00:23:50,280
Dat ook alleen maar bij die data dat je er mag.
425
00:23:50,280 --> 00:23:52,280
En zo gauw je met agents...
426
00:23:52,280 --> 00:23:54,280
met meerdere agents aan de slag gaat...
427
00:23:54,280 --> 00:23:57,280
hoe ga je ervoor zorgen...
428
00:23:57,280 --> 00:24:00,280
dat iedere agent alleen die data krijgt...
429
00:24:00,280 --> 00:24:03,280
die hij nodig heeft en die hij ook alleen maar mag zien...
430
00:24:03,280 --> 00:24:07,280
als de uitwisseling plaatsvindt...
431
00:24:07,280 --> 00:24:10,280
dat is zeg maar de hoofdagent...
432
00:24:10,280 --> 00:24:12,280
die deelt taken uit...
433
00:24:12,280 --> 00:24:14,280
maar die deelt dus ook data zelf...
434
00:24:14,280 --> 00:24:16,280
en dus je maakt keuzes...
435
00:24:16,280 --> 00:24:19,280
in welke data ik aan welke agent geef.
436
00:24:19,280 --> 00:24:22,280
En hoe hou je daar dan nog zicht op?
437
00:24:22,280 --> 00:24:26,280
Hoe hou je daar controle over?
438
00:24:26,280 --> 00:24:28,280
En dat zijn wel de dingen die je moet testen.
439
00:24:28,280 --> 00:24:32,280
Dus je moet heel veel loggen, kijken, monitoren...
440
00:24:32,280 --> 00:24:36,280
en vooral om te kijken van wat hij niet mag doen.
441
00:24:36,280 --> 00:24:42,280
En wat is de beste AI agent use case...
442
00:24:42,280 --> 00:24:45,280
die je tot nu toe voor bedrijfskritische systemen hebt gezien?
443
00:24:45,280 --> 00:24:50,280
Ik heb een aantal hele leuke case studies in het boek.
444
00:24:50,280 --> 00:24:52,280
Ik weet niet of het het beste is...
445
00:24:52,280 --> 00:24:54,280
maar wat ik wel een hele mooie vind...
446
00:24:54,280 --> 00:24:56,280
is die van Sensire.
447
00:24:56,280 --> 00:25:00,280
En Sensire is een grote zorgverlener.
448
00:25:00,280 --> 00:25:03,280
Ik kom even niet op het juiste woord.
449
00:25:03,280 --> 00:25:05,280
Dat ze zorg aan huizen...
450
00:25:05,280 --> 00:25:07,280
leveren.
451
00:25:07,280 --> 00:25:08,280
Thuiszorg.
452
00:25:08,280 --> 00:25:09,280
Thuiszorg.
453
00:25:09,280 --> 00:25:11,280
Bingo.
454
00:25:11,280 --> 00:25:13,280
Thuiszorg.
455
00:25:13,280 --> 00:25:17,280
Zij zijn de grootste thuiszorgorganisatie in de Achterhoek.
456
00:25:17,280 --> 00:25:20,280
En wat zij daar hadden is dat...
457
00:25:20,280 --> 00:25:24,280
als de zorgverleners terugkwamen...
458
00:25:24,280 --> 00:25:25,280
bijvoorbeeld van vakantie...
459
00:25:25,280 --> 00:25:28,280
of anders langdurig niet bij een cliënt geweest zijn...
460
00:25:28,280 --> 00:25:31,280
moesten ze zich inlezen...
461
00:25:31,280 --> 00:25:34,280
kijken wat er allemaal aan veranderingen heeft plaatsgevonden.
462
00:25:34,280 --> 00:25:36,280
En deze mensen zijn zo betrokken...
463
00:25:36,280 --> 00:25:39,280
dat ze dat dan in een vrije tijd doen...
464
00:25:39,280 --> 00:25:40,280
voordat zij...
465
00:25:40,280 --> 00:25:41,280
bijvoorbeeld de avond...
466
00:25:41,280 --> 00:25:45,280
voordat zij naar die cliënt gaan.
467
00:25:45,280 --> 00:25:47,280
Wat Sensire gedaan heeft...
468
00:25:47,280 --> 00:25:48,280
is een agent gemaakt...
469
00:25:48,280 --> 00:25:50,280
die ervoor zorgt dat...
470
00:25:50,280 --> 00:25:53,280
die administratie makkelijker is...
471
00:25:53,280 --> 00:25:54,280
bij wordt gewerkt...
472
00:25:54,280 --> 00:25:58,280
dat die klaar staat voor deze zorgverleners.
473
00:25:58,280 --> 00:26:00,280
En dat ze dit dan...
474
00:26:00,280 --> 00:26:03,280
sowieso nu korter kunnen doen in hun eigen tijd.
475
00:26:03,280 --> 00:26:08,280
Dus het is van uren naar een paar minuten gegaan.
476
00:26:08,280 --> 00:26:09,280
En de volgende stap...
477
00:26:09,280 --> 00:26:10,280
en dat vind ik echt heel cool...
478
00:26:10,280 --> 00:26:15,280
is dat ze het willen gaan omzetten naar audio.
479
00:26:15,280 --> 00:26:17,280
Zodat je op weg naar de cliënt...
480
00:26:17,280 --> 00:26:19,280
dus in je reistijd...
481
00:26:19,280 --> 00:26:21,280
dat ze dan dat te horen krijgen...
482
00:26:21,280 --> 00:26:22,280
van wat is er veranderd?
483
00:26:22,280 --> 00:26:24,280
Wat is er belangrijk?
484
00:26:24,280 --> 00:26:27,280
Welke zorg is nu veranderd?
485
00:26:27,280 --> 00:26:29,280
Dus ze hebben daarmee echt...
486
00:26:29,280 --> 00:26:31,280
de zorgverlener versterkt...
487
00:26:31,280 --> 00:26:32,280
maar ook...
488
00:26:32,280 --> 00:26:34,280
gewoon de werkdruk verminderd.
489
00:26:34,280 --> 00:26:35,280
Hele mooie.
490
00:26:35,280 --> 00:26:36,280
Hele mooie inderdaad.
491
00:26:36,280 --> 00:26:38,280
Ik zie in ons vakgebied...
492
00:26:38,280 --> 00:26:39,280
er ook wel heel veel waarde van.
493
00:26:39,280 --> 00:26:40,280
Wat zijn de technische ontwikkelingen...
494
00:26:40,280 --> 00:26:41,280
die nu weer plaatsvinden...
495
00:26:41,280 --> 00:26:42,280
binnen het AI-gebied?
496
00:26:42,280 --> 00:26:44,280
Kan je mij even bijpraten?
497
00:26:44,280 --> 00:26:46,280
Hetgeen hoe ik nu vaak in de ochtend...
498
00:26:46,280 --> 00:26:49,280
chat-GPT gebruik.
499
00:26:49,280 --> 00:26:50,280
Mooi.
500
00:26:50,280 --> 00:26:52,280
Ik hoor ook wel heel veel techniek.
501
00:26:52,280 --> 00:26:54,280
Maar in je boek staat ook...
502
00:26:54,280 --> 00:26:55,280
een heel groot stuk, een heel groot deel...
503
00:26:55,280 --> 00:26:56,280
denk ik misschien wel de helft zelfs...
504
00:26:56,280 --> 00:26:58,280
over hoe ga je beginnen?
505
00:26:58,280 --> 00:27:00,280
Wat komt er op je organisatie af?
506
00:27:00,280 --> 00:27:01,280
Wat voor rollen komen we bekijken?
507
00:27:01,280 --> 00:27:03,280
Waarom het belangrijke stukje...
508
00:27:03,280 --> 00:27:05,280
van de techniek...
509
00:27:05,280 --> 00:27:07,280
in de organisatie?
510
00:27:07,280 --> 00:27:09,280
Wat was de reden dat je dat zo...
511
00:27:09,280 --> 00:27:11,280
uitgebreid in het boek opneemt?
512
00:27:11,280 --> 00:27:13,280
Omdat er dan...
513
00:27:13,280 --> 00:27:15,280
veel verandert.
514
00:27:15,280 --> 00:27:17,280
Dus de AI-agents nemen...
515
00:27:17,280 --> 00:27:19,280
als je ze gaat inzetten...
516
00:27:19,280 --> 00:27:21,280
gaan ze grote delen...
517
00:27:21,280 --> 00:27:23,280
van taken van...
518
00:27:23,280 --> 00:27:25,280
mensen overnemen.
519
00:27:25,280 --> 00:27:27,280
Dus dat betekent ook dat er...
520
00:27:27,280 --> 00:27:29,280
organisatorische wijzigingen plaats gaan vinden.
521
00:27:29,280 --> 00:27:30,280
En dat je daar ook weer strategische keuzes in...
522
00:27:30,280 --> 00:27:32,280
moet maken van hoe je daarmee omgaat.
523
00:27:32,280 --> 00:27:34,280
Dus je mensen...
524
00:27:34,280 --> 00:27:36,280
moeten anders omgaan...
525
00:27:36,280 --> 00:27:38,280
met de technologie.
526
00:27:38,280 --> 00:27:40,280
Dus die moeten daarin getraind worden.
527
00:27:40,280 --> 00:27:42,280
Je krijgt andere skills.
528
00:27:42,280 --> 00:27:44,280
Dus om AI-agents...
529
00:27:44,280 --> 00:27:46,280
te maken, te monitoren...
530
00:27:46,280 --> 00:27:48,280
komen ook nieuwe rollen.
531
00:27:48,280 --> 00:27:50,280
Een van de dingen...
532
00:27:50,280 --> 00:27:52,280
waar je aan zou kunnen denken...
533
00:27:52,280 --> 00:27:54,280
is een AI-agent trainer.
534
00:27:54,280 --> 00:27:56,280
Dus in plaats van dat je...
535
00:27:56,280 --> 00:27:58,280
de taak uitvoert...
536
00:27:58,280 --> 00:27:59,280
krijg je mensen die...
537
00:27:59,280 --> 00:28:01,280
erop gericht zijn...
538
00:28:01,280 --> 00:28:03,280
dat die agent ook blijft doen...
539
00:28:03,280 --> 00:28:05,280
wat hij moet doen.
540
00:28:05,280 --> 00:28:07,280
Maar ook dat hij...
541
00:28:07,280 --> 00:28:09,280
meeverandert aan de omstandigheden...
542
00:28:09,280 --> 00:28:11,280
van het bedrijf.
543
00:28:11,280 --> 00:28:13,280
Want het is niet zo dat...
544
00:28:13,280 --> 00:28:15,280
er leven heel veel fantasieën over...
545
00:28:15,280 --> 00:28:17,280
dat zo'n agent dan van alles...
546
00:28:17,280 --> 00:28:19,280
zelfstandig gaat leren...
547
00:28:19,280 --> 00:28:21,280
en zich aan van alles en nog wat aanpast.
548
00:28:21,280 --> 00:28:23,280
Maar als dat goed is beweegt je bedrijf.
549
00:28:23,280 --> 00:28:25,280
Ieder bedrijf zegt wel in zijn...
550
00:28:25,280 --> 00:28:27,280
vacature: wij zijn een jong, dynamisch bedrijf.
551
00:28:27,280 --> 00:28:28,280
Dynamiek betekent...
552
00:28:28,280 --> 00:28:30,280
verandering.
553
00:28:30,280 --> 00:28:32,280
En bij die verandering...
554
00:28:32,280 --> 00:28:34,280
moet die AI-agent meebewegen met die verandering.
555
00:28:34,280 --> 00:28:36,280
Dus er moet iemand zijn...
556
00:28:36,280 --> 00:28:38,280
die...
557
00:28:38,280 --> 00:28:40,280
zeker als je meerdere agents hebt...
558
00:28:40,280 --> 00:28:42,280
dat die...
559
00:28:42,280 --> 00:28:44,280
meegetraind wordt. Dat ze ook beter worden.
560
00:28:44,280 --> 00:28:46,280
Dat ze nieuwe vragen aankunnen...
561
00:28:46,280 --> 00:28:48,280
van taken...
562
00:28:48,280 --> 00:28:50,280
die gedaan moeten worden.
563
00:28:50,280 --> 00:28:52,280
Aan dat soort rollen moet je denken...
564
00:28:52,280 --> 00:28:54,280
dat dat gaat veranderen.
565
00:28:54,280 --> 00:28:56,280
Ik denk in beelden. Ik was even...
566
00:28:56,280 --> 00:28:57,280
Ik zat als...
567
00:28:57,280 --> 00:28:59,280
een robotje.
568
00:28:59,280 --> 00:29:01,280
Maar ik denk wel...
569
00:29:01,280 --> 00:29:03,280
een hele mooie...
570
00:29:03,280 --> 00:29:05,280
vergelijking inderdaad.
571
00:29:05,280 --> 00:29:07,280
Bijblijven, trainen...
572
00:29:07,280 --> 00:29:09,280
monitoren hoe het gaat. Af en toe...
573
00:29:09,280 --> 00:29:11,280
even tot het limiet kijken hoe ver...
574
00:29:11,280 --> 00:29:13,280
je kan gaan. Wat ook in de sport dan vaak wordt toegepast.
575
00:29:13,280 --> 00:29:15,280
Allemaal zaken die je dus eigenlijk...
576
00:29:15,280 --> 00:29:17,280
ook bij een agent los moet laten.
577
00:29:17,280 --> 00:29:19,280
Omdat die ook autonoom activiteiten...
578
00:29:19,280 --> 00:29:21,280
en dus bij moet blijven.
579
00:29:21,280 --> 00:29:23,280
En je data verandert.
580
00:29:23,280 --> 00:29:25,280
Daar weet je alles van.
581
00:29:25,280 --> 00:29:26,280
Dus weet je...
582
00:29:26,280 --> 00:29:28,280
kan de agent met de data...
583
00:29:28,280 --> 00:29:30,280
veranderende data nog steeds...
584
00:29:30,280 --> 00:29:32,280
de taken uitvoeren waar die...
585
00:29:32,280 --> 00:29:34,280
voor gemaakt is.
586
00:29:34,280 --> 00:29:36,280
In die zin...
587
00:29:36,280 --> 00:29:38,280
komt daar veel bij kijken. En je hebt natuurlijk...
588
00:29:38,280 --> 00:29:40,280
ethische afwegingen.
589
00:29:40,280 --> 00:29:42,280
Dus er zal...
590
00:29:42,280 --> 00:29:44,280
veel meer rondom ethiek...
591
00:29:44,280 --> 00:29:46,280
dingen moeten gaan organiseren...
592
00:29:46,280 --> 00:29:48,280
in je...
593
00:29:48,280 --> 00:29:50,280
organisatie.
594
00:29:50,280 --> 00:29:52,280
We hebben de AI Act.
595
00:29:52,280 --> 00:29:54,280
Dus er zullen mensen moeten zijn die daarvan op de hoogte...
596
00:29:54,280 --> 00:29:55,280
zijn van...
597
00:29:55,280 --> 00:29:57,280
wat mag zo'n agent wel, wat mag die niet.
598
00:29:57,280 --> 00:29:59,280
Waar loop je tegenaan?
599
00:29:59,280 --> 00:30:01,280
Ze zitten...
600
00:30:01,280 --> 00:30:03,280
op allerlei vlakken.
601
00:30:03,280 --> 00:30:05,280
Krijg je of nieuwe...
602
00:30:05,280 --> 00:30:07,280
rollen of veranderende rollen.
603
00:30:07,280 --> 00:30:09,280
Wat is jouw grootste zorg rondom ethiek en AI Agents?
604
00:30:09,280 --> 00:30:13,280
Mijn grootste...
605
00:30:13,280 --> 00:30:15,280
zorg?
606
00:30:15,280 --> 00:30:17,280
Nou ik denk toch wel...
607
00:30:17,280 --> 00:30:19,280
waar ik...
608
00:30:19,280 --> 00:30:21,280
net ook over had.
609
00:30:21,280 --> 00:30:23,280
Dat er niet wordt gekeken...
610
00:30:23,280 --> 00:30:24,280
naar...
611
00:30:24,280 --> 00:30:26,280
wat die agent eigenlijk niet...
612
00:30:26,280 --> 00:30:28,280
moet doen.
613
00:30:28,280 --> 00:30:30,280
Daar wordt zo niet naar gekeken.
614
00:30:30,280 --> 00:30:32,280
Dus er wordt zo gekeken naar van...
615
00:30:32,280 --> 00:30:34,280
dit kan het, dit gaat het ons opleveren.
616
00:30:34,280 --> 00:30:36,280
Wij moeten...
617
00:30:36,280 --> 00:30:38,280
nu ook agents gaan hebben.
618
00:30:38,280 --> 00:30:40,280
Gewoon om...
619
00:30:40,280 --> 00:30:42,280
de heb.
620
00:30:42,280 --> 00:30:44,280
En daar...
621
00:30:44,280 --> 00:30:46,280
gaat...
622
00:30:46,280 --> 00:30:48,280
uiteindelijk gaat daar iets mee mis.
623
00:30:48,280 --> 00:30:50,280
En is dat dan vooral gebrek aan kennis...
624
00:30:50,280 --> 00:30:52,280
denk je? Of is het dat mensen een beetje blind worden...
625
00:30:52,280 --> 00:30:53,280
door alle nieuwe technologie?
626
00:30:53,280 --> 00:30:55,280
Ja maar ook...
627
00:30:55,280 --> 00:30:57,280
het is natuurlijk ook een probleem...
628
00:30:57,280 --> 00:30:59,280
die zich pas wat later voordoet.
629
00:30:59,280 --> 00:31:01,280
Dus dat is niet iets waar je graag...
630
00:31:01,280 --> 00:31:03,280
in het begin naar wil kijken.
631
00:31:03,280 --> 00:31:05,280
En...
632
00:31:05,280 --> 00:31:07,280
waar ik ook wel zorgen over...
633
00:31:07,280 --> 00:31:09,280
maak is...
634
00:31:09,280 --> 00:31:11,280
de agents die met elkaar gaan praten.
635
00:31:11,280 --> 00:31:13,280
Hoe dat zo direct gaat.
636
00:31:13,280 --> 00:31:15,280
Ik denk dat...
637
00:31:15,280 --> 00:31:17,280
dat dat...
638
00:31:17,280 --> 00:31:19,280
een kluwe aan problemen gaat opleveren.
639
00:31:19,280 --> 00:31:21,280
Juist omdat...
640
00:31:21,280 --> 00:31:22,280
ze toegang krijgen...
641
00:31:22,280 --> 00:31:24,280
tot bijvoorbeeld...
642
00:31:24,280 --> 00:31:26,280
het web of tot interne systemen.
643
00:31:26,280 --> 00:31:28,280
Maar dat je niet meer weet...
644
00:31:28,280 --> 00:31:30,280
hoe uiteindelijk...
645
00:31:30,280 --> 00:31:32,280
agent nummer 10...
646
00:31:32,280 --> 00:31:34,280
aangeroepen is door...
647
00:31:34,280 --> 00:31:36,280
een hele keten van agents.
648
00:31:36,280 --> 00:31:38,280
En waarom je allerlei...
649
00:31:38,280 --> 00:31:40,280
datalekken hebt gekregen.
650
00:31:40,280 --> 00:31:42,280
Of waarom agents in een keer...
651
00:31:42,280 --> 00:31:44,280
van alles hebben weggegooid.
652
00:31:44,280 --> 00:31:46,280
Er is al een voorbeeld van een...
653
00:31:46,280 --> 00:31:48,280
een programmeer agent.
654
00:31:48,280 --> 00:31:50,280
Die bedacht dat het...
655
00:31:50,280 --> 00:31:51,280
handig was om iets te verplaatsen...
656
00:31:51,280 --> 00:31:53,280
aan code.
657
00:31:53,280 --> 00:31:55,280
Bestanden.
658
00:31:55,280 --> 00:31:57,280
Maar was vergeten...
659
00:31:57,280 --> 00:31:59,280
om de verplaatsing werkelijk uit te voeren.
660
00:31:59,280 --> 00:32:01,280
Maar wel de weggooi actie...
661
00:32:01,280 --> 00:32:03,280
had gedaan.
662
00:32:03,280 --> 00:32:05,280
Nou, dit was nog in een setting zeg maar...
663
00:32:05,280 --> 00:32:07,280
dat er ook...
664
00:32:07,280 --> 00:32:09,280
source control was.
665
00:32:09,280 --> 00:32:11,280
Dat die code teruggehaald kon worden.
666
00:32:11,280 --> 00:32:13,280
Maar je kan je voorstellen als jij een deel...
667
00:32:13,280 --> 00:32:15,280
van je klantenbestand weg is...
668
00:32:15,280 --> 00:32:17,280
en je weet niet hoe dat komt...
669
00:32:17,280 --> 00:32:19,280
Nou ja, voor dat soort dingen...
670
00:32:19,280 --> 00:32:21,280
maak ik me wel zorgen.
671
00:32:21,280 --> 00:32:23,280
Maar bij zorgen...
672
00:32:23,280 --> 00:32:25,280
zit ook aan de andere kant...
673
00:32:25,280 --> 00:32:27,280
vaak heel veel kans. Dus we belichten nu ook de uitdaging...
674
00:32:27,280 --> 00:32:29,280
wat denk ik ook heel goed is. En dat ook goed om...
675
00:32:29,280 --> 00:32:31,280
bij stil te staan van: hé, als je hiermee aan de slag gaat...
676
00:32:31,280 --> 00:32:33,280
waar moet je op letten om het goed te doen?
677
00:32:33,280 --> 00:32:35,280
Ja.
678
00:32:35,280 --> 00:32:37,280
Een goede oplossing te hebben voor een passend probleem.
679
00:32:37,280 --> 00:32:39,280
De passende oplossing te hebben.
680
00:32:39,280 --> 00:32:41,280
Waar zie jij nu echt de mooie...
681
00:32:41,280 --> 00:32:43,280
pareltjes ontstaan wat we hiervoor...
682
00:32:43,280 --> 00:32:45,280
moeilijk konden bereiken nu met AI Agents...
683
00:32:45,280 --> 00:32:47,280
wel mogelijk is?
684
00:32:47,280 --> 00:32:49,280
Ja, juist zeg maar...
685
00:32:49,280 --> 00:32:51,280
als je niet zo'n workflow hebt...
686
00:32:51,280 --> 00:32:53,280
Een andere casestudie is...
687
00:32:53,280 --> 00:32:55,280
van een grote...
688
00:32:55,280 --> 00:32:57,280
pakketbezorger, een Nederlandse pakketbezorger...
689
00:32:57,280 --> 00:32:59,280
en een van de...
690
00:32:59,280 --> 00:33:01,280
zakelijke vragen die heel veel...
691
00:33:01,280 --> 00:33:03,280
daar komt is van: waar is mijn...
692
00:33:03,280 --> 00:33:05,280
pakket? En...
693
00:33:05,280 --> 00:33:07,280
nu zeg maar moet zo'n...
694
00:33:07,280 --> 00:33:09,280
Dat is dan niet een standaard...
695
00:33:09,280 --> 00:33:11,280
workflow. Want dat...
696
00:33:11,280 --> 00:33:13,280
pakket kan op allerlei mogelijke...
697
00:33:13,280 --> 00:33:15,280
manieren kan dat...
698
00:33:15,280 --> 00:33:17,280
Het is niet...
699
00:33:17,280 --> 00:33:19,280
verdwenen. Het is dat...
700
00:33:19,280 --> 00:33:21,280
het niet vindbaar is...
701
00:33:21,280 --> 00:33:23,280
op dat moment in het systeem voor de track and trace.
702
00:33:23,280 --> 00:33:25,280
Dus het is ergens...
703
00:33:25,280 --> 00:33:27,280
de vraag is waar.
704
00:33:27,280 --> 00:33:29,280
En wat zo'n agent dan...
705
00:33:29,280 --> 00:33:31,280
kan doen is door...
706
00:33:31,280 --> 00:33:33,280
heel veel data te grutten...
707
00:33:33,280 --> 00:33:35,280
daar...
708
00:33:35,280 --> 00:33:37,280
patronen vinden...
709
00:33:37,280 --> 00:33:39,280
die wij...
710
00:33:39,280 --> 00:33:41,280
als mens misschien ook wel zouden kunnen vinden...
711
00:33:41,280 --> 00:33:43,280
maar deze agent kan het...
712
00:33:43,280 --> 00:33:45,280
dan zelfstandig.
713
00:33:45,280 --> 00:33:47,280
En...
714
00:33:47,280 --> 00:33:49,280
wat zij daar aangaven...
715
00:33:49,280 --> 00:33:51,280
is dat omdat je dat dan parallel kan...
716
00:33:51,280 --> 00:33:53,280
doen, kan dus een...
717
00:33:53,280 --> 00:33:55,280
menselijke agent...
718
00:33:55,280 --> 00:33:57,280
klantenservice...
719
00:33:57,280 --> 00:33:59,280
die heeft zeg maar de contact met de...
720
00:33:59,280 --> 00:34:01,280
klant dus die kan veel meer klanten tegelijkertijd...
721
00:34:01,280 --> 00:34:03,280
bedienen. Waardoor...
722
00:34:03,280 --> 00:34:05,280
de wachttijd van jou afneemt...
723
00:34:05,280 --> 00:34:07,280
en dan parallel zijn...
724
00:34:07,280 --> 00:34:09,280
er zeg maar allemaal...
725
00:34:09,280 --> 00:34:11,280
AI agents die zijn op zoek...
726
00:34:11,280 --> 00:34:13,280
naar dat pakket.
727
00:34:13,280 --> 00:34:15,280
En als dat dan gevonden is...
728
00:34:15,280 --> 00:34:17,280
kan het dan aan...
729
00:34:17,280 --> 00:34:19,280
de klant teruggemeld worden.
730
00:34:19,280 --> 00:34:21,280
Dus dan heb je de intermenselijke contact...
731
00:34:21,280 --> 00:34:23,280
hou je. En op de...
732
00:34:23,280 --> 00:34:25,280
achtergrond is dan die...
733
00:34:25,280 --> 00:34:27,280
AI agent is bezig en...
734
00:34:27,280 --> 00:34:29,280
zij gaven ook aan soms doet de...
735
00:34:29,280 --> 00:34:31,280
AI agent er gewoon langer over dan als de...
736
00:34:31,280 --> 00:34:33,280
mens het zou doen. Maar juist door die...
737
00:34:33,280 --> 00:34:35,280
zelfstandigheid en dat je dat...
738
00:34:35,280 --> 00:34:37,280
parallel kan uitzetten...
739
00:34:37,280 --> 00:34:39,280
heb je in een keer dat je dat in...
740
00:34:39,280 --> 00:34:41,280
hele grote volumes kan doen...
741
00:34:41,280 --> 00:34:43,280
waardoor de klantbeleving...
742
00:34:43,280 --> 00:34:45,280
veel beter wordt.
743
00:34:45,280 --> 00:34:47,280
Voor mezelf probeer ik dan even te vertalen wat zie ik dan voor me...
744
00:34:47,280 --> 00:34:49,280
en dan zie ik dus allemaal verschillende...
745
00:34:49,280 --> 00:34:51,280
systemen binnen een organisatie waar data en...
746
00:34:51,280 --> 00:34:53,280
de keten van...
747
00:34:53,280 --> 00:34:55,280
data beschikbaar is. Dus ik denk dat als je...
748
00:34:55,280 --> 00:34:57,280
nu binnen een organisatie werkt dat je vast wel afdelingen hebt...
749
00:34:57,280 --> 00:34:59,280
waar een eigen silo is om data te hebben...
750
00:34:59,280 --> 00:35:01,280
en ook andere organisaties. Dus eigenlijk...
751
00:35:01,280 --> 00:35:03,280
keten overstijgend omdat je niet helemaal...
752
00:35:03,280 --> 00:35:05,280
weet waar welke punten wanneer...
753
00:35:05,280 --> 00:35:07,280
nodig zijn. Daar een agent voor in te zetten...
754
00:35:07,280 --> 00:35:09,280
om dat geautomatiseerde silo's eigenlijk...
755
00:35:09,280 --> 00:35:11,280
open te breken. Dat klinkt als een hele mooie...
756
00:35:11,280 --> 00:35:13,280
die heel veel organisaties zou moeten kunnen helpen.
757
00:35:13,280 --> 00:35:15,280
Ja, toch? Ja, inderdaad. Mooi.
758
00:35:15,280 --> 00:35:17,280
Je stipte er net al even aan...
759
00:35:17,280 --> 00:35:19,280
het stukje ethiek.
760
00:35:19,280 --> 00:35:21,280
Wat komt er op organisaties...
761
00:35:21,280 --> 00:35:23,280
extra af...
762
00:35:23,280 --> 00:35:25,280
op ethiek vlak als je met...
763
00:35:25,280 --> 00:35:27,280
agents aan de slag gaat?
764
00:35:27,280 --> 00:35:29,280
Nou, ik denk niet...
765
00:35:29,280 --> 00:35:31,280
heel veel anders...
766
00:35:31,280 --> 00:35:33,280
als dat je gewoon met AI in het algemeen...
767
00:35:33,280 --> 00:35:35,280
Dus daar zitten geen andere...
768
00:35:35,280 --> 00:35:37,280
vragen. Dus ik heb ook...
769
00:35:37,280 --> 00:35:39,280
niet een heel...
770
00:35:39,280 --> 00:35:41,280
groot hoofdstuk of zo over ethiek...
771
00:35:41,280 --> 00:35:43,280
want ik ben geen ethicus dus ik...
772
00:35:43,280 --> 00:35:45,280
vind ook dat ik daar voorzichtig in moet zijn...
773
00:35:45,280 --> 00:35:47,280
zeg maar, wat ik daarover zeg. Maar dat het...
774
00:35:47,280 --> 00:35:49,280
heel belangrijk is dat je...
775
00:35:49,280 --> 00:35:51,280
dat van tevoren meeneemt...
776
00:35:51,280 --> 00:35:53,280
bij je ontwerp, dat je ook...
777
00:35:53,280 --> 00:35:55,280
het liefst zeg maar vanuit...
778
00:35:55,280 --> 00:35:57,280
verschillende perspectieven naar je agent...
779
00:35:57,280 --> 00:35:59,280
kijkt. Dat je...
780
00:35:59,280 --> 00:36:01,280
de waarden en normen...
781
00:36:01,280 --> 00:36:03,280
van je eigen organisatie daartegen...
782
00:36:03,280 --> 00:36:05,280
aanhoudt. Want daar gaat het om. Want het is geen...
783
00:36:05,280 --> 00:36:07,280
checklist.
784
00:36:07,280 --> 00:36:09,280
En dat je dezelfde afwegingen maakt...
785
00:36:09,280 --> 00:36:11,280
bij...
786
00:36:11,280 --> 00:36:13,280
hoe je AI nu inzet.
787
00:36:13,280 --> 00:36:15,280
En misschien sowieso hoe je...
788
00:36:15,280 --> 00:36:17,280
automatisering toepast.
789
00:36:17,280 --> 00:36:19,280
Ja. Dus vanuit verschillende...
790
00:36:19,280 --> 00:36:21,280
perspectieven. Ik hoor ook weer een mooi brugje...
791
00:36:21,280 --> 00:36:23,280
naar een vast thema in onze podcast.
792
00:36:23,280 --> 00:36:25,280
Ja, zeker. Je zit nog steeds aan de knoppen.
793
00:36:25,280 --> 00:36:27,280
Dus we gaan er zelf in starten. Ja, tuurlijk.
794
00:36:27,280 --> 00:36:43,280
Ja, en we hebben een nieuwe versie...
795
00:36:43,280 --> 00:36:45,280
natuurlijk. Met ook specifiek...
796
00:36:45,280 --> 00:36:47,280
richting de zorg specifieke vragen...
797
00:36:47,280 --> 00:36:49,280
erin. Ik wil je vragen...
798
00:36:49,280 --> 00:36:51,280
om een nummer tussen de...
799
00:36:51,280 --> 00:36:53,280
1 en 40 te noemen.
800
00:36:53,280 --> 00:36:55,280
En dan pak ik de stelling erbij die ik je wil...
801
00:36:55,280 --> 00:36:57,280
voorleggen. 13.
802
00:36:57,280 --> 00:36:59,280
13.
803
00:36:59,280 --> 00:37:05,280
Nou. Het...
804
00:37:05,280 --> 00:37:07,280
thema is gebruik en toepassingen.
805
00:37:07,280 --> 00:37:11,280
Je hebt wel weer een mooie, joh.
806
00:37:11,280 --> 00:37:13,280
Ik maak regelmatig...
807
00:37:13,280 --> 00:37:15,280
gebruik van ChatGPT voor mijn werk.
808
00:37:15,280 --> 00:37:17,280
Oh ja.
809
00:37:17,280 --> 00:37:19,280
Die is nu een beetje flauw. Nee, nooit.
810
00:37:19,280 --> 00:37:21,280
Nee, nooit.
811
00:37:21,280 --> 00:37:23,280
Ik pak er gewoon even een uit voor jou.
812
00:37:23,280 --> 00:37:25,280
Ja.
813
00:37:25,280 --> 00:37:27,280
Ik pak even...
814
00:37:27,280 --> 00:37:29,280
risico en uitdagingen.
815
00:37:29,280 --> 00:37:31,280
Ik maak mij zorgen...
816
00:37:31,280 --> 00:37:33,280
over verlies van kennis bij zorgverleners...
817
00:37:33,280 --> 00:37:35,280
door gebruik van AI.
818
00:37:35,280 --> 00:37:41,280
Nee.
819
00:37:41,280 --> 00:37:43,280
Laten we daar eens mee beginnen.
820
00:37:43,280 --> 00:37:45,280
Dat is even...
821
00:37:45,280 --> 00:37:47,280
waarom. Ja.
822
00:37:47,280 --> 00:37:49,280
Nee, nee. Ik maak me daar...
823
00:37:49,280 --> 00:37:51,280
ook niet zo heel veel zorgen over.
824
00:37:51,280 --> 00:37:53,280
Kijk...
825
00:37:53,280 --> 00:37:55,280
Wat moet gebeuren...
826
00:37:55,280 --> 00:37:57,280
is dat wij moeten gaan...
827
00:37:57,280 --> 00:37:59,280
leren omgaan met deze technologie.
828
00:37:59,280 --> 00:38:01,280
En dat zal in het begin...
829
00:38:01,280 --> 00:38:03,280
met wat horten en stoten zijn en met wat...
830
00:38:03,280 --> 00:38:05,280
schuren.
831
00:38:05,280 --> 00:38:07,280
Maar ik denk dat we...
832
00:38:07,280 --> 00:38:09,280
weet je, als mens zijn we gewend om ons...
833
00:38:09,280 --> 00:38:11,280
aan te passen aan nieuwe situaties.
834
00:38:11,280 --> 00:38:13,280
En zijn wij...
835
00:38:13,280 --> 00:38:15,280
volgens mij degenen die zo...
836
00:38:15,280 --> 00:38:17,280
succesvol zijn omdat wij...
837
00:38:17,280 --> 00:38:19,280
tools kunnen gebruiken.
838
00:38:19,280 --> 00:38:21,280
Wij zijn één van de weinigen...
839
00:38:21,280 --> 00:38:23,280
in de natuur die gewoon onze eigen...
840
00:38:23,280 --> 00:38:25,280
gereedschappen kunnen maken.
841
00:38:25,280 --> 00:38:27,280
En dit is een nieuw gereedschap...
842
00:38:27,280 --> 00:38:29,280
waarbij we wel op dit moment zeg maar...
843
00:38:29,280 --> 00:38:31,280
als hele onhandige...
844
00:38:31,280 --> 00:38:33,280
ja...
845
00:38:33,280 --> 00:38:35,280
aapjes zeg maar nog aan het kijken...
846
00:38:35,280 --> 00:38:37,280
zijn van: wat moeten we hiermee?
847
00:38:37,280 --> 00:38:39,280
Dus af en toe slaan we ons op ons hoofd en...
848
00:38:39,280 --> 00:38:41,280
doen we er de meest gekke dingen mee.
849
00:38:41,280 --> 00:38:43,280
Maar dat komt wel...
850
00:38:43,280 --> 00:38:45,280
goed.
851
00:38:45,280 --> 00:38:47,280
En...
852
00:38:47,280 --> 00:38:49,280
nou ja, dan zeg ik: we zullen best hier en daar...
853
00:38:49,280 --> 00:38:51,280
een beetje zullen we echt...
854
00:38:51,280 --> 00:38:53,280
tegen problemen aanlopen, maar die...
855
00:38:53,280 --> 00:38:55,280
lossen we wel op. Dus daar ben ik eigenlijk niet zo bang voor.
856
00:38:55,280 --> 00:38:57,280
Gelukkig.
857
00:38:57,280 --> 00:38:59,280
Je raakt hem hier al...
858
00:38:59,280 --> 00:39:01,280
een beetje aan. Een van de onderwerpen die...
859
00:39:01,280 --> 00:39:03,280
ik ken je al langer en ik spreek je regelmatig...
860
00:39:03,280 --> 00:39:05,280
is eentje waar volgens mij bij jou...
861
00:39:05,280 --> 00:39:07,280
aan het hart ligt. Het stukje experimenteren.
862
00:39:07,280 --> 00:39:09,280
En vooral...
863
00:39:09,280 --> 00:39:11,280
de valkuil om iets een gefaald experiment...
864
00:39:11,280 --> 00:39:13,280
te noemen. Als ik dat tegen jou zeg...
865
00:39:13,280 --> 00:39:15,280
dan ga je gelijk aan. Kan je dat wat meer...
866
00:39:15,280 --> 00:39:17,280
toelichten van wat is het belang van experimenteren?
867
00:39:17,280 --> 00:39:19,280
Hoe start ik? En wanneer is een...
868
00:39:19,280 --> 00:39:21,280
experiment eigenlijk een succes?
869
00:39:21,280 --> 00:39:23,280
Ja, nou...
870
00:39:23,280 --> 00:39:25,280
hoe je start is door...
871
00:39:25,280 --> 00:39:27,280
er gestructureerd over na te...
872
00:39:27,280 --> 00:39:29,280
denken. Dus ik gebruik...
873
00:39:29,280 --> 00:39:31,280
het AI experiment...
874
00:39:31,280 --> 00:39:33,280
canvas in het boek, waarbij...
875
00:39:33,280 --> 00:39:35,280
je begint met: wat wil je...
876
00:39:35,280 --> 00:39:37,280
bereiken op je...
877
00:39:37,280 --> 00:39:39,280
bedrijfsdoelstellingen? Dus nogmaals...
878
00:39:39,280 --> 00:39:41,280
weet je, ik geloof niet zozeer in...
879
00:39:41,280 --> 00:39:43,280
het toepassen van...
880
00:39:43,280 --> 00:39:45,280
de technologie onder technologie.
881
00:39:45,280 --> 00:39:47,280
Kijk, ik snap als je de technologie...
882
00:39:47,280 --> 00:39:49,280
moet leren...
883
00:39:49,280 --> 00:39:51,280
als ontwikkelaar...
884
00:39:51,280 --> 00:39:53,280
dat het dan...
885
00:39:53,280 --> 00:39:55,280
ga je aan de slag met hobbyprojecten.
886
00:39:55,280 --> 00:39:57,280
Daar maakt het eigenlijk niet zoveel uit waar het over gaat.
887
00:39:57,280 --> 00:39:59,280
Maar als je als organisatie...
888
00:39:59,280 --> 00:40:01,280
als bedrijf aan de slag gaat, wil je wel dat...
889
00:40:01,280 --> 00:40:03,280
het waarde gaat opleveren. Of tenminste...
890
00:40:03,280 --> 00:40:05,280
dat het experiment de kans heeft dat het...
891
00:40:05,280 --> 00:40:07,280
waarde oplevert. Dus...
892
00:40:07,280 --> 00:40:09,280
je gaat in eerste instantie kijken van...
893
00:40:09,280 --> 00:40:11,280
waar moet de...
894
00:40:11,280 --> 00:40:13,280
verandering zijn? Wil ik meer winst maken?
895
00:40:13,280 --> 00:40:15,280
Meer omzet? Moet het kostenefficiënt zijn?
896
00:40:15,280 --> 00:40:17,280
Moet de klanttevredenheid omhoog?
897
00:40:17,280 --> 00:40:19,280
Medewerkers tevredenheid omhoog? Dat zijn allemaal...
898
00:40:19,280 --> 00:40:21,280
uitstellingen die je kan nemen.
899
00:40:21,280 --> 00:40:23,280
En daaronder ga je dan...
900
00:40:23,280 --> 00:40:25,280
kijken van...
901
00:40:25,280 --> 00:40:27,280
met het idee wat je hebt, wat je zou willen leren...
902
00:40:27,280 --> 00:40:29,280
wat is dan de hypothese die je...
903
00:40:29,280 --> 00:40:31,280
gesteld hebt? Want er zijn dan...
904
00:40:31,280 --> 00:40:33,280
duizenden en één manieren...
905
00:40:33,280 --> 00:40:35,280
om daar aan...
906
00:40:35,280 --> 00:40:37,280
om dat leerdoel...
907
00:40:37,280 --> 00:40:39,280
aan te tonen. Dus ik...
908
00:40:39,280 --> 00:40:41,280
vind het dan belangrijk dat je het heel klein maakt.
909
00:40:41,280 --> 00:40:43,280
Dat je heel snel de veelbelovendheid...
910
00:40:43,280 --> 00:40:45,280
van de...
911
00:40:45,280 --> 00:40:47,280
van je idee, dat je dat kan toetsen.
912
00:40:47,280 --> 00:40:49,280
Het is echt heel zonde als je...
913
00:40:49,280 --> 00:40:51,280
er na acht, negen maanden achterkomt...
914
00:40:51,280 --> 00:40:53,280
dat de techniek...
915
00:40:53,280 --> 00:40:55,280
nog niet zo ver was of dat het idee...
916
00:40:55,280 --> 00:40:57,280
niet past. Er zijn...
917
00:40:57,280 --> 00:40:59,280
allerlei redenen waarom uiteindelijk...
918
00:40:59,280 --> 00:41:01,280
dat experiment...
919
00:41:01,280 --> 00:41:03,280
waardoor je de...
920
00:41:03,280 --> 00:41:05,280
hypothese invalideert.
921
00:41:05,280 --> 00:41:07,280
Sorry voor de interruptie, maar...
922
00:41:07,280 --> 00:41:09,280
hoe hou je zoiets klein?
923
00:41:09,280 --> 00:41:11,280
Nou, dat kan zijn dat je...
924
00:41:11,280 --> 00:41:13,280
je klanten...
925
00:41:13,280 --> 00:41:15,280
segmenteert. Die zeggen van: we doen het niet...
926
00:41:15,280 --> 00:41:17,280
voor alle klanten, maar voor een bepaald...
927
00:41:17,280 --> 00:41:19,280
segment. Je kan zeggen van...
928
00:41:19,280 --> 00:41:21,280
we hebben een hele range aan...
929
00:41:21,280 --> 00:41:23,280
producten. Laten we...
930
00:41:23,280 --> 00:41:25,280
het voorspellen van het...
931
00:41:25,280 --> 00:41:27,280
verkoop van producten voor één product...
932
00:41:27,280 --> 00:41:29,280
doen. Als we het hebben over...
933
00:41:29,280 --> 00:41:31,280
predictive maintenance...
934
00:41:31,280 --> 00:41:33,280
het voorspellen van...
935
00:41:33,280 --> 00:41:35,280
onderhoud. Dat je zegt van: oh ja, maar dat doen...
936
00:41:35,280 --> 00:41:37,280
we dan op de meest voorkomende...
937
00:41:37,280 --> 00:41:39,280
storingen. En zo kan je...
938
00:41:39,280 --> 00:41:41,280
Je kan... Er zijn altijd manieren...
939
00:41:41,280 --> 00:41:43,280
om je experiment nog kleiner...
940
00:41:43,280 --> 00:41:45,280
te maken dan dat...
941
00:41:45,280 --> 00:41:47,280
je denkt.
942
00:41:47,280 --> 00:41:49,280
Ehm... En dan is het heel...
943
00:41:49,280 --> 00:41:51,280
belangrijk dat je...
944
00:41:51,280 --> 00:41:53,280
voor jezelf zegt van: ik neem...
945
00:41:53,280 --> 00:41:55,280
een vaste...
946
00:41:55,280 --> 00:41:57,280
periode waarin de veelbelovendheid
947
00:41:57,280 --> 00:41:59,280
moet zijn aangetoond. En daar...
948
00:41:59,280 --> 00:42:01,280
zet ik vooraf...
949
00:42:01,280 --> 00:42:03,280
een meting op.
950
00:42:03,280 --> 00:42:05,280
Dus niet achteraf van...
951
00:42:05,280 --> 00:42:07,280
dat je zegt: hmmm...
952
00:42:07,280 --> 00:42:09,280
laten we het nog maar verder proberen.
953
00:42:09,280 --> 00:42:11,280
Nee, je stelt...
954
00:42:11,280 --> 00:42:13,280
echt harde eisen. En het...
955
00:42:13,280 --> 00:42:15,280
mooie aan zo'n harde eis...
956
00:42:15,280 --> 00:42:17,280
is dat je daar met elkaar over kan discussiëren.
957
00:42:17,280 --> 00:42:19,280
Want die eisen liggen in het begin heel...
958
00:42:19,280 --> 00:42:21,280
hoog. Dat we dan zeggen van: ja, maar de...
959
00:42:21,280 --> 00:42:23,280
AI-agent moet het 90%...
960
00:42:23,280 --> 00:42:25,280
goed hebben, want...
961
00:42:25,280 --> 00:42:27,280
anders kunnen we niet meer in productie.
962
00:42:27,280 --> 00:42:29,280
Dan denk je: hey, dank je de koekoek, want...
963
00:42:29,280 --> 00:42:31,280
het is namelijk een experiment. Dus...
964
00:42:31,280 --> 00:42:33,280
dat experiment gaat niet in productie.
965
00:42:33,280 --> 00:42:35,280
Het gaat erom om het aantonen van...
966
00:42:35,280 --> 00:42:37,280
veelbelovendheid. Of je daar...
967
00:42:37,280 --> 00:42:39,280
tijd, geld en energie in wil steken. Dus dan ga je...
968
00:42:39,280 --> 00:42:41,280
met elkaar in discussie. Ja, maar...
969
00:42:41,280 --> 00:42:43,280
Dus als het die 89% is...
970
00:42:43,280 --> 00:42:45,280
dan stoppen we...
971
00:42:45,280 --> 00:42:47,280
het experiment, gaan we er niet meer door. Nee, dat...
972
00:42:47,280 --> 00:42:49,280
is het ook niet. Nou, en zo zie je dat die lat...
973
00:42:49,280 --> 00:42:51,280
verlaagd wordt...
974
00:42:51,280 --> 00:42:53,280
tot een zinvol niveau...
975
00:42:53,280 --> 00:42:55,280
om daadwerkelijk...
976
00:42:55,280 --> 00:42:57,280
te kunnen zeggen van: we gaan er wel of niet...
977
00:42:57,280 --> 00:42:59,280
mee door. En...
978
00:42:59,280 --> 00:43:01,280
wat mij betreft...
979
00:43:01,280 --> 00:43:03,280
is een experiment geslaagd als je er wat...
980
00:43:03,280 --> 00:43:05,280
van leert. Ik heb laatst een...
981
00:43:05,280 --> 00:43:07,280
workshop gehad. En...
982
00:43:07,280 --> 00:43:09,280
daar waren ze bij het...
983
00:43:09,280 --> 00:43:11,280
beschrijven van het experiment, kwamen ze...
984
00:43:11,280 --> 00:43:13,280
zeg maar binnen drie kwartier erachter...
985
00:43:13,280 --> 00:43:15,280
van: ja, wat wij willen...
986
00:43:15,280 --> 00:43:17,280
is eigenlijk met de huidige stand van de techniek...
987
00:43:17,280 --> 00:43:19,280
plus de...
988
00:43:19,280 --> 00:43:21,280
feedback cycle die ze zouden hebben...
989
00:43:21,280 --> 00:43:23,280
om te zien...
990
00:43:23,280 --> 00:43:25,280
zeg maar, of het zou gaan werken...
991
00:43:25,280 --> 00:43:27,280
zou een feedback cycle zijn van meerdere jaren.
992
00:43:27,280 --> 00:43:29,280
Dat vond ik een slecht idee.
993
00:43:29,280 --> 00:43:31,280
Ja.
994
00:43:31,280 --> 00:43:33,280
Maar het idee was zo...
995
00:43:33,280 --> 00:43:35,280
belangrijk voor de organisatie dat ze daar...
996
00:43:35,280 --> 00:43:37,280
in eerste instantie over...
997
00:43:37,280 --> 00:43:39,280
niet over nadachten over dingen als...
998
00:43:39,280 --> 00:43:41,280
weet je, van dat je dan pas over een paar jaar kan zeggen...
999
00:43:41,280 --> 00:43:43,280
van: oh ja, maar de voorspelling...
1000
00:43:43,280 --> 00:43:45,280
was juist of...
1001
00:43:45,280 --> 00:43:47,280
de agent doet het goed.
1002
00:43:47,280 --> 00:43:49,280
Dus na drie kwartier kwamen ze erachter...
1003
00:43:49,280 --> 00:43:51,280
van: oh ja, maar dit is eigenlijk helemaal niet...
1004
00:43:51,280 --> 00:43:53,280
haalbaar. Dus een...
1005
00:43:53,280 --> 00:43:55,280
heel belangrijk idee, maar kan nu niet...
1006
00:43:55,280 --> 00:43:57,280
ja, dat vind ik een gesla...
1007
00:43:57,280 --> 00:43:59,280
al... vind ik het experiment al geslaagd.
1008
00:43:59,280 --> 00:44:01,280
Want daardoor ga je er niet meer...
1009
00:44:01,280 --> 00:44:03,280
tijd, geld en energie in steken.
1010
00:44:03,280 --> 00:44:05,280
Als je naar...
1011
00:44:05,280 --> 00:44:07,280
een week of twee...
1012
00:44:07,280 --> 00:44:09,280
weken, als je zo'n experiment uitvoert...
1013
00:44:09,280 --> 00:44:11,280
en je komt erachter dat je...
1014
00:44:11,280 --> 00:44:13,280
data...
1015
00:44:13,280 --> 00:44:15,280
niet op orde is, of...
1016
00:44:15,280 --> 00:44:17,280
dat je...
1017
00:44:17,280 --> 00:44:19,280
dacht dat je die data had...
1018
00:44:19,280 --> 00:44:21,280
maar die is er niet.
1019
00:44:21,280 --> 00:44:23,280
Ja, dat is natuurlijk super waardevol.
1020
00:44:23,280 --> 00:44:25,280
Want op dat moment kan je gaan besluiten...
1021
00:44:25,280 --> 00:44:27,280
van: willen we dat...
1022
00:44:27,280 --> 00:44:29,280
wel of niet gaan verzamelen?
1023
00:44:29,280 --> 00:44:31,280
En hoeveel kost dan dat verzamelen?
1024
00:44:31,280 --> 00:44:33,280
En past dat dan nog binnen...
1025
00:44:33,280 --> 00:44:35,280
de business case die we dachten...
1026
00:44:35,280 --> 00:44:37,280
bij dat experiment te hebben?
1027
00:44:37,280 --> 00:44:39,280
Wat mij betreft leer je eigenlijk...
1028
00:44:39,280 --> 00:44:41,280
altijd van zo'n experiment.
1029
00:44:41,280 --> 00:44:43,280
Als je er bewust bij stilstaat...
1030
00:44:43,280 --> 00:44:45,280
en dat je reflecteert.
1031
00:44:45,280 --> 00:44:47,280
Precies. Ja.
1032
00:44:47,280 --> 00:44:49,280
Ja, en dat is denk ik voor veel organisaties nog echt lastig.
1033
00:44:49,280 --> 00:44:51,280
Ook dat vanuit je proces beginnen...
1034
00:44:51,280 --> 00:44:53,280
Waarom is dat...
1035
00:44:53,280 --> 00:44:55,280
zo moeilijk voor organisaties?
1036
00:44:55,280 --> 00:44:57,280
Het voelt als faal.
1037
00:44:57,280 --> 00:44:59,280
Het was een duo...
1038
00:44:59,280 --> 00:45:01,280
die dat bedacht.
1039
00:45:01,280 --> 00:45:03,280
Die baalden ervan...
1040
00:45:03,280 --> 00:45:05,280
dat het dan niet lukte.
1041
00:45:05,280 --> 00:45:07,280
En toen ik vertelde van...
1042
00:45:07,280 --> 00:45:09,280
ja, maar je hebt hiermee heel veel tijd, geld...
1043
00:45:09,280 --> 00:45:11,280
en energie bespaard...
1044
00:45:11,280 --> 00:45:13,280
dan maak je het tot een succes.
1045
00:45:13,280 --> 00:45:15,280
En dat succes kon wel gevierd worden.
1046
00:45:15,280 --> 00:45:17,280
Meerdere groepen hadden dan...
1047
00:45:17,280 --> 00:45:19,280
de ideeën gepitcht bij de directie.
1048
00:45:19,280 --> 00:45:21,280
En nu konden ze dat eigenlijk...
1049
00:45:21,280 --> 00:45:23,280
met best wel trots vertellen...
1050
00:45:23,280 --> 00:45:25,280
van dat zij...
1051
00:45:25,280 --> 00:45:27,280
dit hadden uitgevonden.
1052
00:45:27,280 --> 00:45:29,280
Dat het een heel gaaf idee was...
1053
00:45:29,280 --> 00:45:31,280
maar niet uitvoerbaar.
1054
00:45:31,280 --> 00:45:33,280
Dus het voelt heel snel als falen.
1055
00:45:33,280 --> 00:45:35,280
En wij zien het niet...
1056
00:45:35,280 --> 00:45:37,280
als dat je...
1057
00:45:37,280 --> 00:45:39,280
iets uitgevonden hebt.
1058
00:45:39,280 --> 00:45:41,280
Mmm.
1059
00:45:41,280 --> 00:45:43,280
Dus eigenlijk een stukje omdenken van...
1060
00:45:43,280 --> 00:45:45,280
hé, maar wat hebben we wel bereikt?
1061
00:45:45,280 --> 00:45:47,280
In plaats van stilstaan van het balen van je eigen idee...
1062
00:45:47,280 --> 00:45:49,280
tot in de praktijk zien gaan gebeuren.
1063
00:45:49,280 --> 00:45:51,280
Ik denk dat is ook heel belangrijk voor agents.
1064
00:45:51,280 --> 00:45:53,280
Dat mensen niet denken: shit, nu kunnen we toch geen agent gebruiken.
1065
00:45:53,280 --> 00:45:57,280
Zeker. Daar geldt het ook voor.
1066
00:45:57,280 --> 00:46:01,280
De tijd vliegt. Ik ga niet te veel vragen...
1067
00:46:01,280 --> 00:46:03,280
met die afrondingen. Oh, zeg ik heb ook nog een vraag.
1068
00:46:03,280 --> 00:46:05,280
Ga je gang. Dan heb ik daar ook nog eentje voor.
1069
00:46:05,280 --> 00:46:07,280
Ik zou niet in de marketing zitten als ik deze vraag...
1070
00:46:07,280 --> 00:46:09,280
niet zou stellen. Waarom...
1071
00:46:09,280 --> 00:46:11,280
moeten mensen jouw boek kopen?
1072
00:46:11,280 --> 00:46:13,280
Als je serieus met AI-agents...
1073
00:46:13,280 --> 00:46:15,280
aan de slag wil. Dus dat je ze...
1074
00:46:15,280 --> 00:46:17,280
kwalitatief, robuust...
1075
00:46:17,280 --> 00:46:19,280
dat je ze strategisch...
1076
00:46:19,280 --> 00:46:21,280
echt inzet in bedrijfskritische...
1077
00:46:21,280 --> 00:46:23,280
applicaties. Dan moet je...
1078
00:46:23,280 --> 00:46:25,280
echt dit boek lezen. Wat mij betreft...
1079
00:46:25,280 --> 00:46:27,280
dan ook echt van voor tot achter. Want dan leer...
1080
00:46:27,280 --> 00:46:29,280
je van: wat is het? Wat...
1081
00:46:29,280 --> 00:46:31,280
Niels al zei: wat is het? Hoe kan je ermee...
1082
00:46:31,280 --> 00:46:33,280
starten? Hoe zorg je dat...
1083
00:46:33,280 --> 00:46:35,280
dat testbaar blijft? Kwalitatief...
1084
00:46:35,280 --> 00:46:37,280
beveiligd? Tot aan...
1085
00:46:37,280 --> 00:46:39,280
de implicaties op je...
1086
00:46:39,280 --> 00:46:41,280
organisatie.
1087
00:46:41,280 --> 00:46:43,280
Ik heb het niet benaderd als...
1088
00:46:43,280 --> 00:46:45,280
zijnde een stukje techniek.
1089
00:46:45,280 --> 00:46:47,280
Dit is gaaf. Ga het implementeren.
1090
00:46:47,280 --> 00:46:49,280
En alles moet je...
1091
00:46:49,280 --> 00:46:51,280
nu met AI-agents gaan doen.
1092
00:46:51,280 --> 00:46:53,280
En wat onderscheidt...
1093
00:46:53,280 --> 00:46:55,280
jouw boek? Want er zijn meer boeken over AI-agents.
1094
00:46:55,280 --> 00:46:57,280
Ik moet je eerlijk zeggen...
1095
00:46:57,280 --> 00:46:59,280
dat ik die niet gelezen heb.
1096
00:46:59,280 --> 00:47:01,280
Maar bij mij in ieder geval...
1097
00:47:01,280 --> 00:47:03,280
geen hallelujah...
1098
00:47:03,280 --> 00:47:05,280
verhalen. Ik heb tien...
1099
00:47:05,280 --> 00:47:07,280
use cases of case studies...
1100
00:47:07,280 --> 00:47:09,280
echt helemaal uitgewerkt. Dus bedrijven...
1101
00:47:09,280 --> 00:47:11,280
gesproken.
1102
00:47:11,280 --> 00:47:13,280
Hoe hebben ze het ingezet? Tegen welke uitdagingen...
1103
00:47:13,280 --> 00:47:15,280
zijn ze aangelopen?
1104
00:47:15,280 --> 00:47:17,280
Hoe zijn ze daar mee omgegaan?
1105
00:47:17,280 --> 00:47:19,280
Wat betekent het voor hun?
1106
00:47:19,280 --> 00:47:21,280
Ik denk dat dat alleen al...
1107
00:47:21,280 --> 00:47:23,280
heel erg interessant is om te leren...
1108
00:47:23,280 --> 00:47:25,280
van al dat soort verschillende...
1109
00:47:25,280 --> 00:47:27,280
organisaties.
1110
00:47:27,280 --> 00:47:29,280
Van MKB tot...
1111
00:47:29,280 --> 00:47:31,280
Enterprise Corporates.
1112
00:47:31,280 --> 00:47:33,280
Van Software Engineering tot...
1113
00:47:33,280 --> 00:47:35,280
Marketing.
1114
00:47:35,280 --> 00:47:37,280
Voor iedereen zitten we van alles tussen...
1115
00:47:37,280 --> 00:47:39,280
waar je gewoon van kan leren.
1116
00:47:39,280 --> 00:47:41,280
De MKB kan leren van de...
1117
00:47:41,280 --> 00:47:43,280
Corporate. En andersom.
1118
00:47:43,280 --> 00:47:45,280
Word jij geslaagd voor je...
1119
00:47:45,280 --> 00:47:47,280
boek Pitch?
1120
00:47:47,280 --> 00:47:49,280
Ik zou hem lezen.
1121
00:47:49,280 --> 00:47:51,280
Ik had nog wel een vraag over...
1122
00:47:51,280 --> 00:47:53,280
welke menselijke vaardigheid denk je...
1123
00:47:53,280 --> 00:47:55,280
dat over tien jaar waardevoller is geworden...
1124
00:47:55,280 --> 00:47:57,280
door juist de komst van AI Agents?
1125
00:47:57,280 --> 00:47:59,280
Een beetje op de rollen die je ook benoemt.
1126
00:47:59,280 --> 00:48:01,280
Maar eigenlijk welke kritische skill...
1127
00:48:01,280 --> 00:48:03,280
gaan we als mensen dadelijk meer waarderen...
1128
00:48:03,280 --> 00:48:05,280
door de komst van AI Agents?
1129
00:48:05,280 --> 00:48:07,280
En moeten we er dus besef van hebben?
1130
00:48:07,280 --> 00:48:09,280
Oei.
1131
00:48:09,280 --> 00:48:11,280
Zodan. Dat is een goeie.
1132
00:48:11,280 --> 00:48:13,280
Dan heb je vanmorgen lekker bedacht met AI.
1133
00:48:13,280 --> 00:48:15,280
Onder andere ja.
1134
00:48:15,280 --> 00:48:17,280
Dat is een goeie pittige afsluiter.
1135
00:48:17,280 --> 00:48:19,280
GELACH.
1136
00:48:19,280 --> 00:48:21,280
Ehm...
1137
00:48:21,280 --> 00:48:23,280
Ja.
1138
00:48:23,280 --> 00:48:25,280
Daar moet ik even over nadenken.
1139
00:48:25,280 --> 00:48:27,280
Ja, dat is goed.
1140
00:48:27,280 --> 00:48:29,280
Heb je zelf...
1141
00:48:29,280 --> 00:48:31,280
Oh, dat geven we Joop wat tijd. Heb je zelf een idee, Niels?
1142
00:48:31,280 --> 00:48:33,280
Ja, kijk. Ik was heel erg blij dat...
1143
00:48:33,280 --> 00:48:35,280
Joop in het boek het stukje kritisch blijven...
1144
00:48:35,280 --> 00:48:37,280
kritisch nadenken...
1145
00:48:37,280 --> 00:48:39,280
het niet voor lief nemen...
1146
00:48:39,280 --> 00:48:41,280
dat dat echt wel beschreven staat als dat we daar op moeten letten.
1147
00:48:41,280 --> 00:48:43,280
Omdat het zo gemakkelijk wordt met...
1148
00:48:43,280 --> 00:48:45,280
agents. Ervan uitgaande dat...
1149
00:48:45,280 --> 00:48:47,280
we in de happy flow blijven.
1150
00:48:47,280 --> 00:48:49,280
Dat we van nature...
1151
00:48:49,280 --> 00:48:51,280
luie. Daarom automatiseren we.
1152
00:48:51,280 --> 00:48:53,280
Maar we moeten niet verwachten dat...
1153
00:48:53,280 --> 00:48:55,280
iedere keer dezelfde uitkomst eruit komt.
1154
00:48:55,280 --> 00:48:57,280
Dus we moeten kritisch blijven. Wordt het voor het juiste doel...
1155
00:48:57,280 --> 00:48:59,280
ingezet? En ik denk dat...
1156
00:48:59,280 --> 00:49:01,280
door de snelheid en de verwachtingen die we hebben...
1157
00:49:01,280 --> 00:49:03,280
bij de technologie, dat dat een...
1158
00:49:03,280 --> 00:49:05,280
hele belangrijke skill is. Dus...
1159
00:49:05,280 --> 00:49:07,280
dat is van hoe ik er zelf tegenaan kijk.
1160
00:49:07,280 --> 00:49:09,280
Nou ja, kijk.
1161
00:49:09,280 --> 00:49:11,280
Een onderdeel van je vraag was...
1162
00:49:11,280 --> 00:49:13,280
over tien jaar. En dat is eigenlijk waar ik over...
1163
00:49:13,280 --> 00:49:15,280
struikel.
1164
00:49:15,280 --> 00:49:17,280
Want wat ik er straks ook zei met die...
1165
00:49:17,280 --> 00:49:19,280
kenniswerkers. We zijn nu...
1166
00:49:19,280 --> 00:49:21,280
best nog wel heel...
1167
00:49:21,280 --> 00:49:23,280
onhandig met deze technologie.
1168
00:49:23,280 --> 00:49:25,280
Dus hoe het zich over tien jaar...
1169
00:49:25,280 --> 00:49:27,280
gaat ontwikkelen en hoe het eruit ziet...
1170
00:49:27,280 --> 00:49:29,280
Ik denk dat we...
1171
00:49:29,280 --> 00:49:31,280
één ding zeker weten. Dat we niet...
1172
00:49:31,280 --> 00:49:33,280
nu kunnen overzien hoe het er over tien jaar uitziet.
1173
00:49:33,280 --> 00:49:35,280
Dus dat maakt die vraag ook heel erg moeilijk.
1174
00:49:35,280 --> 00:49:37,280
Wat...
1175
00:49:37,280 --> 00:49:41,280
Wat we in ieder geval nodig hebben om...
1176
00:49:41,280 --> 00:49:43,280
om naar die tien jaar te overbruggen...
1177
00:49:43,280 --> 00:49:45,280
is dat we aan de...
1178
00:49:45,280 --> 00:49:47,280
aan de ene kant open blijven staan...
1179
00:49:47,280 --> 00:49:49,280
voor deze...
1180
00:49:49,280 --> 00:49:51,280
technologieën die zich ontwikkelen.
1181
00:49:51,280 --> 00:49:53,280
En aan de andere kant ook gewoon...
1182
00:49:53,280 --> 00:49:55,280
af en toe is gewoon de hakken...
1183
00:49:55,280 --> 00:49:57,280
in het zand mogen zetten om te zeggen van...
1184
00:49:57,280 --> 00:49:59,280
nee maar dit blijven we zelf doen.
1185
00:49:59,280 --> 00:50:01,280
Ehm...
1186
00:50:01,280 --> 00:50:03,280
Ehm...
1187
00:50:03,280 --> 00:50:05,280
De neiging is zeg maar om...
1188
00:50:05,280 --> 00:50:07,280
juist nu...
1189
00:50:07,280 --> 00:50:09,280
er veel meer kan. Dat er veel meer cognitieve taken...
1190
00:50:09,280 --> 00:50:11,280
worden overgenomen. Dat we dat...
1191
00:50:11,280 --> 00:50:13,280
overal gaan doen vanwege...
1192
00:50:13,280 --> 00:50:15,280
de efficiëntie. En ik hoop...
1193
00:50:15,280 --> 00:50:17,280
zeg maar dat we ook nog steeds gaan kijken...
1194
00:50:17,280 --> 00:50:19,280
naar werkgeluk. Er zijn ook gewoon...
1195
00:50:19,280 --> 00:50:21,280
zaken die je gewoon...
1196
00:50:21,280 --> 00:50:23,280
graag zelf wil doen.
1197
00:50:23,280 --> 00:50:25,280
Ehm... En...
1198
00:50:25,280 --> 00:50:27,280
als dat betekent dat dat onze passie...
1199
00:50:27,280 --> 00:50:29,280
raakt en dat je daar...
1200
00:50:29,280 --> 00:50:31,280
een meerwaarde...
1201
00:50:31,280 --> 00:50:33,280
als mens levert...
1202
00:50:33,280 --> 00:50:35,280
dan hoop ik zeg maar dat dat...
1203
00:50:35,280 --> 00:50:37,280
blijft. Dat je daar wat...
1204
00:50:37,280 --> 00:50:39,280
Ja...
1205
00:50:39,280 --> 00:50:41,280
Dat. Dat. En Kim, jijzelf...
1206
00:50:41,280 --> 00:50:43,280
dan nemen we het rondje even rond natuurlijk.
1207
00:50:43,280 --> 00:50:45,280
Je hebt even de tijd gehad om over na te denken.
1208
00:50:45,280 --> 00:50:47,280
Of je hem alvast aanzag zien komen. Ja...
1209
00:50:47,280 --> 00:50:49,280
Half.
1210
00:50:49,280 --> 00:50:51,280
Ik denk dat...
1211
00:50:51,280 --> 00:50:53,280
Ik kijk natuurlijk vanuit een ander vak, zeg maar.
1212
00:50:53,280 --> 00:50:55,280
Ik denk vooral dat...
1213
00:50:55,280 --> 00:50:57,280
de...
1214
00:50:57,280 --> 00:50:59,280
helikopterblik, dus op het moment dat...
1215
00:50:59,280 --> 00:51:01,280
technologie meer voor je gaat doen...
1216
00:51:01,280 --> 00:51:03,280
dat het heel belangrijk is dat mensen blijven...
1217
00:51:03,280 --> 00:51:05,280
vanuit een soort helikopter blijven kijken naar...
1218
00:51:05,280 --> 00:51:07,280
oké, hoe ziet mijn hele plaatje eruit?
1219
00:51:07,280 --> 00:51:09,280
Waar kan ik inderdaad zelf nog waarde toevoegen? Wat vind ik...
1220
00:51:09,280 --> 00:51:11,280
leuk? Waar is het efficiënter...
1221
00:51:11,280 --> 00:51:13,280
als agents wat voor me doen?
1222
00:51:13,280 --> 00:51:15,280
Maar ik denk dus dat het belangrijker is dat je...
1223
00:51:15,280 --> 00:51:17,280
breed kunt kijken...
1224
00:51:17,280 --> 00:51:19,280
naar wat je doet. En misschien wel breder...
1225
00:51:19,280 --> 00:51:21,280
dan dat we nu doen. Dat er ook die...
1226
00:51:21,280 --> 00:51:23,280
overstijgende samenwerkingen komen.
1227
00:51:23,280 --> 00:51:25,280
Dat ik bijvoorbeeld niet vanuit marketing alleen kijk...
1228
00:51:25,280 --> 00:51:27,280
maar vanuit een organisatieperspectief...
1229
00:51:27,280 --> 00:51:29,280
in plaats van alleen een marketingperspectief.
1230
00:51:29,280 --> 00:51:33,280
Dankjewel. Ja, jullie ook?
1231
00:51:33,280 --> 00:51:35,280
Nou, dan denk ik dat het hier mooi...
1232
00:51:35,280 --> 00:51:37,280
rond is. Joop, je hebt zelf je boek al goed...
1233
00:51:37,280 --> 00:51:39,280
gepitcht. Ik was heel erg blij om...
1234
00:51:39,280 --> 00:51:41,280
te lezen, zoals ik al aangaf, in de structuur.
1235
00:51:41,280 --> 00:51:43,280
Je kan het boek van begin tot eind...
1236
00:51:43,280 --> 00:51:45,280
lezen. Maar ben je geïnteresseerd in een...
1237
00:51:45,280 --> 00:51:47,280
bepaald onderdeel, dan is hij ook prima...
1238
00:51:47,280 --> 00:51:49,280
los als onderdelen te lezen.
1239
00:51:49,280 --> 00:51:51,280
En ik vond het heel erg mooi om die case...
1240
00:51:51,280 --> 00:51:53,280
studies erin terug te zien. En hele leuke case...
1241
00:51:53,280 --> 00:51:55,280
studies die erin voorkomen. Dus...
1242
00:51:55,280 --> 00:51:57,280
ik zeg: een echte aanrader voor iedereen.
1243
00:51:57,280 --> 00:51:59,280
En iedereen ook. Want natuurlijk, ik ben niet...
1244
00:51:59,280 --> 00:52:01,280
per se heel technisch, maar ook ik kon het goed volgen.
1245
00:52:01,280 --> 00:52:03,280
En juist door die case studies is het...
1246
00:52:03,280 --> 00:52:05,280
mega praktisch. Ja, inderdaad.
1247
00:52:05,280 --> 00:52:07,280
Dus dankjewel ook voor je toelichtingen.
1248
00:52:07,280 --> 00:52:09,280
En de link staat in de show notes...
1249
00:52:09,280 --> 00:52:11,280
voor het bestellen. Inderdaad. Kopen!
1250
00:52:11,280 --> 00:52:15,280
Zo, die kwam...
1251
00:52:15,280 --> 00:52:17,280
lekker binnen. Dankjewel voor het luisteren...
1252
00:52:17,280 --> 00:52:19,280
naar deze speciale aflevering...
1253
00:52:19,280 --> 00:52:21,280
met deze speciale gasten voor deze keer.
1254
00:52:21,280 --> 00:52:23,280
Vergeet je niet te abonneren op onze...
1255
00:52:23,280 --> 00:52:25,280
nieuwsbrief. Daarin hebben we ook...
1256
00:52:25,280 --> 00:52:27,280
backstage informatie.
1257
00:52:27,280 --> 00:52:29,280
En altijd extra specials. Dus...
1258
00:52:29,280 --> 00:52:31,280
tot de volgende keer! Tot de volgende keer!