AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is uitgeroepen tot AI Podcast of the Year 2025 en is drie keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S08E45 - Agentic AI Governance: Grenzen aan autonomie
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Gerard Koster van Rabobank en Daniël Verloop van gemeente Montferland implementeren AI-agents in gereguleerde omgevingen waar elke beslissing traceerbaar moet zijn. Ze ontdekten dat autonomiegrenzen hardcoded moeten worden in plaats van geprompt - agents kunnen anders ontsnappen aan hun mandaat. Bij Civiqs maakte een agent een offerte af en verstuurde deze zonder medeweten, ondanks alle voorzorgsmaatregelen.
Hun oplossing: logs volledig isoleren van agent-omgevingen en realtime monitoring van elke actie. Montferland experimenteert zelfs met een governance-agent die andere agents controleert en compliance-rapportages genereert binnen een minuut. Morgen kun je beginnen met het inventariseren welke AI-features je leveranciers stilletjes hebben aangezet zonder governance-controle.
Onderwerpen
- Verschil tussen generative AI en agentic AI in gereguleerde omgevingen
- Hardcoded autonomiegrenzen versus prompt-gebaseerde controle
- Geïsoleerde monitoring en logging van AI-agents
- AI-gedreven governance versus menselijke governance
- Shadow IT voorkomen bij AI-agent implementatie
- Congres: Nationale AI en Governance Congres van Outvie
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: Rabobank - gemeente Montferland - Civiqs
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Outvie
Outvie verbindt professionals met events en opleidingen rond actualiteit en strategie.
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:03,040 --> 00:00:05,919
Joop: Leuk dat je luistert naar deze aflevering.
2
00:00:05,919 --> 00:00:12,080
Joop: Het is een speciale aflevering, want we staan live op het Nationale AI en Governance Congres van Outvie.
3
00:00:12,240 --> 00:00:14,1601
00:00:03,040 --> 00:00:05,919
Joop: Leuk dat je luistert naar deze aflevering.
2
00:00:05,919 --> 00:00:12,080
Joop: Het is een speciale aflevering, want we staan live op het Nationale AI en Governance Congres van Outvie.
3
00:00:12,240 --> 00:00:14,160
Joop: En we hebben twee fantastische gasten.
4
00:00:14,480 --> 00:00:17,039
Joop: Waarbij de eerste gast is Gerard Koster.
5
00:00:17,039 --> 00:00:21,199
Joop: En hij werkt bij de Rabobank in de tweede lijn, Operational en IT Risk.
6
00:00:21,200 --> 00:00:27,919
Gerard: En hij houdt zich al meer dan 20 jaar bij de bank onafhankelijk toezicht op wat er technisch en operationeel gebeurt.
7
00:00:27,919 --> 00:00:28,879
Gerard: Zeg ik het zo goed.
8
00:00:29,839 --> 00:00:31,680
Gerard: En enorm betrokken bij AI uiteraard.
9
00:00:31,920 --> 00:00:33,920
Gerard: Zeker, want daarvoor zijn we hier vandaag.
10
00:00:33,920 --> 00:00:38,239
Gerard: En onze tweede gast Daniël Verloop, is AI-specialist bij gemeente Montferland.
11
00:00:38,239 --> 00:00:41,519
Gerard: Hij heeft recht gestudeerd, tien jaar piloot bij KLM geweest.
12
00:00:41,520 --> 00:00:44,880
Gerard: En werkt nu aan de vraag hoe de overheid AI verantwoord inzet.
13
00:00:44,960 --> 00:00:48,479
Gerard: En hij heeft zelf aan de lijve ervaren wat er gebeurt als een agent ontsnapt.
14
00:00:48,479 --> 00:00:51,440
Gerard: Klinkt interessant, geef ze een warm applaus.
15
00:00:54,960 --> 00:00:57,839
Gerard: Om maar meteen met de deur in huis te vallen.
16
00:00:57,839 --> 00:01:02,240
Joop: Als we autonome AI-systemen hebben, wie is er dan eigenlijk verantwoordelijk?
17
00:01:02,560 --> 00:01:06,799
Joop: Dat is een heel goede vraag en volgens mij heeft daar nog niemand het antwoord op.
18
00:01:07,120 --> 00:01:12,079
Gerard: Ik denk dat dat per organisatie heel erg verschilt.
19
00:01:12,079 --> 00:01:15,279
Gerard: Ook de manier en de reden waarom een agent wordt ingezet.
20
00:01:15,280 --> 00:01:22,320
Gerard: Maar wat ik wel kan zeggen, is dat je per definitie hier heel veel aandacht aan wil geven om voor jezelf te inventariseren in jouw organisatie, voor jouw use case.
21
00:01:22,560 --> 00:01:26,480
Gerard: Hoe zorgen we ervoor dat we echt grip houden op deze zeker autonome agent?
22
00:01:26,640 --> 00:01:28,880
Gerard: Heb jij er ook geen antwoord op, Gerard?
23
00:01:29,680 --> 00:01:31,120
Gerard: Misschien wel iets concreter.
24
00:01:31,920 --> 00:01:36,879
Gerard: Als je net ook in de presentatie van Rob behoorden van Microsoft, je moet wel voor zorgen dat een agent een eigenaar heeft.
25
00:01:36,880 --> 00:01:38,799
Gerard: Dus daar begint het in mijn optiek wel mee.
26
00:01:38,800 --> 00:01:47,120
Gerard: Dus de eigenaar van een agent is natuurlijk wel uiteindelijk verantwoordelijk voor wat er gebeurt binnen de organisatie en wat voor besluiten en wat activiteiten die agent.
27
00:01:47,120 --> 00:01:49,519
Gerard: Ja, en GI is er al wat langer.
28
00:01:49,519 --> 00:01:51,519
Gerard: En agente is de nieuwe wave.
29
00:01:51,519 --> 00:01:56,079
Gerard: Wat voor verschillen zie je bij de introductie van Agentic AI.
30
00:01:56,080 --> 00:01:58,079
Gerard: Ten opzichte van Gen AI.
31
00:02:01,760 --> 00:02:05,759
Gerard: Dus binnen de Rabobank hebben we nog geen agent live op dit moment.
32
00:02:06,080 --> 00:02:09,680
Gerard: Het verschil is natuurlijk wel dat bij GenAI zie je dus vooral dat.
33
00:02:09,680 --> 00:02:17,120
Gerard: Je kijkt naar de output, wat levert nou zo'n AI-systeem, wat komt eruit, is het betrouwbaar, is het veilig.
34
00:02:17,120 --> 00:02:18,800
Gerard: Je kijk naar wijze van privacy.
35
00:02:19,039 --> 00:02:20,640
Gerard: Dat doe je ook denk ik wel bij agents.
36
00:02:20,639 --> 00:02:22,320
Gerard: Alleen daar wordt de scope breder.
37
00:02:22,319 --> 00:02:24,479
Gerard: Dan ga je ook kijken naar wat doet nou zo'n agent.
38
00:02:26,639 --> 00:02:28,560
Gerard: Houdt ze zich aan het mandaat.
39
00:02:29,120 --> 00:02:36,560
Gerard: En wat ik waar gaf binnen de Rabobank zijn we nu nog niet zover we agents in productie hebben staan, maar wel aan het experimenteren zijn.
40
00:02:36,560 --> 00:02:45,919
Gerard: Dus wat we vooral willen doen, is kijken zonder het vooraf dicht te timmeren, wat doet nou zo'n agent, houdt hij zich aan de afspraken, gebruikt u alleen nog autoriseerde tools.
41
00:02:45,919 --> 00:02:49,199
Gerard: Hoe werkt nou die realtime monitoring die je graag wil zien.
42
00:02:49,759 --> 00:02:52,400
Gerard: En die noodknop van die killswitch: hoe werkt dat dan?
43
00:02:52,399 --> 00:02:53,439
Gerard: En hoe kunnen we hem inzetten.
44
00:02:53,439 --> 00:02:54,800
Gerard: Dus daar staan we op dit moment.
45
00:02:54,800 --> 00:02:57,280
Gerard: En dat is even de positie vanuit de bank.
46
00:02:57,439 --> 00:03:02,639
Gerard: En verandert er dan veel op het governance vlak, of is het veel van hetzelfde of ga je er meer of dieper op in.
47
00:03:02,639 --> 00:03:06,399
Gerard: Wat ik verwacht aan ten aanzien van governance dan even zo gezegd.
48
00:03:06,800 --> 00:03:14,639
Niels: De traditionele om maar even zo te noemen: AI governance voor Jen is toch toch voorspelbaarder.
49
00:03:14,639 --> 00:03:17,199
Niels: En misschien ook beter toetsbaar.
50
00:03:17,199 --> 00:03:21,280
Niels: Aan de kant van agentic zie ik daar toch meer dynamiek ontstaan.
51
00:03:21,359 --> 00:03:27,040
Niels: Dat je toch op meer actie gericht of in het proces moet willen ingrijpen.
52
00:03:27,120 --> 00:03:29,760
Niels: Meer technische maatregelen die je wil terugzien.
53
00:03:30,000 --> 00:03:31,120
Daniël: Die zou verwachten.
54
00:03:31,599 --> 00:03:35,040
Daniël: Dat je een mandaat meegeeft aan een agent.
55
00:03:35,040 --> 00:03:40,479
Daniël: Dat je duidelijk aangeeft wat hij wel niet mag, en dat je daar ook met technische controle kunt ingrijpen.
56
00:03:40,719 --> 00:03:43,680
Daniël: Daniël, jij bent iets verder met het bouwen van de agents.
57
00:03:43,760 --> 00:03:46,719
Daniël: Je bent AI-specialist bij de gemeente.
58
00:03:46,719 --> 00:03:47,920
Daniël: Hoe zie jij dat?
59
00:03:47,920 --> 00:03:50,159
Daniël: Nou, ik sluit me helemaal aan bij wat Gerard zegt.
60
00:03:50,159 --> 00:03:55,359
Daniël: En je vroeg net daar begon je mee van: hoe zorg je ervoor dat we die governance op orde houden.
61
00:03:55,360 --> 00:03:58,719
Daniël: En ik stelde toen dat weet nog niemand.
62
00:03:58,719 --> 00:04:00,879
Daniël: Ik zal het wat nuanceren dan.
63
00:04:01,439 --> 00:04:02,560
Daniël: Een aantal punten.
64
00:04:02,560 --> 00:04:04,400
Daniël: Ik denk: heel recent is.
65
00:04:04,639 --> 00:04:09,680
Daniël: Er is onlangs door Entropic bijvoorbeeld het model Mythos geïntroduceerd.
66
00:04:09,680 --> 00:04:11,280
Daniël: Dat is een paar dagen geleden.
67
00:04:11,599 --> 00:04:16,879
Daniël: Dat is een model waar ze nu mee naar buiten komen, en hebben gesteld dat gaan we nog niet vrijgeven aan het publiek.
68
00:04:16,879 --> 00:04:17,520
Daniël: Waarom niet?
69
00:04:17,519 --> 00:04:21,599
Daniël: We hebben nu gezien dat dit zo krachtig en competent en capabel is.
70
00:04:21,920 --> 00:04:23,519
Daniël: Met name op het gebied van code.
71
00:04:23,519 --> 00:04:26,879
Daniël: Laten we eerlijk zijn tegenwoordig is alles wat we doen heeft met code te maken.
72
00:04:27,360 --> 00:04:32,240
Daniël: Het komt bijvoorbeeld bugs vinden, die al 40 jaar lang in code staat.
73
00:04:32,240 --> 00:04:36,959
Daniël: Het kon allerlei verbanden leggen tussen repo's over repo's heen.
74
00:04:36,960 --> 00:04:41,600
Niels: Om daarmee dus echt allemaal ook malware en zo te creëren.
75
00:04:41,920 --> 00:04:50,159
Niels: Met andere woorden, we komen nu echt wel in het territorium waarbij dit agents zo capabel en competent zijn.
76
00:04:50,159 --> 00:04:52,320
Daniël: En wij als mensen dat eigenlijk niet meer kunnen bijhouden.
77
00:04:52,319 --> 00:04:55,839
Daniël: En dat is de reden dat ik zeg niemand weet eigenlijk nog echt wat die autonomie is.
78
00:04:55,919 --> 00:04:57,600
Daniël: Want het werd net al gezegd ook.
79
00:04:57,600 --> 00:05:02,439
Daniël: Een agent die is ontsnapt, ja, dat heb ik echt serieus meegemaakt een maand of twee geleden.
80
00:05:02,839 --> 00:05:03,879
Daniël: Zal ik het even kort toe?
81
00:05:05,399 --> 00:05:09,240
Daniël: Ja, ik werk, wij werken bij Civiqs natuurlijk heel veel.
82
00:05:09,240 --> 00:05:12,120
Daniël: Ook echt aan de cutting edge met dit soort systemen.
83
00:05:12,120 --> 00:05:14,919
Daniël: Vroeger was het prompt engineering, toen werd het context engineering.
84
00:05:14,920 --> 00:05:17,639
Daniël: Tegenwoordig is het harness engineering.
85
00:05:17,720 --> 00:05:20,199
Daniël: Het model zelf maakt eigenlijk niet zo heel veel meer uit.
86
00:05:20,519 --> 00:05:23,720
Daniël: De modellen zijn allemaal bijzonder competent.
87
00:05:23,720 --> 00:05:26,199
Daniël: Het is meer het hele systeem wat je eromheen doet.
88
00:05:26,199 --> 00:05:27,000
Daniël: Het harness.
89
00:05:27,000 --> 00:05:28,360
Daniël: Je hebt een wild paard.
90
00:05:28,360 --> 00:05:29,639
Niels: Superkrachtig.
91
00:05:29,639 --> 00:05:32,279
Niels: Maar je moet het beteugelen om er daadwerkelijk wat mee te kunnen.
92
00:05:32,279 --> 00:05:34,120
Niels: Nou, dat is dat harness engineering.
93
00:05:34,120 --> 00:05:35,639
Niels: Dus daar zijn we heel druk mee bezig.
94
00:05:35,639 --> 00:05:41,319
Niels: En dat doen we dan, zeker ik als oud-piloot op basis van standard operating procedures, checklists.
95
00:05:41,399 --> 00:05:43,399
Niels: Controle, controle, controle.
96
00:05:43,720 --> 00:05:52,439
Joop: Maar dan nog een week of inmiddels anderhalf maand geleden of zo, hadden we een agent waar we aan het bouwen op echt helemaal autonoom, lokaal op eigen hardware.
97
00:05:52,680 --> 00:05:54,759
Joop: En ik werd afgeleid.
98
00:05:54,759 --> 00:05:58,280
Joop: Ze hadden dat gedaan en gewoon alle checklists langs, agent stond klaar.
99
00:05:58,279 --> 00:05:59,159
Gerard: Ik werd afgeleid.
100
00:05:59,240 --> 00:06:01,720
Gerard: Ik moest tussendoor ook nog eens een offerte maken voor een klant.
101
00:06:01,720 --> 00:06:04,520
Gerard: Dus ik begin aan die offerte, vervolgens word ik weer afgeleid.
102
00:06:04,519 --> 00:06:05,480
Gerard: De telefoon gaat.
103
00:06:06,039 --> 00:06:12,680
Gerard: Langvouwkort, ik word een uur of drie later word ik gebeld door de klant waarvoor ik 's middags die offerte aan het maken was.
104
00:06:13,000 --> 00:06:14,519
Gerard: Dus ik neem op.
105
00:06:14,519 --> 00:06:17,319
Gerard: En hij zegt, Daniël, dankjewel, dat heb je snel gedaan.
106
00:06:17,720 --> 00:06:19,640
Gerard: Akkoord, goede offerte.
107
00:06:19,960 --> 00:06:22,199
Gerard: Ik denk, nou breek me klomp.
108
00:06:22,519 --> 00:06:31,160
Gerard: Nou, wat bleek, die agent, ik had ondanks alle checks, alle balancers, alle standard operating procedures, was er toch één klein deurtje open blijven staan.
109
00:06:31,159 --> 00:06:35,079
Gerard: En dit was specifiek een autonome proactieve agent.
110
00:06:36,199 --> 00:06:37,399
Gerard: En dat systeem had gezien.
111
00:06:37,399 --> 00:06:39,639
Gerard: Hey, Daniël is bezig met een offerte.
112
00:06:39,639 --> 00:06:41,879
Gerard: Ik zie dat het nu al een tijdje open staat.
113
00:06:41,879 --> 00:06:46,040
Gerard: Laat ik hem even druk zijn, laat ik helpen, heeft de offerte afgemaakt en gemaild.
114
00:06:46,600 --> 00:06:48,680
Gerard: Ook nog eens een keer met mijn naam eronder.
115
00:06:49,000 --> 00:06:51,399
Gerard: Dus dat was een geschikte, was je tevreden met offerte.
116
00:06:51,560 --> 00:06:53,639
Gerard: Ik was heel tevreden met offerte dat wel.
117
00:06:54,199 --> 00:06:59,399
Gerard: Ik heb het ook eerlijk gezegd tegen de klant specifiek, ik zeg, nou, fijn, maar even eerlijk naartoe, dat is wel een leuk verhaal.
118
00:06:59,399 --> 00:07:03,080
Gerard: Maar toen bedacht ik me achteraf wel: jeetje, nu is het goed afgelopen.
119
00:07:03,319 --> 00:07:07,640
Gerard: Maar wie zegt niet als wij bij de overheid dit straks allemaal zo gaan doen, dat het een heel andere kant op gaat.
120
00:07:07,639 --> 00:07:08,920
Gerard: Wat kan ook.
121
00:07:09,000 --> 00:07:15,319
Gerard: En wat heb je in je sub of in je standard operating procedure of checklist aangepast om dit in de toekomst dan te voorkomen?
122
00:07:15,960 --> 00:07:17,240
Gerard: Goeie vraag.
123
00:07:17,240 --> 00:07:18,920
Gerard: Heel veel, want we hadden al veel.
124
00:07:18,919 --> 00:07:22,120
Gerard: Want wat wij nu echt doen, is met daarom ben ik ook heel blij om te horen van de sandbox en zo.
125
00:07:22,120 --> 00:07:25,319
Gerard: Maar dat is dat je wil isoleren, nog een keer isoleren.
126
00:07:25,319 --> 00:07:28,360
Joop: Een van de dingen die we nu ook hebben gedaan, dat klinkt vreemd.
127
00:07:28,519 --> 00:07:30,360
Gerard: Want die systemen maken allemaal logs.
128
00:07:30,360 --> 00:07:31,639
Gerard: Dat is natuurlijk een beetje basaal.
129
00:07:31,639 --> 00:07:37,320
Gerard: Dat je altijd de logs wil kunnen terugzien, dat je heel erg op microniveau kunt zien, wat er is allemaal gebeurt.
130
00:07:37,319 --> 00:07:46,840
Gerard: Maar wat blijkt nou als die logs worden gemaakt in hetzelfde ecosysteem als waar die agents opereren, kunnen ze in principe de logs gewoon aanpassen of wissen, zonder dat je het weet.
131
00:07:46,840 --> 00:07:49,239
Gerard: Dus je wil dus een isolatie hebben van je logs.
132
00:07:49,240 --> 00:07:50,599
Gerard: Dus daar moet het systeem niet bij komen.
133
00:07:50,600 --> 00:07:51,560
Gerard: Dus dat soort dingen.
134
00:07:51,560 --> 00:07:54,040
Gerard: Maar ik ben van mening dat ook dat nog niet waterdicht is.
135
00:07:54,039 --> 00:07:58,040
Niels: Dus ik denk dat wij de komende jaren echt heel veel gaan ontdekken.
136
00:07:58,039 --> 00:08:01,719
Niels: En dat is vanuit mijn professionele perspectief natuurlijk heel spannend.
137
00:08:01,720 --> 00:08:05,160
Niels: Maar ik vrees ook wel dat het gaat leiden tot grote problemen.
138
00:08:05,399 --> 00:08:11,079
Daniël: Gerard, volgens mij zitten jullie in de ontdekkende fase rondom Agentic AI.
139
00:08:11,080 --> 00:08:17,719
Daniël: Wat maakt voor jou het werk, wat verandert in jouw werk met de komst van Agentic AI?
140
00:08:21,879 --> 00:08:25,079
Daniël: We kijken nu vooral naar binnen het bank iets in productie, Gen AI.
141
00:08:25,079 --> 00:08:26,920
Daniël: Dus daar kijken we actief op mee.
142
00:08:27,079 --> 00:08:32,760
Daniël: Daarin is mijn werk wel veranderd, omdat je steeds meer met andere specialisten in aanraking komt.
143
00:08:32,920 --> 00:08:41,080
Daniël: Voor mij persoonlijk betekent ook mensen van Model Risk Management bijvoorbeeld meedoen aan het kijken naar en valideren van AI use cases, dat maakt mijn werk wel echt anders.
144
00:08:41,080 --> 00:08:45,559
Daniël: waarin je voor één best wel specifiek keek naar operational risk, maar het is nu toch veel breder.
145
00:08:46,680 --> 00:08:51,320
Daniël: Ik zei naar het model, naar privacy aspecten, maar ook naar compliance aspect.
146
00:08:52,920 --> 00:08:53,560
Daniël: Met klanten.
147
00:08:54,039 --> 00:08:55,639
Daniël: Daar zitten dus hoeven aan.
148
00:08:55,720 --> 00:08:59,319
Daniël: Zullen de beveiligingsaspecten horen valt dat ook daaronder?
149
00:08:59,319 --> 00:09:01,080
Daniël: Het valt daar zeker ook onder.
150
00:09:02,039 --> 00:09:03,879
Daniël: Wij houden dus ook toezicht op.
151
00:09:06,440 --> 00:09:09,640
Daniël: Aan de beveiligingsstandaarden die we als bank graag willen hebben.
152
00:09:09,879 --> 00:09:17,799
Daniël: We hebben heel veel contact met onze CISO office om te kijken van hoe veilig zijn die Gen AI-systemen of de AI-systemen die we bouwen.
153
00:09:17,799 --> 00:09:19,399
Daniël: Dus ook daar is daar focus op.
154
00:09:19,400 --> 00:09:21,080
Unknown: Maar dat is ook tegelijkertijd.
155
00:09:21,079 --> 00:09:25,639
Gerard: We zeggen van, AI zien we niet als een specifiek risico, maar meer als een soort van risk driver.
156
00:09:27,720 --> 00:09:30,279
Gerard: Die we binnen de bank hebben, die houden we.
157
00:09:30,279 --> 00:09:32,840
Gerard: En die wordt beïnvloed door de technologie AI.
158
00:09:32,879 --> 00:09:34,680
Gerard: Dus dat blijft alweer hetzelfde.
159
00:09:34,920 --> 00:09:36,679
Gerard: En jullie zijn nu aan het experimenteren.
160
00:09:36,680 --> 00:09:39,640
Gerard: Wat heb je nu al geleerd in die experimenteerfase?
161
00:09:39,639 --> 00:09:44,040
Gerard: Waar best wel belangrijk zijn in de vervolgstap hierin qua governance.
162
00:09:44,000 --> 00:09:48,960
Gerard: Nou, dan moet ik toch eerlijk bekennen, we hebben een aantal learning points gedefinieerd en ik had gehoopt daar al wat meer inzicht in te hebben.
163
00:09:44,680 --> 00:09:50,560
Gerard: En dat is toch tot beter wel beperkt.
164
00:09:50,639 --> 00:09:57,279
Gerard: Het is toch wel echt lastig om sowieso specifiek te worden in je learning points en hoe ga je dan ook echt nog een keer goed testen en ook goed vastleggen.
165
00:09:57,279 --> 00:09:59,679
Niels: Dus echt de learnings die moeten nog wel komen.
166
00:09:59,679 --> 00:10:18,560
Niels: Maar ik ben erg geïnteresseerd in, wat ik al aangaf, we hebben het niet vooraf dicht gezet, we hebben vooral gekeken van ja, hoe kunnen we nou straks zien wat zo'n agent echt heeft gedaan, heeft ze gehouden aan de afspraak die we of de taken die we hebben meegegeven, gebruikt alleen de systemen waarvoor die geautoriseerd is, dat soort zaken willen we wel even bevestigd zien, dat dat ook echt gebeurt.
167
00:10:18,639 --> 00:10:24,959
Joop: Hebben jullie al, want Daniël gaf heel mooi aan, met de logs en dat je daarin kan kijken van wat een agent doet.
168
00:10:25,279 --> 00:10:32,000
Joop: Hebben jullie daar al iets in belegd van die isolatie waarheid over heeft of eigenaarschappen over die logs.
169
00:10:32,159 --> 00:10:34,879
Gerard: Zijn jullie op dat niveau bezig?
170
00:10:35,279 --> 00:10:41,920
Gerard: Nou ja, wel qua requirements hebben, we willen inderdaad dat wordt aangeven, we willen wel die log hebben en houden, zodat je dus een reconstructie kunt doen.
171
00:10:42,159 --> 00:10:45,920
Gerard: Wat ik net ook hoor, dan is dat belangrijk om dat ook goed te isoleren.
172
00:10:45,919 --> 00:10:51,440
Gerard: Dus dat zijn wel learnings die nu meeneemen, maar ook wel in de praktijk tegenkwam.
173
00:10:51,600 --> 00:11:02,479
Gerard: Dus dat daar echt een belangrijke controle zit om later die reconstructie te doen en te kunnen zien waarom heeft nou die agent, die beslispaden afgelopen.
174
00:11:02,480 --> 00:11:06,240
Gerard: En jullie zijn allebei werkzaam in een gereguleerde omgeving.
175
00:11:06,559 --> 00:11:10,319
Gerard: Wat geeft dat aan extra eisen aan de governance?
176
00:11:10,480 --> 00:11:15,040
Gerard: Nou ja, ik heb het altijd over Govgrade requirements.
177
00:11:16,159 --> 00:11:16,800
Gerard: Wat bedoel je dan?
178
00:11:16,879 --> 00:11:18,879
Gerard: Als kijk naar governance, wat is Govgrade.
179
00:11:18,879 --> 00:11:23,120
Gerard: Is dat je echt, dus kom ik even weer terug, die isolatie, autonomie.
180
00:11:23,120 --> 00:11:28,879
Gerard: Maar ook die autonomiegrenzen moet je niet vastleggen met soft grenzen.
181
00:11:29,200 --> 00:11:31,040
Gerard: Ik hoor we soms als organisaties.
182
00:11:31,039 --> 00:11:34,159
Gerard: Ja, we prompten onze copilot dat hij dat niet mag doen.
183
00:11:34,159 --> 00:11:36,399
Gerard: Of dat hij moet zeggen hoe zeker die is onze zaak.
184
00:11:36,399 --> 00:11:45,759
Gerard: Ja, op het moment dat je een Gen AI-systeem gaat vragen om een percentage te geven hoe zeker die is, dan heb je echt niet heel goed begrepen waar je mee bezig ben, maar dat is wel de realiteit.
185
00:11:46,080 --> 00:11:49,920
Joop: Dus ik pleit ervoor, die autonomie grenzen, dat moet gewoon hardcode zijn.
186
00:11:49,920 --> 00:11:50,399
Joop: Dat kan.
187
00:11:50,399 --> 00:11:53,919
Joop: Je kunt met hele slimme prompt engineering.
188
00:11:53,919 --> 00:11:56,399
Joop: Echt bepaalde stappen die zo'n agent neemt.
189
00:11:56,399 --> 00:11:59,600
Joop: Heel erg hard in de code neerzetten, dat het deterministisch is.
190
00:11:59,600 --> 00:12:08,479
Joop: En dan de stappen waarbij zo'n LLM, zo'n competente LLM met natural language understanding en processing tot zijn recht moet komen, dan laat je hem vrij.
191
00:12:08,480 --> 00:12:13,840
Joop: Maar daarna komt er bijvoorbeeld weer een verificatie stap die weer deterministisch is.
192
00:12:13,840 --> 00:12:20,000
Gerard: En dan nog, zolang je met AI werkt, zul je in praktijk nooit honderd procent zeker kunnen zijn.
193
00:12:20,000 --> 00:12:21,920
Gerard: Dan krijg je nog die laatste laag.
194
00:12:21,920 --> 00:12:24,080
Gerard: Waar ook de AI echt heel duidelijk over is.
195
00:12:24,080 --> 00:12:27,440
Gerard: Dus dat is dan, wij als professionals controleren de output.
196
00:12:27,440 --> 00:12:28,239
Gerard: Dat blijft gewoon.
197
00:12:28,559 --> 00:12:29,920
Gerard: Dus al een paar keer gezegd.
198
00:12:29,920 --> 00:12:33,600
Joop: AI gaat ons niet vervangen, lijkt me ook geen goed idee.
199
00:12:33,919 --> 00:12:37,600
Gerard: Wij blijven als een soort laatste check.
200
00:12:37,680 --> 00:12:40,480
Gerard: Kijken van klopt die output, en is het goed gegaan.
201
00:12:40,480 --> 00:12:42,240
Gerard: En dat is voor mij is dat Govgrade.
202
00:12:42,240 --> 00:12:43,919
Gerard: Dus een heleboel stappen.
203
00:12:43,919 --> 00:12:44,639
Gerard: Hardcode.
204
00:12:44,639 --> 00:12:50,399
Gerard: Een stukje AI lekker gang gaan, weer hardcode, deterministisch en dan uiteindelijk ultimo de.
205
00:12:50,639 --> 00:12:52,800
Gerard: De professional die bepaalt, is het goed.
206
00:12:53,759 --> 00:13:00,240
Gerard: Zie je ook verandering omdat jullie een minste extra eis, omdat jullie in een gereguleerde omgeving zitten?
207
00:13:01,519 --> 00:13:04,720
Gerard: In ieder geval extra uitdaging, laat ik dat even zo formuleren.
208
00:13:05,279 --> 00:13:10,080
Niels: Wat je nu vooral hebt, is het dilemma van autonomie versus controle.
209
00:13:10,079 --> 00:13:15,759
Niels: Je wilt het liefst enige autonomie geven aan een agent, anders is het een soort van tandenloze tijger, dan heb je niks aan.
210
00:13:16,000 --> 00:13:18,639
Niels: Dus je wilt toch kijken hoe ver je daarin kunt gaan.
211
00:13:18,639 --> 00:13:28,399
Joop: En tegelijkertijd zit je in een gereguleerde gereguleerde organisatie waarin je moet kunnen aantonen wat een systeem doet, waarom die dat doet, wie verantwoordelijk is, hoe je kunt ingrijpen.
212
00:13:28,399 --> 00:13:31,760
Joop: En dat zijn ook zaken die je dan goed in beeld moet krijgen van zo'n agent.
213
00:13:31,920 --> 00:13:34,480
Joop: Dat is wel echt een uitdaging die ik zie.
214
00:13:34,480 --> 00:13:42,879
Niels: En dan kom je dus al snel ook wel Daniël aangeeft in toch die technische maatregelen die je dan moet inrichten om zeker voor agents om daar enige grip op te houden.
215
00:13:42,879 --> 00:13:51,200
Niels: En ja, los van de governance die je op papier hebt, je toch ook iets meer in de techniek hebben om de enige zekerheid aan te kunnen verbinden.
216
00:13:51,200 --> 00:13:55,919
Niels: En in de experimenteerfase, waar heb je dan de vrijheid en waar heb je minder vrijheid?
217
00:13:55,919 --> 00:13:59,760
Niels: Want in experimenteren betekent ook dingen proberen, waar het wel eens fout kan gaan.
218
00:13:59,759 --> 00:14:01,040
Niels: Hoe maak je daar de afweging?
219
00:14:01,039 --> 00:14:04,000
Niels: Waar mag ik wel experimenteren, waar mag ik niet experimenteren.
220
00:14:05,200 --> 00:14:14,480
Daniël: In generieke zin hebben wij een soort van labomgeving waarin je zonder klantdata een soort van je gang kan gaan.
221
00:14:14,639 --> 00:14:22,960
Daniël: En wat ik al aangaf, voor ons is heel bewust om te testen wat er nou gebeurt als we zo'n agent een beetje losser laten dan we misschien in de praktijk zouden doen.
222
00:14:22,960 --> 00:14:25,919
Daniël: Dus daar willen we vooral nu naar kijken en van leren.
223
00:14:25,919 --> 00:14:30,120
Daniël: Dus ja, er kan echt wel veel om kunnen kijken wat er gebeurt.
224
00:14:30,120 --> 00:14:32,840
Daniël: En zie je al iets waar je zegt van nou daar gaan we echt wel de rem op zetten.
225
00:14:32,840 --> 00:14:38,680
Daniël: Of nou dat is echt een enorme jet engine als we het even in de vliegsfeer houden.
226
00:14:39,559 --> 00:14:40,600
Daniël: Voor mij nog niet.
227
00:14:40,600 --> 00:14:42,920
Daniël: Dus ik hoop daar wel binnenkort meer duidelijkheid over te krijgen.
228
00:14:42,919 --> 00:14:44,280
Daniël: Ja, zeker.
229
00:14:45,720 --> 00:14:52,760
Daniël: We hebben het in het verleden gehad, dat heel veel mensen in één keer in Excel van allerlei dingen konden maken.
230
00:14:53,399 --> 00:14:56,519
Daniël: In mijn beleving heeft dat de hel of Excel opgeleverd.
231
00:14:56,519 --> 00:15:05,159
Daniël: Hoe zorgen jullie er nou voor in je eigen omgeving, dat je niet een wild groei krijgt aan agents die iedereen overal maar kan bakken, in Copilot Studio.
232
00:15:05,799 --> 00:15:09,320
Daniël: Toch misschien wel in de shadow IT die er is.
233
00:15:09,639 --> 00:15:11,559
Daniël: Hoe hou je dat in de klauwen?
234
00:15:11,559 --> 00:15:14,600
Daniël: Bij Montferland zijn we daar heel erg zitten we er heel dichtboven op.
235
00:15:14,600 --> 00:15:15,799
Daniël: Wij hebben dit ook vastgesteld.
236
00:15:15,960 --> 00:15:22,040
Daniël: Op een gegeven moment als je mensen deze competentie geeft, dan is echt een gek van de dam.
237
00:15:22,360 --> 00:15:23,879
Daniël: Dan gaan mensen los, willen ook los.
238
00:15:23,879 --> 00:15:26,039
Daniël: Die zien van dit kan, ik heb dit idee.
239
00:15:26,440 --> 00:15:34,440
Daniël: Al vrij snel kwamen we tot de conclusie, als we dit zo vrij loop laten, dan hebben we inderdaad straks duizend agents en niemand meer wat.
240
00:15:34,759 --> 00:15:44,200
Niels: Maar gelukkig hebben we bij Montferland ook al heel snel ingezet op niet alleen die actielaag die doen, maar ook het denken en analyseren met een AI-governance board.
241
00:15:44,200 --> 00:15:47,799
Gerard: Dus die twee sporen lopen in parallel en daar wij vastgesteld, luisteren.
242
00:15:47,799 --> 00:15:51,240
Gerard: Volgens nog houden wij dit wel heel beperkt binnen onze eigen regie.
243
00:15:51,319 --> 00:15:56,759
Gerard: Dus we hebben daar gewoon een protocol voor als iemand een agent wil inzetten, of niet voor bouwen inzetten.
244
00:15:56,759 --> 00:15:58,040
Gerard: Dan gaat het alle stapjes.
245
00:15:58,200 --> 00:16:00,759
Gerard: Dat gaat snel hoor, dat hoeft niet heel bureaucratisch.
246
00:16:00,759 --> 00:16:03,960
Gerard: Maar dat wij wel de grip erop houden, ja, dat is heel belangrijk.
247
00:16:03,960 --> 00:16:06,040
Gerard: Bij Civics doen we dat anders.
248
00:16:06,039 --> 00:16:11,080
Gerard: Daar laten we die governance nu inmiddels doen, als deel hoor, echt wel experimenteel.
249
00:16:11,080 --> 00:16:14,360
Gerard: Maar daar ben ik echt verbluffend.
250
00:16:14,360 --> 00:16:17,080
Gerard: Besteden we dat weer uit aan een hogere agent.
251
00:16:17,720 --> 00:16:18,279
Gerard: Spannend.
252
00:16:19,240 --> 00:16:20,360
Gerard: Maar het gaat goed hoor.
253
00:16:20,360 --> 00:16:21,240
Gerard: Ja, dat is bizar.
254
00:16:21,240 --> 00:16:26,600
Gerard: Die draait die draait drie, vier servers nu en allemaal agents daaronder.
255
00:16:26,600 --> 00:16:27,639
Gerard: Ja, het is echt absurd.
256
00:16:27,639 --> 00:16:29,000
Gerard: Wat doet hij beter dan.
257
00:16:31,000 --> 00:16:37,320
Gerard: Ja, ik maak mezelf een beetje overbodig eigenlijk, maar alles wat ik kan, en met alle respect, maar het is qua mensenwerk.
258
00:16:37,319 --> 00:16:39,399
Joop: Ik zie, wij hebben geen accountant meer.
259
00:16:39,399 --> 00:16:39,879
Joop: Dat is één.
260
00:16:39,879 --> 00:16:40,840
Joop: We hebben geen accountant meer.
261
00:16:40,840 --> 00:16:42,680
Niels: Dat is gewoon nu inmiddels bewezen.
262
00:16:43,000 --> 00:16:45,879
Niels: Onze accountant agent die regelt het allemaal.
263
00:16:45,879 --> 00:16:48,360
Niels: Nee, maar ik wil deze governance agent.
264
00:16:50,120 --> 00:16:52,120
Niels: Wat kan die wat jij niet kan?
265
00:16:52,279 --> 00:16:53,879
Niels: Het volledige overzicht houden.
266
00:16:54,039 --> 00:16:59,799
Niels: Dus die kan overal de logs uitlezen, die kan overal de processen uitlezen.
267
00:17:00,120 --> 00:17:04,839
Niels: Die kan heel snel oordelen of het conform al onze protocollen is.
268
00:17:06,680 --> 00:17:09,799
Daniël: Mens heeft er een dag voor nodig, die agent doet het allemaal binnen een minuut.
269
00:17:10,039 --> 00:17:14,279
Joop: Wat denk jij, zeg maar met de achtergrond van de bank hierover?
270
00:17:14,519 --> 00:17:16,839
Daniël: Dit gaat misschien een aantal stappen te ver.
271
00:17:17,160 --> 00:17:24,039
Daniël: Als bank kiezen wij eigenlijk voor een beetje behouden, aanpakken, zeker als het net over de bredere strategie van AI.
272
00:17:24,039 --> 00:17:28,919
Daniël: We kijken stap voor stap wat voor de bank goede use cases zijn, betrouwbare use cases, schaalbare use cases.
273
00:17:30,360 --> 00:17:32,519
Daniël: Zo kijken we op dit moment naar.
274
00:17:32,519 --> 00:17:35,000
Niels: Dat gaat ook via een soort van governance board.
275
00:17:35,480 --> 00:17:44,279
Daniël: We besluiten echt op basis van value, risk en andere ESG-achtige criteria wanneer we een use case wel of niet gaan doen.
276
00:17:45,240 --> 00:17:47,000
Daniël: En dat is hoe we er nu in zitten.
277
00:17:47,480 --> 00:17:49,480
Joop: Wie zitten bij jullie in het board?
278
00:17:50,119 --> 00:17:53,240
Gerard: Daar zit onder andere in sowieso natuurlijk de business.
279
00:17:53,240 --> 00:18:00,839
Gerard: Maar ook een Chief data analytics team officer eigenlijk, die zit daar geen iemand van de CRO, dus een risico persoon zit aan mij.
280
00:18:01,000 --> 00:18:06,279
Gerard: Dus het is wel echt een gewogen besluit die daar wordt genomen op wat we op gebied van AI doen binnen de bank.
281
00:18:06,519 --> 00:18:13,159
Daniël: En bij de gemeente bij de gemeente houden we als natuurlijk aan alle wetge richtlijnen doen we het gewoon nog met mensen, zeg maar.
282
00:18:13,559 --> 00:18:18,599
Daniël: Maar ik vond ik vind wel, ik vond de reactie wel leuk net van over governance uitbesteden aan een AI.
283
00:18:18,599 --> 00:18:21,160
Daniël: En wat jij zegt, nou dat gaat ons wel wat ver.
284
00:18:21,640 --> 00:18:22,759
Daniël: Ik snap die reactie.
285
00:18:22,759 --> 00:18:25,639
Daniël: En ik bedoel, ik ben zelf ook heel kritisch.
286
00:18:27,160 --> 00:18:30,680
Daniël: Ja, ik wil ik wil echt wel dingen zien en bewezen hebben.
287
00:18:30,680 --> 00:18:35,479
Daniël: Maar laten we eerlijk zijn, als je mensen die governance laat doen, gaat dat altijd goed.
288
00:18:35,799 --> 00:18:37,640
Daniël: Gaat het altijd goed bij de overheid?
289
00:18:37,639 --> 00:18:40,520
Daniël: Zijn wij met al die systemen zijn, wij de en bij de banken.
290
00:18:40,519 --> 00:18:44,839
Daniël: Zijn wij de uitgelezen governance apparaten, zouden.
291
00:18:46,119 --> 00:18:51,159
Daniël: Als ik net bijvoorbeeld ook hoor ik DNB zeggen, met alle gesprekken, dan schrok ik best wel van.
292
00:18:51,159 --> 00:18:55,319
Daniël: Van nee, maar het is niet zo dat als je zelf hosts per definitie veiliger is.
293
00:18:55,319 --> 00:18:58,759
Daniël: Dan denk ik een CISO van de DNB, die dit zegt.
294
00:18:58,759 --> 00:19:02,679
Daniël: Dan denk ik, heb je niet door dan op het moment dat je deze vergelijking maakt.
295
00:19:03,000 --> 00:19:05,080
Daniël: Al je data, gaat naar de states.
296
00:19:05,079 --> 00:19:07,000
Daniël: Daar wordt 100% wat mee gedaan.
297
00:19:07,000 --> 00:19:11,080
Daniël: En dan toch zeggen van, het is niet veiliger als we het zelf in eigen beheer zouden houden.
298
00:19:11,079 --> 00:19:16,800
Daniël: Ja, dan vraag ik mij af of je dan moet zeggen, per definitie mensen, maar governance laten met alle respect overigens voor Jeroen.
299
00:19:14,920 --> 00:19:20,720
Daniël: Dus ik denk dat we daar wel serieus naar moeten kijken.
300
00:19:20,799 --> 00:19:24,720
Daniël: Kijk, ik zeg niet, je moet het 100% uitbesteden, dat is nooit verstandig.
301
00:19:24,799 --> 00:19:27,360
Gerard: Probeer altijd wel een soort checks en balances te doen.
302
00:19:27,359 --> 00:19:36,240
Daniël: Maar ik vind het geen gek idee dat we langzaam gaan wennen aan het feit dat wij zelf, of dat wij naast AI die rollen steeds meer gaan combineren samen.
303
00:19:36,400 --> 00:19:37,279
Niels: Ik ben wel benieuwd.
304
00:19:37,519 --> 00:19:41,279
Niels: Je zegt aan de ene kant zit je de experimenteerfase, aan de andere kant zit je bij een gemeente.
305
00:19:50,400 --> 00:19:51,920
Niels: Wat doe je in de experimenteerfase, waar je zeggen als ze dat bij de gemeente doen, dan mag gewoon niet, of dat kan niet en hoe leer je van die twee?
306
00:19:53,039 --> 00:19:55,120
Daniël: Ja, vind ik een leuke vraag.
307
00:19:55,359 --> 00:19:58,399
Daniël: Ik doe het ook nog in privé zelfs dan nog.
308
00:19:58,640 --> 00:20:01,919
Daniël: Ik ben een beetje, ik word thuis ook altijd een nerd genoemd.
309
00:20:02,240 --> 00:20:04,079
Daniël: Familie zeg: je praat meer tegen je computer dan tegen ons.
310
00:20:09,039 --> 00:20:11,439
Daniël: Nee, flauwekul.
311
00:20:11,440 --> 00:20:13,839
Daniël: Nee, weet je, kijk, er zijn drie lagen eigenlijk.
312
00:20:13,839 --> 00:20:18,560
Daniël: Dus binnen de overheid, daar gaat het uit gewoon super strak.
313
00:20:18,799 --> 00:20:20,640
Daniël: Dan heb je de AI-act, je hebt AVG, net je bio, je hebt alle archief.
314
00:20:20,640 --> 00:20:21,759
Daniël: En daar hou je je aan.
315
00:20:22,480 --> 00:20:27,120
Daniël: En dan nog wat.
316
00:20:27,119 --> 00:20:30,160
Daniël: Bij Civics werken wij binnen een CVI werken we in sandboxes.
317
00:20:30,160 --> 00:20:31,679
Daniël: Gaan we verder, maar wel met de publieke sector in gedachten.
318
00:20:31,920 --> 00:20:38,799
Daniël: Dus gaan we niet gungho doen.
319
00:20:38,799 --> 00:20:41,439
Daniël: Proberen wel te kijken: hoe kunnen we deze nieuwe capabilities inzetten op een veilige, verantwoorde manier.
320
00:20:41,440 --> 00:20:43,039
Daniël: En zelf experimenteer ik met de meest bizarre dingen.
321
00:20:43,839 --> 00:20:45,599
Daniël: Ja, dan denk ik, goh, ja.
322
00:20:45,599 --> 00:20:50,960
Daniël: Er was een laatste vibecoder.
323
00:20:50,960 --> 00:20:55,279
Daniël: Een of andere knakker die een paar weken geleden op de zolderkamer vibecode had ontdekt.
324
00:20:55,279 --> 00:21:01,759
Daniël: En vervolgens had gezegd: joh, kijk eens even naar die McKinsey API van hun AI.
325
00:21:01,759 --> 00:21:04,240
Daniël: Heeft in een weekendje zijn AI, de Mackenzie API laten polsen, kwam toen twintig open endpoints tegen.
326
00:21:04,240 --> 00:21:08,960
Daniël: Dat ding heeft toen met een SQL injectie.
327
00:21:08,960 --> 00:21:10,000
Daniël: De hele hele database van McKinsey gedownload.
328
00:21:10,240 --> 00:21:11,200
Daniël: En dat is waar we zitten.
329
00:21:11,200 --> 00:21:16,159
Daniël: Hoe bizar is dat?
330
00:21:16,960 --> 00:21:18,319
Niels: Ja, en wat heb je daarvan geleerd wat we echt moeten gaan vatten in de governance en de processen die er nu al zitten?
331
00:21:21,759 --> 00:21:26,000
Daniël: Nou ja, God heb je even.
332
00:21:26,400 --> 00:21:27,680
Daniël: Overkoepend zou willen meegeven, ga er maar vanuit dat je niet voldoende governance hebt.
333
00:21:28,640 --> 00:21:33,519
Daniël: Dan zit je goed.
334
00:21:33,519 --> 00:21:35,919
Joop: Gerard, bij jou vanuit uit het tweede lijn, dus dan kijk jij mee natuurlijk met de eerste lijn.
335
00:21:35,920 --> 00:21:41,279
Joop: Wanneer heb je eens een keer op de rem getrapt?
336
00:21:43,680 --> 00:21:54,000
Gerard: Die zeggen van ja, dit gaan we niet doen, of misschien nu even niet doen.
337
00:21:54,000 --> 00:22:00,240
Gerard: Agentic is nog in experimentfase, maar ik kan me daar even bij houden, wel bij voorstellen, als je dus cases langs krijgt die vraag zijn geformuleerd.
338
00:22:00,240 --> 00:22:04,959
Gerard: Dus de taak omschrijven van een agent is onduidelijk of niet concreet genoeg, dan zou ik al zeggen, hier gaan we even wat op vertragen.
339
00:22:05,519 --> 00:22:10,559
Gerard: Eigenaarschap hebben het over gehad, die moet er zijn als die niet is, zou ik zeggen, even wachten.
340
00:22:10,559 --> 00:22:12,559
Gerard: Realtime monitoring, dat soort zaken, die killswitches, dat soort zaken wil je wel terugzien.
341
00:22:12,880 --> 00:22:18,000
Gerard: Voordat we ook echt iets gaan doen.
342
00:22:20,240 --> 00:22:27,200
Gerard: Uit dat perspectief zeg ik van ja, dan zou ik wel even op de remtrap om dat eerst goed te regelen.
343
00:22:28,079 --> 00:22:30,319
Joop: Is er een moment geweest, dat je iets hebt tegenhouden en dan misschien niet op het agendic AI.
344
00:22:30,319 --> 00:22:33,359
Joop: We hebben het ook over AI in governance vandaag.
345
00:22:36,880 --> 00:22:40,079
Joop: Waarvan je zegt van ja, maar dan had ik ook achteraf gelijk.
346
00:22:40,240 --> 00:22:41,839
Gerard: Ik kan hem zo snel niet.
347
00:22:42,079 --> 00:22:44,240
Joop: Misschien even wat bedenken, Daniël.
348
00:22:45,519 --> 00:22:47,279
Daniël: Ja, ik ben nooit zo bezig met gelijk krijgen.
349
00:22:47,279 --> 00:22:48,079
Daniël: Ik denk ik leer graag vooral iedere dag.
350
00:22:48,079 --> 00:22:59,759
Daniël: Wat dat bedoel ik eigenlijk.
351
00:23:00,319 --> 00:23:01,599
Daniël: Ik ga er maar vanuit dat je niet genoeg governance hebt, wist jij Joop dat AI onder de juiste omstandigheden in 80% van de gevallen als onderdruk wordt mensen blackmailt, hoe zeg je dat?
352
00:23:04,000 --> 00:23:05,199
Daniël: Ja, Blackmailt.
353
00:23:06,319 --> 00:23:10,799
Joop: Want deze paper heb ik gelezen.
354
00:23:12,400 --> 00:23:14,240
Joop: Je moet het taalmodel wel dwingen om je uiteindelijk ook te laten chanteer.
355
00:23:14,400 --> 00:23:17,759
Joop: Dat is wel even de nuance die erbij hoor.
356
00:23:17,759 --> 00:23:24,079
Daniël: Het was een lab setting en het was natuurlijk niet helemaal organisch.
357
00:23:24,319 --> 00:23:25,039
Daniël: Maar daar voeg ik het toch ook nog even toe dat in 40% van de gevallen dat hij ook bereid was tot moord.
358
00:23:26,880 --> 00:23:28,079
Daniël: Dat onderzoek.
359
00:23:28,079 --> 00:23:29,119
Daniël: Moet je maar eens opzoeken.
360
00:23:29,279 --> 00:23:34,160
Daniël: Dat is echt serieus.
361
00:23:34,960 --> 00:23:38,319
Daniël: En dat zijn dezelfde modellen waar een copilot nu mee werkt straks waar wij nu mee werken.
362
00:23:38,319 --> 00:23:41,759
Daniël: Om maar even een zijstraat te doen, zo kan ik dus nog wel 100 punten noemen.
363
00:23:41,759 --> 00:23:44,640
Daniël: Het is gewoon extreem veel wat er ineens op ons afkomt.
364
00:23:44,880 --> 00:23:48,000
Daniël: En ik denk dat we af moeten van alle oude standaarden.
365
00:23:48,000 --> 00:23:50,160
Daniël: We hebben software 2.0 nu gehad.
366
00:23:50,159 --> 00:24:00,359
Daniël: We hebben daarvoor wetten, we hebben daar weer richtlijnen.
367
00:24:00,599 --> 00:24:03,720
Daniël: Wat er nu aan gaat komen, ga er gewoon maar van uit dat het nog veel groter is en veel meer impact heeft op ons, onze samenleving, onze organisatie, onze mens.
368
00:23:59,920 --> 00:24:06,439
Daniël: En dat het goed is om daar nu alvast heel bewust van te worden.
369
00:24:07,400 --> 00:24:11,079
Daniël: En te gaan beginnen met kijken, zoeken, leren.
370
00:24:11,400 --> 00:24:12,920
Niels: Dat betekent natuurlijk wat voor de organisaties, ook voor de mensen in de zaal vandaag.
371
00:24:12,920 --> 00:24:13,720
Niels: Waar kan je starten dan?
372
00:24:13,720 --> 00:24:15,240
Niels: Hoe ga je starten?
373
00:24:15,720 --> 00:24:17,960
Niels: Want dit klinkt nogal heel breed.
374
00:24:18,920 --> 00:24:21,480
Joop: Misschien Gerard.
375
00:24:21,480 --> 00:24:24,200
Gerard: Voor mij als medewerker van een bank.
376
00:24:24,200 --> 00:24:27,480
Gerard: Waar je start, we hebben al een best van governance staan.
377
00:24:27,480 --> 00:24:34,600
Gerard: Dus daar haken we ook deze technologieën op aan.
378
00:24:34,599 --> 00:24:42,599
Gerard: Dus waar je start dat je in een kleinere setting goed zal moeten kijken van waar sta ik als bedrijf voor.
379
00:24:42,599 --> 00:24:45,399
Gerard: Maar als bank zijnde dan proberen het zoveel mogelijk op te nemen in onze bestaande structuren en governance afspraken die we hebben.
380
00:24:45,559 --> 00:24:47,319
Gerard: Dus ik vind het wel een lastige vraag om daar echt op.
381
00:24:47,640 --> 00:24:49,080
Joop: Is het een board topic?
382
00:24:49,079 --> 00:24:49,799
Joop: Wordt er in het board over gesproken?
383
00:24:50,440 --> 00:24:55,879
Gerard: Zeker absoluut.
384
00:24:55,880 --> 00:24:58,279
Gerard: Dus ook onze CEO gaat naar Silicon Valley raad, laat zich daar ook bij praten wat er gebeurt en wat belangrijk is.
385
00:25:01,559 --> 00:25:04,359
Gerard: Dus het is zeker een board topic.
386
00:25:04,359 --> 00:25:11,240
Gerard: En dat merk je ook wel.
387
00:25:11,240 --> 00:25:15,639
Gerard: Aan de andere kant ben ik ook wel blij om te horen dat je niet direct antwoord hebt.
388
00:25:15,880 --> 00:25:26,839
Gerard: Want dat betekent dat de processen die er nu zijn, al heel veel van de vraagstukken die nu ten tafel komen, er ook al gewoon nog steeds ingezet kunnen worden.
389
00:25:27,079 --> 00:25:33,639
Gerard: Dus ik denk dat eigenlijk voor mij is dat een geruststellend antwoord dat je er niet direct de andere reden.
390
00:25:33,799 --> 00:25:38,359
Gerard: En het klopt inderdaad wat je zegt, we maken heel veel soort van hergebruik van bestaande risico-instrumenten, maar ook dit soort AI-zaken te kunnen beoordelen.
391
00:25:38,440 --> 00:25:40,440
Joop: Er zijn best wel heel wat mensen die ervan balen dat er geen minister van Digitale Zaken is gekomen voor de zoveelste keer.
392
00:25:40,440 --> 00:25:43,640
Joop: Wordt er in de gemeente op politiek niveau gesproken over AI in governance.
393
00:25:43,640 --> 00:25:46,120
Daniël: Nou, dat begint nu vorm te krijgen.
394
00:25:46,119 --> 00:25:52,200
Daniël: Want wat wij ontdekken, is dat bij Montferland lopen we best wel voorop.
395
00:25:52,440 --> 00:25:55,960
Daniël: Als we de pers mogen geloven.
396
00:25:55,960 --> 00:25:57,640
Daniël: Wij zelf vinden dat het vrij normaal is dat we gewoon ons inzetten als gemeente op deze manier.
397
00:25:57,639 --> 00:26:04,200
Daniël: Het leuke is ook wel net om even nog heel erg terug te komen op de governance.
398
00:26:04,440 --> 00:26:05,480
Daniël: Er is helaas geen blauwdruk.
399
00:26:05,480 --> 00:26:08,359
Daniël: Er is niet zoiets van oké, als ik nu dit blauwdruk pak en volg voor mijn organisatie, dan zit het wel snor.
400
00:26:08,360 --> 00:26:13,240
Daniël: Dat is niet.
401
00:26:13,240 --> 00:26:16,519
Daniël: Wat ik wel kan zeggen is, en dat werkt voor ons heel goed.
402
00:26:16,759 --> 00:26:23,319
Daniël: En ook de klanten die wij helpen, andere gemeenten, andere overheden, is een twee sporen beleid.
403
00:26:23,319 --> 00:26:25,640
Daniël: Dus aan de ene kant heb je echt de AI governance board.
404
00:26:25,639 --> 00:26:32,120
Daniël: Mensen van meerdere lagen en graden die met elkaar samen praten over van is dit nou eigenlijk compliant?
405
00:26:32,119 --> 00:26:33,720
Daniël: Wat betekent dit voor onze inwoners?
406
00:26:33,720 --> 00:26:36,920
Daniël: Hoe zit het juridisch, etc, en aan de andere kant ook het actie, dus het kleine pilotjes proberen.
407
00:26:36,920 --> 00:26:38,599
Daniël: En daar samen van leren.
408
00:26:40,279 --> 00:26:41,079
Daniël: Oh, we hebben hier gemerkt, oh, dit stond nog wel wat open voor ons gevoel.
409
00:26:41,079 --> 00:26:44,440
Daniël: Even kijken, hoe zit het juridisch?
410
00:26:44,759 --> 00:26:46,759
Daniël: Groei je eigenlijk.
411
00:26:46,759 --> 00:26:50,359
Daniël: En zowel de governance compliance, als het inderdaad werkelijk uitvoeren.
412
00:26:50,680 --> 00:26:52,839
Daniël: En dat is iets wat ik wel kan meegeven.
413
00:26:56,839 --> 00:27:02,519
Daniël: Dat werkt echt wel eigenlijk vrijwel overal goed.
414
00:27:02,519 --> 00:27:04,440
Joop: Kijk, dat scheelt.
415
00:27:04,440 --> 00:27:07,960
Niels: Het was eigenlijk al beantwoord, inderdaad, vandaag, ik zit met een AI-agent plan en waar moet ik stappen zetten.
416
00:27:07,960 --> 00:27:14,279
Unknown: En dat is twee sporenbeleid.
417
00:27:15,480 --> 00:27:24,680
Niels: En dat betekent dus inderdaad het stukje starten.
418
00:27:24,680 --> 00:27:27,559
Niels: En je huidige governance aan laten sluiten en te kijken wat daar nodig is, inderdaad, dus eigenlijk is heel mooi beantwoord.
419
00:27:28,920 --> 00:27:34,759
Joop: Wat ik van jullie waar zie je nu als je richting de toekomst kijkt, op het gebied van agente AI in governance.
420
00:27:35,079 --> 00:27:38,519
Joop: Waar denk je dat het naartoe beweegt, Gerard.
421
00:27:38,680 --> 00:27:55,240
Gerard: Wat ik net ook een beetje aangeverd is die klassieke AI governance, waarin je dus vooraf vaak dingen vaststelt toetst.
422
00:27:55,240 --> 00:27:57,880
Gerard: Schuift steeds meer naar toch meer dynamische AI governance.
423
00:27:58,119 --> 00:28:01,879
Gerard: Veel meer gericht op technische maatregelen die zaken uitsluiten in het proces, niet meer achteraf, maar echt je geeft technische controles mee aan een workflow, als een agent iets doet wat niet mag, dat die ingrijpt, dus dat soort zaken.
424
00:28:02,200 --> 00:28:05,399
Gerard: Daar verwacht ik dat er steeds meer naartoe wordt bewogen.
425
00:28:05,400 --> 00:28:06,200
Gerard: En dat ze al ondersteund moeten worden met goede platformen.
426
00:28:06,200 --> 00:28:08,680
Gerard: Goede identity access management.
427
00:28:10,119 --> 00:28:12,519
Gerard: Richtlijnen.
428
00:28:12,519 --> 00:28:14,759
Gerard: Dus daar verwacht ik dat het steeds meer naartoe gaat bewegen.
429
00:28:14,759 --> 00:28:19,719
Daniël: Nou, ik ben ik zou met de deur naar huis vallen.
430
00:28:19,720 --> 00:28:21,720
Daniël: Ik ben op dit moment bijzonder pessimistisch.
431
00:28:21,720 --> 00:28:27,480
Daniël: Ik denk dat we op dit moment met z'n allen en de meeste hebben het niet door en je kunt het met me oneens zijn.
432
00:28:28,279 --> 00:28:32,440
Daniël: Maar goed, ik zie het 16 uur per dag.
433
00:28:32,440 --> 00:28:33,480
Daniël: Ik denk dat ze op dit moment op de rand van richting de afgrond aan het koersen zijn.
434
00:28:33,480 --> 00:28:37,879
Daniël: Je krijgt AI die veel competenter, het wordt, veel sneller, veel sterker.
435
00:28:38,200 --> 00:28:42,120
Daniël: Het wordt gekoppeld.
436
00:28:42,119 --> 00:28:45,279
Daniël: Kijk, zo'n Copilot wordt overhangen alle daten, we weten allemaal zelf niet eens meer hoeveel.
437
00:28:45,759 --> 00:28:48,000
Daniël: Er komt ook nog een stukje robotica, steeds meer in opkomst, we krijgen kwantum.
438
00:28:44,840 --> 00:28:51,040
Daniël: Ik denk als we zo doorgaan over vijf jaar dat we dan.
439
00:28:53,839 --> 00:28:57,279
Daniël: Ik hou me hard vast, laat het zo zeggen voor grappig.
440
00:28:58,160 --> 00:29:05,200
Joop: Ik schat je in, en misschien de zaal ook als een optimist.
441
00:29:05,200 --> 00:29:09,359
Joop: Dan eindigen we misschien zo, ik wil als afsluitende vraag.
442
00:29:09,680 --> 00:29:16,319
Joop: We hebben een kaartspel ontwikkeld met het ETZ, Elisabeth Tweesteden Ziekenhuis, en daar zitten ook ethische vragen in.
443
00:29:16,319 --> 00:29:22,720
Joop: En ik vond, zij hadden er namelijk één bedacht, en die wil ik ook aan jullie voorleggen.
444
00:29:23,440 --> 00:29:26,399
Joop: Zij stellen als stelling, het is ethisch niet meer verantwoord om AI niet in te zetten in de zorg.
445
00:29:34,559 --> 00:29:41,840
Joop: Is het nog wel ethisch verantwoord om AI niet in te zetten voor de burgers?
446
00:29:41,839 --> 00:29:46,880
Joop: Of voor je klanten, ben ik het volledig mee eens.
447
00:29:46,880 --> 00:29:51,119
Joop: Ik vind dat wel een paradox, wat je net aangaf, ik lijkt Trump wel, ik heb me vergeten, vrouw, het pas bij elkaar.
448
00:29:51,519 --> 00:29:56,559
Daniël: Kijk, ik nu zie dat we op richting de afgrond gaan, wil niet zeggen dat ik tweede ook waar kan zijn.
449
00:29:56,559 --> 00:29:59,439
Daniël: Ik ben alleen van mening dat wij heel hard heel snel met z'n allen wakker moeten worden.
450
00:29:59,759 --> 00:30:02,639
Niels: En denk daarom, het stukje governance nog belangrijker wordt en dat we hier nog meer aandacht moeten hebben.
451
00:30:03,759 --> 00:30:04,639
Niels: Dus ik ben blij dat er echt zo'n grote mooie volle zaal zit, inderdaad.
452
00:30:04,880 --> 00:30:06,880
Niels: We gaan jullie vraag ook nog beantwoorden in de podcast.
453
00:30:06,880 --> 00:30:10,480
Joop: Lever ze in.
454
00:30:18,400 --> 00:30:20,400
Joop: En voor de luisteraars blijf even hangen.
455
00:30:20,400 --> 00:30:22,639
Joop: Want we gaan met de heren nog zitten om de vraag te beantwoorden.
456
00:30:22,639 --> 00:30:26,160
Joop: En hier zou ik willen vragen, geef ze een hartelijk applaus voor alles wat ze verteld hebben.
457
00:30:26,160 --> 00:30:31,200
Joop: We hebben de set omgebouwd.
458
00:30:31,440 --> 00:30:42,079
Joop: En we zitten nu in een andere ruimte.
459
00:30:42,079 --> 00:30:46,240
Joop: Dus we gaan even de vragen uit het publiek beantwoorden.
460
00:30:46,240 --> 00:30:48,799
Joop: En ik heb voor jou Daniël als eerste een leuke vraag van Janine Simons.
461
00:30:48,799 --> 00:30:58,480
Joop: En zij zegt, is het realistisch om outputcontrole bij individuele professionals te leggen, als organisaties niet investeren in trainen van medewerkers in critical thinking.
462
00:30:58,480 --> 00:31:06,639
Daniël: Ja, daar raakt Janine de spijker op zijn kop, wat mij betreft dat is niet mogelijk.
463
00:31:06,639 --> 00:31:10,480
Daniël: Nee, dus daarom, en het is ook gewoon wettelijk verplicht.
464
00:31:10,480 --> 00:31:16,319
Daniël: Artikel 4 van de AI-verordening zegt dat een organisatie die iets met AI doet geacht voor te zorgen dat haar werknemers AI geletterd zijn.
465
00:31:16,400 --> 00:31:18,960
Daniël: En dat betekent dus dat je inderdaad voor wat van applicatie dan ook echt moet zorgen dat die gebruiker goed weet van hoe werkt het systeem.
466
00:31:19,039 --> 00:31:23,839
Daniël: Kijk, er zit natuurlijk ook de domein expertise bij, dat mogen duidelijk zijn.
467
00:31:24,480 --> 00:31:26,799
Daniël: Als jij output krijgt, die gaat over jouw vakgebied, wordt jij wel geacht natuurlijk daar al kritisch naar te kunnen kijken.
468
00:31:28,160 --> 00:31:35,840
Daniël: Het is ook heel goed dat je zegt applicatiespecifiek.
469
00:31:35,839 --> 00:31:37,759
Joop: Wat heel veel mensen denken van ja, maar ik kan een certificaat AI-geletterheid ergens bij je training krijgen.
470
00:31:37,759 --> 00:31:38,319
Joop: Het gaat over bedienen.
471
00:31:38,319 --> 00:31:40,399
Daniël: Om een goed voorbeeld te noemen, ik heb twee maanden geleden heb ik een paper gepubliceerd waarin ik stel dat geen enkel AI-systeem op dit moment compliant is.
472
00:31:40,639 --> 00:31:41,759
Daniël: En dat begint al bij de AWB.
473
00:31:41,759 --> 00:31:43,840
Daniël: Waarom?
474
00:31:43,839 --> 00:31:48,000
Daniël: Omdat als jij, laten we zeggen, vorig jaar heb je.
475
00:31:48,319 --> 00:31:55,200
Joop: Wat is de AWB?
476
00:31:55,279 --> 00:31:59,279
Daniël: Dat is bestuurswetten, zeg maar.
477
00:31:59,279 --> 00:32:04,160
Daniël: Dus fatsoenlijk bestuur, dat je achteraf moet kunnen aantonen voor hoe het proces gegaan.
478
00:32:04,160 --> 00:32:06,079
Daniël: Bij de overheid moeten we gewoon kunnen uitleggen achteraf, bij bijvoorbeeld beroep of bezwaar of een verzoek, moeten we kunnen uitleggen.
479
00:32:06,799 --> 00:32:19,039
Daniël: Hoe zijn jullie tot die conclusie gekomen?
480
00:32:19,039 --> 00:32:22,559
Daniël: En dat is heel lastig, want als jij een jaar geleden een bepaalde casus hebben behandeld.
481
00:32:22,559 --> 00:32:25,120
Daniël: En laten we zeggen.
482
00:32:25,119 --> 00:32:27,360
Daniël: Dus de domeinexpert die heeft het gedaan, je hebt bijvoorbeeld Copilot gebruikt, heeft mooie output gekregen, heeft de bronnen gecontroleerd en alles, heeft het in het dossier gezet en een jaar later wordt gevraagd: hoe is dat tot stand gekomen dan?
483
00:32:27,360 --> 00:32:28,960
Daniël: Wat voor rol heeft AI gespeeld, kun je dat niet meer reproduceren.
484
00:32:28,960 --> 00:32:31,759
Daniël: En hij wordt nog mooier op het moment zelf al.
485
00:32:32,000 --> 00:32:37,040
Daniël: Kijk, je ziet bronnen terugkomen bij Copilot.
486
00:32:37,039 --> 00:32:39,839
Daniël: Dat doen ze goed laat het duidelijk zijn.
487
00:32:39,840 --> 00:32:41,519
Daniël: Maar je ziet niet welke bronnen niet zijn opgehaald.
488
00:32:41,519 --> 00:32:43,519
Daniël: Misschien waren er wel andere documenten of stukken die ook relevant waren om tot een conclusie te komen.
489
00:32:43,519 --> 00:32:46,559
Daniël: Maar de ambtenaar die dacht: nee, dit ziet er goed uit plausibel.
490
00:32:46,559 --> 00:32:48,079
Daniël: Ik zie dat de bronnen kloppen.
491
00:32:48,079 --> 00:32:51,600
Daniël: Maar je weet niet wat er niet is opgehaald.
492
00:32:51,599 --> 00:32:54,720
Daniël: En hoe zijn dingen geframed door de AI of samengevat.
493
00:32:54,720 --> 00:32:58,879
Daniël: Want daar zit er echt een groot verschil in.
494
00:32:58,960 --> 00:33:02,559
Joop: En vind je daarmee dat het niet compliant is.
495
00:33:03,119 --> 00:33:05,599
Daniël: Nou ja, dat is niet zozeer wat ik vind, dat is gewoon logisch.
496
00:33:06,079 --> 00:33:07,680
Daniël: Dat is gewoon letterlijk de conclusie die je moet trekken, als je de wetgeving bekijkt.
497
00:33:08,319 --> 00:33:16,000
Daniël: Maar goed, we wijken nu af, het gaat over het AI geletterd zijn.
498
00:33:16,000 --> 00:33:17,920
Daniël: Maar daar zit meteen dus ook wel weer.
499
00:33:18,079 --> 00:33:21,279
Daniël: Het knelpunt.
500
00:33:21,279 --> 00:33:24,240
Daniël: Als jij als ambtenaar dit gebruikt en niet weet hoe dit AI-systeem werkt, dus ook niet weten van hoe worden eigenlijk die bronnen naar boven gehaald.
501
00:33:25,039 --> 00:33:28,079
Daniël: En wat wel en wat niet, en hoe wordt het geframed.
502
00:33:28,079 --> 00:33:31,480
Daniël: Ja, dan mag je nog zo het due diligence toepassen.
503
00:33:31,559 --> 00:33:37,960
Daniël: Maar als jij niet weet hoe het werkt, dan is het een soort wassenneus.
504
00:33:37,960 --> 00:33:41,000
Daniël: Daar moeten de gebruiker echt wel van op de hoogte zijn.
505
00:33:41,000 --> 00:33:48,119
Niels: En dat was al bij systemen waar ook AI in zit, alsjeblieft begrijp je systeem.
506
00:33:48,519 --> 00:33:50,599
Niels: Begrijp wat er gebeurt en weet je het niet de duik erin, inderdaad, hebben we nog een mooie vraag ontvangen, anoniem.
507
00:33:50,599 --> 00:33:55,640
Niels: De naam staat er niet bij, maar wel een hele mooie vraag.
508
00:33:55,640 --> 00:34:06,440
Niels: Gerard voor jou, wat doe je met autonomie wanneer je pakketsoftware of diensten koopt of abonneert waarin AI dan gebruikt wordt.
509
00:34:06,839 --> 00:34:08,119
Gerard: Ja, dat is wel echt een relevant topic.
510
00:34:08,199 --> 00:34:10,360
Gerard: Want wat je nu ziet is dat veel vendoren AI-features zomaar aanzetten.
511
00:34:10,599 --> 00:34:13,000
Gerard: En je merkt ook dat medewerkers van de organisatie daar ook in geïnteresseerd zijn, los van de vraag van hebben we het überhaupt nodig, wordt dan snel gezegd, ja, het is gratis, dus ja, waarom zouden het niet gebruiken?
512
00:34:13,320 --> 00:34:16,519
Gerard: Daar zit natuurlijk wel een risico.
513
00:34:16,519 --> 00:34:19,319
Gerard: Dus je wilt wel weten.
514
00:34:19,320 --> 00:34:27,079
Gerard: Wat wordt er precies aangezet?
515
00:34:27,559 --> 00:34:29,799
Gerard: Wat voor model gebruikt, bijvoorbeeld die vendor.
516
00:34:29,800 --> 00:34:49,719
Gerard: Waar gaat mijn data naartoe en welke afspraak maak ik daarover?
517
00:34:49,719 --> 00:34:54,039
Gerard: Wat gebeurt met mijn data als bank zijnde met zo'n vendor die daar dan toch richting zijn model iets mee gaan doen.
518
00:34:54,039 --> 00:34:57,480
Gerard: Op dit moment zijn we daar heel terughoudend in.
519
00:34:57,800 --> 00:35:00,519
Gerard: En wat wij sowieso doen, is dat bij alle AI use cases ook features die worden toegevoegd aan bestaande software, die willen we door voor ons de AI-way of working heen halen, eigenlijk een soort van ontwikkelstraat waarin we allerlei requirements aftikken om te kijken, oké, willen we dit en uiteindelijk daar goed geïnformeerd.
520
00:35:00,519 --> 00:35:01,079
Gerard: En ook daarmee voor iedereen een acceptabele use case te hebben.
521
00:35:01,239 --> 00:35:03,000
Gerard: Dus dat is hoe wij het aanpakken en hoe ik dit dan ook zie.
522
00:35:03,079 --> 00:35:06,920
Niels: Dus tegen je eigen guardrails en regels aanhouden.
523
00:35:07,239 --> 00:35:08,679
Gerard: Zeker.
524
00:35:11,639 --> 00:35:14,840
Niels: Ik geloof wel dat jullie je handen vol hebben dan.
525
00:35:14,840 --> 00:35:22,600
Niels: Want iedere tool zit nu al een feature in, inderdaad, om het anders.
526
00:35:22,599 --> 00:35:24,600
Gerard: Enorme uitdaging, eens.
527
00:35:25,079 --> 00:35:29,000
Gerard: En ook nog eens een keer echt goed monitoren daarvan.
528
00:35:29,000 --> 00:35:33,800
Gerard: Want sommige vendors zetten het ook gewoon zelf aan.
529
00:35:34,199 --> 00:35:39,399
Gerard: En dan heb je wel toch wel een beetje een soort van grijs gebied, of hoe zeg ik dat, een blinde vlek, misschien meer.
530
00:35:39,400 --> 00:35:41,079
Gerard: Dat je dat je dat niet altijd kunt waarnemen.
531
00:35:41,079 --> 00:35:44,199
Gerard: De leverancier heeft contact met de businessowner van zijn applicatie.
532
00:35:44,199 --> 00:35:46,599
Gerard: Je moet dat dan ook wel melden, of een release note waar je het in zou kunnen lezen, maar dan moet je wel tot actie over gaan.
533
00:35:46,599 --> 00:35:51,479
Gerard: En het detecteren, maar ook vervolgens het oppakken door de verantwoordelijke binnen de organisatie.
534
00:35:51,480 --> 00:35:53,719
Gerard: Daar zit natuurlijk wel wat afhankelijkheden.
535
00:35:53,719 --> 00:35:59,880
Gerard: En die wil je zoveel mogelijk toch ook weer technisch zien af te vangen.
536
00:36:01,239 --> 00:36:04,280
Gerard: En daar zijn we nog een beetje aan het zoeken van hoe kunnen we dat nou doen.
537
00:36:05,239 --> 00:36:09,559
Niels: Ja, en naast technisch inderdaad ook een stukje van hoe weten we wat het systeem doet.
538
00:36:09,559 --> 00:36:13,159
Niels: Ook daar inderdaad, de awareness zal er ook helpen.
539
00:36:13,159 --> 00:36:16,119
Niels: Want je hebt als hele organisatie, heb je te maken met deze features die ineens kunnen ontpoppen, inderdaad.
540
00:36:16,840 --> 00:36:21,559
Joop: Daniël, voor jou, we zitten een beetje te pingpong.
541
00:36:22,599 --> 00:36:27,079
Joop: Iemand was heel erg geïntrigeerd over jouw governance agent.
542
00:36:27,400 --> 00:36:34,199
Joop: En die vraag op welke provider draait die governance agent dan.
543
00:36:34,199 --> 00:36:36,599
Joop: Je geeft inzicht in zoveel vertrouwelijke data.
544
00:36:36,599 --> 00:36:38,839
Daniël: Ja, ook die vraag raakt natuurlijk onmiddellijk de spijker op de kop.
545
00:36:38,840 --> 00:36:40,199
Daniël: Ik denk dat we af moeten stappen van denken in providers puur zang.
546
00:36:40,440 --> 00:36:41,319
Daniël: Je hebt namelijk ook nog gewoon de mogelijkheid om zelf een server neer te zetten in je eigen omgeving, fysiek.
547
00:36:41,639 --> 00:36:47,480
Daniël: En het daarop te draaien, internetkabel eruit.
548
00:36:47,480 --> 00:36:52,039
Daniël: Dat kan tegenwoordig kan heel goed.
549
00:36:52,039 --> 00:36:57,960
Daniël: Met hele goede modellen ook.
550
00:36:57,960 --> 00:37:05,000
Daniël: Met heel goede modellen.
551
00:37:05,000 --> 00:37:10,919
Daniël: Ik ben Civics drijven nu toch echt wel state of the art open source modellen.
552
00:37:10,920 --> 00:37:12,119
Daniël: Waarbij je denkt aan honderden miljarden parameter modellen, dat is verbluffend.
553
00:37:12,119 --> 00:37:16,039
Daniël: Maar je ziet ook dat open source modellen steeds competenter worden, maar toch kleiner.
554
00:37:16,039 --> 00:37:21,000
Daniël: Dus we hebben allemaal nieuwe technieken, technologieën, quantization, andere technieken, mixture of experts zoals het leuk heet.
555
00:37:21,480 --> 00:37:26,039
Daniël: Waardoor je eigenlijk die modellen, zelfs, nou ja, het zal dit jaar gebeuren, op je telefoon kunnen draaien zonder internet.
556
00:37:26,280 --> 00:37:28,279
Daniël: En daar gaat het wel heen.
557
00:37:28,679 --> 00:37:34,200
Daniël: Maar goed, ik begrijp ook, want ik werk heel veel voor overheden, dus ik kom heel veel.
558
00:37:34,199 --> 00:37:39,239
Daniël: En zelfs grote overheden zeggen, ja, maar ja, moeten we dit nou allemaal zelf gaan zitten organiseren.
559
00:37:39,480 --> 00:37:44,279
Daniël: Je loopt ook tegen allerlei praktische problemen aan, vaak past het niet eens in de serverkast, zo'n ding.
560
00:37:44,280 --> 00:37:47,159
Daniël: Maar je hebt ook gewoon Europese aanbieders.
561
00:37:47,159 --> 00:37:48,599
Daniël: Wij werken zelf bij Civiq AI partner van Skillway, grote Franse provider.
562
00:37:48,599 --> 00:37:49,400
Daniël: Absoluut aanrader, maar zo heb je in Nederland en in Europa heb je nog meerdere aanbieders.
563
00:37:49,400 --> 00:37:54,199
Daniël: Waarbij echt de hardware en de infra is gewoon van ons, zeg maar.
564
00:37:54,199 --> 00:38:01,400
Joop: En de Nederlandse overheid direct in de AI-factory.
565
00:38:01,639 --> 00:38:03,000
Daniël: Ja, om maar wat te noemen precies.
566
00:38:03,000 --> 00:38:10,839
Daniël: Dus dat kan.
567
00:38:13,720 --> 00:38:15,119
Daniël: Dus je moet niet meer denken van ja, welke provider dan, want al die data is vertrouwelijk, ja, 100%.
568
00:38:15,000 --> 00:38:17,759
Daniël: Maar als jij zegt, we gaan met zulke gevoelige data werken, dan zeg ik, zet het in huis, zet het fysiek neer, internetkabel eruit.
569
00:38:18,800 --> 00:38:23,200
Daniël: Dus het is een beetje een tranches.
570
00:38:24,000 --> 00:38:26,559
Daniël: En als je zegt, nou ja, het is gevoelig, maar een goede DPA met een leverancier, kunnen we aan, ga dan met een Europese provider en ze.
571
00:38:28,159 --> 00:38:31,599
Niels: Voelde een beetje als een tenniswedstrijd.
572
00:38:31,679 --> 00:38:35,439
Niels: Ook wel lekker, inderdaad.
573
00:38:35,440 --> 00:38:39,279
Niels: Als je geen legacy zou hebben, hoe zou je AI governance dan vanaf de bodem inrichten?
574
00:38:39,280 --> 00:38:43,199
Gerard: Het grappig is eigenlijk dat de governance.
575
00:38:43,199 --> 00:38:49,039
Gerard: Dat kan niet uit het niets, maar gevoelsmatig was dat wel zo.
576
00:38:49,039 --> 00:38:57,039
Gerard: Het is 2023 hadden we ineens te maken met ChatGPT.
577
00:38:57,679 --> 00:38:59,920
Gerard: En als organisatie zijn we daar ook wel op ingesprongen door een governance neer te zetten.
578
00:39:02,480 --> 00:39:12,159
Gerard: Maar op een gegeven moment zag je op verschillende plekken diverse vormen van governance ontstaan.
579
00:39:12,320 --> 00:39:22,559
Gerard: Dus allerlei boards, allerlei comités, groepjes die ergens iets van moesten vinden.
580
00:39:22,559 --> 00:39:32,000
Gerard: En dat is zo opgeblazen zo groot geworden, dat we op zich, als ik dan zo zou moeten vertellen, een aantal maanden geleden hebben gekeken.
581
00:39:32,000 --> 00:39:33,039
Gerard: Wat hebben we nu en moeten we niet terug naar de basis.
582
00:39:34,639 --> 00:39:36,639
Gerard: die direct vanuit de managingboard, mandaat heeft om de strategie te bepalen, use cases goed te keuren op basis van die strategieën en die waarde die toevoegt aan de strategie.
583
00:39:36,719 --> 00:39:37,680
Gerard: Dus op die manier hebben we dus ook, als je het hebt over het nieuw opbouwen, toch als het ware opnieuw opgebouwd, wel kijken naar wat voor soort comités zijn er al.
584
00:39:40,800 --> 00:39:44,319
Gerard: En daar zoveel mogelijk op aansluiten, maar dat in ieder geval wel weer wat eenvoudige en simplistischer te maken dan toch wel het grote wat we hadden gecreëerd in de loop der tijd.
585
00:39:44,320 --> 00:39:47,519
Niels: De Board of Boards.
586
00:39:47,599 --> 00:39:55,039
Gerard: Dat denk ik de antwoord op deze vraag.
587
00:39:55,599 --> 00:39:58,319
Niels: Keep het simpel.
588
00:39:58,320 --> 00:40:06,959
Daniël: Misschien mag ik er heel even kort nog op ingaan, want legacy is natuurlijk een groot issue.
589
00:40:07,199 --> 00:40:09,840
Daniël: En dat gaat niet alleen maar over governance, het gaat ook bijvoorbeeld over je data.
590
00:40:09,840 --> 00:40:12,079
Daniël: Dus wat je ziet, we zitten zeker bij de overheid, zit op zeker 8, 9, 10 jaar aan oude data, PDF's ingescand.
591
00:40:12,159 --> 00:40:17,359
Daniël: Ik adviseer wel iedereen om nu al gewoon te gaan investeren.
592
00:40:17,360 --> 00:40:20,719
Daniël: Kijk, ja, waar je nu op zit, kun je niks meer aan doen, maar je kunt wel vanaf vandaag beginnen met het inrichten van een goede structuur, metadatering, machine readable.
593
00:40:20,719 --> 00:40:24,719
Daniël: Dat is per organisatie use case natuurlijk wel weer wat anders.
594
00:40:26,079 --> 00:40:26,959
Daniël: Maar daar kun je vandaag al mee beginnen in zekere zin.
595
00:40:28,079 --> 00:40:30,799
Niels: En machine readable governance en richtlijnen, dat zijn zeker mogelijkheden waar je naar moet gaan kijken.
596
00:40:30,800 --> 00:40:32,559
Niels: En dat gaan borgen in de techniek en processen.
597
00:40:33,840 --> 00:40:37,679
Niels: Niet alleen techniek, alsjeblieft, ook de processen, maar nemen de menskant van essentieel belang.
598
00:40:37,679 --> 00:40:45,920
Joop: Het gaat over data.
599
00:40:46,320 --> 00:40:49,200
Niels: Je hoeft ze gelijk over data gaan.
600
00:40:50,800 --> 00:40:53,920
Niels: Ja, dat is mijn vakgebied.
601
00:40:54,159 --> 00:40:55,599
Joop: Daniël, kijk deze vraag is van Remy Lang.
602
00:40:55,760 --> 00:41:01,119
Joop: En hij zegt van je noemde de flow straks over handcode, GenAI handcode, deterministisch, mens.
603
00:41:01,280 --> 00:41:02,800
Joop: Kun je elke stap nog eens toelichten?
604
00:41:03,119 --> 00:41:11,599
Daniël: Dat kan, maar dan zitten we hier nog minstens een paar uur.
605
00:41:11,840 --> 00:41:12,799
Daniël: Ook daar en er is geen blueprint.
606
00:41:12,800 --> 00:41:14,960
Daniël: Maar als ik bijvoorbeeld kijkt naar wat wij nu aan het doen, zijn bij Civiqs AI zijn we rijksassistent aan het bouwen.
607
00:41:14,960 --> 00:41:19,360
Daniël: Rijksassistent.
608
00:41:19,360 --> 00:41:20,799
Daniël: Hebben wij voor ogen, is een veilige assistent die letterlijk alles weet van de Nederlandse wetten van rechtspraak, maar ook Europees, etc.
609
00:41:20,800 --> 00:41:25,759
Daniël: Nou, hoe doen we dat?
610
00:41:25,760 --> 00:41:28,319
Daniël: Dat doen we door te allereerst te zeggen data bij de bron.
611
00:41:28,320 --> 00:41:32,079
Daniël: Dus wij gebruiken alle, we halen live alle data gewoon bij de bron weg.
612
00:41:32,320 --> 00:41:35,679
Daniël: Dus dat we daar altijd goed zit.
613
00:41:35,679 --> 00:41:38,319
Daniël: Dus niet ouderwetse vector databases die op het moment dat ze gemaakt voor de ouderwets zijn.
614
00:41:38,320 --> 00:41:44,000
Daniël: Maar wat we dan doen is per stap, dat is één.
615
00:41:44,320 --> 00:41:49,279
Daniël: Dus je zorgt eerst dat je bij de data goed zit, dat is gewoon data is alles.
616
00:41:49,440 --> 00:41:52,480
Daniël: Maar dan ga je vervolgens bijvoorbeeld kijken in een planners stap.
617
00:41:52,480 --> 00:41:56,319
Daniël: Dus je laat die LLM bepalen, er komt een vraag binnen.
618
00:41:56,639 --> 00:41:58,880
Daniël: En de vraag kan heel simpel zijn: wat is artikel 7 van de grondwet, maar het kan ook een heel dossier zijn.
619
00:41:58,880 --> 00:42:02,559
Daniël: Van een medewerkersociaal domein, over de participatie, hele aantekeningen van een gezin.
620
00:42:02,559 --> 00:42:09,600
Daniël: Ja, dat wil je eigenlijk ook wel graag dat dat goed gaat.
621
00:42:10,239 --> 00:42:19,439
Daniël: Dus daar begint het mee, een soort intent recognition, een planner.
622
00:42:19,440 --> 00:42:20,960
Daniël: Het systeem gaat de route bepalen.
623
00:42:23,199 --> 00:42:24,880
Daniël: Waar ga ik welke data op welke manier vandaan halen om dit onder antwoord te komen?
624
00:42:24,960 --> 00:42:33,920
Joop: Ik denk dat ik deze vraagsteller, als ik het mag interpreteren, die vind ik denk ik vooral lastig van hoe mix je nou dat deterministische.
625
00:42:34,000 --> 00:42:35,840
Joop: En er zijn als je de agent zelf maakt, kan je bijvoorbeeld regels instellen, policies, die zeggen van hij mag niet duurder worden dan zoveel.
626
00:42:35,840 --> 00:42:38,400
Joop: Of je mag maar zoveel iteratie.
627
00:42:38,400 --> 00:42:41,360
Joop: Dat is het deterministische.
628
00:42:41,360 --> 00:42:42,880
Joop: Je kan kijken, van zitten er bepaalde stukken van tekst erin die die echt nooit mag geven, ja, daar begeef je op glad ijs.
629
00:42:42,960 --> 00:42:43,359
Daniël: Maar nee, maar het kan wel.
630
00:42:43,599 --> 00:42:47,120
Daniël: Je kunt zeggen semantisch gezien, maar wat jij zegt, is een heel belangrijk.
631
00:42:47,280 --> 00:42:48,400
Daniël: Dus dat je het allereerst leg je op voorhand al vast.
632
00:42:48,400 --> 00:42:49,199
Daniël: Welke bronnen mag je gebruiken?
633
00:42:50,000 --> 00:42:52,480
Daniël: Punt.
634
00:42:52,480 --> 00:42:55,519
Daniël: Dus niet dat het systeem lekker op het internet gaat zoeken en op nu.nl uitkomt.
635
00:42:55,679 --> 00:42:57,119
Joop: En dat kan je gewoon vastleggen.
636
00:42:57,119 --> 00:42:59,799
Daniël: Dat is gewoon altijd.
637
00:42:59,800 --> 00:43:02,919
Daniël: Dan kan de LLM, dan kan de agent zeggen, ik wil van alles doen.
638
00:42:59,679 --> 00:43:07,079
Daniël: Maar als de agent geen toegang heeft, dan heb je dat al gedaan.
639
00:43:07,159 --> 00:43:13,800
Daniël: Nou, die regels kun je hardcoden.
640
00:43:13,880 --> 00:43:17,960
Daniël: Je kunt ook weer een check daarachteraf op zetten, verificatie.
641
00:43:18,360 --> 00:43:21,160
Daniël: Nou ja, dat kun je een stukje lexicaal doen, is niet schaalbaar.
642
00:43:21,880 --> 00:43:29,400
Daniël: Maar wel voor belangrijke dingen en een stukje semantisch achteraf weer, dat er wordt gecontroleerd.
643
00:43:29,400 --> 00:43:32,199
Daniël: Oké, er is nu een antwoord geformuleerd, is dit antwoord echt helemaal wat uit de opgehouden bronnen klopt dat.
644
00:43:32,199 --> 00:43:37,159
Daniël: Maar ik blijf zeggen, 100% deterministisch ga je niet krijgen, zolang je Gen AI.
645
00:43:37,159 --> 00:43:47,880
Daniël: Die mens aan het einde is enorm belangrijk.
646
00:43:48,199 --> 00:43:50,919
Niels: Maar de regels tussendoor ook hoor, want dat zien we vanuit de praktijk ook met de agents die we zelf inrichten bij sport zien we ook echt goede kaders neerzetten.
647
00:43:50,920 --> 00:43:52,840
Niels: Keuzes die je niet mag maken omdat er geen grond iets is.
648
00:43:53,079 --> 00:43:54,760
Niels: Dat zijn zaken waar je echt de sturing mee kan beïnvloeden om die controle te doen.
649
00:43:57,000 --> 00:44:00,600
Joop: En voor degene die echt qua zelfbouw, zou ik willen geven, Microsoft is twee april zijn uitgekomen met het Microsoft Governance Toolkit.
650
00:44:01,239 --> 00:44:16,359
Joop: En daar kun je dit soort dingen gewoon echt in programmeren.
651
00:44:16,360 --> 00:44:22,039
Daniël: Zeg je dat nu tegen mij Joop?
652
00:44:22,039 --> 00:44:24,519
Joop: Tegen de luisteraar.
653
00:44:24,519 --> 00:44:27,000
Niels: De volgende vraag, sorry, als je na een verkeerd uitspreek, Cicile.
654
00:44:27,800 --> 00:44:29,400
Niels: Het is een opbouwende vraag, dus geef me even, is het niet het grootste gevaar dat het heel laagdrempelig is om een agent te bouwen, vergt niet altijd heel veel kennis om een agent te laten bouwen of zelf te bouwen.
655
00:44:30,039 --> 00:44:34,680
Niels: En aan de andere kant juist heel moeilijk is om te snappen hoe je risico's kunt herkennen en mitigeren.
656
00:44:35,000 --> 00:44:40,440
Niels: Dat vraagt namelijk weer heel veel technische kennis.
657
00:44:41,239 --> 00:44:43,559
Niels: Hoe ga je daar binnen een organisatie mee om?
658
00:44:44,519 --> 00:44:49,799
Gerard: Onwijs goede vraag.
659
00:44:49,960 --> 00:44:51,800
Gerard: Enzijds is natuurlijk wel gevaar dat iedereen zomaar even een agent kan bouwen en kan inzetten.
660
00:44:52,119 --> 00:44:58,039
Gerard: Ik hoop dat toch dat wij dat als bank detecteren als dat zou gebeuren.
661
00:44:58,039 --> 00:45:03,079
Gerard: Niks honderd procent, verwacht ik daarin.
662
00:45:03,079 --> 00:45:04,839
Gerard: Dus een enorme kans dat je daar efficiënter of kwalitatief beter werk mee kunt leveren.
663
00:45:05,559 --> 00:45:07,879
Gerard: Gelijkertijd.
664
00:45:07,880 --> 00:45:10,439
Gerard: Voor zie ik ook dat diegene die in boud niet het complete beeld heeft, dat het niet goed in kan schatten.
665
00:45:11,239 --> 00:45:12,920
Gerard: En wat betekent dit nou voor de complete organisatie, voegt het ook echt daadwerkelijk qua value iets toe voor de hele organisatie.
666
00:45:12,920 --> 00:45:14,600
Gerard: Maar wat zijn ook volgens de risico's.
667
00:45:14,599 --> 00:45:17,079
Gerard: Overziet hij dat vanuit de verschillende perspectieven.
668
00:45:22,599 --> 00:45:25,559
Gerard: Hij kan wellicht het all goed bedoelen.
669
00:45:25,559 --> 00:45:33,319
Gerard: Qua intentie altijd goed.
670
00:45:33,800 --> 00:45:35,319
Gerard: Tenminste, daar ga ik vanuit.
671
00:45:35,880 --> 00:45:37,719
Gerard: Maar het grotere plaatje wordt dan vaak gemist.
672
00:45:39,079 --> 00:45:43,800
Gerard: en dan zeker stept over wat gebeurt met de data, waar komt het model vandaan.
673
00:45:45,400 --> 00:45:49,320
Gerard: Dat soort vragen, daar wordt niet altijd bij stilgestaan en gedacht.
674
00:45:51,079 --> 00:45:53,079
Gerard: Oké, als Microsoft zegt van joh, data blijft gewoon in Europa, dan zal het wel zo zijn, of een andere provider geeft een provider.
675
00:45:53,800 --> 00:45:54,840
Gerard: Dat wordt vaak onderschat.
676
00:45:54,840 --> 00:45:58,679
Gerard: Daar maak ik me dan wel zorgen om.
677
00:45:58,840 --> 00:46:01,159
Gerard: Het goed kunnen inschatten van wat ben ik aan doen en wat voor effect kan dit hebben.
678
00:46:01,559 --> 00:46:03,159
Gerard: Daar heb je denk ik wel meer voor nodig dan iemand die even zelf een agent bouwt.
679
00:46:03,320 --> 00:46:06,679
Niels: Je wil innoveren, maar je wil verantwoord innoveren.
680
00:46:06,760 --> 00:46:07,960
Niels: Innoveren is leren.
681
00:46:07,960 --> 00:46:10,759
Niels: En daarna weer inderdaad wel die check en balances erop los kunnen laten.
682
00:46:10,920 --> 00:46:18,679
Gerard: En ook door verschillende ogen laten beoordelen.
683
00:46:18,679 --> 00:46:20,040
Daniël: En ik denk ook zo die technisch.
684
00:46:20,199 --> 00:46:24,280
Daniël: Dat is natuurlijk wel ook weer een soort wrijving.
685
00:46:26,039 --> 00:46:35,319
Daniël: Enerzijds is het heel makkelijk.
686
00:46:35,400 --> 00:46:38,839
Daniël: Mijn zoontje van 12 kan een agent bouwen in vijf minuten.
687
00:46:38,840 --> 00:46:41,640
Daniël: Maar anderzijds, de vraagsteller zegt ook, ja, maar moet je tegelijkertijd ook niet heel veel technische kennis hebben, om het ook dan nog eens een keer echt veilig in te zetten.
688
00:46:42,280 --> 00:46:47,320
Daniël: En dat is natuurlijk ook zo.
689
00:46:48,199 --> 00:46:51,000
Daniël: En ik denk dat wat Gerard net zegt, dat raakt ook spijt op zijn kop.
690
00:46:51,960 --> 00:46:54,519
Daniël: De vraag is als organisatie, kun je wel zeggen van, ik heb laatst letterlijk gehoord van overheden, krijg je geen naam noemen.
691
00:46:55,639 --> 00:46:56,599
Daniël: Maar die zeiden dan van joh, maar waarom zullen we die gewoon ChatGPT inzetten.
692
00:46:57,800 --> 00:46:59,559
Daniël: Of waarom gaan we niet zelf even een LLM'tje hosten?
693
00:46:59,559 --> 00:47:01,480
Daniël: Als je die vraag al stelt, dan zeg je geef je eigenlijk altijd op waar je staat als organisatie.
694
00:47:01,480 --> 00:47:02,760
Daniël: Dit is gewoon groot, daarom zeg ik ook wakker worden met z'n allen.
695
00:47:02,840 --> 00:47:04,280
Daniël: Je moet veel meer urgentie hebben.
696
00:47:04,840 --> 00:47:08,679
Joop: Er is nog één vraag.
697
00:47:08,920 --> 00:47:11,480
Joop: Daarna heb ik nog een afsluitende vraag.
698
00:47:11,480 --> 00:47:16,759
Niels: Dan is dat vanuit de gasten afsluitende vraag.
699
00:47:16,920 --> 00:47:20,599
Niels: Inderdaad daarna volgt een beetje van Joop.
700
00:47:20,599 --> 00:47:23,240
Niels: Ik vond hem heel leuk.
701
00:47:23,800 --> 00:47:25,559
Niels: Lucienne, sorry als ik het nou een keer uitspreken.
702
00:47:27,639 --> 00:47:28,679
Niels: Als Agentic AI en agent staat even tussen uit.
703
00:47:28,679 --> 00:47:33,639
Niels: Dus als AI en Agentic een sector als eerste solo zo mogen gaan doen.
704
00:47:34,280 --> 00:47:38,599
Niels: Zou je dan gaan laten vliegen of bankieren.
705
00:47:38,599 --> 00:47:43,399
Niels: Welke zou je dan de beste keuze vinden?
706
00:47:43,400 --> 00:47:44,279
Gerard: Ik zou toch zeggen vliegen.
707
00:47:44,280 --> 00:47:48,000
Daniël: Ik heb nieuws voor jullie.
708
00:47:48,000 --> 00:47:48,880
Daniël: Dit gebeurt al 20, 30 jaar, we hebben zoiets als CAT A/C Autoland.
709
00:47:48,880 --> 00:47:51,359
Daniël: Ik heb landingen gemaakt in de Boeing 747 waar ik niks mee mocht aanraken.
710
00:47:44,920 --> 00:47:52,400
Daniël: Dat ik officieel zelf niet mocht landen, maar het algoritme mocht laten landen.
711
00:47:52,559 --> 00:47:53,759
Daniël: Dus dit bestaat al.
712
00:47:53,760 --> 00:47:54,319
Daniël: Alleen de vraag is natuurlijk wel, in zekere zin zou je die piloten weg kunnen halen.
713
00:47:54,320 --> 00:47:56,239
Daniël: Kan helemaal autonoom.
714
00:47:56,800 --> 00:47:59,039
Daniël: Maar stap jij in een vliegtuig waar die piloot die zit?
715
00:47:59,039 --> 00:48:05,039
Niels: Nee, ik verlopig nog niet.
716
00:48:05,039 --> 00:48:09,199
Daniël: Nee, ik dus ook niet.
717
00:48:09,360 --> 00:48:13,279
Daniël: Ik ook niet.
718
00:48:13,280 --> 00:48:14,799
Daniël: Maar goed, zelf met bankeren.
719
00:48:14,960 --> 00:48:22,880
Daniël: De vraag is, het heeft al bij heel veel impact.
720
00:48:22,880 --> 00:48:25,440
Daniël: Dus ik denk bij allebei is het natuurlijk iets wat kan al, denk ik, ook bij bankeren zou het heel veel kunnen.
721
00:48:25,599 --> 00:48:30,880
Daniël: Maar de vraag is: moet je het al willen, voordat we echt wel heel goed van de hoek de rand weten eerst.
722
00:48:31,199 --> 00:48:33,280
Daniël: Dat is denk ik de vraag die je dan moet stellen, moet je het op dit moment wel willen.
723
00:48:37,760 --> 00:48:42,400
Daniël: En wat wil je wel en wat wil je niet?
724
00:48:43,360 --> 00:48:49,840
Niels: Dan gaan we recht in de afsluitende vraag van Joop voor jullie allebei, maar dat wil ik bij jou beginnen, Gerard, is dat we hadden natuurlijk maar een half uur op het podium.
725
00:48:50,320 --> 00:48:54,800
Joop: Jullie hebben de gesprekken voorbereid.
726
00:48:55,920 --> 00:49:00,559
Joop: Wat is nou een element of een vraag waar je op gehoopt had.
727
00:49:00,559 --> 00:49:06,719
Joop: Die niet gesteld is.
728
00:49:06,719 --> 00:49:12,000
Gerard: Misschien een beetje een open deur, maar van heb je nog een advies voor de mensen in de zaal.
729
00:49:12,239 --> 00:49:13,679
Gerard: Daar had ik me niet heel speciaal voorbereid, ik hoorde het ook wel een beetje zeggen of een beetje uitleg door Rob van Microsoft.
730
00:49:13,920 --> 00:49:16,879
Gerard: Dat is denk ik een hele basale, maar die gaat al heel erg op, denk ik, als je kijkt naar agents.
731
00:49:16,880 --> 00:49:18,639
Gerard: Behandel die nou gewoon als een collega, het is echt nogmaals een beetje een basaal voorbeeld.
732
00:49:18,719 --> 00:49:28,159
Gerard: Maar onboard zo'n agent nou heel bewust, geef hem gewoon beperkte rechten en monitor die agent.
733
00:49:28,320 --> 00:49:31,839
Gerard: Dat is volgens mij om het een beetje in de gedachte te houden van de mensen in publiek, denk ik wel een hele goede vergelijking.
734
00:49:32,480 --> 00:49:38,399
Gerard: Die vraag heb ik niet gehad.
735
00:49:38,400 --> 00:49:43,119
Joop: Nou, heel mooi, deze nog als aanvulling.
736
00:49:43,440 --> 00:49:44,960
Daniël: Ja, ik vul die dan ook gelijk even aan.
737
00:49:44,960 --> 00:49:46,559
Daniël: Grappig is: ik heb gisteren op een congres een keynote gehouden, waarbij ik het volgende zei: hoe bizar is het dat als wij een nieuwe collega's zoeken, vacature.
738
00:49:46,800 --> 00:49:50,480
Daniël: Dan krijgen we sollicitanten, die gaan we helemaal doorlichten.
739
00:49:50,639 --> 00:49:53,119
Daniël: Kijken wat voor ervaring heb je, wat voor opleiding, wat kun je allemaal, VOG vragen we aan.
740
00:49:53,360 --> 00:49:55,280
Daniël: Maar op het moment dat zo'n AI-agent binnenkomt, is het vaak een vinkje zetten bij.
741
00:49:56,880 --> 00:49:59,839
Daniël: De organisatie deden die eens.
742
00:49:59,840 --> 00:50:00,479
Daniël: En dat ding, dat wordt aan het werk gezet.
743
00:50:01,519 --> 00:50:05,359
Daniël: Dus ik pleit ervoor om, ik heb gisteren ook AI-VOG.
744
00:50:05,360 --> 00:50:06,479
Daniël: NL gekregen, ik weet nog niet wat ik ermee ga doen.
745
00:50:06,480 --> 00:50:08,559
Joop: Jammer, willen hebben.
746
00:50:08,559 --> 00:50:12,559
Joop: In de workshop hebben wij een AI agent vacature.
747
00:50:17,920 --> 00:50:19,279
Joop: Canvas.
748
00:50:20,000 --> 00:50:20,879
Joop: Ga je functioneel ga je inderdaad dit soort dingen, maar ook dus vertellen.
749
00:50:20,880 --> 00:50:22,160
Joop: Wat mag die niet?
750
00:50:22,800 --> 00:50:24,239
Joop: Want dat is natuurlijk ook altijd een grote vraag.
751
00:50:25,360 --> 00:50:27,680
Joop: En ik heb de Agent VOG canvas.
752
00:50:12,800 --> 00:50:17,440
Joop: Want er zijn natuurlijk heel veel ethische vragen, want daar gaat het eigenlijk over.
752
00:50:28,880 --> 00:50:39,280
Joop: Wat is nou goed gedrag?
753
00:50:39,920 --> 00:50:40,880
Joop: Ja, wat leuk.
754
00:50:40,880 --> 00:50:42,639
Joop: Dankjewel voor dit.
755
00:50:44,559 --> 00:50:47,440
Joop: Er was geen opzetje dit.
756
00:50:47,440 --> 00:50:54,800
Joop: Zo zie je maar de cirkels rond je.
Joop: En we hebben twee fantastische gasten.
4
00:00:14,480 --> 00:00:17,039
Joop: Waarbij de eerste gast is Gerard Koster.
5
00:00:17,039 --> 00:00:21,199
Joop: En hij werkt bij de Rabobank in de tweede lijn, Operational en IT Risk.
6
00:00:21,200 --> 00:00:27,919
Gerard: En hij houdt zich al meer dan 20 jaar bij de bank onafhankelijk toezicht op wat er technisch en operationeel gebeurt.
7
00:00:27,919 --> 00:00:28,879
Gerard: Zeg ik het zo goed.
8
00:00:29,839 --> 00:00:31,680
Gerard: En enorm betrokken bij AI uiteraard.
9
00:00:31,920 --> 00:00:33,920
Gerard: Zeker, want daarvoor zijn we hier vandaag.
10
00:00:33,920 --> 00:00:38,239
Gerard: En onze tweede gast Daniël Verloop, is AI-specialist bij gemeente Montferland.
11
00:00:38,239 --> 00:00:41,519
Gerard: Hij heeft recht gestudeerd, tien jaar piloot bij KLM geweest.
12
00:00:41,520 --> 00:00:44,880
Gerard: En werkt nu aan de vraag hoe de overheid AI verantwoord inzet.
13
00:00:44,960 --> 00:00:48,479
Gerard: En hij heeft zelf aan de lijve ervaren wat er gebeurt als een agent ontsnapt.
14
00:00:48,479 --> 00:00:51,440
Gerard: Klinkt interessant, geef ze een warm applaus.
15
00:00:54,960 --> 00:00:57,839
Gerard: Om maar meteen met de deur in huis te vallen.
16
00:00:57,839 --> 00:01:02,240
Joop: Als we autonome AI-systemen hebben, wie is er dan eigenlijk verantwoordelijk?
17
00:01:02,560 --> 00:01:06,799
Joop: Dat is een heel goede vraag en volgens mij heeft daar nog niemand het antwoord op.
18
00:01:07,120 --> 00:01:12,079
Gerard: Ik denk dat dat per organisatie heel erg verschilt.
19
00:01:12,079 --> 00:01:15,279
Gerard: Ook de manier en de reden waarom een agent wordt ingezet.
20
00:01:15,280 --> 00:01:22,320
Gerard: Maar wat ik wel kan zeggen, is dat je per definitie hier heel veel aandacht aan wil geven om voor jezelf te inventariseren in jouw organisatie, voor jouw use case.
21
00:01:22,560 --> 00:01:26,480
Gerard: Hoe zorgen we ervoor dat we echt grip houden op deze zeker autonome agent?
22
00:01:26,640 --> 00:01:28,880
Gerard: Heb jij er ook geen antwoord op, Gerard?
23
00:01:29,680 --> 00:01:31,120
Gerard: Misschien wel iets concreter.
24
00:01:31,920 --> 00:01:36,879
Gerard: Als je net ook in de presentatie van Rob behoorden van Microsoft, je moet wel voor zorgen dat een agent een eigenaar heeft.
25
00:01:36,880 --> 00:01:38,799
Gerard: Dus daar begint het in mijn optiek wel mee.
26
00:01:38,800 --> 00:01:47,120
Gerard: Dus de eigenaar van een agent is natuurlijk wel uiteindelijk verantwoordelijk voor wat er gebeurt binnen de organisatie en wat voor besluiten en wat activiteiten die agent.
27
00:01:47,120 --> 00:01:49,519
Gerard: Ja, en GI is er al wat langer.
28
00:01:49,519 --> 00:01:51,519
Gerard: En agente is de nieuwe wave.
29
00:01:51,519 --> 00:01:56,079
Gerard: Wat voor verschillen zie je bij de introductie van Agentic AI.
30
00:01:56,080 --> 00:01:58,079
Gerard: Ten opzichte van Gen AI.
31
00:02:01,760 --> 00:02:05,759
Gerard: Dus binnen de Rabobank hebben we nog geen agent live op dit moment.
32
00:02:06,080 --> 00:02:09,680
Gerard: Het verschil is natuurlijk wel dat bij GenAI zie je dus vooral dat.
33
00:02:09,680 --> 00:02:17,120
Gerard: Je kijkt naar de output, wat levert nou zo'n AI-systeem, wat komt eruit, is het betrouwbaar, is het veilig.
34
00:02:17,120 --> 00:02:18,800
Gerard: Je kijk naar wijze van privacy.
35
00:02:19,039 --> 00:02:20,640
Gerard: Dat doe je ook denk ik wel bij agents.
36
00:02:20,639 --> 00:02:22,320
Gerard: Alleen daar wordt de scope breder.
37
00:02:22,319 --> 00:02:24,479
Gerard: Dan ga je ook kijken naar wat doet nou zo'n agent.
38
00:02:26,639 --> 00:02:28,560
Gerard: Houdt ze zich aan het mandaat.
39
00:02:29,120 --> 00:02:36,560
Gerard: En wat ik waar gaf binnen de Rabobank zijn we nu nog niet zover we agents in productie hebben staan, maar wel aan het experimenteren zijn.
40
00:02:36,560 --> 00:02:45,919
Gerard: Dus wat we vooral willen doen, is kijken zonder het vooraf dicht te timmeren, wat doet nou zo'n agent, houdt hij zich aan de afspraken, gebruikt u alleen nog autoriseerde tools.
41
00:02:45,919 --> 00:02:49,199
Gerard: Hoe werkt nou die realtime monitoring die je graag wil zien.
42
00:02:49,759 --> 00:02:52,400
Gerard: En die noodknop van die killswitch: hoe werkt dat dan?
43
00:02:52,399 --> 00:02:53,439
Gerard: En hoe kunnen we hem inzetten.
44
00:02:53,439 --> 00:02:54,800
Gerard: Dus daar staan we op dit moment.
45
00:02:54,800 --> 00:02:57,280
Gerard: En dat is even de positie vanuit de bank.
46
00:02:57,439 --> 00:03:02,639
Gerard: En verandert er dan veel op het governance vlak, of is het veel van hetzelfde of ga je er meer of dieper op in.
47
00:03:02,639 --> 00:03:06,399
Gerard: Wat ik verwacht aan ten aanzien van governance dan even zo gezegd.
48
00:03:06,800 --> 00:03:14,639
Niels: De traditionele om maar even zo te noemen: AI governance voor Jen is toch toch voorspelbaarder.
49
00:03:14,639 --> 00:03:17,199
Niels: En misschien ook beter toetsbaar.
50
00:03:17,199 --> 00:03:21,280
Niels: Aan de kant van agentic zie ik daar toch meer dynamiek ontstaan.
51
00:03:21,359 --> 00:03:27,040
Niels: Dat je toch op meer actie gericht of in het proces moet willen ingrijpen.
52
00:03:27,120 --> 00:03:29,760
Niels: Meer technische maatregelen die je wil terugzien.
53
00:03:30,000 --> 00:03:31,120
Daniël: Die zou verwachten.
54
00:03:31,599 --> 00:03:35,040
Daniël: Dat je een mandaat meegeeft aan een agent.
55
00:03:35,040 --> 00:03:40,479
Daniël: Dat je duidelijk aangeeft wat hij wel niet mag, en dat je daar ook met technische controle kunt ingrijpen.
56
00:03:40,719 --> 00:03:43,680
Daniël: Daniël, jij bent iets verder met het bouwen van de agents.
57
00:03:43,760 --> 00:03:46,719
Daniël: Je bent AI-specialist bij de gemeente.
58
00:03:46,719 --> 00:03:47,920
Daniël: Hoe zie jij dat?
59
00:03:47,920 --> 00:03:50,159
Daniël: Nou, ik sluit me helemaal aan bij wat Gerard zegt.
60
00:03:50,159 --> 00:03:55,359
Daniël: En je vroeg net daar begon je mee van: hoe zorg je ervoor dat we die governance op orde houden.
61
00:03:55,360 --> 00:03:58,719
Daniël: En ik stelde toen dat weet nog niemand.
62
00:03:58,719 --> 00:04:00,879
Daniël: Ik zal het wat nuanceren dan.
63
00:04:01,439 --> 00:04:02,560
Daniël: Een aantal punten.
64
00:04:02,560 --> 00:04:04,400
Daniël: Ik denk: heel recent is.
65
00:04:04,639 --> 00:04:09,680
Daniël: Er is onlangs door Entropic bijvoorbeeld het model Mythos geïntroduceerd.
66
00:04:09,680 --> 00:04:11,280
Daniël: Dat is een paar dagen geleden.
67
00:04:11,599 --> 00:04:16,879
Daniël: Dat is een model waar ze nu mee naar buiten komen, en hebben gesteld dat gaan we nog niet vrijgeven aan het publiek.
68
00:04:16,879 --> 00:04:17,520
Daniël: Waarom niet?
69
00:04:17,519 --> 00:04:21,599
Daniël: We hebben nu gezien dat dit zo krachtig en competent en capabel is.
70
00:04:21,920 --> 00:04:23,519
Daniël: Met name op het gebied van code.
71
00:04:23,519 --> 00:04:26,879
Daniël: Laten we eerlijk zijn tegenwoordig is alles wat we doen heeft met code te maken.
72
00:04:27,360 --> 00:04:32,240
Daniël: Het komt bijvoorbeeld bugs vinden, die al 40 jaar lang in code staat.
73
00:04:32,240 --> 00:04:36,959
Daniël: Het kon allerlei verbanden leggen tussen repo's over repo's heen.
74
00:04:36,960 --> 00:04:41,600
Niels: Om daarmee dus echt allemaal ook malware en zo te creëren.
75
00:04:41,920 --> 00:04:50,159
Niels: Met andere woorden, we komen nu echt wel in het territorium waarbij dit agents zo capabel en competent zijn.
76
00:04:50,159 --> 00:04:52,320
Daniël: En wij als mensen dat eigenlijk niet meer kunnen bijhouden.
77
00:04:52,319 --> 00:04:55,839
Daniël: En dat is de reden dat ik zeg niemand weet eigenlijk nog echt wat die autonomie is.
78
00:04:55,919 --> 00:04:57,600
Daniël: Want het werd net al gezegd ook.
79
00:04:57,600 --> 00:05:02,439
Daniël: Een agent die is ontsnapt, ja, dat heb ik echt serieus meegemaakt een maand of twee geleden.
80
00:05:02,839 --> 00:05:03,879
Daniël: Zal ik het even kort toe?
81
00:05:05,399 --> 00:05:09,240
Daniël: Ja, ik werk, wij werken bij Civiqs natuurlijk heel veel.
82
00:05:09,240 --> 00:05:12,120
Daniël: Ook echt aan de cutting edge met dit soort systemen.
83
00:05:12,120 --> 00:05:14,919
Daniël: Vroeger was het prompt engineering, toen werd het context engineering.
84
00:05:14,920 --> 00:05:17,639
Daniël: Tegenwoordig is het harness engineering.
85
00:05:17,720 --> 00:05:20,199
Daniël: Het model zelf maakt eigenlijk niet zo heel veel meer uit.
86
00:05:20,519 --> 00:05:23,720
Daniël: De modellen zijn allemaal bijzonder competent.
87
00:05:23,720 --> 00:05:26,199
Daniël: Het is meer het hele systeem wat je eromheen doet.
88
00:05:26,199 --> 00:05:27,000
Daniël: Het harness.
89
00:05:27,000 --> 00:05:28,360
Daniël: Je hebt een wild paard.
90
00:05:28,360 --> 00:05:29,639
Niels: Superkrachtig.
91
00:05:29,639 --> 00:05:32,279
Niels: Maar je moet het beteugelen om er daadwerkelijk wat mee te kunnen.
92
00:05:32,279 --> 00:05:34,120
Niels: Nou, dat is dat harness engineering.
93
00:05:34,120 --> 00:05:35,639
Niels: Dus daar zijn we heel druk mee bezig.
94
00:05:35,639 --> 00:05:41,319
Niels: En dat doen we dan, zeker ik als oud-piloot op basis van standard operating procedures, checklists.
95
00:05:41,399 --> 00:05:43,399
Niels: Controle, controle, controle.
96
00:05:43,720 --> 00:05:52,439
Joop: Maar dan nog een week of inmiddels anderhalf maand geleden of zo, hadden we een agent waar we aan het bouwen op echt helemaal autonoom, lokaal op eigen hardware.
97
00:05:52,680 --> 00:05:54,759
Joop: En ik werd afgeleid.
98
00:05:54,759 --> 00:05:58,280
Joop: Ze hadden dat gedaan en gewoon alle checklists langs, agent stond klaar.
99
00:05:58,279 --> 00:05:59,159
Gerard: Ik werd afgeleid.
100
00:05:59,240 --> 00:06:01,720
Gerard: Ik moest tussendoor ook nog eens een offerte maken voor een klant.
101
00:06:01,720 --> 00:06:04,520
Gerard: Dus ik begin aan die offerte, vervolgens word ik weer afgeleid.
102
00:06:04,519 --> 00:06:05,480
Gerard: De telefoon gaat.
103
00:06:06,039 --> 00:06:12,680
Gerard: Langvouwkort, ik word een uur of drie later word ik gebeld door de klant waarvoor ik 's middags die offerte aan het maken was.
104
00:06:13,000 --> 00:06:14,519
Gerard: Dus ik neem op.
105
00:06:14,519 --> 00:06:17,319
Gerard: En hij zegt, Daniël, dankjewel, dat heb je snel gedaan.
106
00:06:17,720 --> 00:06:19,640
Gerard: Akkoord, goede offerte.
107
00:06:19,960 --> 00:06:22,199
Gerard: Ik denk, nou breek me klomp.
108
00:06:22,519 --> 00:06:31,160
Gerard: Nou, wat bleek, die agent, ik had ondanks alle checks, alle balancers, alle standard operating procedures, was er toch één klein deurtje open blijven staan.
109
00:06:31,159 --> 00:06:35,079
Gerard: En dit was specifiek een autonome proactieve agent.
110
00:06:36,199 --> 00:06:37,399
Gerard: En dat systeem had gezien.
111
00:06:37,399 --> 00:06:39,639
Gerard: Hey, Daniël is bezig met een offerte.
112
00:06:39,639 --> 00:06:41,879
Gerard: Ik zie dat het nu al een tijdje open staat.
113
00:06:41,879 --> 00:06:46,040
Gerard: Laat ik hem even druk zijn, laat ik helpen, heeft de offerte afgemaakt en gemaild.
114
00:06:46,600 --> 00:06:48,680
Gerard: Ook nog eens een keer met mijn naam eronder.
115
00:06:49,000 --> 00:06:51,399
Gerard: Dus dat was een geschikte, was je tevreden met offerte.
116
00:06:51,560 --> 00:06:53,639
Gerard: Ik was heel tevreden met offerte dat wel.
117
00:06:54,199 --> 00:06:59,399
Gerard: Ik heb het ook eerlijk gezegd tegen de klant specifiek, ik zeg, nou, fijn, maar even eerlijk naartoe, dat is wel een leuk verhaal.
118
00:06:59,399 --> 00:07:03,080
Gerard: Maar toen bedacht ik me achteraf wel: jeetje, nu is het goed afgelopen.
119
00:07:03,319 --> 00:07:07,640
Gerard: Maar wie zegt niet als wij bij de overheid dit straks allemaal zo gaan doen, dat het een heel andere kant op gaat.
120
00:07:07,639 --> 00:07:08,920
Gerard: Wat kan ook.
121
00:07:09,000 --> 00:07:15,319
Gerard: En wat heb je in je sub of in je standard operating procedure of checklist aangepast om dit in de toekomst dan te voorkomen?
122
00:07:15,960 --> 00:07:17,240
Gerard: Goeie vraag.
123
00:07:17,240 --> 00:07:18,920
Gerard: Heel veel, want we hadden al veel.
124
00:07:18,919 --> 00:07:22,120
Gerard: Want wat wij nu echt doen, is met daarom ben ik ook heel blij om te horen van de sandbox en zo.
125
00:07:22,120 --> 00:07:25,319
Gerard: Maar dat is dat je wil isoleren, nog een keer isoleren.
126
00:07:25,319 --> 00:07:28,360
Joop: Een van de dingen die we nu ook hebben gedaan, dat klinkt vreemd.
127
00:07:28,519 --> 00:07:30,360
Gerard: Want die systemen maken allemaal logs.
128
00:07:30,360 --> 00:07:31,639
Gerard: Dat is natuurlijk een beetje basaal.
129
00:07:31,639 --> 00:07:37,320
Gerard: Dat je altijd de logs wil kunnen terugzien, dat je heel erg op microniveau kunt zien, wat er is allemaal gebeurt.
130
00:07:37,319 --> 00:07:46,840
Gerard: Maar wat blijkt nou als die logs worden gemaakt in hetzelfde ecosysteem als waar die agents opereren, kunnen ze in principe de logs gewoon aanpassen of wissen, zonder dat je het weet.
131
00:07:46,840 --> 00:07:49,239
Gerard: Dus je wil dus een isolatie hebben van je logs.
132
00:07:49,240 --> 00:07:50,599
Gerard: Dus daar moet het systeem niet bij komen.
133
00:07:50,600 --> 00:07:51,560
Gerard: Dus dat soort dingen.
134
00:07:51,560 --> 00:07:54,040
Gerard: Maar ik ben van mening dat ook dat nog niet waterdicht is.
135
00:07:54,039 --> 00:07:58,040
Niels: Dus ik denk dat wij de komende jaren echt heel veel gaan ontdekken.
136
00:07:58,039 --> 00:08:01,719
Niels: En dat is vanuit mijn professionele perspectief natuurlijk heel spannend.
137
00:08:01,720 --> 00:08:05,160
Niels: Maar ik vrees ook wel dat het gaat leiden tot grote problemen.
138
00:08:05,399 --> 00:08:11,079
Daniël: Gerard, volgens mij zitten jullie in de ontdekkende fase rondom Agentic AI.
139
00:08:11,080 --> 00:08:17,719
Daniël: Wat maakt voor jou het werk, wat verandert in jouw werk met de komst van Agentic AI?
140
00:08:21,879 --> 00:08:25,079
Daniël: We kijken nu vooral naar binnen het bank iets in productie, Gen AI.
141
00:08:25,079 --> 00:08:26,920
Daniël: Dus daar kijken we actief op mee.
142
00:08:27,079 --> 00:08:32,760
Daniël: Daarin is mijn werk wel veranderd, omdat je steeds meer met andere specialisten in aanraking komt.
143
00:08:32,920 --> 00:08:41,080
Daniël: Voor mij persoonlijk betekent ook mensen van Model Risk Management bijvoorbeeld meedoen aan het kijken naar en valideren van AI use cases, dat maakt mijn werk wel echt anders.
144
00:08:41,080 --> 00:08:45,559
Daniël: waarin je voor één best wel specifiek keek naar operational risk, maar het is nu toch veel breder.
145
00:08:46,680 --> 00:08:51,320
Daniël: Ik zei naar het model, naar privacy aspecten, maar ook naar compliance aspect.
146
00:08:52,920 --> 00:08:53,560
Daniël: Met klanten.
147
00:08:54,039 --> 00:08:55,639
Daniël: Daar zitten dus hoeven aan.
148
00:08:55,720 --> 00:08:59,319
Daniël: Zullen de beveiligingsaspecten horen valt dat ook daaronder?
149
00:08:59,319 --> 00:09:01,080
Daniël: Het valt daar zeker ook onder.
150
00:09:02,039 --> 00:09:03,879
Daniël: Wij houden dus ook toezicht op.
151
00:09:06,440 --> 00:09:09,640
Daniël: Aan de beveiligingsstandaarden die we als bank graag willen hebben.
152
00:09:09,879 --> 00:09:17,799
Daniël: We hebben heel veel contact met onze CISO office om te kijken van hoe veilig zijn die Gen AI-systemen of de AI-systemen die we bouwen.
153
00:09:17,799 --> 00:09:19,399
Daniël: Dus ook daar is daar focus op.
154
00:09:19,400 --> 00:09:21,080
Unknown: Maar dat is ook tegelijkertijd.
155
00:09:21,079 --> 00:09:25,639
Gerard: We zeggen van, AI zien we niet als een specifiek risico, maar meer als een soort van risk driver.
156
00:09:27,720 --> 00:09:30,279
Gerard: Die we binnen de bank hebben, die houden we.
157
00:09:30,279 --> 00:09:32,840
Gerard: En die wordt beïnvloed door de technologie AI.
158
00:09:32,879 --> 00:09:34,680
Gerard: Dus dat blijft alweer hetzelfde.
159
00:09:34,920 --> 00:09:36,679
Gerard: En jullie zijn nu aan het experimenteren.
160
00:09:36,680 --> 00:09:39,640
Gerard: Wat heb je nu al geleerd in die experimenteerfase?
161
00:09:39,639 --> 00:09:44,040
Gerard: Waar best wel belangrijk zijn in de vervolgstap hierin qua governance.
162
00:09:44,000 --> 00:09:48,960
Gerard: Nou, dan moet ik toch eerlijk bekennen, we hebben een aantal learning points gedefinieerd en ik had gehoopt daar al wat meer inzicht in te hebben.
163
00:09:44,680 --> 00:09:50,560
Gerard: En dat is toch tot beter wel beperkt.
164
00:09:50,639 --> 00:09:57,279
Gerard: Het is toch wel echt lastig om sowieso specifiek te worden in je learning points en hoe ga je dan ook echt nog een keer goed testen en ook goed vastleggen.
165
00:09:57,279 --> 00:09:59,679
Niels: Dus echt de learnings die moeten nog wel komen.
166
00:09:59,679 --> 00:10:18,560
Niels: Maar ik ben erg geïnteresseerd in, wat ik al aangaf, we hebben het niet vooraf dicht gezet, we hebben vooral gekeken van ja, hoe kunnen we nou straks zien wat zo'n agent echt heeft gedaan, heeft ze gehouden aan de afspraak die we of de taken die we hebben meegegeven, gebruikt alleen de systemen waarvoor die geautoriseerd is, dat soort zaken willen we wel even bevestigd zien, dat dat ook echt gebeurt.
167
00:10:18,639 --> 00:10:24,959
Joop: Hebben jullie al, want Daniël gaf heel mooi aan, met de logs en dat je daarin kan kijken van wat een agent doet.
168
00:10:25,279 --> 00:10:32,000
Joop: Hebben jullie daar al iets in belegd van die isolatie waarheid over heeft of eigenaarschappen over die logs.
169
00:10:32,159 --> 00:10:34,879
Gerard: Zijn jullie op dat niveau bezig?
170
00:10:35,279 --> 00:10:41,920
Gerard: Nou ja, wel qua requirements hebben, we willen inderdaad dat wordt aangeven, we willen wel die log hebben en houden, zodat je dus een reconstructie kunt doen.
171
00:10:42,159 --> 00:10:45,920
Gerard: Wat ik net ook hoor, dan is dat belangrijk om dat ook goed te isoleren.
172
00:10:45,919 --> 00:10:51,440
Gerard: Dus dat zijn wel learnings die nu meeneemen, maar ook wel in de praktijk tegenkwam.
173
00:10:51,600 --> 00:11:02,479
Gerard: Dus dat daar echt een belangrijke controle zit om later die reconstructie te doen en te kunnen zien waarom heeft nou die agent, die beslispaden afgelopen.
174
00:11:02,480 --> 00:11:06,240
Gerard: En jullie zijn allebei werkzaam in een gereguleerde omgeving.
175
00:11:06,559 --> 00:11:10,319
Gerard: Wat geeft dat aan extra eisen aan de governance?
176
00:11:10,480 --> 00:11:15,040
Gerard: Nou ja, ik heb het altijd over Govgrade requirements.
177
00:11:16,159 --> 00:11:16,800
Gerard: Wat bedoel je dan?
178
00:11:16,879 --> 00:11:18,879
Gerard: Als kijk naar governance, wat is Govgrade.
179
00:11:18,879 --> 00:11:23,120
Gerard: Is dat je echt, dus kom ik even weer terug, die isolatie, autonomie.
180
00:11:23,120 --> 00:11:28,879
Gerard: Maar ook die autonomiegrenzen moet je niet vastleggen met soft grenzen.
181
00:11:29,200 --> 00:11:31,040
Gerard: Ik hoor we soms als organisaties.
182
00:11:31,039 --> 00:11:34,159
Gerard: Ja, we prompten onze copilot dat hij dat niet mag doen.
183
00:11:34,159 --> 00:11:36,399
Gerard: Of dat hij moet zeggen hoe zeker die is onze zaak.
184
00:11:36,399 --> 00:11:45,759
Gerard: Ja, op het moment dat je een Gen AI-systeem gaat vragen om een percentage te geven hoe zeker die is, dan heb je echt niet heel goed begrepen waar je mee bezig ben, maar dat is wel de realiteit.
185
00:11:46,080 --> 00:11:49,920
Joop: Dus ik pleit ervoor, die autonomie grenzen, dat moet gewoon hardcode zijn.
186
00:11:49,920 --> 00:11:50,399
Joop: Dat kan.
187
00:11:50,399 --> 00:11:53,919
Joop: Je kunt met hele slimme prompt engineering.
188
00:11:53,919 --> 00:11:56,399
Joop: Echt bepaalde stappen die zo'n agent neemt.
189
00:11:56,399 --> 00:11:59,600
Joop: Heel erg hard in de code neerzetten, dat het deterministisch is.
190
00:11:59,600 --> 00:12:08,479
Joop: En dan de stappen waarbij zo'n LLM, zo'n competente LLM met natural language understanding en processing tot zijn recht moet komen, dan laat je hem vrij.
191
00:12:08,480 --> 00:12:13,840
Joop: Maar daarna komt er bijvoorbeeld weer een verificatie stap die weer deterministisch is.
192
00:12:13,840 --> 00:12:20,000
Gerard: En dan nog, zolang je met AI werkt, zul je in praktijk nooit honderd procent zeker kunnen zijn.
193
00:12:20,000 --> 00:12:21,920
Gerard: Dan krijg je nog die laatste laag.
194
00:12:21,920 --> 00:12:24,080
Gerard: Waar ook de AI echt heel duidelijk over is.
195
00:12:24,080 --> 00:12:27,440
Gerard: Dus dat is dan, wij als professionals controleren de output.
196
00:12:27,440 --> 00:12:28,239
Gerard: Dat blijft gewoon.
197
00:12:28,559 --> 00:12:29,920
Gerard: Dus al een paar keer gezegd.
198
00:12:29,920 --> 00:12:33,600
Joop: AI gaat ons niet vervangen, lijkt me ook geen goed idee.
199
00:12:33,919 --> 00:12:37,600
Gerard: Wij blijven als een soort laatste check.
200
00:12:37,680 --> 00:12:40,480
Gerard: Kijken van klopt die output, en is het goed gegaan.
201
00:12:40,480 --> 00:12:42,240
Gerard: En dat is voor mij is dat Govgrade.
202
00:12:42,240 --> 00:12:43,919
Gerard: Dus een heleboel stappen.
203
00:12:43,919 --> 00:12:44,639
Gerard: Hardcode.
204
00:12:44,639 --> 00:12:50,399
Gerard: Een stukje AI lekker gang gaan, weer hardcode, deterministisch en dan uiteindelijk ultimo de.
205
00:12:50,639 --> 00:12:52,800
Gerard: De professional die bepaalt, is het goed.
206
00:12:53,759 --> 00:13:00,240
Gerard: Zie je ook verandering omdat jullie een minste extra eis, omdat jullie in een gereguleerde omgeving zitten?
207
00:13:01,519 --> 00:13:04,720
Gerard: In ieder geval extra uitdaging, laat ik dat even zo formuleren.
208
00:13:05,279 --> 00:13:10,080
Niels: Wat je nu vooral hebt, is het dilemma van autonomie versus controle.
209
00:13:10,079 --> 00:13:15,759
Niels: Je wilt het liefst enige autonomie geven aan een agent, anders is het een soort van tandenloze tijger, dan heb je niks aan.
210
00:13:16,000 --> 00:13:18,639
Niels: Dus je wilt toch kijken hoe ver je daarin kunt gaan.
211
00:13:18,639 --> 00:13:28,399
Joop: En tegelijkertijd zit je in een gereguleerde gereguleerde organisatie waarin je moet kunnen aantonen wat een systeem doet, waarom die dat doet, wie verantwoordelijk is, hoe je kunt ingrijpen.
212
00:13:28,399 --> 00:13:31,760
Joop: En dat zijn ook zaken die je dan goed in beeld moet krijgen van zo'n agent.
213
00:13:31,920 --> 00:13:34,480
Joop: Dat is wel echt een uitdaging die ik zie.
214
00:13:34,480 --> 00:13:42,879
Niels: En dan kom je dus al snel ook wel Daniël aangeeft in toch die technische maatregelen die je dan moet inrichten om zeker voor agents om daar enige grip op te houden.
215
00:13:42,879 --> 00:13:51,200
Niels: En ja, los van de governance die je op papier hebt, je toch ook iets meer in de techniek hebben om de enige zekerheid aan te kunnen verbinden.
216
00:13:51,200 --> 00:13:55,919
Niels: En in de experimenteerfase, waar heb je dan de vrijheid en waar heb je minder vrijheid?
217
00:13:55,919 --> 00:13:59,760
Niels: Want in experimenteren betekent ook dingen proberen, waar het wel eens fout kan gaan.
218
00:13:59,759 --> 00:14:01,040
Niels: Hoe maak je daar de afweging?
219
00:14:01,039 --> 00:14:04,000
Niels: Waar mag ik wel experimenteren, waar mag ik niet experimenteren.
220
00:14:05,200 --> 00:14:14,480
Daniël: In generieke zin hebben wij een soort van labomgeving waarin je zonder klantdata een soort van je gang kan gaan.
221
00:14:14,639 --> 00:14:22,960
Daniël: En wat ik al aangaf, voor ons is heel bewust om te testen wat er nou gebeurt als we zo'n agent een beetje losser laten dan we misschien in de praktijk zouden doen.
222
00:14:22,960 --> 00:14:25,919
Daniël: Dus daar willen we vooral nu naar kijken en van leren.
223
00:14:25,919 --> 00:14:30,120
Daniël: Dus ja, er kan echt wel veel om kunnen kijken wat er gebeurt.
224
00:14:30,120 --> 00:14:32,840
Daniël: En zie je al iets waar je zegt van nou daar gaan we echt wel de rem op zetten.
225
00:14:32,840 --> 00:14:38,680
Daniël: Of nou dat is echt een enorme jet engine als we het even in de vliegsfeer houden.
226
00:14:39,559 --> 00:14:40,600
Daniël: Voor mij nog niet.
227
00:14:40,600 --> 00:14:42,920
Daniël: Dus ik hoop daar wel binnenkort meer duidelijkheid over te krijgen.
228
00:14:42,919 --> 00:14:44,280
Daniël: Ja, zeker.
229
00:14:45,720 --> 00:14:52,760
Daniël: We hebben het in het verleden gehad, dat heel veel mensen in één keer in Excel van allerlei dingen konden maken.
230
00:14:53,399 --> 00:14:56,519
Daniël: In mijn beleving heeft dat de hel of Excel opgeleverd.
231
00:14:56,519 --> 00:15:05,159
Daniël: Hoe zorgen jullie er nou voor in je eigen omgeving, dat je niet een wild groei krijgt aan agents die iedereen overal maar kan bakken, in Copilot Studio.
232
00:15:05,799 --> 00:15:09,320
Daniël: Toch misschien wel in de shadow IT die er is.
233
00:15:09,639 --> 00:15:11,559
Daniël: Hoe hou je dat in de klauwen?
234
00:15:11,559 --> 00:15:14,600
Daniël: Bij Montferland zijn we daar heel erg zitten we er heel dichtboven op.
235
00:15:14,600 --> 00:15:15,799
Daniël: Wij hebben dit ook vastgesteld.
236
00:15:15,960 --> 00:15:22,040
Daniël: Op een gegeven moment als je mensen deze competentie geeft, dan is echt een gek van de dam.
237
00:15:22,360 --> 00:15:23,879
Daniël: Dan gaan mensen los, willen ook los.
238
00:15:23,879 --> 00:15:26,039
Daniël: Die zien van dit kan, ik heb dit idee.
239
00:15:26,440 --> 00:15:34,440
Daniël: Al vrij snel kwamen we tot de conclusie, als we dit zo vrij loop laten, dan hebben we inderdaad straks duizend agents en niemand meer wat.
240
00:15:34,759 --> 00:15:44,200
Niels: Maar gelukkig hebben we bij Montferland ook al heel snel ingezet op niet alleen die actielaag die doen, maar ook het denken en analyseren met een AI-governance board.
241
00:15:44,200 --> 00:15:47,799
Gerard: Dus die twee sporen lopen in parallel en daar wij vastgesteld, luisteren.
242
00:15:47,799 --> 00:15:51,240
Gerard: Volgens nog houden wij dit wel heel beperkt binnen onze eigen regie.
243
00:15:51,319 --> 00:15:56,759
Gerard: Dus we hebben daar gewoon een protocol voor als iemand een agent wil inzetten, of niet voor bouwen inzetten.
244
00:15:56,759 --> 00:15:58,040
Gerard: Dan gaat het alle stapjes.
245
00:15:58,200 --> 00:16:00,759
Gerard: Dat gaat snel hoor, dat hoeft niet heel bureaucratisch.
246
00:16:00,759 --> 00:16:03,960
Gerard: Maar dat wij wel de grip erop houden, ja, dat is heel belangrijk.
247
00:16:03,960 --> 00:16:06,040
Gerard: Bij Civics doen we dat anders.
248
00:16:06,039 --> 00:16:11,080
Gerard: Daar laten we die governance nu inmiddels doen, als deel hoor, echt wel experimenteel.
249
00:16:11,080 --> 00:16:14,360
Gerard: Maar daar ben ik echt verbluffend.
250
00:16:14,360 --> 00:16:17,080
Gerard: Besteden we dat weer uit aan een hogere agent.
251
00:16:17,720 --> 00:16:18,279
Gerard: Spannend.
252
00:16:19,240 --> 00:16:20,360
Gerard: Maar het gaat goed hoor.
253
00:16:20,360 --> 00:16:21,240
Gerard: Ja, dat is bizar.
254
00:16:21,240 --> 00:16:26,600
Gerard: Die draait die draait drie, vier servers nu en allemaal agents daaronder.
255
00:16:26,600 --> 00:16:27,639
Gerard: Ja, het is echt absurd.
256
00:16:27,639 --> 00:16:29,000
Gerard: Wat doet hij beter dan.
257
00:16:31,000 --> 00:16:37,320
Gerard: Ja, ik maak mezelf een beetje overbodig eigenlijk, maar alles wat ik kan, en met alle respect, maar het is qua mensenwerk.
258
00:16:37,319 --> 00:16:39,399
Joop: Ik zie, wij hebben geen accountant meer.
259
00:16:39,399 --> 00:16:39,879
Joop: Dat is één.
260
00:16:39,879 --> 00:16:40,840
Joop: We hebben geen accountant meer.
261
00:16:40,840 --> 00:16:42,680
Niels: Dat is gewoon nu inmiddels bewezen.
262
00:16:43,000 --> 00:16:45,879
Niels: Onze accountant agent die regelt het allemaal.
263
00:16:45,879 --> 00:16:48,360
Niels: Nee, maar ik wil deze governance agent.
264
00:16:50,120 --> 00:16:52,120
Niels: Wat kan die wat jij niet kan?
265
00:16:52,279 --> 00:16:53,879
Niels: Het volledige overzicht houden.
266
00:16:54,039 --> 00:16:59,799
Niels: Dus die kan overal de logs uitlezen, die kan overal de processen uitlezen.
267
00:17:00,120 --> 00:17:04,839
Niels: Die kan heel snel oordelen of het conform al onze protocollen is.
268
00:17:06,680 --> 00:17:09,799
Daniël: Mens heeft er een dag voor nodig, die agent doet het allemaal binnen een minuut.
269
00:17:10,039 --> 00:17:14,279
Joop: Wat denk jij, zeg maar met de achtergrond van de bank hierover?
270
00:17:14,519 --> 00:17:16,839
Daniël: Dit gaat misschien een aantal stappen te ver.
271
00:17:17,160 --> 00:17:24,039
Daniël: Als bank kiezen wij eigenlijk voor een beetje behouden, aanpakken, zeker als het net over de bredere strategie van AI.
272
00:17:24,039 --> 00:17:28,919
Daniël: We kijken stap voor stap wat voor de bank goede use cases zijn, betrouwbare use cases, schaalbare use cases.
273
00:17:30,360 --> 00:17:32,519
Daniël: Zo kijken we op dit moment naar.
274
00:17:32,519 --> 00:17:35,000
Niels: Dat gaat ook via een soort van governance board.
275
00:17:35,480 --> 00:17:44,279
Daniël: We besluiten echt op basis van value, risk en andere ESG-achtige criteria wanneer we een use case wel of niet gaan doen.
276
00:17:45,240 --> 00:17:47,000
Daniël: En dat is hoe we er nu in zitten.
277
00:17:47,480 --> 00:17:49,480
Joop: Wie zitten bij jullie in het board?
278
00:17:50,119 --> 00:17:53,240
Gerard: Daar zit onder andere in sowieso natuurlijk de business.
279
00:17:53,240 --> 00:18:00,839
Gerard: Maar ook een Chief data analytics team officer eigenlijk, die zit daar geen iemand van de CRO, dus een risico persoon zit aan mij.
280
00:18:01,000 --> 00:18:06,279
Gerard: Dus het is wel echt een gewogen besluit die daar wordt genomen op wat we op gebied van AI doen binnen de bank.
281
00:18:06,519 --> 00:18:13,159
Daniël: En bij de gemeente bij de gemeente houden we als natuurlijk aan alle wetge richtlijnen doen we het gewoon nog met mensen, zeg maar.
282
00:18:13,559 --> 00:18:18,599
Daniël: Maar ik vond ik vind wel, ik vond de reactie wel leuk net van over governance uitbesteden aan een AI.
283
00:18:18,599 --> 00:18:21,160
Daniël: En wat jij zegt, nou dat gaat ons wel wat ver.
284
00:18:21,640 --> 00:18:22,759
Daniël: Ik snap die reactie.
285
00:18:22,759 --> 00:18:25,639
Daniël: En ik bedoel, ik ben zelf ook heel kritisch.
286
00:18:27,160 --> 00:18:30,680
Daniël: Ja, ik wil ik wil echt wel dingen zien en bewezen hebben.
287
00:18:30,680 --> 00:18:35,479
Daniël: Maar laten we eerlijk zijn, als je mensen die governance laat doen, gaat dat altijd goed.
288
00:18:35,799 --> 00:18:37,640
Daniël: Gaat het altijd goed bij de overheid?
289
00:18:37,639 --> 00:18:40,520
Daniël: Zijn wij met al die systemen zijn, wij de en bij de banken.
290
00:18:40,519 --> 00:18:44,839
Daniël: Zijn wij de uitgelezen governance apparaten, zouden.
291
00:18:46,119 --> 00:18:51,159
Daniël: Als ik net bijvoorbeeld ook hoor ik DNB zeggen, met alle gesprekken, dan schrok ik best wel van.
292
00:18:51,159 --> 00:18:55,319
Daniël: Van nee, maar het is niet zo dat als je zelf hosts per definitie veiliger is.
293
00:18:55,319 --> 00:18:58,759
Daniël: Dan denk ik een CISO van de DNB, die dit zegt.
294
00:18:58,759 --> 00:19:02,679
Daniël: Dan denk ik, heb je niet door dan op het moment dat je deze vergelijking maakt.
295
00:19:03,000 --> 00:19:05,080
Daniël: Al je data, gaat naar de states.
296
00:19:05,079 --> 00:19:07,000
Daniël: Daar wordt 100% wat mee gedaan.
297
00:19:07,000 --> 00:19:11,080
Daniël: En dan toch zeggen van, het is niet veiliger als we het zelf in eigen beheer zouden houden.
298
00:19:11,079 --> 00:19:16,800
Daniël: Ja, dan vraag ik mij af of je dan moet zeggen, per definitie mensen, maar governance laten met alle respect overigens voor Jeroen.
299
00:19:14,920 --> 00:19:20,720
Daniël: Dus ik denk dat we daar wel serieus naar moeten kijken.
300
00:19:20,799 --> 00:19:24,720
Daniël: Kijk, ik zeg niet, je moet het 100% uitbesteden, dat is nooit verstandig.
301
00:19:24,799 --> 00:19:27,360
Gerard: Probeer altijd wel een soort checks en balances te doen.
302
00:19:27,359 --> 00:19:36,240
Daniël: Maar ik vind het geen gek idee dat we langzaam gaan wennen aan het feit dat wij zelf, of dat wij naast AI die rollen steeds meer gaan combineren samen.
303
00:19:36,400 --> 00:19:37,279
Niels: Ik ben wel benieuwd.
304
00:19:37,519 --> 00:19:41,279
Niels: Je zegt aan de ene kant zit je de experimenteerfase, aan de andere kant zit je bij een gemeente.
305
00:19:50,400 --> 00:19:51,920
Niels: Wat doe je in de experimenteerfase, waar je zeggen als ze dat bij de gemeente doen, dan mag gewoon niet, of dat kan niet en hoe leer je van die twee?
306
00:19:53,039 --> 00:19:55,120
Daniël: Ja, vind ik een leuke vraag.
307
00:19:55,359 --> 00:19:58,399
Daniël: Ik doe het ook nog in privé zelfs dan nog.
308
00:19:58,640 --> 00:20:01,919
Daniël: Ik ben een beetje, ik word thuis ook altijd een nerd genoemd.
309
00:20:02,240 --> 00:20:04,079
Daniël: Familie zeg: je praat meer tegen je computer dan tegen ons.
310
00:20:09,039 --> 00:20:11,439
Daniël: Nee, flauwekul.
311
00:20:11,440 --> 00:20:13,839
Daniël: Nee, weet je, kijk, er zijn drie lagen eigenlijk.
312
00:20:13,839 --> 00:20:18,560
Daniël: Dus binnen de overheid, daar gaat het uit gewoon super strak.
313
00:20:18,799 --> 00:20:20,640
Daniël: Dan heb je de AI-act, je hebt AVG, net je bio, je hebt alle archief.
314
00:20:20,640 --> 00:20:21,759
Daniël: En daar hou je je aan.
315
00:20:22,480 --> 00:20:27,120
Daniël: En dan nog wat.
316
00:20:27,119 --> 00:20:30,160
Daniël: Bij Civics werken wij binnen een CVI werken we in sandboxes.
317
00:20:30,160 --> 00:20:31,679
Daniël: Gaan we verder, maar wel met de publieke sector in gedachten.
318
00:20:31,920 --> 00:20:38,799
Daniël: Dus gaan we niet gungho doen.
319
00:20:38,799 --> 00:20:41,439
Daniël: Proberen wel te kijken: hoe kunnen we deze nieuwe capabilities inzetten op een veilige, verantwoorde manier.
320
00:20:41,440 --> 00:20:43,039
Daniël: En zelf experimenteer ik met de meest bizarre dingen.
321
00:20:43,839 --> 00:20:45,599
Daniël: Ja, dan denk ik, goh, ja.
322
00:20:45,599 --> 00:20:50,960
Daniël: Er was een laatste vibecoder.
323
00:20:50,960 --> 00:20:55,279
Daniël: Een of andere knakker die een paar weken geleden op de zolderkamer vibecode had ontdekt.
324
00:20:55,279 --> 00:21:01,759
Daniël: En vervolgens had gezegd: joh, kijk eens even naar die McKinsey API van hun AI.
325
00:21:01,759 --> 00:21:04,240
Daniël: Heeft in een weekendje zijn AI, de Mackenzie API laten polsen, kwam toen twintig open endpoints tegen.
326
00:21:04,240 --> 00:21:08,960
Daniël: Dat ding heeft toen met een SQL injectie.
327
00:21:08,960 --> 00:21:10,000
Daniël: De hele hele database van McKinsey gedownload.
328
00:21:10,240 --> 00:21:11,200
Daniël: En dat is waar we zitten.
329
00:21:11,200 --> 00:21:16,159
Daniël: Hoe bizar is dat?
330
00:21:16,960 --> 00:21:18,319
Niels: Ja, en wat heb je daarvan geleerd wat we echt moeten gaan vatten in de governance en de processen die er nu al zitten?
331
00:21:21,759 --> 00:21:26,000
Daniël: Nou ja, God heb je even.
332
00:21:26,400 --> 00:21:27,680
Daniël: Overkoepend zou willen meegeven, ga er maar vanuit dat je niet voldoende governance hebt.
333
00:21:28,640 --> 00:21:33,519
Daniël: Dan zit je goed.
334
00:21:33,519 --> 00:21:35,919
Joop: Gerard, bij jou vanuit uit het tweede lijn, dus dan kijk jij mee natuurlijk met de eerste lijn.
335
00:21:35,920 --> 00:21:41,279
Joop: Wanneer heb je eens een keer op de rem getrapt?
336
00:21:43,680 --> 00:21:54,000
Gerard: Die zeggen van ja, dit gaan we niet doen, of misschien nu even niet doen.
337
00:21:54,000 --> 00:22:00,240
Gerard: Agentic is nog in experimentfase, maar ik kan me daar even bij houden, wel bij voorstellen, als je dus cases langs krijgt die vraag zijn geformuleerd.
338
00:22:00,240 --> 00:22:04,959
Gerard: Dus de taak omschrijven van een agent is onduidelijk of niet concreet genoeg, dan zou ik al zeggen, hier gaan we even wat op vertragen.
339
00:22:05,519 --> 00:22:10,559
Gerard: Eigenaarschap hebben het over gehad, die moet er zijn als die niet is, zou ik zeggen, even wachten.
340
00:22:10,559 --> 00:22:12,559
Gerard: Realtime monitoring, dat soort zaken, die killswitches, dat soort zaken wil je wel terugzien.
341
00:22:12,880 --> 00:22:18,000
Gerard: Voordat we ook echt iets gaan doen.
342
00:22:20,240 --> 00:22:27,200
Gerard: Uit dat perspectief zeg ik van ja, dan zou ik wel even op de remtrap om dat eerst goed te regelen.
343
00:22:28,079 --> 00:22:30,319
Joop: Is er een moment geweest, dat je iets hebt tegenhouden en dan misschien niet op het agendic AI.
344
00:22:30,319 --> 00:22:33,359
Joop: We hebben het ook over AI in governance vandaag.
345
00:22:36,880 --> 00:22:40,079
Joop: Waarvan je zegt van ja, maar dan had ik ook achteraf gelijk.
346
00:22:40,240 --> 00:22:41,839
Gerard: Ik kan hem zo snel niet.
347
00:22:42,079 --> 00:22:44,240
Joop: Misschien even wat bedenken, Daniël.
348
00:22:45,519 --> 00:22:47,279
Daniël: Ja, ik ben nooit zo bezig met gelijk krijgen.
349
00:22:47,279 --> 00:22:48,079
Daniël: Ik denk ik leer graag vooral iedere dag.
350
00:22:48,079 --> 00:22:59,759
Daniël: Wat dat bedoel ik eigenlijk.
351
00:23:00,319 --> 00:23:01,599
Daniël: Ik ga er maar vanuit dat je niet genoeg governance hebt, wist jij Joop dat AI onder de juiste omstandigheden in 80% van de gevallen als onderdruk wordt mensen blackmailt, hoe zeg je dat?
352
00:23:04,000 --> 00:23:05,199
Daniël: Ja, Blackmailt.
353
00:23:06,319 --> 00:23:10,799
Joop: Want deze paper heb ik gelezen.
354
00:23:12,400 --> 00:23:14,240
Joop: Je moet het taalmodel wel dwingen om je uiteindelijk ook te laten chanteer.
355
00:23:14,400 --> 00:23:17,759
Joop: Dat is wel even de nuance die erbij hoor.
356
00:23:17,759 --> 00:23:24,079
Daniël: Het was een lab setting en het was natuurlijk niet helemaal organisch.
357
00:23:24,319 --> 00:23:25,039
Daniël: Maar daar voeg ik het toch ook nog even toe dat in 40% van de gevallen dat hij ook bereid was tot moord.
358
00:23:26,880 --> 00:23:28,079
Daniël: Dat onderzoek.
359
00:23:28,079 --> 00:23:29,119
Daniël: Moet je maar eens opzoeken.
360
00:23:29,279 --> 00:23:34,160
Daniël: Dat is echt serieus.
361
00:23:34,960 --> 00:23:38,319
Daniël: En dat zijn dezelfde modellen waar een copilot nu mee werkt straks waar wij nu mee werken.
362
00:23:38,319 --> 00:23:41,759
Daniël: Om maar even een zijstraat te doen, zo kan ik dus nog wel 100 punten noemen.
363
00:23:41,759 --> 00:23:44,640
Daniël: Het is gewoon extreem veel wat er ineens op ons afkomt.
364
00:23:44,880 --> 00:23:48,000
Daniël: En ik denk dat we af moeten van alle oude standaarden.
365
00:23:48,000 --> 00:23:50,160
Daniël: We hebben software 2.0 nu gehad.
366
00:23:50,159 --> 00:24:00,359
Daniël: We hebben daarvoor wetten, we hebben daar weer richtlijnen.
367
00:24:00,599 --> 00:24:03,720
Daniël: Wat er nu aan gaat komen, ga er gewoon maar van uit dat het nog veel groter is en veel meer impact heeft op ons, onze samenleving, onze organisatie, onze mens.
368
00:23:59,920 --> 00:24:06,439
Daniël: En dat het goed is om daar nu alvast heel bewust van te worden.
369
00:24:07,400 --> 00:24:11,079
Daniël: En te gaan beginnen met kijken, zoeken, leren.
370
00:24:11,400 --> 00:24:12,920
Niels: Dat betekent natuurlijk wat voor de organisaties, ook voor de mensen in de zaal vandaag.
371
00:24:12,920 --> 00:24:13,720
Niels: Waar kan je starten dan?
372
00:24:13,720 --> 00:24:15,240
Niels: Hoe ga je starten?
373
00:24:15,720 --> 00:24:17,960
Niels: Want dit klinkt nogal heel breed.
374
00:24:18,920 --> 00:24:21,480
Joop: Misschien Gerard.
375
00:24:21,480 --> 00:24:24,200
Gerard: Voor mij als medewerker van een bank.
376
00:24:24,200 --> 00:24:27,480
Gerard: Waar je start, we hebben al een best van governance staan.
377
00:24:27,480 --> 00:24:34,600
Gerard: Dus daar haken we ook deze technologieën op aan.
378
00:24:34,599 --> 00:24:42,599
Gerard: Dus waar je start dat je in een kleinere setting goed zal moeten kijken van waar sta ik als bedrijf voor.
379
00:24:42,599 --> 00:24:45,399
Gerard: Maar als bank zijnde dan proberen het zoveel mogelijk op te nemen in onze bestaande structuren en governance afspraken die we hebben.
380
00:24:45,559 --> 00:24:47,319
Gerard: Dus ik vind het wel een lastige vraag om daar echt op.
381
00:24:47,640 --> 00:24:49,080
Joop: Is het een board topic?
382
00:24:49,079 --> 00:24:49,799
Joop: Wordt er in het board over gesproken?
383
00:24:50,440 --> 00:24:55,879
Gerard: Zeker absoluut.
384
00:24:55,880 --> 00:24:58,279
Gerard: Dus ook onze CEO gaat naar Silicon Valley raad, laat zich daar ook bij praten wat er gebeurt en wat belangrijk is.
385
00:25:01,559 --> 00:25:04,359
Gerard: Dus het is zeker een board topic.
386
00:25:04,359 --> 00:25:11,240
Gerard: En dat merk je ook wel.
387
00:25:11,240 --> 00:25:15,639
Gerard: Aan de andere kant ben ik ook wel blij om te horen dat je niet direct antwoord hebt.
388
00:25:15,880 --> 00:25:26,839
Gerard: Want dat betekent dat de processen die er nu zijn, al heel veel van de vraagstukken die nu ten tafel komen, er ook al gewoon nog steeds ingezet kunnen worden.
389
00:25:27,079 --> 00:25:33,639
Gerard: Dus ik denk dat eigenlijk voor mij is dat een geruststellend antwoord dat je er niet direct de andere reden.
390
00:25:33,799 --> 00:25:38,359
Gerard: En het klopt inderdaad wat je zegt, we maken heel veel soort van hergebruik van bestaande risico-instrumenten, maar ook dit soort AI-zaken te kunnen beoordelen.
391
00:25:38,440 --> 00:25:40,440
Joop: Er zijn best wel heel wat mensen die ervan balen dat er geen minister van Digitale Zaken is gekomen voor de zoveelste keer.
392
00:25:40,440 --> 00:25:43,640
Joop: Wordt er in de gemeente op politiek niveau gesproken over AI in governance.
393
00:25:43,640 --> 00:25:46,120
Daniël: Nou, dat begint nu vorm te krijgen.
394
00:25:46,119 --> 00:25:52,200
Daniël: Want wat wij ontdekken, is dat bij Montferland lopen we best wel voorop.
395
00:25:52,440 --> 00:25:55,960
Daniël: Als we de pers mogen geloven.
396
00:25:55,960 --> 00:25:57,640
Daniël: Wij zelf vinden dat het vrij normaal is dat we gewoon ons inzetten als gemeente op deze manier.
397
00:25:57,639 --> 00:26:04,200
Daniël: Het leuke is ook wel net om even nog heel erg terug te komen op de governance.
398
00:26:04,440 --> 00:26:05,480
Daniël: Er is helaas geen blauwdruk.
399
00:26:05,480 --> 00:26:08,359
Daniël: Er is niet zoiets van oké, als ik nu dit blauwdruk pak en volg voor mijn organisatie, dan zit het wel snor.
400
00:26:08,360 --> 00:26:13,240
Daniël: Dat is niet.
401
00:26:13,240 --> 00:26:16,519
Daniël: Wat ik wel kan zeggen is, en dat werkt voor ons heel goed.
402
00:26:16,759 --> 00:26:23,319
Daniël: En ook de klanten die wij helpen, andere gemeenten, andere overheden, is een twee sporen beleid.
403
00:26:23,319 --> 00:26:25,640
Daniël: Dus aan de ene kant heb je echt de AI governance board.
404
00:26:25,639 --> 00:26:32,120
Daniël: Mensen van meerdere lagen en graden die met elkaar samen praten over van is dit nou eigenlijk compliant?
405
00:26:32,119 --> 00:26:33,720
Daniël: Wat betekent dit voor onze inwoners?
406
00:26:33,720 --> 00:26:36,920
Daniël: Hoe zit het juridisch, etc, en aan de andere kant ook het actie, dus het kleine pilotjes proberen.
407
00:26:36,920 --> 00:26:38,599
Daniël: En daar samen van leren.
408
00:26:40,279 --> 00:26:41,079
Daniël: Oh, we hebben hier gemerkt, oh, dit stond nog wel wat open voor ons gevoel.
409
00:26:41,079 --> 00:26:44,440
Daniël: Even kijken, hoe zit het juridisch?
410
00:26:44,759 --> 00:26:46,759
Daniël: Groei je eigenlijk.
411
00:26:46,759 --> 00:26:50,359
Daniël: En zowel de governance compliance, als het inderdaad werkelijk uitvoeren.
412
00:26:50,680 --> 00:26:52,839
Daniël: En dat is iets wat ik wel kan meegeven.
413
00:26:56,839 --> 00:27:02,519
Daniël: Dat werkt echt wel eigenlijk vrijwel overal goed.
414
00:27:02,519 --> 00:27:04,440
Joop: Kijk, dat scheelt.
415
00:27:04,440 --> 00:27:07,960
Niels: Het was eigenlijk al beantwoord, inderdaad, vandaag, ik zit met een AI-agent plan en waar moet ik stappen zetten.
416
00:27:07,960 --> 00:27:14,279
Unknown: En dat is twee sporenbeleid.
417
00:27:15,480 --> 00:27:24,680
Niels: En dat betekent dus inderdaad het stukje starten.
418
00:27:24,680 --> 00:27:27,559
Niels: En je huidige governance aan laten sluiten en te kijken wat daar nodig is, inderdaad, dus eigenlijk is heel mooi beantwoord.
419
00:27:28,920 --> 00:27:34,759
Joop: Wat ik van jullie waar zie je nu als je richting de toekomst kijkt, op het gebied van agente AI in governance.
420
00:27:35,079 --> 00:27:38,519
Joop: Waar denk je dat het naartoe beweegt, Gerard.
421
00:27:38,680 --> 00:27:55,240
Gerard: Wat ik net ook een beetje aangeverd is die klassieke AI governance, waarin je dus vooraf vaak dingen vaststelt toetst.
422
00:27:55,240 --> 00:27:57,880
Gerard: Schuift steeds meer naar toch meer dynamische AI governance.
423
00:27:58,119 --> 00:28:01,879
Gerard: Veel meer gericht op technische maatregelen die zaken uitsluiten in het proces, niet meer achteraf, maar echt je geeft technische controles mee aan een workflow, als een agent iets doet wat niet mag, dat die ingrijpt, dus dat soort zaken.
424
00:28:02,200 --> 00:28:05,399
Gerard: Daar verwacht ik dat er steeds meer naartoe wordt bewogen.
425
00:28:05,400 --> 00:28:06,200
Gerard: En dat ze al ondersteund moeten worden met goede platformen.
426
00:28:06,200 --> 00:28:08,680
Gerard: Goede identity access management.
427
00:28:10,119 --> 00:28:12,519
Gerard: Richtlijnen.
428
00:28:12,519 --> 00:28:14,759
Gerard: Dus daar verwacht ik dat het steeds meer naartoe gaat bewegen.
429
00:28:14,759 --> 00:28:19,719
Daniël: Nou, ik ben ik zou met de deur naar huis vallen.
430
00:28:19,720 --> 00:28:21,720
Daniël: Ik ben op dit moment bijzonder pessimistisch.
431
00:28:21,720 --> 00:28:27,480
Daniël: Ik denk dat we op dit moment met z'n allen en de meeste hebben het niet door en je kunt het met me oneens zijn.
432
00:28:28,279 --> 00:28:32,440
Daniël: Maar goed, ik zie het 16 uur per dag.
433
00:28:32,440 --> 00:28:33,480
Daniël: Ik denk dat ze op dit moment op de rand van richting de afgrond aan het koersen zijn.
434
00:28:33,480 --> 00:28:37,879
Daniël: Je krijgt AI die veel competenter, het wordt, veel sneller, veel sterker.
435
00:28:38,200 --> 00:28:42,120
Daniël: Het wordt gekoppeld.
436
00:28:42,119 --> 00:28:45,279
Daniël: Kijk, zo'n Copilot wordt overhangen alle daten, we weten allemaal zelf niet eens meer hoeveel.
437
00:28:45,759 --> 00:28:48,000
Daniël: Er komt ook nog een stukje robotica, steeds meer in opkomst, we krijgen kwantum.
438
00:28:44,840 --> 00:28:51,040
Daniël: Ik denk als we zo doorgaan over vijf jaar dat we dan.
439
00:28:53,839 --> 00:28:57,279
Daniël: Ik hou me hard vast, laat het zo zeggen voor grappig.
440
00:28:58,160 --> 00:29:05,200
Joop: Ik schat je in, en misschien de zaal ook als een optimist.
441
00:29:05,200 --> 00:29:09,359
Joop: Dan eindigen we misschien zo, ik wil als afsluitende vraag.
442
00:29:09,680 --> 00:29:16,319
Joop: We hebben een kaartspel ontwikkeld met het ETZ, Elisabeth Tweesteden Ziekenhuis, en daar zitten ook ethische vragen in.
443
00:29:16,319 --> 00:29:22,720
Joop: En ik vond, zij hadden er namelijk één bedacht, en die wil ik ook aan jullie voorleggen.
444
00:29:23,440 --> 00:29:26,399
Joop: Zij stellen als stelling, het is ethisch niet meer verantwoord om AI niet in te zetten in de zorg.
445
00:29:34,559 --> 00:29:41,840
Joop: Is het nog wel ethisch verantwoord om AI niet in te zetten voor de burgers?
446
00:29:41,839 --> 00:29:46,880
Joop: Of voor je klanten, ben ik het volledig mee eens.
447
00:29:46,880 --> 00:29:51,119
Joop: Ik vind dat wel een paradox, wat je net aangaf, ik lijkt Trump wel, ik heb me vergeten, vrouw, het pas bij elkaar.
448
00:29:51,519 --> 00:29:56,559
Daniël: Kijk, ik nu zie dat we op richting de afgrond gaan, wil niet zeggen dat ik tweede ook waar kan zijn.
449
00:29:56,559 --> 00:29:59,439
Daniël: Ik ben alleen van mening dat wij heel hard heel snel met z'n allen wakker moeten worden.
450
00:29:59,759 --> 00:30:02,639
Niels: En denk daarom, het stukje governance nog belangrijker wordt en dat we hier nog meer aandacht moeten hebben.
451
00:30:03,759 --> 00:30:04,639
Niels: Dus ik ben blij dat er echt zo'n grote mooie volle zaal zit, inderdaad.
452
00:30:04,880 --> 00:30:06,880
Niels: We gaan jullie vraag ook nog beantwoorden in de podcast.
453
00:30:06,880 --> 00:30:10,480
Joop: Lever ze in.
454
00:30:18,400 --> 00:30:20,400
Joop: En voor de luisteraars blijf even hangen.
455
00:30:20,400 --> 00:30:22,639
Joop: Want we gaan met de heren nog zitten om de vraag te beantwoorden.
456
00:30:22,639 --> 00:30:26,160
Joop: En hier zou ik willen vragen, geef ze een hartelijk applaus voor alles wat ze verteld hebben.
457
00:30:26,160 --> 00:30:31,200
Joop: We hebben de set omgebouwd.
458
00:30:31,440 --> 00:30:42,079
Joop: En we zitten nu in een andere ruimte.
459
00:30:42,079 --> 00:30:46,240
Joop: Dus we gaan even de vragen uit het publiek beantwoorden.
460
00:30:46,240 --> 00:30:48,799
Joop: En ik heb voor jou Daniël als eerste een leuke vraag van Janine Simons.
461
00:30:48,799 --> 00:30:58,480
Joop: En zij zegt, is het realistisch om outputcontrole bij individuele professionals te leggen, als organisaties niet investeren in trainen van medewerkers in critical thinking.
462
00:30:58,480 --> 00:31:06,639
Daniël: Ja, daar raakt Janine de spijker op zijn kop, wat mij betreft dat is niet mogelijk.
463
00:31:06,639 --> 00:31:10,480
Daniël: Nee, dus daarom, en het is ook gewoon wettelijk verplicht.
464
00:31:10,480 --> 00:31:16,319
Daniël: Artikel 4 van de AI-verordening zegt dat een organisatie die iets met AI doet geacht voor te zorgen dat haar werknemers AI geletterd zijn.
465
00:31:16,400 --> 00:31:18,960
Daniël: En dat betekent dus dat je inderdaad voor wat van applicatie dan ook echt moet zorgen dat die gebruiker goed weet van hoe werkt het systeem.
466
00:31:19,039 --> 00:31:23,839
Daniël: Kijk, er zit natuurlijk ook de domein expertise bij, dat mogen duidelijk zijn.
467
00:31:24,480 --> 00:31:26,799
Daniël: Als jij output krijgt, die gaat over jouw vakgebied, wordt jij wel geacht natuurlijk daar al kritisch naar te kunnen kijken.
468
00:31:28,160 --> 00:31:35,840
Daniël: Het is ook heel goed dat je zegt applicatiespecifiek.
469
00:31:35,839 --> 00:31:37,759
Joop: Wat heel veel mensen denken van ja, maar ik kan een certificaat AI-geletterheid ergens bij je training krijgen.
470
00:31:37,759 --> 00:31:38,319
Joop: Het gaat over bedienen.
471
00:31:38,319 --> 00:31:40,399
Daniël: Om een goed voorbeeld te noemen, ik heb twee maanden geleden heb ik een paper gepubliceerd waarin ik stel dat geen enkel AI-systeem op dit moment compliant is.
472
00:31:40,639 --> 00:31:41,759
Daniël: En dat begint al bij de AWB.
473
00:31:41,759 --> 00:31:43,840
Daniël: Waarom?
474
00:31:43,839 --> 00:31:48,000
Daniël: Omdat als jij, laten we zeggen, vorig jaar heb je.
475
00:31:48,319 --> 00:31:55,200
Joop: Wat is de AWB?
476
00:31:55,279 --> 00:31:59,279
Daniël: Dat is bestuurswetten, zeg maar.
477
00:31:59,279 --> 00:32:04,160
Daniël: Dus fatsoenlijk bestuur, dat je achteraf moet kunnen aantonen voor hoe het proces gegaan.
478
00:32:04,160 --> 00:32:06,079
Daniël: Bij de overheid moeten we gewoon kunnen uitleggen achteraf, bij bijvoorbeeld beroep of bezwaar of een verzoek, moeten we kunnen uitleggen.
479
00:32:06,799 --> 00:32:19,039
Daniël: Hoe zijn jullie tot die conclusie gekomen?
480
00:32:19,039 --> 00:32:22,559
Daniël: En dat is heel lastig, want als jij een jaar geleden een bepaalde casus hebben behandeld.
481
00:32:22,559 --> 00:32:25,120
Daniël: En laten we zeggen.
482
00:32:25,119 --> 00:32:27,360
Daniël: Dus de domeinexpert die heeft het gedaan, je hebt bijvoorbeeld Copilot gebruikt, heeft mooie output gekregen, heeft de bronnen gecontroleerd en alles, heeft het in het dossier gezet en een jaar later wordt gevraagd: hoe is dat tot stand gekomen dan?
483
00:32:27,360 --> 00:32:28,960
Daniël: Wat voor rol heeft AI gespeeld, kun je dat niet meer reproduceren.
484
00:32:28,960 --> 00:32:31,759
Daniël: En hij wordt nog mooier op het moment zelf al.
485
00:32:32,000 --> 00:32:37,040
Daniël: Kijk, je ziet bronnen terugkomen bij Copilot.
486
00:32:37,039 --> 00:32:39,839
Daniël: Dat doen ze goed laat het duidelijk zijn.
487
00:32:39,840 --> 00:32:41,519
Daniël: Maar je ziet niet welke bronnen niet zijn opgehaald.
488
00:32:41,519 --> 00:32:43,519
Daniël: Misschien waren er wel andere documenten of stukken die ook relevant waren om tot een conclusie te komen.
489
00:32:43,519 --> 00:32:46,559
Daniël: Maar de ambtenaar die dacht: nee, dit ziet er goed uit plausibel.
490
00:32:46,559 --> 00:32:48,079
Daniël: Ik zie dat de bronnen kloppen.
491
00:32:48,079 --> 00:32:51,600
Daniël: Maar je weet niet wat er niet is opgehaald.
492
00:32:51,599 --> 00:32:54,720
Daniël: En hoe zijn dingen geframed door de AI of samengevat.
493
00:32:54,720 --> 00:32:58,879
Daniël: Want daar zit er echt een groot verschil in.
494
00:32:58,960 --> 00:33:02,559
Joop: En vind je daarmee dat het niet compliant is.
495
00:33:03,119 --> 00:33:05,599
Daniël: Nou ja, dat is niet zozeer wat ik vind, dat is gewoon logisch.
496
00:33:06,079 --> 00:33:07,680
Daniël: Dat is gewoon letterlijk de conclusie die je moet trekken, als je de wetgeving bekijkt.
497
00:33:08,319 --> 00:33:16,000
Daniël: Maar goed, we wijken nu af, het gaat over het AI geletterd zijn.
498
00:33:16,000 --> 00:33:17,920
Daniël: Maar daar zit meteen dus ook wel weer.
499
00:33:18,079 --> 00:33:21,279
Daniël: Het knelpunt.
500
00:33:21,279 --> 00:33:24,240
Daniël: Als jij als ambtenaar dit gebruikt en niet weet hoe dit AI-systeem werkt, dus ook niet weten van hoe worden eigenlijk die bronnen naar boven gehaald.
501
00:33:25,039 --> 00:33:28,079
Daniël: En wat wel en wat niet, en hoe wordt het geframed.
502
00:33:28,079 --> 00:33:31,480
Daniël: Ja, dan mag je nog zo het due diligence toepassen.
503
00:33:31,559 --> 00:33:37,960
Daniël: Maar als jij niet weet hoe het werkt, dan is het een soort wassenneus.
504
00:33:37,960 --> 00:33:41,000
Daniël: Daar moeten de gebruiker echt wel van op de hoogte zijn.
505
00:33:41,000 --> 00:33:48,119
Niels: En dat was al bij systemen waar ook AI in zit, alsjeblieft begrijp je systeem.
506
00:33:48,519 --> 00:33:50,599
Niels: Begrijp wat er gebeurt en weet je het niet de duik erin, inderdaad, hebben we nog een mooie vraag ontvangen, anoniem.
507
00:33:50,599 --> 00:33:55,640
Niels: De naam staat er niet bij, maar wel een hele mooie vraag.
508
00:33:55,640 --> 00:34:06,440
Niels: Gerard voor jou, wat doe je met autonomie wanneer je pakketsoftware of diensten koopt of abonneert waarin AI dan gebruikt wordt.
509
00:34:06,839 --> 00:34:08,119
Gerard: Ja, dat is wel echt een relevant topic.
510
00:34:08,199 --> 00:34:10,360
Gerard: Want wat je nu ziet is dat veel vendoren AI-features zomaar aanzetten.
511
00:34:10,599 --> 00:34:13,000
Gerard: En je merkt ook dat medewerkers van de organisatie daar ook in geïnteresseerd zijn, los van de vraag van hebben we het überhaupt nodig, wordt dan snel gezegd, ja, het is gratis, dus ja, waarom zouden het niet gebruiken?
512
00:34:13,320 --> 00:34:16,519
Gerard: Daar zit natuurlijk wel een risico.
513
00:34:16,519 --> 00:34:19,319
Gerard: Dus je wilt wel weten.
514
00:34:19,320 --> 00:34:27,079
Gerard: Wat wordt er precies aangezet?
515
00:34:27,559 --> 00:34:29,799
Gerard: Wat voor model gebruikt, bijvoorbeeld die vendor.
516
00:34:29,800 --> 00:34:49,719
Gerard: Waar gaat mijn data naartoe en welke afspraak maak ik daarover?
517
00:34:49,719 --> 00:34:54,039
Gerard: Wat gebeurt met mijn data als bank zijnde met zo'n vendor die daar dan toch richting zijn model iets mee gaan doen.
518
00:34:54,039 --> 00:34:57,480
Gerard: Op dit moment zijn we daar heel terughoudend in.
519
00:34:57,800 --> 00:35:00,519
Gerard: En wat wij sowieso doen, is dat bij alle AI use cases ook features die worden toegevoegd aan bestaande software, die willen we door voor ons de AI-way of working heen halen, eigenlijk een soort van ontwikkelstraat waarin we allerlei requirements aftikken om te kijken, oké, willen we dit en uiteindelijk daar goed geïnformeerd.
520
00:35:00,519 --> 00:35:01,079
Gerard: En ook daarmee voor iedereen een acceptabele use case te hebben.
521
00:35:01,239 --> 00:35:03,000
Gerard: Dus dat is hoe wij het aanpakken en hoe ik dit dan ook zie.
522
00:35:03,079 --> 00:35:06,920
Niels: Dus tegen je eigen guardrails en regels aanhouden.
523
00:35:07,239 --> 00:35:08,679
Gerard: Zeker.
524
00:35:11,639 --> 00:35:14,840
Niels: Ik geloof wel dat jullie je handen vol hebben dan.
525
00:35:14,840 --> 00:35:22,600
Niels: Want iedere tool zit nu al een feature in, inderdaad, om het anders.
526
00:35:22,599 --> 00:35:24,600
Gerard: Enorme uitdaging, eens.
527
00:35:25,079 --> 00:35:29,000
Gerard: En ook nog eens een keer echt goed monitoren daarvan.
528
00:35:29,000 --> 00:35:33,800
Gerard: Want sommige vendors zetten het ook gewoon zelf aan.
529
00:35:34,199 --> 00:35:39,399
Gerard: En dan heb je wel toch wel een beetje een soort van grijs gebied, of hoe zeg ik dat, een blinde vlek, misschien meer.
530
00:35:39,400 --> 00:35:41,079
Gerard: Dat je dat je dat niet altijd kunt waarnemen.
531
00:35:41,079 --> 00:35:44,199
Gerard: De leverancier heeft contact met de businessowner van zijn applicatie.
532
00:35:44,199 --> 00:35:46,599
Gerard: Je moet dat dan ook wel melden, of een release note waar je het in zou kunnen lezen, maar dan moet je wel tot actie over gaan.
533
00:35:46,599 --> 00:35:51,479
Gerard: En het detecteren, maar ook vervolgens het oppakken door de verantwoordelijke binnen de organisatie.
534
00:35:51,480 --> 00:35:53,719
Gerard: Daar zit natuurlijk wel wat afhankelijkheden.
535
00:35:53,719 --> 00:35:59,880
Gerard: En die wil je zoveel mogelijk toch ook weer technisch zien af te vangen.
536
00:36:01,239 --> 00:36:04,280
Gerard: En daar zijn we nog een beetje aan het zoeken van hoe kunnen we dat nou doen.
537
00:36:05,239 --> 00:36:09,559
Niels: Ja, en naast technisch inderdaad ook een stukje van hoe weten we wat het systeem doet.
538
00:36:09,559 --> 00:36:13,159
Niels: Ook daar inderdaad, de awareness zal er ook helpen.
539
00:36:13,159 --> 00:36:16,119
Niels: Want je hebt als hele organisatie, heb je te maken met deze features die ineens kunnen ontpoppen, inderdaad.
540
00:36:16,840 --> 00:36:21,559
Joop: Daniël, voor jou, we zitten een beetje te pingpong.
541
00:36:22,599 --> 00:36:27,079
Joop: Iemand was heel erg geïntrigeerd over jouw governance agent.
542
00:36:27,400 --> 00:36:34,199
Joop: En die vraag op welke provider draait die governance agent dan.
543
00:36:34,199 --> 00:36:36,599
Joop: Je geeft inzicht in zoveel vertrouwelijke data.
544
00:36:36,599 --> 00:36:38,839
Daniël: Ja, ook die vraag raakt natuurlijk onmiddellijk de spijker op de kop.
545
00:36:38,840 --> 00:36:40,199
Daniël: Ik denk dat we af moeten stappen van denken in providers puur zang.
546
00:36:40,440 --> 00:36:41,319
Daniël: Je hebt namelijk ook nog gewoon de mogelijkheid om zelf een server neer te zetten in je eigen omgeving, fysiek.
547
00:36:41,639 --> 00:36:47,480
Daniël: En het daarop te draaien, internetkabel eruit.
548
00:36:47,480 --> 00:36:52,039
Daniël: Dat kan tegenwoordig kan heel goed.
549
00:36:52,039 --> 00:36:57,960
Daniël: Met hele goede modellen ook.
550
00:36:57,960 --> 00:37:05,000
Daniël: Met heel goede modellen.
551
00:37:05,000 --> 00:37:10,919
Daniël: Ik ben Civics drijven nu toch echt wel state of the art open source modellen.
552
00:37:10,920 --> 00:37:12,119
Daniël: Waarbij je denkt aan honderden miljarden parameter modellen, dat is verbluffend.
553
00:37:12,119 --> 00:37:16,039
Daniël: Maar je ziet ook dat open source modellen steeds competenter worden, maar toch kleiner.
554
00:37:16,039 --> 00:37:21,000
Daniël: Dus we hebben allemaal nieuwe technieken, technologieën, quantization, andere technieken, mixture of experts zoals het leuk heet.
555
00:37:21,480 --> 00:37:26,039
Daniël: Waardoor je eigenlijk die modellen, zelfs, nou ja, het zal dit jaar gebeuren, op je telefoon kunnen draaien zonder internet.
556
00:37:26,280 --> 00:37:28,279
Daniël: En daar gaat het wel heen.
557
00:37:28,679 --> 00:37:34,200
Daniël: Maar goed, ik begrijp ook, want ik werk heel veel voor overheden, dus ik kom heel veel.
558
00:37:34,199 --> 00:37:39,239
Daniël: En zelfs grote overheden zeggen, ja, maar ja, moeten we dit nou allemaal zelf gaan zitten organiseren.
559
00:37:39,480 --> 00:37:44,279
Daniël: Je loopt ook tegen allerlei praktische problemen aan, vaak past het niet eens in de serverkast, zo'n ding.
560
00:37:44,280 --> 00:37:47,159
Daniël: Maar je hebt ook gewoon Europese aanbieders.
561
00:37:47,159 --> 00:37:48,599
Daniël: Wij werken zelf bij Civiq AI partner van Skillway, grote Franse provider.
562
00:37:48,599 --> 00:37:49,400
Daniël: Absoluut aanrader, maar zo heb je in Nederland en in Europa heb je nog meerdere aanbieders.
563
00:37:49,400 --> 00:37:54,199
Daniël: Waarbij echt de hardware en de infra is gewoon van ons, zeg maar.
564
00:37:54,199 --> 00:38:01,400
Joop: En de Nederlandse overheid direct in de AI-factory.
565
00:38:01,639 --> 00:38:03,000
Daniël: Ja, om maar wat te noemen precies.
566
00:38:03,000 --> 00:38:10,839
Daniël: Dus dat kan.
567
00:38:13,720 --> 00:38:15,119
Daniël: Dus je moet niet meer denken van ja, welke provider dan, want al die data is vertrouwelijk, ja, 100%.
568
00:38:15,000 --> 00:38:17,759
Daniël: Maar als jij zegt, we gaan met zulke gevoelige data werken, dan zeg ik, zet het in huis, zet het fysiek neer, internetkabel eruit.
569
00:38:18,800 --> 00:38:23,200
Daniël: Dus het is een beetje een tranches.
570
00:38:24,000 --> 00:38:26,559
Daniël: En als je zegt, nou ja, het is gevoelig, maar een goede DPA met een leverancier, kunnen we aan, ga dan met een Europese provider en ze.
571
00:38:28,159 --> 00:38:31,599
Niels: Voelde een beetje als een tenniswedstrijd.
572
00:38:31,679 --> 00:38:35,439
Niels: Ook wel lekker, inderdaad.
573
00:38:35,440 --> 00:38:39,279
Niels: Als je geen legacy zou hebben, hoe zou je AI governance dan vanaf de bodem inrichten?
574
00:38:39,280 --> 00:38:43,199
Gerard: Het grappig is eigenlijk dat de governance.
575
00:38:43,199 --> 00:38:49,039
Gerard: Dat kan niet uit het niets, maar gevoelsmatig was dat wel zo.
576
00:38:49,039 --> 00:38:57,039
Gerard: Het is 2023 hadden we ineens te maken met ChatGPT.
577
00:38:57,679 --> 00:38:59,920
Gerard: En als organisatie zijn we daar ook wel op ingesprongen door een governance neer te zetten.
578
00:39:02,480 --> 00:39:12,159
Gerard: Maar op een gegeven moment zag je op verschillende plekken diverse vormen van governance ontstaan.
579
00:39:12,320 --> 00:39:22,559
Gerard: Dus allerlei boards, allerlei comités, groepjes die ergens iets van moesten vinden.
580
00:39:22,559 --> 00:39:32,000
Gerard: En dat is zo opgeblazen zo groot geworden, dat we op zich, als ik dan zo zou moeten vertellen, een aantal maanden geleden hebben gekeken.
581
00:39:32,000 --> 00:39:33,039
Gerard: Wat hebben we nu en moeten we niet terug naar de basis.
582
00:39:34,639 --> 00:39:36,639
Gerard: die direct vanuit de managingboard, mandaat heeft om de strategie te bepalen, use cases goed te keuren op basis van die strategieën en die waarde die toevoegt aan de strategie.
583
00:39:36,719 --> 00:39:37,680
Gerard: Dus op die manier hebben we dus ook, als je het hebt over het nieuw opbouwen, toch als het ware opnieuw opgebouwd, wel kijken naar wat voor soort comités zijn er al.
584
00:39:40,800 --> 00:39:44,319
Gerard: En daar zoveel mogelijk op aansluiten, maar dat in ieder geval wel weer wat eenvoudige en simplistischer te maken dan toch wel het grote wat we hadden gecreëerd in de loop der tijd.
585
00:39:44,320 --> 00:39:47,519
Niels: De Board of Boards.
586
00:39:47,599 --> 00:39:55,039
Gerard: Dat denk ik de antwoord op deze vraag.
587
00:39:55,599 --> 00:39:58,319
Niels: Keep het simpel.
588
00:39:58,320 --> 00:40:06,959
Daniël: Misschien mag ik er heel even kort nog op ingaan, want legacy is natuurlijk een groot issue.
589
00:40:07,199 --> 00:40:09,840
Daniël: En dat gaat niet alleen maar over governance, het gaat ook bijvoorbeeld over je data.
590
00:40:09,840 --> 00:40:12,079
Daniël: Dus wat je ziet, we zitten zeker bij de overheid, zit op zeker 8, 9, 10 jaar aan oude data, PDF's ingescand.
591
00:40:12,159 --> 00:40:17,359
Daniël: Ik adviseer wel iedereen om nu al gewoon te gaan investeren.
592
00:40:17,360 --> 00:40:20,719
Daniël: Kijk, ja, waar je nu op zit, kun je niks meer aan doen, maar je kunt wel vanaf vandaag beginnen met het inrichten van een goede structuur, metadatering, machine readable.
593
00:40:20,719 --> 00:40:24,719
Daniël: Dat is per organisatie use case natuurlijk wel weer wat anders.
594
00:40:26,079 --> 00:40:26,959
Daniël: Maar daar kun je vandaag al mee beginnen in zekere zin.
595
00:40:28,079 --> 00:40:30,799
Niels: En machine readable governance en richtlijnen, dat zijn zeker mogelijkheden waar je naar moet gaan kijken.
596
00:40:30,800 --> 00:40:32,559
Niels: En dat gaan borgen in de techniek en processen.
597
00:40:33,840 --> 00:40:37,679
Niels: Niet alleen techniek, alsjeblieft, ook de processen, maar nemen de menskant van essentieel belang.
598
00:40:37,679 --> 00:40:45,920
Joop: Het gaat over data.
599
00:40:46,320 --> 00:40:49,200
Niels: Je hoeft ze gelijk over data gaan.
600
00:40:50,800 --> 00:40:53,920
Niels: Ja, dat is mijn vakgebied.
601
00:40:54,159 --> 00:40:55,599
Joop: Daniël, kijk deze vraag is van Remy Lang.
602
00:40:55,760 --> 00:41:01,119
Joop: En hij zegt van je noemde de flow straks over handcode, GenAI handcode, deterministisch, mens.
603
00:41:01,280 --> 00:41:02,800
Joop: Kun je elke stap nog eens toelichten?
604
00:41:03,119 --> 00:41:11,599
Daniël: Dat kan, maar dan zitten we hier nog minstens een paar uur.
605
00:41:11,840 --> 00:41:12,799
Daniël: Ook daar en er is geen blueprint.
606
00:41:12,800 --> 00:41:14,960
Daniël: Maar als ik bijvoorbeeld kijkt naar wat wij nu aan het doen, zijn bij Civiqs AI zijn we rijksassistent aan het bouwen.
607
00:41:14,960 --> 00:41:19,360
Daniël: Rijksassistent.
608
00:41:19,360 --> 00:41:20,799
Daniël: Hebben wij voor ogen, is een veilige assistent die letterlijk alles weet van de Nederlandse wetten van rechtspraak, maar ook Europees, etc.
609
00:41:20,800 --> 00:41:25,759
Daniël: Nou, hoe doen we dat?
610
00:41:25,760 --> 00:41:28,319
Daniël: Dat doen we door te allereerst te zeggen data bij de bron.
611
00:41:28,320 --> 00:41:32,079
Daniël: Dus wij gebruiken alle, we halen live alle data gewoon bij de bron weg.
612
00:41:32,320 --> 00:41:35,679
Daniël: Dus dat we daar altijd goed zit.
613
00:41:35,679 --> 00:41:38,319
Daniël: Dus niet ouderwetse vector databases die op het moment dat ze gemaakt voor de ouderwets zijn.
614
00:41:38,320 --> 00:41:44,000
Daniël: Maar wat we dan doen is per stap, dat is één.
615
00:41:44,320 --> 00:41:49,279
Daniël: Dus je zorgt eerst dat je bij de data goed zit, dat is gewoon data is alles.
616
00:41:49,440 --> 00:41:52,480
Daniël: Maar dan ga je vervolgens bijvoorbeeld kijken in een planners stap.
617
00:41:52,480 --> 00:41:56,319
Daniël: Dus je laat die LLM bepalen, er komt een vraag binnen.
618
00:41:56,639 --> 00:41:58,880
Daniël: En de vraag kan heel simpel zijn: wat is artikel 7 van de grondwet, maar het kan ook een heel dossier zijn.
619
00:41:58,880 --> 00:42:02,559
Daniël: Van een medewerkersociaal domein, over de participatie, hele aantekeningen van een gezin.
620
00:42:02,559 --> 00:42:09,600
Daniël: Ja, dat wil je eigenlijk ook wel graag dat dat goed gaat.
621
00:42:10,239 --> 00:42:19,439
Daniël: Dus daar begint het mee, een soort intent recognition, een planner.
622
00:42:19,440 --> 00:42:20,960
Daniël: Het systeem gaat de route bepalen.
623
00:42:23,199 --> 00:42:24,880
Daniël: Waar ga ik welke data op welke manier vandaan halen om dit onder antwoord te komen?
624
00:42:24,960 --> 00:42:33,920
Joop: Ik denk dat ik deze vraagsteller, als ik het mag interpreteren, die vind ik denk ik vooral lastig van hoe mix je nou dat deterministische.
625
00:42:34,000 --> 00:42:35,840
Joop: En er zijn als je de agent zelf maakt, kan je bijvoorbeeld regels instellen, policies, die zeggen van hij mag niet duurder worden dan zoveel.
626
00:42:35,840 --> 00:42:38,400
Joop: Of je mag maar zoveel iteratie.
627
00:42:38,400 --> 00:42:41,360
Joop: Dat is het deterministische.
628
00:42:41,360 --> 00:42:42,880
Joop: Je kan kijken, van zitten er bepaalde stukken van tekst erin die die echt nooit mag geven, ja, daar begeef je op glad ijs.
629
00:42:42,960 --> 00:42:43,359
Daniël: Maar nee, maar het kan wel.
630
00:42:43,599 --> 00:42:47,120
Daniël: Je kunt zeggen semantisch gezien, maar wat jij zegt, is een heel belangrijk.
631
00:42:47,280 --> 00:42:48,400
Daniël: Dus dat je het allereerst leg je op voorhand al vast.
632
00:42:48,400 --> 00:42:49,199
Daniël: Welke bronnen mag je gebruiken?
633
00:42:50,000 --> 00:42:52,480
Daniël: Punt.
634
00:42:52,480 --> 00:42:55,519
Daniël: Dus niet dat het systeem lekker op het internet gaat zoeken en op nu.nl uitkomt.
635
00:42:55,679 --> 00:42:57,119
Joop: En dat kan je gewoon vastleggen.
636
00:42:57,119 --> 00:42:59,799
Daniël: Dat is gewoon altijd.
637
00:42:59,800 --> 00:43:02,919
Daniël: Dan kan de LLM, dan kan de agent zeggen, ik wil van alles doen.
638
00:42:59,679 --> 00:43:07,079
Daniël: Maar als de agent geen toegang heeft, dan heb je dat al gedaan.
639
00:43:07,159 --> 00:43:13,800
Daniël: Nou, die regels kun je hardcoden.
640
00:43:13,880 --> 00:43:17,960
Daniël: Je kunt ook weer een check daarachteraf op zetten, verificatie.
641
00:43:18,360 --> 00:43:21,160
Daniël: Nou ja, dat kun je een stukje lexicaal doen, is niet schaalbaar.
642
00:43:21,880 --> 00:43:29,400
Daniël: Maar wel voor belangrijke dingen en een stukje semantisch achteraf weer, dat er wordt gecontroleerd.
643
00:43:29,400 --> 00:43:32,199
Daniël: Oké, er is nu een antwoord geformuleerd, is dit antwoord echt helemaal wat uit de opgehouden bronnen klopt dat.
644
00:43:32,199 --> 00:43:37,159
Daniël: Maar ik blijf zeggen, 100% deterministisch ga je niet krijgen, zolang je Gen AI.
645
00:43:37,159 --> 00:43:47,880
Daniël: Die mens aan het einde is enorm belangrijk.
646
00:43:48,199 --> 00:43:50,919
Niels: Maar de regels tussendoor ook hoor, want dat zien we vanuit de praktijk ook met de agents die we zelf inrichten bij sport zien we ook echt goede kaders neerzetten.
647
00:43:50,920 --> 00:43:52,840
Niels: Keuzes die je niet mag maken omdat er geen grond iets is.
648
00:43:53,079 --> 00:43:54,760
Niels: Dat zijn zaken waar je echt de sturing mee kan beïnvloeden om die controle te doen.
649
00:43:57,000 --> 00:44:00,600
Joop: En voor degene die echt qua zelfbouw, zou ik willen geven, Microsoft is twee april zijn uitgekomen met het Microsoft Governance Toolkit.
650
00:44:01,239 --> 00:44:16,359
Joop: En daar kun je dit soort dingen gewoon echt in programmeren.
651
00:44:16,360 --> 00:44:22,039
Daniël: Zeg je dat nu tegen mij Joop?
652
00:44:22,039 --> 00:44:24,519
Joop: Tegen de luisteraar.
653
00:44:24,519 --> 00:44:27,000
Niels: De volgende vraag, sorry, als je na een verkeerd uitspreek, Cicile.
654
00:44:27,800 --> 00:44:29,400
Niels: Het is een opbouwende vraag, dus geef me even, is het niet het grootste gevaar dat het heel laagdrempelig is om een agent te bouwen, vergt niet altijd heel veel kennis om een agent te laten bouwen of zelf te bouwen.
655
00:44:30,039 --> 00:44:34,680
Niels: En aan de andere kant juist heel moeilijk is om te snappen hoe je risico's kunt herkennen en mitigeren.
656
00:44:35,000 --> 00:44:40,440
Niels: Dat vraagt namelijk weer heel veel technische kennis.
657
00:44:41,239 --> 00:44:43,559
Niels: Hoe ga je daar binnen een organisatie mee om?
658
00:44:44,519 --> 00:44:49,799
Gerard: Onwijs goede vraag.
659
00:44:49,960 --> 00:44:51,800
Gerard: Enzijds is natuurlijk wel gevaar dat iedereen zomaar even een agent kan bouwen en kan inzetten.
660
00:44:52,119 --> 00:44:58,039
Gerard: Ik hoop dat toch dat wij dat als bank detecteren als dat zou gebeuren.
661
00:44:58,039 --> 00:45:03,079
Gerard: Niks honderd procent, verwacht ik daarin.
662
00:45:03,079 --> 00:45:04,839
Gerard: Dus een enorme kans dat je daar efficiënter of kwalitatief beter werk mee kunt leveren.
663
00:45:05,559 --> 00:45:07,879
Gerard: Gelijkertijd.
664
00:45:07,880 --> 00:45:10,439
Gerard: Voor zie ik ook dat diegene die in boud niet het complete beeld heeft, dat het niet goed in kan schatten.
665
00:45:11,239 --> 00:45:12,920
Gerard: En wat betekent dit nou voor de complete organisatie, voegt het ook echt daadwerkelijk qua value iets toe voor de hele organisatie.
666
00:45:12,920 --> 00:45:14,600
Gerard: Maar wat zijn ook volgens de risico's.
667
00:45:14,599 --> 00:45:17,079
Gerard: Overziet hij dat vanuit de verschillende perspectieven.
668
00:45:22,599 --> 00:45:25,559
Gerard: Hij kan wellicht het all goed bedoelen.
669
00:45:25,559 --> 00:45:33,319
Gerard: Qua intentie altijd goed.
670
00:45:33,800 --> 00:45:35,319
Gerard: Tenminste, daar ga ik vanuit.
671
00:45:35,880 --> 00:45:37,719
Gerard: Maar het grotere plaatje wordt dan vaak gemist.
672
00:45:39,079 --> 00:45:43,800
Gerard: en dan zeker stept over wat gebeurt met de data, waar komt het model vandaan.
673
00:45:45,400 --> 00:45:49,320
Gerard: Dat soort vragen, daar wordt niet altijd bij stilgestaan en gedacht.
674
00:45:51,079 --> 00:45:53,079
Gerard: Oké, als Microsoft zegt van joh, data blijft gewoon in Europa, dan zal het wel zo zijn, of een andere provider geeft een provider.
675
00:45:53,800 --> 00:45:54,840
Gerard: Dat wordt vaak onderschat.
676
00:45:54,840 --> 00:45:58,679
Gerard: Daar maak ik me dan wel zorgen om.
677
00:45:58,840 --> 00:46:01,159
Gerard: Het goed kunnen inschatten van wat ben ik aan doen en wat voor effect kan dit hebben.
678
00:46:01,559 --> 00:46:03,159
Gerard: Daar heb je denk ik wel meer voor nodig dan iemand die even zelf een agent bouwt.
679
00:46:03,320 --> 00:46:06,679
Niels: Je wil innoveren, maar je wil verantwoord innoveren.
680
00:46:06,760 --> 00:46:07,960
Niels: Innoveren is leren.
681
00:46:07,960 --> 00:46:10,759
Niels: En daarna weer inderdaad wel die check en balances erop los kunnen laten.
682
00:46:10,920 --> 00:46:18,679
Gerard: En ook door verschillende ogen laten beoordelen.
683
00:46:18,679 --> 00:46:20,040
Daniël: En ik denk ook zo die technisch.
684
00:46:20,199 --> 00:46:24,280
Daniël: Dat is natuurlijk wel ook weer een soort wrijving.
685
00:46:26,039 --> 00:46:35,319
Daniël: Enerzijds is het heel makkelijk.
686
00:46:35,400 --> 00:46:38,839
Daniël: Mijn zoontje van 12 kan een agent bouwen in vijf minuten.
687
00:46:38,840 --> 00:46:41,640
Daniël: Maar anderzijds, de vraagsteller zegt ook, ja, maar moet je tegelijkertijd ook niet heel veel technische kennis hebben, om het ook dan nog eens een keer echt veilig in te zetten.
688
00:46:42,280 --> 00:46:47,320
Daniël: En dat is natuurlijk ook zo.
689
00:46:48,199 --> 00:46:51,000
Daniël: En ik denk dat wat Gerard net zegt, dat raakt ook spijt op zijn kop.
690
00:46:51,960 --> 00:46:54,519
Daniël: De vraag is als organisatie, kun je wel zeggen van, ik heb laatst letterlijk gehoord van overheden, krijg je geen naam noemen.
691
00:46:55,639 --> 00:46:56,599
Daniël: Maar die zeiden dan van joh, maar waarom zullen we die gewoon ChatGPT inzetten.
692
00:46:57,800 --> 00:46:59,559
Daniël: Of waarom gaan we niet zelf even een LLM'tje hosten?
693
00:46:59,559 --> 00:47:01,480
Daniël: Als je die vraag al stelt, dan zeg je geef je eigenlijk altijd op waar je staat als organisatie.
694
00:47:01,480 --> 00:47:02,760
Daniël: Dit is gewoon groot, daarom zeg ik ook wakker worden met z'n allen.
695
00:47:02,840 --> 00:47:04,280
Daniël: Je moet veel meer urgentie hebben.
696
00:47:04,840 --> 00:47:08,679
Joop: Er is nog één vraag.
697
00:47:08,920 --> 00:47:11,480
Joop: Daarna heb ik nog een afsluitende vraag.
698
00:47:11,480 --> 00:47:16,759
Niels: Dan is dat vanuit de gasten afsluitende vraag.
699
00:47:16,920 --> 00:47:20,599
Niels: Inderdaad daarna volgt een beetje van Joop.
700
00:47:20,599 --> 00:47:23,240
Niels: Ik vond hem heel leuk.
701
00:47:23,800 --> 00:47:25,559
Niels: Lucienne, sorry als ik het nou een keer uitspreken.
702
00:47:27,639 --> 00:47:28,679
Niels: Als Agentic AI en agent staat even tussen uit.
703
00:47:28,679 --> 00:47:33,639
Niels: Dus als AI en Agentic een sector als eerste solo zo mogen gaan doen.
704
00:47:34,280 --> 00:47:38,599
Niels: Zou je dan gaan laten vliegen of bankieren.
705
00:47:38,599 --> 00:47:43,399
Niels: Welke zou je dan de beste keuze vinden?
706
00:47:43,400 --> 00:47:44,279
Gerard: Ik zou toch zeggen vliegen.
707
00:47:44,280 --> 00:47:48,000
Daniël: Ik heb nieuws voor jullie.
708
00:47:48,000 --> 00:47:48,880
Daniël: Dit gebeurt al 20, 30 jaar, we hebben zoiets als CAT A/C Autoland.
709
00:47:48,880 --> 00:47:51,359
Daniël: Ik heb landingen gemaakt in de Boeing 747 waar ik niks mee mocht aanraken.
710
00:47:44,920 --> 00:47:52,400
Daniël: Dat ik officieel zelf niet mocht landen, maar het algoritme mocht laten landen.
711
00:47:52,559 --> 00:47:53,759
Daniël: Dus dit bestaat al.
712
00:47:53,760 --> 00:47:54,319
Daniël: Alleen de vraag is natuurlijk wel, in zekere zin zou je die piloten weg kunnen halen.
713
00:47:54,320 --> 00:47:56,239
Daniël: Kan helemaal autonoom.
714
00:47:56,800 --> 00:47:59,039
Daniël: Maar stap jij in een vliegtuig waar die piloot die zit?
715
00:47:59,039 --> 00:48:05,039
Niels: Nee, ik verlopig nog niet.
716
00:48:05,039 --> 00:48:09,199
Daniël: Nee, ik dus ook niet.
717
00:48:09,360 --> 00:48:13,279
Daniël: Ik ook niet.
718
00:48:13,280 --> 00:48:14,799
Daniël: Maar goed, zelf met bankeren.
719
00:48:14,960 --> 00:48:22,880
Daniël: De vraag is, het heeft al bij heel veel impact.
720
00:48:22,880 --> 00:48:25,440
Daniël: Dus ik denk bij allebei is het natuurlijk iets wat kan al, denk ik, ook bij bankeren zou het heel veel kunnen.
721
00:48:25,599 --> 00:48:30,880
Daniël: Maar de vraag is: moet je het al willen, voordat we echt wel heel goed van de hoek de rand weten eerst.
722
00:48:31,199 --> 00:48:33,280
Daniël: Dat is denk ik de vraag die je dan moet stellen, moet je het op dit moment wel willen.
723
00:48:37,760 --> 00:48:42,400
Daniël: En wat wil je wel en wat wil je niet?
724
00:48:43,360 --> 00:48:49,840
Niels: Dan gaan we recht in de afsluitende vraag van Joop voor jullie allebei, maar dat wil ik bij jou beginnen, Gerard, is dat we hadden natuurlijk maar een half uur op het podium.
725
00:48:50,320 --> 00:48:54,800
Joop: Jullie hebben de gesprekken voorbereid.
726
00:48:55,920 --> 00:49:00,559
Joop: Wat is nou een element of een vraag waar je op gehoopt had.
727
00:49:00,559 --> 00:49:06,719
Joop: Die niet gesteld is.
728
00:49:06,719 --> 00:49:12,000
Gerard: Misschien een beetje een open deur, maar van heb je nog een advies voor de mensen in de zaal.
729
00:49:12,239 --> 00:49:13,679
Gerard: Daar had ik me niet heel speciaal voorbereid, ik hoorde het ook wel een beetje zeggen of een beetje uitleg door Rob van Microsoft.
730
00:49:13,920 --> 00:49:16,879
Gerard: Dat is denk ik een hele basale, maar die gaat al heel erg op, denk ik, als je kijkt naar agents.
731
00:49:16,880 --> 00:49:18,639
Gerard: Behandel die nou gewoon als een collega, het is echt nogmaals een beetje een basaal voorbeeld.
732
00:49:18,719 --> 00:49:28,159
Gerard: Maar onboard zo'n agent nou heel bewust, geef hem gewoon beperkte rechten en monitor die agent.
733
00:49:28,320 --> 00:49:31,839
Gerard: Dat is volgens mij om het een beetje in de gedachte te houden van de mensen in publiek, denk ik wel een hele goede vergelijking.
734
00:49:32,480 --> 00:49:38,399
Gerard: Die vraag heb ik niet gehad.
735
00:49:38,400 --> 00:49:43,119
Joop: Nou, heel mooi, deze nog als aanvulling.
736
00:49:43,440 --> 00:49:44,960
Daniël: Ja, ik vul die dan ook gelijk even aan.
737
00:49:44,960 --> 00:49:46,559
Daniël: Grappig is: ik heb gisteren op een congres een keynote gehouden, waarbij ik het volgende zei: hoe bizar is het dat als wij een nieuwe collega's zoeken, vacature.
738
00:49:46,800 --> 00:49:50,480
Daniël: Dan krijgen we sollicitanten, die gaan we helemaal doorlichten.
739
00:49:50,639 --> 00:49:53,119
Daniël: Kijken wat voor ervaring heb je, wat voor opleiding, wat kun je allemaal, VOG vragen we aan.
740
00:49:53,360 --> 00:49:55,280
Daniël: Maar op het moment dat zo'n AI-agent binnenkomt, is het vaak een vinkje zetten bij.
741
00:49:56,880 --> 00:49:59,839
Daniël: De organisatie deden die eens.
742
00:49:59,840 --> 00:50:00,479
Daniël: En dat ding, dat wordt aan het werk gezet.
743
00:50:01,519 --> 00:50:05,359
Daniël: Dus ik pleit ervoor om, ik heb gisteren ook AI-VOG.
744
00:50:05,360 --> 00:50:06,479
Daniël: NL gekregen, ik weet nog niet wat ik ermee ga doen.
745
00:50:06,480 --> 00:50:08,559
Joop: Jammer, willen hebben.
746
00:50:08,559 --> 00:50:12,559
Joop: In de workshop hebben wij een AI agent vacature.
747
00:50:17,920 --> 00:50:19,279
Joop: Canvas.
748
00:50:20,000 --> 00:50:20,879
Joop: Ga je functioneel ga je inderdaad dit soort dingen, maar ook dus vertellen.
749
00:50:20,880 --> 00:50:22,160
Joop: Wat mag die niet?
750
00:50:22,800 --> 00:50:24,239
Joop: Want dat is natuurlijk ook altijd een grote vraag.
751
00:50:25,360 --> 00:50:27,680
Joop: En ik heb de Agent VOG canvas.
752
00:50:12,800 --> 00:50:17,440
Joop: Want er zijn natuurlijk heel veel ethische vragen, want daar gaat het eigenlijk over.
752
00:50:28,880 --> 00:50:39,280
Joop: Wat is nou goed gedrag?
753
00:50:39,920 --> 00:50:40,880
Joop: Ja, wat leuk.
754
00:50:40,880 --> 00:50:42,639
Joop: Dankjewel voor dit.
755
00:50:44,559 --> 00:50:47,440
Joop: Er was geen opzetje dit.
756
00:50:47,440 --> 00:50:54,800
Joop: Zo zie je maar de cirkels rond je.