AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is uitgeroepen tot AI Podcast of the Year 2025 en is drie keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S08E51 - AI-governance bij een bank: hoe Rabobank chatbot Robin beoordeelt
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Margaret Kalisvaart, Senior Compliance Officer bij Rabobank, legt uit hoe chatbot Robin door het goedkeuringsproces ging waarbij drie wetgevende kaders tegelijk golden: de AI Act, de AVG en de Wet op het Financieel Toezicht. Ze beschrijft het vierstapenproces dat Rabobank gebruikt en waarom compliance geen akkoord geeft, maar de business zelf het risico draagt.
Een use case die technisch solide was, stemherkenning als klantverificatie, ging toch niet live omdat stemkloning zich zo snel ontwikkelt dat het identificatiemiddel binnen afzienbare tijd een kwetsbaarheid zou worden.
Voor organisaties zonder compliance-afdeling zijn er drie basisvragen die al het verschil maken: kan ik dit, mag ik dit, wil ik dit.Morgen kun je beginnen met een lijst van de Artificial Intelligence-toepassingen die je gebruikt, en per toepassing noteren welke persoonsgegevens er verwerkt worden, of er een disclaimer aanwezig is en wie verantwoordelijk is als het misgaat.
Onderwerpen
- Het vierstapenproces van Rabobank voor AI-implementatie: van Idea Phase tot Business as Usual, met betrokkenheid van verschillende teams per fase
- Risicoweging via een vijfpuntsschaal die bepaalt wie beslissingen mag nemen, waarbij compliance risico's in kaart brengt maar de business zelf verantwoordelijk blijft
- De praktische toepassing van drie wetgevende kaders (AI Act, AVG en Wet op het Financieel Toezicht) bij chatbot Robin, met nadruk op het verschil tussen informeren en adviseren
- De afgewezen use case van stemherkenning voor klantverificatie vanwege snelle ontwikkelingen in stemkloning-technologie, als voorbeeld van responsible AI
- Drie basisvragen voor MKB-organisaties zonder compliance-afdeling: kan ik dit, mag ik dit en wil ik dit
Links
- Podcast: AIToday Live podcast
- Organisatie: Rabobank
- Congres: Nationaal AI en Governance Congres | Outvie
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: Rabobank - OpenAI
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Outvie
Outvie verbindt professionals met events en opleidingen rond actualiteit en strategie.
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:04,500
In deze aflevering krijg je een concrete beeld van hoe Rabobank AI
2
00:00:04,500 --> 00:00:07,200
use-cases beoordeeld voor livegang.
3
00:00:07,200 --> 00:00:11,400
Waarom een chatbot bij een bank te maken heeft met de AI Act,
4
00:00:11,400 --> 00:00:15,900
de AVG en de wet op het financiëel toezicht tegelijk,
5
00:00:15,900 --> 00:00:22,899
en hoe je als organisatie buiten de bankensector toch grip houdt op AI-risico's.
6
00:00:22,899 --> 00:00:27,399
Of je nu projectmanager, compliance professional of ondernemer bent,
7
00:00:27,399 --> 00:00:33,399
na deze aflevering weet je wat verantwoorden AI in de praktijk echt vraagt.
8
00:00:34,838 --> 00:00:36,679
Joop: Hoi, leuk dat je luistert.
9
00:00:36,679 --> 00:00:41,799
Joop: We zijn live vanuit het Nationaal AI en Governance Congres van Audi.
10
00:00:42,039 --> 00:00:48,198
Joop: En we gaan spreken, we gaan spreken met Margaret Kalisvaart.
11
00:00:48,359 --> 00:00:56,518
Joop: en zij is Senior Compliance Officer bij de Rabobank, waar ze zich bezighoudt met privacy record keeping en de implementatie van de AI Act.
12
00:00:56,678 --> 00:01:06,278
Joop: Ze is Guild Lead privacy en record keeping, betrokken bij de AI Act-werkgroep en instrueert het Certified Governance en AI officer programma, helemaal mondvol.
13
00:01:08,279 --> 00:01:10,598
Joop: Vandaag praten we over chatbot Robin.
14
00:01:10,599 --> 00:01:17,078
Joop: Hoe zorg je namelijk dat het als bank zo'n AI-toepassing op een verantwoorde manier live gaat.
15
00:01:17,079 --> 00:01:18,359
Joop: Maar het welkom.
16
00:01:18,598 --> 00:01:19,558
Margaret: Dankjewel.
17
00:01:19,958 --> 00:01:25,879
Joop: Fijn dat je bij ons in de studio wilde komen om hierover te vertellen.
18
00:01:26,279 --> 00:01:34,039
Niels: Kan je ons meenemen naar het moment waar je voor het eerst echt voelde dat AI governance bij Rabobank geen papieren exercitie was, maar iets wat er echt toe deed.
19
00:01:34,279 --> 00:01:35,558
Niels: Wat was de situatie?
20
00:01:35,559 --> 00:01:37,319
Niels: En wat stond er op het spel?
21
00:01:38,359 --> 00:01:43,558
Margaret: Sinds 2022 sta ik opgesteld voor een digitale tribe, de Digital Customer Interactions.
22
00:01:44,118 --> 00:01:54,838
Margaret: Deze tribe die doet veel om efficiënter processen in voor klanten voor medewerkers efficiënter beter mogelijk te maken.
23
00:01:55,078 --> 00:02:00,998
Margaret: En in zo 2024 kwam er zo AI heel erg op en 23 ook al.
24
00:02:00,998 --> 00:02:02,439
Margaret: en ging het heel snel.
25
00:02:02,438 --> 00:02:05,638
Margaret: En daar was toen in eerste een ban op AI.
26
00:02:05,639 --> 00:02:07,478
Margaret: Dus eerst even een pauze.
27
00:02:07,478 --> 00:02:09,318
Margaret: E kijken, wat willen we nou?
28
00:02:09,318 --> 00:02:13,319
Margaret: En tegelijkertijd wel kijken met een paar use cases.
29
00:02:13,319 --> 00:02:15,398
Margaret: die potentie hadden.
30
00:02:15,399 --> 00:02:17,398
Margaret: En één daarvan is de chatbot Robin.
31
00:02:17,399 --> 00:02:21,158
Margaret: Chatbot Robin moet je voorstellen, bestaat al langer.
32
00:02:21,158 --> 00:02:23,399
Margaret: Dus het is traditionele AI.
33
00:02:23,399 --> 00:02:28,038
Margaret: In eerste instantie voor geschreven antwoorden, vragen en antwoorden.
34
00:02:28,359 --> 00:02:33,319
Margaret: Maar je kan het nog beter en efficiënter maken door een large language model eraan toe te voegen.
35
00:02:33,399 --> 00:02:43,958
Margaret: En dit is iets wat een van de use cases was, was tijdens die ban, waar ze toch een onderzoek gingen doen, kunnen we dit toch gebruiken om de klanten en ook de medewerkers hier beter bij te helpen.
36
00:02:43,959 --> 00:02:46,518
Joop: En wat was het spannende deel.
37
00:02:47,558 --> 00:02:51,959
Joop: Aan de ene kant is het spannend, hoor ik, want er is altijd een ban op.
38
00:02:52,519 --> 00:02:56,278
Joop: Wat was de spannend aan en wat heeft ervoor gezorgd van ja, maar we gaan het toch doen.
39
00:02:57,799 --> 00:03:06,359
Margaret: Op een hele veilige wijze, rustige wijze, en niet meteen de snelheid erin, toch kijken welke assessments moeten er gedaan worden.
40
00:03:06,358 --> 00:03:10,919
Margaret: En ook gedurende die treinrit, want ik gebruik het ook wel zoals voorbeeld een trein.
41
00:03:10,919 --> 00:03:13,958
Margaret: Te kijken welke assessments.
42
00:03:14,118 --> 00:03:24,358
Margaret: Je hebt een privacy stukje, de Data Protection Impact Assessment, zijn persoonsgegevens die verwerkt worden, maar je hebt met een large language model ook te maken met een voorspelbaarheid.
43
00:03:24,359 --> 00:03:29,079
Margaret: Het is altijd de kat springt op de bank, maar het kan ook de hond springt op de tafel zijn, zeg maar.
44
00:03:29,239 --> 00:03:30,519
Margaret: Dus je weet ook niet zo goed.
45
00:03:30,519 --> 00:03:38,439
Margaret: Wat het antwoord dan kan zijn, die een klant, het is client facing, meteen kan zien in een Rabobank app of op de website.
46
00:03:39,079 --> 00:03:51,319
Margaret: En dat stukje, dat is met prompting, het wordt dat echt gecheckt van hoe kunnen we dat wel zowel voor livegang als ook tijdens live monitoren en kijken dat dat goed blijft werken.
47
00:03:51,478 --> 00:03:57,799
Joop: Wat kun je voor de luisteraar uitleggen wat het betekent, want jullie zijn een gereguleerde organisatie.
47
00:03:58,038 --> 00:04:02,598
Joop: En dat je toch, zeg maar met zo'n chat naar buiten wil.
48
00:04:02,999 --> 00:04:04,518
Joop: Wat dat betekent.
49
00:04:05,158 --> 00:04:10,838
Margaret: Wat dat betekent, is dat ik voor de klanten dat ze sneller antwoorden kunnen krijgen.
50
00:04:11,158 --> 00:04:18,038
Margaret: En dat er minder klant medewerkercontact hoeft te zijn voor relatief simpele vragen.
51
00:04:18,278 --> 00:04:23,399
Margaret: Soms kan je het ook als je zoekt op een website vinden, want dat is natuurlijk de bron, de data input.
52
00:04:23,399 --> 00:04:28,118
Margaret: Maar hoe makkelijk is het als je de vraag kan stellen aan een chatbot en dan ook het antwoord krijgt.
53
00:04:28,119 --> 00:04:38,359
Margaret: En toen ik in 2024 voor het eerst ook zo extern op een congres stond en hierover vertelde, was het een van de vragen die ik aan het publiek stelden, wie chat daar nou graag met een chatbot.
54
00:04:38,519 --> 00:04:41,079
Margaret: Daar gingen je heel weinig handen omhoog.
55
00:04:41,079 --> 00:04:43,479
Margaret: En recent stelde ik die vraag weer.
56
00:04:43,478 --> 00:04:45,318
Margaret: En toen gingen er wat meer handen omhoog.
57
00:04:45,319 --> 00:04:53,478
Margaret: Ik moet wel zeggen dat over het algemeen de jongeren zijn, die dan zeggen van ja, ik vind het eigenlijk wel heel fijn, maar ze durven het ook niet echt te zeggen, toe te geven.
58
00:04:53,478 --> 00:05:00,598
Margaret: Omdat er toch nog steeds heel veel bias als we dat ook, is, dat een chatbot vaak ook niet goede antwoorden geeft.
59
00:05:00,598 --> 00:05:06,918
Margaret: Terwijl wij zien dat op het moment dat je de large language model, wellicht ook wel eerder.
60
00:05:06,918 --> 00:05:13,319
Margaret: Nu op dit moment is het nooit nog de traditionele AI, dus voor gescripte antwoorden, vragen en antwoorden.
61
00:05:13,319 --> 00:05:18,918
Margaret: En pas als die dan geen antwoord kan geven, dan krijg je de large language model, dus de Gen AI.
62
00:05:19,158 --> 00:05:23,159
Margaret: Maar je zou ook kunnen zeggen, kunnen we niet de large language model eerst doen.
63
00:05:23,158 --> 00:05:27,639
Margaret: Dan heeft die klant wellicht nog sneller en beter een antwoord met de brongegevens erbij.
64
00:05:27,639 --> 00:05:32,679
Margaret: En voor sommige vragen kan het nog steeds goed zijn om de traditionele AI eraan te doen.
65
00:05:32,679 --> 00:05:37,838
Margaret: Dus dan ben je met die trein die rijdt van die chatbot en dan wissel je wat onder die motorkap.
66
00:05:38,079 --> 00:05:46,558
Joop: Ik kan me juist voorstellen dat het gereguleerd bent, dat het extra eisen met zich meebrengt.
67
00:05:46,718 --> 00:05:50,158
Joop: Dan een chatbot van ik noem bol.com.
68
00:05:50,158 --> 00:05:52,319
Margaret: Ja, dat klopt.
69
00:05:52,639 --> 00:05:55,278
Margaret: En je hebt daar meerdere, je hebt in de eerste lijn.
70
00:05:55,278 --> 00:06:00,399
Margaret: We hebben banken hebben Freelines of Defense of Freelance of Responsibility, noemen wij dat dan binnen de Rabobank.
71
00:06:00,559 --> 00:06:04,079
Margaret: En dan heb je de eerste lijn, de business die zelf moet zorgen om te voldoen.
72
00:06:04,079 --> 00:06:06,799
Margaret: En je hebt een tweede lijn, daar zit Model Risk Management bij.
73
00:06:06,798 --> 00:06:09,999
Margaret: Er zit operational risk management en IT-risk zit erbij.
74
00:06:09,999 --> 00:06:12,239
Margaret: Compliance en privacy office.
75
00:06:12,478 --> 00:06:21,358
Margaret: En er zijn er verschillende assessments die er gedaan moeten worden om ervoor te zorgen dat in dit geval chatbot robin, voldoet aan de regels die op een bank gelden.
76
00:06:21,358 --> 00:06:23,759
Margaret: Want je hebt inderdaad niet alleen de AI-act.
77
00:06:23,759 --> 00:06:29,279
Margaret: Nee, je hebt ook de GDPR, de AVG, dat hebben we natuurlijk heel veel bedrijven.
78
00:06:29,519 --> 00:06:33,278
Margaret: Maar tegelijkertijd hebben we ook de WFT, de wet op het financieel toezicht.
79
00:06:33,278 --> 00:06:36,479
Margaret: En besluitsgedragstoezicht financiële instellingen.
80
00:06:36,478 --> 00:06:38,079
Margaret: PGO zit daaronder.
81
00:06:38,079 --> 00:06:43,199
Margaret: Dat betekent dat een chatbot wel kan informeren, maar niet adviseren.
82
00:06:43,359 --> 00:06:46,799
Margaret: Want adviseren, krijg je een heel zorgplichtdossier op je.
83
00:06:46,798 --> 00:06:48,798
Margaret: En dat is ook weer aan regels gebonden.
84
00:06:48,798 --> 00:06:51,439
Margaret: Dus de chatbot robin, die adviseert niet.
85
00:06:51,598 --> 00:06:53,758
Margaret: Dat wordt ook kenbaar gemaakt met een disclaimer.
86
00:06:53,759 --> 00:06:55,999
Margaret: En daar moet je dus ook goed op monitoren.
87
00:06:55,999 --> 00:06:59,199
Margaret: Prompt aan het begin, maar ook tijdens de looptijd zorgen.
88
00:06:59,199 --> 00:07:00,798
Unknown: Dat hij niet gaat adviseren.
89
00:07:00,798 --> 00:07:03,199
Niels: Dus dat betekent ook continu monitoring.
90
00:07:03,598 --> 00:07:06,799
Unknown: En dat is denk ik technisch, maar ook compliance.
91
00:07:06,959 --> 00:07:08,399
Niels: Of is dat vooral technisch?
92
00:07:08,399 --> 00:07:08,878
Margaret: Hoe zit dat?
93
00:07:09,199 --> 00:07:11,679
Margaret: Er zit een technisch deel in voor een deel.
94
00:07:11,678 --> 00:07:15,679
Margaret: En ook daar wordt elke keer gekeken van: goh, hoe kunnen we het weer beter maken?
95
00:07:15,918 --> 00:07:20,079
Margaret: En er wordt een X percentage handmatig gecheckt.
96
00:07:20,079 --> 00:07:24,879
Margaret: En dat zijn dan niet de mensen van de digitale tribe afdeling waarvoor ik opgesteld sta.
97
00:07:28,158 --> 00:07:31,279
Margaret: Maar het zijn ook juist de mensen van de business.
98
00:07:31,278 --> 00:07:34,159
Margaret: Dus juist de mensen van bijvoorbeeld housing.
99
00:07:34,479 --> 00:07:36,879
Unknown: Dat er niet geadviseerd wordt voor een hypotheek.
100
00:07:37,199 --> 00:07:38,159
Margaret: Wie kan dat het beste?
101
00:07:38,158 --> 00:07:39,999
Unknown: Het kunnen het beste die mensen doen.
102
00:07:39,999 --> 00:07:41,118
Margaret: Dus dat is een samenwerking.
103
00:07:41,358 --> 00:07:44,879
Niels: Die worden er allemaal bij betrokken om dat continu te blijven evalueren met elkaar.
104
00:07:44,879 --> 00:07:46,879
Niels: En ik vond het wel heel mooi de analogie met de trein.
105
00:07:47,359 --> 00:07:48,079
Niels: We kennen Nederland.
106
00:07:48,079 --> 00:07:49,358
Niels: Er zit ook wel zo'n bladeren op de weg.
107
00:07:49,359 --> 00:07:50,319
Niels: Wat zijn de bladeren op de weg?
108
00:07:50,479 --> 00:07:53,278
Niels: Jullie zijn tegengekomen om dit voor te brengen.
109
00:07:53,278 --> 00:07:55,759
Margaret: Ja, bladeren zijn er wel eens.
110
00:07:57,838 --> 00:08:00,079
Margaret: Het is net continu het monitoren.
111
00:08:00,079 --> 00:08:06,559
Unknown: En soms, ik weet nog dat er was een tijdje terug, dat ze bedrijven de website van Rabobank eraan toe wilden voegen.
112
00:08:06,558 --> 00:08:08,559
Unknown: Maar die had minder data input.
113
00:08:08,798 --> 00:08:09,918
Margaret: Minder data-input.
114
00:08:09,918 --> 00:08:12,238
Margaret: Dat geeft ook aan de kwaliteit van de antwoorden.
115
00:08:12,239 --> 00:08:14,239
Margaret: Dan heb je ook hoeveelheid data voor nodig.
116
00:08:14,239 --> 00:08:16,079
Unknown: Dus dan is de business dan ook weer aan het kijken.
117
00:08:16,079 --> 00:08:21,919
Unknown: Hoe kunnen we ervoor zorgen dat we toch die bedrijvenwebsites, daar ook die URLs, daar ook op kunnen aansluiten.
118
00:08:21,918 --> 00:08:28,319
Unknown: Dat is een voorbeeld van een blad op de weg van als het onvoldoende data is, hoe ga je er dan voor zorgen dat het nog wel werkt?
119
00:08:28,478 --> 00:08:31,118
Niels: Dus hoe kan je de kwaliteit waarborgen en wat is daarvoor nodig?
120
00:08:31,118 --> 00:08:34,399
Niels: En daar is eigenlijk eigenlijk heel veel kwaliteit gedreven dan.
121
00:08:35,198 --> 00:08:36,638
Margaret: En dat is dan mijn blikveld.
122
00:08:36,639 --> 00:08:41,597
Margaret: Want tegelijkertijd merk ik dat model risk management die zat voorheen in mijn beeld.
123
00:08:41,597 --> 00:08:42,717
Margaret: meer in een silo.
124
00:08:42,717 --> 00:08:46,878
Margaret: Dus meer model risk management gewoon jarenlang binnen banken.
125
00:08:46,879 --> 00:08:50,559
Unknown: En dat is ook het voordeel van banken ten opzichte van andere sectoren.
126
00:08:50,559 --> 00:08:52,718
Margaret: Die checken de modellen.
127
00:08:53,278 --> 00:09:00,158
Margaret: En model risk management, AI-act, ik vergelijk dat is een baby, een kind, een peuter, en die wordt groter en groter.
128
00:09:00,158 --> 00:09:03,838
Unknown: En dat geldt voor denk elk vakgebied, zo, ook Model Risk Management.
129
00:09:03,838 --> 00:09:09,278
Margaret: En die was dus eerst veel erg voor op zichzelf bezig met de traditionele modellen.
130
00:09:09,278 --> 00:09:12,879
Unknown: Credit risks en dat soort modellen.
131
00:09:12,879 --> 00:09:15,599
Margaret: Maar wat moesten ze nu met een large language model.
132
00:09:17,438 --> 00:09:18,559
Margaret: Hoe ga je dat nou doen?
133
00:09:18,718 --> 00:09:30,319
Margaret: En daar dan weer een policy op bouwen en zorgen dat je daar die tierings met de bijbehorende vereisten die je dan doet met assessments.
134
00:09:32,158 --> 00:09:40,319
Margaret: Nu op dit moment is het zo dat een chatbot die client facing is, heeft een hogere tiering en moet dus meer, wordt meer onderzocht.
135
00:09:40,319 --> 00:09:44,239
Margaret: Maar je moet je voorstellen tijdens die ban en met die chatbot robin?
136
00:09:44,478 --> 00:09:46,558
Margaret: Toen was Model Risk Management nog niet zo ver.
138
00:09:46,558 --> 00:09:47,919
Margaret: Dus deden die assessments niet.
137
00:09:47,918 --> 00:09:56,719
Margaret: Dus wat je we nu hebben gedaan in Q4 2025 was dat Model Risk Management chatbot robin, ook als een hogere teering gaf.
138
00:09:56,718 --> 00:09:59,519
Margaret: Dus meer ging onderzoeken en meer vraag gestellen.
139
00:09:59,519 --> 00:10:03,118
Margaret: En die komt dan ook naar mij als compliance officer en naar de privacy officer.
140
00:10:03,119 --> 00:10:04,879
Unknown: Goh, wat hebben jullie voor vragen?
141
00:10:04,879 --> 00:10:06,559
Margaret: En god, dit is de uitkomst.
142
00:10:06,798 --> 00:10:10,159
Margaret: Dus die samenwerking gaat ook steeds beter.
143
00:10:10,718 --> 00:10:12,319
Joop: En welke vragen hadden jullie?
144
00:10:12,319 --> 00:10:13,439
Margaret: Nou, hoe zit dat?
145
00:10:13,678 --> 00:10:14,959
Margaret: Wat is de uitkomst?
146
00:10:14,958 --> 00:10:18,278
Margaret: Hoe zit het, zeg maar met de adviseert die chatbot?
147
00:10:18,599 --> 00:10:20,999
Margaret: Welke vragen heb je gesteld.
148
00:10:17,999 --> 00:10:24,038
Margaret: Hoe zit het met de persoonsgegevens?
149
00:10:25,158 --> 00:10:28,119
Margaret: Waar werkt die filter die we erop hebben, werkt die?
150
00:10:28,119 --> 00:10:30,759
Margaret: Want enerzijds heb je een disclaimer voor de mensen.
151
00:10:32,038 --> 00:10:34,599
Niels: Want dit is dan een voorbeeld die al in productie is.
152
00:10:34,918 --> 00:10:37,639
Niels: Wat komt er bekijken als er nieuwe ideeën zijn?
153
00:10:37,798 --> 00:10:44,039
Niels: Welke hoepels zijn er om te voorkomen dat er zaken naar productie gaan die misschien nog niet naar productie wilde brengen?
154
00:10:44,038 --> 00:10:47,558
Niels: Wat is een beetje de way-of-working in de belangrijke vragen die je dan gesteld worden?
155
00:10:47,879 --> 00:10:49,878
Margaret: En we hebben de AI way of working.
156
00:10:50,759 --> 00:10:54,599
Margaret: En ook met alles governance kijken we altijd weer hoe kunnen we het nog beter maken.
157
00:10:54,599 --> 00:10:59,719
Margaret: Maar momenteel is die AI way of working vier stappen, zeg maar, die een business case doorloopt.
158
00:10:59,718 --> 00:11:02,759
Margaret: En de eerste business case die wordt gekeken naar.
159
00:11:02,918 --> 00:11:06,598
Margaret: En ik zou voor het Retail NL voor het Nederlandse domein opgesteld.
160
00:11:06,599 --> 00:11:11,399
Margaret: Puur voor de klanten en de medewerkers van retail NL want de Rabobank is groter dan dat.
161
00:11:11,879 --> 00:11:16,519
Margaret: Dan wordt gekeken naar, ik noem het wel eens de driehoek commercie efficiency en risk.
162
00:11:16,519 --> 00:11:18,599
Margaret: Dus de SER commercie.
163
00:11:18,599 --> 00:11:21,558
Margaret: Levert het ook wat op en is het maakt het efficiënter.
164
00:11:21,558 --> 00:11:24,278
Margaret: En is het ook risicovol of niet.
165
00:11:24,278 --> 00:11:29,319
Margaret: Dus dat wordt meteen aan het begin bij de ID-face, iemand bedenkt wat, wordt gekeken naar die SER.
166
00:11:29,879 --> 00:11:36,678
Margaret: En daar ben ik niet bij betrokken vanuit de tweede lijn vanuit compliance, dat doet de eerste lijn, samen met de AI-offer.
167
00:11:36,678 --> 00:11:44,359
Margaret: Dus dan heb je net zo goed als van toezichthouder die single point of contact de SPO is, dat is de RDI, Rijksdienst, infrastructuur.
168
00:11:44,359 --> 00:11:50,999
Margaret: Hebben wij ook binnen de bank, Spocs, Single point of contexts voor retoon is dat de triplied van DC.
169
00:11:50,999 --> 00:11:52,519
Margaret: En die heeft daar een office voor.
170
00:11:52,519 --> 00:11:55,958
Margaret: Die controleert van hey, voldoet het nou aan die commercie efficiëntie en risk.
171
00:11:56,038 --> 00:12:00,839
Margaret: Want wat we net zeiden, je kan wel helemaal het risico wegmitigeren, maar dan ga je ook niet.
172
00:12:01,079 --> 00:12:02,119
Margaret: En kom je niet vooruit.
173
00:12:02,119 --> 00:12:02,919
Margaret: Dan kom je niet vooruit.
174
00:12:02,918 --> 00:12:08,198
Margaret: Dus ze kijken ook, we levert het wat op en het kost ook geld, een business case.
175
00:12:08,198 --> 00:12:10,918
Margaret: Dus wat is de houdbaarheid?
176
00:12:10,918 --> 00:12:16,439
Margaret: En zoals laatst een collega zei: van ja, als je een fantastische idee hebt, maar het is maar voor één mens.
177
00:12:16,918 --> 00:12:18,359
Margaret: Die gaat hem niet worden.
178
00:12:20,359 --> 00:12:23,958
Joop: Het is in die idee-fase, daar ben je nog niet betrokken.
179
00:12:24,278 --> 00:12:28,679
Margaret: Dus daar doen ze wel een assessment, een eerste assessment op die commercie efficiëntie en risk.
180
00:12:28,759 --> 00:12:31,159
Margaret: Dus er wordt ook zeker al gekeken, is het haalbaar?
181
00:12:31,158 --> 00:12:37,798
Margaret: Want als je in de Idea phase al met een hoog risico of verboden AI bent, die moet je wel meteen identificeren.
184
00:12:38,198 --> 00:12:42,118
Margaret: En dan vervolgens als het dan gaat het naar de volgende fase toe.
182
00:12:42,119 --> 00:12:48,598
Margaret: En worden er weer assessments gedaan die daarvoor van toepassing is, waarbij Model Risk Management redelijk vroeg al in de wedstrijd zit.
183
00:12:48,599 --> 00:12:50,759
Margaret: En dan gaat hij daarna naar de derde fase.
184
00:12:50,759 --> 00:12:58,038
Margaret En als dat allemaal lekker loopt, dan kan die daarna naar de business as usual, naar de kandidaat werkelijk erin.
185
00:12:58,038 --> 00:13:09,558
Margaret: En daar zitten dus ook denk aan een DPA, als het een persoonsgegevensverwerking wordt, maar ook Model Risk Management Assessment, waarbij de samenwerking dus tegenwoordig heel goed is.
186
00:13:10,038 --> 00:13:11,798
Margaret: Risicoanalyse.
187
00:13:12,999 --> 00:13:15,798
Margaret En wat ze altijd ook doen, is een model development plan.
188
00:13:15,798 --> 00:13:19,719
Margaret: Die is primair meer voor Model Risk Management en de AI officer.
189
00:13:19,719 --> 00:13:23,879
Margaret: Dus de AI officer is en een poortwachter en het is een data science qua.
190
00:13:23,879 --> 00:13:35,079
Margaret: Dus die kan het ook beoordelen, maar ik in mijn rol als compliance officer heb ook heel veel aan, want ik zie ook wat voor toetsingen, monitoring ze doen.
191
00:13:35,239 --> 00:13:38,359
Margaret: Dus niet alleen bij de aanvang, maar ook bij de business as usual.
192
00:13:38,359 --> 00:13:43,798
Joop: En toevallig weet ik een beetje, zeg maar, jullie AI way of working, de fases.
193
00:13:43,798 --> 00:13:46,359
Joop: Want na die Idea phase krijg je de explore.
194
00:13:46,359 --> 00:13:49,399
Joop: En daarna krijg je development en test.
195
00:13:50,519 --> 00:13:53,239
Joop: Maar daar zit ook een buy erin, toch?
196
00:13:53,399 --> 00:13:55,399
Margaret: Buy development test.
197
00:13:55,879 --> 00:14:01,959
Joop: Is de governance voor het inkopen anders dan als je het zelf implementeert.
198
00:14:02,519 --> 00:14:05,079
Margaret: Ja, die is wat sneller.
199
00:14:05,079 --> 00:14:07,559
Margaret: En tegelijkertijd is het heel erg goed.
200
00:14:07,558 --> 00:14:09,799
Margaret: En dat is dan zeg maar de business die heel snel wil.
201
00:14:09,798 --> 00:14:14,759
Margaret: En de tweede lijn die denken oh oh, je moet nog steeds de DPA doen.
202
00:14:15,559 --> 00:14:22,359
Margaret: Dat is nog steeds wel dat je met elkaar moet kijken welke echt nodig op het moment dat je bij doet.
203
00:14:22,359 --> 00:14:30,599
Margaret: En als je dat was een hele leuke, die vind ik leuk toen ik ooit recht deed, was er een docent en die zei van ja, in Amerika is een enorme claimcultuur.
204
00:14:30,599 --> 00:14:38,278
Margaret: Wat je met de AI Act heb is productwetgeving, dat degene die het maakt, dat die dan ook een gebruiksaanwijzing moet geven.
205
00:14:38,278 --> 00:14:43,158
Margaret: Nou, toen was het zo: van ja, je mag een kat niet in de magnetron doen, dat stond niet in de gebruiksaanwijzing.
206
00:14:43,158 --> 00:14:45,479
Margaret: Dus die vrouw die stopte die kat in de magnetron.
207
00:14:45,718 --> 00:14:48,678
Margaret: En die had een claim in Amerika werkte dat destijds.
208
00:14:48,678 --> 00:14:50,439
Margaret: Maar dat geldt ook hier, zeg maar.
209
00:14:50,438 --> 00:14:53,558
Margaret: Dus die waar je het koop, die geeft een gebruiksaanwijzing.
210
00:14:53,558 --> 00:14:59,918
Margaret: Maar dit moment dat jij je niet aan die gebruiksaanwijzing houdt, dan wordt je zelf deployer.
211
00:15:00,119 --> 00:15:01,558
Margaret: Dus dat is natuurlijk wel eentje.
212
00:15:01,798 --> 00:15:03,159
Joop: Joop: Unknown: Unknown: Unknown: Unknown: Unknown: Unknown: Unknown: Unknown: Om wat goed in de gaten te houden.
213
00:15:06,479 --> 00:15:11,359
Niels: Niels: Unknown: Unknown: Unknown: Unknown: Unknown: Unknown: Unknown: Unknown: Ik zal nog even.
214
00:15:11,759 --> 00:15:20,159
Joop: Joop: Unknown: Unknown: Unknown: Unknown: Unknown: Unknown: Unknown: Unknown: Is er ook iets waar jij dat je iets hebt tegengehouden waarvan je achteraf zeggen van ja, maar daar had ik ook gelijk.
215
00:15:24,479 --> 00:15:29,519
Margaret: Wat er bij de business was, en dat was echt met alle goede intentie.
216
00:15:29,839 --> 00:15:35,199
Margaret: Ooit was er het idee om te kijken, wij kennen al die deepfakes, hè?
217
00:15:35,519 --> 00:15:42,239
Margaret: Ken de verhalen, dat er iemand echt denkt dat hij met de CEO praat en dan dat geld over maakt.
218
00:15:43,278 --> 00:15:49,438
Margaret: Je kan je voorstellen bij een bank, je wil dat zo goed mogelijk de verificatie wil je goed doen.
219
00:15:50,558 --> 00:15:52,879
Margaret: Dus ik ga nu naar de verificatie toe.
220
00:15:54,798 --> 00:15:59,679
Margaret: En wie zegt nu dat jullie echt met Mark en Kaderswaart aan het spreken zijn.
221
00:15:59,678 --> 00:16:00,399
Margaret: Jullie zien mij nu.
222
00:16:00,479 --> 00:16:04,079
Margaret: Wij zitten hier aan tafel op het AI outfit congres.
223
00:16:04,318 --> 00:16:06,079
Margaret: Dus wij zijn hier echt.
224
00:16:06,958 --> 00:16:11,759
Margaret: Maar vroeger kwam je als boer bij de Boerenleenbank bij Rabobank.
225
00:16:11,759 --> 00:16:13,679
Margaret: En kwam je daadwerkelijk kantoor binnen.
226
00:16:13,678 --> 00:16:16,399
Margaret: Die kantoren zijn natuurlijk al veel weer teruggebracht.
227
00:16:16,399 --> 00:16:19,679
Margaret: Want de klanten zelf doen ook heel veel digitaal.
228
00:16:19,999 --> 00:16:26,799
Margaret: Die zegt nou dat ik Margaret Kalisvaart ben als klant van de Rabobank en ik wil mijn bankpas is gestolen, weet ik veel.
229
00:16:27,359 --> 00:16:35,119
Margaret: Dus het zou natuurlijk ook heel goed zijn om daar die stemherkenning te doen en dan te kijken, is dat echt Margaret Kalisvaart of niet.
230
00:16:35,198 --> 00:16:37,999
Margaret: En dat stukje, daar zitten ook weer.
231
00:16:37,999 --> 00:16:44,559
Margaret: Dat was echt een hele goede use case, maar ook een hele risicovolle is uiteindelijk dus niet doorgegaan van spijt van de business.
232
00:16:45,438 --> 00:16:49,119
Margaret: Want het kan heel goed werken, alleen het gaat zo snel.
233
00:16:50,078 --> 00:16:51,199
Margaret: Het ontwikkelt zich zo snel.
234
00:16:51,198 --> 00:16:55,119
Joop: Dus iets wat vandaag de dag goed past, is morgen alweer achterhaald.
235
00:16:55,438 --> 00:17:00,079
Joop: Dat is wel een hele goede, want we hebben er maar een paar seconden nodig om een stem te klonen.
236
00:17:01,038 --> 00:17:03,678
Joop: Ja, dat is niet heel erg identificerend.
237
00:17:03,999 --> 00:17:08,878
Margaret: Zaten allemaal met die geringe mate in de basis in de opzet, ze was het echt heel goed.
238
00:17:08,878 --> 00:17:10,239
Margaret: Dat heel goed in elkaar.
239
00:17:10,239 --> 00:17:11,678
Margaret: Het is allemaal synthetisch.
240
00:17:13,678 --> 00:17:18,398
Margaret: Dus in die zin hadden ze hem ook wel bijna over de streep, zeg maar en mijn collega's.
241
00:17:18,398 --> 00:17:21,358
Margaret: Maar ja, uiteindelijk toch de riscapiteit.
242
00:17:24,479 --> 00:17:27,839
Joop: We hebben je voor ook met een van de sprekers gesproken.
243
00:17:27,839 --> 00:17:31,918
Joop: En daar vroeg ik hetzelfde aan, en die wil ik eigenlijk aan jou ook voorleggen.
244
00:17:32,239 --> 00:17:35,359
Joop: Vond je het dan ook moeilijk om nee te zeggen?
245
00:17:35,359 --> 00:17:36,558
Margaret: Je doet het met elkaar.
246
00:17:36,558 --> 00:17:39,599
Margaret: Dus je hebt met elkaar over de feiten, dit zijn de feiten.
247
00:17:39,599 --> 00:17:42,078
Margaret: En vandaag de dag klopt dit.
248
00:17:43,198 --> 00:17:45,119
Margaret: Je moet ook verder kijken.
249
00:17:45,119 --> 00:17:51,198
Margaret: En dan is het in feite feiten op tafel hebben.
250
00:17:51,198 --> 00:17:53,599
Margaret: En dan als het nee is, is het nee.
251
00:17:53,839 --> 00:17:55,119
Margaret: Zo simpel is het dan ook.
252
00:17:55,119 --> 00:17:59,119
Margaret: En het is ook niet aan mij, want heel vaak vraagt de business aan mij akkoord.
253
00:17:59,359 --> 00:18:00,558
Margaret: Ik geef geen akkoord.
254
00:18:00,639 --> 00:18:01,839
Margaret: Ik neem niet het risico.
255
00:18:01,839 --> 00:18:03,359
Margaret: De eerste lijn neemt het risico.
256
00:18:03,359 --> 00:18:05,038
Margaret: Dus zij zelf het besluiten.
257
00:18:05,119 --> 00:18:10,318
Margaret: Dus het is niet dat ik zeg nee, en dan ben ik de bepaler absoluut niet.
258
00:18:10,319 --> 00:18:12,799
Margaret: Het is alleen zo dat ik zeg, ja, dit is misschien wel een heel hoog risico.
259
00:18:12,799 --> 00:18:15,519
Margaret: Dan moet je naar een speciale committee voor dat hoge risico.
260
00:18:15,518 --> 00:18:18,639
Margaret: En die moeten het dan daar besluiten in de eerste lijn.
261
00:18:18,799 --> 00:18:30,318
Niels: En ook manager in de tweede lijn lijkt me wel lastig, want de techniek continu in beweging, dingen die mogelijk zijn die je misschien een jaar geleden nog niet eens voor ogen had.
262
00:18:30,559 --> 00:18:37,279
Niels: Hoe ga je in de evaluatie periodiek weer terugkijken naar dat soort beslissingen die je het verleden gemaakt hebt?
263
00:18:37,279 --> 00:18:40,639
Niels: Want de technologie verandert zo snel dat misschien dat je nu nog voorspeld.
264
00:18:40,639 --> 00:18:45,839
Niels: Oh nee, dat kan nog wel die voice, maar blijkt het inderdaad in de toekomst toch wel eens veel sneller te gaan.
265
00:18:45,839 --> 00:18:47,278
Niels: Hoe hou je daar grip op?
266
00:18:47,438 --> 00:18:49,918
Margaret: Door periodiek toch die monitoring te doen.
267
00:18:49,918 --> 00:18:54,158
Margaret: We hebben de gesprekken, zeg maar, daar is governance op ingericht.
268
00:18:54,478 --> 00:18:59,519
Margaret: Dus we hebben één keer in het kwartaal geeft de business ook aan dit zijn we van plan te doen.
272
00:18:59,599 --> 00:19:06,799
Margaret: Business is zoals ik zei, is zelfverantwoordelijk, dus die controleren zelf, doen die monitoring en die komen met de resultaten naar de tweede lijn.
269
00:19:06,799 --> 00:19:13,119
Margaret: Dus één keer in het kwartaal hebben we compliance liquor risk opgesteld voor in dit geval het WCI.
270
00:19:13,599 --> 00:19:17,919
Margaret: De gesprekken met de business met de Area Leads product owners.
271
00:19:17,918 --> 00:19:19,519
Margaret: Van, wat zijn jullie van plan?
272
00:19:19,518 --> 00:19:24,478
Margaret: En wat zijn de uitkomsten en welke assessments moeten er dan eventueel ook gedaan worden?
273
00:19:24,558 --> 00:19:26,319
Niels: En ze zijn verantwoordelijk.
274
00:19:26,478 --> 00:19:29,758
Niels: Hoe zorgen we ervoor dat ze die verantwoordelijkheid voelen en ook op acteren?
275
00:19:29,759 --> 00:19:31,598
Niels: Want dat zie ik in de praktijk nog wel eens fout gaan.
276
00:19:31,599 --> 00:19:34,158
Niels: Da zijn ze er wel van en toch ook weer niet.
277
00:19:34,799 --> 00:19:38,718
Margaret: Ze moet een risicoveging doen, waarbij de tweede line challengen.
278
00:19:38,718 --> 00:19:41,678
Margaret: En op het moment dat het we hebben een vijfschaal.
279
00:19:41,759 --> 00:19:45,438
Margaret: Dus low, medium low, medium, medium high en high.
280
00:19:45,438 --> 00:19:53,319
Margaret: Op het moment dat het naar low en medium low is, dan kan een product owner dat zelf accepteren op het moment dat het medium is of hoger, dan moet je naar een hoger gremium.
281
00:19:53,478 --> 00:20:00,359
Margaret: Dus daarmee heb je een governance technisch heb je dat afgedekt dat je dan naar het hoger leadershipsteam gaat.
282
00:20:01,399 --> 00:20:04,758
Joop: En daarmee kan je dus eigenlijk dus ook versnellen in die zin.
283
00:20:04,758 --> 00:20:15,879
Niels: Dus processen die het minder nodig hebben of een lo vallen inderdaad, kan je gewoon zelf al wel het mandaat hebben om de volgende stappen te gaan maken omdat je weet dat het de klassificatie laag is.
284
00:20:16,438 --> 00:20:18,918
Margaret: Dit is op risico verhaal.
285
00:20:19,319 --> 00:20:20,359
Margaret: Dus het kan nog steeds zijn.
286
00:20:20,599 --> 00:20:29,879
Margaret: Als je in de AI act, heb je natuurlijk het limited risk van de chatbot, zeg maar, maar dan hebben we risico's die specifiek voor de banken zijn.
287
00:20:30,518 --> 00:20:33,158
Margaret: Business continuity is bijvoorbeeld echt een risico.
288
00:20:33,319 --> 00:20:36,198
Margaret: Natuurlijk wel blijven, want als die chatbot uitvalt.
289
00:20:36,198 --> 00:20:40,758
Margaret: Ja, dan moeten medewerkers, waar zijn die medewerkers om die vragen te beantwoorden.
290
00:20:40,998 --> 00:20:51,958
Margaret: En dat is dus zo'n AI use gave reguliere risico's waar we tegenaan kijken van oké, dit zijn de bruto risico's zonder de mitigerende maatregelen.
291
00:20:51,958 --> 00:20:55,959
Margaret: En dan hebben we deze mitigerende maatregelen, wat is het netto risico en bij het netto risico.
292
00:20:55,958 --> 00:21:02,838
Margaret: Da kijk je per mij is privacy bijvoorbeeld eentje, of het zorgplicht, de BFT waar we het over hadden.
293
00:21:03,079 --> 00:21:08,518
Margaret: En dan kijk je dus wat is Bruto risico inherent en wat is het netto risico naar de mitigerende maatregelen.
294
00:21:08,918 --> 00:21:14,359
Niels: Lekker is een gereguleerde markt, waar je gewoon in de regels vast ligt, zodat je het kan doen.
295
00:21:14,359 --> 00:21:19,799
Niels: Maar wat kunnen we organisaties meegeven waar je zegt van goh, spende je toch die tijd erin.
296
00:21:20,119 --> 00:21:23,958
Niels: Ondanks dat je niet in een gereguleerde markt zit, maar dit heeft ons enorm geholpen.
297
00:21:25,079 --> 00:21:30,759
Joop: Misschien zelfs nog verkrappen van best wel heel veel luisteraars die zitten in het MKB.
298
00:21:30,839 --> 00:21:33,959
Joop: Die denken van ja, maar dit is echt typisch iets voor voor corporates.
299
00:21:34,438 --> 00:21:37,158
Joop: Waarom zouden zij ook governance nodig hebben?
300
00:21:37,799 --> 00:21:40,278
Margaret: Om die risico's echt in in beeld te hebben.
301
00:21:40,279 --> 00:21:42,678
Margaret: Inzichtoverzicht, daar begint het leven voor mij mee.
302
00:21:42,678 --> 00:21:43,319
Margaret: En een doel.
303
00:21:43,319 --> 00:21:52,359
Margaret: Je hebt een doel, je wil voor iets speciaals wil je niet een mens inzetten, maar een AI of een AI of een agent, agentic AI is dan de volgende.
304
00:21:52,438 --> 00:21:56,359
Margaret: Je hebt een doel en vervolgens ga je kijken wat heb ik nodig om dat doel te bereiken.
305
00:21:56,359 --> 00:22:01,798
Margaret: En één daarvan is ook inzicht en overzicht van wat zijn dan de risico's die erbij horen.
306
00:22:02,518 --> 00:22:08,839
Margaret: Zorg dat je begrijpt wat je doet en dat je de juiste mensen aanhaakt om dat doel ook te kunnen volgen.
311
00:22:09,158 --> 00:22:17,879
Margaret: In mijn familie hebben we best wel wat MKB bedrijven en ik kan me inderdaad voorstellen dat die voor de volgende familiefeest.
307
00:22:19,158 --> 00:22:22,438
Margaret: Dat die inderdaad wellicht ook een keer een chatbot willen doen.
308
00:22:22,438 --> 00:22:24,678
Margaret: Maar die hebben wel met andere risico's te maken.
309
00:22:24,678 --> 00:22:27,319
Unknown: Die hebben dus niet de WFT zorgplichtverhaal bevoegd.
310
00:22:27,478 --> 00:22:30,599
Margaret: Maar zullen wel weer moeten zorgen dat ze aan de mensen zeggen.
311
00:22:30,599 --> 00:22:33,238
Unknown: Dit is een chatbot, je praat niet met een mens.
312
00:22:33,478 --> 00:22:34,918
Margaret: Dat is een basisding.
313
00:22:35,238 --> 00:22:40,198
Margaret: Maar ook een disclaimer zorgt ervoor dat je niet gevoelige persoonsgegevens in die chatbot doet.
314
00:22:40,198 --> 00:22:51,558
Margaret: En dan is het onder de motorkap dat je daar dan bepaalde filters in hebt, dat is dan de wat een klant niet ziet, maar dat is dan wat je dan als MKB'er ook moet kijken, wat je daarin passend kan doen.
315
00:22:52,359 --> 00:23:02,998
Niels: Bepaalde vragen die ze zichzelf kunnen stellen, want soms weet je misschien niet wat je niet weet, vragen die je zo kan stellen waardoor je getriggerd wordt om over dit soort zaken na te denken.
316
00:23:06,198 --> 00:23:08,918
Niels: Op AI-gebied.
317
00:23:08,918 --> 00:23:14,678
Niels: Of breder in de governance, want het is met name een trigger om dat risico en het bredere perspectief te kunnen spotten.
318
00:23:14,678 --> 00:23:19,958
Niels: Dus wat zijn dan vragen die je in de praktijk tegenkomt waarop je hierover na gaan denken?
319
00:23:19,958 --> 00:23:23,238
Unknown: Om dan een AI in te zetten voor je doel.
320
00:23:24,839 --> 00:23:30,838
Margaret: Ik denk op het moment dat je wil versnellen en ook met de arbeidsmarkt krap, het zijn allemaal externe factoren.
321
00:23:30,839 --> 00:23:36,119
Margaret: Dat je heel goed moet kijken van oké, kan ik dit kan ik dit, mag ik dit, maar wil ik het ook.
322
00:23:36,119 --> 00:23:43,798
Margaret: Want dat wil ik het ook ethiek, daar hebben we het nog niet over gehad, maar ethiek is wat mij betreft ook voor de komende jaren de meest belangrijke.
323
00:23:44,839 --> 00:23:53,958
Margaret: Omdat het hoe willen wij ons leven, onze autonomie laten bepalen door een AI of niet.
324
00:23:53,958 --> 00:24:03,639
Margaret: Als voorbeeld bij het API en RDI congres in december 2025, als een hele goede sessie over Agentic AI en de dreigingslandschap daarvan.
325
00:24:03,958 --> 00:24:07,238
Margaret: Heel veel mensen hebben zonnepanelen op hun dak.
326
00:24:07,639 --> 00:24:15,399
Margaret: Stel, je bent het MKB en je hebt een bedrijf die die zonnepanelen, zeg maar.
327
00:24:16,359 --> 00:24:19,478
Margaret: Ook zorgt die in de lucht blijven, zeg maar, dus monteurs.
328
00:24:19,478 --> 00:24:25,798
Margaret: Dan zou je ervoor kunnen zorgen dat je een agentic AI hebt en dat die praat met de agentic AI van je klant.
329
00:24:27,399 --> 00:24:32,519
Margaret: Dan is het aan de klant hoe autonoom de AI is om een afspraak te maken met de monteur.
330
00:24:32,599 --> 00:24:34,478
Margaret: Ik ben dan die MKB'er.
331
00:24:33,319 --> 00:24:38,078
Margaret: Je wil dan ook dat je een hoog klanttevredenheid hebt.
332
00:24:38,559 --> 00:24:45,359
Margaret: Waarschijnlijk zit er een prompt in voor door die klant, ja, ik wil minimaal vier en een halve ster hoor, anders doe ik niet op een schaal van vijf.
333
00:24:45,839 --> 00:24:47,839
Margaret: Je hebt ook fraudeurs in je omgeving.
334
00:24:48,879 --> 00:24:50,158
Margaret: Het kan heel snel gaan.
335
00:24:50,158 --> 00:24:55,678
Margaret: Je zal als MKB'ers goed moeten kijken, ook naar in dit geval het dreigingslandschap van je conculega's.
336
00:24:55,678 --> 00:25:13,359
Margaret: Want ja, als jij ook op je nog zo goed in je monteurschap voor die zonnepanelen, als die klant op een gegeven moment AI gaat gebruiken, agents om zelfstandig een afspraak te maken, hangt van de autonomie af die klant dan geeft aan die agent, dan zit er misschien helemaal geen mensen meer tussen.
337
00:25:13,359 --> 00:25:21,279
Unknown: En dan gaan misschien de meeste opdrachten naar je conculega die dat wel goed in elkaar heeft gedaan, die dus wel een agent heeft die praat met de agent van de klant.
338
00:25:21,279 --> 00:25:28,478
Unknown: Dit soort dingen, denk ik dat we daar echt over na moeten denken hoe we dat in de toekomst verder vorm kunnen geven, maar op een ethische manier.
339
00:25:28,478 --> 00:25:30,238
Niels: Er zit ook altijd fraudeurs bij.
340
00:25:30,238 --> 00:25:31,918
Joop: Ja, ja, helaas wel.
341
00:25:31,918 --> 00:25:36,238
Joop: En als we het dan over deurs hebben, hebben we denk ik misschien ook al over hackers.
342
00:25:37,758 --> 00:25:42,799
Joop: Hoort het beveiligingsdeel ook onder het governance vraagstuk.
348
00:25:42,958 --> 00:25:50,078
Margaret: Bij banken is het gelukkig heel erg goed strak ingeregeld met cybersecurity.
343
00:25:50,319 --> 00:25:57,758
Margaret: Je moet er niet aan denken bij zo'n basale structuur dat je niet kan pinnen of dat er echt iets mis is, dat wil je niet.
344
00:25:57,918 --> 00:26:06,158
Margaret: Daar zit echt heel veel governance op met alle in de IT gereguleerde stuk, met security assessments, et cetera.
345
00:26:07,039 --> 00:26:20,958
Margaret: En als MKB'er weer terugkijkt, ja heel eerlijk gezegd, op het moment dat ik een vragenlijst in moet vullen bij een simpele website, ik weet dat er bij een bank goed beveiligd is, afhankelijk van de sector, denk ik ook, ja, ik vertrouw dit niet helemaal.
346
00:26:20,958 --> 00:26:24,158
Margaret: Dus ik doe nu niet mijn echte geboortedatum, maar doe even een andere.
347
00:26:25,119 --> 00:26:28,879
Margaret: Denk aan de verschillende datalekken, zoals Odoo die er dan in één keer zijn.
348
00:26:29,438 --> 00:26:31,759
Margaret: En het wordt allemaal aan elkaar geknopt.
349
00:26:32,079 --> 00:26:35,838
Margaret: Er is al zoveel over ons allen bekend op de dark web.
350
00:26:39,198 --> 00:26:44,078
Joop: Het generatieve AI is een beetje gaan leven toen ChatGPT uitkwam.
351
00:26:44,399 --> 00:26:49,518
Joop: Wat had jij toen willen weten als governance officer.
352
00:26:50,958 --> 00:26:54,478
Joop: Wat had je het leven makkelijker gemaakt als je dat toen had geweten?
353
00:26:55,038 --> 00:26:59,198
Margaret: Sowieso is bij de basis is dat je beleid hebt hoe je het mag gebruiken.
354
00:26:59,438 --> 00:27:02,318
Margaret: Dat stukje en dat komt beleid komt altijd later.
355
00:27:02,639 --> 00:27:13,758
Margaret: Maar als je als die kaders helder zijn voor een ieder, dan weet je ook hoe je het kan inzetten in je werk of in je persoonlijke leven.
356
00:27:16,319 --> 00:27:21,359
Margaret: Het maakt het leven een stuk makkelijker door Gen AI te gebruiken, vind ik zelf ook.
357
00:27:21,599 --> 00:27:28,798
Margaret: Het hangt ook van de kwaliteit af van de large language model, wat de kwaliteit van de antwoorden er terug is.
358
00:27:29,119 --> 00:27:33,599
Margaret: En je het zelf opzoeken dat stuk is weg.
359
00:27:33,599 --> 00:27:38,158
Margaret: De vraag is nij hoe klein het antwoord dan ook in je hoofd.
360
00:27:39,518 --> 00:27:45,678
Margaret: Studenten gebruiken nu ook allemaal grote GPT-achtige klaar, et cetera.
361
00:27:47,279 --> 00:27:55,758
Joop: En heeft het je werk makkelijker gemaakt in zijn geheel of heeft het ook een complicerende factor.
362
00:27:56,958 --> 00:27:58,799
Margaret: Het maakt het makkelijker en makkelijker.
363
00:27:59,758 --> 00:28:13,758
Margaret: Je wordt hoe meer je het gebruikt met de randvoorwaarden wat er voor staat, hoe makkelijker het je werk ook maakt, en dat je dan de simpele dingen achterweg kan laten en dat je er meer bij de wat moeilijkere taken terechtkomt.
364
00:28:13,759 --> 00:28:18,798
Margaret: Tegelijkertijd wil je ook even ontspannen en even makkelijk iets hebben.
365
00:28:19,119 --> 00:28:20,078
Niels: Ook wel lekker inderdaad.
366
00:28:20,639 --> 00:28:26,718
Niels: We zijn vandaag dus op het congres waar we het eigenlijk niet anders hebben dan AI governance en ik zag een hele mooie grote opkomst.
367
00:28:26,718 --> 00:28:36,158
Niels: Dus het is gelukkig een onderwerp die hoorde geleefd, maar zijn er ook zaken waar je hoopvol tegenaan kijkt in de ontwikkeling op AI governance vlak of waar je misschien van wakker ligt.
368
00:28:38,799 --> 00:28:42,879
Margaret: Binnen de bank loopt het in mijn beleving goed en het kan altijd beter.
369
00:28:42,879 --> 00:28:46,559
Margaret: Dus daar lig ik niet wakker van, wees waar ik wakker van weet, is het ethische stuk.
370
00:28:46,558 --> 00:28:52,158
Margaret: Dus wat willen we nou eigenlijk in de toekomst zijn voor mijn kinderen en daar weer de kinderen van, hoe willen wij dat het leven er in de toekomst uitziet.
371
00:28:52,239 --> 00:28:53,919
Joop: Dus daar lig ik dan wakker van.
372
00:28:54,558 --> 00:28:56,639
Margaret: En wat zou je het liefst willen zien?
373
00:28:56,799 --> 00:29:08,798
Margaret: Dat het goed, dat we met z'n allen goed nadenken, wat willen we, wat kunnen we, je leeft in een bubbel, wees je ook bewust van de bubbel waar je in je leeft, en dat kun je natuurlijk niet altijd.
374
00:29:09,438 --> 00:29:13,599
Margaret: Maar vooral dat je kan het als individu niet altijd overzien.
375
00:29:13,839 --> 00:29:18,399
Margaret: Een mens weet minder soms een organisatie die veel dieper in die materie zit.
376
00:29:18,918 --> 00:29:26,438
Margaret: Dus het is heel fijn als een organisatie zelf ook even verder kijkt dan alleen maar de commercie, maar even kijkt, willen we dit nu echt voor de samenleving.
377
00:29:28,198 --> 00:29:33,958
Joop: Wat is jouw advies als senior compliance officer aan een junior compliance officer.
378
00:29:34,279 --> 00:29:36,758
Margaret: Ontdek, speel, leer.
379
00:29:37,079 --> 00:29:41,799
Margaret: Ga om met een collega, medior senior compliance officer.
380
00:29:41,799 --> 00:29:50,918
Margaret: Maar je spreekt ook juist met de business, zorg dat je begrijpt de taal spreekt van de business met je banken, legal risk collega, risk management collega.
381
00:29:50,918 --> 00:29:54,518
Margaret: Maar dat je je netwerk opbouwt.
382
00:29:54,998 --> 00:29:59,239
Margaret: Dat je het vooral je energie en plezier hebt en het is gewoon een leuk vak.
383
00:30:00,998 --> 00:30:02,598
Margaret: Daarom doe ik het ook al heel lang.
384
00:30:04,198 --> 00:30:09,958
Niels: En wat is het sprankje waarvoor je zegt van, dat is echt wat maar energie geeft in het vak.
385
00:30:10,279 --> 00:30:22,438
Margaret: Het feit dat je de klanten van de bank en de bank kan helpen, of de organisatie waar ik dan zou werken, om het beter te maken, en ook om die om het veilig te houden, dus om de randvoorwaarden te voldoen.
386
00:30:22,758 --> 00:30:25,718
Joop: Mooi mooi, dankjewel voor dit openhartige gesprek.
387
00:30:25,718 --> 00:30:33,958
Joop: We hebben een mooi kijkje gekeken gekregen in de Keuken van de Rabobank, denk ik, dankjewel.
388
00:30:34,438 --> 00:30:37,158
Joop: En wel de knoppen drukken, anders gaat het niet.
389
00:30:38,039 --> 00:30:46,438
Joop: Fijn dat je weer geluisterd hebt, vergeet je niet te abonneren via Favoriete Popcast app, en dan mis je geen aflevering tot de volgende keer.