
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E83 - Vertrouwen als sleutel voor succesvolle AI-implementatie
In de nieuwste aflevering van AIToday Live gaan Anna van den Breemer en Rosa Eggink van EY in gesprek over Responsible AI. Ze bespreken het belang van vertrouwen bij de implementatie van AI-technologie en de uitdagingen die organisaties hierbij tegenkomen.
De experts gaan in op de Europese soevereiniteit in AI-ontwikkeling en de opkomst van AI-agents die autonoom beslissingen nemen. Praktische aspecten van AI-implementatie komen aan bod, evenals adviezen voor organisaties die willen starten met Responsible AI.
Deze aflevering biedt inzichten in de huidige stand van zaken rondom verantwoorde AI-toepassingen en de stappen die nodig zijn om AI succesvol te integreren in organisaties.
Onderwerpen
- Vertrouwen als fundament voor AI-implementatie
- Europese soevereiniteit in AI-ontwikkeling
- De opkomst van AI-agents
- Praktische uitdagingen bij AI-implementatie
- Starten met Responsible AI
- Podcast: AIToday Live podcast
- Organisatie: EY
- Artikel: MIT-rapport over AI-investeringen
- AI Project: Mistral (open source AI door Fransen ontwikkeld)
- Strategie: NDS (Nederlandse Digitaliseringsstrategie)
- Platform: GPT-NL
- Organisatie: Info Support
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: EY - ASML - Mistral
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:05,940
In deze aflevering hoor je Anna van den Breemer en haar collega Rosa Eggink, beide werken
2
00:00:05,940 --> 00:00:06,940
ze voor EY.
3
00:00:06,940 --> 00:00:12,460
Ze vertellen je over hoe vertrouwen de sleutel is voor succesvolle AI-implementaties in organisaties.
4
00:00:12,460 --> 00:00:19,420
Daarnaast delen Anna en Rosa concrete inzichten over de balans tussen innovatie en verantwoordelijkheid,
5
00:00:19,420 --> 00:00:25,500
waarbij ze uitleggen waarom de Europese soevereiniteit in AI steeds belangrijker wordt en hoe bedrijven
6
00:00:25,500 --> 00:00:30,580
we praktisch kunnen starten met Responsible AI zonder verstrikt te raken in perfectionisme.
7
00:00:30,580 --> 00:00:32,020
Dus blijf luisteren!
8
00:00:35,280 --> 00:00:38,220
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
9
00:00:38,520 --> 00:00:40,120
Mijn naam is Joop Snijder, CTO bij Aigency.
10
00:00:40,420 --> 00:00:42,920
Mijn naam Niels Naglé en Area Lead Data & AI bij Info Support.
11
00:00:43,200 --> 00:00:46,320
Leuk, want we hebben vandaag twee gasten in de studio.
12
00:00:47,300 --> 00:00:48,200
Anna en Rosa.
13
00:00:48,890 --> 00:00:51,500
Anna van den Breemer, zou je jezelf eerst even willen voorstellen?
14
00:00:52,040 --> 00:00:53,940
Ja, zeker. Goedendag allemaal.
15
00:00:54,260 --> 00:00:55,260
Mijn naam is Anna van den Breemer.
16
00:00:55,520 --> 00:01:00,980
Ik werk bij EY als adviseur rondom AI en digitale transformatie.
17
00:01:01,560 --> 00:01:04,560
En heb een achtergrond bij Microsoft. Daar heb ik de afgelopen tien jaar gewerkt.
18
00:01:04,700 --> 00:01:07,440
En daar zat ik in het directieteam van de publieke sector.
19
00:01:08,680 --> 00:01:09,960
Mooi. En jij Rosa?
20
00:01:10,380 --> 00:01:14,840
Ja, ik werk eigenlijk net als Anna ook bij EY, maar dan binnen ons AI Lab.
21
00:01:15,760 --> 00:01:20,720
En daar ben ik eigenlijk een van onze adviseurs die klanten helpt om van idee naar volledige transformatie te gaan.
22
00:01:21,320 --> 00:01:24,660
En wat ik begrepen heb is, jullie hebben beide een passie voor Responsible AI ook.
23
00:01:25,380 --> 00:01:26,900
Zeker. Ja, ontzettend.
24
00:01:27,280 --> 00:01:31,560
En daar wilde ik eigenlijk meteen mee in huis vallen.
25
00:01:31,800 --> 00:01:33,580
Wat is eigenlijk Responsible AI?
26
00:01:34,700 --> 00:01:35,160
Volgens jullie.
27
00:01:36,539 --> 00:01:41,080
Ik denk daarbij dat je heel vaak hoort mensen die praten over AI for good.
28
00:01:41,940 --> 00:01:43,180
En dat vind ik een hele mooie term.
29
00:01:43,230 --> 00:01:45,520
Omdat je daarmee kijkt naar maatschappelijke impact maken.
30
00:01:45,720 --> 00:01:48,260
Maar ik denk als je kijkt naar de volledige term van Responsible AI.
31
00:01:48,320 --> 00:01:50,100
Is het niet alleen AI for good.
32
00:01:50,110 --> 00:01:53,120
Maar het gaat ook veel meer om hoe zorgen dat de AI die we maken.
33
00:01:53,980 --> 00:01:56,220
Verantwoord is en rekening houdt met iedereen.
34
00:01:56,660 --> 00:02:02,160
En zorgen dat het doel bereikt dat we willen bereiken zonder negatieve nevenconsequenties te hebben erbij.
35
00:02:03,500 --> 00:02:07,660
En hoe zorg je ervoor dat je geen negatieve neveneffecten hebt?
36
00:02:09,020 --> 00:02:14,300
Ja, ik denk dat het daarbij eigenlijk heel erg begint met wat is er nou voor je belangrijk als organisatie.
37
00:02:14,360 --> 00:02:16,320
En dat kan heel erg verschillend zijn ook per persoon.
38
00:02:16,800 --> 00:02:20,800
Maar het gaat eigenlijk terug naar de basis van welke waarden zijn er voor jou belangrijk.
39
00:02:21,050 --> 00:02:24,360
En daarom zie je heel veel organisaties tegenwoordig met responsable principes.
40
00:02:25,640 --> 00:02:26,800
En dat vormt wel echt het fundament.
41
00:02:27,300 --> 00:02:28,880
En daarbij is het denk ik wel essentieel.
42
00:02:28,880 --> 00:02:31,520
Als je kijkt naar oké, maar binnen onze organisatie.
43
00:02:32,200 --> 00:02:33,760
Wat is er nou voor ons echt belangrijk?
44
00:02:33,960 --> 00:02:35,620
En wat zijn nou echt die principes.
45
00:02:35,860 --> 00:02:37,580
Eigenlijk het fundament wat we willen borgen.
46
00:02:38,120 --> 00:02:39,180
Wanneer we gaan innoveren.
47
00:02:39,620 --> 00:02:43,020
En dat kan gaan van inclusiviteit naar security.
48
00:02:43,600 --> 00:02:45,000
Maar bijvoorbeeld ook zaken als sustainability.
49
00:02:46,040 --> 00:02:48,120
En ik denk als je echt naar responsable jij kijkt.
50
00:02:48,120 --> 00:02:48,880
Is het echt oké.
51
00:02:49,380 --> 00:02:50,220
Vanuit die principes.
52
00:02:50,520 --> 00:02:53,460
Hoe neem je dat nou mee in het hele proces van AI uiteindelijk?
53
00:02:54,500 --> 00:02:56,480
En daar ben ik bij jou Anna wel benieuwd.
54
00:02:57,340 --> 00:02:58,620
Met jouw ervaring van Microsoft.
55
00:02:58,820 --> 00:03:00,280
Wat heb je daarvan meegenomen?
56
00:03:01,040 --> 00:03:03,220
Vooral vanuit die functie die je daar had.
57
00:03:04,900 --> 00:03:07,640
Wat je nu aan het doen bent op dit gebied van Responsible AI.
58
00:03:08,720 --> 00:03:10,760
Ik denk dat het kernwoord vertrouwen is.
59
00:03:12,280 --> 00:03:14,340
En waar het gaat over innovatieve technologie.
60
00:03:15,760 --> 00:03:16,740
Als je wil dat dat.
61
00:03:17,180 --> 00:03:19,500
Ik denk dat we allemaal wel geloven in de potentie.
62
00:03:19,540 --> 00:03:22,280
De potentie van AI of andere innovatieve technologie.
63
00:03:23,020 --> 00:03:24,440
Maar het valt of staat bij gebruik.
64
00:03:25,100 --> 00:03:28,820
En als ik dan even terugval op het MIT-rapport van afgelopen maand.
65
00:03:28,940 --> 00:03:35,660
Waarin wordt aangegeven dat 95% van de investering in AI op dit moment nog niet resulteert in de juiste ROI.
66
00:03:36,620 --> 00:03:38,060
Dan heeft dat eigenlijk met twee dingen te maken.
67
00:03:38,220 --> 00:03:39,000
De eerste is schaal.
68
00:03:39,440 --> 00:03:42,940
Namelijk, er wordt heel veel aan PoCs gedaan als het gaat om AI.
69
00:03:43,080 --> 00:03:44,400
En er wordt heel veel geëxperimenteerd.
70
00:03:44,400 --> 00:03:46,720
Maar het lukt eigenlijk niet om het op schaal uit te rollen.
71
00:03:47,380 --> 00:03:49,660
En dat heeft onder andere te maken met vertrouwen.
72
00:03:49,980 --> 00:04:00,160
Want op het moment dat er geen vertrouwen is in de technologie, in de uitkomst van de technologie, in hoe je het gebruikt of je je medewerkers ermee kan vertrouwen, dan ga je het ook niet op grote schaal kunnen uitrollen.
73
00:04:01,160 --> 00:04:07,520
En ik heb dat ook vanuit Microsoft, meer dan tien jaar geleden kwam de opkomst van de cloud.
74
00:04:08,560 --> 00:04:13,300
Daar zijn we door dezelfde journey heen gegaan als dat je nu met AI zit en dat ging ook over vertrouwen.
75
00:04:13,940 --> 00:04:19,480
Ja, en dat ging over vertrouwen van het veiligstellen van je data of dat veilig genoeg is in de cloud.
76
00:04:19,620 --> 00:04:22,040
Ja, en dat heeft heel veel met transparantie te maken.
77
00:04:23,540 --> 00:04:27,280
Kan je als tech-organisatie goed uitleggen wat er precies gebeurt?
78
00:04:27,980 --> 00:04:29,900
Durf je daar ook heel transparant over te zijn?
79
00:04:29,950 --> 00:04:32,500
En ik denk dat dezelfde vraag ligt er nu bij AI.
80
00:04:33,320 --> 00:04:38,860
Ja, en vind je dat de grote tech-bedrijven daar op dit moment goed mee bezig zijn?
81
00:04:40,060 --> 00:04:41,620
Met het geven van die transparantie?
82
00:04:42,660 --> 00:04:43,740
Dat proberen ze zeker.
83
00:04:44,090 --> 00:04:48,580
Als je natuurlijk ziet wat er nu gebeurt met de veranderende wereldorde.
84
00:04:48,879 --> 00:04:52,000
En ook het sentiment ten aanzien van de big tech.
85
00:04:52,259 --> 00:04:57,460
En de grote druk die er komt om toch meer soeverein te ontwikkelen.
86
00:04:57,920 --> 00:04:59,140
Is het antwoord van de big tech.
87
00:04:59,220 --> 00:05:01,760
Om te zeggen van ja maar we willen heel transparant zijn.
88
00:05:01,880 --> 00:05:03,000
We willen garanties geven.
89
00:05:04,380 --> 00:05:08,180
En commitments geven om te zorgen dat de angst die er is.
90
00:05:08,360 --> 00:05:12,300
Ten aanzien van wat nou als Amerika toch in mijn data kijkt.
91
00:05:12,420 --> 00:05:14,220
Of wat nou als de stekker eruit trekken.
92
00:05:14,220 --> 00:05:16,440
Of dit gaan gebruiken als onderhandelingspositie.
93
00:05:17,060 --> 00:05:20,920
Om eigenlijk de waarborgen te geven dat men zich daar geen zorgen over hoeft te maken.
94
00:05:22,920 --> 00:05:27,360
Maar die harde commitments kunnen maar tot zover gaan, want we zitten gewoon met wettelijke kader.
95
00:05:27,700 --> 00:05:30,260
Ja, wat ik me dan afvraag is vertrouwen.
96
00:05:30,560 --> 00:05:31,820
Daar zitten verschillende aspecten aan.
97
00:05:31,860 --> 00:05:33,440
Ik hoor je er eentje zeggen voorspelbaarheid.
98
00:05:34,080 --> 00:05:37,460
Wat zijn nog meer aspecten die komen kijken bij zo'n transitie in vertrouwen?
99
00:05:37,940 --> 00:05:41,420
Voorspelbaarheid, maar zijn er nog andere karakteristieken waar we dan rekening mee kunnen houden?
100
00:05:42,560 --> 00:05:45,060
Ten aanzien van AI is het natuurlijk een hele belangrijke.
101
00:05:45,420 --> 00:05:47,620
Dat de uitkomst van de AI.
102
00:05:48,060 --> 00:05:50,440
Als het moment dat daar beslissingen mee worden genomen.
103
00:05:50,470 --> 00:05:52,160
Die heel belangrijk zijn in je proces.
104
00:05:53,600 --> 00:05:54,840
Bijvoorbeeld voor overheden.
105
00:05:55,120 --> 00:05:58,780
Maar ook voor financiële instellingen of andere zakelijke gebruikers.
106
00:05:59,540 --> 00:06:03,500
Dan moet je zeker weten dat wat er uit die AI, uit die black box gekomen is.
107
00:06:03,600 --> 00:06:04,940
Dat dat de juiste informatie is.
108
00:06:05,160 --> 00:06:08,100
Dus kwaliteit, voorspelbaarheid, dat soort aspecten.
109
00:06:09,580 --> 00:06:15,740
We zaten net van tevoren samen zitten te lunchen.
110
00:06:16,360 --> 00:06:18,660
Om het even duidelijk te maken voor de luisteraars.
111
00:06:18,660 --> 00:06:23,200
En hebben het gehad over de investering van ASML in Mistral.
112
00:06:24,260 --> 00:06:25,600
Hoe kijk jij daar Rosa naar?
113
00:06:28,140 --> 00:06:30,180
Gaat dat ook over vertrouwen denk je?
114
00:06:31,120 --> 00:06:32,160
Ik denk het zeker wel.
115
00:06:32,360 --> 00:06:34,940
Want eigenlijk wat je nu heel erg ziet vanuit ASML.
116
00:06:34,940 --> 00:06:37,520
Is dat ze een keuze maken juist voor Europese AI.
117
00:06:38,140 --> 00:06:39,500
In tegenstelling tot Amerikaans.
118
00:06:41,040 --> 00:06:42,440
En dat geeft natuurlijk wel een teken af.
119
00:06:42,480 --> 00:06:43,800
Het is ook geen kleine investering.
120
00:06:44,760 --> 00:06:46,860
Dus ik denk dat dat ook wel een teken afgeeft naar Europa.
121
00:06:47,160 --> 00:06:48,960
Dat grote organisaties binnen Nederland.
122
00:06:49,120 --> 00:06:51,340
Maar ik denk wel een van de grootste die we hier natuurlijk hebben ASML.
123
00:06:52,120 --> 00:06:55,120
Dat die toch ook wel echt bereid zijn om te investeren in de Europese AI.
124
00:06:55,500 --> 00:06:57,220
En wat betekent dat dan voor andere bedrijven?
125
00:06:57,340 --> 00:06:58,900
Gaan die dan daar ook involgen?
126
00:06:59,500 --> 00:07:03,660
Of gaan we dan toch nog verder met eventueel zelf ook echt Europese AI weer verder ontwikkelen.
127
00:07:03,740 --> 00:07:04,680
Vanuit de overheid bijvoorbeeld.
128
00:07:05,680 --> 00:07:08,240
Ik denk dat dat wel een hele hoop ook teweeg gaat brengen daarin.
129
00:07:08,760 --> 00:07:11,140
Ik ben even vergeten te zeggen, Mistral is het open source,
130
00:07:12,640 --> 00:07:15,480
zeg maar een variant van een ChatGPT of een Kloot,
131
00:07:15,640 --> 00:07:17,240
maar dan door de Fransen ontwikkeld.
132
00:07:18,420 --> 00:07:20,680
Dus het is echt een Europees initiatief.
133
00:07:21,020 --> 00:07:21,560
Ja, exact.
134
00:07:21,950 --> 00:07:23,720
En ik denk dat daarin dus ook echt de kern zit
135
00:07:24,860 --> 00:07:26,980
van wat eigenlijk deze investering zo bijzonder maakt.
136
00:07:27,220 --> 00:07:27,320
Ja.
137
00:07:27,960 --> 00:07:31,260
Wat we net ook bespraken, hij zit op een aantal vlakken, is hij mooi.
138
00:07:31,540 --> 00:07:35,640
Want het is inderdaad een duidelijk signaal van een Europees bedrijf
139
00:07:35,660 --> 00:07:38,140
Die zegt ik investeer in een open source Europees model.
140
00:07:40,020 --> 00:07:41,280
Maar als je een beetje gaat doordenken.
141
00:07:41,420 --> 00:07:42,660
Wat gaan ze daar nou mee doen?
142
00:07:44,460 --> 00:07:48,620
De essentie natuurlijk in de ontwikkeling van de nieuwe soort modellen.
143
00:07:49,640 --> 00:07:50,240
Zijn de chips.
144
00:07:51,160 --> 00:07:53,100
En ook de verschuiving van hardware naar software.
145
00:07:53,300 --> 00:07:56,160
En natuurlijk het pushen van wat zijn nou het bereik van die software.
146
00:07:56,880 --> 00:07:58,360
Doordat ze deze investering doen.
147
00:07:58,700 --> 00:08:01,380
Krijgen ze natuurlijk ook veel meer grip in hoe ziet die ontwikkeling eruit.
148
00:08:01,500 --> 00:08:03,860
En ze kunnen veel meer daarin gaan vormen en gaan ontwikkelen.
149
00:08:03,960 --> 00:08:05,460
Ze gaan dichter bij de bal zitten.
150
00:08:06,680 --> 00:08:09,560
Zonder dat we precies weten wat ze ermee willen doen.
151
00:08:10,540 --> 00:08:13,100
Maar hier zit natuurlijk een deel van de investering.
152
00:08:14,060 --> 00:08:18,440
En kan het ook helpen richting het verhaal wat jullie hebben met Responsible AI?
153
00:08:19,860 --> 00:08:23,840
Nou ja, iets wat je natuurlijk wel heel erg merkt is de hele soevereiniteitsdiscussie.
154
00:08:24,460 --> 00:08:29,440
Juist dat we binnen Nederland, binnen Europa, maar ik denk vooral binnen Nederland en binnen Duitsland merken.
155
00:08:29,500 --> 00:08:35,740
Ik had veel organisaties zeggen van joh, die big tech, die grote Amerikaanse technologiebedrijven, daar willen we niet meer afhankelijk van zijn.
156
00:08:36,299 --> 00:08:39,640
Wat zijn daarvoor de Europese of misschien wel zelfs Nederlandse alternatieven?
157
00:08:40,340 --> 00:08:49,100
En als je dus inderdaad zo'n investering ziet zoals van ASML in Mistral, dan geeft dat wellicht straks ook wel weer meer mogelijkheden om echt die Europese AI te gaan gebruiken.
158
00:08:49,600 --> 00:08:55,240
En dus ook eventueel een antwoord op wat zijn de mogelijkheden als we niet kijken naar die grote technologiepartijen.
159
00:08:55,720 --> 00:09:02,720
Dus ik denk vanuit verantwoord ook, hoe zorgen dat je als organisatie controle houdt over die data, vooral als je het over financiële data hebt.
160
00:09:03,440 --> 00:09:08,439
En is dan inderdaad dit soort Europees AI daar dan een oplossing wellicht voor om dat dan verantwoord te gaan doen?
161
00:09:09,119 --> 00:09:12,480
Ja, een vraag die bij mij opkomt is, EY zit wereldwijd?
162
00:09:13,200 --> 00:09:15,220
We hebben het hier met name over soevereiniteit, Europa.
163
00:09:15,760 --> 00:09:21,060
Zijn dat ook gesprekken die gevoerd worden met EY in Amerika of is die hele discussie daar niet van toepassing?
164
00:09:22,480 --> 00:09:26,440
Mijn beeld van de situatie is dat het echt een Europese uitdaging is.
165
00:09:26,490 --> 00:09:28,560
En zelfs in Europa dat er verschillen zijn.
166
00:09:28,900 --> 00:09:35,220
En ik was twee weken geleden op e-bestuurcongres samen met de CIO van Digitaal Vlaanderen.
167
00:09:36,100 --> 00:09:41,740
En het viel hem op hoe groot tijdens dit e-bestuurcongres en ook de lancering van de NDS,
168
00:09:41,850 --> 00:09:46,860
de nieuwe Nederlandse digitaliseringsstrategie, eigenlijk het topic soevereiniteit en anti-big tech is.
169
00:09:47,580 --> 00:09:49,480
En waar dat in Vlaanderen toch minder speelt.
170
00:09:50,040 --> 00:09:54,460
Maar we weten dat in landen als in Duitsland en Frankrijk het wel weer een belangrijk onderwerp is.
171
00:09:54,660 --> 00:09:57,400
Dus het is volgens mij een Europese uitdaging.
172
00:09:58,300 --> 00:09:59,480
Ook als ik een beetje uitzoom.
173
00:09:59,620 --> 00:10:03,940
We zitten natuurlijk tussen twee grootmachten in die heel erg hard gaan in de innovatie.
174
00:10:04,160 --> 00:10:06,660
Aan de ene kant natuurlijk Amerika, maar aan de andere kant ook China.
175
00:10:08,480 --> 00:10:11,800
De grote zorg die wij hebben ook rondom bijvoorbeeld productiviteit.
176
00:10:12,660 --> 00:10:13,860
We kunnen niet achterblijven.
177
00:10:13,960 --> 00:10:19,200
We moeten snel ook versnellen, maar willen dat doen op een manier die in lijn is met de privacy waarborgen.
178
00:10:19,420 --> 00:10:21,560
Maar ook het zelf ontwikkelen.
179
00:10:21,820 --> 00:10:25,900
En waar kunnen wij als Nederland en Europa nou nog het verschil maken?
180
00:10:26,060 --> 00:10:28,540
En de beweging die we in ieder geval zien.
181
00:10:28,760 --> 00:10:32,600
En ik denk dat ook deze beweging van ASML daar een vorm aan geeft.
182
00:10:32,640 --> 00:10:37,860
Is dat we ook ons hele datacentermodel veel meer federatief willen gaan inrichten in Europa.
183
00:10:38,000 --> 00:10:39,300
Dus veel meer dichter bij huis.
184
00:10:39,940 --> 00:10:41,560
Veel meer latency gaan inrichten.
185
00:10:42,240 --> 00:10:44,620
Kan je dat federatief wat uitleggen voor de luisteraar?
186
00:10:45,140 --> 00:10:55,100
Het idee is dat we eigenlijk veel meer lokale datacenters die er al zijn, dat we die gaan bundelen en op die manier eigenlijk onze eigen datacentercapaciteit gaan opbouwen in Europa.
187
00:10:55,190 --> 00:10:59,180
Want ik denk wel dat het een Europese uitdaging is die we niet alleen in Nederland kunnen oplossen.
188
00:10:59,650 --> 00:11:06,760
Ja, dus daarom heb je niet gigantische datacenters nodig, maar wat je zegt bundelen van de capaciteit die er is.
189
00:11:07,280 --> 00:11:11,620
En dat geeft ook een soort van antwoord van grote andere uitdagingen zoals de netcongestie.
190
00:11:11,780 --> 00:11:14,940
Hoe kunnen we dat soort gigantische datacenters nog optuigen?
191
00:11:15,040 --> 00:11:15,820
Hebben we daar plek voor?
192
00:11:15,890 --> 00:11:19,600
Dus op het moment dat we dat meer gaan doen met lokale datacenters federatief inrichten.
193
00:11:20,260 --> 00:11:21,140
Op Europees niveau.
194
00:11:22,360 --> 00:11:25,040
Investeren in open source modellen.
195
00:11:25,340 --> 00:11:27,720
Kunnen we eigenlijk langzamerhand.
196
00:11:27,800 --> 00:11:29,060
En ik zeg met nadruk langzaam.
197
00:11:29,100 --> 00:11:30,440
Want ik zou willen dat het veel sneller is.
198
00:11:30,450 --> 00:11:33,840
In ieder geval kijken of we een beetje een antwoord terug kunnen geven.
199
00:11:33,900 --> 00:11:38,160
Of op dat geweld wat er plaatsvindt in het oosten en in het westen van ons.
200
00:11:39,360 --> 00:11:42,160
Een andere grote beweging die op dit moment gaande is.
201
00:11:42,360 --> 00:11:46,020
Is het hele verhaal rondom AI agents en agentic AI.
202
00:11:47,740 --> 00:11:53,280
Heeft dat een positief of negatieve impact rondom responsible AI?
203
00:11:55,540 --> 00:11:56,640
Ik vind dat een hele mooie vraag.
204
00:11:56,900 --> 00:11:57,960
Ik moet er wel even over nadenken.
205
00:11:58,140 --> 00:11:58,920
Ja, snap ik.
206
00:12:00,240 --> 00:12:04,880
Ik denk op het moment dat je wil dat er autonome beslissingen gaan worden genomen door je AI,
207
00:12:05,050 --> 00:12:12,640
dat je dus nog zekerder moet zijn over dat je weet dat de uitkomst van je AI de juiste uitkomst is.
208
00:12:14,360 --> 00:12:21,980
Dus dat heeft een positief impact in die zin dat je volgens mij agentic gaat inrichten op het moment dat je grip hebt op je data.
209
00:12:23,160 --> 00:12:28,560
Wat we wel steeds meer zien is dat we ook modellen gaan ontwikkelen om AI te gaan controleren.
210
00:12:29,100 --> 00:12:31,200
Dus om frameworks om AI in te gaan zetten.
211
00:12:31,210 --> 00:12:33,120
Om te kijken dat het juist is.
212
00:12:33,180 --> 00:12:34,200
Dat het compliant is.
213
00:12:34,730 --> 00:12:36,640
Om te voldoen aan de juiste wet en regelgeving.
214
00:12:36,720 --> 00:12:37,960
Om die zekerheden te geven.
215
00:12:38,700 --> 00:12:43,340
Ja en een voorbeeld daarvan zijn bijvoorbeeld ook de beleidsagents.
216
00:12:43,370 --> 00:12:45,000
Die je eigenlijk als het ware op ziet komen.
217
00:12:45,080 --> 00:12:48,020
Dus je hebt dit soort dingen zoals multi-agent architectures.
218
00:12:48,140 --> 00:12:48,780
Zoals ze dat dan noemen.
219
00:12:48,830 --> 00:12:51,180
Nou ja, meerdere van die AI agents.
220
00:12:51,320 --> 00:12:52,220
Zoals Joop dat net noemde.
221
00:12:52,820 --> 00:12:54,800
Die eigenlijk met elkaar gaan interacteren.
222
00:12:54,960 --> 00:12:57,640
En dan kan dus ook de ene agent de ander gaan controleren.
223
00:12:58,000 --> 00:13:00,720
En dat is iets wat je dus daarin heel erg ziet opkomen.
224
00:13:00,810 --> 00:13:02,200
En ik denk wat Anna aangeeft.
225
00:13:02,640 --> 00:13:06,500
Eerst moet je controle hebben over je data voordat je überhaupt ernaar zo gaat bewegen.
226
00:13:06,700 --> 00:13:08,600
Dus het vraagt iets van je responsable evenement.
227
00:13:09,200 --> 00:13:13,060
Maar als je dat hebt, dan kan je bijvoorbeeld ook dus dat soort agents gaan opzetten.
228
00:13:13,090 --> 00:13:15,720
En dat hebben we ook al gezien bij verschillende organisaties.
229
00:13:16,420 --> 00:13:19,440
Die eigenlijk beleid gaan toetsen op de output van een andere agent.
230
00:13:20,160 --> 00:13:24,340
Maar hoe geef je dan een agent dat mee wat het beleid is?
231
00:13:25,080 --> 00:13:26,440
Dat kan je op verschillende manieren doen.
232
00:13:27,380 --> 00:13:30,340
De meest simpele manier is dat je de kaders voor gaat vastleggen.
233
00:13:30,420 --> 00:13:33,600
En dat je hem gaat instrueren van dit zijn onze beleidsstukken.
234
00:13:33,720 --> 00:13:37,240
Of bepaalde wetgevingscontrols, zoals we dat dan noemen.
235
00:13:37,740 --> 00:13:39,700
Waarop je moet gaan controleren of het daaraan voldoet.
236
00:13:40,160 --> 00:13:43,900
Dus je moet ten eerste wel heel duidelijk je eigen beleid en je kaders inzichtelijk hebben.
237
00:13:44,280 --> 00:13:45,780
En dat ook echt gaan vastleggen met elkaar.
238
00:13:46,040 --> 00:13:47,060
Anders is dat ook niet mogelijk.
239
00:13:48,280 --> 00:13:49,080
Wat ik me afvraag.
240
00:13:49,600 --> 00:13:50,820
Misschien is het een beetje een rare vraag.
241
00:13:50,880 --> 00:13:51,840
Maar goed, ik ga hem toch even stellen.
242
00:13:53,060 --> 00:13:55,240
Dan zijn we compliance agents aan het maken.
243
00:13:55,540 --> 00:13:57,840
om te controleren of een ander agent goed doet.
244
00:13:57,950 --> 00:14:01,400
Hoe kunnen we ervoor zorgen dat de agent zelf responsible acteert
245
00:14:01,540 --> 00:14:04,360
en dat eigenlijk niet die oversight extra nodig is?
246
00:14:05,780 --> 00:14:07,620
Ja, ik denk dat er twee verschillende dingen zijn.
247
00:14:07,670 --> 00:14:09,780
De eerste is namelijk dat je bij je ontwikkeling
248
00:14:09,940 --> 00:14:14,020
al je responsable-heidsprincipes gaat in bedden in alles wat je doet.
249
00:14:14,240 --> 00:14:16,780
Zorg dat je vanaf dag één het op de juiste manier doet
250
00:14:16,920 --> 00:14:18,420
binnen de juiste kaders, guardrails.
251
00:14:18,510 --> 00:14:20,340
En daar zijn natuurlijk gewoon prachtige frameworks voor
252
00:14:20,540 --> 00:14:22,480
en ook wet- en regelgeving.
253
00:14:22,480 --> 00:14:25,080
De tweede is veel meer dat je aantoonbaar compliant kan zijn.
254
00:14:25,160 --> 00:14:29,240
En dat is volgens mij veel meer van belang voor bijvoorbeeld gereguleerde markten.
255
00:14:29,320 --> 00:14:32,800
Om te laten zien hoe ze omgaan met aspecten zoals data en privacy.
256
00:14:33,660 --> 00:14:37,500
En het is denk ik, als ik er wat aan mag toevoegen, ook een designkeuze.
257
00:14:38,620 --> 00:14:42,260
Een agent is vaak heel goed in heel gespecialiseerde taak.
258
00:14:42,620 --> 00:14:45,360
Als aan jou wordt gevraagd bij je opdrachtgever waar je zit.
259
00:14:45,500 --> 00:14:48,080
Je moet compliant werken, doe je dat zo goed mogelijk.
260
00:14:48,840 --> 00:14:52,240
Maar er is nog steeds een compliance afdeling die dat controleert.
261
00:14:53,080 --> 00:14:54,700
Dat is ook niet waarom ik ze helemaal weg wil hebben.
262
00:14:54,860 --> 00:14:57,100
Maar ik zou het ook gewoon zoveel mogelijk wel willen hebben.
263
00:14:57,880 --> 00:15:00,120
En dan hebben we het misschien meer over guardrails dan beleid.
264
00:15:00,200 --> 00:15:01,740
Maar die guardrails zo goed neerzetten.
265
00:15:02,220 --> 00:15:05,920
Zodat die agent van zichzelf al genoeg responsible acteert.
266
00:15:06,140 --> 00:15:07,840
In het hart van je ontwikkeling.
267
00:15:08,940 --> 00:15:11,900
Maar ik wil er misschien toch nog iets dieper op in als dat mag.
268
00:15:13,099 --> 00:15:16,920
Want zo'n compliance agent is ook niet deterministisch.
269
00:15:17,180 --> 00:15:21,100
Dus die heeft het niet altijd bij het juiste eind.
270
00:15:22,180 --> 00:15:23,720
Dat lijkt me best wel lastig dan.
271
00:15:24,160 --> 00:15:25,840
Maar Joop, zijn wij mensen dat dan wel?
272
00:15:27,159 --> 00:15:28,120
Nee, gegarandeerd niet.
273
00:15:28,460 --> 00:15:32,240
Dus ik denk dat daarbij ook dan de vraag is, wat proberen we überhaupt na te maken?
274
00:15:32,860 --> 00:15:36,180
En als je het in een agentformat doet, dan gaat hij inderdaad niet deterministisch zijn.
275
00:15:36,740 --> 00:15:42,520
Maar dan zou je bijvoorbeeld veel meer ook echt deterministische kaders voor dat compliance stuk moeten gaan neerzetten als organisatie.
276
00:15:43,020 --> 00:15:47,560
En wellicht is een agent daar dan niet de juiste oplossing voor, maar ga je veel meer naar klassieke AI-systemen kijken.
277
00:15:48,020 --> 00:15:49,500
Ja, of gewoon regelgebaseerd.
278
00:15:50,160 --> 00:15:51,740
Ik vind de cirkel wel rond.
279
00:15:51,900 --> 00:15:54,320
Want we komen nu toch ook alweer op het punt van vertrouwen.
280
00:15:54,880 --> 00:15:58,440
Waarbij we dus wel accepteren dat er menselijke fouten worden gemaakt.
281
00:15:59,200 --> 00:16:04,360
Maar niet accepteren dat er fouten kunnen worden gemaakt in agent-technologie of in AI-technologie.
282
00:16:04,900 --> 00:16:07,620
En hoe moet zich dat tot elkaar verhouden?
283
00:16:08,120 --> 00:16:10,520
Dat is een vraag, dit is wel leuk, want die stellen we wel vaker.
284
00:16:10,940 --> 00:16:15,380
Mag een AI fouten maken? Mag hij ook net zoveel fouten maken als de mens?
285
00:16:16,260 --> 00:16:18,660
Volgens mij is het antwoord daar nee op. Dat accepteren we niet.
286
00:16:18,900 --> 00:16:19,040
Nee.
287
00:16:21,420 --> 00:16:23,460
Dat denk ik ook. Hoe kijk jij daarnaar, Rosa?
288
00:16:24,180 --> 00:16:29,440
Ik denk dat er een verschil is tussen wat we accepteren en wat we zouden moeten accepteren.
289
00:16:29,720 --> 00:16:34,820
Dus ik denk dat wij minder van AI accepteren dan wat wij eigenlijk van mensen accepteren qua fouten.
290
00:16:35,480 --> 00:16:39,880
Maar dat we daar niet altijd bij stilstaan dat dat misschien wat oneerlijk is richting een AI-systeem.
291
00:16:40,720 --> 00:16:44,200
En als je dan toch fouten gaat maken, want die zullen er nou eenmaal gaan zijn.
292
00:16:44,260 --> 00:16:47,480
Dat kunnen we denk ik niet, eigenlijk nooit 100% gaan afdichten.
293
00:16:47,540 --> 00:16:49,160
Ook al gaat de innovatie straks nog verder.
294
00:16:49,800 --> 00:16:52,500
Gaat het er echt om wat Anne ook aangeeft als stuk vertrouwen?
295
00:16:53,180 --> 00:16:57,200
En essentieel daarvoor is dat je inzicht hebt in de fouten die gemaakt worden.
296
00:16:57,360 --> 00:17:02,240
Dus het blijven monitoren, maar ook het transparant maken van welke keuzes worden er nu gemaakt.
297
00:17:02,960 --> 00:17:06,079
En als je dus verschillende agents hebt die ook verschillende beslissingen maken.
298
00:17:06,619 --> 00:17:08,619
Zorgen dat we dat ook inzichtelijk houden.
299
00:17:08,720 --> 00:17:10,880
En dat we ook terug kunnen gaan in het systeem.
300
00:17:10,980 --> 00:17:12,480
Maar waarom is deze keuze nou gemaakt?
301
00:17:13,020 --> 00:17:14,619
Waarom heeft deze fout plaatsgevonden?
302
00:17:14,700 --> 00:17:16,280
En hoe kunnen we het systeem ook verbeteren?
303
00:17:16,359 --> 00:17:17,760
Dat is misschien volgende keer niet gebeurd.
304
00:17:18,119 --> 00:17:20,380
En het vier ogen principe toepassen, sorry.
305
00:17:20,980 --> 00:17:21,380
Essentieel.
306
00:17:21,700 --> 00:17:21,980
Zeker.
307
00:17:22,339 --> 00:17:31,180
Dus uiteindelijk zullen we in ieder geval tot aan een periode dat we zeker weten dat we echt op AI kunnen vertrouwen.
308
00:17:31,280 --> 00:17:32,880
Altijd de human in de loop houden.
309
00:17:33,560 --> 00:17:37,800
En altijd tot een bepaald punt kunnen zeggen, oké deze output is nu vanuit de systemen gekomen.
310
00:17:37,880 --> 00:17:41,599
En nu gaan we als mens ernaar kijken en zeggen of het goed is of niet goed is.
311
00:17:42,200 --> 00:17:44,560
Ja en het fijne is bij het vastleggen wat jullie zeggen.
312
00:17:45,760 --> 00:17:46,920
En het terug kunnen kijken.
313
00:17:47,660 --> 00:17:51,359
Bij menselijke besluiten is dat heel veel lastiger.
314
00:17:51,540 --> 00:17:54,959
En rationaliseren we natuurlijk naar het besluit toe.
315
00:17:55,380 --> 00:17:59,680
En dat wil niet zeggen dat wat daar gelogd is ook precies is zoals het gegaan is.
316
00:17:59,760 --> 00:18:02,920
Maar heb je in ieder geval meer kans om het een beetje bij te sturen.
317
00:18:04,660 --> 00:18:06,060
Dat is nog een hele leuke Joop.
318
00:18:06,060 --> 00:18:07,540
Je begint over die agent technologie.
319
00:18:07,660 --> 00:18:10,080
Wat ik zo fascinerend vind is het principe.
320
00:18:10,180 --> 00:18:12,460
En ik probeer me dan te denken wat daar de impact van wordt.
321
00:18:13,180 --> 00:18:17,220
Is dat voor heel veel organisaties zo meteen hun klanten agents zullen zijn.
322
00:18:17,540 --> 00:18:17,560
Ja.
323
00:18:18,440 --> 00:18:23,880
En dat ze heel vaak dus niet weten of ze te maken gaan krijgen met een mens of met een agent die een aanvraag gaat doen.
324
00:18:24,070 --> 00:18:24,200
Ja.
325
00:18:25,660 --> 00:18:29,560
Ik probeer me dan te bedenken hoe die wereld eruit gaat zien en hoe je je daar moet inrichten.
326
00:18:29,650 --> 00:18:30,900
Dat is toch fascinerend.
327
00:18:31,160 --> 00:18:33,500
Dat is zeker fascinerend en dat gaat er komen.
328
00:18:33,860 --> 00:18:38,040
Dus je ziet nu al dat mensen met ChatGPT zoekacties doen.
329
00:18:39,240 --> 00:18:41,980
Volgens mij had jij daar een mooi voorbeeld van, toch?
330
00:18:43,720 --> 00:18:45,360
Ja, ik heb twee leuke voorbeelden.
331
00:18:45,420 --> 00:18:53,420
De ene is dat ik sprak iemand bij de Belastingdienst en die vertelde hoeveel bezwaarschriften zij nu krijgen die AI gegenereerd zijn.
332
00:18:54,100 --> 00:18:59,720
En die dus precies weten op welke punten zij hun argumenten moeten aanvoeren, perfect opgesteld.
333
00:18:59,790 --> 00:19:05,600
En wat voor een enorme last dat geeft op een organisatie die al die bezwaren moet gaan beantwoorden.
334
00:19:05,860 --> 00:19:09,940
Die adminlast is nu al heel actueel en dat is echt een uitdaging.
335
00:19:10,860 --> 00:19:17,680
En de tweede, van een hele andere orde, ik was gisteren bij een grote retailorganisatie, een digitale retailer, zeg maar even.
336
00:19:18,460 --> 00:19:27,640
En daar werd onder andere het verhaal verteld dat het menselijk gedrag nu al zo wordt beïnvloed door GPT of door AI,
337
00:19:27,900 --> 00:19:32,040
dat wij op het moment dat we een nieuw product gaan kopen, noem maar even een nieuw paar skis,
338
00:19:32,600 --> 00:19:39,980
dat we via AI of GPT bijvoorbeeld al ons onderzoek doen over wat we moeten hebben, voor wat voor een type skiër je bent,
339
00:19:40,280 --> 00:19:41,840
Voor wanneer je graag skiet.
340
00:19:42,800 --> 00:19:44,620
En op het moment dat je dan naar een website gaat.
341
00:19:45,020 --> 00:19:48,400
Dan zie je dat de hit rate vele malen groter is.
342
00:19:48,520 --> 00:19:50,020
Dus de bounce rate vele malen lager.
343
00:19:50,220 --> 00:19:53,960
En dat we in duizenden procenten groter kansen.
344
00:19:53,980 --> 00:19:55,920
Dat je dus op die website je aankoop gaat doen.
345
00:19:57,380 --> 00:19:58,060
Dat is bizar.
346
00:19:58,520 --> 00:19:58,720
Toch?
347
00:19:58,900 --> 00:19:59,220
Ja.
348
00:20:00,980 --> 00:20:01,860
Het is wel grappig.
349
00:20:01,960 --> 00:20:02,860
Want dat volume.
350
00:20:03,780 --> 00:20:05,420
Ik heb dan gisteren een webinar gegeven.
351
00:20:05,520 --> 00:20:06,960
Voor het verbond voor verzekeraars.
352
00:20:07,220 --> 00:20:09,780
En daar hebben zij daar ook mee te maken.
353
00:20:10,040 --> 00:20:11,580
dus de aangesloten leden,
354
00:20:12,010 --> 00:20:15,280
dat de schadeclaims worden natuurlijk steeds makkelijker om die te geven.
355
00:20:15,860 --> 00:20:17,720
Dus hoe moet je daar dan weer mee omgaan,
356
00:20:18,120 --> 00:20:19,840
dat je niet alleen die volumes aan kan,
357
00:20:20,980 --> 00:20:22,400
maar ook dat je dat op een goede,
358
00:20:22,980 --> 00:20:25,900
en in dit geval denk ik ook een responsible manier, weer afhandelt.
359
00:20:27,010 --> 00:20:28,840
En dat is wel een uitdaging.
360
00:20:29,240 --> 00:20:31,420
Maar dat betekent dat je opnieuw naar je processen moet gaan kijken.
361
00:20:31,620 --> 00:20:33,820
En die processen zijn veranderd, je data verandert.
362
00:20:33,920 --> 00:20:36,460
Dus je moet opnieuw naar je processen gaan kijken.
363
00:20:36,600 --> 00:20:37,400
Dat gaat gewoon veranderen.
364
00:20:37,480 --> 00:20:39,320
En processen misschien nog wel hoger.
365
00:20:40,000 --> 00:20:42,060
businessstrategie je zelfs misschien wel moet gaan heroverwegen
366
00:20:42,140 --> 00:20:43,240
en hoe je daar tegenaan gaat kijken.
367
00:20:44,380 --> 00:20:45,020
Dat is spot on.
368
00:20:45,410 --> 00:20:47,560
Dus ik denk wat we nu heel veel denken is dat we
369
00:20:47,800 --> 00:20:50,040
onze handmatige processen gaan automatiseren
370
00:20:50,140 --> 00:20:51,740
en daar dan AI op gaan inzetten.
371
00:20:52,260 --> 00:20:53,819
Zelfs op een hele gestructureerde
372
00:20:54,780 --> 00:20:56,300
manier, een beetje RPA-achtig.
373
00:20:57,300 --> 00:20:58,160
Waar we echt moeten gaan
374
00:20:58,700 --> 00:21:00,040
herdefiniëren van hoe een proces er moet
375
00:21:00,260 --> 00:21:02,000
uitzien. En dat is de
376
00:21:02,120 --> 00:21:03,700
grote slag die we met elkaar moeten maken.
377
00:21:04,180 --> 00:21:05,820
Waar zit de waarde in de value chain?
378
00:21:06,420 --> 00:21:08,099
En dat vraagt natuurlijk wel weer ook een hele
379
00:21:08,120 --> 00:21:10,040
hoop vertrouwen, omdat je juist dan wel
380
00:21:10,280 --> 00:21:12,240
echt de grote AI-veranderingen
381
00:21:12,320 --> 00:21:14,000
gaat doen. Dat zijn geen kleine
382
00:21:14,320 --> 00:21:16,140
proof of concept die je dan gaat rijden, of kleine
383
00:21:16,380 --> 00:21:18,040
experimenten, of kleine blokjes
384
00:21:18,120 --> 00:21:19,540
van een proces wat je gaat veranderen.
385
00:21:19,920 --> 00:21:22,160
Nee, je gaat wel echt in één keer een volledig proces
386
00:21:22,360 --> 00:21:23,360
opnieuw inrichten met AI.
387
00:21:24,180 --> 00:21:26,180
En dat vraagt wel iets van een organisatie.
388
00:21:26,620 --> 00:21:28,120
Wat vraagt dat van een organisatie?
389
00:21:28,460 --> 00:21:30,360
Ik denk een hele hoop verschillende overwegingen.
390
00:21:30,360 --> 00:21:32,400
Dus nou ja, als je het hebt over beleid,
391
00:21:32,560 --> 00:21:33,940
vertrouwen, communicatie,
392
00:21:34,280 --> 00:21:36,160
training aan je mensen, maar ook echt
393
00:21:36,240 --> 00:21:38,080
denk ik heel erg, omtrent je eigen
394
00:21:38,160 --> 00:21:40,260
je IT-strategie. Dus hoe wil je
395
00:21:40,260 --> 00:21:42,200
dit straks gaan inrichten? Als je het hebt
396
00:21:42,280 --> 00:21:44,220
over kleine use cases of onderdelen
397
00:21:44,300 --> 00:21:46,220
van een proces, kan je nog makkelijker zeggen
398
00:21:46,290 --> 00:21:48,060
van joh, we gebruiken deze keer,
399
00:21:48,200 --> 00:21:50,220
gebruiken we deze software, de volgende keer gebruiken
400
00:21:50,220 --> 00:21:52,280
we daar een andere omgeving voor. Maar als je
401
00:21:52,320 --> 00:21:54,120
grote processen gaat transformeren,
402
00:21:54,560 --> 00:21:56,120
heb je het ook over grotere architecturen
403
00:21:56,150 --> 00:21:58,240
die je gaat neerzetten. Dat vraagt ook
404
00:21:58,440 --> 00:22:00,100
meer van wat voor AI-omgeving je daarvoor
405
00:22:00,220 --> 00:22:02,280
nodig hebt. Ga je dat dan lokaal
406
00:22:02,420 --> 00:22:04,100
doen of ga je dat dan bijvoorbeeld
407
00:22:04,400 --> 00:22:05,560
toch wel weer in de cloud zetten?
408
00:22:06,100 --> 00:22:07,500
Of zijn er dan alternatieven voor?
409
00:22:08,120 --> 00:22:09,400
en ik denk juist als we dat dan even
410
00:22:09,500 --> 00:22:11,360
weer terugbrengen naar dat ASML
411
00:22:11,580 --> 00:22:12,680
voorbeeld dat we eerder noemden.
412
00:22:13,260 --> 00:22:15,400
Zij doen een grote investering en dat zegt mij
413
00:22:15,490 --> 00:22:17,600
ook wel iets, dat ze waarschijnlijk ook echt gaan kijken
414
00:22:17,710 --> 00:22:19,480
naar hoe ze grote processen
415
00:22:19,580 --> 00:22:21,000
daarmee gaan transformeren schans.
416
00:22:21,500 --> 00:22:23,400
En zij zijn daar dus mee bezig, met wat wordt
417
00:22:23,500 --> 00:22:25,540
onze AI-strategie ervoor, als we echt
418
00:22:25,590 --> 00:22:26,360
gaan investeren.
419
00:22:28,240 --> 00:22:29,720
Zie je dan ook al de beweging
420
00:22:29,900 --> 00:22:31,600
van bedrijven die toch zeggen
421
00:22:31,680 --> 00:22:33,380
nou kunnen we die grote AI-modellen
422
00:22:33,450 --> 00:22:35,380
toch niet gewoon meer on-premise gaan
423
00:22:35,980 --> 00:22:37,240
creëren of zelf ontwikkelen?
424
00:22:39,319 --> 00:22:42,260
Ik denk vooral in het kader van die soevereiniteitsdiscussie.
425
00:22:42,880 --> 00:22:47,640
Wij zien zelf grote bewegingen binnen de gereguleerde markten.
426
00:22:47,640 --> 00:22:53,680
Dat ze zeggen, om overwegingen als soevereiniteit, maar ook security en compliance.
427
00:22:54,120 --> 00:22:56,500
Hoe weet ik zeker dat ik het op de juiste manier doe.
428
00:22:58,580 --> 00:22:59,980
Maar ook het houden van controle.
429
00:23:01,180 --> 00:23:04,820
Dat ze steeds vaker heel graag lokaal AI willen draaien.
430
00:23:06,240 --> 00:23:09,780
Nou, dat is ook iets wat we kunnen faciliteren, waar we klanten mee helpen.
431
00:23:10,290 --> 00:23:12,640
Maar wat wel tot hele andere overwegingen leidt.
432
00:23:12,640 --> 00:23:14,060
En dat is heel geestig.
433
00:23:14,130 --> 00:23:18,320
Want zo'n keuze is snel gemaakt van, nee, wij doen het niet in de cloud, maar we willen dat heel graag lokaal doen.
434
00:23:21,280 --> 00:23:24,080
En wat je dan ziet, dus wij helpen ze daarbij om dat te doen.
435
00:23:24,130 --> 00:23:25,940
Dat het vraagt om andere capabilities.
436
00:23:26,200 --> 00:23:29,320
Het vraagt om een andere OPEX-CAPEX model.
437
00:23:30,400 --> 00:23:31,120
Het vraagt...
438
00:23:31,260 --> 00:23:33,060
OPEX-CAPEX moet je misschien even uitleggen.
439
00:23:33,800 --> 00:23:37,540
Dus waar je in de cloud betaalt per gebruik...
440
00:23:38,360 --> 00:23:42,120
is op het moment dat je met lokale AI wil werken...
441
00:23:42,120 --> 00:23:44,120
zal je toch in hardware en chips moeten investeren.
442
00:23:44,240 --> 00:23:46,380
Dus dat betekent dat je eigenlijk vooraf in je aanschaf...
443
00:23:47,179 --> 00:23:48,340
de investering moet doen.
444
00:23:49,020 --> 00:23:50,960
Waarbij sizing een grote uitdaging is.
445
00:23:52,260 --> 00:23:53,560
We hebben een heel leuk voorbeeld.
446
00:23:53,660 --> 00:23:56,800
We zijn met een mooie opdracht bezig...
447
00:23:56,800 --> 00:23:59,160
om lokale AI in te richten voor een organisatie.
448
00:24:00,160 --> 00:24:03,520
En we hebben er eigenlijk in ons lab een server voor aangeschaft.
449
00:24:03,720 --> 00:24:06,300
En dat was best wel een mooie lering.
450
00:24:07,080 --> 00:24:09,720
En Rosa, vertel daar eens over waar wij allemaal tegenaan liepen.
451
00:24:10,360 --> 00:24:14,080
Ja, en ik denk dat het eigenlijk de les is die we zelf nu ook proberen mee te geven aan mensen.
452
00:24:14,280 --> 00:24:16,620
Want dit hadden we vooraf denk ik ook niet ingeschat.
453
00:24:16,700 --> 00:24:20,220
Dat het zo toch wel een opgave zou zijn om die neer te zetten.
454
00:24:20,900 --> 00:24:24,760
Dus die server werd geleverd en we hadden er een hele mooie serverkast ook voor klaarstaan.
455
00:24:25,320 --> 00:24:26,280
De AI-fabriek, hè?
456
00:24:26,290 --> 00:24:28,140
Ja, de AI-fabriek inderdaad.
457
00:24:28,190 --> 00:24:29,960
En die staat dan echt lokaal bij ons.
458
00:24:30,040 --> 00:24:36,320
Die draait echt lokaal en hebben dan verschillende containers opstaan met verschillende mogelijke software om verschillende modellen te runnen.
459
00:24:36,840 --> 00:24:42,380
Zodat je al die verschillende mogelijkheden ook kan laten zien aan een klant of organisatie die daarna aan het kijken zijn.
460
00:24:43,180 --> 00:24:48,180
Maar wat wij dus merkten is dat die ten eerste te groot bleek voor de serverkast die we bedacht hadden.
461
00:24:48,940 --> 00:24:53,020
Ten tweede bleek de stroomaansluiting niet voldoende te zijn, dus die moest omgegooid.
462
00:24:54,000 --> 00:24:57,700
En ten derde, het is natuurlijk ook een stukje brandveiligheid.
463
00:24:58,160 --> 00:25:01,400
Dus hoe ga je ermee om dat die machine straks heel erg warm gaat worden?
464
00:25:02,020 --> 00:25:06,080
Dus hij staat nu in een ruimte die we ook voor andere zaken gebruiken.
465
00:25:06,680 --> 00:25:09,540
Maar daar staat de airco nu constant vrij hoog.
466
00:25:10,120 --> 00:25:11,340
En die mag ook niet meer naar beneden.
467
00:25:12,100 --> 00:25:15,120
Dus we hadden gisteren ook weer een sessie en dat was wel vrij fris.
468
00:25:15,340 --> 00:25:20,380
Dat was toch dat je continu nu in de uitnodiging moet zetten van jongens neem toch maar even een trui mee naar kantoor.
469
00:25:20,840 --> 00:25:22,560
Wat normaal gesproken bij ons niet nodig is.
470
00:25:23,640 --> 00:25:29,260
Maar dat is alleen nog maar de uitdaging die je eigenlijk hebt voor zo'n kleine AI fabriek die wij daar nu hebben neergezet.
471
00:25:29,340 --> 00:25:30,860
Wat eigenlijk alleen een testomgeving is.
472
00:25:31,320 --> 00:25:33,020
Waar je alleen maar proof of concept op draait.
473
00:25:33,520 --> 00:25:39,580
Laat staan wat dat dus betekent als je echt gewoon voor een productieomgeving dit lokaal wil gaan neerzetten.
474
00:25:40,760 --> 00:25:45,460
Waar ik dan gelijk aan denk ik, is het het best te belangrijker dat we dit soort kennis in Nederland, in Europa gaan hebben.
475
00:25:45,620 --> 00:25:48,600
Want dit is natuurlijk gewoon data center knowledge, kennis die we hebben.
476
00:25:49,020 --> 00:25:50,600
maar die nu allemaal bij de big tech zitten
477
00:25:50,820 --> 00:25:52,520
en gelukkig nog wel bedrijven zijn
478
00:25:53,140 --> 00:25:54,720
in Europa en Nederland die die kennis hebben
479
00:25:54,740 --> 00:25:55,840
maar die moeten we gaan uitbreiden
480
00:25:56,460 --> 00:25:57,940
laat staan als we gaan schalen
481
00:25:58,360 --> 00:25:59,840
en hoe gaan we dat federatief schalen
482
00:26:00,080 --> 00:26:01,480
allemaal hele mooie uitdagingen
483
00:26:01,800 --> 00:26:02,580
wat ik me dan afvraag is
484
00:26:02,800 --> 00:26:04,500
dat gaat wel richting de inrichting
485
00:26:05,260 --> 00:26:06,700
wat betekent dit nou voor bedrijven
486
00:26:06,820 --> 00:26:08,340
wat moeten zij met hun strategie
487
00:26:08,380 --> 00:26:10,840
waar moeten zij rekening mee houden als ze dit horen
488
00:26:12,439 --> 00:26:13,440
ja mooie vraag
489
00:26:13,800 --> 00:26:14,360
misschien nog even
490
00:26:15,300 --> 00:26:16,740
echt rondom dit voorbeeld
491
00:26:17,060 --> 00:26:18,640
waar wij ook achter kwamen
492
00:26:18,640 --> 00:26:21,480
...het patchen van deze machine echt vele malen complexer is...
493
00:26:21,480 --> 00:26:24,340
...dan het opspinnen van een omgeving in Azure of in Amazon.
494
00:26:25,620 --> 00:26:26,760
Maar wat het betekent...
495
00:26:26,760 --> 00:26:29,740
...want wij hebben helemaal geen bepaalde voorkeur...
496
00:26:29,740 --> 00:26:30,740
...welke kant het op moet gaan.
497
00:26:30,860 --> 00:26:33,480
En ik denk dat je als organisatie op het moment dat je...
498
00:26:34,440 --> 00:26:36,200
...een AI-strategie ontwikkelt...
499
00:26:36,260 --> 00:26:38,540
...met een bijbehorende datastrategie...
500
00:26:38,540 --> 00:26:41,360
...dat het heel belangrijk is dat je vooral grip krijgt op je data.
501
00:26:42,740 --> 00:26:45,220
Wat voor data heb ik in huis? Wat zijn mijn kroonjuwelen?
502
00:26:45,920 --> 00:26:48,880
Wat wil ik kost wat kost altijd beschermen en toegankelijk hebben?
503
00:26:49,270 --> 00:26:52,120
En op welke data kan ik wat vrijer bewegen?
504
00:26:52,610 --> 00:26:53,300
Dat is één.
505
00:26:53,620 --> 00:26:58,660
En vervolgens maak je je keuze in een cloudstrategie.
506
00:26:59,360 --> 00:27:00,900
Rondom waar zet ik dan mijn data neer?
507
00:27:00,910 --> 00:27:03,360
En waarbij het essentieel is dat je dat operabel hebt.
508
00:27:03,550 --> 00:27:05,740
Dus dat je kan schuiven in je modellen.
509
00:27:05,770 --> 00:27:08,540
Dat je het kan bewegen van de ene naar de andere leverancier.
510
00:27:09,120 --> 00:27:10,260
Of van cloud naar on-prem.
511
00:27:11,000 --> 00:27:14,680
En dat zijn fundamentele keuzes die we klanten aanraden.
512
00:27:15,300 --> 00:27:19,620
De uitdaging zit natuurlijk alleen dat we met heel veel lekkers hier te maken hebben.
513
00:27:20,100 --> 00:27:21,980
En dat het al heel vaak hartstikke vast zit.
514
00:27:22,720 --> 00:27:23,800
Ik kan me daar wat bij voorstellen.
515
00:27:23,920 --> 00:27:24,980
Ik doe mijn data hard goed hoor.
516
00:27:25,140 --> 00:27:25,440
Dit ook.
517
00:27:26,900 --> 00:27:28,100
Allemaal deze strategie.
518
00:27:28,900 --> 00:27:29,260
Heel goed.
519
00:27:29,500 --> 00:27:31,560
We hebben een vast onderdeel in deze podcast.
520
00:27:32,280 --> 00:27:35,020
En dat is het kaartspel wat wij ontwikkeld hebben.
521
00:27:35,580 --> 00:27:40,020
Om juist ook qua strategie met elkaar dingen te bespreken.
522
00:27:40,380 --> 00:27:42,940
Van hoe wil je met bepaalde zaken omgaan.
523
00:27:42,960 --> 00:27:44,700
Dus we willen ook zo'n stelling aan jullie voorleggen.
524
00:27:56,700 --> 00:27:58,420
Je ziet een hele mysterieuze glimlach.
525
00:27:59,140 --> 00:28:00,600
Ik ben heel bang voor deze kaart.
526
00:28:00,800 --> 00:28:01,540
Ik ben heel nerveus.
527
00:28:02,420 --> 00:28:02,920
Het hoeft niet.
528
00:28:04,880 --> 00:28:08,040
Maar het komt erop neer dat we inderdaad zoveel mooie stellingen hebben.
529
00:28:08,140 --> 00:28:09,480
Maar dat die altijd heel mooi past in het verhaal.
530
00:28:09,480 --> 00:28:10,720
Dus dat betekent dat we de goede stellingen hebben.
531
00:28:12,400 --> 00:28:13,240
Maar we beginnen met het thema.
532
00:28:13,620 --> 00:28:14,740
Risico's en uitdagingen.
533
00:28:15,460 --> 00:28:16,480
En de stelling luidt als volgt.
534
00:28:17,120 --> 00:28:19,940
Generatieve AI-systemen zijn vatbaar voor hacks.
535
00:28:20,520 --> 00:28:24,240
En kunnen grote veiligheidsrisico's vormen als ze niet goed worden beveiligd.
536
00:28:26,180 --> 00:28:27,140
Zeker heel passend.
537
00:28:28,140 --> 00:28:30,080
Heb je hem niet specifiek uitgekozen?
538
00:28:30,120 --> 00:28:31,100
Je zag hem net schudden toch?
539
00:28:33,380 --> 00:28:36,320
Ik denk dat het heel erg terugkomt op wat Anna net ook al zei.
540
00:28:36,360 --> 00:28:43,480
Als je voornamelijk generatieve AI, dan zou ik hem toch wel weer even binnen die infrastructuur voor AI willen plaatsen.
541
00:28:44,280 --> 00:28:46,020
als je dat on-prem bijvoorbeeld wil gaan doen
542
00:28:46,160 --> 00:28:47,960
dus je wilt echt zelf in je datacenter
543
00:28:48,050 --> 00:28:48,800
gaan neerzetten
544
00:28:49,760 --> 00:28:51,660
dan moet je dus ook zelf compleet dat beheer
545
00:28:51,670 --> 00:28:54,040
gaan inrichten en je security daaromheen dus ook
546
00:28:54,520 --> 00:28:55,480
en in dat geval
547
00:28:55,820 --> 00:28:57,680
als je dat niet met de juiste
548
00:28:57,840 --> 00:28:59,460
kennis binnen je organisatie kan doen
549
00:28:59,960 --> 00:29:01,840
en dus ook niet op tijd kan gaan patchen
550
00:29:01,860 --> 00:29:03,180
en updates kan gaan doorvoeren
551
00:29:04,400 --> 00:29:05,700
dan wordt het wel heel vatbaar
552
00:29:05,860 --> 00:29:07,680
voor hacks en dat zijn dus denk ik
553
00:29:07,730 --> 00:29:09,980
ook juiste overwegingen die je mee moet nemen
554
00:29:10,220 --> 00:29:11,420
als je gaat kijken naar oké
555
00:29:11,440 --> 00:29:14,300
willen we dat we ons dan misschien toch in een cloud gaan inrichten?
556
00:29:14,840 --> 00:29:16,580
Of zijn er dan hybride mogelijkheden,
557
00:29:16,680 --> 00:29:20,800
zodat we echt de confidentiële of gevoelige data
558
00:29:21,460 --> 00:29:23,320
dan toch extra goed beveiligd kunnen houden?
559
00:29:23,920 --> 00:29:25,740
Maar ik denk zeker dat het heel erg vatbaar is,
560
00:29:25,790 --> 00:29:28,260
al helemaal als je dat dus zelf wil gaan beheren.
561
00:29:28,900 --> 00:29:30,600
Maar ja, dat vraagt dus ook wel wat van de kennis
562
00:29:31,160 --> 00:29:33,340
en het talent wat je intern in huis hebt daarvoor.
563
00:29:33,700 --> 00:29:34,000
Zeker.
564
00:29:34,900 --> 00:29:35,740
Maar ik benieuwd naar Benne.
565
00:29:35,750 --> 00:29:39,660
Ik wil nog even terug naar die AI agents die straks gaan praten.
566
00:29:39,840 --> 00:29:41,960
Dat is mijn persoonlijke AI agent.
567
00:29:42,180 --> 00:29:46,360
Die gaat praten met de AI agent van een bedrijf.
568
00:29:47,400 --> 00:29:49,440
Die AI agent van het bedrijf.
569
00:29:49,600 --> 00:29:52,180
Die moet voldoen aan de AI Act.
570
00:29:54,400 --> 00:29:58,220
Moet er straks ook kaders regelgeving zijn.
571
00:29:58,580 --> 00:30:00,180
Voor mijn AI agent.
572
00:30:00,620 --> 00:30:01,920
Mijn privé AI agent.
573
00:30:03,480 --> 00:30:04,920
In het kader van Responsible AI.
574
00:30:06,520 --> 00:30:06,740
Zo.
575
00:30:08,580 --> 00:30:09,960
Dit is een uitdagende vraag.
576
00:30:11,340 --> 00:30:21,580
Ik denk zelf dat we vooral niet, zeker wij niet, komend vanuit het bedrijfsleven met elkaar hier moeten gaan prediken dat er nog meer regelgeving moet komen.
577
00:30:21,630 --> 00:30:28,320
Ik denk dat het enige wat we nu niet moeten doen is elkaar helemaal vast gaan leggen in allerlei angst.
578
00:30:28,650 --> 00:30:33,300
Die we dan probeerden te kaderen in wet en regelgeving om te zorgen dat we met z'n allen vooral niet vooruit gaan.
579
00:30:33,420 --> 00:30:34,580
Dus mijn antwoord zal nee zijn.
580
00:30:36,420 --> 00:30:40,200
Ik denk wel dat we nu niet overzien hoe deze ontwikkeling gaat.
581
00:30:40,370 --> 00:30:44,480
En dat er mogelijk wel regulering in de toekomst nodig zou kunnen zijn.
582
00:30:44,670 --> 00:30:44,920
Oh ja.
583
00:30:46,310 --> 00:30:47,040
Ben je het er mee eens?
584
00:30:47,840 --> 00:30:48,460
Ja, zeker.
585
00:30:48,800 --> 00:30:52,420
En ik denk dan wel, Joop, als het echt jouw persoonlijke agent blijft.
586
00:30:52,520 --> 00:30:54,940
Dan denk ik dat we voor nu wel goed zitten met de regulering.
587
00:30:55,620 --> 00:31:00,420
Maar ik zou je wel aanraden om hem niet zomaar als een product aan te gaan bieden voor andere mensen.
588
00:31:01,080 --> 00:31:05,640
Ik denk dat je dan wel echt in de regulering wel aan meer vereisten moet gaan voelen.
589
00:31:05,660 --> 00:31:07,440
Dan val je er ook onder, toch?
590
00:31:07,680 --> 00:31:08,160
Ja, exact.
591
00:31:09,180 --> 00:31:11,800
Want dan ben ik leverancier van deze technologie.
592
00:31:13,380 --> 00:31:15,940
Oké, misschien toch nog een klein stapje verder.
593
00:31:16,640 --> 00:31:19,420
Vind je dat ik transparant zou moeten zijn?
594
00:31:19,580 --> 00:31:21,620
Dus dat mijn agent transparant zou moeten zijn?
595
00:31:22,540 --> 00:31:26,120
Dat het een agent is als hij met het bedrijf praat?
596
00:31:27,320 --> 00:31:28,740
Ja, dat is mijn inschatting van wel.
597
00:31:31,020 --> 00:31:31,220
Jij?
598
00:31:32,100 --> 00:31:36,240
Ja, en dan helemaal wanneer er ook natuurlijk weer het menselijk aspect in naar voren gaat komen.
599
00:31:36,700 --> 00:31:40,280
Dus de mensen die uiteindelijk met jouw AI agent weer dicht aan het praten zijn,
600
00:31:41,140 --> 00:31:45,720
dan vind ik wel dat jij een verantwoordelijkheid hebt om wel te uiten dat dat vanuit een agent komt.
601
00:31:46,520 --> 00:31:51,640
Dus wat je nu bijvoorbeeld ook heel erg ziet, en dat triggert mij toch ook wel een beetje,
602
00:31:51,780 --> 00:31:54,360
is heel veel mensen die op LinkedIn nu agents gebruiken.
603
00:31:55,020 --> 00:31:59,960
Dat ze automatisch gegenereerd AI posts eigenlijk op LinkedIn hebben staan.
604
00:32:00,220 --> 00:32:02,740
En dan zie je opeens mensen die dus voorheen niks posten.
605
00:32:03,280 --> 00:32:05,740
En die nu gewoon om de dag een nieuwe post online hebben staan.
606
00:32:06,000 --> 00:32:07,160
Allemaal in hetzelfde format.
607
00:32:08,520 --> 00:32:09,900
Heel veel koppelstreepjes.
608
00:32:10,220 --> 00:32:11,300
Heel veel aanhalingstekens.
609
00:32:11,300 --> 00:32:11,320
Exact.
610
00:32:12,380 --> 00:32:13,720
Mooie layout er ook bij.
611
00:32:13,940 --> 00:32:15,240
Er is wel vaak een aantal enters.
612
00:32:15,330 --> 00:32:16,200
Dat valt me wel op.
613
00:32:16,260 --> 00:32:17,300
Dus dat gaat nog niet helemaal goed.
614
00:32:18,660 --> 00:32:22,060
Maar ik vind daarbij wel dat je een maatschappelijke verantwoordelijkheid hebt.
615
00:32:22,560 --> 00:32:23,740
Om er transparant over te zijn.
616
00:32:23,850 --> 00:32:25,680
Want je vormt ook de mensen die dat lezen.
617
00:32:26,260 --> 00:32:29,980
En dit is dan niet een agent die dan met andere bedrijven direct communiceren.
618
00:32:30,200 --> 00:32:36,180
Dus we hebben het niet over jouw persoonlijke agent die dan een formulier invult om te schaden of iets dergelijks.
619
00:32:36,800 --> 00:32:41,500
Maar ik denk juist wanneer je het richting mensen hebt en maatschappelijke impact die jouw agent kan hebben,
620
00:32:41,760 --> 00:32:43,740
ook al is hij persoonlijk en is het geen dienst,
621
00:32:44,300 --> 00:32:47,140
dan denk je dat je daar echt wel een verantwoordelijkheid in hebt om transparant te zijn.
622
00:32:48,040 --> 00:32:52,440
Ik vind het zelf, merk ik dat het me enorm irriteert, bijvoorbeeld op Instagram, op van die reels,
623
00:32:52,600 --> 00:32:54,300
dat ik niet meer weet wat echt een nep is.
624
00:32:54,660 --> 00:32:57,080
Dus dan zit ik te kijken naar dat filmpje en dan denk ik...
625
00:32:58,760 --> 00:33:02,940
Het is zo moeilijk om dan te achterhalen van is dit nou AI gegenereerd of niet.
626
00:33:03,600 --> 00:33:04,900
Heb je meer wantrouwen gekregen?
627
00:33:05,780 --> 00:33:07,960
Zeker, zeker. En het irriteert me ook.
628
00:33:08,540 --> 00:33:13,700
En ik mocht laatst een mooie keynote van Alexander Klubbing bijwonen.
629
00:33:13,700 --> 00:33:17,420
En hij vertelde ook een beetje een vergezicht, een toekomstvisie waarin hij zei...
630
00:33:17,420 --> 00:33:19,660
ik verwacht dat wij gaan betalen voor echtheid.
631
00:33:20,560 --> 00:33:22,060
Echte muziek, echte gesprekken.
632
00:33:23,880 --> 00:33:24,940
Echte belevingen.
633
00:33:25,300 --> 00:33:26,560
En dat heeft me wel aan denken gezet.
634
00:33:26,580 --> 00:33:28,320
Eerlijk gezegd denk ik dat het namelijk al gebeurt.
635
00:33:28,620 --> 00:33:32,160
Want namelijk de leveranciers van die taalmodellen.
636
00:33:32,260 --> 00:33:33,520
Die zijn natuurlijk op zoek naar.
637
00:33:34,120 --> 00:33:34,380
Echt.
638
00:33:34,760 --> 00:33:36,340
Echt geschreven.
639
00:33:36,600 --> 00:33:38,960
Dus die krijgen allerlei contracten.
640
00:33:38,960 --> 00:33:40,080
Zo direct met mediabedrijven.
641
00:33:41,160 --> 00:33:42,620
Want daar zit dan nog een soort van.
642
00:33:43,520 --> 00:33:44,320
Gegarandeerde echtheid.
643
00:33:44,640 --> 00:33:44,780
Ja.
644
00:33:46,540 --> 00:33:48,000
Dan komen we toch weer terug op een stukje vertrouwen.
645
00:33:49,040 --> 00:33:49,180
Ja.
646
00:33:51,240 --> 00:33:52,460
Maar ik vind het wel ironisch.
647
00:33:52,460 --> 00:33:53,520
Wat je noemt hoor Joop.
648
00:33:53,960 --> 00:33:58,540
Want juist dat grote techpartijen nu eigenlijk aan het betalen zijn voor echte data.
649
00:33:59,380 --> 00:34:02,860
Ik heb nog nooit zoveel procent van de recruiters in mijn inbox gehad.
650
00:34:03,460 --> 00:34:07,960
Die een baan aanbieden over het content creëren waar je AI op kan gaan treden.
651
00:34:08,540 --> 00:34:11,320
Het is echt de afgelopen drie maanden denk ik.
652
00:34:12,120 --> 00:34:15,480
Ongeveer 90% van de mails die ik daarover krijg.
653
00:34:15,760 --> 00:34:16,280
De berichten.
654
00:34:16,800 --> 00:34:17,580
En wat doet dat je?
655
00:34:19,320 --> 00:34:21,340
Ja, ik vind het bijzonder ergens.
656
00:34:24,560 --> 00:34:28,760
En ik vraag me af ook wat de impact gaat zijn op mensen die dat dus ook echt gaan doen als werk.
657
00:34:29,659 --> 00:34:33,900
Wat voor impact heeft het op hun dat zij content moeten gaan genereren voor AI?
658
00:34:34,199 --> 00:34:36,760
Wat doet dat met je als mens en hoe je denkt en hoe je leert?
659
00:34:37,380 --> 00:34:39,560
En dat is wel iets waar ik me soms wat zorgen over kan maken.
660
00:34:40,380 --> 00:34:45,080
En in het verlengde daarvan, we zijn natuurlijk ook bijna door onze nieuwe data heen.
661
00:34:45,918 --> 00:34:54,500
Dus het is natuurlijk ook wel zoeken van, ja, hoe gaan we nou, hoe gaat een GPT-model, of echt een groot large language model, waar komt nu de nieuwe data nog vandaan?
662
00:34:54,500 --> 00:34:57,060
Of gaan we nu doortrainen op alles wat we weten?
663
00:34:58,140 --> 00:35:04,360
En met een groot risico dat daar juist over training in ontstaat en biases door gaan ontstaan waar we niet willen.
664
00:35:04,500 --> 00:35:11,419
Dus ik denk dat de rol van research, van universiteiten, van nieuwe onderzoek eigenlijk veel groter gaat worden.
665
00:35:11,740 --> 00:35:14,360
Ja, en dat zou wel heel erg mooi zijn.
666
00:35:15,840 --> 00:35:23,740
En hopelijk ook toch wel, de media, de auteurs, die zitten nu in de hoek waar de klappen vallen.
667
00:35:24,360 --> 00:35:27,120
Die zijn misschien zo direct wel de producenten van nieuwe data,
668
00:35:27,290 --> 00:35:30,820
dat zij er misschien toch wel voor een deel een winnaar van worden.
669
00:35:30,920 --> 00:35:33,000
Echtheid en nieuwe data, dat hoop ik.
670
00:35:36,180 --> 00:35:40,140
Wij hebben onze data geprobeerd om beschikbaar te stellen aan GPTNL trouwens,
671
00:35:40,280 --> 00:35:42,120
Maar onze data was niet groot genoeg.
672
00:35:42,490 --> 00:35:44,520
Dus alle transcripties wilden wij wel.
673
00:35:45,670 --> 00:35:46,220
Wat interessant.
674
00:35:46,500 --> 00:35:49,060
Want ja, dit is uiteindelijk ook open, publiek.
675
00:35:50,340 --> 00:35:52,700
Maar daarvoor zijn wij nog niet een groot genoegen bron.
676
00:35:52,920 --> 00:35:55,840
Er is een soort van threshold om je data terug te geven.
677
00:35:56,460 --> 00:35:58,580
Als ik feedback geef aan het model, pakt hij hem wel.
678
00:35:59,420 --> 00:36:05,480
Ja, maar dit gaat echt over bedrijven die bereid zijn om data te leveren aan GPT-NL.
679
00:36:06,140 --> 00:36:08,540
En daarvan moesten ze, ze hebben zoveel keus.
680
00:36:08,560 --> 00:36:11,560
Dat ze eerst zeiden van, we gaan eerst voor de hele grote brokken.
681
00:36:11,660 --> 00:36:12,880
En daar kan ik me iets bij voorstellen ook.
682
00:36:13,780 --> 00:36:15,280
Maar Joop, ik vraag me dan wel af.
683
00:36:15,520 --> 00:36:19,480
Jullie werken natuurlijk ook met confidentiële klantgegevens en klantdata.
684
00:36:20,200 --> 00:36:23,160
Wat zou je daarin dan eigenlijk wel en niet beschikbaar stellen?
685
00:36:23,200 --> 00:36:25,300
Oh nee, we hebben de transcripties van het podcast.
686
00:36:25,720 --> 00:36:29,220
Dus alles wat uitgezonden is, dat is dan natuurlijk getranscribeerd.
687
00:36:29,300 --> 00:36:33,640
Dus hopelijk zeg maar, wat jij mij nu verteld hebt, is niet AI gegenereerd.
688
00:36:34,760 --> 00:36:39,700
Daarmee hebben we authentieke data.
689
00:36:40,200 --> 00:36:41,320
Die wilden we dan beschikbaar stellen.
690
00:36:41,360 --> 00:36:43,720
Nee, we gaan zeker geen klantdata beschikbaar stellen.
691
00:36:43,720 --> 00:36:46,800
Maar dan kan ik me voorstellen dat je wellicht te klein bent voor de database.
692
00:36:47,280 --> 00:36:48,520
300 plus afleveringen.
693
00:36:48,760 --> 00:36:49,660
Dat is niet gek.
694
00:36:52,220 --> 00:36:55,140
Ik moet nog steeds over jouw agent nadenken.
695
00:36:55,480 --> 00:36:57,800
Wat we daar technisch mee zouden moeten gaan loggen.
696
00:36:59,200 --> 00:37:00,120
Hoe ga je daarmee om?
697
00:37:03,040 --> 00:37:07,680
Zouden jullie aanbevelen, of tenminste ik neem aan dat je dat regelmatig doet,
698
00:37:08,420 --> 00:37:12,380
als mensen willen beginnen met AI, maar ook meteen die responsibility,
699
00:37:12,860 --> 00:37:15,260
dat ze die vanaf dag één eigenlijk meenemen?
700
00:37:17,420 --> 00:37:20,620
Mijn grootste aanbeveling is vooral, ga beginnen.
701
00:37:21,660 --> 00:37:22,560
Ga het gewoon doen.
702
00:37:22,600 --> 00:37:25,340
Dat kan een hele kleine use case zijn.
703
00:37:25,400 --> 00:37:30,780
Dat kan als persoon, als gebruiker, gaat het echt over gewoon elke dag zorgen
704
00:37:30,820 --> 00:37:33,560
dat je gaat trainen met de modellen.
705
00:37:34,320 --> 00:37:36,440
Voor jezelf gaat begrijpen wat het voor je kan doen.
706
00:37:37,420 --> 00:37:39,600
Heel kritisch gaat kijken naar de output.
707
00:37:40,540 --> 00:37:41,760
Maar bijvoorbeeld ook kijken naar...
708
00:37:41,980 --> 00:37:46,200
In mijn huidige baan, een onderwerp die deze weken heel actueel is...
709
00:37:46,200 --> 00:37:49,400
hoe gaat nou echt het werk van de toekomst eruit zien?
710
00:37:50,160 --> 00:37:52,040
Er wordt heel veel nu over gesproken.
711
00:37:52,070 --> 00:37:53,840
We zien ook heel veel in de media over...
712
00:37:53,840 --> 00:37:57,380
deze beroepsgroepen worden de juniors niet meer aangenomen.
713
00:37:57,500 --> 00:37:59,600
Dat is echt wel een onderwerp die nu top of mind is.
714
00:38:00,620 --> 00:38:05,000
En wat dat voor jezelf betekent is denk ik dat je heel goed moet kijken naar wat voor werk doe ik.
715
00:38:05,660 --> 00:38:09,480
Hoe gaat dat mogelijk in de toekomst vervangen worden door AI?
716
00:38:09,840 --> 00:38:14,300
Of kan ik daarbij ondersteund worden of gaat het gewijzigd worden?
717
00:38:15,040 --> 00:38:18,480
En heel veel met AI gaan zorgen dat je je eigen baan gaat ontwikkelen.
718
00:38:18,980 --> 00:38:22,440
Dus dat is denk ik het eerste wat ik zal doen als individu.
719
00:38:25,200 --> 00:38:29,280
Als organisatie zou ik echt gaan kijken naar ervaring opbouwen.
720
00:38:29,480 --> 00:38:32,440
Dus gewoon beginnen met kleine use cases, met kleine PoCs.
721
00:38:33,400 --> 00:38:37,900
Een ervaring die we hebben is dat heel veel bedrijven zeggen van ja, ik kan dit nu wel bedenken.
722
00:38:37,960 --> 00:38:42,860
Maar voordat ik mijn IT-organisatie mee heb, voordat ik het door de juridische afdeling heen krijg.
723
00:38:43,640 --> 00:38:46,400
Voordat ik die gebruikers getraind heb, joh, dat kost me een jaar.
724
00:38:46,600 --> 00:38:48,340
Dus ik weet niet waar ik moet beginnen.
725
00:38:48,420 --> 00:38:51,340
En dan is mijn antwoord altijd, dat betekent dat je nu moet beginnen.
726
00:38:52,020 --> 00:38:55,620
Je moet nu die eerste use case door dat hele proces heen trekken.
727
00:38:56,360 --> 00:38:59,100
Om over zes weken die tweede use case er doorheen te trekken.
728
00:38:59,240 --> 00:39:01,220
Dan kost het misschien een jaar, min een maand.
729
00:39:01,860 --> 00:39:05,600
En over vijf maanden heb je misschien een voorbrengingsmodel staan.
730
00:39:05,820 --> 00:39:08,080
Waarbij je echt gewoon gaat bedenken.
731
00:39:08,220 --> 00:39:11,660
Hoe gaat AI voor mijn organisatie een verandering teweeg brengen?
732
00:39:11,740 --> 00:39:14,720
Dus zowel als individu als organisatie.
733
00:39:14,720 --> 00:39:15,520
Ga gewoon van start.
734
00:39:16,700 --> 00:39:16,880
Mooi.
735
00:39:16,980 --> 00:39:17,940
Ik ben nog wel benieuwd.
736
00:39:18,160 --> 00:39:20,200
Maar dat is heel persoonlijk voor jullie.
737
00:39:21,720 --> 00:39:25,360
Je hebt voor je eigen baan en je eigen werk ook AI ingezet.
738
00:39:25,800 --> 00:39:27,300
Waar heb je het weer weggelegd?
739
00:39:28,520 --> 00:39:31,880
Ik denk juist dat ik door AI te gebruiken...
740
00:39:32,240 --> 00:39:35,160
nu vaker in creatieve sessies ga zitten met mijn collega's.
741
00:39:35,760 --> 00:39:37,720
Dus iets wat we voorheen heel erg hadden is...
742
00:39:37,720 --> 00:39:39,580
we hadden heel veel korte meetings.
743
00:39:40,460 --> 00:39:43,360
Stel ik als een kort overleg om even snel ergens naar te kijken.
744
00:39:44,080 --> 00:39:48,140
En wat ik nu merk is dat die korte overleggen niet meer per se nodig zijn.
745
00:39:48,480 --> 00:39:52,360
Want daarbij krijgen we eigenlijk de juiste ondersteuning van AI...
746
00:39:52,360 --> 00:39:54,340
om af en toe vastzit er verder te komen.
747
00:39:55,020 --> 00:39:58,400
Maar dat je daardoor ook makkelijker grote blokken inplant...
748
00:39:58,420 --> 00:39:59,760
om toch even met elkaar te zitten.
749
00:40:00,360 --> 00:40:03,900
Even te sparren en op basis daarvan eigenlijk te modelleren...
750
00:40:03,900 --> 00:40:07,580
wat je dan daarna wellicht weer verder met AI-ondersteuning gaat uitwerken.
751
00:40:08,160 --> 00:40:10,860
Ik durf dat wel echt te zeggen dat ik dat nu veel meer doe.
752
00:40:11,020 --> 00:40:14,720
Veel meer met mijn collega's gewoon in sessies van misschien wel twee...
753
00:40:14,720 --> 00:40:15,620
soms vier uur zit.
754
00:40:16,100 --> 00:40:17,300
Om gewoon te brainstormen.
755
00:40:17,500 --> 00:40:18,140
Om het goed om te doen.
756
00:40:18,300 --> 00:40:18,840
Mooi om te horen.
757
00:40:19,660 --> 00:40:21,840
Ik heb er wel eentje in de categorie blunders.
758
00:40:21,960 --> 00:40:23,600
Ik weet niet of dat ook een deel is.
759
00:40:23,860 --> 00:40:24,020
Ja, leuk. Zeker.
760
00:40:24,820 --> 00:40:26,280
Dus waar gebruik ik het niet meer?
761
00:40:27,420 --> 00:40:30,400
Ik heb een aantal keer gedacht.
762
00:40:30,620 --> 00:40:31,820
Ik moet morgen op het podium.
763
00:40:31,870 --> 00:40:33,520
Ik moet een grote groep mensen toespreken.
764
00:40:33,580 --> 00:40:35,880
Ik ben er nog niet aan voorgekomen om voor te bereiden.
765
00:40:36,020 --> 00:40:37,660
En ik laat AI mijn tekst schrijven.
766
00:40:39,599 --> 00:40:41,320
En daar komt toch een tekst uit.
767
00:40:41,580 --> 00:40:41,860
Zo mooi.
768
00:40:42,200 --> 00:40:42,980
Prachtig Engels.
769
00:40:43,110 --> 00:40:44,260
Ik kan het zelf niet bedenken.
770
00:40:44,500 --> 00:40:47,320
En ik ga dat een paar keer doorlezen.
771
00:40:47,390 --> 00:40:50,100
In een soort van veronderstelling dat dat wel beklijft.
772
00:40:50,200 --> 00:40:50,820
Nou, dat doet het niet.
773
00:40:51,680 --> 00:40:54,339
Dat is echt een grote kans voor mislukking.
774
00:40:54,980 --> 00:40:56,600
Of je moet een heel ander soort hersens hebben.
775
00:40:56,860 --> 00:40:57,340
dat ik heb.
776
00:40:59,120 --> 00:41:01,160
Maar ik stond vervolgens op dat podium
777
00:41:01,420 --> 00:41:02,660
met die tekst zo'n soort van
778
00:41:02,720 --> 00:41:04,820
in mijn achterzak. Die zinnen, die
779
00:41:05,080 --> 00:41:06,720
kreeg ik er niet uit, want die waren veel te
780
00:41:06,880 --> 00:41:07,620
mooi opgebouwd.
781
00:41:08,540 --> 00:41:10,220
Het waren niet jouw zinnen. Het waren niet mijn zinnen.
782
00:41:10,420 --> 00:41:12,680
De context kwam niet uit mezelf. Het is niet door
783
00:41:12,740 --> 00:41:14,620
mijn systeem gegaan. Het is niet uit mijn eigen
784
00:41:14,800 --> 00:41:16,300
pen gekomen. Nou, dat
785
00:41:16,920 --> 00:41:18,600
werd helemaal niks. Dus
786
00:41:18,720 --> 00:41:20,840
dat doe ik niet meer. Je hebt het niet doorleefd,
787
00:41:20,900 --> 00:41:22,640
dus daarom is het niet beklijfd.
788
00:41:22,680 --> 00:41:24,340
Het is niet van jezelf. Ja, een heel herkenbaar.
789
00:41:25,000 --> 00:41:26,520
Ja, heb je dat ook gehad, Niels? Ja, zeker.
790
00:41:26,960 --> 00:41:28,720
als je dan een sessie toch nog eventjes
791
00:41:29,180 --> 00:41:30,760
al heb je me vijf keer gegeven
792
00:41:30,840 --> 00:41:32,340
wil je toch weer even nieuw ernaar kijken
793
00:41:32,580 --> 00:41:34,080
dan laat je toch even proberen te inspireren
794
00:41:34,160 --> 00:41:35,520
oh dat is een mooie
795
00:41:37,060 --> 00:41:38,220
die wil ik ook op het podium
796
00:41:38,480 --> 00:41:39,900
en dan sta je daar en denk je wat was het ook
797
00:41:39,900 --> 00:41:42,140
ja terwijl ik ben wel
798
00:41:42,460 --> 00:41:43,940
tegenwoordig en dat is er wel ingebleven
799
00:41:44,000 --> 00:41:44,600
is quotes
800
00:41:45,840 --> 00:41:47,460
de quotes uit de tekst die haal ik eruit
801
00:41:47,560 --> 00:41:50,440
ik vraag specifieker om quotes eruit te laten halen
802
00:41:50,880 --> 00:41:52,360
en die quote die staat op de slide
803
00:41:52,460 --> 00:41:53,340
en daar gaat mijn verhaal
804
00:41:53,440 --> 00:41:56,540
dan heb je toch de quote en dan de eigen context eromheen
805
00:41:56,700 --> 00:41:57,680
Dus dan word je toch geholpen.
806
00:41:58,180 --> 00:41:59,840
Maar volledig de teksten, nee.
807
00:42:00,220 --> 00:42:03,860
Maar Niels, geef je die quote dan wel de credits aan AI?
808
00:42:04,200 --> 00:42:05,440
Of zet je dan je eigen naam eronder?
809
00:42:05,700 --> 00:42:07,340
Ik zet sowieso nooit mijn eigen naam onder een quote.
810
00:42:07,480 --> 00:42:08,580
Tenzij ik hem echt zelf verzonnen heb.
811
00:42:08,660 --> 00:42:10,340
Maar ik betwijfel of ik zelf ooit iets verzond.
812
00:42:10,380 --> 00:42:11,820
Ik denk dat de quotes altijd wel gemaakt zijn.
813
00:42:12,160 --> 00:42:13,860
Ik denk dat de quotes altijd al gemaakt zijn.
814
00:42:14,660 --> 00:42:16,940
Maar nee, ik zoek dan ook nog wel wie heeft de quote dan alweer.
815
00:42:17,180 --> 00:42:17,900
Dat werd eigenlijk gezegd.
816
00:42:17,940 --> 00:42:20,500
Want meestal komt het uit een film of uit een boeken en dat soort zaken.
817
00:42:20,560 --> 00:42:22,240
Dus ik probeer dan ook nog wel te achterhalen wie is het.
818
00:42:22,840 --> 00:42:24,220
Dat moet je niet altijd aan AI vragen.
819
00:42:24,420 --> 00:42:26,180
Maar dat zoek ik wel op inderdaad.
820
00:42:26,240 --> 00:42:28,100
Want credit is by credit is Jill.
821
00:42:28,960 --> 00:42:30,920
Mooi om te horen dat je wel die human in the loop houdt.
822
00:42:32,660 --> 00:42:33,660
Zal ik er ook eentje delen dan?
823
00:42:33,660 --> 00:42:34,440
Ja, ja, ja, kom.
824
00:42:35,420 --> 00:42:37,040
Voor de donderdag editie.
825
00:42:38,260 --> 00:42:39,940
Dan heb ik een korte column.
826
00:42:40,410 --> 00:42:41,120
Dat schrijf ik.
827
00:42:41,380 --> 00:42:44,520
Want ik wil de structuur goed hebben.
828
00:42:45,620 --> 00:42:47,660
Dat vergt altijd een hele hoop voorbereiding.
829
00:42:48,740 --> 00:42:50,440
En daarvan had ik gedacht van.
830
00:42:51,480 --> 00:42:54,880
Kan die kwaliteit daarvan nog omhoog?
831
00:42:55,040 --> 00:43:00,740
Dus ik had een agent gebouwd die controles doet op toon, begrijpelijkheid.
832
00:43:01,000 --> 00:43:02,320
Of er geen jargon in zit.
833
00:43:02,520 --> 00:43:03,500
Allemaal dat soort zaken.
834
00:43:03,600 --> 00:43:05,800
Dus een heel x-aantal criteria.
835
00:43:06,700 --> 00:43:11,200
En die agent mocht dan in verschillende iteraties dat script verbeteren.
836
00:43:13,200 --> 00:43:13,860
Tot een bepaald niveau.
837
00:43:15,340 --> 00:43:18,960
En net als jij, de eerste keer dat ik dat las, dacht ik...
838
00:43:19,420 --> 00:43:19,940
Echt goed.
839
00:43:20,040 --> 00:43:20,680
Het is echt goed.
840
00:43:20,980 --> 00:43:24,820
Het is echt beter dan misschien dat ik dat zelf schrijf of zo.
841
00:43:27,320 --> 00:43:27,820
maar toen ik daar
842
00:43:28,030 --> 00:43:29,420
toch wat langer over nadacht
843
00:43:29,620 --> 00:43:31,960
ja maar daar is nu wel een deel van mij uitgehaald
844
00:43:32,100 --> 00:43:32,760
misschien ook juist
845
00:43:33,330 --> 00:43:35,940
dat in de perfectie de imperfectie
846
00:43:36,080 --> 00:43:36,600
hoort ofzo
847
00:43:37,010 --> 00:43:38,800
dus het werd te zielloos
848
00:43:38,900 --> 00:43:41,320
ja maar uiteindelijk ben ik dit niet
849
00:43:41,800 --> 00:43:43,100
en dan zeg ik het misschien maar
850
00:43:43,460 --> 00:43:44,280
net wat anders
851
00:43:44,960 --> 00:43:47,040
maar dan zeg ik het wel op mijn manier
852
00:43:47,130 --> 00:43:47,820
zoals ik het wil
853
00:43:48,920 --> 00:43:51,660
en het heeft me echt al best wel wat tijd gekost
854
00:43:51,660 --> 00:43:52,640
om die agent te bouwen
855
00:43:52,740 --> 00:43:54,860
Dus dan heb je misschien ook de neiging.
856
00:43:54,980 --> 00:43:55,260
Omdat je zegt.
857
00:43:55,380 --> 00:43:57,260
Ik heb er nou zoveel tijd en energie in zitten.
858
00:43:57,360 --> 00:43:58,620
Ik zal het gebruiken.
859
00:43:59,080 --> 00:43:59,860
Maar ik heb hem weggegooid.
860
00:44:01,260 --> 00:44:02,020
Mooie keuze.
861
00:44:03,960 --> 00:44:04,640
Lastige keuze.
862
00:44:04,640 --> 00:44:04,940
Maar goed.
863
00:44:06,620 --> 00:44:07,160
Dat hoort erbij.
864
00:44:07,380 --> 00:44:10,360
Wat zijn nou over lastige keuzes te hebben.
865
00:44:12,600 --> 00:44:15,980
Waar gaan in jullie belevenis.
866
00:44:17,280 --> 00:44:18,920
AI projecten of experimenten.
867
00:44:19,000 --> 00:44:21,900
Jij begon met de percentage van MIT.
868
00:44:22,840 --> 00:44:32,240
Wat zijn nou moeilijke keuzes die sommige bedrijven niet durven maken, waardoor je eerder het AI-project laat falen?
869
00:44:33,260 --> 00:44:44,580
Ik heb eentje die is eigenlijk best wel simpel, maar toch merkt het, ja je merkt dat het voor ontzettend grote blokken kan gaan zorgen, terwijl je het eigenlijk niet verwacht.
870
00:44:45,380 --> 00:44:48,740
En dat is eigenlijk hoe je hem noemt. Hoe ga je je use case noemen?
871
00:44:50,020 --> 00:44:51,620
Kan je een voorbeeld noemen?
872
00:44:52,020 --> 00:44:55,260
Hoe die exact heet, dat ga ik niet aanhalen.
873
00:44:56,580 --> 00:44:57,860
Maar je hebt het natuurlijk ook vanuit de AI.
874
00:44:58,020 --> 00:44:59,940
Je hebt het over verschillende risicocategorieën.
875
00:45:00,640 --> 00:45:05,260
En wat je toch heel erg merkt, is dat iedereen een andere perceptie heeft...
876
00:45:05,260 --> 00:45:07,340
van wat een titel van een use case kan betekenen.
877
00:45:08,300 --> 00:45:10,460
Dus het kan een hele kleine nuance zijn.
878
00:45:11,240 --> 00:45:12,360
Het zijn eigenlijk twee synoniemen.
879
00:45:13,319 --> 00:45:15,220
Waarbij je eigenlijk gewoon twee kampen krijgt.
880
00:45:15,280 --> 00:45:16,940
Waarbij het ene kamp zegt, nee, wat gaan we niet doen?
881
00:45:17,160 --> 00:45:18,460
Want het is een hoog risico use case.
882
00:45:18,510 --> 00:45:19,480
Dat willen we helemaal niet.
883
00:45:19,980 --> 00:45:22,540
En het andere kant heeft het is van ja, maar we weten toch wat het gaat doen.
884
00:45:22,650 --> 00:45:23,480
Dat valt toch wel mee.
885
00:45:24,300 --> 00:45:26,740
En dan kan het gewoon puur gaan om hoe die genoemd is.
886
00:45:26,960 --> 00:45:30,080
En hoe die dan bijvoorbeeld ergens op een slide staat of in een register zegt komt.
887
00:45:31,080 --> 00:45:34,280
Dat daardoor er geen go gaat komen op eigenlijk de implementatie.
888
00:45:35,360 --> 00:45:38,320
En dan heb ik ook af en toe zoiets van, oké laten we hem dan eigenlijk versimpelen.
889
00:45:38,500 --> 00:45:39,580
Dat we hem heel plat maken.
890
00:45:39,900 --> 00:45:41,140
Geen mooie buzzwords erin.
891
00:45:41,580 --> 00:45:43,340
Heel plat maken van wat doet het nou eigenlijk.
892
00:45:43,520 --> 00:45:44,940
En dus noem je het een werktitel.
893
00:45:45,480 --> 00:45:48,100
En dan ga je nog bijvoorbeeld een hackathon organiseren.
894
00:45:48,180 --> 00:45:51,200
of een challenge om de echte titel te gaan vinden.
895
00:45:52,200 --> 00:45:56,460
Maar het verbaast me hoe erg een proces van AI-BOC
896
00:45:56,540 --> 00:45:58,980
naar echt productimplementatie vast kan lopen,
897
00:45:59,580 --> 00:46:01,840
doordat er eigenlijk verschil van perceptie is
898
00:46:02,340 --> 00:46:04,960
op wat het doet door eigenlijk de naam die het heeft.
899
00:46:04,980 --> 00:46:06,160
De naam, wat een goede.
900
00:46:07,420 --> 00:46:08,080
Dat is een goede tip.
901
00:46:08,540 --> 00:46:08,860
Jij, Anne?
902
00:46:09,580 --> 00:46:10,920
Ja, een hele andere invalshoek.
903
00:46:11,040 --> 00:46:15,300
Maar wat we zien is dat 80% van waar de echte waarde van AI zit,
904
00:46:15,880 --> 00:46:18,640
dat dat vaak helemaal niet in de fancy processen zit.
905
00:46:18,860 --> 00:46:22,580
En de vernielde toepassingen waar nieuwe data wordt gecombineerd
906
00:46:23,150 --> 00:46:25,400
en een fantastisch nieuw businessmodel wordt uitgevonden.
907
00:46:25,920 --> 00:46:30,700
Maar 80% zit hem echt in het bulkwerk, in grof administratief werk.
908
00:46:32,160 --> 00:46:33,020
Helemaal niet sexy.
909
00:46:33,200 --> 00:46:34,040
Helemaal niet sexy.
910
00:46:34,260 --> 00:46:37,660
Het handmatige processen van het vullen van een vakje ergens in een systeem,
911
00:46:37,920 --> 00:46:38,920
automatiseer je dat soort dingen.
912
00:46:40,220 --> 00:46:44,640
En wat we veel horen is dat daar nieuwe toepassingen worden,
913
00:46:44,940 --> 00:46:46,040
Op worden ingericht.
914
00:46:46,200 --> 00:46:48,400
Dat het vaak ook wel is voor gebruikers.
915
00:46:48,580 --> 00:46:50,980
Die van oudsher niet heel digitaal savy zijn.
916
00:46:51,840 --> 00:46:53,340
Dus niet per definitie.
917
00:46:53,560 --> 00:46:59,040
Altijd maar met de laatste apps voor handen willen werken.
918
00:46:59,160 --> 00:47:00,760
Maar gewend zijn aan dat oude systeem.
919
00:47:00,760 --> 00:47:01,760
Hoe ze het altijd deden.
920
00:47:02,200 --> 00:47:03,760
En dan wordt adoptie wel heel belangrijk.
921
00:47:04,900 --> 00:47:08,680
En dan is de grote uitdaging.
922
00:47:08,680 --> 00:47:10,860
Dus gewoon een hele simpele valkuil.
923
00:47:11,640 --> 00:47:13,680
Het weghalen van de oude manier.
924
00:47:14,640 --> 00:47:15,640
Gewoon echt weghalen.
925
00:47:15,650 --> 00:47:19,880
Want anders blijven mensen toch op de oude manier vaak loggen of administreren.
926
00:47:19,980 --> 00:47:21,620
Maar echt alleen maar de nieuwe manier aanbieden.
927
00:47:22,180 --> 00:47:24,400
En dan heel veel consistentie.
928
00:47:24,520 --> 00:47:25,660
Heel veel communicatie.
929
00:47:25,800 --> 00:47:26,780
Heel veel doordrukken.
930
00:47:26,820 --> 00:47:29,080
Om te zorgen dat mensen de nieuwe manier gaan gebruiken.
931
00:47:29,200 --> 00:47:29,860
Want die adoptie.
932
00:47:30,599 --> 00:47:32,160
Die blijft enorm achter.
933
00:47:32,340 --> 00:47:33,700
En dat is echt het harde werk.
934
00:47:33,860 --> 00:47:34,940
Dat is echt het groundwork.
935
00:47:35,200 --> 00:47:35,840
Ja zeker weten.
936
00:47:35,920 --> 00:47:37,520
Dus radicale keuzes kunnen maken.
937
00:47:37,640 --> 00:47:38,960
Om die voortgang voor elkaar te maken.
938
00:47:39,080 --> 00:47:40,440
En niet te lang in het oude blijven handelen.
939
00:47:41,760 --> 00:47:42,820
Voordat we hem afsluiten.
940
00:47:43,180 --> 00:47:44,700
Is er een vraag die wij niet gesteld hebben?
941
00:47:48,900 --> 00:47:50,180
Ja, daar valt in ieder geval een goede stilte.
942
00:47:50,860 --> 00:47:51,820
Dat is in ieder geval een goede dag.
943
00:47:53,339 --> 00:47:54,640
Zullen we hem dan rondmaken?
944
00:47:54,720 --> 00:47:58,760
Want we begonnen met het vertrouwen en het Responsible AI.
945
00:48:00,220 --> 00:48:01,940
Nou, daar is best wel denk ik heel veel voor nodig.
946
00:48:02,180 --> 00:48:04,200
Maar jij zegt denk ik heel terecht, start.
947
00:48:04,540 --> 00:48:07,040
Want dat is eigenlijk de enige manier om en ervaring op te doen.
948
00:48:07,440 --> 00:48:10,440
Maar ook om te werken aan het vertrouwen en aan de adoptie.
949
00:48:11,160 --> 00:48:11,880
Mis ik dan iets?
950
00:48:13,700 --> 00:48:15,060
je had op een gegeven moment
951
00:48:15,100 --> 00:48:17,020
stel je natuurlijk de vraag, wat zou een bedrijf nou echt
952
00:48:17,020 --> 00:48:18,540
als allereerste moeten doen
953
00:48:18,920 --> 00:48:20,000
om dus te gaan starten
954
00:48:20,860 --> 00:48:22,220
en ik denk dat ik daar nog één ding mee
955
00:48:22,980 --> 00:48:24,800
kan geven en waarvan ik ook echt heb
956
00:48:25,080 --> 00:48:26,880
ervaren dat het heel veel doet met mensen
957
00:48:27,760 --> 00:48:28,760
is ga niet
958
00:48:29,280 --> 00:48:30,780
nadenken over hoe je iedereen op één
959
00:48:30,960 --> 00:48:32,600
lijn krijgt voordat je begint
960
00:48:33,300 --> 00:48:35,160
maar zet gewoon iedereen in dezelfde
961
00:48:35,340 --> 00:48:36,900
ruimte, ga een halve dag of een
962
00:48:37,020 --> 00:48:38,800
hele dag samen zitten, laat dat
963
00:48:38,880 --> 00:48:40,879
desnoods faciliteren door iemand die daar
964
00:48:40,900 --> 00:48:42,960
ervaring mee heeft. Maar neem
965
00:48:42,990 --> 00:48:44,760
die verschillende perspectieven mee. Dus ga niet
966
00:48:45,359 --> 00:48:46,980
multidisciplinair eerst teams proberen op te zetten.
967
00:48:47,540 --> 00:48:49,160
Maar breng ze samen in één ruimte
968
00:48:49,160 --> 00:48:50,940
en ga dan hebben over wat je met AI
969
00:48:51,070 --> 00:48:52,980
kan gaan doen. Want dan merk je ook dat
970
00:48:53,100 --> 00:48:55,100
mensen toch, ja, ze gaan met elkaar in gesprek.
971
00:48:55,110 --> 00:48:56,100
Ze inspireren elkaar.
972
00:48:56,800 --> 00:48:58,800
Ze praten met elkaar als ze dat eigenlijk zelfs
973
00:48:59,180 --> 00:49:00,640
normaal gesproken nooit zouden doen.
974
00:49:01,700 --> 00:49:03,080
En ik denk dat dat wel heel erg
975
00:49:03,340 --> 00:49:04,820
helpt om gewoon die eerste start te gaan maken.
976
00:49:04,880 --> 00:49:07,080
En echt bezig te gaan. Het lijkt me een hele mooie
977
00:49:07,180 --> 00:49:08,340
afsluiter. Dank je wel.
978
00:49:09,320 --> 00:49:10,300
Dank je wel dat jullie
979
00:49:11,280 --> 00:49:11,980
wilde komen.
980
00:49:13,060 --> 00:49:14,440
Vergeet je niet te abonneren als
981
00:49:14,600 --> 00:49:15,880
luisteraar voor...
982
00:49:16,660 --> 00:49:18,220
Tjonge zeg. Ik begin even op...
983
00:49:18,240 --> 00:49:19,220
Voor de volgende aflevering.
984
00:49:20,940 --> 00:49:22,380
Vergeet je niet te abonneren via je
985
00:49:22,600 --> 00:49:24,480
favoriete podcast app. Dan mis je
986
00:49:24,480 --> 00:49:26,340
geen aflevering. We hebben ook een hele leuke
987
00:49:26,460 --> 00:49:28,240
nieuwsbrief met allerlei leuke dingen
988
00:49:28,240 --> 00:49:30,420
van achter de schermen. Dus kijk daar eens even
989
00:49:30,440 --> 00:49:31,380
naar. Tot de volgende keer.
990
00:49:31,440 --> 00:49:32,260
Tot de volgende keer.